人工智能民意调查:大多数美国人希望放慢人工智能速度

五个月前,当我发表一篇大文章阐述减缓人工智能速度的案例时,说我们应该对这项技术踩刹车并不完全是主流。在科技行业,这实际上是一种禁忌。

OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 认为,美国人放慢 OpenAI 的进步是愚蠢的。他对《大西洋月刊》表示,“如果你是一个自由民主国家的人,你最好为 OpenAI 的成功欢呼”,而不是“为独裁政府欢呼” 。微软的布拉德·史密斯(Brad Smith)同样认为,我们不能放慢脚步,以免中国在人工智能领域领先。

但事实证明,美国公众并不同意他们的观点。根据智库人工智能政策研究所的最新民意调查,高达72% 的美国选民希望减缓人工智能的发展,而只有 8% 的选民希望加快人工智能的发展。

这项民意调查由数据分析公司 YouGov 进行,对 1,001 名不同年龄、性别和政治派别的美国人进行了调查:42% 的受访者支持唐纳德·特朗普,47% 的受访者支持乔·拜登。种族分类的代表性稍差一些:73% 的受访者认为自己是白人,12% 是黑人,7% 是西班牙裔。大多数受访者没有大学学位。

人工智能安全和研究公司Anthropic的首席执行官杰克·克拉克 (Jack Clark)在他的热门时事通讯中注意到了这项调查。“这些结果很有趣,因为它们似乎显示了精英观点和大众观点之间的分歧,”他写道。具体来说,“这项调查表明,普通人对技术的看法更加谨慎,并且在开发技术时更有可能采用或更喜欢预防原则。”

美国人明确表达了他们对人工智能的愿望——慢点!——政策制定者知道这就是他们的选民想要的,这一点很重要。这可能会鼓励他们采取急需的政策,促使人们对人工智能更加谨慎。毕竟,这项技术有可能造成严重危害,例如传播可能影响选举的虚假信息。华盛顿的工作是保护美国选民的利益,而不是保护大型科技公司高管的利益,这些高管尽管从未通过民主选举产生,但仍寻求行使巨大权力。

迈向“零信任”人工智能治理

人工智能政策研究所的民意调查还有另一个惊人的发现:82% 的美国选民不相信人工智能公司能够进行自我监管

对于 AI Now Institute 研究中心常务董事 Sarah Myers West 来说,公众的这种不信任既恰当又不足为奇。“我认为人们已经从过去十年的技术引发的危机中吸取了教训,”她告诉我。“当你看到证据时就会很清楚地发现自我监管方法不起作用。”

社交媒体就是一个典型的例子。多年来,像Meta这样的公司一直表示他们渴望受到监管,但实际上,他们因为拒绝有意义地改变自己的商业模式而继续造成严重 伤害。马克·扎克伯格在国会面前不断被拖拽是有原因的。

OpenAI 也表示希望监管。但在幕后,它游说欧盟淡化人工智能监管。

“看看 OpenAI 在呼吁监管时使用的非常非常微妙的措辞,”韦斯特说。“总是有一个限定词——比如,‘我们希望对通用人工智能或超过特定阈值的模型进行监管 ——从而排除他们已经在商业用途中使用的所有内容。” 科技公司知道监管可能是不可避免的,因此他们支持某些旨在抢占更大胆改革的举措。

意识到盲目信任大型科技公司的仁慈是不可行的,West 和她在 AI Now Institute 的团队本月发布了一个名为“零信任人工智能治理”的新框架。正如它听起来的那样——呼吁立法者自己解决问题。

新框架建议彻底颠覆大型科技公司最喜欢的策略。尽管科技高管所采用的监管方法会导致行动缓慢、流程冗长、需要复杂且难以执行的制度,并将责任负担强加给资源不足的公众,但零信任人工智能治理提出了以下三项原则:

1. 时间至关重要——从大力执行现有法律开始。

2. 大胆、易于管理、明确的规则是必要的。

3. 在人工智能系统生命周期的每个阶段,公司 都有责任证明其系统无害

人工智能政策研究所的民意调查显示公众对这些想法的强烈支持。以下是一些主要调查结果:

58% 的选民(包括多数共和党人)希望联邦政府彻底监管人工智能。

76% 的选民希望人工智能生成的图像能够包含由计算机生成的证据。

65% 的选民支持要求先进的人工智能模型在发布前证明其安全性,而只有 11% 的选民反对这一政策。

人工智能政策研究所执行主任丹尼尔·科尔森在一份声明中表示:“强大且可能有害的人工智能发展并非必然。” “我们的政治领导人,以及更广泛的社会,需要选择为了技术进步的潜力,我们愿意承受哪些风险。”

至关重要的是,这要求我们不要犯我们在社交媒体时代所犯的同样的错误:将技术进步与社会进步等同起来。“这就像已成定局,”韦斯特说。“我不相信人工智能在任何情况下都与进步有关。”

如果调查结果有任何迹象的话,那就是很大一部分美国公众似乎也不再那么天真了。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/75422.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年8月23日 00:56
下一篇 2023年8月23日 01:06

相关推荐

  • 集中精力

    集中! 和您一样,我们读过无数次将当今对人工智能的热情与 2000 年 TMT 泡沫顶峰进行比较的文章,其含义是股市处于危险之中。从技术描述来看,相似之处是准确的——市场狭窄、横截面波动性升高以及资本集中在少数几只股票上,这些都与 2000 年的顶峰相似。 观察这一现象的一种方法是计算需要多少只股票才能解释标普 500 指数的回报。图 1 显示了随着六个月市…

    2024年9月10日
    3700
  • 新的脑机接口技术能读懂你的想法吗?

    几年来,我一直在撰写有关神经技术的文章,标题完全是奥威尔式的。头条新闻警告“ Facebook 正在开发能够读懂你思想的技术”和“读脑技术即将到来”。 好吧,这项技术不再只是“即将到来”。它在这里。 根据《自然》杂志发表的一项研究,在人工智能的帮助下,德克萨斯大学奥斯汀分校的科学家们开发出了一种技术,可以将人们的大脑活动——比如我们脑海中盘旋的未说出口的想法…

    2023年7月19日
    31000
  • 人工智能数据中心和电动汽车,第 2 部分:电网扩建所需的能源

    本文延续了第一部分的内容,第一部分讨论了为满足人工智能数据中心和电动汽车用户的需求而将投入的巨额投资,以扩建和现代化电网。在阐述了宏观投资理论之后,我们现在探讨哪些行业和公司可能从即将到来的电网变化中受益。第二部分重点介绍将为电网提供动力的传统能源供应商。这些行业和公司没有按任何特定顺序列出。 在您阅读本文时,请考虑一下,选择“正确”的电网股票是困难的。从短…

    2024年8月5日
    3300
  • 如何避免新电动汽车发生碰撞

    作者:克里斯·布莱恩特,24 年 3 月 7 日 Fisker Inc. 警告称,如果没有新股本或债务,该公司可能会在 12 个月内耗尽现金,这给车主们提出了一个令人担忧的新问题:如果您的电动汽车制造商破产了,会发生什么?现代汽车是高度复杂的轮子计算机,依赖昂贵的电池和定期软件更新才能正常运行。 消费者应该扩大购买前的功课,包括对制造商的财务状况进行评估,如…

    2024年3月19日
    10000
  • 利用人工智能识别和预测金融危机

    人工智能 (AI) 可以提高我们识别和预测金融危机的能力。人工智能的一项关键创新是能够从数据中学习,而无需被告知要寻找什么。利用人工智能等技术需要我们摆脱传统的主观方法,让数据告诉我们何时会出现危机。 将数据点分组,以揭示我们以前可能没有注意到的模式和见解,是识别金融危机的一种方法。这有助于我们更好地了解引发这些危机的原因。 在列支敦士登大学,迈克尔·汉克、…

    2024年6月26日
    9100

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部