人工智能民意调查:大多数美国人希望放慢人工智能速度

五个月前,当我发表一篇大文章阐述减缓人工智能速度的案例时,说我们应该对这项技术踩刹车并不完全是主流。在科技行业,这实际上是一种禁忌。

OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 认为,美国人放慢 OpenAI 的进步是愚蠢的。他对《大西洋月刊》表示,“如果你是一个自由民主国家的人,你最好为 OpenAI 的成功欢呼”,而不是“为独裁政府欢呼” 。微软的布拉德·史密斯(Brad Smith)同样认为,我们不能放慢脚步,以免中国在人工智能领域领先。

但事实证明,美国公众并不同意他们的观点。根据智库人工智能政策研究所的最新民意调查,高达72% 的美国选民希望减缓人工智能的发展,而只有 8% 的选民希望加快人工智能的发展。

这项民意调查由数据分析公司 YouGov 进行,对 1,001 名不同年龄、性别和政治派别的美国人进行了调查:42% 的受访者支持唐纳德·特朗普,47% 的受访者支持乔·拜登。种族分类的代表性稍差一些:73% 的受访者认为自己是白人,12% 是黑人,7% 是西班牙裔。大多数受访者没有大学学位。

人工智能安全和研究公司Anthropic的首席执行官杰克·克拉克 (Jack Clark)在他的热门时事通讯中注意到了这项调查。“这些结果很有趣,因为它们似乎显示了精英观点和大众观点之间的分歧,”他写道。具体来说,“这项调查表明,普通人对技术的看法更加谨慎,并且在开发技术时更有可能采用或更喜欢预防原则。”

美国人明确表达了他们对人工智能的愿望——慢点!——政策制定者知道这就是他们的选民想要的,这一点很重要。这可能会鼓励他们采取急需的政策,促使人们对人工智能更加谨慎。毕竟,这项技术有可能造成严重危害,例如传播可能影响选举的虚假信息。华盛顿的工作是保护美国选民的利益,而不是保护大型科技公司高管的利益,这些高管尽管从未通过民主选举产生,但仍寻求行使巨大权力。

迈向“零信任”人工智能治理

人工智能政策研究所的民意调查还有另一个惊人的发现:82% 的美国选民不相信人工智能公司能够进行自我监管

对于 AI Now Institute 研究中心常务董事 Sarah Myers West 来说,公众的这种不信任既恰当又不足为奇。“我认为人们已经从过去十年的技术引发的危机中吸取了教训,”她告诉我。“当你看到证据时就会很清楚地发现自我监管方法不起作用。”

社交媒体就是一个典型的例子。多年来,像Meta这样的公司一直表示他们渴望受到监管,但实际上,他们因为拒绝有意义地改变自己的商业模式而继续造成严重 伤害。马克·扎克伯格在国会面前不断被拖拽是有原因的。

OpenAI 也表示希望监管。但在幕后,它游说欧盟淡化人工智能监管。

“看看 OpenAI 在呼吁监管时使用的非常非常微妙的措辞,”韦斯特说。“总是有一个限定词——比如,‘我们希望对通用人工智能或超过特定阈值的模型进行监管 ——从而排除他们已经在商业用途中使用的所有内容。” 科技公司知道监管可能是不可避免的,因此他们支持某些旨在抢占更大胆改革的举措。

意识到盲目信任大型科技公司的仁慈是不可行的,West 和她在 AI Now Institute 的团队本月发布了一个名为“零信任人工智能治理”的新框架。正如它听起来的那样——呼吁立法者自己解决问题。

新框架建议彻底颠覆大型科技公司最喜欢的策略。尽管科技高管所采用的监管方法会导致行动缓慢、流程冗长、需要复杂且难以执行的制度,并将责任负担强加给资源不足的公众,但零信任人工智能治理提出了以下三项原则:

1. 时间至关重要——从大力执行现有法律开始。

2. 大胆、易于管理、明确的规则是必要的。

3. 在人工智能系统生命周期的每个阶段,公司 都有责任证明其系统无害

人工智能政策研究所的民意调查显示公众对这些想法的强烈支持。以下是一些主要调查结果:

58% 的选民(包括多数共和党人)希望联邦政府彻底监管人工智能。

76% 的选民希望人工智能生成的图像能够包含由计算机生成的证据。

65% 的选民支持要求先进的人工智能模型在发布前证明其安全性,而只有 11% 的选民反对这一政策。

人工智能政策研究所执行主任丹尼尔·科尔森在一份声明中表示:“强大且可能有害的人工智能发展并非必然。” “我们的政治领导人,以及更广泛的社会,需要选择为了技术进步的潜力,我们愿意承受哪些风险。”

至关重要的是,这要求我们不要犯我们在社交媒体时代所犯的同样的错误:将技术进步与社会进步等同起来。“这就像已成定局,”韦斯特说。“我不相信人工智能在任何情况下都与进步有关。”

如果调查结果有任何迹象的话,那就是很大一部分美国公众似乎也不再那么天真了。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/75422.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年8月23日 00:56
下一篇 2023年8月23日 01:06

相关推荐

  • 风险投资:互联网时代的教训

    纳斯达克 100 指数在 2002 年 10 月 10 日盘中交易中跌至谷底,较 2000 年 3 月 10 日的历史高点下跌 77%。估计有 1 亿个人投资者在股市损失了 5 万亿美元。这个以科技股为主的指数花了超过 15 年的时间才重回巅峰。 Webvan 和 eToys 这样的网络轰炸公司,以及 Theranos 和 FTX 这样的无人问津的初创公司,…

    2024年3月7日
    11400
  • Threads 对抗 Twitter,马克·扎克伯格Mark Zuckerberg战胜埃隆·马斯克Elon Musk

    备受期待的埃隆·马斯克和马克·扎克伯格之间的笼式摔跤比赛还没有发生,而且可能永远不会发生。 但更大的斗争——关于权力、文化相关性和自我的斗争,在社交平台上而不是在铁笼子里上演——仍在继续。经过这几天的事件,很明显扎克伯格已经赢得了第一轮。 在短短几天内,Meta 的新 Twitter 杀手级应用程序Threads 就证明了自己是真正取代尚未出现的 Twitt…

    2023年7月13日
    7700
  • 集中精力

    集中! 和您一样,我们读过无数次将当今对人工智能的热情与 2000 年 TMT 泡沫顶峰进行比较的文章,其含义是股市处于危险之中。从技术描述来看,相似之处是准确的——市场狭窄、横截面波动性升高以及资本集中在少数几只股票上,这些都与 2000 年的顶峰相似。 观察这一现象的一种方法是计算需要多少只股票才能解释标普 500 指数的回报。图 1 显示了随着六个月市…

    2024年9月10日
    2400
  • 从上一次科技泡沫中吸取教训,拥抱 GenAI 狂热

    作者:Que Nguyen,2024 年 5 月 23 日 关键点 我们相信生成式人工智能 (GenAI) 具有变革潜力。如果我们是对的,GenAI 正处于成为投资泡沫的早期阶段。 以20世纪90年代的互联网泡沫为指导,我们为今天的投资者吸取了教训: 通过技术转型而崛起的最成功的公司往往不是一开始就存在的明星公司。 尽管泡沫最终会破裂,但狂热所引发的资本投资…

    2024年5月29日
    9400
  • 一项新的民意调查显示,美国人不想要比人类更聪明的人工智能

    他们说,主要的人工智能公司正在竞相构建超级人工智能——为了你我的利益。但他们有没有停下来问过我们是否真的想要这样? 总的来说,美国人不想要它。 分享的一项新民意调查的结果。这项民意调查由智库AI 政策研究所委托、YouGov 于 9 月初对 1,118 名不同年龄、性别、种族和政治立场的美国人进行了调查。报告显示,63% 的选民表示监管应旨在 积极防止人工智…

    2023年10月1日
    15200

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部