人工智能民意调查:大多数美国人希望放慢人工智能速度

五个月前,当我发表一篇大文章阐述减缓人工智能速度的案例时,说我们应该对这项技术踩刹车并不完全是主流。在科技行业,这实际上是一种禁忌。

OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 认为,美国人放慢 OpenAI 的进步是愚蠢的。他对《大西洋月刊》表示,“如果你是一个自由民主国家的人,你最好为 OpenAI 的成功欢呼”,而不是“为独裁政府欢呼” 。微软的布拉德·史密斯(Brad Smith)同样认为,我们不能放慢脚步,以免中国在人工智能领域领先。

但事实证明,美国公众并不同意他们的观点。根据智库人工智能政策研究所的最新民意调查,高达72% 的美国选民希望减缓人工智能的发展,而只有 8% 的选民希望加快人工智能的发展。

这项民意调查由数据分析公司 YouGov 进行,对 1,001 名不同年龄、性别和政治派别的美国人进行了调查:42% 的受访者支持唐纳德·特朗普,47% 的受访者支持乔·拜登。种族分类的代表性稍差一些:73% 的受访者认为自己是白人,12% 是黑人,7% 是西班牙裔。大多数受访者没有大学学位。

人工智能安全和研究公司Anthropic的首席执行官杰克·克拉克 (Jack Clark)在他的热门时事通讯中注意到了这项调查。“这些结果很有趣,因为它们似乎显示了精英观点和大众观点之间的分歧,”他写道。具体来说,“这项调查表明,普通人对技术的看法更加谨慎,并且在开发技术时更有可能采用或更喜欢预防原则。”

美国人明确表达了他们对人工智能的愿望——慢点!——政策制定者知道这就是他们的选民想要的,这一点很重要。这可能会鼓励他们采取急需的政策,促使人们对人工智能更加谨慎。毕竟,这项技术有可能造成严重危害,例如传播可能影响选举的虚假信息。华盛顿的工作是保护美国选民的利益,而不是保护大型科技公司高管的利益,这些高管尽管从未通过民主选举产生,但仍寻求行使巨大权力。

迈向“零信任”人工智能治理

人工智能政策研究所的民意调查还有另一个惊人的发现:82% 的美国选民不相信人工智能公司能够进行自我监管

对于 AI Now Institute 研究中心常务董事 Sarah Myers West 来说,公众的这种不信任既恰当又不足为奇。“我认为人们已经从过去十年的技术引发的危机中吸取了教训,”她告诉我。“当你看到证据时就会很清楚地发现自我监管方法不起作用。”

社交媒体就是一个典型的例子。多年来,像Meta这样的公司一直表示他们渴望受到监管,但实际上,他们因为拒绝有意义地改变自己的商业模式而继续造成严重 伤害。马克·扎克伯格在国会面前不断被拖拽是有原因的。

OpenAI 也表示希望监管。但在幕后,它游说欧盟淡化人工智能监管。

“看看 OpenAI 在呼吁监管时使用的非常非常微妙的措辞,”韦斯特说。“总是有一个限定词——比如,‘我们希望对通用人工智能或超过特定阈值的模型进行监管 ——从而排除他们已经在商业用途中使用的所有内容。” 科技公司知道监管可能是不可避免的,因此他们支持某些旨在抢占更大胆改革的举措。

意识到盲目信任大型科技公司的仁慈是不可行的,West 和她在 AI Now Institute 的团队本月发布了一个名为“零信任人工智能治理”的新框架。正如它听起来的那样——呼吁立法者自己解决问题。

新框架建议彻底颠覆大型科技公司最喜欢的策略。尽管科技高管所采用的监管方法会导致行动缓慢、流程冗长、需要复杂且难以执行的制度,并将责任负担强加给资源不足的公众,但零信任人工智能治理提出了以下三项原则:

1. 时间至关重要——从大力执行现有法律开始。

2. 大胆、易于管理、明确的规则是必要的。

3. 在人工智能系统生命周期的每个阶段,公司 都有责任证明其系统无害

人工智能政策研究所的民意调查显示公众对这些想法的强烈支持。以下是一些主要调查结果:

58% 的选民(包括多数共和党人)希望联邦政府彻底监管人工智能。

76% 的选民希望人工智能生成的图像能够包含由计算机生成的证据。

65% 的选民支持要求先进的人工智能模型在发布前证明其安全性,而只有 11% 的选民反对这一政策。

人工智能政策研究所执行主任丹尼尔·科尔森在一份声明中表示:“强大且可能有害的人工智能发展并非必然。” “我们的政治领导人,以及更广泛的社会,需要选择为了技术进步的潜力,我们愿意承受哪些风险。”

至关重要的是,这要求我们不要犯我们在社交媒体时代所犯的同样的错误:将技术进步与社会进步等同起来。“这就像已成定局,”韦斯特说。“我不相信人工智能在任何情况下都与进步有关。”

如果调查结果有任何迹象的话,那就是很大一部分美国公众似乎也不再那么天真了。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/75422.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年8月23日 00:56
下一篇 2023年8月23日 01:06

相关推荐

  • 人工智能对投资模型的幻觉能否被驯服?

    作者: François Oustry、Sahar Attaripour 生成式人工智能存在可靠性问题。以下是投资者如何对部署该技术的投资组合充满信心。 随着生成人工智能(GAI)越来越受欢迎,该技术制造反应的倾向仍然是一个很大的缺陷。我们相信,专业模型的设计可以减少幻觉并提高人工智能在投资应用中的准确性和有效性。 如果您在过去一年中使用过 ChatGPT …

    2023年12月11日
    16900
  • 一项新的民意调查显示,美国人不想要比人类更聪明的人工智能

    他们说,主要的人工智能公司正在竞相构建超级人工智能——为了你我的利益。但他们有没有停下来问过我们是否真的想要这样? 总的来说,美国人不想要它。 分享的一项新民意调查的结果。这项民意调查由智库AI 政策研究所委托、YouGov 于 9 月初对 1,118 名不同年龄、性别、种族和政治立场的美国人进行了调查。报告显示,63% 的选民表示监管应旨在 积极防止人工智…

    2023年10月1日
    21400
  • 英伟达的 3 万亿美元涨势如履薄冰,华尔街无动于衷

    英伟达公司在 ChatGPT 引发人工智能热潮后的两年里,市值飙升了 3 万亿美元,这一涨幅在如此短的时间内超过了历史上任何一次股票上涨。但对这家芯片制造商来说,局面现在正在发生变化。 竞争对手和客户正在加大努力以分得更多的人工智能芯片市场份额。该领域的收入增长速度正在放缓。拜登白宫正寻求限制向国外出售英伟达最先进的芯片,不过尚不清楚即将上任的特朗普政府将如…

    2025年2月15日
    10800
  • ML 模型需要更好的训练数据:GenAI 解决方案

    我们对金融市场的理解本质上受到历史经验的限制——在无数可能展开的情景中,只实现了一个单一的时间线。每个市场周期、地缘政治事件或政策决定都只是潜在结果的一种表现形式。 在训练机器学习(ML)模型时,这一限制尤为明显,因为模型可能会无意中从历史遗迹中学习,而不是学习底层的市场动态。随着复杂 ML 模型在资产管理中的普及,它们倾向于过度拟合特定的历史条件,这给投资…

    2025年7月15日
    3700
  • Z 世代与婴儿潮一代:年轻人更容易成为网络诈骗的受害者

    任何人都可能在网上被骗,包括伴随互联网长大的一代美国人。 如果您是 Z 世代(即出生于 20 世纪 90 年代末至 2010 年代初)的一员,您或您的一位朋友可能是在线诈骗的目标或受害者。事实上,根据德勤最近的一项调查,Z 世代的成员陷入这些骗局并遭受黑客攻击的频率远远高于他们的祖父母。 与老一辈相比,年轻一代在网络钓鱼、身份盗窃、爱情诈骗和网络欺凌方面的受…

    2023年9月28日
    18200

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部