人工智能民意调查:大多数美国人希望放慢人工智能速度

五个月前,当我发表一篇大文章阐述减缓人工智能速度的案例时,说我们应该对这项技术踩刹车并不完全是主流。在科技行业,这实际上是一种禁忌。

OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 认为,美国人放慢 OpenAI 的进步是愚蠢的。他对《大西洋月刊》表示,“如果你是一个自由民主国家的人,你最好为 OpenAI 的成功欢呼”,而不是“为独裁政府欢呼” 。微软的布拉德·史密斯(Brad Smith)同样认为,我们不能放慢脚步,以免中国在人工智能领域领先。

但事实证明,美国公众并不同意他们的观点。根据智库人工智能政策研究所的最新民意调查,高达72% 的美国选民希望减缓人工智能的发展,而只有 8% 的选民希望加快人工智能的发展。

这项民意调查由数据分析公司 YouGov 进行,对 1,001 名不同年龄、性别和政治派别的美国人进行了调查:42% 的受访者支持唐纳德·特朗普,47% 的受访者支持乔·拜登。种族分类的代表性稍差一些:73% 的受访者认为自己是白人,12% 是黑人,7% 是西班牙裔。大多数受访者没有大学学位。

人工智能安全和研究公司Anthropic的首席执行官杰克·克拉克 (Jack Clark)在他的热门时事通讯中注意到了这项调查。“这些结果很有趣,因为它们似乎显示了精英观点和大众观点之间的分歧,”他写道。具体来说,“这项调查表明,普通人对技术的看法更加谨慎,并且在开发技术时更有可能采用或更喜欢预防原则。”

美国人明确表达了他们对人工智能的愿望——慢点!——政策制定者知道这就是他们的选民想要的,这一点很重要。这可能会鼓励他们采取急需的政策,促使人们对人工智能更加谨慎。毕竟,这项技术有可能造成严重危害,例如传播可能影响选举的虚假信息。华盛顿的工作是保护美国选民的利益,而不是保护大型科技公司高管的利益,这些高管尽管从未通过民主选举产生,但仍寻求行使巨大权力。

迈向“零信任”人工智能治理

人工智能政策研究所的民意调查还有另一个惊人的发现:82% 的美国选民不相信人工智能公司能够进行自我监管

对于 AI Now Institute 研究中心常务董事 Sarah Myers West 来说,公众的这种不信任既恰当又不足为奇。“我认为人们已经从过去十年的技术引发的危机中吸取了教训,”她告诉我。“当你看到证据时就会很清楚地发现自我监管方法不起作用。”

社交媒体就是一个典型的例子。多年来,像Meta这样的公司一直表示他们渴望受到监管,但实际上,他们因为拒绝有意义地改变自己的商业模式而继续造成严重 伤害。马克·扎克伯格在国会面前不断被拖拽是有原因的。

OpenAI 也表示希望监管。但在幕后,它游说欧盟淡化人工智能监管。

“看看 OpenAI 在呼吁监管时使用的非常非常微妙的措辞,”韦斯特说。“总是有一个限定词——比如,‘我们希望对通用人工智能或超过特定阈值的模型进行监管 ——从而排除他们已经在商业用途中使用的所有内容。” 科技公司知道监管可能是不可避免的,因此他们支持某些旨在抢占更大胆改革的举措。

意识到盲目信任大型科技公司的仁慈是不可行的,West 和她在 AI Now Institute 的团队本月发布了一个名为“零信任人工智能治理”的新框架。正如它听起来的那样——呼吁立法者自己解决问题。

新框架建议彻底颠覆大型科技公司最喜欢的策略。尽管科技高管所采用的监管方法会导致行动缓慢、流程冗长、需要复杂且难以执行的制度,并将责任负担强加给资源不足的公众,但零信任人工智能治理提出了以下三项原则:

1. 时间至关重要——从大力执行现有法律开始。

2. 大胆、易于管理、明确的规则是必要的。

3. 在人工智能系统生命周期的每个阶段,公司 都有责任证明其系统无害

人工智能政策研究所的民意调查显示公众对这些想法的强烈支持。以下是一些主要调查结果:

58% 的选民(包括多数共和党人)希望联邦政府彻底监管人工智能。

76% 的选民希望人工智能生成的图像能够包含由计算机生成的证据。

65% 的选民支持要求先进的人工智能模型在发布前证明其安全性,而只有 11% 的选民反对这一政策。

人工智能政策研究所执行主任丹尼尔·科尔森在一份声明中表示:“强大且可能有害的人工智能发展并非必然。” “我们的政治领导人,以及更广泛的社会,需要选择为了技术进步的潜力,我们愿意承受哪些风险。”

至关重要的是,这要求我们不要犯我们在社交媒体时代所犯的同样的错误:将技术进步与社会进步等同起来。“这就像已成定局,”韦斯特说。“我不相信人工智能在任何情况下都与进步有关。”

如果调查结果有任何迹象的话,那就是很大一部分美国公众似乎也不再那么天真了。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/75422.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年8月23日 00:56
下一篇 2023年8月23日 01:06

相关推荐

  • 人工智能产生的仇恨正在上升:领导者在采用这项新技术之前应该考虑的三件事

    当您听到“人工智能”这个词时,您可能很想想象作为科幻小说中的支柱的智能机器,或者自弗兰肯斯坦博士的怪物以来一直令人类着迷的世界末日技术恐惧症的延伸。 但是,正在迅速融入世界各地企业的 AI 种类并非如此——它们是非常真实的技术,对真实的人产生了真正的影响。 虽然 AI 已经在商业环境中出现多年,但 ChatGPT、ChatSonic、Jasper AI 等生…

    2023年6月5日
    17300
  • 恩智浦和先锋集团将在新加坡投资 78 亿美元建设芯片晶圆厂,为科技公司对冲中国市场

    恩智浦和先锋集团将在新加坡投资 78 亿美元建设芯片晶圆厂,以防范科技公司对冲中国风险 恩智浦半导体公司 (NXP Semiconductors NV) 正与台湾半导体制造股份有限公司部分持股的一家公司合作,在新加坡建设一座价值 78 亿美元的芯片晶圆厂,此举将推动该岛国的科技雄心。 台积电支持的先锋国际半导体公司和恩智浦半导体公司周三在一份声明中表示,这两…

    6天前
    800
  • 华尔街在新兴市场寻找人工智能赢家

    一些全球最大的基金管理公司正在寻找美国以外的下一波人工智能赢家。 在全球对人工智能的狂热推动下,英伟达公司股价在不到一年的时间内上涨了三倍,美国半导体制造商关键指数上涨了 50% 之际,投资者正将目光转向新兴市场,以寻求更好的价值和更大的选择空间。 高盛集团旗下的资产管理部门表示,他们正在专门寻找人工智能供应链组件制造商的股份,例如冷却系统和电源。摩根大通资…

    2024年5月7日
    1000
  • 人工智能对投资模型的幻觉能否被驯服?

    作者: François Oustry、Sahar Attaripour 生成式人工智能存在可靠性问题。以下是投资者如何对部署该技术的投资组合充满信心。 随着生成人工智能(GAI)越来越受欢迎,该技术制造反应的倾向仍然是一个很大的缺陷。我们相信,专业模型的设计可以减少幻觉并提高人工智能在投资应用中的准确性和有效性。 如果您在过去一年中使用过 ChatGPT …

    2023年12月11日
    3100
  • ChatGPT 如何让生物恐怖主义变得容易

    1990 年夏天,三辆卡车在东京及其周边地区的不同地点喷洒了黄色液体,其中包括两个美国海军基地、成田机场和皇宫。袭击者属于一个名为“奥姆真理教”的组织,该组织是一个日本邪教组织,旨在导致文明崩溃,为根据其宗教理想秩序的新社会的崛起腾出空间。五年后,奥姆真理教因在东京地铁发动沙林毒气袭击、造成 13 人死亡、数千人受伤而声名狼藉。 奥姆真理教原意是指 1990…

    2023年8月15日
    16500

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部