他们说,主要的人工智能公司正在竞相构建超级人工智能——为了你我的利益。但他们有没有停下来问过我们是否真的想要这样?
总的来说,美国人不想要它。
分享的一项新民意调查的结果。这项民意调查由智库AI 政策研究所委托、YouGov 于 9 月初对 1,118 名不同年龄、性别、种族和政治立场的美国人进行了调查。报告显示,63% 的选民表示监管应旨在 积极防止人工智能超级智能。
像 OpenAI 这样的公司已经明确表示,超级智能人工智能(一种比人类更聪明的系统)正是他们想要构建的。他们称之为通用人工智能(AGI),并且理所当然地认为 AGI 应该存在。OpenAI 网站称: “我们的使命是确保通用人工智能造福全人类。”
但这里有一个非常奇怪且很少被提及的事实:我们根本不应该想要创建通用人工智能——正如 OpenAI 首席执行官萨姆·奥尔特曼将第一个告诉你的那样,它会带来重大风险,包括所有风险人类被消灭。然而,少数首席执行官代表其他人决定 AGI 应该存在。
现在,公共辩论中唯一讨论的是如何控制假设的超人智能,而不是我们是否真的想要它。这里已经放弃了一个可以说不应该放弃的前提。
研究人工智能的政治理论家埃尔克·施瓦茨 (Elke Schwarz) 表示:“对我来说,‘我们必须非常小心地对待 AGI’,而不是说‘我们不需要 AGI,这件事不在讨论范围内’,这太奇怪了。”伦敦玛丽女王大学的伦理学教授今年早些时候告诉我。“但我们已经到了权力被巩固的地步,甚至没有让我们有机会集体建议不应该追求通用人工智能。”
建立 AGI 是一项深刻的政治举措。为什么我们不这样对待它呢?
技术解决主义——这种意识形态认为我们可以相信技术专家能够找到解决人类最大问题的方法——在巩固科技行业手中的权力方面发挥了重要作用。虽然这听起来像是一种现代意识形态,但它实际上可以追溯到中世纪时期,当时宗教思想家开始教导技术是拯救人类的手段。从那时起,西方社会基本上接受了这样的观念:技术进步就是道德进步。
在现代美国,资本主义的利润动机与需要与外国军事强国“竞赛”的地缘政治叙事相结合,科技加速主义已经达到了狂热的程度。硅谷也非常乐意与之合作。
AGI 爱好者承诺,即将到来的超级智能将带来根本性的改进。它可以开发从疾病治疗到更好的清洁能源技术的一切。它可以提高生产力,带来意外利润,从而缓解全球贫困。首先解决这个问题可以帮助美国保持相对于中国的优势;这种观点认为,按照让人想起核武器竞赛的逻辑,“我们”拥有核武器比“他们”拥有核武器更好。
但美国人从过去十年的科技领域,特别是从社交媒体的灾难性后果中学到了一两件事。他们越来越不信任科技高管,也不相信科技进步默认是积极的。他们质疑通用人工智能的潜在好处是否值得开发它的潜在成本。毕竟,像奥特曼这样的首席执行官们很容易宣称通用人工智能很可能会带来大规模失业、破坏经济体系并改变整个世界秩序。如果它不会使我们全部灭绝的话。
在新的人工智能政策研究所/YouGov 民意调查中,“我们比中国更好”的论点在五个不同的问题中以五种不同的方式呈现。引人注目的是,每次,大多数受访者都拒绝接受这一论点。例如,67% 的选民表示我们应该限制人工智能模型的强大程度,尽管这可能会让美国公司落后于中国。只有 14% 的人不同意。
当然,对于任何有关尚不存在的技术的民意调查,解释回应都存在一些挑战。但绝大多数美国公众似乎在这里所说的是:仅仅因为我们担心外国势力取得领先,并不意味着向我们自己释放一项我们认为会严重伤害我们的技术是有意义的。
事实证明,通用人工智能在美国并不是一个流行的想法。
“当我们提出这些民意调查问题并得到如此不平衡的结果时,说实话,看到结果如此不平衡,我有点惊讶,”人工智能政策研究所执行主任丹尼尔·科尔森告诉我。“许多精英言论或实验室言论与美国公众的需求之间实际上存在很大的脱节。”
然而,科尔森指出,“社会的大部分方向是由技术专家和正在发布的技术决定的……这在很大程度上是极其不民主的。”
他表示震惊的是,当科技亿万富翁最近应参议员查克·舒默的邀请来到华盛顿就人工智能政策发表意见时,他们是闭门进行的。公众没有机会观看,更不用说参与塑造其未来的讨论了。
施瓦茨认为,我们不应该让技术专家将通用人工智能的发展描述为某种自然法则,就像重力一样不可避免。这是一种选择——一种深刻的政治选择。
“社会变革的愿望不仅仅是一个技术目标,它完全是一个政治目标,”她说。“如果公开宣称的目标是‘改变社会的一切’,那么仅此一点就应该促使触发一定程度的民主投入和监督。”
人工智能公司正在从根本上改变我们的世界。他们应该先得到我们的许可吗?
人工智能的变革性如此之大,以至于就连它的开发者也对其发展的不民主程度表示不安。
人工智能安全和研究公司 Anthropic 的联合创始人杰克·克拉克 (Jack Clark) 最近撰写了一份异常脆弱的时事通讯。他承认,在人工智能方面,有几个关键问题让他“感到困惑和不安”。他提出的问题之一是:“人工智能开发者需要从社会获得多少许可才能不可逆转地改变社会?” 克拉克继续说道:
技术专家一直都有某种自由主义倾向,这也许是 2010 年代“社交媒体”和 Uber 等时代的最好体现——从社交网络到拼车系统等巨大的、改变社会的系统被部署到世界各地,并积极地部署。规模的扩大很少考虑到他们所影响的社会。这种无需许可的发明形式基本上是隐式首选的开发形式,以硅谷和普遍的“快速行动,打破常规”的技术哲学为代表。人工智能也应该如此吗?
越来越多的人,包括科技首席执行官,开始质疑“未经许可的发明”的规范,这是一个非常健康的发展。它还提出了一些棘手的问题。
技术人员什么时候寻求那些将受到特定产品影响的人的支持才有意义?当产品影响整个人类文明时,你还怎么去寻求共识呢?
历史上许多伟大的技术创新之所以发生,是因为少数人下令决定他们有一个伟大的方法来改变每个人的事情。想想印刷机或电报的发明吧。发明者没有征求社会的许可来发布它们。
这可能部分是因为技术解决主义,部分是因为,在大众传播之前的时代——在印刷机或电报之类的东西出现之前,要咨询广泛的社会群体是相当困难的!虽然这些发明确实带来了可察觉的风险,但它们并没有构成完全消灭人类或让我们屈服于不同物种的威胁。
对于我们迄今为止发明的少数符合这一标准的技术,我们已经尝试过寻求民主意见和建立全球监督机制,这是正确的。这就是我们制定《核不扩散条约》和《生物武器公约》的原因——这些条约虽然举步维艰,但对于维护世界安全至关重要。
虽然这些条约是在使用此类武器之后签订的,但另一个例子——1967 年的《外层空间条约》——表明提前建立此类机制是可能的。它得到了数十个国家的批准,并在冷战背景下被联合国通过,为国际空间法奠定了框架。除其他外,它规定月球和其他天体只能用于和平目的,国家不能在太空储存核武器。
如今,该条约引发了关于我们是否应该向太空发送信息以期到达外星人的争论。一些人认为这是非常危险的,因为外来物种一旦意识到我们,可能会压迫我们。其他人则认为这更有可能是一种恩惠——也许外星人会以卡拉狄加百科全书的形式向我们赠送他们的知识。无论哪种方式,很明显,风险都非常高,所有人类文明都将受到影响,促使一些人在任何更多有意的传输被发送到太空之前提出民主审议的理由。
正如研究太空探索伦理的人类学家凯瑟琳·丹宁 (Kathryn Denning)在接受《纽约时报》采访时所说,“为什么我的观点比纳米比亚 6 岁女孩的观点更重要?我们所面临的风险是完全相同的。”
或者,正如古老的罗马谚语所说:涉及所有人的事情应该由所有人决定。
对于超级智能人工智能来说,就像对于核武器、化学武器或星际广播一样。尽管有些人可能会认为美国公众对人工智能的了解只有 6 岁孩子的水平,但这并不意味着忽视或推翻公众对技术的普遍愿望是合法的。
“政策制定者不应该从选民或民意调查的内容中获取如何解决这些问题的具体细节,”科尔森承认。“不过,我认为选民应该问的问题是:你希望从政策中得到什么?您希望社会朝什么方向发展?”
韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/76555.html