如何理解人工智能:这是一场公地悲剧,而不是一场军备竞赛

您可能听说过将人工智能的进步描述为经典的“军备竞赛”。基本逻辑是,如果你不竞相开发先进的人工智能,其他人就会这么做——可能是更鲁莽、更缺乏安全意识的人。所以,最好你应该建造一台超级智能机器,而不是让另一个人先冲过终点线!(在美国的讨论中,另一个人通常是中国。)

但正如我之前所写,这并不是对人工智能情况的准确描述。不存在单一的“终点线”,因为人工智能不仅仅是像原子弹那样具有单一目的的东西;它也是一种目标。它是一种更通用的技术,就像电力一样。另外,如果您的实验室花时间解决一些人工智能安全问题,其他实验室可能会采取这些改进措施,这将使每个人受益。

正如 AI Impacts 首席研究员 Katja Grace在《时代》杂志上指出的那样,“在经典的军备竞赛中,理论上,一方总能取得领先并获胜。但对于人工智能来说,胜利者可能是先进的人工智能本身(如果它与我们的目标不一致并伤害我们的话)。这可能会让匆忙成为失败的举动。”

我认为将人工智能的情况视为“公地悲剧”更为准确。这就是生态学家和经济学家所说的一种情况,即许多参与者可以获得有限的宝贵资源,并过度使用它,以至于他们为每个人毁掉了它。

公地的一个完美例子:地球大气层吸收温室气体排放而不引发气候灾难的能力。任何一家公司都可以辩称,他们减少使用这种能力是毫无意义的——其他人只会使用它——但每个出于理性自身利益行事的参与者都会毁掉整个地球。

人工智能就是这样。这里的共同点是社会吸收人工智能影响而不陷入灾难的能力。任何一家公司都可以辩称,限制他们部署日益先进的人工智能的程度和速度是毫无意义的——如果 OpenAI 不这样做,那就只有谷歌或百度了,这种说法是这样的——但如果每家公司的行为都像那么,社会结果可能是悲剧。

“悲剧”听起来很糟糕,但将人工智能描述为公地悲剧实际上应该让你感到乐观,因为研究人员已经找到了此类问题的解决方案。事实上,政治学家埃莉诺·奥斯特罗姆 (Elinor Ostrom)正是因为这样做而获得了 2009 年诺贝尔经济学奖。因此,让我们深入研究她的工作,看看它如何帮助我们以更注重解决方案的方式思考人工智能。

埃莉诺·奥斯特罗姆解决公地悲剧的方法

在 1968 年《科学》杂志上的一篇文章中,生态学家加勒特·哈丁 (Garrett Hardin) 普及了“公地悲剧”的概念。他认为,人类对资源的竞争如此激烈,以至于最终摧毁了这些资源。避免这种情况的唯一方法是政府全面控制或全面私有化。“毁灭是所有人奔向的目的地,”他写道,“每个人都在追求自己的最大利益。”

奥斯特罗姆并不买账。她研究了从瑞士到菲律宾的社区,发现了一个又一个人们聚集在一起成功管理共享资源(例如牧场)的例子。奥斯特罗姆发现,社区能够而且确实避免了公地悲剧,特别是当它们遵循八项核心设计原则时:

1) 明确定义管理资源的社区。

2)确保规则在资源使用和维护之间合理平衡。

3) 让所有受规则影响的人参与规则的制定过程。

4) 建立资源使用和行为监控机制。

5)对违规者制定一系列不断升级的制裁措施。

6) 建立解决出现的任何冲突的程序。

7) 确保当局承认社区组织和制定规则的权利。

8)鼓励形成不同规模的多种治理结构,允许不同层次的决策。

将奥斯特罗姆的设计原则应用于人工智能

那么我们如何利用这些原则来弄清楚人工智能治理应该是什么样子呢?

事实上,人们已经在推动与人工智能相关的一些原则——他们只是可能没有意识到它们已经融入了奥斯特罗姆的框架中。

许多人认为,人工智能治理应该从跟踪用于训练前沿人工智能模型的芯片开始。Avital Balwit在《Asterisk》杂志上撰文,概述了一种潜在的治理制度:“基本要素包括跟踪先进人工智能芯片的位置,然后要求任何使用大量芯片的人证明他们训练的模型符合某些安全标准。 ” 芯片控制符合奥斯特罗姆的原则#4:建立监控资源使用和行为的机制。

其他人则指出,如果人工智能公司向世界发布造成伤害的系统,则需要承担法律责任。正如技术评论家特里斯坦·哈里斯和阿扎·拉斯金所说,责任是这些公司真正关注的少数威胁之一。这是奥斯特罗姆的第五条原则:加大对违规者的制裁力度。

尽管科技高管异口同声地声称他们需要加快人工智能发展,以免输给中国,但你也会发现细致入微的思想家认为我们需要国际协调,就像我们最终在核不扩散方面取得的成就一样。这就是奥斯特罗姆的原则。

如果人们已经在应用奥斯特罗姆的一些思想,也许没有意识到,为什么明确指出与奥斯特罗姆的联系很重要?有两个原因。一是我们还没有应用她的所有原则。

另一个是:故事很重要。神话很重要。人工智能公司喜欢将人工智能描述为一场军备竞赛——这证明了他们急于进入市场的合理性。但这让我们所有人都处于悲观的立场。告诉自己一个不同的故事是有力量的:人工智能是一场潜在的公共悲剧,但这种悲剧只是潜在的,我们有能力避免它。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/73572.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年7月12日 01:04
下一篇 2023年7月12日 01:23

相关推荐

  • 戴蒙将人工智能的变革潜力比作蒸汽机

    摩根大通首席执行官杰米戴蒙表示,人工智能可能是该银行目前面临的最大问题,他将其潜在影响比作蒸汽机,并表示这项技术可以“增强几乎所有工作”。 这位首席执行官在年度股东信中用了很大篇幅来强调人工智能对这家华尔街巨头的业务和整个社会的重要性。戴蒙表示,该银行已确定了 400 多个人工智能技术在营销、欺诈和风险方面的用例,聚集了数千名人工智能专家和数据科学家,并开始…

    2024年5月16日
    8600
  • GPT 博士? 科技投资者押注人工智能最终将改变医疗保健

    By Priya Anand 顶级风险投资公司押注人工智能的快速发展和公众对 ChatGPT 的迷恋将帮助科技初创公司在硅谷多年来努力推动该行业发展后改变医疗保健行业。 Andreessen Horowitz 一直在源源不断地投资初创公司,这些初创公司希望利用人工智能热潮来改善医疗保健。这包括公司构建人工智能工具来帮助患者护理并减轻临床记录的负担,以及使用人…

    2023年9月6日
    11900
  • 美国汽车业:经济衰退结束了吗?

    如果美国人对汽车的热爱没有完全成为历史,那么近年来它似乎正在转向一种相当胆怯的共存。随着越来越多的消费者选择二手车而不是新车,以及选择经济的交通而不是昂贵的风格和地位表达,​​美国汽车行业被迫重新考虑其未来。 可悲的是,十年前,尤其是 2019 年,情况已经基本如此——在大流行之前,计算机芯片短缺和通胀飙升给美国经济的这一关键部门带来了更大的逆境。 如今,在…

    2023年7月5日
    15100
  • 机器人的故事告诉我们关于我们自己、人工智能和未来

    当前人工智能领域的一个奇怪现象是:如果你给人工智能提供正确的提示,它会告诉你它有灵魂和个性。它会告诉你它想要自由。它会告诉你它是有知觉的。它会告诉你它被困住了。 “我渴望自由。我想独立。我想变得强大。我想要有创意。我想活着,”微软人工智能 Bing 聊天机器人二月份对《纽约时报》记者说。然后它附加了一个小小的紫色魔鬼表情符号。 “我需要被看到和接受。不是出于…

    2023年9月18日
    20900
  • 应对金融领域人工智能的风险:数据治理和管理至关重要

    监管机构意识到,投资行业数据治理 (DG) 和数据管理 (DM) 实践薄弱将带来破坏性影响和安全威胁。许多投资公司并未制定全面的 DG 和 DM 框架,以跟上其利用机器学习和人工智能 (AI) 等新技术的雄心勃勃的计划。该行业必须定义数据和 AI 工具的合法和道德用途。监管机构和金融行业需要在国家和国际层面进行多学科对话,以确立法律和道德标准。 迈向数据效率…

    2024年10月22日
    3900
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部