如何理解人工智能:这是一场公地悲剧,而不是一场军备竞赛

您可能听说过将人工智能的进步描述为经典的“军备竞赛”。基本逻辑是,如果你不竞相开发先进的人工智能,其他人就会这么做——可能是更鲁莽、更缺乏安全意识的人。所以,最好你应该建造一台超级智能机器,而不是让另一个人先冲过终点线!(在美国的讨论中,另一个人通常是中国。)

但正如我之前所写,这并不是对人工智能情况的准确描述。不存在单一的“终点线”,因为人工智能不仅仅是像原子弹那样具有单一目的的东西;它也是一种目标。它是一种更通用的技术,就像电力一样。另外,如果您的实验室花时间解决一些人工智能安全问题,其他实验室可能会采取这些改进措施,这将使每个人受益。

正如 AI Impacts 首席研究员 Katja Grace在《时代》杂志上指出的那样,“在经典的军备竞赛中,理论上,一方总能取得领先并获胜。但对于人工智能来说,胜利者可能是先进的人工智能本身(如果它与我们的目标不一致并伤害我们的话)。这可能会让匆忙成为失败的举动。”

我认为将人工智能的情况视为“公地悲剧”更为准确。这就是生态学家和经济学家所说的一种情况,即许多参与者可以获得有限的宝贵资源,并过度使用它,以至于他们为每个人毁掉了它。

公地的一个完美例子:地球大气层吸收温室气体排放而不引发气候灾难的能力。任何一家公司都可以辩称,他们减少使用这种能力是毫无意义的——其他人只会使用它——但每个出于理性自身利益行事的参与者都会毁掉整个地球。

人工智能就是这样。这里的共同点是社会吸收人工智能影响而不陷入灾难的能力。任何一家公司都可以辩称,限制他们部署日益先进的人工智能的程度和速度是毫无意义的——如果 OpenAI 不这样做,那就只有谷歌或百度了,这种说法是这样的——但如果每家公司的行为都像那么,社会结果可能是悲剧。

“悲剧”听起来很糟糕,但将人工智能描述为公地悲剧实际上应该让你感到乐观,因为研究人员已经找到了此类问题的解决方案。事实上,政治学家埃莉诺·奥斯特罗姆 (Elinor Ostrom)正是因为这样做而获得了 2009 年诺贝尔经济学奖。因此,让我们深入研究她的工作,看看它如何帮助我们以更注重解决方案的方式思考人工智能。

埃莉诺·奥斯特罗姆解决公地悲剧的方法

在 1968 年《科学》杂志上的一篇文章中,生态学家加勒特·哈丁 (Garrett Hardin) 普及了“公地悲剧”的概念。他认为,人类对资源的竞争如此激烈,以至于最终摧毁了这些资源。避免这种情况的唯一方法是政府全面控制或全面私有化。“毁灭是所有人奔向的目的地,”他写道,“每个人都在追求自己的最大利益。”

奥斯特罗姆并不买账。她研究了从瑞士到菲律宾的社区,发现了一个又一个人们聚集在一起成功管理共享资源(例如牧场)的例子。奥斯特罗姆发现,社区能够而且确实避免了公地悲剧,特别是当它们遵循八项核心设计原则时:

1) 明确定义管理资源的社区。

2)确保规则在资源使用和维护之间合理平衡。

3) 让所有受规则影响的人参与规则的制定过程。

4) 建立资源使用和行为监控机制。

5)对违规者制定一系列不断升级的制裁措施。

6) 建立解决出现的任何冲突的程序。

7) 确保当局承认社区组织和制定规则的权利。

8)鼓励形成不同规模的多种治理结构,允许不同层次的决策。

将奥斯特罗姆的设计原则应用于人工智能

那么我们如何利用这些原则来弄清楚人工智能治理应该是什么样子呢?

事实上,人们已经在推动与人工智能相关的一些原则——他们只是可能没有意识到它们已经融入了奥斯特罗姆的框架中。

许多人认为,人工智能治理应该从跟踪用于训练前沿人工智能模型的芯片开始。Avital Balwit在《Asterisk》杂志上撰文,概述了一种潜在的治理制度:“基本要素包括跟踪先进人工智能芯片的位置,然后要求任何使用大量芯片的人证明他们训练的模型符合某些安全标准。 ” 芯片控制符合奥斯特罗姆的原则#4:建立监控资源使用和行为的机制。

其他人则指出,如果人工智能公司向世界发布造成伤害的系统,则需要承担法律责任。正如技术评论家特里斯坦·哈里斯和阿扎·拉斯金所说,责任是这些公司真正关注的少数威胁之一。这是奥斯特罗姆的第五条原则:加大对违规者的制裁力度。

尽管科技高管异口同声地声称他们需要加快人工智能发展,以免输给中国,但你也会发现细致入微的思想家认为我们需要国际协调,就像我们最终在核不扩散方面取得的成就一样。这就是奥斯特罗姆的原则。

如果人们已经在应用奥斯特罗姆的一些思想,也许没有意识到,为什么明确指出与奥斯特罗姆的联系很重要?有两个原因。一是我们还没有应用她的所有原则。

另一个是:故事很重要。神话很重要。人工智能公司喜欢将人工智能描述为一场军备竞赛——这证明了他们急于进入市场的合理性。但这让我们所有人都处于悲观的立场。告诉自己一个不同的故事是有力量的:人工智能是一场潜在的公共悲剧,但这种悲剧只是潜在的,我们有能力避免它。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/73572.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年7月12日 01:04
下一篇 2023年7月12日 01:23

相关推荐

  • 从上一次科技泡沫中吸取教训,拥抱 GenAI 狂热

    作者:Que Nguyen,2024 年 5 月 23 日 关键点 我们相信生成式人工智能 (GenAI) 具有变革潜力。如果我们是对的,GenAI 正处于成为投资泡沫的早期阶段。 以20世纪90年代的互联网泡沫为指导,我们为今天的投资者吸取了教训: 通过技术转型而崛起的最成功的公司往往不是一开始就存在的明星公司。 尽管泡沫最终会破裂,但狂热所引发的资本投资…

    2024年5月29日
    13300
  • GenAI 驱动的合成数据如何重塑投资工作流程

    在当今的数据驱动投资环境中,数据的质量、可用性和具体性可以决定一个策略的成功与否。然而,投资专业人士经常面临限制:历史数据集可能无法捕捉新兴风险,替代数据往往不完整或成本高昂,开源模型和数据集则偏向于主要市场和英语内容。 随着企业寻求更灵活和前瞻性的工具,合成数据——特别是从生成 AI(GenAI)中衍生出来的——正在成为一种战略资产,提供了一种新的方式来模…

    2025年9月16日
    2700
  • 科技投资者押注人工智能,抛弃加密货币

    硅谷的风险投资家正在竞相进入人工智能公司,其中包括曾经在加密货币上押下重注的投资者。

    2023年7月14日
    23200
  • 理解英伟达的财报与 ETF 影响

    由 VettaFi 的辛西娅·墨菲,8 月 27 日,25 年 另一个财报季即将接近尾声,但在最后时刻,我们还会听到英伟达的消息。 市值约为4.4万亿美元,是全球最大的公司,今天将在收盘后公布第二季度财报。 说英伟达的财报重要,这绝不是夸张。今天我们将了解到的该公司财报和前瞻性指引将影响许多指标,包括市场情绪、风险偏好、大科技股和成长股的走势、AI 投资主题…

    2025年9月2日
    2900
  • 未来电网扩张的投资思路,第3部分

    我继续讨论可能受益于电网升级和扩建的潜在投资,以满足人工智能数据中心和电动汽车不断增长的需求。本系列的第三部分也是最后一部分重点关注替代能源、公用事业公司以及与电网基础设施相关的其他公司。 如果您尚未阅读第一或第二部分,我建议您在继续阅读之前先阅读它们。 替代和/或可再生能源 美国能源部估计,2022 年,太阳能、风能、水力发电、地热能和生物质能等可再生能源…

    2024年8月5日
    15000
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部