如何理解人工智能:这是一场公地悲剧,而不是一场军备竞赛

您可能听说过将人工智能的进步描述为经典的“军备竞赛”。基本逻辑是,如果你不竞相开发先进的人工智能,其他人就会这么做——可能是更鲁莽、更缺乏安全意识的人。所以,最好你应该建造一台超级智能机器,而不是让另一个人先冲过终点线!(在美国的讨论中,另一个人通常是中国。)

但正如我之前所写,这并不是对人工智能情况的准确描述。不存在单一的“终点线”,因为人工智能不仅仅是像原子弹那样具有单一目的的东西;它也是一种目标。它是一种更通用的技术,就像电力一样。另外,如果您的实验室花时间解决一些人工智能安全问题,其他实验室可能会采取这些改进措施,这将使每个人受益。

正如 AI Impacts 首席研究员 Katja Grace在《时代》杂志上指出的那样,“在经典的军备竞赛中,理论上,一方总能取得领先并获胜。但对于人工智能来说,胜利者可能是先进的人工智能本身(如果它与我们的目标不一致并伤害我们的话)。这可能会让匆忙成为失败的举动。”

我认为将人工智能的情况视为“公地悲剧”更为准确。这就是生态学家和经济学家所说的一种情况,即许多参与者可以获得有限的宝贵资源,并过度使用它,以至于他们为每个人毁掉了它。

公地的一个完美例子:地球大气层吸收温室气体排放而不引发气候灾难的能力。任何一家公司都可以辩称,他们减少使用这种能力是毫无意义的——其他人只会使用它——但每个出于理性自身利益行事的参与者都会毁掉整个地球。

人工智能就是这样。这里的共同点是社会吸收人工智能影响而不陷入灾难的能力。任何一家公司都可以辩称,限制他们部署日益先进的人工智能的程度和速度是毫无意义的——如果 OpenAI 不这样做,那就只有谷歌或百度了,这种说法是这样的——但如果每家公司的行为都像那么,社会结果可能是悲剧。

“悲剧”听起来很糟糕,但将人工智能描述为公地悲剧实际上应该让你感到乐观,因为研究人员已经找到了此类问题的解决方案。事实上,政治学家埃莉诺·奥斯特罗姆 (Elinor Ostrom)正是因为这样做而获得了 2009 年诺贝尔经济学奖。因此,让我们深入研究她的工作,看看它如何帮助我们以更注重解决方案的方式思考人工智能。

埃莉诺·奥斯特罗姆解决公地悲剧的方法

在 1968 年《科学》杂志上的一篇文章中,生态学家加勒特·哈丁 (Garrett Hardin) 普及了“公地悲剧”的概念。他认为,人类对资源的竞争如此激烈,以至于最终摧毁了这些资源。避免这种情况的唯一方法是政府全面控制或全面私有化。“毁灭是所有人奔向的目的地,”他写道,“每个人都在追求自己的最大利益。”

奥斯特罗姆并不买账。她研究了从瑞士到菲律宾的社区,发现了一个又一个人们聚集在一起成功管理共享资源(例如牧场)的例子。奥斯特罗姆发现,社区能够而且确实避免了公地悲剧,特别是当它们遵循八项核心设计原则时:

1) 明确定义管理资源的社区。

2)确保规则在资源使用和维护之间合理平衡。

3) 让所有受规则影响的人参与规则的制定过程。

4) 建立资源使用和行为监控机制。

5)对违规者制定一系列不断升级的制裁措施。

6) 建立解决出现的任何冲突的程序。

7) 确保当局承认社区组织和制定规则的权利。

8)鼓励形成不同规模的多种治理结构,允许不同层次的决策。

将奥斯特罗姆的设计原则应用于人工智能

那么我们如何利用这些原则来弄清楚人工智能治理应该是什么样子呢?

事实上,人们已经在推动与人工智能相关的一些原则——他们只是可能没有意识到它们已经融入了奥斯特罗姆的框架中。

许多人认为,人工智能治理应该从跟踪用于训练前沿人工智能模型的芯片开始。Avital Balwit在《Asterisk》杂志上撰文,概述了一种潜在的治理制度:“基本要素包括跟踪先进人工智能芯片的位置,然后要求任何使用大量芯片的人证明他们训练的模型符合某些安全标准。 ” 芯片控制符合奥斯特罗姆的原则#4:建立监控资源使用和行为的机制。

其他人则指出,如果人工智能公司向世界发布造成伤害的系统,则需要承担法律责任。正如技术评论家特里斯坦·哈里斯和阿扎·拉斯金所说,责任是这些公司真正关注的少数威胁之一。这是奥斯特罗姆的第五条原则:加大对违规者的制裁力度。

尽管科技高管异口同声地声称他们需要加快人工智能发展,以免输给中国,但你也会发现细致入微的思想家认为我们需要国际协调,就像我们最终在核不扩散方面取得的成就一样。这就是奥斯特罗姆的原则。

如果人们已经在应用奥斯特罗姆的一些思想,也许没有意识到,为什么明确指出与奥斯特罗姆的联系很重要?有两个原因。一是我们还没有应用她的所有原则。

另一个是:故事很重要。神话很重要。人工智能公司喜欢将人工智能描述为一场军备竞赛——这证明了他们急于进入市场的合理性。但这让我们所有人都处于悲观的立场。告诉自己一个不同的故事是有力量的:人工智能是一场潜在的公共悲剧,但这种悲剧只是潜在的,我们有能力避免它。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/73572.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年7月12日 01:04
下一篇 2023年7月12日 01:23

相关推荐

  • 大型科技公司的繁荣让策略师们争先恐后地跟上涨势

    围绕人工智能股票的狂热让华尔街的预测者措手不及,引发了策略师之间的竞赛,以跟上 2024 年开始时已经超出他们预期的股市上涨。 五家华尔街公司已经上调了对标准普尔 500 指数的预测,继 2023 年上涨 24% 后,今年年初该指数将上涨 7%。仅在过去一周,Piper Sandler & Co.、瑞银集团 (UBS Group AG) 和巴克莱银行…

    2024年3月30日
    7700
  • Nvidia 的爆炸性增长掩盖了人们对人工智能的失望

    硅谷有人知道这句俗语吗:“人越大,摔得越重?”也许这只是时间问题。 人工智能热潮已推动英伟达公司成为全球市值最高的公司,科技公司领导人应该对英伟达公司的快速崛起感到不安。这家公司向少数几家云计算巨头出售令人垂涎的人工智能芯片,而这些巨头正在从人工智能的炒作中获取短期利益,尽管下游情况看起来更加不明朗。很难想象英伟达首席执行官黄仁勋将如何维持这样的增长(即使他…

    2024年7月7日
    4500
  • 人工智能能否战胜市场?

    今年,人们对人工智能 (AI) 产生了很多兴奋和兴趣,这很大程度上要归功于 ChatGPT 和其他生成式 AI 工具的引入。我们似乎每天都会听到人工智能新的潜在应用以及它们如何永远改变商业世界。在此背景下,投资专业人士问问自己人工智能将如何改变他们未来的角色是很有用的。

    2023年10月29日
    11800
  • 为什么马克·扎克伯格让 Meta 放弃其最先进的人工智能模型

    上周,Meta 在人工智能领域做出了改变游戏规则的举动。 当谷歌和 OpenAI 等其他领先的人工智能公司严密保守自己的秘密之时,Meta决定免费赠送为其创新的新型人工智能大语言模型Llama 2提供支持的代码。这意味着其他公司现在可以使用Meta 的 Llama 2 模型,一些技术专家称其功能与 ChatGPT 相当,可以构建自己的定制聊天机器人。 Lla…

    2023年7月31日
    19300
  • 受人工智能浪潮困扰的基金专业人士正在放弃主动管理

    科技巨头永无休止的崛起正在驱使选股专业人士做他们不想做的事情:放弃超越基准。 随着微软公司和英伟达公司等公司几乎掌控 2023 年的牛市,基金经理面临着两难境地。如此多的股票被抛在了后面,以至于找到能够跑赢该指数的股票几乎是不可能的——从一项衡量标准来看,这是自 1987 年以来最难的。一种补救措施是放弃并让标准普尔 500 指数的静态分配来引导自己。 他们…

    2024年1月27日
    8300
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部