为什么马克·扎克伯格让 Meta 放弃其最先进的人工智能模型

上周,Meta 在人工智能领域做出了改变游戏规则的举动。

当谷歌和 OpenAI 等其他领先的人工智能公司严密保守自己的秘密之时,Meta决定免费赠送为其创新的新型人工智能大语言模型Llama 2提供支持的代码。这意味着其他公司现在可以使用Meta 的 Llama 2 模型,一些技术专家称其功能与 ChatGPT 相当,可以构建自己的定制聊天机器人。

Llama 2 可能会挑战 ChatGPT 的主导地位,ChatGPT 打破了有史以来增长最快的应用程序之一的记录。但更重要的是,它的开源性质给关于谁应该控制人工智能以及是否可以保证人工智能安全的重要伦理辩论增添了新的紧迫性。

随着人工智能变得越来越先进,也可能更加危险,如果代码被保密(仅限于少数公司的员工),或者应该与公众共享,以便更多的人能够使用它,这对社会会更好吗?参与塑造变革性技术?

顶尖科技公司正在采取不同的方法

在 Meta 的 Llama 2 公告中,马克·扎克伯格在Instagram 上发布了一张自己与微软首席执行官萨蒂亚·纳德拉 (Satya Nadella) 微笑的照片,宣布了两家公司在该版本上的合作伙伴关系。扎克伯格还阐述了为什么领先的人工智能模型“开源”更好,这意味着该技术的底层代码在很大程度上可供任何人使用。

扎克伯格在 Facebook 的另一篇帖子中写道:“开源推动创新,因为它使更多的开发人员能够使用新技术进行构建。 ” “它还提高了安全性,因为当软件开放时,更多的人可以仔细检查它以识别和修复潜在问题。”

此举受到许多人工智能开发人员、研究人员和学者的欢迎,他们表示这将为他们提供前所未有的机会来构建新工具或研究系统,否则创建这些工具或研究系统的成本将高得令人望而却步。尖端的大型语言模型(例如为 ChatGPT 提供支持的模型)可能需要花费数千万美元来创建和维护。

“我只是为可能发生的进展做好准备,”开源人工智能平台 Hugging Face 的研究负责人 Nazneen Rajani 说,该平台与 Meta 合作发布了该版本。Rajani在 Twitter 上发表了一篇文章,评估 Llama 2 首次推出时的功能,并告诉 Vox​​,“我们将能够发现更多秘密成分,了解构建 GPT-4 这样的模型实际需要什么。”

但开源人工智能也伴随着重大风险。该领域的一些最大参与者,包括微软支持的 OpenAI 和谷歌,一直在限制其人工智能系统的公开程度,因为他们认为这些技术存在严重危险。

一些技术专家越来越担心假想的世界末日场景,在这种场景中,人工智能可能比人类更聪明,造成伤害,例如释放生物超级武器或以我们无法完全想象的方式造成其他破坏。OpenAI 的联合创始人Ilya Sutskever 在 2 月份告诉 The Verge,他的公司过去更公开地分享其模型的详细信息是“完全错误的”,因为如果人工智能有一天变得像人类一样聪明,达到一些人所说的水平AGI 或通用人工智能,与大众分享是不明智的。

“如果你像我们一样相信,在某个时候,人工智能——AGI——将变得极其强大,令人难以置信,那么开源就没有意义。这是一个坏主意,”苏茨克维尔当时说道。

虽然我们距离能够对人类造成真正破坏的人工智能还很遥远,但我们已经看到来自开源社区的人工智能工具被以其他方式滥用。例如,Meta在 2 月份发布了第一个严格用于研究用途的 Llama 模型后不久,它就在随心所欲的在线留言板 4Chan 上泄露,然后它被用来创建聊天机器人,散布种族歧视等仇恨内容,在某些情况下,暴力场面。

Meta 生成人工智能副总裁 Ahmad Al-Dahle 在给 Vox 的电子邮件中写道:“我们认真对待这些问题,并采取了一些措施来支持以负责任的方式使用 Llama 2 进行构建。” Al-Dahle 表示,这些措施包括“红队”,即在发布之前对模型进行压力测试,提供预计会产生“风险输出”的提示,例如有关犯罪行为和仇恨内容的提示。Meta 还对其模型进行了微调,以减轻此类行为,并制定了新的指导方针,禁止某些非法和有害的用途。

Meta 表示,在发布后将继续对其模型进行安全性微调。

Al-Dahle 表示:“当技术公开发布和完善时,我们相信它最终会带来更透明的讨论,提高应对威胁的响应能力,并增加构建更负责任的人工智能工具和技术的迭代。”

例如,一些专家指出,甚至在人工智能以当前形式存在之前,我们就已经存在错误信息的问题。他们说,目前更重要的是错误信息的传播方式。普林斯顿大学计算机科学教授阿尔温德·纳拉亚南 (Arvind Narayanan) 告诉 Vox​​,“不良行为者的瓶颈不是产生错误信息,而是传播错误信息并说服人们。” 他补充道,“人工智能,无论是否开源,并没有让这些步骤变得更容易。”

为了遏制错误信息的传播,创建人工智能模型的公司可以对其程序的使用方式施加一些限制。例如,Meta有一些规则禁止用户使用 Llama 2 宣扬暴力或骚扰,但这些规则可能很难执行。

还值得注意的是,《Llama 2》还没有完全开放。Meta 没有发布用于教授最新模型的训练数据,而最新模型是任何人工智能系统的关键组成部分;研究人员表示,这对于衡量人工智能系统中的偏见至关重要。最后,Meta 要求每月拥有超过 7 亿用户的公司(基本上只有少数像谷歌这样的科技巨头)在使用该软件之前征求 Meta 的许可。

不过,总的来说,Llama 2 是我们最近看到的大型科技公司开源程度最高的人工智能项目。这就提出了其他公司将如何应对的问题。

那么到底支持和反对更加开源的人工智能世界的理由是什么?我们似乎正在朝着什么方向前进,特别是考虑到 Meta 最近的声明?

开源可以带来更多创新

如果您是 ChatGPT 等 AI 工具的临时用户,您可能看不到开源 AI 模型的直接好处。但如果您是人工智能开发人员或研究人员,像 Llama 2 这样的开源法学硕士的引入将为您打开一个充满可能性的世界。

“这是一件大事,”AI 初创公司 Chroma 的联合创始人兼技术负责人 Anton Troynikov 表示,该公司构建数据库,开发人员可以将这些数据库插入到 AI 系统中,以利用他们的数据、事实和工具对其进行定制。

对于像 Troynikov 这样的人来说,使用 Llama 2 可以让公司让用户更好地控制其数据的使用方式。

Troynikov 说:“现在您不必向系统外部发送任何数据,您可以在自己的机器上 100% 内部运行它。”他举了医生不需要公开患者医疗记录的例子。给第三方。“您的数据不再需要去任何地方就能获得这些出色的功能。”

Troynikov 表示,他个人刚刚开始使用 Llama 2,并且仍在测试它与他公司技术的配合效果。

现在判断 Llama 2 的具体用途还为时过早,但 Meta 的 Al-Dahle 表示,它看到了“创建基于聊天的代理和助理的一系列可能性,有助于提高企业的生产力、客户服务和效率”否则可能无法访问和部署这项技术。”

改进 Meta 自己的产品也有自身利益的考虑。如果 Meta 将其人工智能模型投入使用,外部工程师的开源社区将改进其模型,然后 Meta 可以使用该模型来构建该公司表示正在开发的应用内人工智能工具,例如业务助理聊天机器人。

这样,Meta 就不必投入所有资源来追赶 OpenAI 和 Google,后者在将生成式 AI 工具纳入其主要产品线方面走得更远。

开源人工智能将利用“大众的智慧”

一些权威专家认为,如果人工智能模型是开源的,它们可能会变得更聪明,总体上道德缺陷也更少。

通过开源人工智能模型,更多的人可以在它们的基础上进行构建和改进。开源人工智能公司 Stability AI 已经在 Llama 2 的基础上创建了一个名为“FreeWilly”的模型。它很快就流行起来,现在在一些测试中可以超越它的起源 Llama 2。这使其在 Hugging Face 开源人工智能模型排行榜上名列前茅。

“Meta 之外的人正在凭借自己的表现和多年来精心收集和策划的模型击败 Meta。他们在一周内就完成了,”拉贾尼说。“打败大众的智慧是非常困难的”

与此同时,人工智能社区在开源知识方面有着悠久的历史。谷歌构建并公开共享了 Transformer 模型,这是一个神经网络,可以通过跟踪数据部分(例如句子中的单词)之间的关系来理解上下文(例如语言)。该模型已成为尖端人工智能模型的基础,并在许多应用中使用,包括 ChatGPT(GPT 中的“T”代表变压器)。

普林斯顿大学教授阿尔温德·纳拉亚南 (Arvind Narayanan) 表示,开源模型使研究人员能够更好地研究人工智能的能力和风险,并阻止权力集中在少数公司手中,并指出了技术“单一文化”形成的风险。

“单一栽培可能会带来灾难性的后果,”他说。“当同一模型(例如 GPT-4)用于数千或数百万个应用程序时,该模型中的任何安全漏洞(例如越狱)都可能影响所有这些应用程序。”

专家指出,从历史上看,人工智能作为一个领域的蓬勃发展是因为公司研究人员、学者和其他专家愿意分享笔记。

“数据科学和人工智能成为一个庞大产业的原因之一实际上是因为它建立在知识共享文化的基础上”,Humane Intelligence(一家开发负责任的人工智能系统的非营利组织)的联合创始人鲁曼乔杜里(Rumman Chowdhury)说。“我认为,对于那些不属于数据科学界的人来说,很难意识到我们为彼此付出了多少。”

此外,一些人工智能学者表示,开源模型不仅可以让研究人员更好地发现大型语言模型中的安全缺陷,还可以发现更多的定性缺陷,这些缺陷已被证明会延续偏见、幻觉或其他有问题的内容。

一些研究人员认为,虽然公司可以提前测试其中一些偏差,但在这些模型投入使用之前很难预测每一个负面结果。

“我认为需要对漏洞可被利用的程度进行更多研究。需要进行审计、风险分析以及风险文件……所有这些只有在拥有开放且可研究的模型时才能完成,”拉贾尼说。

但开源人工智能也可能会出错

即使是开放人工智能模型最热心的支持者也承认存在重大风险。人工智能到底是如何出错的,从更容易伪造人们的身份到消灭人类,至少在理论上是这样。在这种情况下,最紧迫的论点是,如果人工智能确实达到了某种通用人工智能,那么有一天它可能会以我们无法控制的方式超越人类。

在最近的一次参议院听证会上,OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 告诉国会,“人工智能存在所有危险,真正需要密切关注的人越少——绝对的前沿能力”,就越容易做到这一点。供监管机构控制。

另一方面,甚至 Altman 也承认允许开源社区发展的重要性。他建议设定某种限制,以便当模型满足执行特定任务的某些“能力阈值”时,​​应该强制它获得政府的许可。

在这一点上,一些开源支持者似乎同意 Altman 的观点。如果我们达到人工智能模型接近超越人类的程度,那么也许我们可以对开源踩刹车。

但人工智能面临的挑战性问题是,我们在什么时候决定它太强大了,无法不受约束?如果到那时精灵就从瓶子里出来了,那么人工智能的进步就无法阻止了吗?这些问题现在无法确定地回答。但与此同时,开源人工智能已经到来,虽然存在真正的直接风险,以及未来可能滚雪球般的风险,但让更广泛的人思考它对我们所有人来说也有明显的好处。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/74489.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年7月31日 01:03
下一篇 2023年7月31日 01:23

相关推荐

  • 华尔街交易员太害怕对抗人工智能反弹

    作者: Denitsa Tsekova的Carmen Reinicke,2024 年 2 月 26 日 当其他人都是买家时,在华尔街成为怀疑论者的危险的教训是,考虑一下罗布·阿诺特(Rob Arnott),他在五个月前提出了一个明智的案例,称英伟达公司已经成为泡沫。 Research Affiliates 的创始人将其称为“大市场错觉的教科书故事”,并引用了…

    2024年3月14日
    16300
  • 随着人工智能淘金热加剧,华尔街宽客加入聊天机器人热潮

    杰西·利弗莫尔审视了趋势线。沃伦·巴菲特寻求安全边际。彼得林奇押注于增长率。在市场的悠久历史中,交易系统和投资公式占有崇高的地位。 然而,由于 ChatGPT 等语言模型的计算能力,即使是金融界的传奇人物也无法预测人工智能支持者如今的梦想。 在这个新世界中,如果企业高管出现不必要的离题或在主题之间跳转,自动化程序就会发出警告——这可能是对未来焦虑的迹象。另一…

    2023年12月9日
    12200
  • LK-99,未来的“室温超导体“?什么是导体和超导体?

    在过去的几天里,我一直在疯狂地重新加载Twitter 帐户,试图尽可能多地了解LK-99 ,这是韩国物理学家团队声称已经发现的所谓室温、常压超导体。 这可能是在我了解超导体是什么,或者为什么它在室温或环境压力下很重要之后一周。但几天之内,我从几乎完全无知到对这项技术所带来的可能性感到非常高兴。当然,前提是它是真实的。 你也可以经历从无知到眩晕的旅程。如何制造…

    2023年8月12日
    21900
  • 埃隆·马斯克 (Elon Musk) 的 Neuralink 希望将你的大脑与人工智能融合——代价是什么?

    在埃隆·马斯克的所有功绩中——特斯拉汽车、SpaceX 火箭、Twitter 收购、殖民火星计划——他的秘密大脑芯片公司 Neuralink 可能是最危险的。 Neuralink 的用途是什么?从短期来看,它是为了帮助瘫痪的人。但这还不是全部答案。 该公司于 2016 年成立,并在 2019 年透露,它已经创造了可以植入大脑的柔性“线”,以及一个类似缝纫机的…

    2023年10月17日
    16200
  • 第一印象:是的,Apple Vision Pro 可以工作,是的,它很好

    经过大约 30 分钟的演示,演示了尚未准备好测试的主要功能后,我确信 Apple 在 XR 的功能和执行方面实现了真正的飞跃——或者通过其新的 Apple Vision Pro 实现了混合现实。 非常清楚,我并不是说它兑现了所有承诺,是一种真正的新计算范例,或者苹果希望在它发布后兑现的任何其他强大声明。 我将需要比指导演示更多的时间来使用该设备。 但是,从 …

    2023年6月6日
    28800

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部