为什么马克·扎克伯格让 Meta 放弃其最先进的人工智能模型

上周,Meta 在人工智能领域做出了改变游戏规则的举动。

当谷歌和 OpenAI 等其他领先的人工智能公司严密保守自己的秘密之时,Meta决定免费赠送为其创新的新型人工智能大语言模型Llama 2提供支持的代码。这意味着其他公司现在可以使用Meta 的 Llama 2 模型,一些技术专家称其功能与 ChatGPT 相当,可以构建自己的定制聊天机器人。

Llama 2 可能会挑战 ChatGPT 的主导地位,ChatGPT 打破了有史以来增长最快的应用程序之一的记录。但更重要的是,它的开源性质给关于谁应该控制人工智能以及是否可以保证人工智能安全的重要伦理辩论增添了新的紧迫性。

随着人工智能变得越来越先进,也可能更加危险,如果代码被保密(仅限于少数公司的员工),或者应该与公众共享,以便更多的人能够使用它,这对社会会更好吗?参与塑造变革性技术?

顶尖科技公司正在采取不同的方法

在 Meta 的 Llama 2 公告中,马克·扎克伯格在Instagram 上发布了一张自己与微软首席执行官萨蒂亚·纳德拉 (Satya Nadella) 微笑的照片,宣布了两家公司在该版本上的合作伙伴关系。扎克伯格还阐述了为什么领先的人工智能模型“开源”更好,这意味着该技术的底层代码在很大程度上可供任何人使用。

扎克伯格在 Facebook 的另一篇帖子中写道:“开源推动创新,因为它使更多的开发人员能够使用新技术进行构建。 ” “它还提高了安全性,因为当软件开放时,更多的人可以仔细检查它以识别和修复潜在问题。”

此举受到许多人工智能开发人员、研究人员和学者的欢迎,他们表示这将为他们提供前所未有的机会来构建新工具或研究系统,否则创建这些工具或研究系统的成本将高得令人望而却步。尖端的大型语言模型(例如为 ChatGPT 提供支持的模型)可能需要花费数千万美元来创建和维护。

“我只是为可能发生的进展做好准备,”开源人工智能平台 Hugging Face 的研究负责人 Nazneen Rajani 说,该平台与 Meta 合作发布了该版本。Rajani在 Twitter 上发表了一篇文章,评估 Llama 2 首次推出时的功能,并告诉 Vox​​,“我们将能够发现更多秘密成分,了解构建 GPT-4 这样的模型实际需要什么。”

但开源人工智能也伴随着重大风险。该领域的一些最大参与者,包括微软支持的 OpenAI 和谷歌,一直在限制其人工智能系统的公开程度,因为他们认为这些技术存在严重危险。

一些技术专家越来越担心假想的世界末日场景,在这种场景中,人工智能可能比人类更聪明,造成伤害,例如释放生物超级武器或以我们无法完全想象的方式造成其他破坏。OpenAI 的联合创始人Ilya Sutskever 在 2 月份告诉 The Verge,他的公司过去更公开地分享其模型的详细信息是“完全错误的”,因为如果人工智能有一天变得像人类一样聪明,达到一些人所说的水平AGI 或通用人工智能,与大众分享是不明智的。

“如果你像我们一样相信,在某个时候,人工智能——AGI——将变得极其强大,令人难以置信,那么开源就没有意义。这是一个坏主意,”苏茨克维尔当时说道。

虽然我们距离能够对人类造成真正破坏的人工智能还很遥远,但我们已经看到来自开源社区的人工智能工具被以其他方式滥用。例如,Meta在 2 月份发布了第一个严格用于研究用途的 Llama 模型后不久,它就在随心所欲的在线留言板 4Chan 上泄露,然后它被用来创建聊天机器人,散布种族歧视等仇恨内容,在某些情况下,暴力场面。

Meta 生成人工智能副总裁 Ahmad Al-Dahle 在给 Vox 的电子邮件中写道:“我们认真对待这些问题,并采取了一些措施来支持以负责任的方式使用 Llama 2 进行构建。” Al-Dahle 表示,这些措施包括“红队”,即在发布之前对模型进行压力测试,提供预计会产生“风险输出”的提示,例如有关犯罪行为和仇恨内容的提示。Meta 还对其模型进行了微调,以减轻此类行为,并制定了新的指导方针,禁止某些非法和有害的用途。

Meta 表示,在发布后将继续对其模型进行安全性微调。

Al-Dahle 表示:“当技术公开发布和完善时,我们相信它最终会带来更透明的讨论,提高应对威胁的响应能力,并增加构建更负责任的人工智能工具和技术的迭代。”

例如,一些专家指出,甚至在人工智能以当前形式存在之前,我们就已经存在错误信息的问题。他们说,目前更重要的是错误信息的传播方式。普林斯顿大学计算机科学教授阿尔温德·纳拉亚南 (Arvind Narayanan) 告诉 Vox​​,“不良行为者的瓶颈不是产生错误信息,而是传播错误信息并说服人们。” 他补充道,“人工智能,无论是否开源,并没有让这些步骤变得更容易。”

为了遏制错误信息的传播,创建人工智能模型的公司可以对其程序的使用方式施加一些限制。例如,Meta有一些规则禁止用户使用 Llama 2 宣扬暴力或骚扰,但这些规则可能很难执行。

还值得注意的是,《Llama 2》还没有完全开放。Meta 没有发布用于教授最新模型的训练数据,而最新模型是任何人工智能系统的关键组成部分;研究人员表示,这对于衡量人工智能系统中的偏见至关重要。最后,Meta 要求每月拥有超过 7 亿用户的公司(基本上只有少数像谷歌这样的科技巨头)在使用该软件之前征求 Meta 的许可。

不过,总的来说,Llama 2 是我们最近看到的大型科技公司开源程度最高的人工智能项目。这就提出了其他公司将如何应对的问题。

那么到底支持和反对更加开源的人工智能世界的理由是什么?我们似乎正在朝着什么方向前进,特别是考虑到 Meta 最近的声明?

开源可以带来更多创新

如果您是 ChatGPT 等 AI 工具的临时用户,您可能看不到开源 AI 模型的直接好处。但如果您是人工智能开发人员或研究人员,像 Llama 2 这样的开源法学硕士的引入将为您打开一个充满可能性的世界。

“这是一件大事,”AI 初创公司 Chroma 的联合创始人兼技术负责人 Anton Troynikov 表示,该公司构建数据库,开发人员可以将这些数据库插入到 AI 系统中,以利用他们的数据、事实和工具对其进行定制。

对于像 Troynikov 这样的人来说,使用 Llama 2 可以让公司让用户更好地控制其数据的使用方式。

Troynikov 说:“现在您不必向系统外部发送任何数据,您可以在自己的机器上 100% 内部运行它。”他举了医生不需要公开患者医疗记录的例子。给第三方。“您的数据不再需要去任何地方就能获得这些出色的功能。”

Troynikov 表示,他个人刚刚开始使用 Llama 2,并且仍在测试它与他公司技术的配合效果。

现在判断 Llama 2 的具体用途还为时过早,但 Meta 的 Al-Dahle 表示,它看到了“创建基于聊天的代理和助理的一系列可能性,有助于提高企业的生产力、客户服务和效率”否则可能无法访问和部署这项技术。”

改进 Meta 自己的产品也有自身利益的考虑。如果 Meta 将其人工智能模型投入使用,外部工程师的开源社区将改进其模型,然后 Meta 可以使用该模型来构建该公司表示正在开发的应用内人工智能工具,例如业务助理聊天机器人。

这样,Meta 就不必投入所有资源来追赶 OpenAI 和 Google,后者在将生成式 AI 工具纳入其主要产品线方面走得更远。

开源人工智能将利用“大众的智慧”

一些权威专家认为,如果人工智能模型是开源的,它们可能会变得更聪明,总体上道德缺陷也更少。

通过开源人工智能模型,更多的人可以在它们的基础上进行构建和改进。开源人工智能公司 Stability AI 已经在 Llama 2 的基础上创建了一个名为“FreeWilly”的模型。它很快就流行起来,现在在一些测试中可以超越它的起源 Llama 2。这使其在 Hugging Face 开源人工智能模型排行榜上名列前茅。

“Meta 之外的人正在凭借自己的表现和多年来精心收集和策划的模型击败 Meta。他们在一周内就完成了,”拉贾尼说。“打败大众的智慧是非常困难的”

与此同时,人工智能社区在开源知识方面有着悠久的历史。谷歌构建并公开共享了 Transformer 模型,这是一个神经网络,可以通过跟踪数据部分(例如句子中的单词)之间的关系来理解上下文(例如语言)。该模型已成为尖端人工智能模型的基础,并在许多应用中使用,包括 ChatGPT(GPT 中的“T”代表变压器)。

普林斯顿大学教授阿尔温德·纳拉亚南 (Arvind Narayanan) 表示,开源模型使研究人员能够更好地研究人工智能的能力和风险,并阻止权力集中在少数公司手中,并指出了技术“单一文化”形成的风险。

“单一栽培可能会带来灾难性的后果,”他说。“当同一模型(例如 GPT-4)用于数千或数百万个应用程序时,该模型中的任何安全漏洞(例如越狱)都可能影响所有这些应用程序。”

专家指出,从历史上看,人工智能作为一个领域的蓬勃发展是因为公司研究人员、学者和其他专家愿意分享笔记。

“数据科学和人工智能成为一个庞大产业的原因之一实际上是因为它建立在知识共享文化的基础上”,Humane Intelligence(一家开发负责任的人工智能系统的非营利组织)的联合创始人鲁曼乔杜里(Rumman Chowdhury)说。“我认为,对于那些不属于数据科学界的人来说,很难意识到我们为彼此付出了多少。”

此外,一些人工智能学者表示,开源模型不仅可以让研究人员更好地发现大型语言模型中的安全缺陷,还可以发现更多的定性缺陷,这些缺陷已被证明会延续偏见、幻觉或其他有问题的内容。

一些研究人员认为,虽然公司可以提前测试其中一些偏差,但在这些模型投入使用之前很难预测每一个负面结果。

“我认为需要对漏洞可被利用的程度进行更多研究。需要进行审计、风险分析以及风险文件……所有这些只有在拥有开放且可研究的模型时才能完成,”拉贾尼说。

但开源人工智能也可能会出错

即使是开放人工智能模型最热心的支持者也承认存在重大风险。人工智能到底是如何出错的,从更容易伪造人们的身份到消灭人类,至少在理论上是这样。在这种情况下,最紧迫的论点是,如果人工智能确实达到了某种通用人工智能,那么有一天它可能会以我们无法控制的方式超越人类。

在最近的一次参议院听证会上,OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 告诉国会,“人工智能存在所有危险,真正需要密切关注的人越少——绝对的前沿能力”,就越容易做到这一点。供监管机构控制。

另一方面,甚至 Altman 也承认允许开源社区发展的重要性。他建议设定某种限制,以便当模型满足执行特定任务的某些“能力阈值”时,​​应该强制它获得政府的许可。

在这一点上,一些开源支持者似乎同意 Altman 的观点。如果我们达到人工智能模型接近超越人类的程度,那么也许我们可以对开源踩刹车。

但人工智能面临的挑战性问题是,我们在什么时候决定它太强大了,无法不受约束?如果到那时精灵就从瓶子里出来了,那么人工智能的进步就无法阻止了吗?这些问题现在无法确定地回答。但与此同时,开源人工智能已经到来,虽然存在真正的直接风险,以及未来可能滚雪球般的风险,但让更广泛的人思考它对我们所有人来说也有明显的好处。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/74489.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年7月31日 01:03
下一篇 2023年7月31日 01:23

相关推荐

  • 在公共充电站给手机充电安全吗?

    更糟糕的是,您的手机没电了或者有人窃取了您的所有数据? 多年来,人们一直告诉你,由于所谓的“果汁劫持”,这是你可能面临的选择。Juice jacking 是指有人篡改充电站或 USB 端口,使其在您给电池充满电时从您的手机中窃取数据或安装恶意软件。从四月开始一直持续到整个夏天,从联邦调查局到伊利诺伊州亨特利警察局的每个人都在警告公众有关果汁劫持的行为。这似乎…

    2023年9月5日
    9100
  • 华尔街观点黯淡之际,凯西·伍德 (Cathie Wood) 买入特斯拉股票

    凯茜·伍德(Cathie Wood)在去年大部分时间出售特斯拉股票后,开始购买特斯拉股票。她的收购是在华尔街对这家电动汽车制造商的前景迅速黯淡之际进行的。 根据彭博社汇编的 Ark 每日交易数据,伍德公司 Ark Investment Management LLC 运营的基金在 12 月 20 日和 1 月 3 日的投资中购买了约 216,000 股该公司股…

    2024年1月14日
    4100
  • 针对人工智能风险的“曼哈顿计划”是个坏主意

    最近,许多病毒故事描述了一场空军模拟,其中一架自主无人机将其操作员识别为执行任务的障碍,然后试图消灭该操作员。这个故事讲述了知名人士一直在敲响警钟的一切:目标错位、圈外的人类,以及最终的杀手机器人。唯一的问题?“模拟”从未发生过——讲述这个故事的空军官员后来说,这只是一个“思想练习”,而不是实际的模拟。 在兴趣、无知和机会主义的推动下,围绕人工智能的耸人听闻…

    2023年7月25日
    14900
  • Web3 是未来、骗局,或两者兼而有之:加密货币和 NFT 品牌重塑解析

    Web3 是一个骗局。 Web3 是一个改变世界的机会,可以打造一个更好的互联网版本,并将其从目前控制互联网的巨头手中夺走。 Web3 会让一些人赚得盆满钵满。但还有很多人会因此血本无归。 我知道!我也很困惑。 Web3 很难定义(稍后我会尝试定义),但这不一定是个问题。这是一个新兴的想法,由各种传言、乐观、困惑、神学之争和纯粹的猜测所催生,这意味着它具有极…

    2024年7月15日
    600
  • Parrot 是一种将语音转换为文本的人工智能转录平台,筹集了 1100 万美元的 A 系列资金

    Parrot 的首席执行官 Aaron O’Brien 在科技领域工作了超过 15 年,之前曾在 Flexport、Uber 和 Facebook 等科技公司工作过,他告诉 TechCrunch,Parrot 的创始 团队看到了一个机会,可以将急需的技术带到 长期被忽视和服务不足的法律行业。

    2023年6月20日
    11900

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部