ChatGPT 和大型语言模型:它们的风险和局限性

性能与数据

尽管 ChatGPT 具有看似“神奇”的品质,但它与其他大型语言模型 (LLM) 一样,只是一个巨大的人工神经网络。其复杂的架构由大约 400 个核心层和 1750 亿个参数(权重)组成,所有这些参数都根据从网络和其他来源抓取的人类编写的文本进行训练。总而言之,这些文本源的初始数据总计约为 45 TB。如果没有训练和调整,ChatGPT 只会产生乱码。

我们可能会想象法学硕士的惊人能力仅受其网络规模和训练数据量的限制。这在一定程度上是正确的。但 LLM 的投入需要花钱,而且即使是性能上的微小改进也需要更多的计算能力。据估计,训练 ChatGPT-3 消耗了约 1.3 吉瓦时的电力,OpenAI 总共花费了约 460 万美元。相比之下,较大的 ChatGPT-4 模型的训练成本将达到 1 亿美元或更多。

OpenAI 研究人员可能已经达到了一个拐点,一些人承认 进一步的性能改进必须来自于计算能力的增强以外的其他方面。

尽管如此,数据可用性可能是法学硕士取得进展的最关键障碍。ChatGPT-4 已经接受了互联网上所有高质量文本的训练。然而,更多高质量的文本存储在个人和企业数据库中,OpenAI 或其他公司无法以合理的成本或规模访问。但是,这种精心策划的训练数据加上额外的训练技术,可以对预先训练的法学硕士进行微调,以更好地预测和响应特定领域的任务和查询。此类法学硕士不仅会优于规模较大的法学硕士,而且更便宜、更容易获得且更安全。

但无法访问的数据和计算能力的限制只是阻碍法学硕士的两个障碍。

幻觉、不准确和误用

ChatGPT 等基础人工智能应用程序最相关的用例是收集、关联和总结信息。ChatGPT 和法学硕士帮助撰写论文和大量计算机代码,甚至参加并通过了复杂的考试。公司已将法学硕士商业化以提供专业支持服务。例如,Casetext 公司在其 CoCounsel 应用程序中部署了 ChatGPT,以帮助律师起草法律研究备忘录、审查和创建法律文件以及为审判做准备。

然而,无论他们的写作能力如何,ChatGPT 和 LLM 都是统计机器。他们根据训练期间“看到”的内容提供“合理的”或“可能的”反应。他们无法总是验证或描述其答案背后的推理和动机。虽然 ChatGPT-4 可能已经通过了多个州的律师考试,但经验丰富的律师不应像一年级律师所写的那样更信任其法律备忘录。

当 ChatGPT 被要求解决数学问题时,其统计性质最为明显。提示它集成一些多项三角函数,ChatGPT 可能会提供看似合理但不正确的响应。要求它描述得出答案所采取的步骤,它可能会再次给出看似合理的答复。再问一遍,可能会给出完全不同的答案。应该只有一个正确答案,并且只有一系列分析步骤才能得出该答案。这强调了这样一个事实:ChatGPT 并不“理解”数学问题,也没有应用数学解决方案所需的计算算法推理。

法学硕士的随机统计性质也使他们容易受到数据科学家所说的“幻觉”的影响,即他们冒充现实的幻想。如果他们可以提供错误但令人信服的文本,法学硕士也可以传播错误信息并被用于非法或不道德的目的。例如,不良行为者可能会促使法学硕士以信誉良好的出版物的风格撰写文章,然后将其作为假新闻传播。或者他们可以利用它来获取敏感的个人信息来欺骗客户。由于这些原因,摩根大通和德意志银行等公司已禁止使用 ChatGPT。

我们如何解决与 LLM 相关的错误、事故和滥用问题?根据特定领域的精选数据对预先训练的法学硕士进行微调,有助于提高响应的准确性和适当性。例如,Casetext 公司依靠预先训练的 ChatGPT-4,但通过额外的训练数据(来自所有美国联邦和州司法管辖区的法律文本、案例、法规和法规)补充其 CoCounsel 应用程序,以改进其响应。根据用户想要完成的具体法律任务,推荐更精准的提示;共同法律顾问总是引用其回应的来源。

在初始训练之上应用某些额外的训练技术,例如根据人类反馈进行强化学习(RLHF),也可以减少法学硕士误用或错误信息的可能性。RLHF 根据人类判断对 LLM 回答进行“评分”。然后,这些数据会被反馈到神经网络中,作为其训练的一部分,以减少法学硕士将来对类似提示提供不准确或有害响应的可能性。当然,什么是“适当”的应对措施取决于观点,因此 RLHF 很难说是万能药。

“红队”是另一种改进技术,用户可以通过“攻击”法学硕士来发现其弱点并修复它们。红队成员会编写提示来说服法学硕士做不应该做的事情,因为他们预计现实世界中的恶意行为者也会做出类似的尝试。通过识别潜在的不良提示,LLM 开发人员可以围绕 LLM 的响应设置护栏。虽然这些努力确实有所帮助,但并非万无一失。尽管 ChatGPT-4 上存在广泛的红队,但用户仍然可以设计提示来绕过其护栏。

另一个潜在的解决方案是部署额外的人工智能,通过创建与法学硕士并行的辅助神经网络来监管法学硕士。第二个人工智能经过训练,可以根据某些道德原则或政策判断法学硕士的反应。根据人工智能法官的判断,法学硕士的反应与“正确”反应的“距离”会反馈到法学硕士,作为其培训过程的一部分。这样,当法学硕士考虑对提示的反应选择时,它会优先考虑最道德的反应。

透明度

ChatGPT 和 LLM 具有人工智能和机器学习 (ML) 应用程序的共同缺点:它们本质上是黑匣子。甚至 OpenAI 的程序员也不知道 ChatGPT 如何配置自身来生成文本。传统上,模型开发人员在将模型提交给程序代码之前先设计模型,但法学硕士使用数据来配置自己。LLM网络架构本身缺乏理论基础或工程:程序员选择许多网络功能只是因为它们起作用,但不一定知道它们为什么起作用。

这种固有的透明度问题催生了一个用于验证人工智能/机器学习算法的全新框架——所谓的可解释或可解释的人工智能。模型管理社区探索了各种方法来围绕 AI/ML 预测和决策构建直觉和解释。许多技术试图了解输入数据的哪些特征生成了输出以及它们对某些输出的重要性。其他人对人工智能模型进行逆向工程,以便在仅适用某些功能和输出的本地领域中构建更简单、更可解释的模型。不幸的是,随着模型变得越来越大,可解释的人工智能/机器学习方法变得呈指数级复杂,因此进展缓慢。据我所知,还没有可解释的 AI/ML 成功应用于 ChatGPT 规模和复杂性的神经网络。

鉴于可解释或可解释的人工智能/机器学习进展缓慢,有必要围绕法学硕士制定更多法规,以帮助公司防范不可预见或极端的情况,即“未知的未知数”。法学硕士的日益普及和提高生产力的潜力使得彻底禁止其使用是不现实的。因此,公司的模型风险治理政策不应过多关注验证这些类型的模型,而应关注实施综合使用和安全标准。这些政策应优先考虑法学硕士的安全和负责任的部署,并确保用户检查输出响应的准确性和适当性。在此模型治理范式中,独立模型风险管理并不检查 LLM 的工作方式,而是审核业务用户依赖 LLM 来完成特定任务的理由和理由,并确保使用它们的业务部门有适当的保障措施作为模型输出和业务流程本身的一部分。

下一步是什么?

ChatGPT 和 LLM 代表了 AI/ML 技术的巨大飞跃,让我们离通用人工智能又近了一步。但采用 ChatGPT 和 LLM 会带来重要的限制和风险。在在其业务中部署法学硕士技术之前,公司必须首先采用如上所述的新模型风险治理标准。良好的模型治理政策重视法学硕士的巨大潜力,但通过减轻其固有风险来确保其安全和负责任的使用。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/79042.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年11月13日 23:08
下一篇 2023年11月13日 23:28

相关推荐

  • Alphabet 的现金热潮正在提升华尔街的股息希望

    Alphabet Inc. 正在筹集如此多的现金,人们越来越希望它能效仿 Meta Platforms Inc. 的做法,开始派发股息。 多年来,这家搜索巨头一直在将多余的现金投入股票回购,许多投资者预计,当 Alphabet 在 4 月 25 日公布业绩时,该公司还将投入 700 亿美元。但摩根大通和 Truist Securities 等分析师都认为,小…

    2024年5月26日
    4600
  • 随着困境加剧,苹果投资者面临 3400 亿美元的亏损

    作者:Ryan Vlastelica 苹果公司(Apple Inc.)接连传来的坏消息让人们对这家全球市值最高的公司不受经济动荡相关风险影响的论点产生了怀疑。 新款iPhone在中国的销售不温不火,引发了人们对苹果是否有能力证明其昂贵的估值合理,并避免连续四个季度收入下降的担忧——这将是自2001年以来最糟糕的表现。中国和过热的设备,而 KeyBanc 本月…

    2023年10月20日
    8400
  • 大型科技公司的繁荣让策略师们争先恐后地跟上涨势

    围绕人工智能股票的狂热让华尔街的预测者措手不及,引发了策略师之间的竞赛,以跟上 2024 年开始时已经超出他们预期的股市上涨。 五家华尔街公司已经上调了对标准普尔 500 指数的预测,继 2023 年上涨 24% 后,今年年初该指数将上涨 7%。仅在过去一周,Piper Sandler & Co.、瑞银集团 (UBS Group AG) 和巴克莱银行…

    2024年3月30日
    5500
  • 随着人工智能淘金热加剧,华尔街宽客加入聊天机器人热潮

    杰西·利弗莫尔审视了趋势线。沃伦·巴菲特寻求安全边际。彼得林奇押注于增长率。在市场的悠久历史中,交易系统和投资公式占有崇高的地位。 然而,由于 ChatGPT 等语言模型的计算能力,即使是金融界的传奇人物也无法预测人工智能支持者如今的梦想。 在这个新世界中,如果企业高管出现不必要的离题或在主题之间跳转,自动化程序就会发出警告——这可能是对未来焦虑的迹象。另一…

    2023年12月9日
    10800
  • 一项新的民意调查显示,美国人不想要比人类更聪明的人工智能

    他们说,主要的人工智能公司正在竞相构建超级人工智能——为了你我的利益。但他们有没有停下来问过我们是否真的想要这样? 总的来说,美国人不想要它。 分享的一项新民意调查的结果。这项民意调查由智库AI 政策研究所委托、YouGov 于 9 月初对 1,118 名不同年龄、性别、种族和政治立场的美国人进行了调查。报告显示,63% 的选民表示监管应旨在 积极防止人工智…

    2023年10月1日
    14400

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部