ChatGPT 和大型语言模型:它们的风险和局限性

性能与数据

尽管 ChatGPT 具有看似“神奇”的品质,但它与其他大型语言模型 (LLM) 一样,只是一个巨大的人工神经网络。其复杂的架构由大约 400 个核心层和 1750 亿个参数(权重)组成,所有这些参数都根据从网络和其他来源抓取的人类编写的文本进行训练。总而言之,这些文本源的初始数据总计约为 45 TB。如果没有训练和调整,ChatGPT 只会产生乱码。

我们可能会想象法学硕士的惊人能力仅受其网络规模和训练数据量的限制。这在一定程度上是正确的。但 LLM 的投入需要花钱,而且即使是性能上的微小改进也需要更多的计算能力。据估计,训练 ChatGPT-3 消耗了约 1.3 吉瓦时的电力,OpenAI 总共花费了约 460 万美元。相比之下,较大的 ChatGPT-4 模型的训练成本将达到 1 亿美元或更多。

OpenAI 研究人员可能已经达到了一个拐点,一些人承认 进一步的性能改进必须来自于计算能力的增强以外的其他方面。

尽管如此,数据可用性可能是法学硕士取得进展的最关键障碍。ChatGPT-4 已经接受了互联网上所有高质量文本的训练。然而,更多高质量的文本存储在个人和企业数据库中,OpenAI 或其他公司无法以合理的成本或规模访问。但是,这种精心策划的训练数据加上额外的训练技术,可以对预先训练的法学硕士进行微调,以更好地预测和响应特定领域的任务和查询。此类法学硕士不仅会优于规模较大的法学硕士,而且更便宜、更容易获得且更安全。

但无法访问的数据和计算能力的限制只是阻碍法学硕士的两个障碍。

幻觉、不准确和误用

ChatGPT 等基础人工智能应用程序最相关的用例是收集、关联和总结信息。ChatGPT 和法学硕士帮助撰写论文和大量计算机代码,甚至参加并通过了复杂的考试。公司已将法学硕士商业化以提供专业支持服务。例如,Casetext 公司在其 CoCounsel 应用程序中部署了 ChatGPT,以帮助律师起草法律研究备忘录、审查和创建法律文件以及为审判做准备。

然而,无论他们的写作能力如何,ChatGPT 和 LLM 都是统计机器。他们根据训练期间“看到”的内容提供“合理的”或“可能的”反应。他们无法总是验证或描述其答案背后的推理和动机。虽然 ChatGPT-4 可能已经通过了多个州的律师考试,但经验丰富的律师不应像一年级律师所写的那样更信任其法律备忘录。

当 ChatGPT 被要求解决数学问题时,其统计性质最为明显。提示它集成一些多项三角函数,ChatGPT 可能会提供看似合理但不正确的响应。要求它描述得出答案所采取的步骤,它可能会再次给出看似合理的答复。再问一遍,可能会给出完全不同的答案。应该只有一个正确答案,并且只有一系列分析步骤才能得出该答案。这强调了这样一个事实:ChatGPT 并不“理解”数学问题,也没有应用数学解决方案所需的计算算法推理。

法学硕士的随机统计性质也使他们容易受到数据科学家所说的“幻觉”的影响,即他们冒充现实的幻想。如果他们可以提供错误但令人信服的文本,法学硕士也可以传播错误信息并被用于非法或不道德的目的。例如,不良行为者可能会促使法学硕士以信誉良好的出版物的风格撰写文章,然后将其作为假新闻传播。或者他们可以利用它来获取敏感的个人信息来欺骗客户。由于这些原因,摩根大通和德意志银行等公司已禁止使用 ChatGPT。

我们如何解决与 LLM 相关的错误、事故和滥用问题?根据特定领域的精选数据对预先训练的法学硕士进行微调,有助于提高响应的准确性和适当性。例如,Casetext 公司依靠预先训练的 ChatGPT-4,但通过额外的训练数据(来自所有美国联邦和州司法管辖区的法律文本、案例、法规和法规)补充其 CoCounsel 应用程序,以改进其响应。根据用户想要完成的具体法律任务,推荐更精准的提示;共同法律顾问总是引用其回应的来源。

在初始训练之上应用某些额外的训练技术,例如根据人类反馈进行强化学习(RLHF),也可以减少法学硕士误用或错误信息的可能性。RLHF 根据人类判断对 LLM 回答进行“评分”。然后,这些数据会被反馈到神经网络中,作为其训练的一部分,以减少法学硕士将来对类似提示提供不准确或有害响应的可能性。当然,什么是“适当”的应对措施取决于观点,因此 RLHF 很难说是万能药。

“红队”是另一种改进技术,用户可以通过“攻击”法学硕士来发现其弱点并修复它们。红队成员会编写提示来说服法学硕士做不应该做的事情,因为他们预计现实世界中的恶意行为者也会做出类似的尝试。通过识别潜在的不良提示,LLM 开发人员可以围绕 LLM 的响应设置护栏。虽然这些努力确实有所帮助,但并非万无一失。尽管 ChatGPT-4 上存在广泛的红队,但用户仍然可以设计提示来绕过其护栏。

另一个潜在的解决方案是部署额外的人工智能,通过创建与法学硕士并行的辅助神经网络来监管法学硕士。第二个人工智能经过训练,可以根据某些道德原则或政策判断法学硕士的反应。根据人工智能法官的判断,法学硕士的反应与“正确”反应的“距离”会反馈到法学硕士,作为其培训过程的一部分。这样,当法学硕士考虑对提示的反应选择时,它会优先考虑最道德的反应。

透明度

ChatGPT 和 LLM 具有人工智能和机器学习 (ML) 应用程序的共同缺点:它们本质上是黑匣子。甚至 OpenAI 的程序员也不知道 ChatGPT 如何配置自身来生成文本。传统上,模型开发人员在将模型提交给程序代码之前先设计模型,但法学硕士使用数据来配置自己。LLM网络架构本身缺乏理论基础或工程:程序员选择许多网络功能只是因为它们起作用,但不一定知道它们为什么起作用。

这种固有的透明度问题催生了一个用于验证人工智能/机器学习算法的全新框架——所谓的可解释或可解释的人工智能。模型管理社区探索了各种方法来围绕 AI/ML 预测和决策构建直觉和解释。许多技术试图了解输入数据的哪些特征生成了输出以及它们对某些输出的重要性。其他人对人工智能模型进行逆向工程,以便在仅适用某些功能和输出的本地领域中构建更简单、更可解释的模型。不幸的是,随着模型变得越来越大,可解释的人工智能/机器学习方法变得呈指数级复杂,因此进展缓慢。据我所知,还没有可解释的 AI/ML 成功应用于 ChatGPT 规模和复杂性的神经网络。

鉴于可解释或可解释的人工智能/机器学习进展缓慢,有必要围绕法学硕士制定更多法规,以帮助公司防范不可预见或极端的情况,即“未知的未知数”。法学硕士的日益普及和提高生产力的潜力使得彻底禁止其使用是不现实的。因此,公司的模型风险治理政策不应过多关注验证这些类型的模型,而应关注实施综合使用和安全标准。这些政策应优先考虑法学硕士的安全和负责任的部署,并确保用户检查输出响应的准确性和适当性。在此模型治理范式中,独立模型风险管理并不检查 LLM 的工作方式,而是审核业务用户依赖 LLM 来完成特定任务的理由和理由,并确保使用它们的业务部门有适当的保障措施作为模型输出和业务流程本身的一部分。

下一步是什么?

ChatGPT 和 LLM 代表了 AI/ML 技术的巨大飞跃,让我们离通用人工智能又近了一步。但采用 ChatGPT 和 LLM 会带来重要的限制和风险。在在其业务中部署法学硕士技术之前,公司必须首先采用如上所述的新模型风险治理标准。良好的模型治理政策重视法学硕士的巨大潜力,但通过减轻其固有风险来确保其安全和负责任的使用。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/79042.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年11月13日 23:08
下一篇 2023年11月13日 23:28

相关推荐

  • 缓慢而稳定的 Waymo 正在赢得自动驾驶竞赛

    Alphabet Inc. 的自动驾驶部门 Waymo 周一宣布,计划“很快”将其汽车投放到凤凰城的高速公路上。长期以来,这座城市一直是最新自动驾驶技术的试验场,Alphabet 的工程师将在这里率先让无人驾驶技术在没有安全驾驶员的情况下在公共道路上高速行驶。 对他们有好处。与陷入困境且不负责任的竞争对手相比,这一里程碑是对 Waymo 在自动驾驶汽车方面更…

    2024年1月17日
    9000
  • 人工智能工作:没有人知道人工智能负责人是做什么的,但这是最热门的新工作

    如果人工智能来抢夺我们的工作,许多美国人希望能够抢在它的前面。普通人在工作中使用人工智能,而科技工作者则将自己重塑为人工智能专家。领导层正在争夺最热门的新职位:人工智能主管。 在科技领域之外,几年前人工智能主管的职位几乎不存在,但现在从亚马逊到 Visa 再到可口可乐,人们正在承担这个头衔——或者至少是它的职责。根据LinkedIn的数据,在美国,过去五年中…

    2023年8月11日
    15200
  • 医疗投资 寻找制药以外的增长

    医疗投资 寻找超越药品的增长 Vinay Thapar 的 AllianceBernstein,11/1/24 制药公司在医疗保健领域经常占据头条。从 COVID 疫苗到减肥药物,突破性的制药产品旨在治愈人类的疾病并提高生活质量。投资者经常被潜在的重磅药物的承诺所吸引,这种药物可以消除难以治愈的疾病,并带来健康的利润流。 由于大型制药公司是最大的医疗保健权重…

    2024年11月28日
    1500
  • 利用人工智能识别和预测金融危机

    人工智能 (AI) 可以提高我们识别和预测金融危机的能力。人工智能的一项关键创新是能够从数据中学习,而无需被告知要寻找什么。利用人工智能等技术需要我们摆脱传统的主观方法,让数据告诉我们何时会出现危机。 将数据点分组,以揭示我们以前可能没有注意到的模式和见解,是识别金融危机的一种方法。这有助于我们更好地了解引发这些危机的原因。 在列支敦士登大学,迈克尔·汉克、…

    2024年6月26日
    3900
  • 英伟达买家因美国与中国的芯片大战而受损

    在上个月股市低迷时期买入英伟达股票的投资者受到了严厉的提醒,即推动和拉动这家芯片制造商业务前景的多重力量。 9 月中旬看似有先见之明的押注——该股在 15 个交易日内飙升了 14%——本周却变了味,股价暴跌 8.5%,创下一年多来最严重的两天跌幅。这次溃败是由美国旨在限制来自中国的尖端技术的新规定引发的,此举威胁到了英伟达上季度来自中国的收入的五分之一。 这…

    2023年10月26日
    38100

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部