人工智能对投资模型的幻觉能否被驯服?

作者: François Oustry、Sahar Attaripour

生成式人工智能存在可靠性问题。以下是投资者如何对部署该技术的投资组合充满信心。

随着生成人工智能(GAI)越来越受欢迎,该技术制造反应的倾向仍然是一个很大的缺陷。我们相信,专业模型的设计可以减少幻觉并提高人工智能在投资应用中的准确性和有效性。

如果您在过去一年中使用过 ChatGPT 或 GAI 驱动的应用程序,您可能会感到惊讶和怀疑。这项技术让我们眼花缭乱,因为它能够用写得非常好的散文来撰写智能摘要、写诗、讲笑话和回答有关一系列主题的问题。然而,根据人工智能初创公司 Vectara 的一项研究显示,它也倾向于捏造信息——根据模型的不同,概率在 3% 到 27% 之间。虽然这种缺陷在娱乐应用中可能是可以容忍的,但投资者必须抑制 GAI 的幻觉,才能对其投资组合的输出获得高度的信心。

GAI为什么会产生幻觉?

GAI 的魔力发生在大型语言模型 (LLM) 中。法学硕士是基于深度学习技术的算法,可以识别、总结、翻译、预测和生成文本及其他形式的内容。驱动这些模型的知识基于大量数据集以及特定上下文中出现的单词和单词序列的统计概率。

但构建大型模型是有代价的。法学硕士是通才,这意味着他们接受了可以在互联网上找到的通用数据的培训,而没有对来源进行事实核查。当面对训练中未包含的不熟悉的数据时,这些模型也可能会失败。根据用户如何提示模型,它可能会得出根本不正确的答案。

修复幻觉是 GAI 提供商寻求增强对该技术的信心和商业化的一个重点。对于投资应用,我们认为解决问题的关键是创建可以提高产出的专业模型。这些较小的模型称为知识图(KG),它们建立在更窄的定义数据集上。知识图谱使用基于图形的技术,这是一种机器学习,可以提高模型捕获可靠关系和模式的能力。

专业应用程序更加一致

使用基于图的模型结构并在更小但更集中的数据集上训练人工智能大脑,有助于限制响应的边界。对于投资应用,知识图谱可以通过开源法学硕士的丰富知识来指导模型,例如,通过确定可能与技术和创新(显示)相关或不相关的各种术语的相关性。虽然法学硕士专注于一个单词出现在另一个单词附近的统计概率,但基于图的模型可以成为越来越聪明的主题专家。它可以旨在理解宏观经济、技术、金融和地缘政治等领域中更可能对金融市场和证券产生影响的概念、单词和短语之间的因果关系。

知识图可以成为高度智能的主题专家

KG 可以提高准确性,因为所讨论的单词和主题之间的关系得到了更精确的定义。我们认为,建立一个将知识分子的特殊性与法学硕士的广度相结合的人工智能模型可以为投资者(Display)带来两全其美的效果。

两种人工智能技术可以结合起来提高产量

基于知识图谱的人工智能模型的可靠性还可以通过从一系列领域中经过验证的无偏见知识来源中仔细选择训练数据来提高。来源可以包括来自国际货币基金组织、世界贸易组织和全球中央银行的材料。 KG 必须通过从选定的可靠来源捕获和消化新信息来不断发展。

质量控制和事实核查

尽管如此,精心策划 KG 培训材料并不能消除幻觉。人工智能专业人员在构建我们认为可以产生更值得信赖的输出的模型时可以部署其他工具。

例如,基于知识的推理可以促进更智能的提示。这涉及使用知识图谱生成基于事实信息和经过审查的来源的提示。它为法学硕士提供了一个更准确、更相关的起点来生成其输出。

图结构还可以对结果进行事实检查。事实上,精心设计的图形结构可以量化法学硕士模型输出的可靠性,并可以警告系统和/或人类管理员潜在的幻觉。

为什么这对投资者很重要?

对于投资模型,必须为明确定义的目标设计人工智能驱动的系统。这需要结合不同的模型和技术来实现目标输出,例如识别可能因影响行业的事件而受益或表现不佳的证券。虽然不懂技术的投资者可能无法完全理解这些模型是如何工作的,但重要的是要询问使用人工智能的投资组合经理,用简单的英语解释这些模型如何形成支持投资策略的连贯架构。

通过正确的技术组合,我们相信人工智能模型可以极大地抑制幻觉。更高的准确性是人工智能投资大脑的基石,它可以超越传统的数据源和量化策略,在资产类别中寻找有吸引力的投资,而不受人类行为偏见的阻碍。

在一个不确定性日益增加、变化迅速的世界中,寻求利用人工智能革命的投资者需要确信该技术并非痴心妄想。通过将法学硕士与重点知识库相结合,并结合彻底的风险控制机制,可以应用系统的健全性检查,以确保人工智能驱动的投资模型牢固植根于充满真正机会的世界。

本文表达的观点不构成研究、投资建议或交易建议,也不一定代表所有 AB 投资组合管理团队的观点。观点可能会随着时间的推移而改变。

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/80265.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年12月11日 21:39
下一篇 2023年12月11日 21:52

相关推荐

  • 电动车的维修费用更贵了?一直居高不下的新能源车维修费用让人望而却步

    美国最大的汽车保险公司 State Farm 在其网站上警告客户:“如果涉及到电池,即使是小事故也可能造成高昂的代价”,并指出更换电池可能要花费 15,000 美元(不包括人工)。

    2023年6月24日
    14700
  • 人工智能将如何重塑国际贸易规则

    作者:泰勒·考恩 (Tyler Cowen) 在国际贸易和投资方面,人工智能将创造一些明显的赢家和输家。二阶效应可能更有趣。 要理解这些,需要从两个前提开始:首先,人工智能服务会消耗大量能源,但并非所有能源都是绿色的。其次,许多国家将监管人工智能的使用或人工智能衍生产品和服务的实施,例如新药物或新教育技术的创造。 让我们依次考虑每个因素。 向 ChatGPT…

    2023年10月18日
    10700
  • OpenAI 和 Google 的 AI 系统非常强大,它们将带我们去哪里?

    我们应该如何看待大型语言模型 (LLM)?这实际上是一个价值十亿美元的问题。 本周,OpenAI 前员工 Leopold Aschenbrenner 在一篇分析文章中谈到了这个问题。他在文章中指出,我们可能只需几年时间就能实现基于大型语言模型的通用智能,这种智能可以成为“临时远程工作者”,完成人类远程工作者所做的任何任务。(他认为,我们需要继续推进并建立这种…

    18小时前
    200
  • 新的脑机接口技术能读懂你的想法吗?

    几年来,我一直在撰写有关神经技术的文章,标题完全是奥威尔式的。头条新闻警告“ Facebook 正在开发能够读懂你思想的技术”和“读脑技术即将到来”。 好吧,这项技术不再只是“即将到来”。它在这里。 根据《自然》杂志发表的一项研究,在人工智能的帮助下,德克萨斯大学奥斯汀分校的科学家们开发出了一种技术,可以将人们的大脑活动——比如我们脑海中盘旋的未说出口的想法…

    2023年7月19日
    17300
  • 一项新的民意调查显示,美国人不想要比人类更聪明的人工智能

    他们说,主要的人工智能公司正在竞相构建超级人工智能——为了你我的利益。但他们有没有停下来问过我们是否真的想要这样? 总的来说,美国人不想要它。 分享的一项新民意调查的结果。这项民意调查由智库AI 政策研究所委托、YouGov 于 9 月初对 1,118 名不同年龄、性别、种族和政治立场的美国人进行了调查。报告显示,63% 的选民表示监管应旨在 积极防止人工智…

    2023年10月1日
    11300

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部