作者: François Oustry、Sahar Attaripour
生成式人工智能存在可靠性问题。以下是投资者如何对部署该技术的投资组合充满信心。
随着生成人工智能(GAI)越来越受欢迎,该技术制造反应的倾向仍然是一个很大的缺陷。我们相信,专业模型的设计可以减少幻觉并提高人工智能在投资应用中的准确性和有效性。
如果您在过去一年中使用过 ChatGPT 或 GAI 驱动的应用程序,您可能会感到惊讶和怀疑。这项技术让我们眼花缭乱,因为它能够用写得非常好的散文来撰写智能摘要、写诗、讲笑话和回答有关一系列主题的问题。然而,根据人工智能初创公司 Vectara 的一项研究显示,它也倾向于捏造信息——根据模型的不同,概率在 3% 到 27% 之间。虽然这种缺陷在娱乐应用中可能是可以容忍的,但投资者必须抑制 GAI 的幻觉,才能对其投资组合的输出获得高度的信心。
GAI为什么会产生幻觉?
GAI 的魔力发生在大型语言模型 (LLM) 中。法学硕士是基于深度学习技术的算法,可以识别、总结、翻译、预测和生成文本及其他形式的内容。驱动这些模型的知识基于大量数据集以及特定上下文中出现的单词和单词序列的统计概率。
但构建大型模型是有代价的。法学硕士是通才,这意味着他们接受了可以在互联网上找到的通用数据的培训,而没有对来源进行事实核查。当面对训练中未包含的不熟悉的数据时,这些模型也可能会失败。根据用户如何提示模型,它可能会得出根本不正确的答案。
修复幻觉是 GAI 提供商寻求增强对该技术的信心和商业化的一个重点。对于投资应用,我们认为解决问题的关键是创建可以提高产出的专业模型。这些较小的模型称为知识图(KG),它们建立在更窄的定义数据集上。知识图谱使用基于图形的技术,这是一种机器学习,可以提高模型捕获可靠关系和模式的能力。
专业应用程序更加一致
使用基于图的模型结构并在更小但更集中的数据集上训练人工智能大脑,有助于限制响应的边界。对于投资应用,知识图谱可以通过开源法学硕士的丰富知识来指导模型,例如,通过确定可能与技术和创新(显示)相关或不相关的各种术语的相关性。虽然法学硕士专注于一个单词出现在另一个单词附近的统计概率,但基于图的模型可以成为越来越聪明的主题专家。它可以旨在理解宏观经济、技术、金融和地缘政治等领域中更可能对金融市场和证券产生影响的概念、单词和短语之间的因果关系。
KG 可以提高准确性,因为所讨论的单词和主题之间的关系得到了更精确的定义。我们认为,建立一个将知识分子的特殊性与法学硕士的广度相结合的人工智能模型可以为投资者(Display)带来两全其美的效果。
基于知识图谱的人工智能模型的可靠性还可以通过从一系列领域中经过验证的无偏见知识来源中仔细选择训练数据来提高。来源可以包括来自国际货币基金组织、世界贸易组织和全球中央银行的材料。 KG 必须通过从选定的可靠来源捕获和消化新信息来不断发展。
质量控制和事实核查
尽管如此,精心策划 KG 培训材料并不能消除幻觉。人工智能专业人员在构建我们认为可以产生更值得信赖的输出的模型时可以部署其他工具。
例如,基于知识的推理可以促进更智能的提示。这涉及使用知识图谱生成基于事实信息和经过审查的来源的提示。它为法学硕士提供了一个更准确、更相关的起点来生成其输出。
图结构还可以对结果进行事实检查。事实上,精心设计的图形结构可以量化法学硕士模型输出的可靠性,并可以警告系统和/或人类管理员潜在的幻觉。
为什么这对投资者很重要?
对于投资模型,必须为明确定义的目标设计人工智能驱动的系统。这需要结合不同的模型和技术来实现目标输出,例如识别可能因影响行业的事件而受益或表现不佳的证券。虽然不懂技术的投资者可能无法完全理解这些模型是如何工作的,但重要的是要询问使用人工智能的投资组合经理,用简单的英语解释这些模型如何形成支持投资策略的连贯架构。
通过正确的技术组合,我们相信人工智能模型可以极大地抑制幻觉。更高的准确性是人工智能投资大脑的基石,它可以超越传统的数据源和量化策略,在资产类别中寻找有吸引力的投资,而不受人类行为偏见的阻碍。
在一个不确定性日益增加、变化迅速的世界中,寻求利用人工智能革命的投资者需要确信该技术并非痴心妄想。通过将法学硕士与重点知识库相结合,并结合彻底的风险控制机制,可以应用系统的健全性检查,以确保人工智能驱动的投资模型牢固植根于充满真正机会的世界。
本文表达的观点不构成研究、投资建议或交易建议,也不一定代表所有 AB 投资组合管理团队的观点。观点可能会随着时间的推移而改变。
韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/80265.html