机器学习:解释它或半身像

“如果你不能简单地解释它,那么你就没有理解它。”

复杂的机器学习 (ML) 也是如此。

机器学习现在可以衡量环境、社会和治理 (ESG) 风险,执行交易,并可以推动股票选择和投资组合构建,但最强大的模型仍然是黑匣子。

机器学习在投资行业的加速扩张引发了人们对透明度降低以及如何解释投资决策的全新担忧。坦率地说,“无法解释的机器学习算法[。。。] 让公司面临不可接受的法律和监管风险。”

简而言之,这意味着如果您无法解释您的投资决策,那么您、您的公司和利益相关者就会陷入困境。因此,解释——或者更好的是直接解释——是至关重要的。

其他已部署人工智能 (AI) 和机器学习的主要行业的杰出人才都在努力应对这一挑战。对于我们行业中那些更喜欢计算机科学家而不是投资专业人士或试图将简单且开箱即用的机器学习应用程序投入投资决策的人来说,它改变了一切。

目前提供两种类型的机器学习解决方案:

  1. 可解释的人工智能使用不太复杂的机器学习,可以直接读取和解释。
  2. 可解释的人工智能(XAI)采用复杂的机器学习并尝试对其进行解释。

XAI 可能是未来的解决方案。但这就是未来。在目前和可预见的情况下,基于 20 年的量化投资和机器学习研究,我认为可解释性是您应该寻求利用机器学习和人工智能的力量的地方。

让我解释一下原因。

金融的第二次技术革命

机器学习将成为现代投资管理未来的重要组成部分。这是广泛的共识。它承诺减少昂贵的前台人员数量,取代遗留因素模型,利用庞大且不断增长的数据池,并最终以更有针对性的定制方式实现资产所有者的目标。

然而,技术在投资管理领域的缓慢采用已经是老生常谈了,机器学习也不例外。也就是说,直到最近。

ESG 在过去 18 个月中的崛起以及评估 ESG 所需的大量数据池的搜索是推动向 ML 过渡的关键力量。

对这些新的专业知识和解决方案的需求超过了我在过去十年或自 20 世纪 90 年代中期上次重大技术革命冲击金融业以来所目睹的任何情况。

机器学习军备竞赛的速度令人担忧。新近自封的专家的明显采用令人震惊。这场革命可能会被计算机科学家而不是企业所参与,这可能是最令人担忧的可能性。对投资决策的解释始终取决于企业的硬道理。

可解释的简单性?或者可解释的复杂性?

可解释的人工智能,也称为符号人工智能 (SAI),或“优秀的老式人工智能”,起源于 20 世纪 60 年代,但再次处于人工智能研究的前沿。

可解释的人工智能系统往往是基于规则的,就像决策树一样。当然,虽然决策树可以帮助了解过去发生的事情,但它们是糟糕的预测工具,并且通常与数据过度拟合。然而,可解释的人工智能系统现在拥有更强大、更复杂的规则学习过程。

这些规则应该应用于数据。它们可以被直接检验、审视和解释,就像本杰明·格雷厄姆和大卫·多德的投资规则一样。它们也许很简单,但功能强大,而且如果规则学习做得好的话,它们是安全的。

另一种可解释的人工智能(XAI)则完全不同。XAI 试图为无法直接解释的黑盒模型的内部运作找到解释。对于黑匣子,输入和结果是可以观察到的,但其间的过程是不透明的,只能猜测。

这就是 XAI 通常尝试的:猜测并测试其解释黑盒过程的方式。它采用可视化来显示不同的输入如何影响结果。

XAI 仍处于早期阶段,并且已被证明是一门具有挑战性的学科。在机器学习应用程序方面,这是推迟判断并进行解释的两个很好的理由。


解释还是解释?

描绘不同人工智能应用的图像

金融领域最常见的 XAI 应用之一是 SHAP(SHapley Additive exPlanations)。SHAP 起源于博弈论的 Shapely Values。最近由华盛顿大学的研究人员开发。

下图显示了股票选择模型的 SHAP 解释,该模型仅由几行 Python 代码生成。但这是一个需要自己解释的解释。

这是一个超级想法,对于开发机器学习系统非常有用,但需要勇敢的产品经理才能依靠它向合规主管解释交易错误。


为您的合规主管准备的一份?使用 Shapley 值解释神经网络

机器学习:解释它或半身像
注意:这是对随机森林模型的 SHAP 解释,该模型旨在选择新兴市场股票领域中较高阿尔法股票。它使用过去的自由现金流、市场贝塔值、股本回报率和其他投入。右侧解释了输入如何影响输出。

无人机、核武器、癌症诊断。。。和选股?

医学研究人员和国防工业比金融部门探索解释或解释问题的时间要长得多。他们已经实现了强大的特定应用解决方案,但尚未得出任何一般性结论。

美国国防高级研究计划局 (DARPA) 进行了思想领先的研究,并将可解释性描述为阻碍机器学习系统能力的成本。

下图通过各种机器学习方法说明了这一结论。在这种分析中,方法的可解释性越高,复杂性就越低,因此准确度也就越低。如果复杂性与准确性相关联,这肯定是正确的,但简约原则和该领域的一些重量级研究人员却不敢苟同。这表明图的右侧可能更好地代表现实。


可解释性真的会降低准确性吗?

显示可解释和准确的人工智能应用程序之间差异的图表
注:Cynthia Rudin 指出,准确性与可解释性的关系并不像 XAI 支持者(左)所主张的那样(右)。

高管层的复杂性偏见

“准确的黑匣子和不太准确的透明模型之间的错误二分法已经走得太远了。当数百名顶尖科学家和金融公司高管被这种二分法误导时,想象一下世界其他地方也可能被愚弄。” —辛西娅·鲁丁

可解释性阵营中的假设——复杂性是有保证的——在深度学习至关重要的应用中可能是正确的,例如预测蛋白质折叠。但在其他应用中,它可能并不那么重要,其中包括选股。

2018 年可解释机器学习挑战赛的失利证明了这一点。这本应是神经网络的黑盒挑战,但超级明星人工智能研究员 Cynthia Rudin 和她的团队有不同的想法。他们提出了一种可解释的——读起来:更简单的——机器学习模型。由于它不是基于神经网络的,因此不需要任何解释。这已经是可以解释的了。

也许鲁丁最引人注目的评论是“信任黑盒模型意味着您不仅信任模型的方程,而且还信任构建模型的整个数据库。”

具有行为金融学背景的人应该熟悉她的观点。鲁丁认识到另一种行为偏差:复杂性偏差。我们倾向于发现复杂的东西比简单的东西更有吸引力。正如她在最近的WBS 关于可解释人工智能与可解释人工智能网络研讨会上所解释的那样,她的方法是仅使用黑盒模型提供基准,然后开发具有类似精度的可解释模型。

推动人工智能军备竞赛的高管们可能需要暂停并反思这一点,然后再继续全力追求过度复杂性。

用于股票选择的可解释、可审计的机器学习

虽然有些目标需要复杂性,但其他目标却会受到影响。

选股就是这样的例子之一。在《可解释、透明和可审计的机器学习》中, David Tilles、Timothy Law 和我提出了可解释的人工智能,作为股票投资管理中股票选择的因子投资的可扩展替代方案。我们的应用程序利用简单机器学习方法的非线性功能来学习简单、可解释的投资规则。

新颖之处在于它不复杂、可解释、可扩展,并且我们相信它可以成功并远远超过因子投资。事实上,我们的应用程序几乎与我们多年来尝试过的更复杂的黑盒方法一样好。

我们的应用程序的透明度意味着它是可审计的,并且可以与可能不具备计算机科学高级学位的利益相关者进行沟通和理解。XAI 不需要解释它。是可以直接解释的。

我们之所以将这项研究公开,是因为我们长期以来坚信选股没有必要过于复杂。事实上,这种复杂性几乎肯定会损害选股。

可解释性在机器学习中至关重要。另一种选择是一种循环的复杂性,以至于每个解释都需要对解释进行无限的解释。

它在哪里结束?

为人类一

那么是哪一个呢?解释还是阐释?争论正在激烈进行。最具前瞻性的金融公司正在花费数亿美元进行研究,以支持机器学习的蓬勃发展。

与任何尖端技术一样,错误的启动、失败和资本浪费是不可避免的。但就目前和可预见的未来而言,解决方案是可解释的人工智能。

考虑两个不言而喻的道理:事情越复杂,就越需要解释;事物越容易解释,就越不需要解释。

未来,XAI 将被更好地建立和理解,并且更加强大。目前,它还处于起步阶段,要求投资经理让他们的公司和利益相关者面临不可接受的法律和监管风险的机会是太过分了。

通用XAI目前并没有提供简单的解释,俗话说:

“如果你不能简单地解释它,那么你就没有理解它。”

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/74060.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年9月1日 01:50
下一篇 2023年9月1日 23:55

相关推荐

  • 摩根士丹利认为 Dojo 将使特斯拉的价值增加 5000 亿美元

    作者: Abhishek Vishnoi,Subrat Patnaik 摩根士丹利表示,通过更快地采用机器人出租车和网络服务,特斯拉公司的 Dojo 超级计算机可能会为该公司的市值增加多达 5000 亿美元。 以 Adam Jonas 为首的分析师在一份报告中写道,Dojo 可以开辟“新的潜在市场”,就像 AWS 为亚马逊公司所做的那样,将该股从同等权重上调…

    2023年9月16日
    19700
  • 恩智浦和先锋集团将在新加坡投资 78 亿美元建设芯片晶圆厂,为科技公司对冲中国市场

    恩智浦和先锋集团将在新加坡投资 78 亿美元建设芯片晶圆厂,以防范科技公司对冲中国风险 恩智浦半导体公司 (NXP Semiconductors NV) 正与台湾半导体制造股份有限公司部分持股的一家公司合作,在新加坡建设一座价值 78 亿美元的芯片晶圆厂,此举将推动该岛国的科技雄心。 台积电支持的先锋国际半导体公司和恩智浦半导体公司周三在一份声明中表示,这两…

    2024年6月7日
    14100
  • OpenAI、微软和谷歌的生成式人工智能正在改变搜索,为什么谷歌要重塑互联网搜索?

    如果您觉得自己已经听过很多关于生成式人工智能的内容,那么您就没有错。几个月前,一款名为 ChatGPT 的生成式人工智能工具迅速走红,似乎硅谷的每个人都在努力寻找这项新技术的用途。微软和谷歌是其中的佼佼者,它们正在竞相重塑我们使用计算机的方式。但首先,他们正在重塑我们搜索互联网的方式。 生成式人工智能本质上是传统人工智能的更先进、更有用的版本,它已经为从自动…

    2023年7月7日
    15700
  • ChatGPT 和大型语言模型:它们的风险和局限性

    性能与数据 尽管 ChatGPT 具有看似“神奇”的品质,但它与其他大型语言模型 (LLM) 一样,只是一个巨大的人工神经网络。其复杂的架构由大约 400 个核心层和 1750 亿个参数(权重)组成,所有这些参数都根据从网络和其他来源抓取的人类编写的文本进行训练。总而言之,这些文本源的初始数据总计约为 45 TB。如果没有训练和调整,ChatGPT 只会产生…

    2023年11月13日
    33100
  • 新的聊天机器人 ETF 有望模仿沃伦·巴菲特和戴维·泰珀

    这可能是华尔街利用新奇的人工智能工具模仿金融传奇人物最大胆的尝试。 金融科技初创公司 Intelligent Alpha 正在推出一款由聊天机器人驱动的 ETF,该基金承诺利用投资界最杰出的头脑——沃伦·巴菲特、斯坦利·德鲁肯米勒、大卫·泰珀等——的智慧。 该产品有一个不那么微妙的名字——智能利弗莫尔 ETF,它围绕 ChatGPT、Gemini 和 Cla…

    2024年10月16日
    5100

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部