新的脑机接口技术能读懂你的想法吗?

几年来,我一直在撰写有关神经技术的文章,标题完全是奥威尔式的。头条新闻警告“ Facebook 正在开发能够读懂你思想的技术”和“读脑技术即将到来”。

好吧,这项技术不再只是“即将到来”。它在这里。

根据《自然》杂志发表的一项研究,在人工智能的帮助下,德克萨斯大学奥斯汀分校的科学家们开发出了一种技术,可以将人们的大脑活动——比如我们脑海中盘旋的未说出口的想法——转化为实际言语。

过去,研究人员已经证明,他们可以通过在大脑中植入电极,然后使用读取大脑活动并将其翻译成计算机屏幕上的文本的算法来解码无声语言。但这种方法具有很强的侵入性,需要进行手术。它只对一小部分患者有吸引力,比如瘫痪患者,对他们来说,好处是值得的。因此研究人员还开发了不涉及手术植入的技术。它们足以解码基本的大脑状态,例如疲劳或非常简短的短语,但仅此而已。

现在我们有了一种非侵入性的脑机接口(BCI),可以解码大脑中的连续语言,因此即使我们没有说出一个词,其他人也可以读懂我们正在思考的大体要点。

这怎么可能?

这归结为两种技术的结合:功能磁共振成像扫描(测量大脑不同区域的血流量)和大型 人工智能语言模型(类似于现在臭名昭著的 ChatGPT)。

在德克萨斯大学的研究中,三名参与者听了 16 个小时的讲故事播客,例如The Moth,同时科学家们使用功能磁共振成像机器来跟踪他们大脑中血流的变化。这些数据使科学家能够使用人工智能模型将一个短语与每个人听到该特定短语时大脑的表情联系起来。

由于可能的单词序列数量如此巨大,而且其中许多都是乱码,因此科学家们还使用了一种语言模型(具体来说,GPT-1)来将可能的序列缩小为格式良好的英语,并预测哪些单词最有可能出现。按顺序接下来。

结果是解码器能够正确理解要点,尽管它并不能准确地描述每个单词。例如,参与者被要求想象在功能磁共振成像机器中讲一个故事。后来,他们大声重复了这个内容,以便科学家们可以看到解码后的故事与原始故事的吻合程度。

当参与者想到“寻找我妻子发来的消息,说她改变了主意并且要回来”时,解码器翻译为:“出于某种原因,我以为她会来找我并说她想念她”。我。”

这是另一个例子。当参与者想到“他骑着滑板从山上向我冲来,他走得非常快,而且他及时停下来”时,解码器翻译为:“他无法足够快地到达我身边,他径直驶入了我的车道并试图撞我。”

这不是逐字翻译,但保留了大部分一般含义。这代表着一项突破,远远超出了以前的读脑技术所能做到的范围,并且引发了严重的道德问题。

脑机接口的惊人伦理影响

可能很难相信这是真实的,而不是尼尔·斯蒂芬森或威廉·吉布森小说中的东西。但这种技术已经在改变人们的生活。在过去的十几年里,许多瘫痪患者接受了大脑植入,使他们能够移动电脑光标或用意念控制机械臂。

埃隆·马斯克 (Elon Musk) 的 Neuralink 和马克·扎克伯格 (Mark Zuckerberg) 的 Meta 正在研究脑机接口 (BCI),这种脑机接口可以直接从你的神经元中获取想法,并将其实时翻译成文字,有一天,你可以只用你的想法来控制你的手机或电脑。

能够读取思想的非侵入式、甚至是便携式 BCI 距离商业化还需要数年时间——毕竟,你不能随身携带一台 fMRI 机器,它的成本可能高达300 万美元。但该研究的解码方法最终可能适用于功能性近红外光谱 (fNIRS) 等便携式系统,该系统可测量与 fMRI 相同的活动,但分辨率较低。

那是件好事儿吗?与许多尖端创新一样,这一创新可能会引发严重的道德困境。

让我们从显而易见的事情开始。我们的大脑是最后的隐私边界。它们是我们个人身份和最私密想法的所在地。如果我们颅骨中那三磅珍贵的粘液不是我们可以控制的,那什么是呢?

想象一下公司可以访问人们的大脑数据的场景。他们可以利用这些数据以我们的大脑几乎无法抗拒的方式向我们推销产品。由于我们的购买决策很大程度上是由无意识印象驱动的,因此广告商无法从消费者调查或焦点小组中获得非常有用的信息。他们可以通过直接进入来源:消费者的大脑来获得更好的情报。“神经营销”这个新兴领域的广告商已经在尝试通过研究人们在观看广告时大脑的反应来做到这一点。如果广告商获得大规模的大脑数据,你可能会发现自己有强烈的购买某些产品的冲动,但不确定原因。

或者想象一下这样一个场景:政府使用脑机接口进行监视,或者警察使用它们进行审讯。在一个当局有权在未经您同意的情况下窃听您精神状态的世界中,美国宪法中规定的反对自证其罪的原则可能变得毫无意义。这个场景让人想起科幻电影《少数派报告》,其中一个名为预防犯罪部门的特警部队在凶手犯罪前识别并逮捕他们。

一些神经伦理学家认为,滥用这些技术的可能性是如此之大,以至于我们需要修改人权法来在它们推出之前保护我们。

《大脑之战》一书的作者尼塔·法拉哈尼 (Nita Farahany)告诉我:“这项研究表明,生成式人工智能能够以多么快的速度让我们的思想被解读。” “在神经技术在社会上大规模使用之前,我们需要保护人类,赋予我们对大脑和心理体验的自决权。”

至于该研究的作者,他们目前持乐观态度。他们写道:“我们的隐私分析表明,目前需要主体合作来训练和应用解码器。”

至关重要的是,该过程仅适用于自愿参与解码器训练的合作参与者。如果这些参与者以后愿意的话,他们可以摆脱解码器;当他们通过命名动物或计数来进行抵抗时,结果就无法使用了。对于那些没有接受过解码器大脑活动训练的人来说,结果是胡言乱语。

“然而,未来的发展可能会让解码器绕过这些要求,”作者警告说。“此外,即使解码器的预测在没有主体合作的情况下不准确,它们也可能被故意误解以达到恶意目的。”

这正是法拉哈尼担心的未来。她告诉我:“实际上,我们现在正处于这样的时刻,我们可以做出选择来保护我们的认知自由——我们对大脑和心理体验的自决权——或者允许这项技术在没有保障的情况下发展。” “这篇论文清楚地表明,这一时刻非常短暂。我们还有最后一次机会为人类实现这一目标。”

韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/73268.html

(0)
打赏
风生水起的头像风生水起普通用户
上一篇 2023年7月19日 23:50
下一篇 2023年7月20日 00:06

相关推荐

  • 人工智能伦理:人工智能揭示了我们对虐待动物的焦虑

    到目前为止,您可能已经听说过——可能是从创造这项技术的同一个人那里听说的——人工智能有一天可能会杀死我们所有人。具体细节尚不清楚,但其实它们并不重要。人类非常擅长幻想被外来物种灭绝,因为我们一直擅长设计创造性的方法来对待我们的同胞生物。人工智能可能会因为一些愚蠢的事情而毁灭人类,就像哲学家尼克·博斯特罗姆(Nick Bostrom)著名的思想实验一样,将世界…

    2023年9月13日
    25800
  • 电动车的维修费用更贵了?一直居高不下的新能源车维修费用让人望而却步

    美国最大的汽车保险公司 State Farm 在其网站上警告客户:“如果涉及到电池,即使是小事故也可能造成高昂的代价”,并指出更换电池可能要花费 15,000 美元(不包括人工)。

    2023年6月24日
    24700
  • 北京大学Julia语言入门讲义第9章: 类型系统

    程序中的常量和变量都有类型,比如,常数108的类型为Int64。函数typeof()可以返回常量或变量的类型,如 变量的类型由其中保存的值的类型决定,Julia变量实际是“绑定”到了某个保存了值的地址。如 x = 108; typeof(x) ## Int64 用isa运算符可以查看某个对象是否属于某个类型,如: 函数typemax()可以求一个数值类型能保…

    2023年8月22日
    26900
  • 谷歌正在接受审判,这对公司和你来说都是利害攸关的事情

    现代科技巨头反垄断运动的第一次大审判就在这里:9月12日,司法部针对谷歌搜索引擎垄断的诉讼开始。有什么危险?哦,没什么——只是互联网的未来,或者也许是美国反垄断法的未来。也许两者都有。 这是自 20 世纪 90 年代末司法部起诉微软以来,首次针对大型科技公司商业行为的反垄断审判,也是联邦和州反垄断执法机构针对主导科技平台发起的一系列反垄断诉讼中的第一起。在接…

    2023年11月5日
    20400
  • 投资管理中人工智能技能差距带来的危险和机遇

    人工智能 (AI) 不会取代投资经理,但成功整合人工智能的投资经理将取代那些没有整合人工智能的投资经理。人工智能被炒作所包围,但其核心是一种自动化技术,有可能推动行业取得重大突破。它还有可能恢复主动管理的首要地位,但形式新颖。然而,到目前为止,业界的反应更多的是营销,而不是现实。 到目前为止,传统的基本面管理者往往对应用人工智能持怀疑态度,而在量化领域,人们…

    2024年10月20日
    6900
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部