去年,当生成式人工智能产品开始向公众推出时,引发了一阵兴奋和恐惧。
人们对这些工具仅通过一个文本提示就可以创建的图像和文字感到惊讶。硅谷对一项变革性新技术的前景垂涎三尺,在经历了多年的停滞以及加密货币和虚拟宇宙的失败之后,它可以从中赚到很多钱。人们还担心生成式人工智能改变世界后世界会变成什么样子。数以百万计的工作岗位可能会消失。辨别什么是真实的或什么是计算机制作的可能变得不可能。如果你想真正戏剧化地看待它,人类的末日可能即将来临。我们既赞美又害怕这项技术所具有的令人难以置信的潜力。
几个月后,人工智能生成的玫瑰花即将绽放。各国政府正在加大 力度监管这项技术,创作者正在起诉涉嫌侵犯知识产权和版权的行为,人们对这些产品造成的隐私侵犯(无论是真实的还是感知到的)感到犹豫,并且有很多理由质疑人工智能的准确性聊天机器人确实存在,人们应该在多大程度上依赖它们。
假设他们仍在使用它们。最近的报告表明,消费者开始失去兴趣:新的人工智能驱动的 Bing 搜索并没有削弱谷歌的市场份额,ChatGPT首次失去用户,而且机器人仍然容易犯一些基本错误,例如让他们无法信任。在某些情况下,它们现在可能比以前更不准确。皮尤研究中心最近的一项调查发现,只有 18% 的美国成年人曾经使用过 ChatGPT,而另一位调查则表示,他们越来越担心人工智能的使用。这个派对伎俩的派对结束了吗?
生成式人工智能是一项强大的技术,但不会很快普及,而使用这项新技术构建的聊天机器人是消费者最容易使用的工具之一,他们可以直接访问并亲自试用它们。但最近的报告表明,随着最初爆发的兴奋和好奇心的消退,人们可能不会像许多人预期的那样喜欢聊天机器人。
OpenAI 及其 ChatGPT 聊天机器人迅速成为最热门的生成式人工智能公司和工具,这无疑得益于它是第一批向公众发布工具的公司之一,以及与微软价值数十亿美元的合作伙伴关系。 。这种合作关系促使微软在 2 月份发布了一项重大声明,宣布将如何将使用 OpenAI 大型语言模型 (LLM) 构建的自定义聊天机器人(这也是 ChatGPT 的动力)整合到其网络搜索引擎 Bing 中。微软将人工智能注入的生成搜索视为网络搜索的未来。这种新的人工智能聊天机器人不会返回一堆链接或知识窗口,而是将来自多个网站的信息组合成一个响应。
经过大量的炒作,Bing 突然从一个笑话变成了一个潜在的竞争对手,而这个市场完全由 Google 主导,以至于 Bing 几乎成了 Google 的代名词。谷歌急忙发布了自己的聊天机器人,名为 Bard。Meta也不甘示弱,并且可能仍在对其灾难性的元宇宙枢纽感到痛苦,它发布了其大型语言模型的不是一个而是两个 开源( ish ) 版本。OpenAI 将 ChatGPT 授权给其他公司,数十家公司排队将其应用到自己的产品中。
假设这种重塑真的发生的话,可能比几个月前的兴奋所暗示的还要遥远。《华尔街日报》最近的一篇文章称,新的必应并没有受到消费者的欢迎,并援引了两家不同的分析公司的话说,这两家公司目前的必应市场份额与 1 月份人工智能出现之前的市场份额大致相同。(微软告诉《华尔街日报》,这些公司低估了这些数字,但不愿分享其内部数据。)据 Statcounter 报道消费者必须使用 Microsoft 的网络浏览器 Edge 才能访问 Bing 聊天,该浏览器的用户数量确实有所增加,但仍然几乎没有什么变化,并且已经开始下降,而 Chrome 的市场份额在此期间有所增加。不过,微软仍然抱有希望。当 Bing Chat 更容易或可以在不同且更流行的浏览器上访问时,它很可能会得到更多使用。微软告诉《华尔街日报》,它计划很快这样做。
与此同时,OpenAI 的 ChatGPT 似乎也表现不佳。据《华盛顿邮报》报道,自去年发布以来,ChatGPT 网站的流量在 6 月份首次下降了近 10% 。报告称,其 iPhone 应用程序的下载量也有所下降,但 OpenAI 并未对这些数字发表评论。
谷歌尚未像微软那样广泛地将其聊天机器人集成到其搜索服务中,将其保留在主搜索页面之外,并继续将其视为一种“可能显示不准确或攻击性信息”的实验性技术。谷歌没有回应对巴德使用数据发表评论的请求。
考虑到其中一些聊天机器人可能存在的问题,谷歌的方法可能是正确的。现在,我们有无数聊天机器人脱轨的例子,从与用户进行真正的私人接触,到将完全不准确的内容当作事实,再到包含似乎渗透到所有技术中的固有 偏见。尽管一些公司在此过程中在一定程度上缓解了其中一些问题,但情况似乎变得更糟,而不是更好。联邦贸易委员会正在调查ChatGPT 的不准确回复。最近的一项研究表明 OpenAI 的 GPT-4(其 LLM 的最新版本)在短短几个月内在某些领域的准确性显着下降,这表明,如果不出意外的话,模型会随着时间的推移而改变或正在改变,这可能会导致巨大的差异在其输出中。新闻媒体试图用人工智能生成的内容填充页面,结果导致了多个严重错误。随着聊天机器人引发的作弊行为激增,OpenAI 不得不使用自己的工具来检测 ChatGPT 生成的文本,因为它很糟糕。
上周,包括 OpenAI、Google 和 Meta 在内的八家法学硕士公司将他们的模型带到了DEF CON(一场大型黑客大会),让尽可能多的人首次测试他们模型的准确性和安全性。一种称为“红队”的压力测试。拜登政府一直大力宣扬安全开发和部署人工智能技术的重要性,支持并推动了这一活动。拜登总统的科学顾问、白宫科学技术办公室主任阿拉蒂·普拉巴卡尔 (Arati Prabhakar) ,这是一个“真正弄清楚这些聊天机器人的工作效果如何;让他们脱离正轨有多难或多容易?”
这项挑战的目标是为公司提供一些急需的数据,了解他们的模型是否以及如何崩溃,这些数据由不同的人群提供,他们可能会以公司内部团队没有的方式测试模型。我们将看看他们如何处理这些数据,这是他们参与该活动的一个好迹象,尽管白宫敦促他们这样做的事实肯定是一个激励因素。
与此同时,这些模型和由它们创建的聊天机器人已经被数亿人使用,其中许多人会相信这些聊天机器人所说的话。尤其是当他们一开始可能不知道信息来自聊天机器人时(例如,CNET 几乎没有透露哪些文章是由机器人撰写的)。然而,随着各种报告显示公众对一些人工智能工具的兴趣逐渐减弱,如果它们想生存,就需要变得更好。我们甚至不知道该技术是否真的可以修复,因为即使是他们自己的开发人员也声称不知道其所有内部工作原理。
生成式人工智能可以做一些令人惊奇的事情。硅谷对此感到兴奋并且很多人都尝试过,这是有原因的。有待观察的是,它是否不仅仅是一种派对伎俩,鉴于其仍然普遍存在的缺陷,这可能就是目前它应该做的一切。
韭菜热线原创版权所有,发布者:风生水起,转载请注明出处:https://www.9crx.com/76041.html