人工智能产生的仇恨正在上升:领导者在采用这项新技术之前应该考虑的三件事

当您听到“人工智能”这个词时,您可能很想想象作为科幻小说中的支柱的智能机器,或者自弗兰肯斯坦博士的怪物以来一直令人类着迷的世界末日技术恐惧症的延伸。

但是,正在迅速融入世界各地企业的 AI 种类并非如此——它们是非常真实的技术,对真实的人产生了真正的影响。

虽然 AI 已经在商业环境中出现多年,但 ChatGPT、ChatSonic、Jasper AI 等生成式 AI 产品的进步将大大提高普通人的易用性。因此,美国公众对滥用这些技术的可能性深感担忧。ADL最近的一项调查发现,84% 的美国人担心生成式人工智能会增加错误信息和仇恨的传播。

考虑采用这项技术的领导者应该问自己一些尖锐的问题,即当我们进入这个新领域时,它会如何塑造未来——无论是好是坏。我希望所有领导者在将生成式 AI 工具集成到组织和工作场所时考虑以下三件事。

几十年来,社交媒体平台发展出一门新学科——信任和安全——试图解决与用户生成内容相关的棘手问题。其他行业并非如此。

出于这个原因,公司需要请来信任和安全方面的专家来讨论他们的实施。他们需要积累专业知识并思考这些工具可能被滥用的方式。他们需要对负责解决滥用问题的员工进行投资,这样当这些工具被不良行为者滥用时,他们才不会措手不及。

建立高护栏,坚持透明度 特别是在工作或教育环境中,AI 平台必须有足够的护栏来防止仇恨或骚扰内容的产生。

虽然是非常有用的工具,但人工智能平台并非 100% 万无一失。例如,在几分钟之内,ADL 测试人员最近使用 Expedia 应用程序及其新的 ChatGPT 功能创建了欧洲著名的反犹太人大屠杀的行程以及附近可以购买喷漆的艺术用品商店的列表,表面上对这些网站进行破坏。

虽然我们已经看到一些生成式人工智能改进了它们对可能导致反犹太主义和其他仇恨反应的问题的处理,但我们也看到其他人在确保它们不会助长仇恨、骚扰、阴谋论和其他类型的传播方面做得不够。

在广泛采用 AI 之前,领导者应提出关键问题,例如:正在进行哪些测试以确保这些产品不会被滥用?哪些数据集被用于构建这些模型?网络仇恨最有针对性的社区的经验是否被整合到这些工具的创建中?

没有平台的透明度,就无法保证这些 AI 模型不会传播偏见或偏执。

防止武器化 即使有强大的信任和安全实践,AI 仍然可能被普通用户滥用。作为领导者,我们需要鼓励人工智能系统的设计者建立防止人类武器化的保障措施。

不幸的是,尽管 AI 工具具有强大的功能和潜力,但它使不良行为者可以轻松、快速且易于访问地为任何这些场景制作内容。他们可以制作令人信服的假新闻,制作视觉上引人注目的深度造假,并在几秒钟内传播仇恨和骚扰。生成式人工智能生成的内容也可能助长极端主义意识形态的传播——或被用来激化易受影响的个人。

为了应对这些威胁,AI 平台应包含强大的审核系统,以抵御犯罪者使用这些工具可能产生的有害内容的潜在洪流。

生成式人工智能在改善生活和彻底改变我们处理海量在线信息的方式方面具有几乎无限的潜力。我对 AI 的未来前景感到兴奋,但前提是要有负责任的领导。

By Jonathan A. Greenblatt

韭菜热线原创版权所有,发布者:弗里曼,转载请注明出处:https://www.9crx.com/71929.html

(0)
打赏
弗里曼的头像弗里曼管理团队
上一篇 2023年6月5日 02:20
下一篇 2023年6月5日 11:18

相关推荐

  • AI 狂热推动标普 500 指数过去两年来自 dot-com 时代以来的最佳表现

    由 U.S.全球投资者的弗兰克·霍尔姆斯,1/6/25 股市在 2024 年反弹,连续第二年涨幅超过 20%,投资者因通胀降温、利率下降以及在第二任特朗普政府下企业税率可能降低而感到乐观。上一次标普 500 指数实现连续两年以上涨幅超过 20%还是在 1990 年代末期,当时互联网热潮推动市场乐观情绪。 就像那些高光时刻一样,2024 年科技股再次吸引了投资…

    2025年2月20日
    8500
  • 夏日鸡尾酒、白色运动鞋、Nvidia:开学季

    虽然南加州的海滩版度过了一个史诗般的、没有海洋层的夏天,但似乎很少有当地人享受到它,他们反而违反了成年人生活的基本规则,没有孩子住在家里,尽管如此,夏天还是去欧洲旅行了。我们并没有想念你。 但偶尔我们也会遇到菠萝快车——这实际上是一种天气状况,而不是一种新的大麻品种——在某种程度上也是今年夏天市场的一个隐喻。这是“天哪,市场可能会下跌”的另一个版本,然而世界…

    2024年10月9日
    10000
  • 人工智能伦理:人工智能揭示了我们对虐待动物的焦虑

    到目前为止,您可能已经听说过——可能是从创造这项技术的同一个人那里听说的——人工智能有一天可能会杀死我们所有人。具体细节尚不清楚,但其实它们并不重要。人类非常擅长幻想被外来物种灭绝,因为我们一直擅长设计创造性的方法来对待我们的同胞生物。人工智能可能会因为一些愚蠢的事情而毁灭人类,就像哲学家尼克·博斯特罗姆(Nick Bostrom)著名的思想实验一样,将世界…

    2023年9月13日
    29600
  • 人工智能工作:没有人知道人工智能负责人是做什么的,但这是最热门的新工作

    如果人工智能来抢夺我们的工作,许多美国人希望能够抢在它的前面。普通人在工作中使用人工智能,而科技工作者则将自己重塑为人工智能专家。领导层正在争夺最热门的新职位:人工智能主管。 在科技领域之外,几年前人工智能主管的职位几乎不存在,但现在从亚马逊到 Visa 再到可口可乐,人们正在承担这个头衔——或者至少是它的职责。根据LinkedIn的数据,在美国,过去五年中…

    2023年8月11日
    18200
  • AI 偏见由设计:克莱德提示泄露对投资专业人士的启示

    生成式 AI 的承诺是速度和规模,但隐藏的成本可能是分析失真。Anthropic 的 Claude 模型泄露的系统提示揭示了即使调校良好的 AI 工具也可能在投资分析中强化认知和结构性偏见。对于正在探索 AI 集成的投资领导者来说,了解这些风险已不再可有可无。 2025 年 5 月,有人泄露了一个完整的 24,000 个标记的系统提示,声称是为了 Anthr…

    2025年7月8日
    5700

发表回复

登录后才能评论
客服
客服
关注订阅号
关注订阅号
分享本页
返回顶部