当您听到“人工智能”这个词时,您可能很想想象作为科幻小说中的支柱的智能机器,或者自弗兰肯斯坦博士的怪物以来一直令人类着迷的世界末日技术恐惧症的延伸。
但是,正在迅速融入世界各地企业的 AI 种类并非如此——它们是非常真实的技术,对真实的人产生了真正的影响。
虽然 AI 已经在商业环境中出现多年,但 ChatGPT、ChatSonic、Jasper AI 等生成式 AI 产品的进步将大大提高普通人的易用性。因此,美国公众对滥用这些技术的可能性深感担忧。ADL最近的一项调查发现,84% 的美国人担心生成式人工智能会增加错误信息和仇恨的传播。
考虑采用这项技术的领导者应该问自己一些尖锐的问题,即当我们进入这个新领域时,它会如何塑造未来——无论是好是坏。我希望所有领导者在将生成式 AI 工具集成到组织和工作场所时考虑以下三件事。
几十年来,社交媒体平台发展出一门新学科——信任和安全——试图解决与用户生成内容相关的棘手问题。其他行业并非如此。
出于这个原因,公司需要请来信任和安全方面的专家来讨论他们的实施。他们需要积累专业知识并思考这些工具可能被滥用的方式。他们需要对负责解决滥用问题的员工进行投资,这样当这些工具被不良行为者滥用时,他们才不会措手不及。
建立高护栏,坚持透明度 特别是在工作或教育环境中,AI 平台必须有足够的护栏来防止仇恨或骚扰内容的产生。
虽然是非常有用的工具,但人工智能平台并非 100% 万无一失。例如,在几分钟之内,ADL 测试人员最近使用 Expedia 应用程序及其新的 ChatGPT 功能创建了欧洲著名的反犹太人大屠杀的行程以及附近可以购买喷漆的艺术用品商店的列表,表面上对这些网站进行破坏。
虽然我们已经看到一些生成式人工智能改进了它们对可能导致反犹太主义和其他仇恨反应的问题的处理,但我们也看到其他人在确保它们不会助长仇恨、骚扰、阴谋论和其他类型的传播方面做得不够。
在广泛采用 AI 之前,领导者应提出关键问题,例如:正在进行哪些测试以确保这些产品不会被滥用?哪些数据集被用于构建这些模型?网络仇恨最有针对性的社区的经验是否被整合到这些工具的创建中?
没有平台的透明度,就无法保证这些 AI 模型不会传播偏见或偏执。
防止武器化 即使有强大的信任和安全实践,AI 仍然可能被普通用户滥用。作为领导者,我们需要鼓励人工智能系统的设计者建立防止人类武器化的保障措施。
不幸的是,尽管 AI 工具具有强大的功能和潜力,但它使不良行为者可以轻松、快速且易于访问地为任何这些场景制作内容。他们可以制作令人信服的假新闻,制作视觉上引人注目的深度造假,并在几秒钟内传播仇恨和骚扰。生成式人工智能生成的内容也可能助长极端主义意识形态的传播——或被用来激化易受影响的个人。
为了应对这些威胁,AI 平台应包含强大的审核系统,以抵御犯罪者使用这些工具可能产生的有害内容的潜在洪流。
生成式人工智能在改善生活和彻底改变我们处理海量在线信息的方式方面具有几乎无限的潜力。我对 AI 的未来前景感到兴奋,但前提是要有负责任的领导。
By Jonathan A. Greenblatt
韭菜热线原创版权所有,发布者:弗里曼,转载请注明出处:https://www.9crx.com/71929.html