问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

伦理挑战:当AI可以模仿人类的一切

创作时间:
作者:
@小白创作中心

伦理挑战:当AI可以模仿人类的一切

引用
腾讯
1.
https://new.qq.com/rain/a/20241204A05PAJ00

AI智能体的发展正在引发新的伦理挑战。它们不仅能够模仿人类行为,还能完成各种实际任务。这种技术进步虽然令人兴奋,但也带来了诸如深度伪造和人机区分等伦理问题。本文将探讨AI智能体的两种类型及其可能带来的影响。

生成式AI模型已经在与人类对话、生成图像、视频以及音乐方面表现得相当出色,但它们在“为我们做事”这方面的能力却并不突出。AI智能体有望改变这一现状。可以将它们视为拥有脚本和明确目标的AI模型。通常,这些智能体分为两种类型。

第一种称为基于工具的智能体,可以通过自然语言(而非编程)指导完成数字任务。例如,Anthropic在10月份推出了一种智能体,这是主要AI模型开发商中首个此类产品。这种智能体能够将指令(如“帮我填写这个表单”)转化为具体操作,在电脑上移动光标打开网页浏览器,导航找到相关页面上的数据,并使用这些数据填写表单。Salesforce也发布了类似的智能体,据报道,OpenAI计划在明年1月份推出自己的版本。

另一种类型的智能体被称为模拟智能体,它们可以被视为旨在模仿人类行为的AI模型。最早研究这些智能体的是社会科学研究人员。他们希望进行一些实验,这些实验如果以真实人类为对象进行,会因为成本高昂、操作不切实际或涉及伦理问题而难以实现,于是他们使用AI来模拟实验对象。这一趋势在2023年,由斯坦福大学博士生Joon Sung Park及其团队发表的一篇广受引用的论文《生成智能体:人类行为的交互模拟》(Generative Agents: Interactive Simulacra of Human Behavior)后,得到了极大推动。

近期,Park及其团队在arXiv上发表了一篇新论文,题为《1,000人的生成智能体模拟》(Generative Agent Simulations of 1,000 People)。在这项研究中,研究人员让1,000名参与者与AI进行两小时的访谈。随后,团队成功创建了能够高度精准再现每位参与者价值观和偏好的模拟智能体。

这里有两个非常重要的发展值得注意。首先,领先的AI公司显然已经认识到,仅仅构建令人惊叹的生成式AI工具已不足够,他们现在必须开发能够为人们完成实际任务的智能体。其次,越来越容易让这些AI智能体模仿真实人类的行为、态度和个性。过去属于两种不同类型的智能体——模拟智能体和基于工具的智能体——很可能很快会融合为一种全新的形式:既能模仿个性又能代表人类行动的AI模型。

研究正在进行中。一些公司,如Tavus,正在帮助用户创建自己的“数字孪生”。但该公司的CEO Hassaan Raza设想更进一步,开发能够以治疗师、医生和教师等角色形式存在的AI智能体。

如果此类工具变得便宜且易于构建,将会引发许多新的伦理问题,其中两个特别突出。第一个问题是,这些智能体可能会催生更多个人化且危害更大的深度伪造。目前的图像生成工具已经让通过单张照片制作非自愿色情内容变得十分简单,但如果复制一个人的声音、偏好和个性也变得轻而易举,这一危机只会愈发严重。(Park告诉我,他和他的团队在最新研究项目中花费了一年多时间思考类似的伦理问题,与斯坦福的伦理委员会进行了许多讨论,并制定了参与者如何撤回其数据和贡献的相关政策。)

第二个问题是一个根本性的问题:我们是否有权知道自己是在与AI智能体交谈还是与人类交谈?如果你与AI完成了一次访谈,并提交了你的语音样本以创建一个听起来像你、回应方式也像你的智能体,那么你的朋友或同事是否有权知道他们是在与它交谈而不是与你交谈?反过来,当你拨打手机服务提供商或医生办公室的电话时,一个热情的客户服务代表接听了电话,你是否有权知道自己是在与AI对话?

这个未来看似遥远,但实际上并不遥远。当我们真正身处这一境地时,或许会有更加紧迫和相关的伦理问题需要解决。在此之前,你可以阅读我关于AI智能体的更多文章,同时思考一下:一个AI访谈者能在两小时内多么深入地了解你?

本文原文来自MIT Technology Review

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号