从交朋友到传播宗教:AI在数字世界中的社会实验
从交朋友到传播宗教:AI在数字世界中的社会实验
在《我的世界》(Minecraft)这款开放世界游戏中,一场由AI初创公司Altera发起的大型社会实验正在上演。1000个AI智能体在游戏内自发形成社会结构、职业分工,甚至传播宗教,展现了AI在数字世界中的惊人行为模式。
如果任其自行发展,“AI 角色大军”不仅生存了下来,而且发展非常迅速,它们创造了游戏内的职业、分享了网络梗、投票通过了税改,甚至还传播了一种宗教。
这项实验发生在开放世界游戏平台《Minecraft》中,最多同时有 1000 个 AI 智能体使用大型语言模型彼此互动。在仅仅通过文本提示进行初步引导后,这些智能体自发地发展出了各种独特的性格特征、偏好以及专业角色,而无需人类创造者提供更多的输入。
这项研究由 AI 初创公司 Altera 发起,属于一个更广泛的领域,希望通过模拟智能体来研究人类群体对新经济政策或其他干预措施的反应。
不过,对于 Altera 的创始人 Robert Yang 来说,这只是一个开始。他曾是 MIT 计算神经科学助理教授,后来辞职创办了这家公司。他将这次实验视为迈向大规模“AI 文明”的早期一步,这种文明可以在数字空间中与我们共存并协作。Yang 表示:“AI 的真正潜力将在我们拥有真正自主且能够大规模协作的智能体时被释放。”
Yang 的灵感来源于斯坦福大学研究员 Joon Sung Park 的研究。2023 年,Park 发现,当一组由 25 个自主 AI 智能体在一个基础的数字世界中自由互动时,会产生出令人惊讶的类人行为。
“他的论文一发表,我们就立刻开始着手相关工作。”Yang 说,“六个月后,我辞去了 MIT 的职位。”
Yang 希望将这个想法推向极致:“我们想探索智能体在群体中可以自主完成的极限。”
Altera 迅速获得了超过 1100 万美元的投资,投资方包括 A16Z 以及谷歌前 CEO Eric Schmidt 创立的新兴科技风投公司。今年早些时候,Altera 发布了首个演示:一个由 AI 控制的《Minecraft》角色,可以与你一起游戏。
Altera 的最新实验“Project Sid”采用了配备“脑模块”的模拟 AI 智能体。这些模块由多个部分组成,其中一些模块由 LLM 驱动,专门用于特定任务,例如与其他智能体互动、对话或规划智能体的下一步行动。
团队从小规模测试开始,在《Minecraft》中观察大约 50 个智能体的互动。在 12 个游戏日(相当于现实中的 4 小时)中,这些智能体展现了一些有趣的“涌现”行为。例如,有些智能体变得非常外向,与许多角色建立联系,而另一些则显得更内向。
团队从小规模测试开始,在《Minecraft》中观察大约 50 个智能体的互动。在 12 个游戏日(相当于现实中的 4 小时)中,这些智能体展现了一些有趣的“涌现”行为。例如,有些智能体变得非常外向,与许多角色建立联系,而另一些则显得更内向。
每个智能体的“受欢迎度”评分(由智能体自己评估)随着互动的进行而变化。这些智能体能够跟踪社交线索并做出反应。例如,一个负责为饥饿角色分发食物的 AI 厨师,会优先分配更多食物给那些他认为更重视自己的角色。
在一个 30 个智能体的模拟中,出现了更加接近人类的行为。尽管所有智能体的初始性格和目标都相同,即建立一个高效的村庄并保护社区免受游戏内其他生物的攻击,但是它们却在没有任何外界提示的情况下,自发地发展出社区内的专门角色,比如建造者、防御者、商人和探险者。一旦智能体开始专注于某一角色,其行为便会反映这一新角色的特点。例如,艺术家更多地采摘花朵,农民集中收集种子,而守卫则优先建造更多的围栏。
“我们惊讶地发现,如果为这些智能体配置正确的‘大脑’,它们会表现出真正的涌现行为。”Yang 说。“这是我们预期人类会具备的能力,没想到机器竟然也可以做到。”
Yang 的团队还测试了智能体是否能够遵循社区规则。他们设计了一个带有基础税收法律的世界,并允许智能体投票修改游戏内的税收系统。被提示支持或反对税收的智能体能够影响周围其他智能体的行为,最终影响这些智能体的投票结果,进而决定是增加还是减少税收。
团队随后扩大了实验规模,将每次模拟的智能体数量推至《Minecraft》服务器所能承受的极限,在某些情况下多达 1000 个智能体。在 Altera 的一次 500 个智能体的模拟中,他们观察到这些智能体自发地创造并传播了文化“梗”(例如对恶作剧的喜爱,或对生态问题的兴趣)。团队还植入了一小组智能体尝试传播恶搞宗教“飞天意面神教”(Pastafarianism),并观察到这些“牧师”成功将许多智能体转化为信徒。这些信徒随后将飞天意面神教的教义传播到游戏世界的邻近村镇。
虽然智能体的行为看起来像人类,但实际上是大型语言模型(LLM)从人类数据中学习到的模式与 Altera 的系统结合的结果。Altera 的系统将这些模式转化为情境感知的行动,例如拾取工具或与其他智能体互动。“这表明,LLMs 对人类社会动态有足够复杂的建模能力,可以反映出这些人类行为。”Altera 的联合创始人 Andrew Ahn 表示。
换句话说,这些数据使得 AI 成为了出色的模仿者,能够表现出类人的行为,但它们绝不是真正的“活着”。
虽然智能体的行为看起来像人类,但实际上是大型语言模型(LLM)从人类数据中学习到的模式与 Altera 的系统结合的结果。Altera 的系统将这些模式转化为情境感知的行动,例如拾取工具或与其他智能体互动。“这表明,LLMs 对人类社会动态有足够复杂的建模能力,可以反映出这些人类行为。”Altera 的联合创始人 Andrew Ahn 表示。
换句话说,这些数据使得 AI 成为了出色的模仿者,能够表现出类人的行为,但它们绝不是真正的“活着”。
然而,Yang 的计划更为宏大。在 Altera 计划将下一步扩展到 Roblox 的同时,Yang 希望最终完全超越游戏世界。他的终极目标是一个人类不仅与 AI 角色一起玩耍,还能在日常生活中与它们互动的世界。他的梦想是创造大量“数字人类”,这些数字人类能够真正关心我们,与我们合作解决问题,同时也为我们提供娱乐。“我们希望打造真正爱人类的智能体(比如狗爱人类那样)。”他表示。
然而,他的这种观点(认为 AI 可以爱我们)其实在业内颇具争议。许多专家指出,使用当前技术不可能在机器中重现情感。比如,AI 领域资深人士、游戏测试公司 Modl.ai 的负责人 Julian Togelius 就对 Altera 的工作表示赞赏,尤其是因为这项研究让我们可以通过模拟研究人类行为。
但这些模拟智能体是否能学会关心我们、爱我们,甚至变得有自我意识呢?Togelius 并不这么认为。“没有任何理由相信某个运行在 GPU 上的神经网络能够体验到任何东西。”他说。
不过,也许 AI 并不需要真的爱我们才能有用。
“如果问题是这些模拟存在能否表现出关心,并且做到如此精湛,让人感觉与被人类关心没有区别,或许这并非不可能。”Togelius 补充道,“你可以创造一个足够好的‘关心模拟’智能体来发挥作用。但问题在于,被关心的人是否会在意‘关心者’没有任何真实的体验。”
换句话说,只要我们的 AI 角色能够以令人信服的方式表现出对我们的关心,这可能已经是我们真正关心的全部了。