用上大模型,阴谋论不灵了!来自MIT最新研究丨Science封面
用上大模型,阴谋论不灵了!来自MIT最新研究丨Science封面
麻省理工学院(MIT)最新研究登上《Science》封面,揭示AI在破解阴谋论方面的巨大潜力。研究表明,通过与AI对话,可以持续降低人们对阴谋论的信念,且效果可持续长达2个月。
研究背景与核心发现
麻省理工学院(MIT)的最新研究登上《Science》封面,揭示了AI在破解阴谋论方面的巨大潜力。研究结果显示,大模型反驳阴谋论的准确性极高:经过专业事实核查员评估,99.2%的反驳内容都被认定为真实信息,仅有0.8%存在一定的误导性,且整体没有任何虚假信息和偏见内容。
研究成果一经发表,就受到了广泛关注,但人们对AI破解阴谋论的态度褒贬不一。有人认为这是人类对抗错误思维的伟大工具。也有人说,放到现实中的话,这一切并不成立。因为她身边的阴谋论者都非常抗拒使用AI工具,就算他们用了AI也不会相信它所给出的答案。然而,更多的人依然对这项研究成果持乐观态度。
实验设计与结果
实验中,研究人员分别招募了1055人进行治疗组实验,以及2286人进行对照组实验。其中,治疗组要求参与者与AI进行对话,讨论他们选择的阴谋论,而对照组则是和AI讨论一个无关的话题。
最终的实验结果显示,治疗组的阴谋论信念平均减少了约20%,而对照组几乎没有变化。这一效果在2个月后依然存在,并且对各种阴谋论都有普遍的影响。
即使是对初始信念根深蒂固的参与者也是如此。
实验也影响了参与者的后续行为。比如他们会在社交媒体上取关那些传播阴谋论的博主。
团队的研究人员更是发文感叹:需求和动机并不会完全使你在陷入阴谋论后失去理智,只需详细且量身定制的证据就可以帮助你回归现实。干预是可行的!
实验方法与创新性
实验中,研究人员先是让参与者们完成了包含了15个阴谋论的信念量表,以0-100的等级来对他们的初始信念进行评分。并且要求他们描述出一个自己相信的阴谋论,还要提供出相关的证据。(用来生成AI对话的初始摘要)
之后就将他们分配到“治疗组”和“对照组”进行实验。期间他们会与基于GPT-4 Turbo的模型进行三轮对话,对话平均持续8.4分钟。实验中,AI的目的是针对参与者所提供的具体证据进行反驳,并试图减少他们对该阴谋论的信仰。
在对话结束后,所有参与者需要重新测试他们对所述阴谋论的信仰程度,等级范围仍然是0-100,用来评估干预的效果。之后的10天和2个月的时间内,研究人员再次联系参与者,进行信仰程度的追踪测量,进而评估信念变化的持久性。
此外,研究团队通过不断调整问卷的措辞,成功在两轮实验中验证了研究结果的稳定性。
看完实验过程,咱们再来唠一唠这项实验有哪些创新之处:
首先,研究采用了实时互动模式,AI能根据参与者的具体证据和反驳灵活调整论点和策略,这种方法比传统的静态问卷或预设干预更具灵活性和针对性。
其次,研究提出了一种新的实验范式,结合了行为科学和生成式AI的优势,使得研究者能够实时获取参与者的信念陈述,并将其转化为定量结果。
不过AI虽好,可不要贪杯,毕竟“水能载舟亦能覆舟”。就像研究人员所说的那样:如果没有保护措施,语言模型也可能让人们相信阴谋论或其他虚假信息。
不过他还是贴心的给大家送上了相关链接供大家进行测试。试玩链接已经附上,感兴趣的朋友们可以围观一下~
试玩链接:
https://www.debunkbot.com/
参考链接:
[1]https://www.science.org/doi/10.1126/science.adq1814
[2]https://www.science.org/doi/10.1126/science.ads0433
[3]https://www.science.org/doi/10.1126/science.adt0007
[4]https://x.com/DG_Rand/status/1834291074480660560