什么决定了对人工智能应用和治理的态度?
什么决定了对人工智能应用和治理的态度?
随着人工智能技术的快速发展,对其应用和治理的态度成为社会各界关注的焦点。一项发表在《Science and Public Policy》的研究通过结构方程建模,对3524名成年人和425名技术工作者进行了调查,探讨了影响人们对人工智能态度的因素。研究发现,除社会人口因素外,个体主义、平等主义、一般风险回避情绪和技术怀疑主义等文化价值观对人工智能的态度具有重要影响,且专家和公众的观点存在一定分歧。
研究背景与意义
为发挥人工智能的益处,同时减轻其风险,业界需要一种尊重公众多元价值观和信仰的治理策略,而具有包容性的参与式治理应是AI发展框架的核心支柱。然而,由于AI技术的复杂性,公众难以有效地参与对其治理结构的设计,同时相关的讨论晦涩难懂且不透明,以专家为基础的政策制定限制了观点表达的多元化,更容易收到监管捕获的影响。随着人们逐渐了解AI的能力、局限性和社会影响,公众舆论可能迅速变化。
尽管既有研究已对专业人士和公众对AI的态度差异进行探讨,但很少有研究探讨驱动对AI态度差异的基础价值观及其机制。为有效设计AI治理和科学传播策略,本文聚焦研究三个关键问题:第一,社会人口因素、文化价值观和感知利益如何影响人们对AI的态度?第二,这些态度及其影响因素在专家和公众之间有何不同?第三,这些态度及其影响因素在AI不同应用情景中有何不同?
研究方法
研究团队通过Lucid Theorem平台在线招募共3524名美国成年参与者,作为公众样本,同时作者招募了425名能够对人工智能产业产生影响的佐治亚理工学院硕士毕业生,作为专家样本。
文章的调查分为两步。第一步调查评估受访者的社会人口因素、文化价值观、除AI以外的技术风险观以及对AI技术的熟悉程度。文章根据既往研究,纳入了性别、年龄组、种族/民族、工作类型、教育水平、家庭收入、城市/农村居住地和政治取向,并参考了评估受访者对其他包括转基因食品、核电、燃煤电厂、疫苗和合成生物学等技术的态度,并在测量文化价值观时借鉴了Kahan等人的操作方法。
第二步调查评估受访者对于人工智能的看法。首先作者确定了受访者个人和社会对于AI技术的利益认知,然后使用李克特量表调查受访者对AI监管程度的意见。为反映有关人工智能的典型论点,研究团队在调查中列出了6个AI应用情景(预测性执法、劳动自动化、医学诊断、自动驾驶车辆、个性化推荐和自主武器)的简介,并在6种情景中重复上述两步调查。
研究结果与讨论
公众与专家态度差异
研究发现,公众和专家在关键领域的态度存在差异。与美国公众相比,专家对人工智能的态度更加自信和积极,更有可能认为人工智能技术将带来个人和社会利益,更有可能支持人工智能的一般使用,而美国公众则更持观望态度(如图2)。这一结果符合现有研究,即认为专家和美国公众都高度支持“谨慎管理”。但公众对于监管主体存在不同意见,相比之下,人工智能专家更信任科学和国际组织而不是他们自己的政府来“开发和管理”人工智能。对于不同应用情景,公众的态度基本相似,而专家的观点更具细致差异(如图3)。这些证据表明,随着公众对人工智能的更多了解,其对人工智能的态度可能会发生相当大的变化。
图2:向受访者提供人工智能的一般定义后所测得的结果
图3:不同应用情景的调查结果
文化价值观对态度的影响
研究发现,文化价值观因素对态度有强烈影响。调查结果显示,专家和公众意见存在分歧,文章认为这可能是由于两个群体间不同的社会人口特征和文化价值观引起的。本文的专家和公众样本在四个文化价值观方面存在显著差异,SEM模型分析结果表明,个体主义、平等主义、风险回避和技术怀疑的文化价值观对人工智能的态度有很强的预测作用。不过,社会人口因素也存在一些“有趣”的影响,如男性、年轻人、受教育程度较高且收入较高的人既更认为人工智能有益,也更支持其使用。本文还发现,对政府监管的支持往往与受访者的利益感知相脱节,而更直接受到社会人口因素和文化价值观的影响。比如,虽然年龄更大、更保守的受访者对人工智能的利益感知较弱,对其采用也持谨慎态度,但仍不太支持政府监管人工智能。同时,对人工智能的利益感知更强的群体更支持对人工智能的谨慎监管。
图4:推断的SEM路径系数结果
应用场景差异
研究发现,文化价值观对人工智能态度的影响不同于受访者对其他技术态度的影响,且受访者对于部分应用场景的态度不同于对人工智能技术的总体态度。平等主义和风险回避主义传统上与对新兴技术的使用持怀疑态度,但在本研究中却显示出对人工智能的更大支持。这意味着人工智能对社会的影响可能被认为与其他技术的影响有所不同。对于预测性执法和自主武器,年长且政治上保守的受访者虽然对AI的总体支持较低,但对于预测性执法和自主武器的AI使用支持率高。对于劳动自动化,从事分析工作和受教育程度较高的受访者更为支持。
图5:文化价值观因素对人工智能不同用例和其他科技的影响
利益感知的影响
研究发现,利益感知在很大程度上影响对AI应用的支持,但对监管的支持与否的影响较小(见图2)。同样,专家的态度再次比公众更加微妙,包括对个人利益和对社会利益的感知差异要比在公众中大得多。
政策启示
文章最后探讨了人工智能治理的公众参与经验和教训。根据研究结果,公众对于人工智能的“谨慎管理”有着显著支持,而对于“政府监管”的支持较有限,揭示出人工智能治理缺乏对民意的尊重。为应对这一问题,以参与性为核心的治理战略至关重要,特别是促进公共教育和真正的公众—专家对话,一方面能够帮助公众获取相关信息,提高其参与感,另一方面也能够促进将公众具体经验和价值观运用于科技策略设计,实现更包容、可信赖的人工智能治理。
本文原文来自澎湃