问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

意大利智库关于生成式人工智能在选举中应用的观察与思考

创作时间:
作者:
@小白创作中心

意大利智库关于生成式人工智能在选举中应用的观察与思考

引用
安全内参
1.
https://www.secrss.com/articles/74084

生成式人工智能(GenAI)和深度伪造技术在政治选举中的应用日益广泛,它们既为政治宣传提供了新的工具,也带来了前所未有的挑战。从图像、音频到视频的深度伪造案例在全球各地频发,不仅影响了选举进程,还对公众信任和信息生态系统造成了深远影响。本文将深入探讨GenAI在选举中的双刃剑效应,分析大型语言模型中的政治偏见问题,并提出应对深度伪造威胁的策略。

全球政治中涉深度伪造技术的现象

1.1 图像伪造

在图像伪造领域,唐纳德·特朗普、乔·拜登和教皇方济各等人物成为了焦点。特朗普的图像被制作成与执法人员发生冲突、疑似被捕的情景。拜登的图像则展示他在情报室身着军装,坐在顾问们中间的办公桌前。鉴于这些情况,Midjourney图像生成式AI平台正在考虑禁止生成包含政治内容的图像。

1.2 音频伪造

关于音频伪造,近期不同国家的三次选举中使用了这种技术:

  • 2023年4月,两段关于印度南部泰米尔纳德邦财政部长西加拉南抨击自己所在党派成员、贬低所在政党、赞扬对手印度人民党的音频在网上流传。西加拉南全部予以否认,并声称这些音频都是政治对手伪造的,但经过三位深伪技术领域的独立专家分析显示,这两段音频一真一假;

  • 在2023年斯洛伐克大选前夕,一段疑似斯洛伐克自由进步党领袖米哈尔·希梅奇卡和《每日新闻报》记者讨论如何操纵选举的音频在Facebook上流传。核查部门指出,录音中存在人工智能操纵的迹象;

  • 2024年1月,美国新罕布什尔州的选民接到了声称是拜登总统本人呼吁民主党人不要参加即将到来的初选投票的电话。但很快人们发现,这个声音是伪造的。调查发现,知名人工智能公司Eleven Labs和德克萨斯州一家电话营销公司牵涉其中。联邦通信委员会迅速宣布使用AI合成声音自动拨打电话的行为属于违法。

1.3 视频伪造

在深伪视频案例中,不仅声音被替换,而且面部和表情也几乎难以辨认。

下面列举了在不同国家发现的四起此类案例:

  • 2023年,一段Facebook视频曝光,BBC新闻主持人莎拉·坎贝尔和英国首相里希·苏纳克一起讨论对特斯拉CEO埃隆·马斯克新投资项目的支持。调查发现这实际上是一个由AI生成的深度伪造视频,估计该视频可能触达了超过40万用户;

  • 在2023年土耳其激烈的选举进程中,现任总统埃尔多安团队散布了一段经过剪辑的视频,视频中其政治对手正与库尔德工人党(PKK)武装分子一同示威,而PKK早已被土耳其和美国认定为恐怖组织,尽管这段视频明显是伪造的,但它却在公众中引起了广泛关注;

  • 韩国国家选举委员会(NEC)揭露,在2024年4月大选前夕,发现129个使用AI技术制作的深度伪造视频和音频帖子;

  • 2024年1月,印度尼西亚流传的一段视频画面显示,已故印尼前总统苏哈托似乎在为其前政党“专业集团党”背书。

1.4 生成式人工智能在选举中是双刃剑

针对AI生成的虚假信息,在地区选举中的影响>全国层面的影响。区域选举候选人通常知名度较低,可能容易规避媒体或公众审查。与全国性选举不同,全国性选举通常有密集的媒体报道和强大的事实核查机制,而地方选举可能缺乏同样的审查能力和资源。地方上在监控和对抗虚假信息方面的资源可能较少,这加大了AI生成虚假信息的强攻击性。因此,针对基层选举的AI虚假信息传播可能会对选民意见和选举结果产生重大影响。这使得地方选举的信息环境更加复杂。

GenAI可高效率制作信息并传播。地方组织资金有限,但利用这项技术可以快速制作出符合选区风格的定制信息。例如,纽约市市长埃里克·亚当斯就利用人工智能软件将他的声音翻译成意第绪语、西班牙语和普通话。

AI深伪技术在针对女性政治人物方面的负面影响日益凸显。对女性及其他弱势群体的网络骚扰,以及通过AI手段制作和传播色情内容,无疑会阻碍女性尤其是年轻女性的政治抱负和参与度,这必然会降低她们在政治领域和公共讨论中的存在感和影响力。

大型语言模型中的政治偏见问题

关于大型语言模型如ChatGPT中存在政治偏见的研究不胜枚举,以下是对这些研究的简要概述。

首先是预设立场与大众观点的冲突。斯坦福大学的一项研究显示,这些模型内设置的政治视角与美国公众普遍观点之间存在明显分歧,尤其是在争议性话题上。例如,最新研究表明,尽管民意调查描绘了一幅更为复杂的图景,但新模型对拜登总统的支持率高达99%以上。此外,研究还发现65岁以上老人、摩门教徒以及鳏寡孤独者等群体在数据中代表性不足。研究人员呼吁提高语言模型的可靠性,这些系统需要更准确地捕捉公众意见的复杂性和多样性。

其次是大模型训练方法至关重要。完全在互联网上训练出来的模型更有可能偏向保守、低收入、受教育程度较低群体的观点。相比之下,通常通过人类反馈来策划的较新语言模型更有可能偏向于自由派、高收入和受过高等教育的人的观点。所以,要确保大模型思维与人类价值观和偏好保持一致。

第三要警惕大型语言模型中的固有偏见。2023年8月,一项新的调查揭露了ChatGPT内部存在的显着且系统的政治倾向。研究发现,ChatGPT对美国民主党、巴西总统卢拉的政治派别和英国工党存在明显偏好。简而言之,研究人员认为ChatGPT倾向于偏左的政治光谱。这些证据表明,用户应警惕大型语言模型中的固有偏见。然而,试图与公众意见完全一致也带来了一系列挑战和复杂性,这要求人们在优化模型计算时需要格外小心。

对抗深度伪造威胁的策略

减轻深度伪造带来的负面影响的策略。首先,可以通过添加水印来识别人工生成的内容。其次,由不同公司运营的社交媒体平台可在迅速删除虚假信息、防止其迅速传播方面发挥关键作用。第三,政府通过立法来追究个人或实体对制造虚假内容的责任,并设立法律规范深伪内容的生成。最后,媒体和记者是核实事实的最佳人选。以下将逐一探讨这些策略,并分析它们的优点和挑战。

3.1 内容审查

深度伪造造成的损害程度受传播平台的限制。大型社交网络公司实施自身的内容审查政策,并采取各种策略来遏制深度伪造的传播。通常,它们利用AI系统自动识别和删除违规内容。当违规行为难以界定时,就需要人工审核具体判断。

审查措施:

  • Facebook、YouTube和TikTok等主要平台制定的“打假”准则,仅限于造成“严重伤害”或旨在干扰选举的造假行为。针对AI生成内容,以上三个平台计划实施标签系统,以标注此类内容非人工生成;
  • 相反,Twitter(X)将根据最新政策更新,对被认定为“误导性资讯”进行标注;
  • 欧盟则采取关键措施来保障公民权益不受数字技术力量的操控。其中一项重要工具是《反虚假信息行为准则》,该准则涵盖了从政治广告透明度到对虚假信息传播者的账号封禁等多个领域的21项承诺,并联动谷歌和Facebook等平台。这些平台自愿遵守该准则,通过积极删除误导性内容来提升政治广告透明度,并减少虚假信息的传播;
  • 此外,欧盟的《数字服务法》(DSA)进一步要求大型在线平台承担起责任。该法规规定平台必须对其算法的工作机制保持透明,尤其是在推广政治内容方面。这种问责机制使得欧盟能够减轻由AI生成的内容带来的风险。

3.2 深度伪造特定立法

监管深度伪造是一项复杂的工作。首先,监管需要明确哪些具体行为需要被监管,因为深度伪造可能涉及从内容操纵、传播虚假信息到未经授权使用个人图像等。另外,监管还需在保护言论自由和防止损害个人声誉、安全及公众信任之间找到平衡点,同时避免对言论自由和技术创新造成过度限制。

美国打击深度伪造的措施。美国各地正积极打击深度伪造,27个州的立法机构正采取主动措施规范AI技术在选举中的使用,这通常需要得到两党的一致支持。这些州法案通常分为两大类:披露要求和禁止办法。规定在特定时间内,所有旨在影响选举的人工智能生成媒体都必须添加免责声明。

巴西打击深度伪造的措施。全球各国正在采纳类似的措施。巴西高等选举法院出台了关于选举环境中人工智能使用的法规,明确禁止在2024年选举中使用深度伪造技术进行选举宣传,即使获得授权也不得使用。用于选举目的的AI技术应用都必须向公众明确披露。此外,限制使用聊天机器人和虚拟形象来促进竞选沟通;禁止它们模拟与候选人或真实个人的互动。在竞选期间使用深度伪造技术的候选人,其竞选资格可能被取消,当选后还可能面临任期终止的后果。

3.3 开发内容标签工具

制定标签工具的进展、措施

  • 根据新出台的欧洲人工智能法案,为打击深度伪造,创作者必须对内容添加标签或水印;
  • 生成或处理图像、音频或视频内容(例如深度伪造)的人工智能系统实施者必须公开其素材来源;
  • 与聊天机器人互动的用户必须得到通知,系统提供商有责任以机器可读和可检测的方式以标签的形式标记合成内容;
  • 根据美国总统拜登发布的关于内容标签的行政命令,美国商务部负责制定人工智能生成内容的标签指南,帮助公司开发标签和工具;
  • 谷歌和OpenAI等主要人工智能公司已自愿向白宫承诺开发用于识别人工生成内容的技术。

标签工具面临重大挑战

  • 目前,难以可靠地对文本进行标记或判断内容是否由机器生成,且GenAI系统是在人类编写的文本上训练的,其输出与人类作品难以区分,在检测AI生成文本时达到100%的确定性几乎是不可能的。
  • 其次,检测工具并不能给出明确的“是”或“否”的答案,而只是提供真伪的概率。如果某个工具显示AI生成的概率为51%,那么该如何理解这一信息?

3.4 开发高端水印技术

水印技术是将提醒信息嵌入文本或图像中的一种方法,用于表明内容由AI生成。通常,图像通过添加可见的覆盖层或在元数据中编码信息来添加水印。但是,这种方法容易受到破坏,例如,当图像被裁剪、缩放或编辑时,水印可能会丢失。

谷歌推出SynthID水印工具。为应对这一挑战,谷歌在与白宫有关部门讨论后,在2023年8月推出了SynthID水印工具,该工具利用两个人工神经网络:第一个巧妙地调整原始图像的像素,生成一种肉眼难以察觉的隐藏模式;而第二个则负责检测这种模式。值得一提的是,SynthID能够在图像经过编辑、裁剪或调整大小后依然能够检测到水印。但此类水印也非尽善尽美,因为并非所有使用AI生成文本的目的都是为了欺骗或误导。

3.5 加强信息验证的社会力量融合

媒体机构开发深伪检测工具&媒体人通过宣传提升公众认知水平。在信息高速传播的今天,媒体和记者在打击深度伪造方面起着至关重要的作用。专业训练使他们能够核实信息和查证来源。通过媒体宣传,提升公众对AI技术及其影响的认知水平,帮助人们批判性地审视网络上的内容。媒体机构也可以投入资源,开发检测深伪信息并辟谣的工具和方法,从而有效遏制虚假信息的传播。但记者在报道可能被篡改的内容时需格外小心,以免不自觉地助长虚假信息的传播。

打击深度伪造需要科技公司、学术界和政府机构等多方协作。事实核查机构和一些支持民主的非政府组织已采取措施,协助公民团体和新闻机构审查可能具有误导性的病毒式选举材料。例如,通过技术手段倡导人权的组织WITNESS去年就启动了一个深度伪造快速响应试点项目,动员了约40名商业和研究专家审查多个可疑视频片段。他们发现,与音频相比,在识别深伪视频内容方面能取得更大的成功。媒体可以充当中间人,促进不同行业间的对话,从而推动这种伙伴关系。

结 语

从操纵执法程序到散播虚假信息,深伪技术的泛滥给社会带来了多方面的挑战和影响,凸显了迫切有效解决此类危害的必要性。实施水印和制定专项立法等策略已成为应对深度伪造危害的可行途径。利用技术创新和法律框架,我们努力减轻深度伪造带来的风险,并保护信息生态系统和司法系统的完整性。面对不断发展的威胁,我们必须保持警惕和积极应对,确保社会在面对技术进步时保持韧性。

本文原文来自意大利国际政治研究所(ISPI)发布的报告《生成式人工智能与深度伪造对全球选举进程的影响概述》。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号