AI换脸诈骗频发,专家呼吁构建数字安全防御体系
AI换脸诈骗频发,专家呼吁构建数字安全防御体系
近日,在2024年第十二届西湖论剑·数字安全大会上,专家们深入探讨了AI技术变革带来的安全挑战。随着AI拟声和换脸技术的发展,网络安全面临前所未有的考验,如AI换脸诈骗频发,给社会和个人带来巨大损失。专家呼吁建立可防御且富有弹性和韧性的数字生态系统,同时强调在推动技术发展的同时,必须充分考虑安全保障,实现发展与安全的平衡。
技术背景与安全挑战
AI拟声技术,即通过深度学习等人工智能方法合成或模仿人类声音的技术,近年来取得了显著进展。这种技术不仅在娱乐、教育等领域展现出巨大潜力,同时也带来了不容忽视的安全隐患。
最令人担忧的是,AI拟声技术正被不法分子用于诈骗活动。据中国信通院人工智能所安全与元宇宙部工程师邹皓介绍,虽然深度伪造(Deepfake)攻击在金融机构遭到的网络攻击中绝对占比可能不是最高,但随着AIGC发展,生成一段伪造视频的技术门槛和所需资源越来越低,有可能将在下一阶段成为威胁金融行业安全的重要因素。
例如,2023年以来,“通过AI换脸和拟声技术实施诈骗”的新型骗局频繁登上新闻头条,引发大众关注。在机构侧,数据显示,在全球范围内,有接近一半(46%)的企业遭受过合成身份的欺诈,90%的受访企业认为这种行为已日益严重。
法律挑战
AI拟声技术的快速发展,对现有法律体系提出了严峻挑战。主要体现在以下几个方面:
声音权保护:虽然《民法典》已将声音权纳入保护范围,但具体规定仍较为原则性。例如,在殷某某诉某智能科技公司等侵害声音权益案中,法院认定未经许可使用AI生成的声音构成侵权。然而,对于声音的收集、合成及模仿行为的边界仍需进一步明确。
名誉权与隐私权侵犯:未经授权的AI声音模仿可能损害个人名誉或泄露隐私。此外,结合换脸技术进行诈骗的行为不仅违法,还对社会信任造成冲击。
著作权争议:AI生成内容的版权归属尚不清晰,可能导致创作与使用的纠纷。
电信诈骗风险:AI拟声被用于诈骗活动,如通过克隆亲友声音骗取钱财,给受害者带来经济损失。
监管滞后:现有法律体系难以完全覆盖新技术带来的复杂问题,需要更细化的规则以适应技术发展。
道德挑战
除了法律挑战,AI拟声技术还引发了诸多道德和伦理问题:
伦理界限模糊:AI“复活”逝者声音的技术引发关于尊重逝者和家属情感的讨论。例如,未经同意使用已故名人声音制作视频,可能触碰伦理底线。
潜在滥用风险:技术可能被用于制作虚假信息或恶意内容,破坏社会秩序和信任。
责任归属难题:AI生成内容出现问题时,开发者、使用者和平台之间的责任划分存在争议。
应对措施与未来展望
面对AI拟声技术带来的挑战,专家和机构提出了多种应对方案:
完善立法:制定专门法规,明确AI拟声技术的合法使用边界和个人权利保护细则。
强化监管:政府应加强对技术应用的监督,防止其被用于非法或不道德目的。
提升公众意识:教育用户识别潜在风险,并遵守相关法律法规。
行业自律:鼓励企业建立道德准则,确保技术开发和应用符合社会责任。
技术创新:开发AI安全防护技术,如深度伪造检测模型,提升防御能力。
例如,蚂蚁集团旗下可信身份平台ZOLOZ 正式上线了深伪综合防控产品 Deeper,实现在用户刷脸场景中有效拦截 “AI换脸”风险。据陶冶透露:蚂蚁集团天玑实验室会通过GAN模型生成超30万测试样本,交给 ZOLOZ Deeper 进行判别训练,每个月还会对其进行超过2万次的攻防测评,模拟上百种伪造攻击情况。
结论
AI拟声技术的发展必须兼顾创新与规范,平衡技术进步与法律道德约束,才能实现可持续发展并造福社会。正如西湖论剑·数字安全大会上多位专家所强调的,我们需要构建一个可防御且富有弹性和韧性的数字生态系统,以应对AI技术带来的安全挑战。这不仅需要技术创新和法律完善,更需要全社会的共同努力,包括政府、企业、研究机构和公众的广泛参与。