中央网信办出手整治AI造假短视频,Deepfake技术滥用引发全球关注
中央网信办出手整治AI造假短视频,Deepfake技术滥用引发全球关注
近日,中央网信办印发通知,开展为期一个月的“清朗·整治短视频信息内容导向不良问题”专项行动,重点整治短视频传播虚假信息、展示不当行为及传播错误观念等问题。其中,利用AI技术生成虚假短视频成为重点整治对象之一。
近年来,随着人工智能技术的迅猛发展,AI造假短视频事件频频曝光,严重威胁社会信任体系和信息安全。2024年12月初,一段带货视频在网络流传,视频中卖力推销某食品的居然是国家传染病医学中心主任、复旦大学附属华山医院感染科主任张文宏医生。不少网友出于对张文宏医生的信任,不仅自己购买,还积极转发到家族群。然而,张文宏医生本人很快对此做出澄清:该视频非其本人录制,应该是用AI伪造的。
AI造假技术,通常被称为Deepfake,最早可以追溯到上世纪九十年代学术界对面部替换和图像生成的研究。2014年,伊恩·古德费洛(Ian Goodfellow)提出的生成对抗网络(GAN,Generative Adversarial Network)使得计算机可以生成更为逼真且高质量的图像。2017年,有人在网络社区Reddit上创建了一个名为“deepfakes”的账号,并发布了一些用生成对抗网络技术制作的名人换脸视频,从此“Deepfake”一词开始被广泛使用。
随着技术不断进步,现在的Deepfake技术已经能够仅用一张照片和几秒钟的语音就生成以假乱真的视频。这种技术不仅被用于制作虚假广告,更被不法分子用于诈骗等违法犯罪活动。2024年12月,BBC报道了一则《爱情骗子利用Deepfake从我这里骗走1.7万英镑》的故事。受害人是77岁的尼基·麦克劳德(Nikki MacLeod),骗子通过Deepfake技术制作的视频骗取了她的信任,最终骗走了1.7万英镑。
面对AI造假短视频带来的严峻挑战,国际社会正在积极寻求应对之策。中国在个人信息保护法和数据安全法等方面已有较为先进的立法,为AI技术的应用提供了数据使用和隐私保护的基本框架。欧盟则通过《人工智能法》建立了严格的内容审核机制,要求平台对AI生成内容进行标识和管理。
专家建议,应从以下几个方面加强治理:
完善立法:制定专门针对AI生成内容的法律法规,明确责任主体,保护个人隐私和权益。
平台监管:要求短视频平台对AI生成内容进行标识,加强内容审核,建立快速响应机制。
技术防范:发展AI内容检测技术,提高识别虚假内容的能力。
公众教育:提升公众对AI生成内容的识别能力,增强辨别虚假信息的意识。
国际合作:在全球范围内加强合作,共同应对AI生成内容带来的跨国挑战,推动制定国际标准和规范。
AI造假短视频的泛滥确实带来了诸多挑战和潜在风险,但通过技术、法律、行业和社会多方面的协同努力,可以在一定程度上缓解这些问题,促进AI技术的健康发展和应用。