从恶搞名人到诈骗作恶,AI换脸背后谨防技术失控
从恶搞名人到诈骗作恶,AI换脸背后谨防技术失控
在AI技术飞速发展的今天,从恶搞企业家雷军到AI制作张文宏医生音视频为自己带货,再到不法分子利用AI深度合成视频进行诈骗,AI换脸技术带来的伦理和法律问题日益凸显。这项技术在为人们带来便利的同时,也引发了对个人隐私、名誉权和信息安全的担忧。
AI换脸技术的法律边界
中关村现代信息消费应用产业技术联盟副理事长包冉指出,如果在没有经过被使用人、团队或机构的合法授权,从而进行的通过深度合成技术换脸的行为,显然已经构成了侵犯他人名誉权、肖像权、个人隐私权等合法权利的严重嫌疑。
我国对于AI合成技术,已经作出了较为充分的规定。比如,国家网信办联合多部委发布的《互联网信息服务深度合成管理规定》《生成式人工智能服务暂行管理办法》等政策规定,明确要求深度合成服务提供者落实信息安全主体责任,使用者不得滥用深度合成服务。在此基础上,如果相关组织或个人利用这种深度合成的技术进行非法牟利,那么这就已经触犯到了刑事犯罪的范畴。
数字支付安全面临新挑战
在互联网技术改变生活的同时,数字支付也成为人们日常最主流的交易方式,而面容认证作为数字经济中最常见的安全保障方式,面对如今以假乱真的AI换脸技术,是否还能起到防御作用?
腾讯安全风控安全专家黄泽丰表示,在人脸技术检测方面,目前提供了更好的保障,通过从不同节点进行防御,如通过使用安全可信设备,利用3D结构光检测或对可信设备进行环境安全检测,利用相机指纹,包括更多模态的检测方式,不仅是通过人脸识别,更从多因子多模态进行检测识别,并利用算法的分层对抗,确保数字信息安全。
AI换脸技术的产业链与法律责任
近日,记者调查发现,互联网上不仅有人随意兜售推广此类AI合成软件,还开设了教学课程,“手把手”教你如何训练出“特定”模型。这项技术到了不法分子手中,利用窃取到的被害人亲友面部与声纹信息,便可以通过“换脸”后的视频通话,对受害人进行诈骗。
北京师范大学法学院博士生导师吴沈括表示,实际从AI换脸,包括深度伪造相关的产业链上来看,涉及的主体非常多样,无论是研发、设计、应用、销售、代理都有可能进入到产业链当中。
那么,从具体的法律责任来划分,可以分为两种情况:一种是属于不知晓、不知情的情形,需要考虑结合具体情况,涉事主体是否应当注意到自身行为的合法性,如果具备这样的注意义务,就应当承担法律责任。
另一种情况则是明知并且故意去帮助和促进这种行为的实现。在这种情况下,涉事主体可能会涉及故意的违法犯罪行为。具体而言,比如,从设计者在设计过程中,目的就是为了实施深度合成相关的违法犯罪行为,那这就可能涉及共同违法犯罪问题。同样,如果在设计过程中,有意运用他人数据并进行滥用,就可能涉及对于他人信息的侵犯行为。
AI换脸技术的监管之道
北京师范大学法学院博士生导师吴沈括认为,在国家监管过程中,应重视构建多方参与治理的架构。比如,要求平台积极落实本身的主体责任,对于涉及到深度合成或者其他技术所形成的内容,它的合法性、合规性需要有巡查、审查的义务,如果出现用户投诉举报的情形,平台也应当及时的干预并作出处置。同时,我们也非常重视对于用户本身素质素养的提升。因为客观来说,在深度合成或其他的新技术所形成的内容场景中,用户本身鉴别力提升非常重要。这也是我们在监管过程中所体现出来的,具有中国实践基础的治理思路。
在科技飞速发展的时代,唯有创新与监管并驾齐驱,技术才能真正成为向善的力量。用规则为发展校准方向,不仅是对技术的敬畏,更是对安全的守护。以智慧驾驭变革,以责任平衡速度,AI终将成为照进现实的美好愿景。