警惕AI技术滥用,筑牢网络安全防线——防范网络诈骗与恶意软件
警惕AI技术滥用,筑牢网络安全防线——防范网络诈骗与恶意软件
随着人工智能技术的快速发展,各类网络AI工具层出不穷,为我们的生活和工作带来了极大的便利。然而,技术的进步也伴随着新的风险。近期,不法分子利用AI技术进行网络诈骗、传播恶意软件的事件频发,严重威胁到用户的财产安全和隐私保护。本文将为您揭示AI技术滥用带来的网络安全威胁,并提供具体的防范措施。
仿冒DeepSeek的安卓平台手机木马病毒
近日,国家计算机病毒应急处理中心和计算机病毒防治技术国家工程实验室依托国家计算机病毒协同分析平台在我国境内捕获发现仿冒DeepSeek官方App的安卓平台手机木马病毒。
用户一旦点击运行仿冒App,该App会提示用户“需要应用程序更新”,并诱导用户点击“更新”按钮。用户点击后,会提示安装所谓的“新版”DeepSeek应用程序,实际上是包含恶意代码的子安装包,并会诱导用户授予其后台运行和使用无障碍服务的权限。
同时,该恶意App还包含拦截用户短信、窃取通讯录、窃取手机应用程序列表等侵犯公民个人隐私信息的恶意功能和阻止用户卸载的恶意行为。经分析,该恶意App为金融盗窃类手机木马病毒的新变种。网络犯罪分子很可能将该恶意App用于电信网络诈骗活动,诱使用户从非官方渠道安装仿冒DeepSeek的手机木马,从而对用户的个人隐私和经济利益构成较大威胁。
除仿冒DeepSeek安卓客户端的“DeepSeek.apk”之外,国家计算机病毒协同分析平台还发现了多个文件名为“DeepSeek.exe”“DeepSeek.msi”和“DeepSeek.dmg”的病毒样本文件,由于DeepSeek目前尚未针对Windows平台和MacOS平台推出官方客户端程序,因此相关文件均为仿冒程序。由此可见,网络犯罪分子已经将仿冒DeepSeek作为传播病毒木马程序的新手法。预计未来一段时间内,包括仿冒DeepSeek在内的各种人工智能应用程序的病毒木马将持续增加。
针对DeepSeek仿冒App的防范措施
针对该款手机木马病毒,国家计算机病毒应急处理中心发布以下防范措施:
不要从短信、社交媒体软件、网盘等非官方渠道传播的网络链接或二维码下载App,仅通过DeepSeek官方网站或正规手机应用商店下载安装相应App。
保持手机预装的安全保护功能或第三方手机安全软件处于实时开启状态,并保持手机操作系统和安全软件更新到最新版本。
在手机使用过程中,谨慎处理非用户主动发起的App安装请求,一旦发现App在安装过程中发起对设备管理器、后台运行和使用无障碍功能等权限请求,应一律予以拒绝。
如遭遇安装后无法正常卸载的App程序,应立即备份手机中的通讯录、短信、照片、聊天记录和文档文件等重要数据,在手机生产商售后服务人员或专业人员的指导下对手机进行安全检测和恢复。同时密切关注本人的社交媒体类软件和金融类软件是否具有异常登录信息或异常操作信息,以及亲友是否收到由本人手机号或社交媒体软件发送的异常信息,一旦出现上述相关情况,应及时联系相关软件供应商和亲友说明有关情况。
警惕和防范针对流行App软件的电信网络诈骗话术,如“由于XXX软件官方网站服务异常,请通过以下链接下载官方应用程序”“由于XXX软件更新到最新版本,需要用户重新授予后台运行和无障碍功能权限”等,避免被网络犯罪分子诱导。
对已下载的可疑文件,可访问国家计算机病毒协同分析平台进行上传检测。
AI深度合成音视频侵权现象
过去一年,AI深度合成音视频侵权现象愈演愈烈。有人克隆雷军的声音,制作恶搞视频。有人伪造刘德华的音视频,为自己带货。
近日记者调查发现,实现AI深度合成音视频并不算难事,甚至在一些购物平台,AI深度合成技术已经成为众多网店牟利的工具,只需花费几十元,就可定制AI深度合成名人音视频。
AI深度合成音视频的制作方式
这些AI深度合成的声音和换脸是如何制作出来的?调查发现,相应的深度合成软件在网络上下载并不算难,而且还有一些网络主播会开直播教网友如何使用。
在移动端,手机应用商城会提供众多换脸工具,不过大部分工具设定了固定的场景,从效果看逼真度不高。
在PC端,有数十种开源的软件和工具可以实现换声换脸的效果。不过,软件的使用、参数的调整都有一定的技术门槛,所以不为网民熟知。但是,在短视频平台和网购平台,有不少主播、商家在教网民使用相关软件。
AI深度合成音视频的法律风险
未经授权合成制作他人视频声音属侵权。那么,在网络购物平台使用AI技术,深度合成、出售名人的音视频,是否合法呢?专家表示,相关法律法规明确规定,未经授权,不得深度合成制作发布他人信息。网店接单AI深度合成制作名人视频,已经属于侵权行为,并应该承担相应的法律责任。
中国计算机学会计算机安全专业委员会委员吕延辉介绍,《中华人民共和国民法典》规定,自然人享有肖像、声音等权益,任何组织或个人利用信息技术伪造都是侵权行为。2023年国家网信办、工信部、公安部联合发布出台的《互联网信息服务深度合成管理规定》要求,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息。2024年网信办发布的《人工智能生成合成内容标识办法(征求意见稿)》也提出,对AI生成合成内容要进行标识,以便公众识别和区分,防止误导性信息传播。
网店使用AI深度合成技术制作名人的视频,应该承担什么样的法律责任?
北京航空航天大学法学院副教授赵精武介绍,在司法实践中,国内已经审结了首例AI生成声音人格权侵权案。在这个案子里,原告作为配音演员,在没有经过授权的情况下,他的声音被AI生成后对外出售。法院在审理中认为,我国的民法典已经在人格权编,将自然人的声音视为一种人格权益,具有人身专属性。所以,法院最终认定被告方使用原告声音、开发案涉AI文本转语音产品未获得合法授权,构成侵权,书面赔礼道歉,并赔偿原告各项损失25万元。
防范AI侵权的建议
不仅是名人,如果未经本人或版权方同意,用AI制作合成普通人甚至动画形象的音视频,也可以判断为侵权行为,应当承担法律责任。
对普通人来说,我们应该如何防范AI侵权的问题呢?
中国网络空间安全协会人工智能安全治理专业委员会专家薛智慧表示,从技术角度来说,可以利用AI技术来对抗跟检测AI。当前有一些典型的AI技术,能够对图片或音视频进行检测。
吕延辉则认为,防范AI侵权问题需要从法律、平台和公众等多个层面综合施策。法律层面,要进一步完善相关立法,细化AI克隆技术的法律条款,明确侵权行为的定义和责任,同时加强执法力度。平台层面,要强化相关政策法规的宣贯和执行,做好已有数据的保护,应用技术手段来规避AI克隆侵权问题的发生,同时也要建立健全内容审核和侵权举报机制,及时发现和处理侵权问题。
法律专家也提醒AI深度合成制作和信息发布者,不要存侥幸心理,法律没有灰色地带,切勿因小失大。
“法律并不是禁止使用AI合成技术,而是禁止不合法不合理的使用,尤其是禁止不进行任何显著标识和提示的AI合成信息的发布和传播。”赵精武说。
本文原文来自澎湃新闻