问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

AI换脸诈骗升级:2亿港币被骗案敲响警钟

创作时间:
2025-01-22 00:29:23
作者:
@小白创作中心

AI换脸诈骗升级:2亿港币被骗案敲响警钟

01

2亿港币被骗走!AI换脸诈骗已悄然升级

2024年2月,香港警方通报了一起震惊全港的AI换脸诈骗案。一家英国跨国企业的香港分公司员工,被骗子通过伪造的AI换脸视频和音频,冒充总公司CFO,骗走了高达2亿港币的资金。这起案件不仅涉案金额巨大,更令人震惊的是,骗子竟然通过AI技术伪造了一个“高管团队”,在视频会议中同时冒充多人,大大提高了诈骗的成功率。

02

AI换脸诈骗:一张照片就能“以假乱真”

AI换脸诈骗的核心技术是Deepfake,这是一种基于深度学习的图像处理技术。其基本原理是通过生成对抗网络(GAN)和卷积神经网络(CNN),将目标人物的面部特征“嫁接”到另一段视频上,生成高度逼真的伪造视频。

令人担忧的是,实现AI换脸的门槛正在降低。据专家介绍,仅需一张照片,就能生成基本的换脸效果。技术人员通过深度学习算法,精准识别照片中的人脸特征,然后将这些特征与目标人脸进行匹配、替换和融合。更高级的实时换脸技术,则需要收集近千张不同角度的照片,经过深度学习算法训练,才能达到以假乱真的效果。

03

防不胜防:AI换脸诈骗的社会危害

AI换脸诈骗之所以屡屡得手,主要是因为它突破了传统的防诈骗手段。在陕西西安的一起案例中,某公司财务人员张女士正是因为看到了“老板”的视频和听到了熟悉的声音,才放松了警惕,迅速转账186万元。直到将电子凭证发到公司财务内部群中,才意识到被骗。

这类诈骗不仅给个人和企业带来巨大的经济损失,还可能引发信任危机。由于AI换脸技术可以高度还原目标人物的外貌和声音,传统的身份验证方式(如视频通话)已经不足以辨别真伪。此外,这类诈骗往往伴随着个人信息泄露,进一步加剧了网络安全风险。

04

如何防范AI换脸诈骗?

面对日益猖獗的AI换脸诈骗,我们该如何保护自己?专家建议从以下几个方面加强防范:

  1. 多重验证:不要轻易相信视频或语音信息,尤其是涉及财务往来时,应通过电话或其他方式再次确认对方身份。

  2. 保护隐私:避免在社交媒体上公开敏感信息,如身份证号、手机号等。同时,谨慎对待不明链接和二维码,防止个人信息被非法获取。

  3. 技术防范:利用现有的技术手段检测Deepfake视频。例如,可以通过观察视频中人物的面部细节、表情自然度等特征,判断是否存在异常。

  4. 提高警惕:对任何涉及金钱交易的请求保持高度警觉,特别是当对方催促紧急转账时,更要谨慎处理。

05

政策监管:为AI安全应用保驾护航

面对AI换脸诈骗带来的挑战,国家相关部门已经采取行动。2023年1月10日起施行的《互联网信息服务深度合成管理规定》,为深度合成服务划定了“底线”和“红线”。该规定明确要求,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息;提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。

2023年8月15日起施行的《生成式人工智能服务管理暂行办法》,则进一步规范了生成式人工智能服务的基本规范,明确了服务提供者和使用者的义务与要求。同时,国务院已将人工智能法草案列入2023年度立法工作计划,多位全国人大代表呼吁加快推进人工智能立法,为人工智能安全应用提供法律保障。

AI换脸诈骗的出现,既是对技术进步的考验,也是对社会安全的挑战。只有通过技术创新、法律完善和公众教育三管齐下,才能有效应对这一新型犯罪手段,保护个人和企业的财产安全。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号