问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

公安部网安局提醒:警惕AI诈骗新手段,这些防范技巧请收好

创作时间:
2025-01-22 01:53:00
作者:
@小白创作中心

公安部网安局提醒:警惕AI诈骗新手段,这些防范技巧请收好

近日,香港发生了一起震惊全港的AI诈骗案。一家跨国公司的香港分行职员接到“首席财务官”的视频会议邀请,要求转账2亿港元。由于视频中的高管容貌和声音都与真人无异,职员信以为真,先后15次将巨额资金转入指定账户。直到向总部核实才发现,这是一场精心策划的骗局,而所谓的视频会议中,除职员外的所有“参会人员”都是通过AI换脸技术伪造的。

这起案件不仅涉案金额巨大,而且手法新颖,利用了当前最前沿的AI技术——Deepfake(深度伪造)。Deepfake是“Deep learning”(深度学习)和“Fake”(伪造)的混成词,指通过深度学习技术生成合成图像、音频或视频。由于公众人物的视频、音频、图片资料公开,为AI训练提供了大量素材,因此名人经常成为AI造假的受害者。

Deepfake的实现原理主要依赖于深度神经网络,特别是生成对抗网络(GAN)。通过训练大量的面部图像数据,Deepfake模型能够学习到面部特征之间的潜在关系,并生成与真实面部特征高度相似的虚假面部特征。

面对日益猖獗的AI诈骗,公安部网安局发布重要提醒,建议公众采取以下防范措施:

  1. 多重验证,确认身份:在涉及钱款时,尽量通过电话询问具体信息,确认对方是否为本人。AI换脸难以肉眼区分,因此需要通过其他方式验证。

  2. 保护信息,避免诱惑:加强个人信息保护意识,对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。

  3. 相互提示,共同预防:做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。

除了上述建议,专家还提供了以下实用的防范技巧:

  • 看眼睛:多数假脸都是使用睁眼照片合成,假脸极少甚至不会眨眼,缺少眨眼是判断一个视频真假的好方法。

  • 语音和嘴唇运动的同步状况:AI生成的视频中,语音和嘴唇运动可能不够同步,或者情绪表达不符合场景。

  • 模糊的痕迹:AI生成的图像边缘可能有模糊或不自然的痕迹。

  • 画面停顿或变色:AI生成的视频中可能会出现短暂的画面停顿或颜色变化。

随着AI技术的不断发展,未来我们可能会面临更多类似的挑战。但只要我们保持警惕,不断提高防范意识,就能有效应对这些新型诈骗手段。记住,在这个数字化时代,“眼见不一定为实”,保护好自己的钱包,从提高警惕开始。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号