电信诈骗升级:AI换脸和共享屏幕成新套路
电信诈骗升级:AI换脸和共享屏幕成新套路
近年来,随着网络技术的飞速发展,电信网络诈骗手法也在不断翻新。其中,“共享屏幕”诈骗和“AI换脸拟声”诈骗尤为猖獗,给无数受害者带来了巨大的经济损失。本文将揭秘这两种新型诈骗手法,帮助大家提高警惕,守护好自己的“钱袋子”。
“共享屏幕”:一个看似无害的功能,却暗藏杀机
“共享屏幕”原本是一个方便远程协作的功能,却被不法分子利用成了诈骗工具。诈骗分子通过特定APP,使手机屏幕上显示的内容能够让对方实时看到,从而窃取银行账户、密码等敏感信息。
天津的罗先生就曾遭遇过这样的诈骗。他接到一通自称是航空公司客服的电话,称其预订的航班被取消,并主动提出帮助办理机票改签和航班延误赔偿。在诈骗分子的引导下,罗先生下载了一个具有屏幕共享功能的会议软件。在共享屏幕的过程中,罗先生无意中打开了银行App和支付付款码,结果银行卡内的3万多元余额全部被转走。
无独有偶,湖南王先生也接到了一通诈骗电话,对方自称是某保险公司的客服人员,声称系统检测到他购买的保险即将自动扣费,需要通过屏幕共享解除绑定。王先生信以为真,下载了相关APP进行操作,结果银行卡中的资金被转走。
从这些案例中可以看出,诈骗分子通常会冒充官方客服、监管部门或执法部门等身份,以各种理由诱导受害者下载具有远程操作、屏幕共享等功能的软件。一旦受害者开启屏幕共享,诈骗分子就能实时监控其手机或电脑屏幕,获取关键信息,如密码、验证码等,从而盗取资金。
AI换脸拟声:当“眼见也不一定为实”
随着人工智能技术的进步,一些不法分子开始利用AI技术融合他人面孔和声音,制造非常逼真的合成图像来实施新型网络诈骗。这类骗局常常会在短时间内给被害人造成较大损失。
香港警方近期披露的一起涉案金额高达2亿港元的多人AI换脸诈骗案,就是典型的案例。在这起案件中,某公司职员受邀参加一个“多人视频会议”,除了受害者外,其余参与者均为AI换脸后的诈骗人员。诈骗分子通过AI技术合成虚假视频,成功骗取了2亿港元。
AI换脸的技术原理主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等关键步骤。最核心的部分是利用深度学习算法精准识别视频中的人脸图像,提取关键面部特征,并将这些特征与目标人脸图像进行匹配、替换、融合。最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假“换脸”视频。
面对这种新型诈骗,普通人该如何识别和防范呢?四川网警的网络安全专家张警官建议:
- 提高反诈意识,对任何涉及资金往来的情况保持警惕
- 多途径核对信息,不要轻易相信视频会议中的身份
- 观察视频是否有穿模或异常变形,这可能是AI伪造的迹象
- 保护个人隐私,防止聊天信息、身份信息泄露
- 下载国家反诈中心App,学习更多防范知识
如何防范新型网络诈骗?
面对日益猖獗的网络诈骗,我们该如何保护自己呢?国家金融监督管理总局金融消费者权益保护局给出了以下建议:
不盲目不轻信:树立科学理性的投资理财观念,提高风险防范意识和信息甄别能力,对“天上掉馅饼”的说辞保持警惕
拒绝“共享屏幕”:增强个人信息保护意识,妥善保管身份证号、银行卡号、账户密码、验证码等信息,不随意点击不明链接,不随意下载陌生软件
谨慎转账汇款:涉及转账、汇款操作时要提高警惕,防范资金被骗风险
正规渠道维权:如遇经济纠纷,应依法通过正规渠道进行维权
遭遇诈骗速报警:如发现自己陷入诈骗陷阱,应及时保存证据并向公安机关反映
网络诈骗手法虽然不断翻新,但只要我们保持警惕,提高防范意识,就能有效避免成为诈骗分子的“猎物”。记住,无论是“共享屏幕”还是“AI换脸”,都不过是诈骗分子的工具。只有我们自己提高警惕,才能真正守护好自己的财产安全。