警惕“杀猪盘”和AI换脸诈骗新花样
警惕“杀猪盘”和AI换脸诈骗新花样
近年来,电信网络诈骗手段层出不穷,其中“杀猪盘”和AI换脸诈骗是两种新型且危害较大的诈骗手段。通过伪装成亲密关系,诱骗受害者进行投资或转账,造成巨大损失。同时,AI换脸和语音模仿技术使得诈骗更加逼真,难以辨别。大家务必提高警惕,保护好自己的财产安全,一旦发现可疑情况立即报警。
“杀猪盘”诈骗:利用情感和投资陷阱
“杀猪盘”是一种通过虚假恋爱或投资为幌子的诈骗方式。骗子先用各种甜言蜜语或暴利投资诱惑受害者,待受害者投入感情或资金后,再进行一次性“屠宰”——骗光他们的钱。
特点和套路
短时间内过度热情:骗子通常会在很短的时间内对受害者表现得过度热情,频繁联系,分享所谓成功经历,快速建立亲密关系以获取信任。
以情感为诱饵:骗子会猛烈追求,用甜言蜜语让受害者对其产生情感,甚至表达想要共度未来的愿景,利用“感情”让受害者放松警惕。当受害者提出见面或询问更多信息时,他们总有各种借口逃避。
经常提出投资建议:在建立感情基础后,骗子会慢慢向受害者提出一些投资建议,通常是“高回报、低风险”的项目,比如虚拟货币、外汇交易或博彩。他们会展示自己“投资成功”的回报,鼓励受害者也进行投资。
平台真实性存疑:骗子可能会诱导受害者投资一些不熟悉的平台,这些平台往往是他们自己控制的虚假网站。表面上看起来专业,但当受害者试图提取收益时,会遇到各种困难,如需要支付额外费用、税款或技术问题。
急于让受害者加码投资:在受害者初步投资后,骗子会制造盈利的假象,并不断诱惑其追加投资,声称投得越多赚得越多,甚至提供各种“回扣”或奖励。一旦受害者投入大量资金,骗子就会消失,或者平台会突然崩溃,导致受害者血本无归。
典型案例
BBC国际频道的一项调查揭示了一起在马恩岛发生的大型“杀猪盘”诈骗案件。诈骗团伙在道格拉斯的海景酒店和前银行办公室设立工作基地,通过QQ聊天群等平台,将中国投资者拉入陷阱。他们伪装成投资导师,营造一种对盈利技能的崇拜与兴奋感,诱使受害者将资金投入由诈骗团伙控制的投资平台。中国法院文件显示,至少有12名受害者被骗,损失金额高达3887万人民币(417万英镑/530万美元)。
AI换脸诈骗:技术伪装下的新型诈骗
随着人工智能技术的进步,一些不法分子开始利用AI技术融合他人面孔和声音,制造非常逼真的合成图像来实施新型网络诈骗。这类骗局往往能在短时间内给被害人造成较大损失。
技术原理
AI换脸技术主要包括以下几个关键步骤:
人脸识别追踪:利用深度学习算法精准识别视频中的人脸图像,并提取关键面部特征,如眼睛、鼻子、嘴巴等。
面部特征提取:采集并提取目标人脸的面部特征点。
人脸变换融合:将提取的特征与目标人脸图像进行匹配、替换和融合。
背景环境渲染:通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。
典型案例
陕西西安财务人员张女士案例:张女士与老板进行视频通话,老板要求她转账186万元到指定账号。由于视频图像和声音都与老板高度相似,张女士信以为真,立即进行了转账。事后才发现被骗,幸好警方及时介入,挽回了大部分被骗资金156万元。
香港AI“多人换脸”诈骗案:这是一起更为复杂的案例,涉案金额高达2亿港元。在该案件中,一家跨国公司香港分部的职员被邀请参加总部首席财务官发起的多人视频会议。按照要求,职员将2亿港元转账到5个本地银行账户内,事后查询才发现受骗。调查发现,这起案件中,除受害者外,所有参会人员都是经过AI换脸后的诈骗人员。
防范方法
虽然AI换脸诈骗的仿真度很高,但并非无迹可寻。以下是一些防范要点:
提高警惕:对于涉及资金转账的要求,尤其是通过视频通话进行的,要格外谨慎。可以要求对方提供多个验证信息,如通过电话、短信等多种渠道进行确认。
关注细节:虽然AI换脸技术可以做到高度仿真,但在某些细节上仍可能露出破绽,如眼神、表情的自然度等。
使用多重验证:对于重要账户,启用多重验证机制,增加安全性。
及时报警:一旦发现可疑情况,立即报警,并通知相关银行进行紧急止付。
电信网络诈骗不仅触犯法律,还会受到多部门联合惩戒,严重影响个人生活和社会信誉。公众应提高警惕,远离此类犯罪活动,共同维护网络安全与社会和谐。