FBI警告:Deepfake诈骗呈爆发式增长,年度损失或达数十亿美元
FBI警告:Deepfake诈骗呈爆发式增长,年度损失或达数十亿美元
近日,美国联邦调查局(FBI)发出最新警告,提醒公众警惕利用“深度伪造”(Deepfake)技术进行的新型网络诈骗。这种利用人工智能生成虚假视频和音频的诈骗手段正在迅速蔓延,不仅给受害者带来巨大经济损失,还可能引发严重的社会问题。
骗局频发:Deepfake诈骗案件激增
2024年,利用AI深度伪造技术进行诈骗的案件呈现爆发式增长。据德勤估计,这类由AI支持的深度造假每年可能导致数十亿美元的欺诈损失。骗子通过伪造知名企业家如埃隆·马斯克(Elon Musk)的视频,诱导投资者进行虚假投资,许多受害者因此损失惨重。
触目惊心:Deepfake诈骗真实案例
82岁的退休老人史蒂夫·比彻姆(Steve Beauchamp)原本希望为家人增加一些收入,却不幸成为Deepfake诈骗的受害者。他偶然看到一段视频,视频中马斯克似乎在推荐一个承诺能迅速获利的激进投资方案。受此启发,比彻姆迅速联系了该视频背后的公司,并以248美元开设了一个投资账户。然而,在接下来几周里,他逐步增加投资,最终从退休金账户中动用了超过69万美元。但不久后,这些钱就消失了,落入了一群利用人工智能进行新型数字诈骗的骗子之手。
在另一案例中,一名得克萨斯州居民通过YouTube上一段所谓的“直播”视频,看到了伪装成马斯克的诈骗信息,因此损失了价值36,000美元的比特币。该居民表示:“我转了比特币,但什么都没收到。”
技术升级:Sora模型带来的新威胁
2024年2月,OpenAI推出了视频生成模型Sora,这标志着Deepfake技术迈入了一个新阶段。Sora可以根据文本指令创建现实且富有想象力的场景,生成多种风格、不同画幅、最长为一分钟的高清视频。虽然OpenAI表示目前仅主要向一些设计师和电影制作人等特定人群提供Sora访问权限,但专家们担心,这项技术可能会被恶意利用,进一步加剧Deepfake诈骗的威胁。
积极应对:构建Deepfake防范体系
面对Deepfake诈骗的严峻形势,科技企业和研究机构正在积极研发应对方案。在2024年国家网络安全宣传周期间,关于AI换脸、换声等对个人隐私侵害的话题再次成为关注焦点。各大安全企业纷纷展示安全领域新产品和新技术。在中国移动的深度合成换脸实时鉴伪互动专区,AI换脸的模拟系统可以被实时鉴伪技术精准识别为伪造,整个过程仅需5秒左右。
此外,《虚假数字人脸检测金融应用技术规范》标准也在大会上正式发布。标准规定了金融领域虚假数字人脸检测服务的功能要求、技术要求、性能要求等,并提出了对应的测试评估方法。据了解,这是国内首个面向金融场景的“AI换脸”检测标准。
未来展望:平衡技术创新与安全
虽然Deepfake技术带来了前所未有的挑战,但通过持续的技术创新和严格的监管措施,我们有望构建一个更加安全的数字环境。科技企业、研究机构和政府部门需要紧密合作,共同应对这一挑战。同时,公众也需要提高警惕,增强对Deepfake诈骗的识别能力,共同维护网络安全。
面对Deepfake诈骗这一新型网络犯罪手段,我们必须保持高度警惕。通过技术创新和制度建设双管齐下,我们才能在这场与Deepfake的较量中占据主动,保护公众免受其害。