问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

当心!Deepfake骗局已悄然升级,你的照片还安全吗?

创作时间:
作者:
@小白创作中心

当心!Deepfake骗局已悄然升级,你的照片还安全吗?

引用
安全内参
9
来源
1.
https://www.secrss.com/articles/63541
2.
http://paper.people.com.cn/rmrb/html/2023-12/04/nw.D110000renmrb_20231204_4-07.htm
3.
http://www.acfechina.org/article/detail-1213
4.
http://hengqin.gd.gov.cn/ywgz/gjaqxcjy/dtyw/content/post_4422931.html
5.
https://www.mk.co.kr/cn/it/11216962
6.
https://www.mittrchina.com/news/detail/13378
7.
https://unwire.pro/2024/11/16/vx-research/feature/
8.
https://www.dingxiang-inc.com/blog/post/813
9.
https://www.kaspersky.com.cn/resource-center/threats/protect-yourself-from-deep-fake

在数字时代,你看到的未必是真实的。一张照片、一段视频,甚至一次视频通话,都可能被AI技术轻松伪造。最近,Deepfake(深度伪造)技术引发的诈骗案件屡见不鲜,让我们不得不重新思考:在AI时代,我们的照片和视频还安全吗?

01

从2500万美元到5万美元:Deepfake诈骗触目惊心

2024年2月,一位跨国公司员工参加了一场看似普通的视频会议。会议中,“首席财务官”指示他将2500万美元转账到香港的多个银行账户。直到向公司总部求证时,他才得知自己被骗——整个会议都是通过Deepfake技术精心伪造的。

无独有偶,2024年4月,一名韩国女子在Instagram上收到了“埃隆·马斯克”的好友申请。随后,在一个深度伪造的视频里,“马斯克”向她表白并说服她把400万印度卢比(约5万美元)存入韩国的一个银行账户。直到钱款转出,她才意识到这是一场精心策划的骗局。

02

AI换脸:不只是个人安全问题

AI换脸技术带来的威胁远不止诈骗这么简单。2019年印巴局势紧张期间,路透社发现了30起关于该事件的“深度伪造”视频,这些虚假视频极大刺激了两国的民族主义者,导致事态进一步升级。

更令人担忧的是,AI技术还可能被用于破解生物识别系统。科技研究咨询公司高德纳预测,到2026年,使用人工智能生成的深度伪造攻击面部生物识别系统,将使得30%的企业不再认为这种身份验证和认证解决方案单独使用是可靠的。

03

技术防护与法律应对:我们在行动

面对日益严峻的Deepfake威胁,各国纷纷采取行动。韩国个人信息保护委员会计划通过修改个人信息保护法,制定信息主体可以要求删除恶意利用Deep Fake技术的合成内容的法律权利。

在技术层面,一些创新企业已经开始开发主动防御工具。例如,麻省理工学院的研究团队正在开发一种基于区块链的视频认证系统,可以有效防止深度伪造内容的传播。

04

保护自己:这些方法请收好

  1. 增强个人信息保护意识:不要在陌生平台或网站分享个人敏感信息,包括照片和视频。

  2. 谨慎处理视频通话中的敏感事务:如果涉及钱款转账等重要事宜,建议通过多种方式确认对方身份,不要仅依赖视频画面。

  3. 使用更安全的数字人技术:在需要使用数字人技术时,优先选择3D数字人产品。3D数字人采用超写实风格,让人一眼就能分辨出这是数字分身,而不是真实人物。

  4. 关注最新安全动态:定期了解Deepfake技术的最新发展和防护措施,提高自己的安全意识。

AI技术是一把双刃剑,既能带来便利,也可能成为安全隐患。面对Deepfake带来的挑战,我们既要保持警惕,也要积极应对。通过法律、技术和个人防护的多重努力,我们完全有能力在这场AI安全保卫战中占据主动。

记住,保护自己的信息安全,就是保护自己的财产安全。在AI时代,这比任何时候都更为重要。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号