问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

盘点年度AI假新闻:山寨的AI顶流们,骗了爸妈一整年

创作时间:
作者:
@小白创作中心

盘点年度AI假新闻:山寨的AI顶流们,骗了爸妈一整年

引用
新榜
1.
https://www.newrank.cn/article/detail/29631

2024年,随着AI技术的快速发展,AI造假事件频发,从名人语音到虚假视频,从静态图片到动态影像,AI造假手段日益多样化。本文将盘点2024年十大AI假新闻事件,分析其作假手段,并提供辨别AI生成内容的方法。

“你可以在网上看到很多话,一句是我说的,还有千万句都是我说的。”——鲁迅
或许还有一些,是AI说的。

过去,很多假新闻可能是通过传统剪辑工具进行后期修改的,而现在,生成式AI正在成为虚假信息传播的主力军。大量虚假照片、视频、GIF图充斥着互联网。

最近,有一名法国女子被AI生成的“布拉德·皮特”照片骗走了83万欧元(折合人民币约626万)。骗子称他需要钱做肾脏手术,因离婚个人账户还被锁定了,该女子信以为真,误以为自己一直和大明星保持联系。

再比如,前阵子,西藏地震后灾区照片又一次将AI造假的话题推上了热搜,AI生成的视频被“张冠李戴”,变成此次震后的视频图。

尽管AI技术无处不在,网友们也越来越擅长辨别AI生成的内容,但事实上,真正成功欺骗大众的图像,往往是那些经过“精心伪造”的图像。

我们整理了2024年传播度较高的十大AI假新闻事件,并分析了其中的作假手段,希望能够帮助大家有效分辨AI生成的虚假内容。

“三界假顶流”:

AI雷军、AI胖东来、AI张文宏

谁能想到,科技圈、医疗界、食品区的“顶流”们都被造假过。

2024年10月,雷军的AI语音片段刷屏互联网。“雷军”用熟悉的口音精准吐槽:“这游戏做成这样,绝对是来捣乱的。”

因为语气和雷军本人十分相似,不少网友都以为是雷军亲自下场锐评。无独有偶,互联网上还出现了用AI合成于东来的声音,声音特征也与真人无异。

2024年12月,张文宏医生“被AI带货”了。只见视频中的“张医生”正襟危坐,反复介绍一种产品,声音听起来也很像本人。

这样以假乱真的AI合成技术让不少名人明星深受其扰,深度伪造也成为了AI造假的现象级案件。

大多数AI换脸、换声案件都可以从面部入手来辨别。比如,观察人物面部表情是否自然,有没有光影出现。检查嘴部周围的纹路是否模糊,嘴唇周围细节减少很可能是AI的痕迹。另外,只会重复说一句话,没有连贯的语句就要当心是AI换声的原因。

成熟的3A造假团队

从静态图片到动态视频,从虚假文本到栩栩如生的模拟声音,甚至2024年还出现了成熟的3A(AI写稿、AI录音、AI视频)造假团队。

2024年6月2日,浙江警方因一则关于上虞工业园区的不实火灾消息,破获了一起利用AI制作虚假视频散布网络谣言的非法谋利的案件,据称该团伙仅有3人,却在一个月内使用AI生成并发布了3000个以上的虚假视频,散布谣言博取流量。

2024年1月,江西警方也曾因一条“西安爆炸”异常流量假新闻抓获了一个利用AI技术造谣团伙,该团伙每日量产4000-7000条AI文章,真假难辨。

针对AI文本生成内容,现在也有专门的检测工具,比如腾讯上线了文本检测工具,将检测文本与大模型预测内容进行重叠度对比,来推断文章的AI生成概率,帮助用户分辨。

三只羊的“财色”录音门

2024年,知名网络主播“疯狂小杨哥”及其创立的三只羊公司因多起事件引发公众关注,特别是涉及AI技术的伪造录音事件,也是2024年度AI领域的重要案例之一。

事件起因于一段网络热传的录音,内容涉及三只羊公司董事长卢文庆的不当言论。录音曝光后,卢文庆及公司形象受到严重质疑。

警方调查发现,这段录音系由25岁的王某某利用AI语音合成技术伪造。王某某通过AI工具克隆了卢文庆的声音,仅凭约30秒的录音片段,即生成了以假乱真的虚假录音。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号