问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

警惕!AI造假威胁,学会这招防坑

创作时间:
作者:
@小白创作中心

警惕!AI造假威胁,学会这招防坑

随着AI技术的飞速发展,人工智能不仅在各个领域展现出巨大潜力,也被不法分子利用进行诈骗活动。近期,AI诈骗案件呈现快速增长态势,且手段日益狡猾,让人防不胜防。

01

AI换脸视频:三招破解诈骗

2023年6月,国家反诈中心辟谣“AI诈骗在全国爆发”,确认全国AI诈骗实施不超过10起,主要是提前制作了换脸视频,并不是实时的视频互动通话。然而,最新数据显示,在视频通话中利用AI换脸的案件数量正在逐渐增加。

AI实时换脸是通过人脸识别模型和摄像头获取人脸关键特征点,这些特征点用于跟踪视频中的人脸轮廓、眼睛、眉毛等区域位置。理论上,面部特征点越多,AI换脸效果越好。因此,为了打造逼真的AI换脸骗局,犯罪分子通常会广泛搜集与被害人有关亲友的视频、照片作为换脸素材。

北京朝阳法院指出,诈骗分子会利用AI技术对目标人群进行筛选并生成定制化诈骗脚本。例如,在实施情感诈骗时,会筛选经常发布情感信息的人;在实施金融诈骗时,会筛选经常关注理财投资的人群。

在实际应用中,为了平衡网络延迟、生成效果等多种因素,人脸特征的提取通常只会保留最具代表性的特征点。当这些特征点被遮挡或数量减半(如侧脸)时,AI换脸就容易出现崩坏的情况。这为我们提供了破解AI换脸的方法:

  1. 要求对方做面部运动:比如侧脸转向、面部遮挡、捏鼻子等,这些动作容易导致AI换脸效果失真。
  2. 使用AI视频识别工具:如Deepware等工具可以分析视频中是否存在AI生成或换脸内容,并给出识别报告。
  3. 留意平台提醒:许多短视频平台(如抖音、小红书、B站)会对AI生成内容进行标记提醒,注意查看相关提示信息。
02

AI合成语音:鉴别不易,防范更难

与AI换脸视频相比,AI合成语音在诈骗中更难辨别。全球安全技术公司迈克菲(McAfee)2023年发布的调查报告显示,只需3-4秒的录音,网络上的免费AI工具就能生成相似度达85%的克隆人声。在7000多位全球受访者中,70%的人不确定是否能分辨AI合成语音,约10%的人曾遭遇AI语音诈骗。

许多留学生反映曾遇到利用AI合成本人语音对国内父母进行的诈骗。这些诈骗以绑架为名,放出AI合成的求救语音,利用时空差和恐慌心理骗取钱财。

克隆一个人的声音有多容易?通过一段模拟骚扰电话提取人声的实验发现,几秒钟的音频样本就足以生成一段效果逼真的克隆声音。使用开源的AI语音克隆工具,根据6秒的应答语音就能合成可自定义内容的语音,且效果非常接近原声。

AI工具对语音的检测主要关注合成语音中的频率缺失部分、音调起伏等。此外,检测准确性还受语音时长影响。因此,在验证AI语音时,需要结合语音内容的辨析。AI领域科学家Dr. Adrian Kaehler建议,“你可以引导其说出一些特定的话,从而帮你判断真伪”。

防范AI合成语音诈骗的关键在于:

  1. 减少语音泄露:面对未知来电时,在了解对方信息后再开口,减少不必要的信息泄露。
  2. 内容辨析:通过引导对话,分析语音内容的合理性,判断真伪。
  3. 使用AI检测工具:虽然不能完全依赖,但AI检测工具可以作为辅助手段。
03

AI虚假信息:识别效果参差不齐,中文支持差

AI生成的虚假信息在信息流中时常以假乱真,容易造成误导甚至诱导。2023年2月,一则关于“杭州取消机动车尾号限行”的假新闻在网上疯传,实为ChatGPT生成的虚假内容。

目前市面上有诸多AI文本检测工具,如GPTZero、Copyleaks、Smodin等。这些工具通过分析文本的困惑度和突发性等指标,判断内容是否由AI生成。然而,不同工具的检测准确度受文本长度影响,且对不同语言的支持程度不同。在中文内容检测方面,可用工具较少,效果也不理想。

面对AI虚假信息,建议采取以下措施:

  1. 追溯信息源:核实信息的原始来源,确认其权威性和可信度。
  2. 交叉求证:通过多个渠道验证信息的真实性。
  3. 培养批判性思维:提高媒介素养,对信息保持理性思考。
04

结语

面对日益猖獗的AI诈骗,我们既要依靠技术手段进行防范,更要提高自身的安全意识。通过了解AI诈骗的常见手法,掌握防范技巧,我们可以更好地保护自己免受AI诈骗的侵害。记住,任何时候都不要轻易泄露个人信息,对可疑信息保持警惕,必要时及时向相关部门报案。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号