问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

当心!TikTok上的AI诈骗新花样

创作时间:
2025-01-22 19:01:25
作者:
@小白创作中心

当心!TikTok上的AI诈骗新花样

01

AI诈骗新花样:换脸视频和合成语音来袭

近日,泰国总理佩通坦在一场重要会议上分享了自己遭遇AI诈骗的经历。骗子利用AI技术完美模仿东盟成员国领导人的声音,通过聊天应用发送语音信息,试图以"国家"名义请求捐款。如果不是总理本人亲自揭露,这起诈骗案可能已经得逞。

无独有偶,在香港,多名立法会议员也遭遇了AI合成语音诈骗。有议员接到自称是熟悉工会朋友的电话,对方利用AI模仿议员的声音,以各种借口诱骗转账,导致受害者损失数万元。

这些案例表明,AI诈骗已经从简单的图片合成,升级到更难辨别的视频和语音合成,且目标直指TikTok等热门社交平台的用户。

02

AI换脸视频:假得比真还真

AI换脸技术,是通过深度学习算法将一个人的面部特征替换到另一个人的脸上,生成看似真实的虚假视频。这种技术在TikTok平台上被不法分子用于诈骗,主要通过以下方式实现:

  1. 素材收集:诈骗分子会广泛搜集目标人物的视频和照片,作为换脸素材。
  2. 特征提取:利用人脸识别模型提取面部关键特征点,包括轮廓、眼睛、眉毛等。
  3. 视频合成:将提取的特征点应用到目标视频中,生成新的换脸视频。

虽然AI换脸技术日益精进,但仍存在一些破绽:

  • 面部遮挡:当脸部被手或其他物体遮挡时,AI换脸效果容易出现扭曲。
  • 侧脸转向:当脸部转向90度时,AI生成的面部轮廓和细节会出现崩坏。
  • 表情不自然:AI合成的视频在表情细微变化和眼神流转上往往不够自然。

用户可以通过以下方法识别AI换脸视频:

  1. 观察细节:注意面部表情、眼神和动作是否协调。
  2. 要求互动:在视频通话中要求对方做一些面部运动,如侧脸转向、捏鼻子等。
  3. 使用识别工具:Deepware等AI视频识别工具可以分析视频中是否存在AI生成内容。
03

AI合成语音:以假乱真难辨识

相比AI换脸视频,合成语音的识别难度更大。全球安全技术公司迈克菲的调查显示,只需3-4秒的录音,AI就能生成相似度达85%的克隆人声。在7000多位受访者中,70%的人不确定能否分辨AI合成语音,约10%的人曾遭遇AI语音诈骗。

AI合成语音的制作流程相对简单:

  1. 语音采集:通过骚扰电话、社交媒体等渠道获取目标人物的语音样本。
  2. 模型训练:使用开源AI工具,如开源的语音克隆工具,对采集的语音进行训练。
  3. 语音合成:生成可自定义内容的合成语音。

防范AI合成语音诈骗的方法:

  1. 内容辨析:要求对方说出特定的语句,通过内容来判断真伪。
  2. 注意细节:留意语音中的频率缺失、音调起伏等异常。
  3. 减少信息泄露:在未知来电中谨慎发言,避免提供语音样本。
04

如何保护自己免受AI诈骗

面对AI诈骗的威胁,平台和用户都需要采取行动:

  1. 平台责任

    • 加强内容审核,对疑似AI合成的视频和音频进行标记。
    • 开发和应用AI识别技术,实时监测和预警。
    • 完善举报机制,及时处理涉嫌诈骗的内容。
  2. 用户防范

    • 提高警觉性,不轻易相信视频和语音内容。
    • 学习识别AI合成内容的技巧。
    • 保护个人隐私,避免在公开渠道暴露过多个人信息。

AI技术的发展带来了便利,也带来了新的安全挑战。只有通过技术手段和用户意识的双重防护,我们才能在享受AI带来的便利的同时,避免成为诈骗的受害者。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号