问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

AI诈骗 几秒就能“偷走”声音

创作时间:
作者:
@小白创作中心

AI诈骗 几秒就能“偷走”声音

引用
1
来源
1.
http://www.yznews.com.cn/yzwzt/2025-02/18/content_7720337.htm


志愿者正在演示诈骗手段。 乔云 摄

“感谢志愿者的科普,现在的诈骗技术真的太高明了,要是没有准备,我可能真的会‘中招’。”扬州吕桥社区居民近日满怀感激地告诉记者。

在AI技术迅猛发展的今天,诈骗手段也在不断翻新。近日,来自扬州工业职业技术学院智能制造学院的大学生志愿者,走进吕桥社区,开展了一场别开生面的防AI诈骗宣传活动。

活动伊始,大学生志愿者们便利用手机操作,向社区居民们展示了最新的克隆人声诈骗手段。他们首先通过手机录音功能,采集了一位志愿者的声音样本。随后,通过一款专业的AI声音克隆软件,仅仅几秒钟后,一个几乎以假乱真的克隆人声便被生成出来。接着,志愿者们模拟了一段逼真的诈骗电话,通过克隆人声以相似的口吻,与该志愿者家人进行电话“诈骗”,直至电话挂断,家人都没有发现。这一生动的演示,让在场的居民们惊讶不已。

“克隆人声诈骗往往利用高科技手段,将诈骗者的声音伪装成受害者的亲友或熟人,从而达到骗取钱财或信息的目的。”该校机电技术2305班樊浩东一边演示,一边详细讲解了这类诈骗的特点和防范措施,他提醒居民在面对陌生来电时,一定要保持警惕。

现场,记者还采访了几位社区居民。“我以前只知道有电话诈骗,但从来没想到声音都能被克隆。今天听了大学生们的讲解和演示,我才意识到这种诈骗手段有多可怕。”一位居民表示,“这些大学生们真的很棒,他们用实际行动为我们普及了防诈骗知识,让我们受益匪浅。”

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号