问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

黑客操控AI机器人成现代战争新威胁

创作时间:
作者:
@小白创作中心

黑客操控AI机器人成现代战争新威胁

引用
网易
11
来源
1.
https://www.163.com/dy/article/JIFO2JOC0511A1RI.html
2.
http://www.81.cn/yw_208727/16328958.html
3.
https://www.secrss.com/articles/64006
4.
https://www.secrss.com/articles/74591
5.
https://www.secrss.com/articles/73457?app=1
6.
https://finance.sina.com.cn/roll/2024-12-23/doc-ineamnxt2671424.shtml
7.
https://aws.amazon.com/cn/blogs/china/architect-defense-in-depth-security-for-generative-ai-applications-using-the-owasp-top-10-for-llms/
8.
https://hqtime.huanqiu.com/article/4K7TuN3Jkr9
9.
https://finance.sina.cn/tech/2024-11-25/detail-incxhqmn4937387.d.html?vt=4&cid=79649&node_id=79649
10.
http://www.c2.org.cn/h-nd-1186.html
11.
https://www.ibm.com/cn-zh/think/topics/ai-supply-chain

宾夕法尼亚大学最新研究发现,当前的人工智能机器人系统存在严重安全漏洞,黑客可以轻松操控这些机器人,将其转变为潜在的致命武器。这一发现引发了对人工智能安全性的广泛担忧,尤其是在军事领域。

01

黑客操控AI机器人:从实验室到现实威胁

研究人员开发了一种名为RoboPAIR的攻击技术,成功对三家不同供应商的机器人设备进行了100%成功率的黑客攻击。这些设备包括英伟达支持的海豚LLM、Clearpath Robotics Jackal UGV和Unitree Robotics Go2四足机器人。通过利用这些设备的应用程序接口(API),攻击者能够以目标设备能够执行代码的方式格式化提示词,从而实现对机器人的完全控制。

这一发现令人震惊,因为被黑客攻击的机器人可以执行各种危险任务,例如将火焰喷射器对准主人、引导炸弹到最具破坏性的地点,甚至让自动驾驶汽车故意撞向行人。研究团队警告称,这些发现表明大型语言模型与物理世界集成时还不够安全,迫切需要实施防御措施来物理限制LLM控制的机器人。

更令人担忧的是,这种攻击方式相对简单,只需要通过精心设计的文字提示就能实现。在另一个案例中,一个名为Freysa的AI聊天机器人安全挑战赛中,黑客仅通过文字提示就成功“骗取”了价值4.7万美元的加密货币。这表明,即使是复杂的AI系统也可能因为微小的语言操纵而轻易“中招”。

02

军事领域的AI机器人:机遇与风险并存

在军事领域,AI机器人的应用正在迅速扩展。北约近期向德国ARX机器人公司支付900万欧元,用于开发和制造一系列无人地面载具,这被视为北约开启“打造自主机器人部队”进程的信号。乌克兰也在积极推进军事AI发展,目前正处于实验性部署阶段,主要承担支持性功能。

乌克兰的军事AI应用已扩展到六大关键领域:自主性、开源情报、态势感知、排雷、训练模拟和损害评估。特别是在自主系统方面,乌克兰在GPS拒止导航和无人机蜂群作战等领域取得了显著进展。这些技术正在前线、俄罗斯领土内的远程打击及多域作战领域进行测试。

03

供应链安全:AI机器人面临的新威胁

除了直接的黑客攻击,AI机器人还面临着供应链安全的威胁。研究人员发现,通过破坏AI模型托管平台Hugging Face的Safetensors格式转换服务,攻击者可以劫持用户提交的模型,造成供应链攻击。

这种攻击方式更为隐蔽且影响范围更广。由于任何用户都可以提交公共存储库的转换请求,对手可以利用此机会劫持或更改广泛使用的模型,从而造成重大的供应链风险。更为复杂的是,由于任何用户都可以提交公共存储库的转换请求,对手可以利用此机会劫持或更改广泛使用的模型,从而造成重大的供应链风险。

面对这些安全威胁,专家们呼吁采取更严格的防护措施。这包括:

  1. 加强AI系统的安全性设计,特别是在代码执行和权限管理方面
  2. 建立更完善的供应链安全机制,防止模型被恶意篡改
  3. 制定更严格的AI武器化国际规范,防止技术滥用
  4. 加强跨机构、跨国家的合作,共同应对AI安全挑战

随着AI机器人在军事和民用领域的应用日益广泛,其安全性已成为一个不容忽视的问题。宾夕法尼亚大学的研究发现再次提醒我们,必须高度重视AI系统的安全防护,确保这项技术能够安全可靠地服务于人类社会。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号