黑客操控AI机器人成现代战争新威胁
黑客操控AI机器人成现代战争新威胁
宾夕法尼亚大学最新研究发现,当前的人工智能机器人系统存在严重安全漏洞,黑客可以轻松操控这些机器人,将其转变为潜在的致命武器。这一发现引发了对人工智能安全性的广泛担忧,尤其是在军事领域。
黑客操控AI机器人:从实验室到现实威胁
研究人员开发了一种名为RoboPAIR的攻击技术,成功对三家不同供应商的机器人设备进行了100%成功率的黑客攻击。这些设备包括英伟达支持的海豚LLM、Clearpath Robotics Jackal UGV和Unitree Robotics Go2四足机器人。通过利用这些设备的应用程序接口(API),攻击者能够以目标设备能够执行代码的方式格式化提示词,从而实现对机器人的完全控制。
这一发现令人震惊,因为被黑客攻击的机器人可以执行各种危险任务,例如将火焰喷射器对准主人、引导炸弹到最具破坏性的地点,甚至让自动驾驶汽车故意撞向行人。研究团队警告称,这些发现表明大型语言模型与物理世界集成时还不够安全,迫切需要实施防御措施来物理限制LLM控制的机器人。
更令人担忧的是,这种攻击方式相对简单,只需要通过精心设计的文字提示就能实现。在另一个案例中,一个名为Freysa的AI聊天机器人安全挑战赛中,黑客仅通过文字提示就成功“骗取”了价值4.7万美元的加密货币。这表明,即使是复杂的AI系统也可能因为微小的语言操纵而轻易“中招”。
军事领域的AI机器人:机遇与风险并存
在军事领域,AI机器人的应用正在迅速扩展。北约近期向德国ARX机器人公司支付900万欧元,用于开发和制造一系列无人地面载具,这被视为北约开启“打造自主机器人部队”进程的信号。乌克兰也在积极推进军事AI发展,目前正处于实验性部署阶段,主要承担支持性功能。
乌克兰的军事AI应用已扩展到六大关键领域:自主性、开源情报、态势感知、排雷、训练模拟和损害评估。特别是在自主系统方面,乌克兰在GPS拒止导航和无人机蜂群作战等领域取得了显著进展。这些技术正在前线、俄罗斯领土内的远程打击及多域作战领域进行测试。
供应链安全:AI机器人面临的新威胁
除了直接的黑客攻击,AI机器人还面临着供应链安全的威胁。研究人员发现,通过破坏AI模型托管平台Hugging Face的Safetensors格式转换服务,攻击者可以劫持用户提交的模型,造成供应链攻击。
这种攻击方式更为隐蔽且影响范围更广。由于任何用户都可以提交公共存储库的转换请求,对手可以利用此机会劫持或更改广泛使用的模型,从而造成重大的供应链风险。更为复杂的是,由于任何用户都可以提交公共存储库的转换请求,对手可以利用此机会劫持或更改广泛使用的模型,从而造成重大的供应链风险。
面对这些安全威胁,专家们呼吁采取更严格的防护措施。这包括:
- 加强AI系统的安全性设计,特别是在代码执行和权限管理方面
- 建立更完善的供应链安全机制,防止模型被恶意篡改
- 制定更严格的AI武器化国际规范,防止技术滥用
- 加强跨机构、跨国家的合作,共同应对AI安全挑战
随着AI机器人在军事和民用领域的应用日益广泛,其安全性已成为一个不容忽视的问题。宾夕法尼亚大学的研究发现再次提醒我们,必须高度重视AI系统的安全防护,确保这项技术能够安全可靠地服务于人类社会。