美拟投300亿强化军网安全,全球军事智能化加速推进
美拟投300亿强化军网安全,全球军事智能化加速推进
2024年,世界多地硝烟弥漫,传统火力战虽仍是“主角”,但智能化特征已然显现。战场从传统空间向新兴领域拓展,武器装备远程化、智能化、隐身化、无人化趋势明显,战争形态正在加速演变。战火硝烟的背后,军事科技热点频频,各主要军事强国加大投入、力争主动,不断塑造技术优势、战争胜势。
AI决策支持:提升效率还是取代人类?
制定技术解决方案以协助进行军事决策,这一想法并非新鲜事物。但在近期,我们看到军方将日益复杂的人工智能决策支持系统(AI DSS)纳入了决策过程,包括使用武力的决策。这一发展趋势与以往的不同之处在于,这些系统运行的方式危及军事决策过程中人类进行判断的能力。而这种对人类判断的潜在侵蚀引发了若干法律、人道和道德层面的挑战及风险,尤其是涉及到对民众生命、尊严和所在社区产生重大影响的军事决策之时。正是有鉴于此,我们亟须认真讨论这些系统的使用方式,及其对受武装冲突影响民众所造成的后果。
通过红十字国际委员会法律顾问周雯和日内瓦国际人道法与人权学院研究员安娜·罗莎莉·格赖普共同撰写的这篇文章,我们开启了有关军事决策中人工智能应用的新系列博文。首先,她们概述了当应用人工智能决策支持系统时,如何在有关武力使用的法律决策过程中保留人类判断所面临的一些挑战、风险,以及这方面的潜力。其次,就此类决策过程中人工智能决策支持系统的设计和使用,她们提出了一些措施和限制,为当前和今后军事领域人工智能治理的相关讨论提供参考,从而确保遵守国际人道法,并有助于减轻受相关决策影响人员遭到伤害的风险。
长期以来,人类一直迫切希望制定技术解决方案以辅助决策。然而,随着决策支持系统不断发展,尤其是引入了机器学习等强大的人工智能技术时,我们看到诸多技术先进的军事强国开始寻求在各类任务和各指挥层级中利用这种军事能力,无论是针对军事战略的建议,还是涉及人员部署或武器运输的后勤决策。
近期以来,将基于机器学习的决策支持系统用于支持武力使用的决策,正成为人工智能在军事领域中一项日益突出的应用。这些计算机工具能够进行复杂的评估,提供细致的输出内容(即分析、建议和预测),以帮助人类作出复杂决策,例如确定攻击对象、攻击地点、时间和方式。借助预设特征和自学习模式,此类人工智能决策支持系统能够在没有人为干预的情况下突显特定数据点,并对特征进行优先级排序和选择,因而可能会对武力使用的决策产生重大影响,包括做出此类决策的流程以及决策可能造成的后果。
人工智能决策支持系统常被军方称为能够加快并巩固决策周期的关键支持技术。军方号称该技术能够带来重大军事利益,提高人类决策者遵守国际人道法的能力,并尽可能减少平民风险。
但是,我们必须谨慎考虑这些系统的运行方式、人类与系统输出内容的互动方式,及其所适用的任务类型,因为这些因素会显著影响使用此类技术所造成的人道代价。必须要指出的是,人工智能决策支持系统无法改进不符合国际人道法的目标选择方法和政策。在这种框架下使用此类系统,只会加剧非法或有害影响,使其以更快的速度在更广范围内复制和传播。
无人作战系统:从辅助到主力
纵观多个战场,无人装备已成为攻坚主力。“无人”辅助“有人”、“无人”取代“有人”,渐渐成为趋势。
无人机战场运用更加多元。随着小型无人机技术的成熟,大量无人机出现在战场各个角落,正在颠覆传统的作战模式。在俄乌冲突中,双方投入无人机装备数十型,总量数以万计,用于执行持久监视侦察、定点清除、自杀式攻击等任务。无人机在战场上的运用,不断推动着无人机技术加速发展。世界各国纷纷加大投入,意图在无人机领域的竞争中脱颖而出。11月,土耳其“旗手”TB-3无人机在“阿纳多卢”号两栖攻击舰上成功起降,标志着土耳其在无人机领域的新突破。美国的“狂怒”无人机和“弃兵”无人机通过了关键设计审查,目标是到2030年交付至少1000架,经济高效的大规模生产即将展开。
地面无人系统发展提速。随着无人技术信息化智能化程度日益提高,地面无人系统为无人作战向更高层次发展提供了支撑。今年初,新加坡一家公司推出一款“金牛座”四驱无人车,该车除了可以执行后勤运输、伤员后送等军事任务外,还可以携带释放另一部机器人或无人机,以扩大监视范围。4月,美国陆军演示了无人版的“海马斯”火箭炮,从机动到发射,火箭炮可以全部通过远程操控。在未来战场上,更加自主、智能的地面无人系统将与其他系统协同配合,高效完成作战任务。
无人艇、无人潜航器融入作战体系。4月,澳大利亚国防部推出“幽灵鲨”无人潜航器,并声称其是“世界上最先进的水下自主载具”,可为海军提供情报、监视、侦察和打击的远程自主水下作战能力,预计首批量产潜航器将于明年底交付。10月,俄罗斯一家公司宣布,“准星”多功能海上无人艇已成功完成测试,正在为量产做准备。“准星”可用于侦察、火力支援、伤员转移、弹药和物资运输。无人艇、无人潜航器竞相下水,预示着水面水下作战能力的又一次重大飞跃,或将成为改变战争游戏规则的关键技术。
网络安全:300亿美元打造数字盾牌
安全内参1月8日消息,美国国防部2025财年将在总额8952亿美元的军事预算中,获得约300亿美元(约合人民币2200亿元)用于网络安全。这笔资金来自《2025财年国防授权法案》(NDAA),该法案已于上月由拜登总统签署成为法律。
虽然这份接近1000页的法案中并未明确列出网络安全活动的具体预算金额,但根据2025财年国防授权法案预算提案(于2024年3月发布),美国政府预计约300亿美元将用于军方的网络安全工作。最终通过的法案与这一预算水平可能不会有显著差异。
如往年一样,该法案包括几十项重要和常规的网络安全相关条款,涵盖更换电信网络上的中国设备,保护国防部员工免受外国间谍软件侵害,以及建立AI安全中心等多个方面。
和往年一样,今年也有一些预期中的条款未被纳入。例如,支持美国国务院追踪外国对手虚假信息项目资金的条款。此外,另一项未被纳入的条款赋予新一届特朗普政府更大权力,以监控其认定为对手的美国公民。
实战检验:AI在俄乌冲突中的表现
乌克兰战争已成为人工智能(AI)在战斗中应用的孵化器。双方的开发人员和程序员都在着手构建用于战场的算法,包括自主导航、目标识别和交战以及情报处理。
从现有证据来看,正在使用的人工智能在小范围内是有益的,但归根结底,它是一项正在成熟的技术,需要进一步开发才能充分发挥其潜力。不过,适当部署和管理的人工智能可以迅速提高效能,因此,俄乌战场对人工智能的使用值得关注,以便了解其有益的用例及其局限性。
边界框用于计算机视觉的物体检测;它通常以绿色矩形的形式出现在车辆周围,以指示其位置和计算机确定目标的置信度。
在乌克兰,人工智能最重要的应用体现在大量的小型无人机上,这些无人机由志愿者提供或为满足战争需要而成立的小公司每月生产数千架。俄罗斯在前线部署了大量电子战系统,在某些地区,多个电子战系统分层并全功率运行,对卫星导航信号进行更全面的干扰。在这种情况下,乌克兰部队可能会被迫牺牲无人机来测试俄罗斯电子战是否处于工作状态,抑或无法有效地飞近任何目标进行实时瞄准。电子战效果偶尔会消失,但这通常意味着俄罗斯将开始空袭。正因为如此,一些小型无人机已经开始使用人工智能自主导航。它通常使用经过地点图像训练的算法,使无人机能够在没有卫星定位的情况下进行导航。
俄罗斯和乌克兰都开发了算法来协助第一人称视角(FPV)无人机瞄准。俄罗斯的一个系统被称为“牛虻”(Gadfly),其人工智能寻的能力已于2023年夏天公开展示。乌克兰已经开发并部署了Saker无人机,该无人机使用人工智能来定位和识别目标。它可能还具有某种形式的人工智能辅助瞄准功能。此外,自2024年初以来,似乎显示FPV在最后接近时带有边界框的视频有所增加。假定使用人工智能的依据是识别出的车辆周围存在一个边界框。边界框用于计算机视觉的物体检测;它通常以绿色矩形的形式出现在车辆周围,以指示其位置和计算机确认目标的置信度。它们的出现表明算法正在定位相关车辆,这意味着理论上算法有可能正在帮助无人机跟踪和攻击目标。
值得注意的是,其中许多工作都是由小型志愿者组织发起的。与Saker 一样,“牛虻”无人机也是由志愿者开发的,这并不一定意味着这些工作比大型国防企业或人工智能公司的工作差,但这可能意味着这些系统是使用市场上可买到的算法开发的,能够参与其中的人工智能专家较少。这可能会影响开发速度和迭代周期,而迭代周期是用来使算法和软件迅速达到用户期望的标准。“在乌克兰,技术和市场都在快速发展,而且只会越来越快。”在乌克兰开展业务的国防人工智能公司Arondite的首席执行官Will Blyth告诉《电子数据报告》杂志,“要想获得任何相关性,你就必须快速投入、协同构建,并将最小可行产品(MVP)部署到用户手中。这才是工作中最重要的部分:收集大量真实世界的反馈,将其融入产品,并在现实世界再次发生变化之前重新部署。这就需要务实、实干和敬业的人工智能工程师,专注于结果并快速构建。”Blyth补充道,同时强调了正在使用的技术的快速变化性质。
伦理挑战:巴以冲突中的AI应用
在2023年以哈冲突的背景下,人工智能(AI)在军事领域的应用议题在公众视阈下日益凸显。冲突造成无辜生命的逝去,特别是儿童的伤亡,不仅令人痛心,也让我们对AI的军事应用产生了深刻的反思。以色列军队在加沙地区使用AI技术区分武装人员与平民,并据此实施攻击的报道,引发了关于AI在军事领域中“负责任”使用的激烈讨论。
AI技术的军事化应用,无疑为现代战争带来了前所未有的变革。它提升了作战效率,减少了附带损伤,甚至在某些方面提高了战争的“精准度”。然而,这种“精准”是否真正意味着对平民的更好保护,却是一个值得深入探讨的问题。随着技术的不断发展,以及自主武器系统和AI决策的广泛应用,人类将不得不面对一个更为复杂且紧迫的伦理挑战:如何在追求战争胜利的同时,确保技术的使用不会侵犯到人类的尊严和生命权?
全球范围内的专家学者、政策制定者以及公众,应共同关注AI在军事领域的应用问题,探讨如何制定出一套既符合技术发展规律,又能够保障人类尊严和生命权的规范体系。唯其如此,在下一次潜在的冲突到来时,我们才能展望更低烈度的暴力与更高水平的安全。
自2023年10月7日哈马斯宣布发动名为“阿克萨洪水”的军事行动以来,约三万四千名巴勒斯坦人丧生,包括大约1.3万名儿童。此外,超过1.2万人被假定死亡,还有七万人受伤。根据“Local Call”和“+972 Magazine”(希伯来语新闻媒体)的调查记者所公开的以色列军方文件及匿名以军采访表明:以色列军队在加沙地区使用了人工智能技术以区分并攻击武装人员和平民。事实上,以色列利用人工智能或遥控无人武器对目标进行定点清除早已屡见不鲜。2020年11月,伊朗核物理学家法赫里扎德就在德黑兰郊区遭遇遥控机枪袭击而身亡。本次以哈冲突是以色列首次在局部、大规模、长时期的战斗中运用人工智能技术支撑战争的案例,既让人们看到人工智能军事应用的作战前景,同时也引发人们对于人工智能技术、自主武器对一般平民乃至人类的无差别、失控式攻击所带来的巨大伦理挑战。正如核武器进入战争打开了确保相互毁灭的冷战时代,今日人工智能技术似乎又要打开战争冲突升级的“潘多拉魔盒”,亟需一种新的负责任的人工智能军事应用规范。
未来展望:技术发展与伦理规范的平衡
人工智能正在重塑现代国防,从智能决策支持到无人作战系统,再到网络战的应用,这些技术极大地提升了作战效率和安全性。特别是在俄乌冲突和巴以冲突中,人工智能技术被广泛应用,展现出强大的实战价值。
然而,随着技术的不断发展,我们也面临着前所未有的挑战。如何在追求军事优势的同时,确保技术的使用符合国际人道法?如何在提升作战效率的同时,避免对平民造成不必要的伤害?这些问题需要全球范围内的专家学者、政策制定者以及公众共同关注和探讨。
未来,人工智能在国防领域的应用将更加广泛和深入。我们期待看到更多创新技术的涌现,同时也期待看到更加完善的伦理规范和治理体系的建立。只有这样,我们才能真正实现技术发展与人类尊严的和谐统一。