“真实的战争是AI武器的最佳养料”
“真实的战争是AI武器的最佳养料”
在当今时代,军备竞赛的概念已经从传统的军事硬件扩展到了人工智能(AI)领域。随着世界各国认识到AI在防御和进攻中的战略重要性,一种新的技术竞争形式已经出现。
这场AI军备竞赛以AI能力的快速进步、研发投资的增加以及对AI在军事和安全领域应用的日益重视为特征。这场竞赛的利害关系极高,因为其结果可能会塑造未来几十年的力量平衡。
AI武器搅动俄乌战场
俄乌冲突的硝烟仍未散去,人工智能(AI)武器却已在战场上掀起波澜。无人机蜂群突破电磁屏障,自主执行猎杀任务;人脸识别技术穿透战场迷雾,精准锁定关键人物;虚假信息操控舆论,颠覆公众认知。AI以其无处不在的影响力,将现代战争推向了一个全新的境界。
据《纽约时报》报道,乌克兰正在利用俄乌冲突期间拍摄的数百万小时战场视频,训练AI模型以学习战场决策。真实的战场,已然变成了AI的“练兵场”。
AI不仅赋予了武器更强大的杀伤力,更引发了对人类伦理底线的深刻拷问。谁来扣动“扳机”?AI造成的伤亡责任该由谁承担?AI是否会引发更多的杀戮?这些问题亟待解答。
正如奥地利外长沙伦贝格在2024年自主武器国际会议上所警告的,“人类正面临奥本海默时刻。机器人战争的时代正快速向我们走来。”
当地时间2025年1月3日,乌克兰苏梅州,一所受损住宅的院子里,发现一架俄制无人机残骸
“若想训练一款AI,只需为其提供200万小时的视频素材,它便能化作超凡的存在。”这是乌克兰非营利性数字系统公司OCHI创始人奥列克桑德·德米特里耶夫(Oleksandr Dmitriev)的观点,他将这些海量视频比作“AI的养分”。
自2022年起,德米特里耶夫的团队已从无人机处收集了超200万小时的战场影像,为人工智能的学习提供了关键数据。德米特里耶夫解释说,这些视频可用于优化战术、识别目标及评估武器效果,“AI程序能够分析武器的最佳轨迹与角度。”
在俄乌冲突中,人工智能的大规模应用成为其与历史战争不同的显著标志。以往,电子对抗系统常被视为无人机的克星。乌克兰政府Brave1平台的AI业务主管马克斯·马卡尔丘克(Max Makarchuk)提到,在电子战系统干扰下,FPV无人机的平均命中率可降至30%-50%,新手操作员的命中率甚至可能仅有10%。然而,计算机视觉技术等AI进展为无人机突破电子干扰带来了希望。例如,NORDA Dynamics公司研发的计算机视觉瞄准软件,使无人机能够自主感知环境、强化目标识别与跟踪。操作员初步锁定目标后,无人机便能自主执行后续任务。据报道,截至2024年10月31日,该公司已向无人机制造商交付了超10000套该软件。
同时,AI助力的无人机集群作战正成为军事领域的一大趋势。乌克兰科技公司Swarmer正开发一款能将众多无人机联网协同作战的软件——Styx,实现集群内部的快速同步决策。公司CEO谢尔希·库普里连科(Serhiy Kupriienko)指出,“飞行员难以同时操控五架以上的无人机,但AI却能轻松管理数百架。”借助Styx,每架无人机都能自主规划行动,预测其他无人机的行为,达成高度自主的协同作战。
在俄乌战场上,人脸识别技术同样备受瞩目。美国面部识别公司Clearview AI向乌克兰开放了其拥有100亿张照片的数据库,其中包含从俄罗斯社交平台VKontakte收集的20亿张照片。利用该技术,乌克兰能够识别俄罗斯战俘和阵亡士兵的身份,并将其信息公开。此外,通过比对战场图像、公开信息和其他情报,这项技术还可用于锁定俄罗斯高级将领,为军事“斩首”行动提供助力。
除了在实体战场上的应用,AI还在俄乌冲突的信息战场上发挥着作用。2022年3月,一段深度伪造的乌克兰总统“泽连斯基”宣布投降的视频在社交媒体上广泛传播。视频中,“泽连斯基”呼吁士兵放下武器,停止抵抗。同样在2023年6月,黑客入侵俄罗斯的广播和电视系统,播放了一段由AI合成的“普京”讲话,谎称乌克兰已入侵俄罗斯三个边境地区,并宣布全面动员,一度引起了民众的恐慌。
“奥本海默时刻”
2024年5月,一场聚焦“人类正处于十字路口”主题的自主武器国际会议在奥地利维也纳举行。奥地利外长沙伦贝格在会上严肃警告,“人类正面临奥本海默时刻。”这一警示绝非无的放矢,AI正以惊人的速度和规模重塑战争形态。
军事专家傅前哨在采访中描述了未来战场的轮廓:“蜂群无人机在空中盘旋,机器狗、机器狼等无人装备在地面穿梭,水面和水下则有无人艇和无人潜航器活跃。”
随着AI军事化的不断推进,战争机器的形态日益多样化。同时,AI驱动的信息战也将网络空间开辟为新战场,例如自动化生成和传播虚假信息,制造舆论混乱,干扰敌方决策。信息战关注“给人们看什么”,而认知战则聚焦“让人们怎么想”。
对外经济贸易大学国际关系学院讲师李宏洲博士指出,认知战虽不直接导致物理伤亡,但通过有选择性地呈现或屏蔽信息,潜移默化地影响受众的认知框架和决策判断,进而塑造、扭曲甚至操控受众的思想和观念。
他以短视频为例,用户在使用这类传媒软件时,往往难以察觉其内容可能受到大型企业乃至国家力量的干预。这种干预通常通过算法规制进行,其影响之深远,可能影响公共事件的舆论走向、左右国家选举。通过散布虚假信息、煽动仇恨和对立情绪,认知战还可以加剧国家间的误解和冲突,甚至为军事对抗制造借口。
AI技术催生了诸多新的作战领域、空间、场景和模式。然而,“我们还需清醒地认识到,AI还并没有驱使战争超出基本的指挥控制原理。”上海交通大学自动化系副研究员宋磊表示。
“当前战争形态呈现出人机结合的趋势,但战争的本质仍然是人与人、国家与国家之间的对抗。”李宏洲强调,战局的演变也并非仅由军事因素决定。随着越来越多的AI武器进入战场,未来军队的作战方式、武器装备的研发及军队的编制体制也将带来一系列变革。“
在未来,传统的战术训练,如瞄准、射击、战术编组等基础技能的训练比重将有所降低,取而代之的是侧重于无人装备操作的训练,如目标搜索、精确打击等。”傅前哨说,“空中飞行员的作战重心也将随之转移,他们不仅要操控飞机,更要担负起管理和控制无人机编队的责任。”
宋磊认为,随着AI技术的迭代发展,战争中人类的角色将呈阶梯式演进。各级指战人员将在人机交互中逐步从筹划、决策、执行层面解放。
届时,对抗的关键将不再是杀伤人员或摧毁装备,更重要的是摧毁敌方决策意图和指挥控制体系。“这如同AI对工业、医疗、教育等领域的深刻变革,是对军事的系统性重塑,旨在最大限度提高部队可持续作战能力,充分挖掘战争潜力。”宋磊说。
当地时间2024年12月28日,乌克兰尼古拉耶夫,消防员正在扑灭由无人机袭击引发的火灾
AI武器的道德底线
在AI自主武器的发展历程中,一个核心且极具争议的伦理难题逐渐浮现:“扳机”究竟应由谁来扣动?在复杂多变的战场环境中,智能化武器的敌我识别能力仍面临巨大挑战,甚至可能误伤平民或己方人员。在压力、危险和欺骗交织的战场上,人类尚难以迅速全面把握局势并做出正确决策。
试想一下:战场上,一架AI无人机锁定了一辆敌方坦克,准备发起攻击,却发现坦克旁停着一辆满载乘客的大巴。若是一名空军飞行员执行任务,他可能会选择等待或采取其他措施,以最大限度减少平民伤亡。而AI无人机在确认敌方目标后,是立即攻击,还是像人类一样考虑无辜者安全?
再如,AI无人机在执行任务时,探测到预定打击目标邻近一座核电站,它是否会机械地执行攻击指令?由此可能引发的灾难性后果,其严重性远超普通故意杀人罪,甚至可能触及反人类罪。人工智能武器虽拥有智能,却无道德。若允许机器人代替人类决策,将引发严重伦理问题。部分国家军方可能倾向于降低AI自主武器在作战决策中的伦理考量,因为过多伦理评估可能导致错失战机,甚至战役或战术行动失败。但目前看来,最终发动攻击、扣动扳机、作出决策的仍应是人。
李宏洲认为,使用AI武器带来的伤亡责任界定模糊——是人为指令、系统失误还是意外事故所致?这种模糊性有两种截然不同的解读:一种观点认为,这并非蓄意欺诈,反而可能降低战争烈度,因为各方都可能将伤亡归咎于机器故障而非人为指令,从而避免冲突升级。而另一种观点则认为,这种模糊性实际上会降低战争门槛,使战争更容易爆发。一旦战端开启,各方更容易将对平民的伤亡解释为“误炸”或“机器失误”,从而逃避责任。
“AI改变的是未来作战样式,并非战争本质。”军事专家刘扬和齐文华曾在论文中表示,无论AI如何发展,战争的决策者始终是人类,智能武器只是执行命令的工具。正如奥地利外交部长沙伦贝格所说:“谁生谁死的决定权,必须掌握在人类而非机器手中。然而,科技正飞速发展,政策却落后了。”
图片由ai生成
AI军备竞赛已显现,真实的战争成为AI武器的最佳养料。为了追求AI武器“更高效”,获取更多训练数据,可能需要不断升级战争烈度,这无疑会加剧现实冲突。与此同时,AI自主武器系统是否会降低战争门槛,自主杀伤性武器的扩散是否会被恐怖分子利用,成为新的袭击手段,也同样令人忧虑。国际社会各方有必要共同制定相关约束机制,以规范AI在军事领域的应用,建立一种类似于核武器领域的“恐怖平衡”,避免灾难性后果。
“军事化AI的发展应围绕算法训练过程的透明、无人武器监管两个核心要素,建立有广泛参与的国际制度。”李宏洲表示,AI的战场应用必须遵循战争伦理,可参照国际社会对化学武器、生物武器等的限制,严格限制无差别攻击平民的武器,做到发展与规范并重。此外,李宏洲还指出“要重视AI训练中的对齐问题”。AI作为一种工具,应始终受人类主导和伦理框架约束。必须将“不得伤害平民”“不得在谈判期间发动袭击”等伦理准则“烙印”到AI系统中,避免将其训练成不惜一切代价追求“战斗胜利”的杀戮机器。
“未来,大国间的非核战争中,无人技术和自主武器系统的优劣将决定战争的胜负。”一战直至二战时期,电气化对战争的影响日益凸显,部分武器开始采用电容触发,电力不仅支撑了战场上的雷达、通信以及照明,也是各国支撑工业生产最重要的基础设施。而AI作为一种赋能技术,其应用范围远超电力,几乎渗透到社会各个领域。因而,AI领域的军备竞赛将是全方位的,涵盖军事、经济、科技等多个层面,其影响之深远将远超以往。AI军事化的发展势头难以遏制。如何在全球范围内有效规制AI的军事应用,避免其失控并维护国际安全,是当前亟待解决的问题。让我们将思绪再飞往更远的未来。当强人工智能时代到来时,战争甚至可能超出人类范畴,乃至出现在人类与智慧生命之间。AI领域的先驱、诺贝尔物理学奖得主杰弗里·辛顿曾提出,机器有可能“接管”人类。这种战争将会以何种形态呈现,目前尚不确定。
AI武器是和平的神剑,还是战争的魔杖,答案尚未揭晓,未来的战争图景笼罩着一层神秘的面纱。
在AI自主武器的发展道路上,我们正站在一个历史的十字路口。技术的飞速进步为我们带来了前所未有的机遇,同时也带来了深刻的伦理挑战。我们必须在追求技术突破的同时,坚守人类的道德底线,确保技术的发展始终服务于人类的和平与福祉。这不仅需要科学家和工程师的智慧,更需要政策制定者、伦理学家和社会各界的共同努力。只有这样,我们才能确保AI自主武器不会成为人类的威胁,而是成为维护和平与稳定的有力工具。
未来的战争图景虽不明朗,但我们的选择将决定其走向。让我们携手共进,为构建一个更加安全、和平的世界而努力。
本文原文来自科睿研究院