专家热议:自主武器系统发展带来的国际法与战争伦理挑战
专家热议:自主武器系统发展带来的国际法与战争伦理挑战
随着人工智能技术的快速发展,自主武器系统已成为国际社会关注的焦点。这些系统能够在没有人工干预的情况下进行作战决策,虽然提高了作战效率,但也带来了严重的伦理和法律问题。近日,由苇草智酷主办的"2024苇草思想者大会"在北京举行,多位专家围绕"自主武器系统的发展对国际法和战争伦理的挑战"这一主题展开了深入讨论。
自主武器系统带来的挑战
自主武器系统的发展对国际法和战争伦理提出了严峻挑战。中国人民大学信息学院教授陈禹指出,这实际上是对战争伦理本身的全面颠覆和重构。战争的意义和合理性需要从根本上重新思考,这不是人工智能武器带来的新问题,而是自人类使用武器以来就存在的问题。
策展人、新媒体艺术家陈娱则强调,自主武器的使用需要被严格规范,每个国家都应保留一些尖端技术,并严格把控。国际社会应快速建立相关法律,以制约可能发生的不稳定事件。
科技哲学学者段伟文认为,自主武器系统的规范主要取决于中美两国在人工智能武器化或军用人工智能领域的对话。他指出,核武器主要掌握在国家手中,而人工智能自主武器可能被非国家实体掌握,这增加了规范的难度。
国际法面临的挑战
自主武器系统对国际人道法提出了巨大挑战。国际人道法对武装冲突中的行为有明确规范,如区分平民与战斗人员、禁止不必要的伤害等。然而,在复杂的战场环境中,自主武器能否正确区分平民和敌军,能否在几秒内做出基于伦理和法律的选择,仍然是悬而未决的问题。
此外,自主武器系统的使用也会带来责任问题。如果系统误杀平民或造成严重军事灾难,责任归属难以界定。当前的国际法律框架无法明确界定这些责任,使受害人难以寻求正义,也使决策者在部署此类武器时缺乏法律约束。
伦理冲击与安全考量
自主武器系统还挑战了传统的战争伦理。战争决策涉及生死考量,必须尊重人类价值观。然而,人工智能并不具备道德判断力,其决策基于算法而非人类伦理观念。因此,在实际作战中,自主武器可能会做出非人道行为,如误杀平民、无法合理控制伤害程度等。
更令人担忧的是,自主武器可能会降低战争的"负担"。如果国家能够利用这些系统引发"无代价"的战争,即无需牺牲士兵的生命,那么军事冲突将会变得更加频繁和失控。战争的控制权从人类转移到机器,可能带来不可控的后果,比如因系统故障或黑客攻击而引发冲突。
如何确保安全性和可控性
确保自主武器系统的安全性和可控性成为重中之重。首先,自主武器系统必须具备可解释性,确保人类可以理解和预判其行为。透明性是关键,系统应能够对其决策做出合理解释,以防止误判和漏洞。
其次,"人类控制"原则不可动摇。无论人工智能如何先进,关键的作战决策都必须由人类控制。因此,军事应用可以建立"人类监督"机制,确保在武器系统启动或执行攻击时,人类可以终止。此外,所有自动化系统在部署前必须进行严格的测试与验证,以确保其在各种极端情况下的可靠性,避免因技术失控造成灾难。
国际社会的应对之道
国际社会应加强自主武器系统的监管,设立明确的道德界限,确保在战场上对生命的尊重。特别是要对自主武器的设计进行限制,确保其在交战中无法轻易识别和攻击特定群体,避免人道灾难的发生。此外,需要建立国际性协议,规范自主武器的开发和使用范畴,防止技术被滥用以削弱国际和平与稳定。
经济学家滕泰指出,自工业革命以来,科技的快速发展已多次对社会体制与伦理法律造成重大冲击。人工智能正是这样一次具有革命性的技术突破。虽然通用人工智能可能带来的社会变革尚显遥远,但自主武器系统已经将迫切的伦理困境摆在了我们面前。自主武器在现代战争中的可控性、使用规范,都必须尽快在国际社会层面提上议事日程。
专家观点集锦
刘兴亮(知名数字经济学者、DCCI互联网研究院院长):自主武器系统对国际人道法提出了巨大挑战。国际人道法对武装冲突中的行为有明确规范,如区分平民与战斗人员、禁止不必要的伤害等。然而,在复杂的战场环境中,自主武器能否正确区分平民和敌军,能否在几秒内做出基于伦理和法律的选择,仍然是悬而未决的问题。
段伟文(科技哲学学者):自主武器系统的规范主要取决于中美两国在人工智能武器化或军用人工智能领域的对话。他指出,核武器主要掌握在国家手中,而人工智能自主武器可能被非国家实体掌握,这增加了规范的难度。
万涛(知名网络安全专家、IDF(极安客)实验室联合创始人):自主武器系统的发展可能引发各国之间的军备竞赛,导致军事对抗升级和地区局势紧张。一些国家可能会为了获取军事优势,大力投入资源研发和部署自主武器,破坏地区和全球的战略平衡,增加冲突的潜在风险。
王健(对外经济贸易大学国际经济贸易学院教授):人工智能与自主武器与任何人类发明的武器是一样的,它们都是双刃剑。不当地使用会给人类本身带来灾难。真正能够避免人类灾难的是,人类要控制住自己的决策和行为。如果把人工智能与自主武器当做人类的一个附属工具,那就不存在责任不清的问题。人工智能的自主性是不能排除人本身的责任的。人会找出各种借口和方式去避免或模糊个体承担的社会责任,而模糊人的个体责任是危险的。强调个人权利和责任是非常重要的。
许剑秋(东方音像出版社社长):应该签署国际条约。可控性问题属于政治问题,不是技术问题。对非民主国家要严格控制。
阳淼(IT传媒人、“山寨发布会”创始人):自主武器可能颠覆现有战争伦理。由AI驱动的自主武器,将剥夺人类生命这一行为由人本身转移到机器和预先设定的规则,取消了人与人进行交互的伦理底座,极大降低了限制战争烈度的诸多现行设定。
张其亮(京彩未来家联合创始人/总裁):人工智能和自主武器的本质是脱离人的操作。很显然,这个技术会减少人员的伤亡,也会加大领导人的损耗,比如我们看到以色列的定点清除战术,就非常有效。是对平民最好的技术,也可以让偏好发动战争的领导人忌惮,不再愿意轻易发动战争。如果恶人不再愿意选择战争手段解决分歧,那么我们就朝文明前进了一大步,战争发生的概率就会大大减少,所谓战争归属问题也就变成了伪命题。所以,对于爱好和平的文明世界来说,人工智能和自主武器有百益而无一害。担心这个技术发展方向的,只有肮脏的恐怖主义分子。
郑世文(宁德新能源科技有限公司业务连续性管理助理总监):人工智能用于武器和作战系统是大势所趋,可以大幅提升作战效率,同时大幅降低战损。战争期间的交战双方基本不考虑伦理和法律,这是战争结束后的议题。
这场讨论展示了国际社会对自主武器系统发展的复杂态度。虽然技术进步带来了前所未有的军事优势,但随之而来的伦理和法律挑战也日益凸显。如何在追求军事优势的同时,确保人类的道德底线不被突破,是国际社会亟需解决的重大课题。