作者简介:江 河,男,湖北黄冈人,中南财经政法大学国际法学院教授,博士生导师,法学博士,研究方向:国际法基础理论、国际组织法和国际海洋法。
摘要:在数智化时代,人工智能在军事领域的广泛应用重塑了现代战争形态,使传统国际人道法面临理论和规范层面的新挑战。法学的基本范畴及其辩证关系成为重构国际人道法理论和规范体系的重要范式。明确界定人工智能军事应用主体责任与客体行为的本质以及主客体之价值关系,是其规范重构的理论基础。在主体论层面,人机交互的权责模糊性导致个人与国家的主体归责陷入困境;在客体论层面,人工智能武器的自主性导致现代作战行为在外延上的不确定性。为了解决这种主客体问题,应通过价值引领与规范调适实现技术理性与人道原则的动态平衡。在价值论层面,全人类共同价值和安全共同体理念将重塑国际人道法价值秩序,“智能向善”的正义理念将推动其实质价值和人类安全共同体之间的互动性建构。基于法学基本范畴的辩证关系,国际人道法应回应主体、客体及其价值的变革对本体进行建构,在价值体系守正和实证规范创新中完善适应人工智能时代的规范体系。作为负责任大国,中国应积极参与全球规则制定,推动构建技术发展与伦理审查并重的治理框架,为人类安全共同体的国际法实践贡献智慧。
关键词:国际人道法;人工智能;法学的基本范畴;主体责任;战争行为
在新一轮信息革命和科技革命的推动下,人工智能技术的应用拓展到军事领域,并成为大国军备竞赛的焦点。人工智能武器具有一定的自主性,但在可解释性、认知能力等方面仍较为薄弱,无法像受过训练的人类一样能够对模糊不定和复杂多变的情况做出准确判断。同时,人工智能的军事应用也面临算法黑箱和价值规范困境,这给传统国际人道法理论和实践带来了挑战。基于国际法的开放性,在人工智能军事应用的规制问题上,国际人道法的理论与规范都存在现实的盲区,并在实践中受到大国政治的影响。法学的基本范畴及其互动原理将有利于对这种理论和实践问题进行有效的回应。沿着法学基本范畴的系统性和关联性逻辑,人工智能军事应用规制的法律实践在社科法学和法教义学的“生成式对抗学习”中推动了国际人道法规范体系的迭代发展,这也是国际法本体对现实的法律主体和客体及其价值塑造的开放性回应。
一、人工智能军事应用的国际人道法问题及其基本范畴
在信息革命的推动下,人工智能技术正在迅速渗透到军事领域,尤其是人工智能的军事应用将成为未来战争的关键变量,它必然推动军事革命的深刻变革。人工智能武器的自主性挑战了传统的战争规则和法律框架。在这种背景下,国际人道法亟需进行理论和规范的重构,以适应现代军事技术变革。以哲学的主客体及其价值建构功能为核心,法学的基本范畴为国际人道法的理论建构和规范形塑确立了主导性范式。从主体论、客体论、价值论等法学基本范畴出发,人工智能的军事应用不仅要求对现有法律制度进行批判性反思,也必然推动国际人道法基础理论的重塑,进而推动国际法的创新和发展。
(一)人工智能的军事应用与国际人道法的危机
“人工智能”的概念最早出现于1956年达特茅斯会议。从技术哲学层面审视,其实质是通过算法建模和数据训练构建类人智能系统。该技术由“人工”与“智能”双重维度构成,“人工”强调技术的人造属性,“智能”则是指知识和智力的总和。前者是一切智能行为的基础,后者是获取知识并应用知识求解问题的能力。随着人工智能技术的应用渗透至各种社会领域,这必然会对法律带来全面而又深刻的影响,因为法律的调整对象正是社会关系。这种影响在军事应用上也不例外,历史经验表明,重大技术创新往往率先实现军事应用转化。在军事战争中,武器具有重要地位和决定性意义,其本质是作战、杀戮和毁灭的工具。人工智能对军事领域的变革性影响最先体现于武器装备层面,特别是催生人工智能武器的发展。以武装无人机的技术演进为例,该装备从无人靶机起步,历经无线遥控、编程控制阶段,现已经发展为兼具侦察监视与精准打击功能的智能作战系统。当前,武装无人机朝着自动化控制方向发展,在“可自主锁定目标”后出现了经人类授权攻击的土耳其“Kargu2”型之类的半自动式武装无人机,以及美国“忠诚僚机”之类的全自动武装无人机。
人工智能武器的核心特征在于其拟制的“主体性”,即以“智能”为基础的“自主性”,该属性源自算法系统对人类认知能力的模拟和发展。具体而言,人工智能依托大模型获取并汇聚海量数据,逐步形成“学习”能力。其中,数据相当于人类的知识,模型则负责按照内在逻辑将这些知识要素加以组织和呈现。正因为在形式上能够模拟人类的逻辑思维,人工智能才被赋予了“主体性”。而这种逻辑思维能力的实现,依托于数学运算对人类思考过程的还原:在算法处理数据的环节中,积分运算相当于对微观信息的整合与归纳,微分运算则构成对宏观信息的拆分与演绎。单次的积分—微分流程,虽能构成线性函数的分析框架,却难以全面复制或描述人类的非线性的复杂思考模式。要使人工智能武器真正具备类似人类的复杂思维能力,除微积分和归纳、演绎外,还须引入数学之概率论和逻辑学之类比思维的多维分析机制。概率论和类比思维的介入,可根据外部环境和条件的变化,灵活调整数学运算路径,使逻辑推理不再局限于单一维度和线性逻辑,并在社会实践的灰色或前沿领域突破归纳和演绎互动形成的封闭性知识体系,从而呈现多元、动态的历时优化过程。就哲学层面而言,人工智能实为“形式知识”与“实质知识”的统一体:前者对应人类认识物理世界和观念世界的理性方法,即数学的计算和逻辑学的推理及其互动过程;后者则对应自然科学、社会科学和人文学科的数据信息或观念体系。这种双重结合,正是人工智能武器能够模拟并演化“主体性”的根本所在。
作为一种新兴武器类型,人工智能武器应受到国际法的规制,然而传统国际人道法并未预见武器系统能够模拟人类战斗员自主选择目标并做出攻击决策。人工智能技术飞跃所带来的直接挑战在于,传统国际人道法框架下作为客体的武器发展为大模型,其可以在开发过程中通过主体和客体之间的生成式对抗训练实现主客体的同化。因此,智能化的武器具有智能设计者和数据控制者的主体性,即主观能动性,这使人工智能武器具备了某种程度的“法律主体”资格和行为能力。在主体责任方面,人工智能武器的开发呈现出技术集成性特征,其“生产—扩散—部署—使用”链条涉及多重主体,包括开发者、使用者、生产者、销售者以及取得并部署武器的国家等。此外,此类武器的控制机制呈现出多层级性,其自主性可贯穿于整个观察—判断—决策—行动环节(OODA)。由此,厘清人工智能在多大程度上、在决策的哪个环节影响了特定系统的最终结果,以及人类在其中所扮演的角色,变得异常困难,并可能导致责任真空问题。在客观方面,人工智能武器本质上仍属于武器范畴,应当符合国际人道法对武器的要求,即人工智能武器本身必须是性质上合法的武器,以及此类型武器在发起攻击时应当遵守区分原则和比例原则等国际人道法规范。
(二)人工智能军事应用之人道法规制的关联性范畴
所有学科的知识体系均受其基本范畴支配。范畴研究不仅揭示客观事物相互联系和动态变化发展的规律,也为社会科学的理论和实证研究提供了理性工具。在法学领域,如果将法律作为一个宏观的研究对象,那么纵向和横向范畴体系都可以为其研究提供理论框架。前者对应一种效力和优先性的等级体系,由基石范畴、中心范畴、基本范畴和普通范畴组成。其中,基石范畴是整个范畴体系的基础,其形成由法律文化通过具有优先性的法律价值体系所决定。然而,民族国家文化的多元性和政治体制的差异性导致了法律价值的冲突,各国难以就国际法的基石范畴和中心范畴达成共识,因此纵向范畴体系无法成为国际法的主导性研究范式。相比之下,由主体论范畴、价值论范畴、本体论范畴、客体论范畴、运行论范畴和关联性范畴构成的横向范畴体系在国际法研究中更具有一般的适用性,这源于国际法的原始性,也导致了国际法的开放性。因此,横向范畴体系更有利于探讨人工智能武器规制的国际人道法理论建构问题。
国际法的横向范畴体系由主体论、客体论、价值论及本体论等基本范畴构成。其中,主体论揭示法律人格的形成及其法律主体性的强化规律。国际法的演进历程实质上是国际法主体及其主体性变迁的历史,这决定了主体论在国际法研究中的主导性地位。威斯特伐利亚体系确立了近代民族国家的主体地位,以主权国家为基石,以国家主权原则为支柱,初具体系性的国际法得以形成。民族解放运动使发展中国家独立为具有完整主权的法律人格,并发展出其具体的法律权利。在两次世界大战之后,派生性的国际组织和特定情形下的个人成为国际法的主体,国际法的本体构成也因此得到拓展,国际人权法和国际组织法成为国际法的重要分支。此后,国际社会对基本人权与人类共同利益的关注促使国际法的人本主义倾向越发明显。客体论聚焦法律所调整的社会关系,本质在于揭示法律关系的客观属性与规范价值。价值论主要分析主体在建构法律本体时的主观价值诉求。法律的本体可以被界定为现实的法律体系或法律渊源,其可以被描述为由宏观法律文化、中观法律原则和微观法律规则组成的同心圆体系。法律价值通过外围的法律文化为中环的法律原则和内核的法律规则提供合法性资源。在横向范畴体系下,价值论构成主体论与其它范畴互动的枢纽,主体对客体的价值追求主导着国际法本体的塑造。
主体论、客体论、价值论和本体论这四大横向范畴之间的互动关系,有助于回应人工智能时代国际人道法所面临的系列挑战,可以作为重塑国际人道法的理论坐标。在主体论方面,传统国际人道法仅认可个人和国家两类责任主体,但人工智能具有主体性,其军事应用可能意味着新的责任主体即将出现。即使人工智能尚未具备类似于人类的完全法律人格,其军事应用也可能会给既有的主体责任认定带来冲击。例如,在使用人工智能武器时,个人很可能会以人工智能武器具有自主性为由主张抗辩。在客体论层面,国际人道法的客体既包括“战争行为”,又涵盖其引发的其他社会关系,而人工智能武器的使用会形塑出新类型、新形态的战争行为,亟待国际人道法予以回应。在价值论层面,价值是客体对主体主观需求的满足,以往国际人道法的价值追求只着眼于个体的安全,欠缺一种整体性视角,随着人工智能在军事领域被广泛应用,应当关注全人类共同安全,构建人类安全共同体,以防止人工智能异化导致全人类的生存危机。主体通过价值形塑本体,因此国际人道的主体、客体和价值在实践中面临新挑战,这将推动其规范体系与时俱进地发展。
二、人工智能军事应用规制的主体责任
基于主体论的视角,人工智能军事应用对国际人道法的挑战说明,既有的主体责任制度面临着重构之必要。这种必要性源自人机交互的主体不确定性给国际人道法归责带来的新困境,根源则是人工智能应用所造成的主体性危机以及算法黑箱的存在。一方面,自主武器系统的出现引起主客体间的异化,其算法决策机制颠覆了传统战争中“人类主体—技术工具”的二元关系,技术客体通过自主性功能获得类主体属性,导致人类从军事决策核心退化为系统运行的边缘参与者,由此引发责任归属的模糊化与伦理能动性的消解;另一方面,算法的不可解释性即黑箱效应直接消解了国际人道法的核心原则,其不仅遮蔽了区分原则中战斗员与平民的判定逻辑,更将比例原则简化为参数化的阈值计算,使得法律规范所要求的伦理灵活性被固化为机械的程序预设。这种技术特性与法律价值之间的根本性冲突构成研究人工智能军事应用主体责任问题的起点。
(一)人机交互的主体不确定性及其归因标准
在现代战争中,人工智能武器通过传感器、算法与执行机构形成复杂的人机交互链条。该现象本质上涉及技术哲学中主体性的重构,从康德强调的“理性主体”到技术介入下的“人机复合主体”,传统以人类为中心的主体性框架显然已遭遇严重挑战,以主体不确定性为内核的人机协同模式正日渐成为数智化时代的新常态。当前人机协同模式主要分为“人在环中”“人在环上”与“人在环外”三种类型,分别对应于人类完全控制系统行为、按需介入监管、仅设定目标或限制后由系统自主决策与执行。这三种不同的人机协同模式本质上映射出主体性让渡或异化的梯度差异。当技术系统从工具性客体转变为认知性代理,例如承担目标识别或战术决策功能时,人类的主体性从绝对支配退化为有限干预,形成哈贝马斯所批判的“生活世界的殖民化”的具象化场景。在此过程中,算法作为人工认知架构具有特殊的理论意涵,它既是人类主体认知逻辑的数字化投射,通过数据训练模拟人类决策模式,又因其数学模型的封闭性,例如深度神经网络复杂的内部运算,导致决策过程难以被理解,从而违背透明性原则。这种悖论使得算法黑箱问题超越单纯的技术缺陷,直指主体性认知的哲学困境。正如现象学揭示的意识黑箱,人类既无法完全解释自身思维的神经生物学基础,也难以穿透算法系统的符号化推理路径。当人工智能武器通过数据输入、模型运算与决策输出的链条替代人类认知时,主体性实际上已被拆解重组,不仅行动自主性受限于预设参数,决策意向也从个体意志转化为概率分布。最终,由于系统强化学习之类的自适应性有可能引发策略偏离,责任归属问题也因其行为的不确定性而变得模糊不清。
这种主体性危机在国际人道法场域中进一步被激化,并表现为传统法律规范的陡然失灵及其内在逻辑的根本性断裂。从历时视角来看,传统法律体系以人类主体为责任载体,预设决策透明度与意图可追溯性,而算法黑箱遮蔽的不仅是技术过程,更是主体行为的伦理可解释性,因而势必会给以往的归因标准带来全方位的革命性影响。这是因为,传统战争伦理以人类理性为核心,犯罪构成理论完全依托主体确定性建构。具体而言它以康德式先验主体为根基,以四要件理论为基础,通过对象认知的意向性、行为支配的因果性、责任载体的同一性以及主观意志的可溯性来保证主体责任追究的确定性。然而,人工智能武器正借助认知架构的“技术具身化”逐步瓦解这种传统的归责范式。
在对象层面,人类主体凭借道德理性建构的区分原则被算法降维处理为数据标签的统计概率,环境噪声和模型偏差导致目标识别的伦理判断退化为机械匹配。作为客观方面的行为因果链条的断裂则更为明显,从武器研发的参数设定到战场部署的自主决策,人类对技术系统的控制权被稀释为碎片化干预,算法黑箱不仅模糊“有效控制”的权责边界,更使《罗马规约》预设的线性因果关系被非线性技术网络解构。责任主体范畴的扩张暴露出传统军事身份体系的局限性,当程序员的技术理性与指挥官的作战意图共同嵌入武器系统时,主体性从单一人类载体裂变为“人—机—制度”的复合体,个体责任消融于技术系统的集体无意识之中。主观要件认定则面临双重困境:一方面,人工智能缺乏现象学意义上的意向性投射,其行为无法映射心理事实;另一方面,人类操作者因技术依赖形成的认知惰性,亦使“故意或过失”的判断标准失去伦理实践的真实情境,变得不再可靠。这种历时性演变不仅削弱了四要件理论的解释力,更揭示出现代性困境中主体性哲学的深刻危机,即当技术系统获得认知代理能力时,“人类作为唯一责任主体”的传统预设已难以维系规范世界的秩序。
(二)人机交互下归责范式的历时与共时形构
国际人道法责任主体的历时性嬗变与共时性张力,揭示了人机交互场景下归责范式重构的必然逻辑。从集体责任向个体责任的历时演进中,传统主权屏障庇护下的责任豁免机制逐渐被突破。19世纪国际法将战争罪责全然归于国家主体,形成集体无意识下的正义真空;纽伦堡审判以来,个人刑事责任的确立标志着主体性向个体伦理的回归,但冷战后前南刑庭与卢旺达法庭的实践暴露出身份标签化归责的局限。当武装无人机操作员、远程导弹操作员等“技术化作战者”通过人机交互实施暴行时,其非军事身份与算法中介性动摇了传统人道法预设的主体同一性框架。这种断裂在共时维度更为尖锐,自主武器系统将指挥链解构为“研发—部署—执行”的技术网络,程序员的参数设定、指挥官的阈值授权与操作员的人机协同共同构成分布式责任节点,传统“国家—个人”二元体系已无法适应技术殖民化战场所重构的权力格局。
为此,必须摒弃仅凭身份判断的思路,转向实质化考量。如依据红十字国际委员会发布的《国际人道法中直接参加敌对行动定义的解释性指南》(以下简称《解释性指南》),当不具备战斗员身份的武装无人机操作者在攻击中同时满足损害下限、直接因果关系与交战联系三要件时,即应认定其直接参加了敌对行动,承担相应责任。与此同时,人机交互的不确定性既削弱了传统因果关系的认定基础,也使主观要件的证明更加困难;再加之公众对人工智能实施战争罪行的容忍度普遍低于对人类实施同种罪行的容忍度,因此在归责时应更多地从客观角度出发,主张严格责任。鉴于人工智能的自主性意味着其行为具有有限的可预测性、可控制性和可解释性,因此所有参与环节的行为人都应认识到:一旦部署预测性能不明的自动化武器,平民与民用设施即处于难以控制的巨大风险当中。因此,相关行为人实际上应当负有比一般国际犯罪更高的预见义务。例如,如果某一人工智能武器的性能和效果无法被准确预测,但指挥官仍决定部署,这种放任的行为即是违反了应有的预见义务,应当对其应预见的后果承担责任。
当个人因技术黑箱或责任链断裂无法被问责时,国家责任的触发可类比民法中高风险作业的严格责任制度。正如化工企业对剧毒物质泄漏承担无过错责任一样,在国际人道法场域中,国家作为自主武器系统的控制者与最终受益者,须对技术失控引发的损害承担严格责任。这种归责逻辑在外空法领域亦有所体现,《外空条约》确立的“发射国对卫星活动损害承担国际连带责任”原则,本质上将私营航天企业的技术风险转化为国家治理义务,这与《国家责任条款》中将自主武器行为视为“国家武力使用之延伸”的法理同构。无论损害源于算法缺陷还是操作失误,国家均不得以技术复杂性或决策自主性抗辩免责,其归责核心始终在于行为对国际义务的违反,而非主观过错的可归责性。
这种严格责任的法理正当性源自风险控制与利益平衡的双重逻辑。与民法要求高空作业者采取特殊防护措施类似,《第一附加议定书》第36条赋予国家武器合法性审查义务,实质上是将自主武器视为“法律意义上的高危技术系统”,要求国家通过算法审计、攻击模拟测试等技术治理手段,将区分原则与比例原则“编译”入系统决策逻辑。正如卫星发射国需通过许可证制度确保私营企业遵守外空环保标准,使用自主武器的国家必须建立“从代码到战场”的全周期合规审查链,否则即构成对注意义务的实质性违反。在此框架下,即便存在不可抗力等免责事由,国家仍需证明其已穷尽技术可能性降低算法偏见与误判风险,否则仍对应预见的法益侵害承担责任。这种制度设计既延续了外空法“风险社会下国家作为最终担保者”的治理智慧,也为破解人机交互引发的归责悖论提供了规范性锚点。总之,严格责任在国际人道法中的适用本质上是对技术权力不对称性的矫正性回应,标志着国际人道法从“人类中心主义过错伦理”向“技术共生主义风险伦理”的范式跃迁。当技术成为战争权力的构成性要素时,责任分配必须超越对主观恶意的追溯,转而聚焦于风险社会的结构性正义,即谁拥有技术支配权,谁就应为技术失控的后果负责。
三、人工智能军事应用规制的客观行为
人工智能在军事领域主要以武器的形式出现,交战者、战争行为、战争受害者都是通过武器的使用而形成法律所规制的社会关系,因而除了其主体性之外,人工智能的军事应用行为必然还会涉及战争法规的适用。战争法分为“诉诸战争的法”(jus ad bellum)和“战争中的法”(jus in bello):前者关注开战正义,与武器的性质和使用无关;后者强调交战正义,包括对战争手段(means)和战争方法(methods)的限制,以及对平民、战俘等非交战人员的保护。作为一种新兴的战争手段,人工智能武器并不会改变已有的作战方法,但须论证其本身合法性,才能投入战场,亦需考量其在实战中是否遵循国际人道法规范。本质上,战争手段主要是指作战武器的选择和使用,基于战争受难者的保护宗旨,武器的规制是基于其客观的杀伤力。更为重要的是,在人工智能的主客体异化中,其“智能”可能会导致主动的故意伤害和被动的无意伤害,这便使行为客体的规制又延伸到上游的人工智能武器的研发行为之中。
(一)人工智能武器研发行为的合法性
人工智能武器研发行为是否合法,核心在于评估所研发的武器在正常或预期用途下,其本质是否符合国际人道法对武器的基本要求,不合法的武器将因缺乏合法性基础而不得在武装冲突中部署和使用。根据《第一附加议定书》第36条确立的武器审查制度,各国不论是否负有条约义务,在法律上都有责任通过审查其研发行为,保证其不会使用违禁武器。因此,对研发行为的合法性审查十分重要且必须贯穿于整个研发过程。该过程通常可划分为设计(design)、开发(development)、测试(testing)和部署(deployment)四个关键阶段:设计阶段是起点,需明确核心功能、自主性程度等关键参数并进行初步合法性评估,为整个研发设定法律与伦理框架;开发阶段将设计方案转化为软硬件原型,需集成算法、传感器等安全机制,将法律与伦理要求“编译”入系统架构;测试阶段在模拟或受控环境中检验系统表现,评估其区分目标能力、附带伤害风险及比例性合规情况,识别和修正技术缺陷;最终部署阶段将系统装备至作战平台,并通过操作手册、人员培训及“有意义的人类控制”机制确保实战遵守规范。这四个阶段共同服务于一个核心目标,即确保人工智能武器系统从构想到实战应用的整个生命周期,都受到国际人道法原则的有效约束。这种全周期的合规性要求,既是对主体责任困境的回应——通过明确各阶段参与主体的法律义务来防止责任真空的出现;也是对“价值取向”所强调的“人类终极控制权”和“智能向善”理念的制度性保障。尽管现行国际条约尚未针对人工智能武器的研发制定专门审查条款,但《海牙公约》、《日内瓦公约》以及国际人道法领域的习惯国际法规定的两项核心审查标准——“禁止引起过分伤害或不必要痛苦的武器”与“禁止性质上不分皂白的武器”以及马尔顿条款确立的伦理基准,共同构成了评估人工智能武器研发合法性的审查框架。
“禁止引起过分伤害或不必要痛苦的武器”可从两个维度解析:其一,“过分伤害”指武器是否导致战斗员永久性伤残或非人道死亡;其二,“不必要痛苦”指武器造成的痛苦是否超出实现合法军事目的的必要限度。在评估人工智能武器研发行为合法性时,这项核心标准必须动态地、整体地贯穿于武器研发的全流程。具体而言,研发者从设计伊始就应该界定合理的伤害阈值概念,并在开发中将限制过度伤害的技术机制内嵌于系统架构。该过程并非孤立的一次性任务,而需在测试阶段通过高强度的场景模拟持续验证其有效性,并在部署阶段通过严格的规则设定和人员培训,确保“有意义的人类控制”机制能有效阻止算法失控或误判导致的非人道后果。此过程直接回应了主体论之“主体责任”关于算法黑箱和责任链断裂的困境,即通过预设可验证的技术约束和清晰的干预节点,从源头上降低因系统不可预测性而导致的归责难度,并为后续个人或国家的严格责任认定提供客观依据。
“禁止性质上不分皂白的武器”可以被分为两大基本类型。第一类指存在技术设计缺陷或固有构造特征而无法精确瞄准军事目标的武器;第二类指效果不可控制或预测的武器。在“核武器咨询意见案”审理过程中,多国法律意见书均强调:如果武器的毁伤效果不可控,或可能造成与预期军事利益明显不成比例的附带平民损害,即应认定为违反区分原则的不分皂白武器。这项标准的落实,需要在研发全流程中进行系统性风险防控与技术治理。设计源头必须排除可能导致固有不可区分性的算法逻辑或硬件缺陷,开发阶段的核心则是构建稳健的目标识别能力,这些技术措施还要在测试阶段经受极端复杂的场景测试,以暴露并修正潜在误判风险与系统性偏差。确保区分能力充分地应用于军事实践,关键在于部署阶段确立清晰的操作规则并对操作人员进行培训,严格禁止在目标身份存疑或识别结果可靠性不足时进行自主攻击决策。将“存疑推定为平民”这一人道法黄金法则转化为算法逻辑中的保守预设和操作规则中的强制性禁令,可为责任认定确立清晰的客观行为标准。这不仅是技术可行性的要求,更是对“主体责任”中“人机交互不确定性”挑战的有效回应。
就马尔顿条款而言,该条款为人工智能武器的审查提供了兜底性伦理标准,研发的人工智能武器应符合马尔顿条款。该条款要求在国际法未明确规定的情况下,使用的武器仍需要受“公众良知”和“人道法原则”的约束。国际法院表示不应对马尔顿条款的存在和适用予以质疑,而且它已被证明是应对军事科技迅猛发展的有效手段。在国际人道法框架下,人工智能武器的研发行为是否合法,需要区分武器的自主性程度,并对攻击目标进行探究。依据这两项标准,人工智能武器可以被分为致命性自主武器以及非致命性自主武器。致命性自主武器的研发行为因触及国际人道法的核心价值而具有绝对违法性。该类武器的本质特征在于完全或主要依赖算法自主决定对人类目标的杀伤行动,这使得机器获得了决定人类生死的终极权力,严重贬损了人类尊严这一国际法的基础性价值,突破了马尔顿条款所确立的“公众良知”,其研发具有绝对违法性。非致命性自主武器的研发合法性则需进行个案评估,并正视其固有的技术风险。这类风险包括算法偏见可能违反区分原则、算法黑箱导致责任认定困难以及人工智能自主学习引发行为失控等,因此必须通过严格的法律与技术评估,确保其在设计、开发、测试及部署阶段始终符合国际人道法规范,方能满足马尔顿条款的要求。
综上所述,人工智能武器研发行为必须始终处于国际人道法的审视之下。为保证其合法性,在设计、制造、测试及部署的全流程中,基于既定核心标准开展系统性审查已构成不可或缺的法律义务。唯有通过这种动态且严格的合规性验证,才能确保研发行为本身及其最终产物——人工智能武器系统,在预期使用中恪守国际人道法的基本价值与底线。
(二)人工智能武器使用行为的合法性
即使人工智能武器的初始设定符合条件,但是在实际作战中,各种不可预测的因素可能会干扰程序的正常运行,因此还需要进一步考察这类武器在实战中能否遵守区分原则和比例原则。区分原则通过《第一附加议定书》第48条确立了两点区分义务:人员层面须区分战斗员与平民,且存疑时推定为平民身份;物体层面须区分军事目标与民用物体,且存疑时推定为民用设施。此外,该原则确立了丧失战斗能力者、明确投降者以及处于敌方实际控制下的非抵抗人员的绝对保护地位和平民动态身份转换规则,即平民参加敌对行动即丧失免受直接攻击的权利。人工智能武器适用该原则面临三重困境:首先,法律概念模糊性引发算法转化困境,如“直接参加敌对行动”中“直接因果关系”与“持续作战职责”的认定分歧、“两用设施”功能性判断的主观性,均可能受算法偏见影响导致决策错误。其次,现有技术识别能力存在物理局限。人工智能缺乏人类感官系统的情境理解能力,面部识别技术在伪装、遮挡或复杂光线条件下存在误判风险。最后,动态战场环境加剧应用复杂性。人工智能识别系统植入芯片和预设刚性判断参数等手段设定道德阈值,将战场情况转化为算法和数据进行自主分析,而战场并不是一成不变的数据,需要进行动态情景评估,军民身份转换、民用基础设施军事化改造等现象均对预设算法模型构成现实挑战。
根据《第一附加议定书》第51条和第57条确立的规范内涵,比例原则要求军事行动中的附带损害不得与预期军事利益显失均衡,强调军事优势必须显著超越平民伤亡和民用设施损毁。该原则确立的法律义务迫使交战方在攻击前权衡预期平民伤亡和军事效果,涉及损失数量、价值评估及伦理问题。然而,人工智能在军事领域的应用对比例原则构成了三种挑战:首先,动态战场环境加剧适用困境。一方面,“军民两用设施”的定性争议和“人体盾牌”战术的滥用等现实因素导致了事实认定与价值衡量的双重不确定性;另一方面,远程作战模式更加割裂了操作员与战场的物理联系,引发“传感器替代认知”偏差,数据链传输延迟又造成攻击指令发出与实际打击瞬间的战场态势断层,这种不对称性进一步放大判断误差,使比例原则的有效实施难上加难。其次,现有技术面临算法瓶颈,难以应对比例原则的主观性质。人工智能依赖预设参数进行定量分析,而比例原则对于“军事利益”的评估需要考量时域性与相关语境的定性判断,要求决策者具备动态情景认知与整体性价值权衡能力,这恰是人工智能模型的结构性缺陷。最后,伦理挑战尤为突出。国际人道法明确了生命价值的终极衡量权应专属具有道德主体性的人类,人工智能系统缺乏情感认知和伦理意识,即便实现“智能决策”,由其进行生死决策的正当性也无从立足,因为这既违背马尔顿条款确立的人道原则,也可能引发战争罪责认定的法律困境。
在数字化时代,作战模式正逐步转向以“技术决定论”为核心导向,人工智能在现代战争中的适用困境,本质上源于国际人道法理论的滞后性与新型数据驱动战争模式之间的结构性冲突。作为阐释国际人道法规则的重要文献,《解释性指南》虽具备学理权威性,却缺乏规范的法律约束力。即便其对“直接参与敌对行动”“军事目标”等国际人道法核心概念进行演化解释,通过引入“持续承担作战职责”等新标准细化相关规则的适用要件,但依然难以适应数字战争时代的现实需求。具体而言,当人工智能系统能够实时处理、分析海量行为数据并据此实施作战决策时,国际人道法仍依赖20世纪确立的实体性规范构建其保护框架,这种技术进步和规范滞后的代差在“区分原则”和“比例原则”的适用中尤为明显。在法学基本范畴的视域下,这种矛盾要求国际人道法理论突破传统路径依赖,重塑价值次序,进而发展和重构出与现代技术相适应的国际人道法规范,确保国际人道法能够有效规制人工智能在军事领域的应用,实现国际人道法的核心价值。
四、人工智能军事应用规制的价值取向
人工智能武器的主客体同化消解了国际人道法人类主体与技术客体的二元结构,致使传统规则因责任归属断裂和伦理判断失能而陷入规制真空。对此,应以主体、客体与价值的互动原理重构法律本体。在承认人机复合责任体现实的基础上,通过技术可追溯性穿透算法黑箱,同时坚守习惯国际法传承的区分原则、比例原则与人道原则的价值内核。其中,前者构成权利保护的形式框架,例如平民生存权的绝对性;后者锚定社会正义的实质伦理,例如技术权力对人类共同安全的从属性。数智化时代国际人道法的价值体系呈现双向演进,传统价值通过技术具身化实现转型,例如以算法可解释性审查延伸区分原则的适用边界;新兴价值则以智能向善为导向衍生出透明性、人类终极控制权等新范式。该价值论的双轨调适,既维系了战时人权保障的底线逻辑,也为探讨传统价值的数字化适配和新兴价值的规范性证成确立了理论坐标。
(一)“人类文明存续”与国际人道法价值的积分重塑
国际人道法的价值体系演进为规范新型作战手段提供了法理基础,是应对人工智能军事化挑战的关键。具言之,国际人道法的规范体系以自然权利保护为价值基石,其历史演进揭示了从国家权力本位向个体尊严本位的微分式嬗变。古埃及《卡迭石条约》对战俘生存权的确认,以及1864年《日内瓦公约》对伤兵最低待遇的设定,本质上都是对洛克自然法思想的早期制度化实践,即生命权与免受酷刑权构成战争伦理的绝对边界。二战后国际人道法的变革深度融入了核心人权的不可克减性原则。1949年《日内瓦四公约》共同第3条禁止酷刑和侮辱性待遇,与《公民权利与政治权利国际公约》第6条生命权、第7条免受酷刑权形成规范同源;1977年《第一附加议定书》确立的平民保护规则,实为战争场域中生命权作为强行法的具象表达。这种价值重心的转移在海牙体系与日内瓦体系的二元架构中得以显化,前者通过区分原则与比例原则约束国家武力行使方式,后者通过战俘待遇规则和平民保护条款确立个体权利清单,二者共同构成国家义务消极面向和个人权利积极面向的规范耦合。可见,国际人道法的演进规律揭示其终极正当性源于对个体权利的微分式确认,而“人类文明存续”恰是这种权利保障的积分式实现。
当前人工智能军事化引发的伦理危机,本质上威胁到国际人道法价值体系的微分根基。当算法决策系统以毫秒级速度对数百万生命权进行概率化裁量时,个体尊严的不可分割性正被技术暴力解构为可计算的损失函数。传统国际人道法通过区分原则、比例原则构建的个体权利微分保护机制,即每个平民的生命权作为独立变量受绝对保障,在自主武器集群的战场实践中遭遇系统性失效。算法对目标识别的统计偏好,如基于历史数据的战斗员特征建模,导致特定族群面临结构性误伤风险。与此同时,强化学习引发的策略偏移可能使攻击范围呈指数级扩散。而黑箱决策对因果关系的遮蔽,则使每次伤亡沦为无法追溯责任主体的数学偶然事件。这种技术特性不仅消解了《公民权利与政治权利国际公约》第6条生命权作为强行法的规范效力,更动摇了日内瓦体系确立的“个体权利积分即人类文明存续”的价值公理。当单次算法失误可造成纳粹集中营式的大规模权利践踏时,国际人道法必须发展出应对复数性人权危机的二阶导数规制工具。
在此背景下,技术治理正催生新型法律义务。算法透明性审查要求将神经网络决策过程转化为可验证的微分方程,使区分原则的伦理审慎具象为激活函数阈值设定。人类终极控制权的保留机制则通过预设攻击链路的雅可比矩阵中断条件,确保生命权保护的积分曲线不被技术奇点突破。这些变革揭示着国际人道法正从“个体权利微分确认”向“系统安全积分控制”的范式升级,其价值演进轴线始终锚定于战争场域中自然权利的不可约简性。这种范式转换预示了人工智能时代自然法复兴的必然性,因为只有人类的主体积分和正义的价值积分才能有效地应对人工智能武器应用的主客体异化风险。这既延续了从《卡迭石条约》到《第一附加议定书》的个体本位传统,又为数智化时代“智能向善”的正义价值证成建构了规范桥梁。当每一个微分形式的生命权保障构成人类安全积分的收敛基础时,任何军事人工智能的研发都必须以维持该积分系统的单调递增性为终极伦理判据。
(二)智能向善的正义意涵及其与人类安全共同体的同构
冷战后的非传统安全威胁解构了以国家军事防御为核心的传统安全观,暴露出碎片化安全模式的伦理缺陷。气候变化、网络攻击、生物恐怖主义等全球性危机,因其跨国性、不可分割性与权利侵害的复数性,本质上构成对国际正义秩序的持续性挑战。这种挑战的深层机理在于,非传统安全威胁多源于发展失衡、技术滥用等结构性非正义。例如,数字鸿沟加剧网络安全风险,资源掠夺诱发生态难民的产生。此类危害后果不再局限于主权疆域,而是通过全球供应链、信息网络与生态系统的传导,形成对人类整体安全的熵增效应。在此背景下,国际人道法的安全价值必须超越国家生存权的狭隘视域,转向构建以人类安全共同体为载体的正义化秩序。唯有当每个个体享有免于恐惧与匮乏的权利,即安全微分,被整合为历时和共时维度下全人类的持续性安全积分时,普遍安全的规范意义方能真正实现。
《联合国宪章》所确立的安全价值体系已隐含这种正义历时转向和共时互动的规范基因。联合国的基本宗旨的内在逻辑体现了从“防御性安全”到“发展性安全”的层级跃迁,揭示了安全与正义的辩证关联。安全秩序的稳定性取决于正义原则的实现程度,而正义的实现又以人类整体安全的可持续性为物质前提。例如,全球粮食危机的治理不仅需要消极安全干预性质的紧急援助,更需要积极性质的安全建构,即通过农业技术共享与贸易规则重构消除根源性非正义。而数智化时代的到来则进一步强化了这种价值体系的历时演进和共时互动逻辑。当自主武器、量子计算等颠覆性技术以指数级速度渗透于战争与社会,可能导致前所未有的安全风险与伦理挑战时,“智能向善”的伦理准则必须锚定于人类安全共同体的积分约束——即任何技术创新都应以提升而非削弱人类安全积分为终极目标。这种安全积分的计算维度既包括传统武装冲突中个体生命权与人格尊严的微分式保护,如通过将区分原则与比例原则转译为算法约束模型,以技术手段减少平民伤害与过度武力使用,更涵盖气候变化应对、数字权利保护等非传统安全领域的系统性正义分配,如通过碳排放算法实现全球公平建模和资源共享。唯有将安全价值从国家博弈的零和工具升华为人类共同体的存在论基础,方能有效遏制技术异化带来的正义秩序熵增效应,使国际人道法在新技术浪潮中继续发挥其作为维系文明存续负熵之源的核心功能,确保文明在挑战中延续与革新。
人类安全共同体理念的确立,标志着安全认知范式的重要转向:在指涉对象上,确立以人类主体性为核心的安全本体;在价值原则上,强调全球安全利益的不可分割性;在实现路径上,主张通过共生性安全架构实现集体安全。这种理论创新不仅为国际人道法体系的宏观演进提供价值引领,更为人工智能军事应用的规制确立了基准框架。这种安全范式在技术治理领域的具体实践就是确立人工智能价值对齐机制。这种机制是近年来人工智能法律治理的核心议题,本质上通过技术手段使人工智能的输出结果与人类意图、价值观及法律底线保持一致,其终极目标在于实现技术发展的价值归旨——智能向善,即通过确保人工智能始终服务于人类福祉与社会正义价值,防范技术异化导致的价值背离风险。唯有建构完善的价值对齐机制,方能有效规制人工智能可能引发的系统性安全风险,维护国际法治框架下的人类共同安全。
五、人工智能军事应用规制的本体重构
作战手段和方式革新导致国际人道法规制的“法律空白”或“灰色地带”,始终是国际人道法面临的核心挑战之一。国际人道法之所以能够在外部环境的不断冲击下,依然得到广泛的尊重和遵守,离不开其以“国际人道法价值—国际人道法基本原则—国际人道法现行规则”为基本架构的本体要素互动和历时重构。以人工智能武器使用规制的主客体困境为研究对象,在法学基本范畴辩证关系的支配下,国际人道法的主体性价值和人工智能技术革新的协调性互动将有效推动人工智能军事应用规制的法律重构。这在某种程度上决定了价值体系守正和实证规范创新成为其法律本体建构的两个基本面向,前者渊源于国际人道法的自然法本质,后者是人工智能所导致的法律关系数字化的客观回应,二者承前启后,沿着从主体论到价值论以及从自然法到实证法的逻辑系统作用于国际人道法的动态形塑。
(一)人工智能军事应用规制的价值体系守正
国际人道法的价值体系是由军事需要和人道保护两个要素组成的,其动态平衡兼具客观性和主观性。法的价值是法主体通过法追求的目的,尽管其形成和发展均受特定社会历史条件的影响而具有客观性,但其本质依然是法主体认识和选择的产物。因此,当人工智能时代成为国际人道法的新语境,国际人道法价值体系仍应以人类认知而非技术本身为中心;在此基础之上,以“智能向善”的理念向客观技术理性开放,方为守正之道。
详言之,技术革新能够立刻改变人类的客观行为模式,却无法同样快速地扭转人类对自我身体和意志边界的经验性认知——后者具有极强的历时惯性和共时普遍性。在人工智能深度参与作战的场景下,无论是对“谁在实施攻击”的困惑,还是对“是否应将生杀大权交给人工智能”的质疑,都表明人类无法随着技术发展而当然地将人工智能视同为“人”。相应地,在现有关于人工智能军事应用的国际人道法规制构想中,无论是试图重新拟制新型人机交互下的行为主体、责任主体,还是试图限制人工智能在人机交互中发挥的功能、禁止其担任特定的角色,其本质都是人类在新技术面前捍卫自身对“人”这一身份的固有认知的尝试。尽管在国际法的历史上,围绕“民族”“种族”等身份认同问题的争议从未间断,但对于何谓与非生命体相区分的“人”,国际社会的态度空前一致——人工智能并不具备“人”特有的道德伦理和恻隐之心。不同于其他身份认同问题所关涉的复杂政治、经济和文化要素,关于作为生命体的“人”的身份认同,建立在具有极高普遍性的情感要素上,而后者正是国际人道法的诞生起点,亦是其发展至今的动力源泉所在。因此,尊重人类基于“人”这一生命体的身份认同,保持对人工智能的工具性定位,是国际人道法价值体系守正的关键。
然而,这并不意味着国际人道法对人工智能技术的全面拒斥。“智能向善”是人工智能时代国际法的重要理念之一,要求人工智能技术理性与人类道德伦理对齐,服务于人类福祉。在国际人道法领域,虽然人类尚无法接受人工智能成为“战士”,但并不排斥将人工智能引入人道行动,让人工智能服务于最低限度的人道保障。例如,用人工智能预测平民迁徙路径、冲突升级趋势,以采取更加有效的预防措施;利用机器学习评估武器造成的人道后果(如残余爆炸物);用自然语言处理、遥感等技术支持战后责任追究与人道援助物资分发等等。在这个意义上,人工智能军事应用不一定必然导致军事需要与人道保护需要的失衡,而是呼唤着军事需要与人道保护需要的新平衡,后者正是国际人道法生命力所在。
(二)人工智能军事应用规制的实证规范创新
从国际人道法发展的角度来看,关于人工智能军事化背景下国际人道法“向何处去”的价值审思,最终仍需落实到对国际人道法实证规范的重构。目前,“有意义的人类控制”原则是国际社会就人工智能军事应用的国际人道法规制议题达成的基本共识,它为现行国际人道法规则的适用提供了解释框架,也为未来立法提供了价值基准。根据目前国际社会的商谈进程,该原则主要包含两个规范面向。
其一,在《常规武器公约》的框架内落实新武器合法性审查义务。尽管《日内瓦公约第一附加议定书》第36条确立了新武器合法性审查义务,要求缔约国评估新型武器是否符合国际法规范,但其仅规定抽象性义务,缺乏可操作性的实施细则,不利于具体实践操作。虽然红十字国际委员会发布的《新武器、新作战手段和方法法律审查指南》(以下简称《指南》)已经是对审查义务的有益补充,但该文件并无法律拘束力,且仍未能对人工智能武器作出针对性回应。因此,国际社会应借鉴《常规武器公约》对不可探测碎片武器、激光致盲武器等武器的前瞻性规范经验,启动人工智能武器专项议定书的起草工作,在《常规武器公约》框架下形成针对人工智能武器的附加议定书。鉴于由人工智能直接做出攻击决策的完全自主武器系统具有明显反人类特征,并威胁全人类存亡,禁止此类系统的开发是构建人类安全共同体的必然要求。而对于允许开发的人工智能武器,国际社会应推动建立国内法律审查机制,以《指南》为基础,通过制定双边或者多边条约确立履行审查义务和违规责任制度,建立完整的审查网络。既要尽可能纵深地覆盖自主武器系统研发、采购、部署的全流程,也要横向地通过全球化视角强化对各个环节的系统性关切。
其二,在国际人道法现行规则下落实人机交互全流程的风险评估和控制义务。例如,在传统战场上,对“平民”或“民用物体”地位的识别基本上只能以是否公开携带武器、是否具有外部标识等视觉外观为参考要素,因此现有国际人道法对“平民”概念的界定基于自然人的视觉逻辑;相应的,如果由人工智能替代决策,则研发者有义务预先设定识别程序,以算法逻辑固定判断标准。此外,国际人道法关于“平民受保护地位存疑情况下应推定为未丧失保护”的规定,也是针对人类认知和伦理结构的规范设计;而在算法逻辑下,对“明确”与“存疑”的界分以及分别指向何种决策,则需要更精细的不确定性建模与价值对齐。在识别军用目标方面,尽管红十字国际委员会已将具有军事性质的设施、交通枢纽及通信设备界定为军事目标,但此类目标与民用物品高度重叠,如果由人工智能武器仅依赖地点、外观或名称进行判断,极易造成误伤。因此,应归纳出军事目标的共性特征,并转化为可编程代码,将其细化为人工智能系统可识别和执行的标准。值得注意的是,在人工智能军事应用背景下,区分原则、比例原则的义务主体不再局限于位于操作终端的战斗员,而扩展至上游的研发者。
总而言之,“有意义的人类控制”要求在解释和适用区分原则、比例原则等现行国际人道法规范时关注人工智能的特性,同时不可忽视制定新规则的必要性。这种演进模式,既能现实地以人类控制机制防止算法偏离人道价值,确保武器系统恪守工具理性边界,又能面对未来地将人类尊严等伦理要素转化为可操作技术标准,为智能向善赋能。因此,应在技术进步与人性尊严间构建动态平衡,确保人工智能军事应用受制于人类的根本利益。
结语
随着科技的发展,人工智能在军事领域的应用日益增多,人工智能武器逐渐从幻想变为现实。传统上由人类主导的军事决策正逐步被自动化、智能化系统所取代,这种转变不仅影响了武装冲突中的行为主体和作战方式,也对国际人道法的基本原则——如区分原则、比例原则等提出了严峻考验。尤其是在自主武器系统的使用中,如何确保其能够准确识别战斗人员与平民、合理评估附带损害并在法律框架内进行合法攻击,已成为国际社会亟需解决的重要议题。为使国际人道法的传统价值在人工智能时代得到创造性转化和创新性发展,应以法学的基本范畴及其系统性关联为基本的理论框架,对人工智能武器给国际人道法带来的多维度挑战予以全面审视,以探索出规制人工智能军事应用的实践进路,从而在人类安全共同体的共建中保障基本人权。其中,中国作为负责任大国和人工智能技术的重要参与者,应在未来更深度参与联合国框架下的规则磋商,持续发挥建设性引领作用,秉持以人为本、智能向善的宗旨,坚持发展和安全并重,平衡推进应用和治理,确保人工智能技术安全、可靠、可控、公平,从而为在数智化时代守护人道主义文明底线贡献中国智慧和中国方案。
因篇幅限制,已省略注释及参考文献。
引注:江河:《人工智能军事应用的国际人道法规制:以法学的基本范畴为视域》,载《河北法学》2026年第1期,第52页-75页。