作者简介:左倩玉,女,山东聊城人,聊城大学法学院讲师,中国政法大学博士研究生,研究方向:刑法学;罗翔,男,湖南耒阳人,中国政法大学刑事司法学院教授,博士生导师,研究方向:刑法学。
摘要:人工智能技术基于深度学习、神经网络等复杂架构所形成的“黑箱”运行机制,导致其致害犯罪中因果流程的不可追溯性,对传统刑法因果关系判断规则形成适应性挑战,既难以通过直接观察认定算法相关行为与损害结果的关联,又无法依托一般社会经验推演因果链条。对此,以刑法因果关系理论的“相对确定性”为底层逻辑,结合人工智能技术的概率论与统计学特质,可构建“人类主体行为筛选—因果贡献度量化—可预见性归责校准”的三阶分析工具。同时,在辅助型、人机协同型、完全自主型人工智能的技术层级差异下,动态调整因果关系认定重心:辅助型人工智能侧重操作规范与算法合规审查,人机协同型人工智能强调行为筛选与量化模型的协同,完全自主型人工智能聚焦风险防控与责任分配社会化。最终通过“规范判断+数据支撑”的融合路径,在现行刑法框架内实现人工智能致害犯罪的合理归责。
关键词:人工智能;算法;因果关系;客观归责;概率
一、刑法因果关系认定规则在人工智能领域的适应性困境
(一)人工智能算法“黑箱”对传统因果关系认定的根本冲击
人工智能算法“黑箱”源于其自主运算特性与技术结构的高度复杂性,导致算法决策过程不透明、难以解释。这一特性从根本上改变了传统因果流程的结构,形成了“主体行为—算法自主运算—损害结果”的新型因果链条,使得传统依赖直接观察与生活经验的因果关系判断模式面临失效风险。
在事实认定层面,“黑箱”引发了双重困境:其一,难以追溯“何种行为实际导致损害结果”;其二,更难以确定“原因”本身的载体与作用路径。换言之,我们既无法清晰还原算法相关行为如何通过算法运算引发结果,也难以确认算法是否实质介入了因果进程。传统因果关系理论在应对算法“黑箱”时亦呈现系统性局限性:若以条件说分析人工智能场景中的算法相关行为,则难以筛选出具有刑法意义的原因。如智能驾驶事故中,数据采集偏差、模型训练缺陷、使用者操作违规等均是条件说中的“必要条件”。若通过合法则说进行判断,则人工智能算法的非线性映射特性无法通过现有科学法则完全解析,合法则说的“法则验证”难以实现。若适用相当因果关系说,则人工智能技术“黑箱”导致“一般社会经验”无法覆盖因果流程,如算法致害中,一般人难以预见诸如关键词匹配等系统运行逻辑与用户行为之间存在何种关联,相当性判断失去依据。
由此可见,在人工智能领域,算法作为高度不确定性变量介入因果流程后,事实因果关系的直接观测难度显著提升,并且难以通过一般社会经验推演,进而连锁性地提升了规范层面因果关系判断,包括结果归属认定的复杂性。
(二)现有因果关系解决方案的路径分野及其局限
学界针对算法“黑箱”引发的因果追溯与归责难题,形成“打开黑箱”与“绕行黑箱”两类探索路径:前者通过算法开源、技术破解追求可解释性,后者将“黑箱”视为整体,围绕算法相关因素判断结果归属,二者可互补推进。但当前对算法解释能力有限,“绕行黑箱”方案占据主导地位,且分化为“回避派”与“直面派”。
“回避派”侧重规避因果流程证立,如主张赋予人工智能刑事责任主体地位以替代因果论证、就人工智能犯罪增设危险犯或构建以“算法安全”为法益的“算法安全犯罪”体系,或按算法因果支配性分别适用过错责任、严格责任、义务型责任。“回避派”呈现出基于主体的先在地位和义务进行结果归属的特征,虽减轻了因果关系证明负担,但也可能导致对因果关系判断环节的架空,使得结果归属判断产生任意性,同时也会削弱其解释力。“直面派”致力于证立人工智能致害犯罪的因果流程,如提出“建立合法则条件集—条件公式检验—疫学因果关系验证”三阶段方案;或通过相关责任主体与人工智能决策侵害之间的“现实关联+控制支配程度”评价归责;或借鉴疫学因果关系理论,根据致损高概率确定原因。“直面派”致力于解读主体行为、技术缺陷与损害结果之间的关联,但多局限于传统领域中因果关系认定规则的直接使用,未能针对人工智能技术水平进行相应调适。
整体而言,规范层面上人工智能致害因果关系认定的核心困境是囿于决定论思路,试图先定性地决定致损原因,追求确定的因果关系链条。然而在人工智能领域,我们只能追求一种相对确定的答案。因此,人工智能致害因果关系的特殊性使得我们须在固守传统框架与直接放弃因果关系判断之间寻找一条折中路径。这条路径的寻找,必须首先回归刑法因果关系理论的底层逻辑,审视其是否内含应对此类新型风险的弹性空间。
二、人工智能致害犯罪因果关系的认定逻辑:技术视域中的相对确定性
(一)刑法因果关系理论的底层逻辑:在不确定性中寻求相对确定性
1.因果关系相对确定性的哲学根源
因果关系在哲学层面无统一定义,休谟与康德的理论为其核心基调。休谟将“存在”解构为人类观念的投射,在此基础上原因和结果本质上是感官被动接纳的印象,因果关系是人们根据观察和经验得出的事物间的某种关系,属于感觉印象或者习惯性联想。休谟后期补充“若非因果关系”定义,实际承认了因果关系包含客观联系成分。康德则通过先验演绎证明因果关系具有客观普遍性,以“先验自由”和“自然因果性”调和理性与经验:先验自由是宇宙论意义上自行开始一个状态的能力,其赋予人自我决定和自我认知的能力,是经验知识的基础;自然因果性是人类理性创造出的带有经验性质的自发性理念。根据康德的观点,现象界的因果关系始于经验观察,但依赖先验的因果范畴和人的先天理性而具有必然性,却因无法触及“先验自由”这一终极原因,只能无限趋近呈现相对确定性本质。
从哲学视角看,因果关系兼具先验性与经验性双重属性:先验性为人类认知因果提供工具,反映在经验领域中,因果关系是人对于世界规律的认识和理解。但受制于人类认知有限性,人对于因果流程的认识和预测总是不完整的,经验意义上的因果关系也因此始终具有不确定性,但持续向确定性逼近。哲学层面因果关系的相对确定性特质为理解人工智能时代因果关系提供了理论参照。
2.因果关系相对确定性的刑法理论根基
刑法因果关系理论是人类应对经验世界不确定性的规则合集,仅在因果复杂或存疑时凸显价值。
条件说作为因果关系理论基石,将所有导致结果发生的因素视为原因,并且诸原因之间对结果发生的必要性是等值的,因此也被称为等值理论。条件说的基础源于因果概念“自身先法学性的哲学和自然科学的意义”,即事物之间的先在、普遍联系,呈现为导致结果发生的所有具体条件的集合。然而这没有解决法律人最关心的问题:在条件集合中选出具有刑法意义的原因条件,进而为归责提供支撑,于是条件说发展出“若无前者,即无后者”的公式。这一公式看似绝对确定,实则是一种对因果流程的反事实想象——通过假设某一条件不存在,考察其对结果的影响。而且,条件说看似宽泛,实际上仍是规范视域下的事实判断,正如氧气虽是引发山火的必要条件、杀人犯为其母亲所生养,但显然不会有人去追究氧气和杀人犯母亲的刑事责任。因此,条件说理论即便在自然逻辑意义上绝对确定,但事实上仍然是一种相对确定。
合法则说在条件说中加入了以自然科学法则进行确证的过程:如果按照公认的自然法则,某个结果和某个行为之间存在着不可避免的联系的话,该行为便被视为该结果的原因。也有学者认为“如果经验法则与科学法则并不矛盾,这种经验法则也包含在‘合法则’中”。无论从何种意义上理解“合法则”,科学法则、科学规律作为核心判断依据,无疑增强了因果关系判断的说服力。然而科学作为人类认识世界的方式之一,本质上仍是一种经验上可重复验证的范式,且具有可证伪性与适用边界,如量子物理突破经典物理规则。因而合法则说无法覆盖所有因果场景,仅能提供可接纳的相对确定性结论。
相当因果关系说以“一般社会经验”的“相当性”缩限条件说的因果范围。但“相当性”的内涵存在各种表述,比如“一般可能性”“高度盖然性”“某种程度的可能性”;“相当性”的判断基础存在主观说、客观说和折中说的长期争议。可见相当因果关系说的标准并不十分确定,这在“日本大阪南港案”中体现得尤为明显:即便第三人介入非常异常,法院仍然肯定了前行为人与被害人死亡之间的因果关系。这实则是从相当因果关系说的立场,对因果过程及结果发生的方式作抽象化处理,于是出现“因果流程不相当,但因果过程相当性却可以肯定”的局面,至于可被允许的抽象化的程度,仍然是个模糊不清的问题。可见相当因果关系说并非必然性证明。
客观归责理论与因果关系理论密切相关,其对责任的限定是通过对条件说进一步筛选来实现的。客观归责理论在因果关系限定中,同样呈现为经验基础上的相对确定,而非从因到果的必然性确证。其所包含的“风险提高理论”便是以行为引发结果的高危险性程度判断因果关系是否成立,本质是盖然性判断。正如普珀教授将风险升高理论视为盖然性法则,进而在非决定论领域中成为因果关系的替代理论。国内也有观点称风险升高理论是依据概率提升推断因果关系成立的规则。可见客观归责理论仍属规范层面的相对确定性判断。
综上,刑法因果关系从来不是自然科学意义上的绝对、唯一的因果律,而是一种规范意义上的、用于归责的“相对可能性”判断。
(二)人工智能算法逻辑与因果关系相对确定性的内在契合
刑法因果关系认定规则不追问导致结果发生的精准、唯一的原因,而是基于行为与结果的可能性关联认定因果,无论是科学法则、社会相当性,还是风险升高判断,均遵循“以可能性推断确定性”的思维,这与人工智能算法的技术特征形成深层契合。
1.算法技术特质决定因果判断转向可能性关联确认
算法“黑箱”作为因果链条追溯中的“技术屏障”,基本排除了严格的自然科学法则适用。一方面,深度学习的参数优化、多层神经网络的非线性映射等自主运算机制,使得单一数据偏差或操作失误的因果影响难以精准追溯,即便是开发者也无法完全解析从数据输入到数据输出的完整逻辑链条。另一方面,算法系统运行涉及数据收集、模型训练、分析运算、结论输出、执行操作等多个环节,其间的衔接不畅、数据损耗、转码误差、人工智能幻觉等问题,进一步加剧因果流程的模糊性。即便算法完全公开、透明,算力、成本限制以及海量数据回溯导致的认知过载与算法信任危机等也会使得精准因果定位难以实现。更关键的是,算法本身并无刑事责任能力,归责核心是人类行为主体,但算法偏差与人类主体行为的关联性判断涉及多主体职责划分,必然嵌入规范评价而非纯粹科学验证。因此,涉人工智能算法的因果关系判断必然脱离“必然性证实”,转向以主体风险管控义务、行为与结果可能性联系为核心的确认路径。
2.算法概率统计方法为因果确认提供技术支撑
人工智能算法有赖于数学理论在计算机学科中的应用,其中居于核心地位的便是概率论与统计学,这与因果关系确认规则形成天然衔接。以贝叶斯网络为例,其作为使人工智能实现由果到因自动化推理的基本工具,以概率论和图模型为数学基础,以条件概率和似然比计算处理信息传递和更新,实现对随机变量的理解和预测,作出从结果到原因的逆向推导。如同由证据推导假设的“逆推理”逻辑。贝叶斯网络等工具以概率计算替代经验直觉,以假设验证猜想,在海量数据中探寻变量之间的关系并致力于得出一般规律。例如在智能驾驶事故中,通过分析算法测试用例的覆盖率等指标,评估开发者与系统故障的概率关联。这为因果关系认定提供技术支撑,即借助概率计算评估算法相关行为与结果输出之间的贡献程度,以概率大小衡量行为与结果之间的可能性关系,推导因果关系的有无。需要注意的是,数据统计表达的是变量之间的相关性,不足以说明完整的因果流程,因此必须叠加刑法规范评价:概率计算提供技术工具,规范判断确认最终结论。
3.技术演进与因果关系认定规则的适应性发展
人工智能的持续演进与广泛应用已成时代趋势,它将深度重塑人类社会生活与生产方式,其发展也对刑法因果关系理论持续构成挑战,而因果关系推定规则会随技术革新与社会变迁长期存续。
在当前弱人工智能阶段,算法依赖被动观察预测,本质是挖掘输入与输出信号的强相关性,未突破训练模型与数据库限制。像小米、华为等头部车企将“智能驾驶”改称“辅助驾驶”,便是因为当前智驾系统无法识别深度学习训练外的边缘场景。这表明,此技术阶段基于数据概率统计的因果关系认定具有可行性。
未来向强人工智能进阶时,算法对数据关联性的依赖会降低,因果关系认定规则也将随之革新。人工智能领域权威专家珀尔教授和麦肯齐教授提出,科学的因果关系含关联、干预、反事实三个层级,当前人工智能处于最低的关联层级,唯有跨越后两个层级,才能触及强人工智能门槛。珀尔教授还提出“do演算公式”与“中介公式”,分别对应因果推理中的干预效果和反事实假设效果。这意味着强人工智能须具备理解数据关联背后因果逻辑的能力,能主动、谨慎地进行反思性操作,而这需以建立超越数据统计的成熟因果推断模型为前提。届时,刑法因果关系理论不会因技术变革被抛弃,反而会与人工智能因果模型相互印证,从而实现技术与规范的双重演进。
综上,刑法因果关系本质是在纷繁复杂的因果网络中,根据法律目的截取一段“相对确定”的链条。人工智能算法的复杂性只是放大了这种不确定性,而非颠覆了因果关系理论的底层逻辑。确立人类主体算法相关行为与损害结果之间的高度盖然性,成为人工智能致害因果关系认定的核心任务。这一认知既保持了刑法体系的稳定性,又为应对技术风险提供了必要的规范弹性。
三、客观归责理论在人工智能致害犯罪因果关系认定中的适配性
既然“相对确定性”是刑法因果关系理论应对复杂现实的固有弹性,那么是否存在一个成熟的理论框架,能够将这种“相对确定性”操作化,并有效适用于人工智能领域?发端于德国刑法学的客观归责理论,恰能提供这样一个理想的理论容器。
(一)链接归因与归责的协同方案
刑法因果关系问题的核心从不是纯粹的事实发现,而是服务于刑事责任归属的规范判断。人工智能致害案件的复杂性,恰恰要求一种能够兼容事实查明与规范评价的协同方案。客观归责理论的体系价值,首先便体现在它成功地架起了连接“归因”与“归责”的桥梁。
罗克辛教授提出的客观归责理论是在条件说意义上的因果关系已经查明的基础上进一步筛选,以聚焦于真正具备刑法规范意义上的可罚、需罚行为,从而在客观构成要件层面对最终责任承担进行限定,呈现出从事实归因到规范归责的融合性。虽然刑法因果关系理论本身潜在归因与归责高度重叠的特质,正如合法则说、相当因果关系说等,一方面是对条件说的限制,另一方面也是有关结果归属的规范判断,实质上包含了客观归责的部分内容。但唯有客观归责理论将因果关系判断由事实因果向规范责任过渡的基因显性化、体系化,使归因与归责在清晰的逻辑层次上协同运作。
人工智能的技术特殊性使得因果关系认定方案需兼容事实归因与规范归责。在人工智能领域,算法自主性与“黑箱”特性易使得开发者、使用者等主体的算法相关行为与最终损害结果之间关联性被技术性地“稀释”;同时,技术中立的表象又可能为责任逃逸提供空间。如果在人工智能领域采用单一事实维度的因果关系概念,或将归因与归责进行范围上的僵化切割,将陷入“有归因无归责”或“有归责无归因”的规范裂隙,如仅证明算法输出与损害存在关联,却无法将之归于具体主体,或在缺乏事实基础的情况下,仅因恐惧结果发生而归罪。唯有归因与归责协同,才能实现责任的准确定位。此外,在事实因果基础上进行归责限制,也能够体现对处于创新关键期的人工智能技术的包容审慎态度。
(二)危险创设与危险实现的阶层化审查
根据罗克辛教授经典界定,客观归责理论的基本构造由“不允许风险的创设”与“不允许性风险的实现”两个递进阶层构成。其判断逻辑主要采取反向排除法:在风险创设阶段,排除危险减小的行为、缺乏危险的行为、单纯修改自然因果且没有增加危险的行为,以及在允许性危险范围内的行为;在风险实现阶段,排除危险及不允许性风险没有实现的情形、不符合谨慎规范保护目的的后果、部分合法替代行为等。与此相对,穆尔曼教授将客观规则理论进行了正向阐释。他将“创设法不容许的危险”明确界定为对旨在防止构成要件结果发生的“前刑法举止规范”的损害;而“法不容许的危险实现为结果”则必须具备双重前提,一是该结果必须可归因于行为人对前述规范的违反,二是行为人所违反的规范,其核心目的恰恰在于防止此类结果发生。
尽管视角不同,两种阐释均共同锚定于“危险创设”与“危险实现”这一核心二元结构。此一结构恰能与人工智能致害中“人类主体行为—算法决策偏差—现实损害结果”的复杂因果链条形成精准映射,为解析此一技术性难题提供了坚实的理论框架。然而,鉴于人工智能算法普遍存在的“黑箱”特性及其难以依赖直接观察与社会经验进行判断的本质,反向排除法在适用中可能面临标准模糊、界限不清的困境。相较而言,穆尔曼教授所倡导的正向建构路径——通过明确“前刑法举止规范”的内容与保护目的来直接界定归责范围——更能为人工智能致害的因果关系认定提供清晰、积极且富有建设性的指导方案。此一路径要求我们预先厘清技术开发与应用中各环节应遵守的核心行为准则,从而在损害发生后能更有效地将抽象的算法运作锚定于具体的规范违反之上,完成从事实到归责的跨越。
首先,危险创设环节将刑法评价焦点从泛泛的事实关联聚焦到具有刑法非难可能性的行为。在人工智能语境下,人类主体算法相关行为若创设法不容许的技术危险,则进入到刑法规范评价的视野,这类行为即体现为各类算法相关行为,如算法模型设计缺陷、训练数据偏见、使用过程中违规操作等。而且凭借这种规范性判断,无需深入算法“黑箱”、精确追溯从代码到结果的每一步逻辑即可锁定危险源。其次,危险实现环节则用于审查最初被创设的危险,是否在具体构成要件结果中得以实现。这不仅要求因果流程存在,也要求结果实现方式未超出规范保护目的且不存在重大因果偏离。对应到人工智能致害,即需判断:由算法相关行为所创设的那个特定危险是否最终通过算法的自主运算高概率地、符合常规地导致了损害结果的发生。只要能够证明损害结果的发生路径属于该算法相关行为所创设危险的典型实现范围,即可认定危险已经现实化。这种“从行为危险到结果关联”的规范判断路径有效地避开了对复杂技术因果流程的机械还原,将法律判断的重心置于风险支配与规范违反之上。
(三)风险权衡与可预见性的调适
任何法律理论的持久生命力,不仅在于其逻辑结构,更在于其精神内核与时代需求的契合度。客观归责理论之所以能成为人工智能时代因果关系认定的优选框架,关键在于其内在的权衡精神以及为应对新技术挑战所展现出的理论包容性。
首先,客观归责理论所包含的对“法不容许的危险”与“被容许的风险”的区分,考虑危险行为的有益性与其社会接受度,明确承认了社会生活中某些风险因其附随的巨大社会效益而被法律所容忍,体现出法律需在禁绝风险与扩大公共福利之间进行权衡的精神内核。具体而言,判断一个风险是否被容许,需综合考量其行为的有益性、社会的接受度以及对风险的控制程度。这与人工智能领域在技术福利与技术风险之间保持平衡的需求高度契合。毕竟,人工智能作为引领新一轮科技革命和产业变革的战略性技术,其发展必然伴随着未知风险,法律既不能对其视而不见,也不能扼杀创新。客观归责理论的权衡属性,要求司法实践必须衡量人工智能技术应用所带来的公共福利与潜在风险,在保障安全与激励创新之间寻求动态平衡。
其次,客观归责理论具有很强的包容性,能够就人工智能领域作出适应性调整。传统领域中,一旦认定行为人创设了对于构成要件实现的特有危险,则不再额外考察行为人的客观可预见性。然而人工智能致害因果链条存在算法“黑箱”这一客观“预见屏障”,算法的自主学习与决策过程可能产生连设计者都难以完全预见的涌现行为。因此需对主体的客观可预见性进行单独考察,避免过度归责。具体而言,需在危险实现后,考察最终损害结果是否在主体认知边界之内,从而避免因技术本身高度不可预测性而导致的单纯结果责任。这一调整并非否定客观归责理论,而是在其框架内回应人工智能技术的特殊性,实现合理归责与技术包容的平衡。
综上,客观归责理论不仅在结构上与人工智能致害的因果链条对应,其内在的权衡精神与为适应新技术而展现出的理论弹性,使其成为处理此类新型案件不可多得的理论利器。它为后续构建具体的工具体系和层级化方案,奠定了坚实且灵活的理论基石。
四、人工智能致害犯罪因果关系的分析工具建构
客观归责理论为人工智能致害因果关系认定提供了理论基础与整体框架,但规范判断落地离不开具体工具支撑。针对人工智能致害“技术黑箱”与“多主体交织”特性,可构建“行为筛选—贡献量化—归责校准”三阶分析工具。
(一)算法相关行为过滤工具:创设法不容许的危险
算法相关行为过滤工具以客观归责理论“危险创设”为内核,以前置法规范与行业标准为实践依据,通过“规范匹配—事实验证”的双向判断,从人工智能产业链的复杂行为中排除无刑法意义行为、锁定可归责行为。
1.危险创设的判断标准
对犯罪构成要件所要保护的法益创设法不容许的危险是客观归责的原点。这一法律容许的范围基本等同于社会认可的一般规范和普遍接受的观念。实践中,危险创设的具体判断一般需依托刑法前置法与行业规范落地,如交通肇事罪以道路交通规则为责任认定的主要依据,严重违反交规的一方通常承担主要或全部责任;又如危险作业罪需结合《危险化学品安全管理条例》《建筑设计防火规范》等前置法判断“现实危险”。这些前置法规则是“国家预先设想了成为典型的一定事例类型,而提示了对其危险和有用性进行衡量的结论的东西”,进而事先提供了最大限度规避风险、创造收益的行为规范模式。一般而言,行为符合规范模式就处于社会容许的范围内,如果偏离,则创造了不被容许的危险。推及到人工智能领域,算法相关行为是否创设危险同样需要通过前置法及行业规范进行筛选。
2.危险创设的规范依据
目前我国已形成“法律—行政法规与部门规章—地方性法规—行业技术标准”多层次人工智能规范体系:《网络安全法》《数据安全法》《个人信息保护法》等基础性法律确立数据与信息保护原则;《网络数据安全管理条例》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等行政法规、规章细化操作要求;《北京市自动驾驶汽车条例》《武汉市智能网联汽车发展促进条例》等地方性法规,结合地方实际情况为人工智能在特定区域的有序发展作出指引;《人工智能安全标准体系(V1.0)》《深度学习辅助决策医疗器械软件审批要点》《人工智能算法金融应用评价规范》等行业标准,从细分行业角度提出针对性要求。这些规范共同构成人工智能相关行为主体的义务体系。此外,在立法空白或不尽详细之处可以优先考量地方试点经验,借鉴行业内通行做法,参考国际标准等,从而为人工智能算法相关行为筛选提供更全面、合理的依据。
3.危险创设的实践操作
人工智能算法相关行为筛选,需通过“找法—事实提取”双向匹配实现:
(1)在找法维度,从场景、主体、义务类型三个方面逐步缩小范围,直至从分散的规范条文中匹配与事实对应的前置义务。在场景方面,既可以依据应用领域,如金融、医疗、自动驾驶等进行区分,也可以按算法类型,如算法推荐、深度合成等进行区分。各场景因业务性质和风险特征不同,相应的技术规范也存在差异。在主体方面,可划分为算法服务提供者、技术支持者、应用平台、使用者等。但并非所有相关主体都有对应的前置法义务规定,以《互联网信息服务算法推荐管理规定》为例,该规定并未将技术支持者和服务使用者作为主要义务主体。在义务类型方面,可划分为基础义务、技术性义务、伦理义务以及行业特殊义务等。
(2)在事实提取维度,聚焦事件发生的关键节点,发掘人工智能技术在事件进程中的应然功能与实然功能,进而将其与前置法规范相对照。以小米SU7碰撞燃烧事故为例,事故发生时,车辆以116km/h进入施工封闭区域(限速60km/h),从自动驾驶系统发出预警到碰撞发生,给驾驶员预留约2秒接管操作时间。在技术层面主要涉及系统夜间识别能力和探测距离、人机交接冗余设计问题。在车企层面,需考察该车是否符合自动驾驶系统设计要求,尤其是汽车设计运行域边界是否充分验证、人机交接时间是否充足。进而依据《汽车驾驶自动化分级》《智能网联汽车道路测试与示范应用管理规范(试行)》等相关规定,判断车企是否违反前置义务。
综上,算法相关行为的筛选以风险升高理论为基础,以前置法和行业标准等规范性文件为实践“抓手”,通过“找法—事实提取”两个维度协同推进,以实现算法相关行为与规范的匹配。
(二)因果贡献度量化工具:法不容许的危险实现
行为筛选工具为因果关系认定划清范围,但前置义务违反并不直接等同于因果关联,还应考察该义务违反已创设的危险是否实际转为损害结果。人工智能算法“黑箱”导致危险传导路径模糊,需通过量化模型拆解“行为—算法—结果”的关联强度,以概率数值为标准,验证筛选后的行为与结果之间的关联性强弱。
1.因果贡献度量化模型的刑法依据
因果贡献度量化模型的设计借鉴疫学因果关系的“高度盖然性”逻辑。疫学因果关系源自日本的环境污染犯罪,是疫学上的因果认识方法应用于刑法领域的产物:即便不能从医学、药学等观点进行详细的法则性证明,但根据大量统计,某因子与疾病之间的因果联系可能性非常大,符合统计学规律,即可认定因果关系的存在。典型案例是“熊本水俣病案”,日本裁判所在水俣病的病因无法得到知识确证的情形下,根据当地肥料公司排放含有水银的废水与水俣病高发生率之间的正相关关系,推定二者之间具有因果关系,从而认定肥料公司经理和厂长犯有业务上的过失致死伤罪。疫学因果关系理论将某条件与结果之间的高度可能性关系视为法律上确定性的因果关系,这种高度可能性因建立在公共卫生学的统计基础上,具有一定的可信度和说服力。这种判断思路也逐渐延伸到了包括环境污染在内的传染病防治,食品、药品安全等领域的公害犯罪中,以因子与结果的高概率关联认定因果关系,并在程序上允许被告人反证。这一逻辑完全适配人工智能致害场景:算法“黑箱”导致传统科学法则难以解析因果必然性,但可以通过统计数据推断因果盖然性。
此外,因果贡献度量化模型也契合条件说的反事实判断内核。条件说“若无前者,则无后者”公式是通过假设行为不存在判断因果,下文量化模型中的“do演算”恰是这一逻辑的技术体现——通过替换“行为合规/违规”变量,对比结果发生概率差异,从而验证行为的净因果效应。
2.因果贡献度的基础模型
模型基础思路参考流行病学
余论
德国刑法学者李斯特深刻地指出:刑法是刑事政策不可逾越的屏障。这一论断深刻地指出了具有明确的罪刑构成的刑法与功能导向的刑事政策之间的分野。微罪入刑是在积极刑法观影响下刑法积极参与社会治理活动的体现。本文并不否认刑事政策的功能主义导向对于惩治犯罪起到了一定作用,但认为需要警惕刑事政策被实用主义裹挟,忽视我国司法现实状况,消解刑法的保障法地位。当下,中国的刑事立法活动要“坚定地站稳罪刑法定主义的立场,需要扎紧形式法治的篱笆,抵御法外价值判断的侵入”。微罪入刑这一趋势是刑法物化的进一步体现,我国的刑事立法活动必须秉承理性主义并恪守核心刑法的边界,以防止不断扩大的刑法处罚范围最终消损刑法自身的权威性。在刑事法治国尚未完全建立的当下,必须要警惕刑事政策和刑法的过度亲密,刑法一旦过度卷入政治或政策之中, 将会松懈近代以来紧套在刑罚权身上罪刑法定的脚镣,刑法的安全价值势必面临危机,导致刑法自主性的消解, 国家刑罚权便会乘机以推行公共政策为藉口,谋取自身利益扩张而危及公民自由。尽管微罪入刑在我国已经成为立法实践,但如何看待微罪在社会治理活动中的定位及其限度理论回应尚显不足。在积极主义刑法观成为刑事立法主流的当下,更应当反思对微罪入刑这一现象是否合理。随着风险社会的不断演进,未来应当如何看待刑法的工具价值?一味将违法行为犯罪化是否是社会治理的最优解?这些问题仍然值得进一步思考与讨论。
中的归因危险度(Attributable Risk Percent,AR%)指标,核心是通过反事实对比量化因子对结果的贡献度。该模型通过反事实运算,得出算法相关行为经由算法运算导致损害结果发生的概率。并且在其他条件相同的情况下,对比“存在某义务违反行为”条件与“行为合规”条件,评估结果发生的概率。

3.复杂因果路径的分解与权重分配
(1)多路径分解公式
基本公式适用于单一变量归因的情形,为将公式适用范围扩大到多变量共同作用的复杂情景,还需进一步考虑间接因素的作用,以明确Ai=1通过不同路径对结果D=1的影响差异。例如在小米SU7事故中,“NOA智能辅助驾驶开启”即直接影响事故,又通过“驾驶员注意力降低”这一中介变量间接作用于结果。需叠加计算辅助驾驶接管系统设计缺陷与驾驶员注意力分散对于行车事故的影响。由此,在复杂交互场景中,因果贡献度Ci需整合直接贡献与间接贡献,公式定义为:

(2)多主体行为权重分配公式
由于不同因素在因果贡献中所占权重存在差异,还应当在基准概率公式和多路径分解公式的组合基础上,叠加对不同因素共同作用于结果的贡献度权重分配的考量。对此,可以借鉴源自合作博弈论的Shapley值计算公式,该公式的功能和核心优势在于无需预设因果路径,能够在多变量交互的场景中,捕捉变量间的协同或抵消效应,公平地分配多个变量对结果的贡献程度。然而,Shapley值公式在司法实践中存在局限:一是计算复杂度高,每增加一个变量,变量子集组合的数量呈指数级增长,难以满足司法效率的要求;二是Shapley值公式解释门槛过高,司法工作人员难以直观理解,难免将解释权交由专业人士,可能导致专业人士垄断解释权。此外,法律场景中的部分因素并非均能实现量化,计算结果之于法官仅起到数据支撑和参考作用,最终还是需要法官通过自由心证得出最终结论。有鉴于此,一味追求因果关系认定中变量权重分配的高精度“性价比”不高,实践中可以简化权重分配的计算公式,直接以Ci在总贡献中的占比确定权重,即:

综上,因果贡献度量化模型以“基础公式+路径分解+权重分配”构成,实现因果贡献的精确评估。
(三)归责校准工具:可预见性程度量化模型
因果贡献度量化仅能证明行为与结果之间的事实关联,而刑法归责还需进一步判断结果是否可归责于行为人。可预见性校准工具通过“历史事件发生概率+行业风险+技术层级”的量化,判断行为人对结果的预见能力。
1.可预见性程度量化模型的刑法依据
在因果关系的认定中,对结果的可预见性是不可或缺的判断要素。这里所指的可预见性,并非基于行为人的主观心理状态,而是从客观角度判断其是否具备预见结果发生的能力。若结果不可预见,则应排除归责,这一原则贯穿于因果关系理论的始终。
相当因果关系理论中的“相当性”即为典型体现,尤其在出现介入因素的场景中,该理论以介入因素是否异常来判断原行为与结果之间的因果流程是否被彻底中断。实际上,“异常性”表达的意涵是预见可能性问题,所谓“介入因素很异常”的言外之意是缺乏预见可能性。在客观归责理论中,可预见性则以更为多元的方式贯穿于不同归责环节。例如在“危险实现”阶段,即便某一超出允许范围的危险与结果具有关联,但若危险的实现过程极为异常,则仍不能认定其实现。这表明,法律不能要求行为人预见超出规范保护目的的结果,也无法苛求其承担超出该范围的谨慎义务。同样,在判断“他人参与因素”时,可预见性程度亦为关键考量。例如在“故意自我危险”的共同作用中,判断危险制造者是否对自愿参与者承担责任,亦不能超出前者所能预见与实际支配的范围。
由此可见,行为人对结果的可预见性是因果关系理论规范判断层面的底色。在人工智能场景中,违反前置义务的行为需通过影响算法作用于结果发生,这一复杂传导机制进一步放大了行为主体的预见障碍。因此,在因果贡献度的测算基础上,需加入可预见性程度量化模型校准归责边界。
2.可预见性量化公式及优化
司法实践中,可预见性一般由法官根据具体的义务性规范,结合常识常理和行为人所属职业群体或生活领域进行综合判断。在人工智能领域,法官也需结合前置义务违反的严重程度,行为主体的身份、职能范围以及行业内的通行标准、工作人员的平均水平等进行综合判断。然而,鉴于人工智能行业的数字化、可统计性等特质,可以将行业历史中同类事件发生的概率作为判断可预见程度的参考数值,即:

但是这一公式至少存在两个问题:一是因为总运算次数过大而稀释风险趋势,二是同类事件发生数量不多但事件本身性质较为严重。因此可以考虑从行业近一年或上一年度报告数据中进行取值,以聚焦近期风险。同时考虑不同行业风险等级和容错率大小,乘以相应系数,比如,假设行业风险等级从1至5逐渐升高,航空行业风险等级为4级,短视频平台风险等级为1级。此外还需考虑人工智能技术分类分级,因为智能水平反映人类对算法可支配程度的不同。随着智能化的提升,人类对人工智能技术致害结果的可预见性逐级降低,因此,应当在可预见性量化公式基础上乘以与人工智能级别对应的预见系数。由此,优化后的可预见性程度量化公式为:

然而这些优化方法都依赖于规定人工智能行业定期出具报告、相关监管部门定期评估等配套措施的前置法出台和有效运行。其中的具体数值还需进一步结合技术测试和实践应用的情况来设定,并且考虑到技术迭代问题,系数应当具有相对动态化特征。实践中,数据可优先采自行业年度报告,确保时效性与客观性,未能量化的因素则由法官结合自由心证补充判断。
综上,人工智能致害犯罪因果关系认定的分析工具,由“算法相关行为筛选—因果贡献度量化模型—可预见性程度量化模型”构成,三者层层递进,实现“行为范围界定—事实关联量化—规范归责校准”的完整判断。
五、人工智能技术层级分化下的因果关系认定具体方案展开
人工智能技术差异必然使因果关系认定路径有所不同,故上述分析工具的具体运用必须与人工智能技术层级相匹配。人工智能技术的分级分类反映了人机协作模式与技术自主性的动态演变。当前全球范围内针对人工智能分级分类标准的探索均显示:随着人工智能能力的提升,其角色从纯粹工具转向具有一定自主性主体,人类参与度阶梯式下降。2024年6月,华为联合清华大学人工智能产业研究院(AIR)联合发布《AI与人协作、服务于人——AI终端白皮书》,提出AI终端智能化L1—L5分级标准

同年7月,人工智能领域先锋企业OpenAI也提出通用人工智能五级标准体系,从第一级至第五级分别是:具备语言交流功能的聊天机器人、解决达到人类水平问题的“推理者”、代表用户执行任务的“代理者”、辅助人类发明创造的“创新者”、独立完成组织管理工作的“组织者”。
这些探索意味着,随着人工智能系统运行机制的复杂化演进,事实层面因果关系认定方法需随算法复杂度作出相应调整,规范层面责任分配方案需随人类支配力减弱进行重构。据此,基于技术自主性与人类支配力的梯度差异,可将人工智能分为辅助型、协同型、完全自主型三种层级,因果关系认定的重心依次从“行为的合规性审查”转向“行为与结果的概率性关联”,再到“前端风险防控与责任分配社会化”。这种层级化的推定方案既避免“一刀切”式评价失真,也为规则演进与技术容错预留空间。
(一)辅助型技术层级:以行为筛选为主导
辅助型人工智能的核心功能是为人类决策提供信息、建议或工具辅助,其技术特点是“规则预设+人类掌控”:严格遵循预设程序规则或训练模型,具备一定可解释性,且始终保留人类绝对监督权和最终决策权。典型代表如ChatGPT、DeepSeek等大语言模型,其基本运行机制呈现工具属性:用户输入自然语言指令,算法模型根据语言统计规律等进行推理和计算,通过预测下一个最佳词语实现文本生成,最终输出内容需经人类用户筛选、修正或采纳。这种技术特征决定了其功能边界的封闭性,系统不具备自主启动或终止的权限,本质上是人类认知和行动的延伸工具。因此,因果关系认定可通过行为筛选工具直接认定,无需依赖复杂量化模型,且常规风险认知即可覆盖归责判断。
1.单一场景下因果关系直接认定
从运行机制来看,辅助型人工智能致害风险主要来自使用者操作失当和开发者的算法瑕疵。首先,由于辅助型人工智能运行存在严格边界以及最终由人类掌控,若使用者违反操作规范或未尽合理注意义务,其行为与损害结果之间的因果关系可以直接认定。以辅助驾驶系统为例,目前工业和信息化部、市场监管总局已明确现有智能网联汽车搭载的组合驾驶辅助系统均属于行车辅助系统,需确保驾驶员始终执行相应的动态驾驶任务。如果驾驶员在系统运行期间双手脱离方向盘、长期未监控路况,甚至在行车辅助系统提示的情况下仍拒绝执行驾驶任务导致事故发生,即可基于人类对技术的支配性认定其违反操作规范的行为与损害结果之间存在因果关系。
其次,当算法设计存在违反前置法义务规定、行业技术标准或存在显著逻辑漏洞时,即使使用者操作合规,仍认定开发者的算法相关行为与损害结果存在因果关系。在确有必要的情况下,如因果流程因算法关键节点不透明或前置法规范缺失等而存疑,则需引入因果贡献度量化模型。在保持其他条件不变的情况下,计算被筛选出来的涉案算法相关行为导致损害结果发生的概率。计算所用数据优先采用实际运行中的真实数据,在数据储备不足的情况下,依次补充测试数据、模拟数据。经过计算,如果输出的数值是正值,则认定该算法相关行为对结果具有正向因果作用,二者之间存在因果关系。
2.复合场景中量化辅助
当使用者违规操作与算法瑕疵同时存在时,则涉及责任分配问题,可采用“规范优先、量化辅助”的双重标准。
优先由法官综合考量人工智能使用场景风险等级、行为偏差严重程度、损害后果直接性等因素判定责任主次关系。例如,在医疗人工智能误诊事件中,如果开发者未按规定进行临床数据验证,而使用者仅存在操作界面误读,则优先归责于开发者一方。仅在双方违规程度相近的人机影响叠加的场景,引入因果贡献度量化模型中的基本公式,分别计算双方行为导致结果发生的概率,再按照简化后的权重公式得出双方之间的责任承担比例,如开发者Wi=60%、使用者Wi=40%,为司法裁判提供数据化参考。这种“定性+定量”的分析框架,既避免单一推定的机械性,又契合辅助型人工智能的技术特点。
3.可预见性适用阙如
鉴于辅助型人工智能的工具属性与人类对系统的最终掌控,无论是开发者的算法设计还是使用者的操作行为,均处于可预见风险的认知范围内。开发者在技术研发阶段能够通过测试预见到显著算法缺陷的危害,使用者在操作过程中应当知晓违规操作可能引发的后果。因此,针对高阶技术层级设计的“可预见性量化公式”,在此类场景中缺乏适用必要——其因果关系的规范归责无需额外引入复杂模型,人类对技术工具的常规风险认知即可覆盖责任归属判断的需要。
综上,辅助型人工智能的因果关系通过“使用者操作规范审查+开发者前置义务评估”的双向考察直接加以认定;针对复杂场景中的模糊地带,引入量化模型,为进一步阐释复杂因果流程和多主体责任分配提供数据参考。最终呈现“行为考察为主、量化计算为辅”的因果关系认定方案。
(二)人机协同型技术层级:行为筛选与量化模型协同适用
协同型人工智能的核心功能在于实现了人机能力的动态互补与实时交互,人类掌控度下降、技术自主性提升。以智能驾驶技术为例,依据我国《汽车驾驶自动化分级》对第3级驾驶自动化的定义,该级智能驾驶系统存在设计运行范围,且系统在识别出即将不满足设计运行范围或者识别到驾驶自动化系统失效时,及时向驾驶员发出介入请求,驾驶员必须及时响应。与第1—2级辅助驾驶系统中驾驶员主导操作不同,第3级自动驾驶系统中的驾驶员仅以后援用户的身份恰当执行接管。在核心技术层面,自动驾驶系统摒弃传统的“模块化+规则式”编程模式,转而采用“端到端”神经网络智能系统,结合视觉语言模型(Drive VLM)和多模态感知融合技术,采用机器模仿学习、强化学习等方法,在传感器数据输入端和车控信息输出端之间,形成“实践—反馈—调整—学习—实践”循环模式,使数据处理过程趋近人类驾驶员的学习和经验累积过程。这种技术演进使得驾驶员的行为权重从“操作主导”转向“风险接管”,人机边界呈现动态模糊化特征。因此,协同型人工智能因果关系认定需通过“行为筛选+量化模型”协同使用,回应多因素叠加的因果模糊性。
1.行为筛选基础上的量化验证
相较于辅助型技术,参与协同型人工智能致害因果进程的因素愈发多元,因果流程预设和回溯难度大幅上升,仅凭“行为是否符合规范”这一行为筛选工具难以应对。需要通过因果贡献度测算拆解各行为对结果的实际影响。
具体而言,首先通过行为筛选工具锁定危险创设行为。其次通过量化模型拆解多因素之于结果的风险贡献。例如第3级智能驾驶系统在夜间行车发生路径规划偏差,同时涉及硬件层雷达参数设置不当、开发层训练数据不足、使用层驾驶员延迟接管多种因素。依据开发者前置法义务和驾驶员操作规范进行行为筛选,进而通过因果贡献度基础公式计算使用者的因果贡献,以及通过复杂因果路径分解公式计算开发者的因果贡献,验证双方均推动危险实现。
与此同时,人机协作的本质是任务执行的双线程并进,各方行为叠加后共同作用于结果发生成为常态,需通过权重分配模型实现责任比例划分。考虑到司法效率和司法可解释性,应当优先采用简化权重公式,但在更为复杂的人机交互系统,以及算力、数据存储等配套技术条件完备的情形下,可以考虑适用Shapley值公式或者在其基础之上改进后的公式,更加精确计算各主体在不同因果路径中的边际贡献。
2.可预见性的量化校准
相较于辅助型人工智能系统,人机协同型系统导致人类对损害结果的预见性边界愈发模糊。人类对算法决策“黑箱”的认知,以及系统在边界场景下的非常规响应,使得“常规风险认知”预见标准需要结合技术特征进行调整,故可预见程度因素必须纳入因果认定过程之中。具体而言,首先适用可预见性程度量化公式计算同类损害结果的发生频率,进而根据该层级内对人工智能系统的进一步划分,乘以相应的预见系数。在特定领域内,如国防安全、航空航天,因应用场景独特且后果不可预估,还需额外乘以风险系数。其中,用于测算的行业统计数据和相关系数均依赖于行业报告机制形成和落实,例如工业和信息化部、市场监管总局已明确要求智能网联汽车企业建立常态化事件报告制度,这为可预见性量化模型提供了基础性数据支撑。随着各行业数据持续收集和披露趋势的形成,相关预见系数、风险系数也会在海量数据统计和行业共识达成的基础上逐步校准,并且能够根据技术迭代进行适度调整。
综上,协同型人工智能的因果关系认定,通过因果贡献度的多维度分解、责任权重的精细化计算、可预见性标准的场景化校准,构建起适配人机协作系统的因果关系认定方案。
(三)完全自主型技术层级:风险防控与社会化延伸
完全自主型人工智能系统代表了当前技术发展方向,其技术特征是突破人类干预与封闭环境限制,具备开放环境下的目标自主实现能力与系统持续自我进化机制。根据珀尔教授与麦肯齐教授的观点,未来强人工智能的实现,必须以超越科学因果关系的干预与反事实层级为前提。这意味着完全自主的人工智能系统能够彻底打破训练模型和数据关联的局限,不仅能够理解事物之间的因果逻辑、自主构建因果推理模型,还具备知识迁移和终身学习能力。与低层级人工智能相比,完全自主型系统能够在复杂动态的开放环境中独立完成如城市交通调度、金融风险管控等高阶组织管理工作。但其技术运行、决策的不可预测性与不可控性也将达到顶峰,超出人类认知边界。
在能够预见的将来,完全自主型人工智能将引发刑法因果关系判断面临双重“矛盾”:其一,系统高度自主性导致人类行为从任务执行链中彻底退出,进而导致责任主体前移,但算法的迭代又极大削弱了因果追溯的可能性;其二,风险指数级增长必然需要扩大责任范围,但技术的不可控和可预见程度的下降却降低了行为可归责性。这种双重矛盾推动着该层级因果关系认定的重心转移到事前风险防控与事后责任分配上来。一方面,以开发者一方对技术风险前期预防与及时干预的机会与能力,补强事实因果链条,要求开发者承担责任。另一方面,因损害结果可预见性超出人类认识范围,收缩刑事责任范围,同时鉴于技术风险的不可避免与指数级扩散,扩张民事责任范围。
具体来看,因果认定方案将初步呈现为“技术合规—社会化风险分散”双层结构。首先,优先根据技术开发端的合规标准,审查算法相关行为是否偏离规范要求,聚焦开发者前置防控义务。其次,考虑到技术的完全自主性与不可解释性,量化模型仅做辅助,若能追溯部分因果路径,结合模型计算的因果贡献认定危险实现;若完全无法追溯,则以前置义务违反认定危险实现。最后,因技术超出人类认知,还需叠加可预见性程度量化模型认定归责。
刑事责任无法救济的领域,利用保险制度和行业风险储备金制度实现责任兜底,以实现归责有限性与损害救济的平衡。目前我国已有网络安全保险实践,如某上市电子商务企业投保网络安全综合险,既保障第三者责任和第一方损失,又附加安全整改建议服务项目。同时,人工智能领域可以借鉴金融领域系统性风险防范经验,建立行业共担机制。有学者主张建立储备金用于支付与人工智能相关的和解和赔偿费用,储备金以所有者、制造商以及开发者等各类主体支付,以“低证明标准+限额赔偿”模式,保障受害者及时获赔又不加重企业负担。2023年10月,25名人工智能领域顶尖学者共同呼吁,政府和企业各分配至少1/3的人工智能研发资金用于确保人工智能系统安全和合乎伦理的使用,从技术源头降低不可控风险。最终,保险与行业储备金制度可覆盖因超出刑法规范保护目的而排除归责的风险,形成技术合规、法律审慎、社会层面风险分散的互动格局。
综上,完全自主型人工智能的因果关系认定已超越传统法律归责范畴,演变为融合技术治理、风险管理与社会政策的系统性工程。其核心在于承认人类的有限性,通过“风险防控义务前置化+责任承担社会化”制度,在技术与风险之间搭建缓冲带。
基于前述分析,可将不同技术层级下因果关系认定的核心要素梳理、对比如下:

结语
刑法因果关系理论的演进始终是一部在经验世界的不确定性中寻求相对确定性的历史。人工智能的介入,以其算法的自主性与“黑箱”的复杂性前所未有地稀释了行为与结果之间的直观联系,对传统理论构成了严峻挑战。本文的回应并非颠覆传统,而是在因果关系理论一以贯之的逻辑框架内进行适应性的调试与更新。通过构建“行为筛选—贡献量化—归责校准”的三阶分析工具,并依据辅助型、协同型与完全自主型人工智能的技术层级动态调整认定方案,我们旨在搭建一座连接技术逻辑与规范判断的桥梁。这套具有成长空间的因果关系认定体系,既是刑法对技术变革的回应,也是法律对社会认知的更新。
归根结底,人工智能与法律的互动是技术理性与价值理性的深度对话。技术拓展能力边界的同时也带来了新型风险,而法律在规范技术的同时也愈发依赖技术作为解释工具。然而,法律的终极使命并非被动适配技术,而是主动平衡安全、创新与正义等多元利益。人工智能领域的刑事归责在本质上是一种审慎的价值选择:我们必须在鼓励创新与防范失控之间寻找黄金分割点,在承认技术自主性的同时确保其背后的人类责任得以落实。
每一次深刻的社会技术变革都伴随着法律的阵痛与调适。人工智能所带来的挑战并非例外,它不过是法律直面世界不确定性这一永恒主题在智能时代的一次集中上演。
因篇幅限制,已省略注释及参考文献。
引注:左倩玉、罗翔:《技术与规范之间:人工智能致害犯罪中因果关系的认定路径》,载《河北法学》2026年第4期,第110页-133页。