设为首页 | 加入收藏 | 联系我们

河北法学

精文推荐

当前位置: 期刊首页 >> 精文推荐 >> 正文



【专题|数字法治研究|邓矜婷】论人工智能法律规制的内部路径
日期: 2025-07-09      信息来源:      点击数:

作者简介:邓矜婷,女,江西赣州人,中国人民大学纪检监察学院教授,博士生导师,中国人民大学未来法治研究院、刑事法律科学研究中心研究员,反腐败法治研究中心副主任,国家治理大数据和人工智能创新平台国家数字监督治理实验室主任,法学博士,研究方向:数字法学、监察法。


摘要:人工智能具有海量、高效、黑箱的特点,使得规制人工智能相关人员权利义务责任的外部路径存在规制效能不足、规制限制发展的困境。应当利用人工智能的特点,构建以人工智能规制人工智能的内部路径,补充外部路径。内部路径是在人工智能行为被直接影响和约束的层面进行规制,包括通过发布可以直接调用的法律规则要件体系和关系图表、通用的合规审查基座模型、用以自动检测的标注数据集和指标体系、构建人工智能执法司法辅助系统等方法。其核心是将法律规则的要求融入人工智能底层的技术,实现运用人工智能技术帮助规制人工智能应用。因此,内部路径具有高效、精准规制的特点,可以补充外部路径,缓解规制人工智能的两大困难。

关键词:人工智能;人工智能规制;通用数据集;法律知识自动获取;人工智能司法


一、人工智能法律规制的困境

人工智能的迅猛发展为人类带来了新的机遇,同时风险也迅速滋生。如何抓住机遇,规避风险,是具有滞后性的法律需要面临的挑战。人工智能的发展对传统法律产生了巨大冲击,与一般技术引发的治理风险相比,人工智能技术引发的风险更具复杂性、系统性,带来的立法挑战更具颠覆性。具有滞后性的法律难以规制以月为单位变化的人工智能技术格局,此外,人工智能的信息不对称性让立法机构无法针对性地制定法律,人工智能治理范式不可避免地从单一的以国家为中心、以命令和控制为核心的硬法模式向基于多中心主体参与的软法模式转变。

为了应对人工智能带来的挑战,国家各部门以及地方政府相继出台大量的规范性法律文件,以应对冲突、促进发展。在国家层面,主要集中于数据治理。人工智能作为一种数据密集型技术,需要海量的数据支撑,这些数据中包含国家数据、个人信息、商业数据、政府数据和公共数据等,2017年起施行的《中华人民共和国网络安全法》(以下简称《网络安全法》)要求为了网络安全和数据保护,企业和个人必须采取技术措施保护个人信息和重要数据。为保障数据安全和个人信息权益,2021年国家相继出台了《中华人民共和国数据安全法》(以下简称《数据安全法》)、《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)。在具体应用层面,《中华人民共和国电子商务法》针对大数据杀熟、算法的信息披露义务等作出了规定,《中华人民共和国反不正当竞争法》(以下简称《反不正当竞争法》)的互联网专条针对企业间数据获取和使用作出了规定。我国尚未出台针对人工智能应用的专门立法,但有司法解释和部门规章出台,最高人民法院为推动人工智能同司法工作深度融合,发布《关于规范和加强人工智能司法应用的意见》,国家互联网信息办公室、工业和信息化部和公安部于2022年联合发布《互联网信息服务深度合成管理规定》。在地方层面,深圳、上海作出了立法尝试,为未来人工智能领域的法律规制提供了经验。

关于人工智能的法律规制,学界也有诸多研究和讨论。包括人工智能的基础理论和具体适用问题,比如人工智能的法律地位,人工智能法律规制的前提是明确人工智能在法律关系中的地位,目前有三种理论观点:客体说、有限主体说和完全主体说。传统的侵权责任体系以过错归责为原则,但人工智能造成的侵权责任因人工智能法律地位尚未明确,致害主体和因果关系认定复杂,对侵权责任的认定带来极大挑战。作为人机交互的算法决策机制,学界逐步对其深入研究,如算法黑箱、算法歧视、数据垄断、信息茧房、大数据杀熟、算法共谋等现象。对于算法风险的治理,有学者主张通过有效提升算法透明度和加强监管来解决,有的学者主张既要实现数据开发和算法透明,也要将法律与道义嵌入算法设计,优化算法,强化伦理审查。有学者主张将算法决策嵌入网络社会架构,采用分类分级的精准化治理方法,兼用”“法作为协同治理工具,有学者主张要建立双轨制的规制路径,调整对象升级为算法设计与部署应用的结果,和调整算法自主决策本身,采用平台责任和技术责任双轨并用的责任承担方式。在人工智能具体应用领域,如智慧司法,其内嵌技术具有本源性缺陷,可能会导致过度依赖、主体弱化、算法歧视与数字鸿沟的异化风险,损害司法公开、司法公正等基本原则,为了规制这些风险,有学者主张建立事前评估和事后检验相结合的算法论证规则,设立完善的算法解释规则,嵌入案件预警纠偏机制,并探索运用区块链技术。也有学者主张要对应智慧司法系统的投用全流程,建构伦理与道德的设计审查、裁量标准的统一性尺度、增强算法决策的可解释性与重构责任分配规则的权利保护新体系。

尽管《网络安全法》《数据安全法》《个人信息保护法》等法律的出台作为底层的规则基石为人工智能的健康发展提供了坚实保障,学者也作出了诸多有益的讨论,但是对于人工智能风险的规制仍显乏力。一方面是出台的文件和提出的学说不足以解决人工智能迅猛发展带来的问题,并且预期法律成本过高。如对于算法崛起所带来的法律挑战,传统法律规制主要采取三种方式加以应对:算法公开、个人数据赋权与反算法歧视,但是算法公开或者算法的可解释性面临技术上无法实现、公开无意义、用户算计与侵犯知识产权等难题,个人数据赋权面临个人难以行使数据权利、过度个人数据赋权导致大数据与算法难以有效运转等难题,反算法歧视面临非机器算法歧视、身份不可能完全中立、社会平等难以实现等难题。人工智能的发展建立在数据的收集与利用基础之上,进而会诱发数据安全风险,包括数据投毒、数据深度伪造、数据过度采集、数据滥用分析等方面的威胁,如前所述,我国针对数据保护出台了大量法律法规,但是人工智能内在的局限性,即算法风险,以及数据在人工智能应用中历经数据采集、数据传输、数据储存、数据处理、数据交换再到数据销毁的动态周期过程,所涉及的个人、企业、其他组织、政府等多主体的利益难以调和,引发的隐私保护、可解析性和公平性等问题无法根本解决。此外,根据摩尔定律,互联网等高科技的更新周期大约在两年。20233月,AI领域便发生了一场震撼人心的革命,从斯坦福大学推出的AlpacaChatGPT Plugins,实现实时数据获取仅花了12天时间,立法的速度难以与之匹敌,导致法律滞后现象出现。对此,已有学说指出,与规则和指令相比,当颁布一项规则或者指令带来的预期法律成本过高时,立法机关应当以标准作为更有效率的规制方式。

另一方面,人工智能亟须发展,各种规范性法律文件过多,会成为人工智能发展和创新的掣肘。据统计,我国目前已经制定出台网络领域立法140余部。但人工智能立法应是规范与发展并行的立法。在信息控制者激励失衡的背景下,如果立法缺乏科学性,只是简单施加各种强制性外部要求,忽视信息控制者内在激励机制设计,会抑制大数据开发利用。有企业智库的研究人员通过对美欧日韩立法的对比研究,主张法律天平的一端是产业发展和互联网创新,另一端是私权、用户保护和公共利益,加重平台责任必然与互联网创新背道而驰。现在即使需要对互联网加强监管,合理的监管方式也不是将传统的法律监管框架延伸到互联网,而是探索新的监管范式,协同发挥各方力量,共同治理互联网。

目前大量的规范性法律文件的出台,使得人工智能产业的发展成本也急剧上升,如企业数据的合规管理。企业不仅要遵守数据保护相关的法律法规,还要遵守国家政策、商业惯例、公司章程以及道德规范等,需要配合各个部门密集的监管行动进行整改,无暇顾及数据保护能力的提升。知情权、许可权与删除权等新设权利增加了企业的合规负担,如仅仅针对GDPR(《通用数据保护条例》,General Data Protection Regulation)的要求,全球便有20%的企业因违反要求而导致破产,甚至出现了美国洛杉矶时报及芝加哥论坛报等企业因GDPR合规成本过高而直接退出欧盟市场的现象。对于需要大量收集和使用个人信息的企业来说,个人数据保护机制的建立和完善需要投入的资金巨大,并且需要考虑建成之后每年的维护费用,这都对公司财政状况提出挑战。Telos开展的一项企业合规治理的成本调查显示:每家企业要做到数据的管理符合法律法规的要求,平均需要遵守至少13个不同的IT安全或隐私法规,并且每年在合规性活动上要花费高达350万美元。

本文认为,当前人工智能的法律规制主要是按照人的特点,通过构建权利义务责任,影响人工智能相关人员的行为和意图的方法来实现对人工智能的规制。相对于人工智能本身而言,这种规制路径是通过对人工智能外部人员的规制来实现,本文因而称之为人工智能法律规制的外部路径(简称外部路径)。这种规制路径确实是当前应对人工智能风险必要的也是主要的手段。不过由于外部路径主要考虑的是人的特点,所以在应对人工智能高效、海量、黑箱等特点带来的风险时存在难以有效规制的困境。数量众多、边界不明的规制又导致对技术创新的限制。人工智能较为智能,而且强人工智能已经开始显现。虽然这种智能本质上与人的智能是不同的,但是它还是具有一定的自主性,其在行动和决策上是自动的。但是人工智能不是人,不能理解权利义务责任,难以通过这些方法影响其行为和意图。如果能够在人工智能会被影响的层面和方式上,将法律法规对其行为和目的的要求通过计算机语言和方法来表达,使得人工智能能够直接被影响,并且主动遵循,就可以极大地降低人工智能应用的法律风险,减少人工智能的规制需要。在此基础上,如果能够建立可信人工智能的执法和司法系统,就可以有效地利用人工智能来规制人工智能。这两方面的规制是直接规范人工智能本身的,本文称之为人工智能法律规制的内部路径(简称内部路径)。内部路径虽然旨在让人工智能法律,但是这是为了更有效地约束人工智能,让人工智能更好地服务于人,而不是认为人工智能具有跟人一样的主体地位。要实现内部路径,核心就是通过计算机语言和方法来充分表达法律规则。只有这样,人工智能才能一定程度地理解法律规则,或者说,人工智能的行为和目的才能被法律规则影响。在充分表达的基础上,可以出台权威数据标注规则框架、权威标注数据集、权威法律法规关系图表,搭建人工智能应用可以对接的权威法律规则运维平台,提供人工智能对法律规则遵循程度的检测体系及平台等。此外,只有在充分表达的基础上,才能构建可信的人工智能司法和执法系统,实现以人工智能规制人工智能。而法律规则作为一种抽象的存在,既然可以通过自然语言来表示,也应当可以通过计算机语言和方法来表示。一方面自然语言的词义目前已经有很多复杂的以词向量为代表的表示方法,另一方面,法律规则的逻辑含义也有不少以逻辑变量为代表的表示方法。虽然距离法律规则的充分表达还较远,但是该领域在不断发展,以之作为外部路径的补充未尝不可。况且,当前的外部路径已经在这方面作出了尝试,开始针对算法、标注、预训练数据集等作出一些原则性的规定。不过面对人工智能的不断发展和广泛应用,以及强人工智能的显现,只有原则性的规定不足以实现有效的内部路径。实践中已经出现了相关人员随意构建法律知识图表、使用粗糙的标注数据集等做法。法学界应当在这一领域展开正式的研究,指导和引领实践。


二、人工智能法律规制困境的原因在于当前规制仅采取外部路径

(一)当前人工智能法律规制采取的是外部路径

现代社会已经进入了数字时代,人工智能技术在多个领域广泛应用,人工智能越来越成为我们生活中不可缺少的科技力量,我们的生活逐渐被人工智能渗入。但我们在发展人工智能、利用人工智能的时候,也很容易受到人工智能的影响,陷入人工智能介入可能产生的困境之中。

人工智能深刻影响了法律的发展,法律需要对这种强势力量作出一定的回应,立法者已经采用了多种方法规制人工智能,但这些方法无一例外都属于外部路径。即,当前法律对人工智能的调整,是通过设计一种法律机制,配置人工智能相关人员在法律上的权利义务以及规定违反法律规定所应承担的法律责任,来设定主体的行为模式,引导相关人员在法律所许可的范围内开展与人工智能相关的活动,从而把人工智能相关人员的活动引入可调控的法律秩序之中。

目前人工智能法律规制的方法有:首先,立法者通过制定相关法律法规,明确人工智能技术的应用范围、责任承担等方面的规定。例如,出台《网络安全法》《数据安全法》等法律法规,对人工智能在网络安全、数据安全等领域的应用进行了规范。其次,通过设立相关机构,如中央网络安全和信息化委员会、中国网络空间安全协会人工智能安全治理专业委员会等,加强对人工智能领域的监督和管理。这些机构负责制定和实施相关政策、标准和规范,确保互联网平台等主体对人工智能技术的合规应用。最后,通过加强对人工智能相关行业从业人员的管理,确保他们符合相应的资格要求和技术标准。例如,国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》等文件,对从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等主体的人工智能伦理问题进行了规范。但以上对人工智能的规制均采用了外部路径,即通过构建人工智能相关人员的权利义务责任的方式来进行调整。

当前的外部路径已经取得了一定的成效。然而,由于人工智能技术的快速发展和应用领域的不断扩大,外部路径已经无法满足人工智能应用发展的需要。因此,需要继续探索和完善相关法律制度,以适应新发展形势下人工智能技术的发展需要。

(二)外部路径不直接规制人工智能本身

1.外部规制路径仅规范人的行为,与人工智能技术保持距离

如上文所述,现阶段法律对于人工智能的规制,主要是传统的调整人的权利义务责任的外部路径,只能够从规制人工智能的创造者和使用者的角度来规制人工智能。但人工智能有自身的运行逻辑,有自身的发展要求和规律,现有人工智能已经可以作出一定程度的独立自主的判断和行为。针对人工智能发展所带来的法律挑战,仅有外部路径难以跟上人工智能技术的发展步伐。

外部法律规制路径强调法律与技术要保持距离。法律作为一种社会规范,具有抽象性和稳定性。法律是通过一系列的规则和原则的设置来调整法律主体的行为,这些规则和原则是高度抽象和概括化的,它们构成了法律体系的基本框架。相比之下,技术发展中出现的问题则有具体性、多样性和不断变化的特点。法律太接近技术被认为会损害法律本身的稳定性和可预见性。

因而,外部路径下法律具有一定的滞后性。法律通常是在一定的社会、经济和文化背景下制定的,并且受到特定历史时期的社会价值观和文化传统的影响。因此,法律往往落后于技术的变化,需要在新的社会情况和技术发展要求下改变。大数据时代,人工智能技术高速发展,当今的人工智能已经从单纯的技术工具逐步升级为复杂的自主性体系,并通过嵌入社会权力结构发挥作用。外部路径下法律的这一局限性在当今时代表现得更加明显,外部路径越来越难以追上技术的发展速度,可能导致法律在新的网络时代无法充分保护公民的权益。技术导致的多主体性、主体与客体的模糊性也使得法律更加难以理解和实施。

因此,由于外部路径下法律与技术需要保持一定的距离,进而难以完全适应社会的变化和技术的发展,所以需要引入其他的法律规制路径作为补充。

2.外部规制路径仅解决人工智能相关人员的价值判断问题

根据拉兹对于法律作用的分类,法律具有规范作用和社会作用。当法律作为行为规范作用于人工智能领域时,主要通过对人工智能相关人员的行为起到导向和引导的作用,即引导相关人员进行价值判断来进行规制。法律具有指引、评价、预测、教育和强制作用。法律是通过规定人工智能的相关人员在法律上的权利和义务以及违反法律规定应承担的责任来调整主体的行为的。通过法律,人工智能的相关人员可以知道什么是应当做、可以做的,什么是不能做的。法律可以防止人工智能相关人员作出违反法律指明的行为,鼓励人工智能相关人员从事法律所容许的行为。同时,根据法律规定,人工智能相关人员可以预先估计到他们相互间将如何行为,国家机关及其工作人员将如何行为。人工智能相关人员因而可以根据法律来确定自己的行为方向、方式、界限,合理地作出安排,采取措施。

结合现在的法律和法学理论,外部路径已经解决了一部分价值判断问题。例如关于人工智能技术运用中个人信息保护问题,《中华人民共和国民法典》《个人信息保护法》都针对互联网平台对个人信息的权利、义务、责任范围等作出了规定。《刑法》《行政法》等也通过设置惩罚方式为个人信息保护提供充分的规则供给。又如,《反不正当竞争法》对互联网平台涉数据不正当竞争行为进行规制,从而达到间接保护网络消费者个人信息的目的。再如人工智能应用的前沿领域——自动驾驶问题,自动驾驶在迅猛发展的同时,也遇到了自动驾驶汽车的主体地位和责任认定等伦理和法律挑战。有学者认为,在民法意义上,汽车故障导致的事故引发侵权责任,可以使用现有的机动车交通事故责任规则和产品责任规则来进行规制。有学者认为对于自动驾驶模式下发生的交通事故侵权,从救济与预防目标来看,应由制造商一方承担产品责任。有学者认为司法机关应当通过利用刑罚有效性原则排除主体争议。在刑法方面,有学者认为可以基于既有刑法教义学进行追责,具体的刑事归责方面,可以类型化为:非法利用自动驾驶汽车作为犯罪工具者的故意责任、驾驶人的过失责任、系统故障导致的生产销售者的产品责任以及驾驶人与系统存在过失竞合的责任等四种情况。

学者和立法者通过现有法律,解决了部分人工智能的相关人员哪些行为可以为、哪些行为必须为、哪些行为不能为的价值判断问题。然而,由于人工智能具有一定的智能性,仅仅通过规制人工智能相关人员这种外部路径不足以应对人工智能的规制需要,不能达到像规制其他技术那样的效果,所以在对人工智能的规制时经常出现规制失效、规制限制发展的情况。


三、人工智能法律规制内部路径的提出

面对权利义务责任模式的外部路径在一些人工智能治理场景下的失效,需要有适应人工智能特点的规制路径来克服人工智能高效、海量、黑箱等特点带来的难以有效规制的困境。基于此,本文提出了一种新的人工智能法律规制的内部路径,对外部路径进行补充,协调人工智能规制和发展的需要。

(一)内部路径直接规制人工智能本身

人工智能法律规制的外部路径和内部路径是相对于人工智能本身而言的。如前所述,外部路径是指以构建权利义务责任的方式,通过影响人工智能相关人员的行为和意图来实现对人工智能的规制。以国家互联网信息办公室起草的《生成式人工智能服务管理办法(征求意见稿)》为例,该草案主要规制对象是利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,规定其遵守法律法规、尊重社会公德、公序良俗等义务,如利用生成式人工智能生成的内容不得含有危害国家安全的内容以及歧视的内容,履行个人信息保护义务等。组织和个人违反规定的,应当根据相关法律法规和本草案承担相应的刑事责任和行政责任。外部路径以人工智能相关人员为主体,将人工智能视为技术、工具或者平台,以技术中立或者工具中立的观点,认为人工智能违反法律的本质是使用人工智能的人违反法律,规范使用人工智能的人的行为,能促进人工智能的健康发展和规范应用。

然而人工智能并非以往的技术或者工具,其具有一定的智能性,尤其是强人工智能已经开始显现,在算法和数据的支持下,人工智能在一定程度上能够自主行为和决策。在这种背景下,提出内部路径是可能的,也是必须的。内部路径是指直接规制人工智能本身,在人工智能会被影响的层面和方式上,将法律的要求通过计算机语言和方法来表达,使得人工智能能够理解,并且主动遵循。内部路径相对于外部路径来说深入人工智能内部,建立在人工智能具有一定智能性的基础之上,以人工智能本身为规制对象,即在程序、算法层面约束人工智能无法违反法律,即使其使用者要求其违反法律或将其用于实施违法行为。目前,我国一般采取外部路径规制人工智能,但部分法律法规中体现出了内部路径的精神,如,《生成式人工智能服务管理办法(征求意见稿)》中已经开始注意会直接影响人工智能行为的几个因素,并对其规定了一些基本要求,包括对人工智能的预训练过程、大模型的调用、训练集的要求等。

(二)内部规制路径通过在技术底层融入法律规则的要求实现对人工智能的直接规制

既然要直接规制人工智能,那就要让人工智能理解法律规则,其行为和决策直接受法律规则约束。所以内部路径与外部路径本质的区别是,外部路径是让人懂法律规则,而内部路径是让人工智能法律规则。因此,内部路径的核心是法律规则的计算机表达。只有通过计算机充分准确地表达了法律规则,人工智能才能理解和遵循。值得一提的是,人工智能虽然有智能化的表现,但是跟人还是有本质的不同。而且让人工智能法律,是为了更有效地约束人工智能,让人工智能更好地服务于人,而不是认为人工智能具有跟人一样的主体地位。所以所谓让人工智能理解和遵循法律规则,其实是指在人工智能能够被直接影响的层面按照法律规则的要求予以规范,换言之,在能够直接影响人工智能的层面将法律规则的要求表达出来,使得人工智能直接受到法律规则的约束和规范。

现有的智慧法治、数字法治实践也是沿着这个方向在不断努力,让计算机能够获取法律知识,自动完成法律任务。虽然这些实践的目的是研究如何将人工智能技术应用到法律领域,而不是研究如何规范人工智能技术本身,但是为了更好地完成这些法律任务,已有研究在不断地完善法律规则相关知识体系的计算机表达。因为法律规则的相关知识越能较好地被计算机获取和处理,计算机完成相关法律任务的能力已经被证明就会越好,就越能得到认可。虽然人工智能无法像人类那样理解法条、进行三段论式的法律推理,但是人工智能有适应其特点的三段论适用法律的方式。在理解、确定适用的法律规范(大前提)方面,已有不少研究取得较大进展。可以通过构建法律规则的要件体系并将其标签化、构建法律规则体系的图表、对结构化的判决书中的裁判说理和裁判依据部分进行自动处理等方法将关于法律规则的知识转变成计算机可以自动获取和学习的知识,训练计算机在法律规则体系中寻找、确定与案件事实相关的可能适用的大前提的能力,训练计算机将大前提要件化。在分析、识别关键性事实(小前提)方面,已有研究也有不少成果。可以通过进一步丰富要件体系、构建关键性事实的标签体系、有效运用通用自然语言大模型、自动生成标注的法律事实数据集等方法训练计算机自动识别、抽取关键性事实的能力。在根据大、小前提进行演绎得到结果方面,已有研究的尝试显示,可以通过自动获取关键性事实与裁判依据及争议焦点的对应关系表、构建法律规则体系的图表、设定逻辑规则等方法训练计算机进行法律推理、确定法律适用路径、得到法律适用结果的能力。

除了法律适用,人工智能还可能在具体行动的过程中获取法律知识、受到法律规则的约束。总结已有研究,本文认为法律规则计算机表达具体包括法律规则的标签化、法律任务的要件化、法律知识的数据化、法律规则体系的图表化、法律规则表达效果的指标化等。法律规则的标签化是指将法律规则的理解转换成标签体系,通过标注数据,让计算机自动获取。法律任务的要件化是指将法律规则的行动预期和适用等任务进一步分解为相关法律规则的要件及要件之间的逻辑关系,让计算机自动获取法律规则的要件及逻辑结构知识,分步完成这些任务。法律知识的数据化是指将法律知识通过数据表示出来,运用像正则表达式、通用自然语言大模型、标注数据等方法让计算机通过数据获`取法律知识。法律规则体系的图表化是指将法律规则之间的对应关系、先后的变化关系,法律规则的要件逻辑关系、优先级和权重等让计算机通过像知识图谱、决策树、回归模型等方法自动获取。法律规则表达效果的指标化是指在检验人工智能完成法律任务的效果指标中增加反映其对法律规则理解能力的指标,对非法律任务的人工智能完成效果的检测也适当考虑增加该场景相关的法律规则遵循效果的指标。

通过这些方法,法律规则的计算机表达已经在不断实践,而且在不断完善。这些方法都旨在让计算机能够获取法律知识,并在完成任务时运用这些知识。在完成像类案检索、辅助司法裁判等司法类任务时,人工智能可以通过前述方法在理解法律规则的基础上进行检索、给出建议。在完成像合同生成、协议审查、法律智能问答等公共法律服务类任务时,人工智能可以通过前述方法根据获取的法律知识,撰写符合法律要求的合同,审查协议的合法性,给出符合法律规定的回答和行动建议。在完成像自动驾驶、自动交易、自动分享传播、自动推荐、自动筛查等行动类任务时,人工智能可以自动选择符合法律规定的方法来完成任务,避免不合规定的驾驶行为,阻止虚假欺诈的交易,及时删除侵权数据的分发,阻止侵犯个人信息的收集处理行为,防止内容违法犯罪的数据传播。

在法律规则计算机表达的不断发展下,可以预见会有两种模式的内部路径。一是国家主导的模式,具体以国家机关组织、国家资助高校科研院所研发、企业负责工程建设的路径展开。这样的模式可能形成一些基础类的工具,比如通用的法律规则要件标签体系、法律规则体系的图表、基础的标注数据集、通用的合同协议生成模型等。还可能发布一些排除高风险的具体任务的基座模型,比如建议的自动驾驶基本要求基座模型、高风险内容及可疑交易自动判断筛查基座模型等。以及在立法、司法、执法工作中运用的人工智能工具,用以辅助识别、规制人工智能行为。二是市场主导的模式,具体以国家政策支持和引导、市场多主体参与、企业投资研发、良性竞争的路径展开。这样的模式可以一定程度参与和支持第一种模式,更重要的是可以产生丰富多样的人工智能产品和服务,直接促进人工智能技术向善,推动社会经济生产生活高速发展。比如形成可以为人工智能应用直接调用的相关领域法律要求的法律法规要件标签体系、基座模型、白名单数据、通用算法规则,发布可以用来检测人工智能应用对法律规则遵循效果的通用标注数据集和指标体系,产生可以直接调用、与人工智能应用结合完成合规审查的任务模型等。


四、人工智能法律规制困境需要内部路径的补充

(一)外部规制路径存在规制失效、监管成本过高的情况

随着人工智能技术的不断发展,其在社会生活中的应用越来越广泛,但同时也引发了一系列的法律问题。现有的基于权利义务责任分配的外部路径是规制人工智能的主要路径,但其难以有效应对人工智能的高效、海量和黑箱特性,即法律只能解决人的权利和义务,但不能使人工智能得到有针对性地调整,法律与技术始终保持着距离,这已成为当前面临的困境之一。

第一,责任主体的认定较为困难。随着人工智能技术的不断进步,越来越多的个人数据、个人信息被收集、记录和储存,这也意味着越来越多的个人信息、个人数据可能存在被泄露的风险,甚至会进一步导致个人隐私泄露、大数据杀熟等违法行为的出现。然而,由于人工智能技术所涉及的利益方众多,存在着复杂的权利义务关系,在这些违法犯罪行为发生时,存在着责任主体识别困难、责任承担难以落实等困境。有的学者认为,网络侵权行为涉及主体众多,包括算法开发者、算法使用者(即平台)、算法消费者,在某些情形下,算法开发者与算法使用者甚至会出现重合。有的学者认为,监管机构平台用户的监管路径可能会出现平台责任边界不清的风险。有的学者认为,要求平台为算法部署和应用的不利后果承担责任,可能会因为没有评判算法部署和应用是否合理的法定标准,而使平台责任范畴模糊。在这种情况下,我们需要通过更加科学的方式来确定责任,而不是仅仅依靠传统的权利义务分配方式来规制人工智能。

第二,人工智能监管成本较高。由于人工智能犯罪产生的数据海量,以及人工智能犯罪的高技术性和隐蔽性,导致人工智能监管成本较高。人工智能犯罪与传统犯罪相比,具有犯罪行为发生的随机性、犯罪过程迅速、犯罪后果呈裂变式等特点,因此监管机构对其监管成本较高。人工智能犯罪的监管难度也在于其技术手段的复杂性。由于人工智能系统具有高度的复杂性和不确定性,人工智能应用已不仅仅是技术化的工具,而是越来越具有类似于人类思维的能力,监管机构需要投入大量的技术资源来分析和识别犯罪行为。人工智能系统还具有自我学习和自我修复的能力,这也增加了监管难度。随着人工智能技术的快速发展,如何对其进行有效监管已经成为一个重要的课题,监管机构需要采用更加高效、精准的监管手段来应对人工智能犯罪带来的挑战。

第三,人工智能存在黑箱问题,加重了责任主体认定的困难。由于人工智能技术本身的特性,其决策过程往往是黑箱化的,这使得人们很难了解其内部决策的原因和依据。有学者认为人工智能的规则设计和运作,有时会出现用户甚至开发者无法理解的秘密状态。有学者认为在人工智能系统输入的数据和其输出的结果之间,存在着人们无法洞悉的隐层,这就是算法黑箱。从算法决策和人类决策的特性可以发现,算法危机的产生并非全由算法黑箱导致,人类决策同样具有黑箱性。有学者认为算法的不可解释性使得其对现有的法律责任体系适用困难。目前尚无完整的技术方案对黑箱算法进行全局解释,虽然存在局部补充解释工具作为替代性解释方法,但该类解释的可信度一直面临质疑。这也给法律规制带来了困难,因为很难确定哪些决策是合法的,哪些决策是非法的。因此,需要采用更加科学的方式来评估人工智能技术的合法性,并对违法决策进行惩处。

(二)外部规制路径容易造成规制限制发展的情况

第一,责任主体范围过大以及平台责任过重。外部路径是通过人工智能相关人员来规制人工智能,所以要确定责任主体,但是人工智能相关人员的范围过于宽泛,包括关键基础设施运营者、个人信息处理者,后扩展至互联网服务提供者,再后扩展至任何主体及个人。而由于责任主体过于宽泛,所有人工智能相关人员都成为监管对象。此外,由于责任边界的模糊,容易一刀切地由互联网平台来承担责任,导致平台责任过重。《数据安全法》《网络安全法》《个人信息保护法》等多部法律都对人工智能相关人员的责任作出了规定,刑法也设置了帮助信息网络犯罪活动罪和拒不履行信息网络安全管理义务罪来对互联网平台进行规制。当今时代,互联网平台不仅要对算法的设计负起责任,同样也要对算法在部署和应用中产生的不利法律后果承担责任。人工智能技术的研发在当前外部路径下存在不确定性和一定风险,人工智能产业的发展受限。

第二,规制的边界不确定,合规治理的成本过高。人工智能技术在研发和运用过程中,个体和机构的很多行为都很容易触犯相关法律,企业、个人难以界定哪些行为是违法行为,容易导致人工智能企业创新能力的下降。例如,从研发角度,《中华人民共和国刑法修正案(九)》专门规定了帮助信息网络犯罪活动罪和拒不履行信息网络安全管理义务罪,网络服务提供者等主体为他人基于信息网络技术实施犯罪行为提供了网络技术与网络结算等各类支持与帮助,或者不履行信息网络安全管理义务的消极不作为方式提供技术支持、帮助,将受到刑法的规制。然而,何为促进犯罪活动的技术支持、帮助行为,何为正常的技术活动,在司法实践中界限还较为模糊,这容易构成信息网络服务者经营活动的重大刑事法律风险,对各类创新性的信息网络技术构成了压力与限制。又如,研发数据的获取、处理、分析、应用就涉及多个主体和多部法律的要求,数据合规涉及的法条众多,数据的获取、处理、分析、应用等多个阶段都要重复受到法律的限制,这使得人工智能研发企业难以确定哪些研发行为、预训练、数据、数据获取和处理分析行为及算法是合法的。随着我国不断加强互联网平台等主体责任的落实,平台方越来越需要加强内部监管,从而走向另一个极端——过度审查,这会导致企业合规成本过高,还会降低互联网平台经济的发展质量,阻碍平台经济中信息、数据等关键资源的自由流通。

可以看出,当前的外部路径在一定程度上存在着过度干预的风险。这种过度干预不仅表现在法律对于人工智能研发的宽泛管制,也表现在法律对于人工智能企业的多方面审查和干预。这可能会限制企业的自由和创新能力,从而阻碍人工智能的发展。

(三)内部路径的特点可以补充外部路径,更加准确、有效地规制人工智能

前述两点表明,人工智能所带来的挑战需要我们采用更加全面、科学的法律规制路径来应对。我们需要在充分考虑各种权利义务责任的同时,采用高效、精准的内部规制路径加以补充,以确保人工智能技术在社会生活中得到合理、有效地监管。内部规制路径具有穿透式规制和以人工智能规制人工智能的特点,可以更加准确、有效地规制人工智能应用。

1.穿透式规制

内部路径具有穿透式规制的特点,即相对于外部路径通过规制人工智能相关人员间接规制人工智能,内部路径穿透人工智能相关人员,直接规制人工智能。在工具不智能、完全隶属于人的情况下,法律无法规制工具本身,工具的活动实际上反映人的行为,法律只能通过调整人的行为避免工具对他人造成妨碍或危害。但是人工智能相对于普通工具具有海量、高效和黑箱的特点,能力极其强大,所以造成前文分析的规制困境。此外,在人工智能已彰显一定智能甚至强智能的情况下,人工智能的行为具有一定的自主性,在有些时候可能超越其使用者的意图或者目的,其能力和副作用可能超出其设计者的预设。此时,人工智能的行为实际上在人工智能理解人的指令和人工智能本身的自主决策双重支配之下。因此,外部路径的实现是由人工智能相关人员理解法律的要求,从而调整人工智能的程序、算法,规制人工智能的行为,具有间接性;内部路径的实现是将法律的要求直接转化为人工智能的程序、算法,由人工智能理解并执行,具有穿透性、直接性。

内部路径的穿透式规制特点在自动驾驶系统中有较好的体现。考虑到自动驾驶的汽车和人驾驶的汽车将长期混合存在的情况,自动驾驶汽车必须和人驾驶的汽车遵守同一套交通规则体系,在交通规则体系下由自动驾驶系统代替人从事驾驶活动,因此,将由自然语言表述的交通规则转化为自动驾驶系统能理解和执行的计算机语言是必要的。目前,学者已开展了将自然语言表述的交通规则转化为自动驾驶系统可以理解和执行的数字化交通规则的研究。

2.以人工智能规制人工智能

内部路径的另一大特点是以人工智能规制人工智能。该特点有两方面内容。一是,在人工智能能够被直接影响的层面进行规制,具体包括出台通用的法律知识图谱或决策树、回归的基础工具和基座模型,发布标注规则体系的建议,提供通用的标注数据集,以及法律规则表达是否准确充分的检测指标体系等。这些方法可以加强对法律规则的计算机表达,使得人工智能在运行时能够直接获取法律的知识,受到法律的约束,在法律的框架之内执行其使用者的指令,提高其活动的合法性。

二是构建人工智能的法治系统,通过人工智能法治工具,自动识别、规范、处理人工智能应用的行为,并通过反馈机制让人工智能自动改善自己的行为,提高合法性。通过前文的方法,不断提高计算机自动获取法律知识、进行法律规则适用判断的能力,构建和完善能够理解并遵守法律规则的人工智能司法、执法系统,在司法活动中可以辅助司法人员更高效地裁决涉人工智能案件,在执法活动中可以帮助执法人员更加有效地进行法律监督,按照法律规则的要求开展执法活动,实现以人工智能规制人工智能应用。


五、内部路径可以克服人工智能规制困境的理由

如前所述,在使用外部路径规制人工智能时会陷入两方面的困境,而内部路径则可以利用其自身所具有的特性,在外部路径失效的场景中发挥作用,从而对外部路径起到有效补充,最终将二者相结合,实现对人工智能的有效规制。

(一)内部路径可以提升外部路径规制的有效性

前文已经分析了通过外部路径规制人工智能时存在明显不足的原因,主要是因为算法黑箱的存在使算法具有天然屏障、从弱人工智能向强人工智能的技术革新使人工智能应用场景中的责任主体越发模糊、权利义务关系难以准确判断,以上一系列因人工智能自身智能特性所引发的规制难点,使现有通过调整人(主要为人工智能开发者、运营者、提供者等)而影响人工智能的外部路径难以对人工智能实现有效规制。因此需要内部路径的补充,弥补外部路径存在的不足。

1.内部路径可以有效地确定规制的对象

内部路径的内部体现为一种穿透式的规制,即越过相关人员,直接规制人工智能本身。这一路径的核心在于通过法律规则的计算机表达,使计算机能够理解、遵循事先内置于其中的法律规则,从而让人工智能的运行、生成结果符合已经预先内置于代码中的法律规则,即将法律的指引作用运用到人工智能的运行过程中。由于内部路径是利用计算机技术表达法律规则的要求,所以可以通过一些在数据的收集处理和模型的搭建训练检测层面的指标和方法来直接检测人工智能应用对一般性法律规则的符合程度。这样可以快速、便捷、自动地检测出可能存在问题的人工智能应用,更加有效地确定需要规制的人工智能及相关人员。一方面,可以让数据的准确和模型的搭建训练尽量减少黑箱的部分,增加让人理解的步骤。另一方面,可以通过检测指标和方法避开黑箱的影响,确定规制的对象。

关于此类以技术规制技术的方法,已经有学者在区块链治理领域中提出,并将其总结为以法入链以链治链。内部路径也是将现有的法律规则通过计算机语言表达,让人工智能直接遵循已经被计算机语言和方法表达的法律规则,从而弥补外部路径与技术保持一定距离的不足,提升新发展形势下人工智能治理效率。

内部路径的底层逻辑为代码创设了算法的运行方式,其亦具有反向管理算法的权能,因此人工智能算法规制在一定程度上可借助代码规制实现。从认识层面看,很长一段时间里,算法被视为脱离于价值判断的纯粹的运算程序,是纯粹的技术问题,在技术中立”“算法黑箱掩护下肆意生长。但是,随着技术的发展尤其是算法不利后果的凸显,人们逐渐认识到算法其实是携带价值取向或数据偏见的复杂运行程序。这种取向或偏见可能源于设计者、研发者,也可能源于任务完成的训练过程。在计算运行的过程还可能会强化这种偏见或不道德,即自我实现的歧视性反馈循环,最终形成消极后果。因此有研究已经提出应当为机器进行双重意义的编码,将人类想要人工智能遵循的法律规则写入代码、写入控制机器的软件。比如在第一层编码的基础上进行第二层编码,并让第二层编码符合第一层编码内含的法律、伦理规范。不过,具体如何实现还需要计算机科学研究者在法律规则计算机表达理论的发展指导下进行。内部路径使人工智能在被设计之初便能够做到符合现行法律要求,并且因为其已经内置有需要被遵守的法律规则,因此在面对生成式人工智能迅猛发展的现状下也能较好地发挥作用,即可以实现让人工智能后续生成内容在脱离人为控制的前提下,仍然可以符合相关法律、伦理规范。

2.内部路径可以实现高效的规制过程

内部路径可在实现法律规则计算机表达的基础上,进一步提升人工智能规制效率。外部路径通过规制人工智能相关人员影响人工智能的方法没有充分考虑强人工智能的发展方向,同时在现有的人工智能算法设计、开发背景下,外部路径也存在着规制效率不高、过程过于烦琐等明显不足。而内部路径选择将人工智能需要遵守的一系列法律规则通过计算机表达的方式内置于人工智能算法,可以实现一次设置、多次重复使用,从而大幅提升了人工智能规制的效率。并且除了通过事先预设程序进行事前规制,以法律规则的计算机表达为基础建设的可信人工智能司法、执法平台,也可以在实现数据共享、相关标准共同制定、知识图谱共建的基础上对后续开发的人工智能进行快速合规检测,从而将人工从现有的外部路径所要进行的烦琐、低效的监管工作中解放出来,实现对人工智能的高效规制。

外部路径通过人规制人工智能,存在规制低效、失效的困境,因为人的反应远远慢于人工智能。内部路径通过计算机表达法律规则,将法律规则的要求转化成具体的人工智能检测指标和方法。这样,一方面,可以直接、自动检测人工智能应用对一般性法律规则的符合程度;另一方面,可以搭建人工智能执法、司法辅助系统,自动地发现、检测、处理在实际应用中存在问题的人工智能,高效地锁定需要规制的相关人员及技术应用。

(二)内部路径可以平衡规制和创新

外部路径存在的另一问题是因规制而限制技术创新,这主要是因为人工智能所具有的技术特性使外部路径在试图提升其规制效率时无法兼顾精准监管,从而导致外部路径容易在规制时产生一刀切或者监管边界不明限制创新的问题。而在内部路径的补充下,这些问题会随着内部路径有效提高对人工智能的规制能力、达到预设规制目的而迎刃而解。并且内部路径可以在实现高效规制的基础上更好地进行精准监管,通过为人工智能设置其能理解并遵循的行为规范,制定符合人工智能特点的规制规则,避免一刀切,实现不限制人工智能有益发展的监管。

1.内部路径可以明确规制边界

内部规制的逻辑为用人工智能规制人工智能。如果我们将法律条文编程输入智能机器构成法律编码,那么软件代码不允许逾越法律层编码所设定的权利义务边界。这就要求法律编码必须表意明确,如此人工智能算法才能按照代码执行。而此种编码化的法律规则相较于自然语言表达的法律规则少了一些模糊性与抽象性,变得更为清晰、明确,从而有助于提升相关法律规则的稳定性,使得规制过程中法的确定性、一致性以及法的可预期性得到了进一步提升。并且内部路径将在法律计算机表达的基础上建设可信人工智能司法、执法平台,通过平台明确人工智能行为边界、对人工智能进行合规检测。这一平台的建设可以让多方主体群策群力,相关可信人工智能标准的制定、法律规则代码的编写可以由更广泛的开发者、法学专家参与。通过此种方式得出的内部路径可以满足人工智能精准规制的需求,也容易得到相关从业人员的认可。这种方法也可以打消其他想要进入人工智能领域的从业人员的顾虑,增强了从业人员信心,为市场注入了活力。

2.内部路径可以降低合规治理的成本

内部路径面向人工智能本身,尽可能减少对开发者的直接规制。外部路径中关于人工智能规制的法律规则,大多为笼统、原则性的规定,许多规定在制定时并未能充分考虑相关技术的现实应用的场景,从而导致其可能对开发者提出了一些较高的、不切实际的要求。已有研究指出目前人工智能外部监管体系存在要求过于严苛、合规治理的成本较高等问题。因此在当前的外部路径中,开发者不得不在开发人工智能产品时尽到相当高的注意义务,在数据训练、模型设计的每一环节都需要做到符合现行法律,这无疑是加重了开发者的责任,使其在设计程序时还需要尽可能熟悉相关法律,从而提高了人工智能技术的合规成本与进入门槛。而在内部路径的补充下,通过由法学界与开发者共同建设前文所述的可信人工智能司法、执法平台、共建数据共享平台、法律规则计算机表达知识图谱,让开发者不需要再去深入了解法律,而只需要将已经合规的规制程序、数据集嵌入现有的人工智能算法,让人工智能自己去学习、遵循相关的法律规则,这大大降低了人工智能合规治理的门槛与开发者的学习成本。

此外从学理上来看,外部路径将规制重心置于人工智能背后的开发者或其他相关人员,试图通过规制相关人员的行为来影响其所设计、开发出的人工智能,但是应当看到在此种规制路径中,人工智能作为处于高速发展变化中的技术,法律自身所具有的滞后性与其特性存在明显差异。并且因为法律制度的发展与变革,每一过程的路径选择和规则设计,其法律思维一般都是客观事实分析与主观价值判断的综合。就法律制度建设而言,如果总是基于技术及其效应的充分显现,以此形成以技术事实为基础的社会规范,那么法律制度的滞后现象将会十分严重,最终导致技术法律对技术匡正的失效和无力。因此在人工智能技术迅猛发展的现状下,试图仅通过外部路径实现有效规制人工智能的目标,实际上是不符合技术发展规律的。面对此类正处于高速发展变化中的技术,在进行立法规制时不仅要考虑其法律效果,还需要考虑规制可能产生的社会效果,即应当综合考虑技术的本质与发展现状来探索规制路径。因此,只有在内部路径的补充下,才能更好地适应人工智能技术发展现状,既实现对人工智能的有效规制又不过分限制其创新发展。


结语

本文中,人工智能法律规制的内部路径是指将法律规则通过计算机语言和方法来表示,使得人工智能能够理解和遵循。具体手段包括官方出台权威法律知识图谱或决策树加回归的模型,权威标注规则体系,权威标注数据集,权威的法律规则表达是否准确充分的检测指标体系等。这不是说要出台权威的人工智能应用,而是要提供接口让人工智能应用可以对接,以便理解和遵循这些法律规则的要求。这些手段听起来不可思议,无法想象,而且面对的是弱人工智能,所以只是作为补充手段,旨在克服前文所述的外部路径困境,帮助外部路径更好地规制人工智能。

人工智能正在以不可思议的速度发展进步,强人工智能能力已经显现。面对具有越来越强的智能的技术,只是通过其相关人员加以规制会日益捉襟见肘。一是难以锁定责任主体,难以确定权利内容;二是难以通过人来管理人工智能。另外,法律规则作为一种抽象的存在,既可以以自然语言的形式表示,也可以以计算机语言的形式表示。只不过离开了自然语言的文字含义,法律概念范畴的含义需要有更多的方法来表达。当前主要是通过多种构建方法得到与自然语言含义尽可能接近的词向量。在探索如何充分表达法律规则方面,计算机和法学界都已经进行了不少的前期积累。

在这些工作的基础上,内部路径可以让人工智能在底层技术搭建和运行原理上就主动遵循一般性的法律规则的要求,更加高效、精准地锁定出现问题的人工智能,更加高效地反应和处理。因此,通过计算机语言和方法表达的法律规则,出台人工智能可以理解的法规和构建人工智能司法、执法系统,搭建通用法律大模型和人工智能对接检测平台,实现以人工智能规制人工智能应用,应当作为一种补充规制路径,正式展开探索和实践。


因篇幅限制,已省略注释及参考文献。

引注:邓矜婷:《论人工智能法律规制的内部路径》,载《河北法学》2025年第8期,第100-121页。



地址:河北省石家庄市友谊北大街569号

Copyright© 2004-2005 All Rights Reserved 冀ICP备11009298号