作者简介:鲍奕含,女,辽宁鞍山人,中国政法大学数据法治研究院博士研究生,研究方向:数据法学。
摘要:作为生成式人工智能多模态发展的关键突破,数字人应用实现了对诸多行业的广泛赋能。与此同时,作为人工智能时代对真实个体私权益商业化利用的新型方式,数字人应用给人工智能治理体系带来私权益、公共利益及伦理层面的治理挑战。探赜数字人应用治理挑战的成因可知,其存在治理机制协同不力、治理结构存在局限及治理规范体系性不足等问题,难以应对风险的复杂性、广泛性与分散性。健全完善数字人应用治理体系,要从理论和实践两方面加强法律与伦理治理机制的耦合;需要多元主体参与共建数字人应用可信数字身份制度和可信透明制度;还需要构建协调统一的数字人应用规范体系,以此推动数字人应用的健康有序发展。
关键词:数字人应用;生成式人工智能;人工智能治理体系;伦理审查;可信数字身份
一、问题的提出
随着生成式人工智能技术多模态的融合发展,具备交互能力的数字人步入了大众的视野。无论是文化媒体产业内的数字主持人,还是电商直播领域内深度还原真人整体外观和语言风格的数字主播,数字人正逐渐在大众传播、商业活动等诸多社会场景中扮演重要角色。《中国数字人发展报告(2024)》预计,到2025年我国“数字人”带动的产业市场规模将超过6402.7亿元。在中国科学技术协会发布的2024重大科技问题中,第一项即为“情智兼备数字人与机器人的研究”,这说明人工智能已朝着兼具计算决策和情感交流的高阶形态逐渐演进,数字人应用已成为人工智能应用的新领域。
数字人主要指依据类脑科学、计算机图形学、语音合成技术、深度学习等技术手段构建,并具有“人”的外观、行为甚至思想(价值观)的可交互的虚拟形象。数字人可以分为虚拟型数字人与真人对应型数字人,虚拟型数字人并无与物理世界相关联的真实主体,典型代表为二次元的洛天依等。而真人对应型数字人则是以现实世界中的特定自然人为原型在数字空间所构建的具有交互能力的数字人,如根据美国著名心理学家赛利格曼(Seligman)的形象和十五本著作构建的数字人AI Seligman。由于真人对应型数字人涉及的风险更为复杂,故本文将其作为主要研究对象。
从人工智能治理角度来看,数字人应用应被定性为综合利用多种智能技术还原真实主体外观形象,并可以模拟特定自然人语言风格和思维方式的生成式人工智能服务。虽然我国已形成了有关算法、深度合成、生成式人工智能较为完善的人工智能治理体系,但现行治理体系中有关用户权益保护的相关规定主要针对的是作为服务提供对象的网络用户。然而,数字人应用作为生成式人工智能技术同人类真实主体深度结合的新型应用,除了涉及用户的权益保护问题,还存在着保障真实主体权益的需求。此外,数字人应用还带来了对人类个体价值完整性、情感能力及社会传统认知等伦理层面的深层影响,给现行人工智能治理体系带来了挑战。
党的二十届三中全会在《中共中央关于进一步全面深化改革 推进中国式现代化的决定》中强调“加强新领域新赛道的制度性供给”,并提出“完善新一代信息技术、人工智能等战略性产业发展政策和治理体系”。如何完善人工智能治理体系以推动数字人技术、产业的健康发展,保障其安全、可靠、可控、可信等问题需要治理体系予以及时回应。本文基于此展开研究,并借以数字人应用治理为切入点推动人工智能治理体系的完善。
二、数字人应用治理挑战的样态表征
数字人应用作为生成式人工智能技术的新兴应用,给各行各业带来降本增效和增强体验等技术红利,但也给人工智能治理体系带来了多层面的挑战。因此,需全面解构数字人应用的治理挑战以明晰治理体系的调整方向。
(一)数字人应用的私权益侵害风险
数字人应用在ChatGPT等生成式人工智能应用基础上,还叠加对真实主体人格权和著作权的商业化利用。数字人应用不仅需要在外在维度上高度还原真实主体,还要在内在维度上复刻真实主体的喜好记忆、表达方式及专业知识等。所以,数字人应用服务提供者需要收集、储存、加工及传输真实主体不同渠道和类型的数据,并基于真实主体的数据对生成式人工智能模型进行微调,从而个性化定制真实主体的数字人。从社会生产生活的角度来看,构建数字人本质上是真实主体将姓名、肖像、声音及作品等数据作为生产要素授权许可给数字人服务提供者进行训练,由数字人服务提供者使用相关数据“投喂”生成式人工智能模型,最终构建数字人参与社会生产的过程。数字人应用使用的数据上承载着真实主体肖像权、隐私权、名誉权、著作权等人格权益和财产权益,因此数字人应用属于人工智能时代对人格权和著作权商业化利用的新型人工智能应用,需要数字人应用服务提供者事先取得真实主体的授权许可。
首先,出于对商业利益的追求,在实践中未经许可擅自构建数字人的事例屡见不鲜。依据我国《民法典》的相关规定,自然人对其肖像、声音等享有人格权益,对其作品享有著作权。其中,由于构建数字人所使用的作品几乎都来自于真实主体,以模仿特定作者为目的的作品使用方式难以被认定为合理使用。因此,未经真实主体授权许可构建数字人构成对真实主体的人格权益和著作权的侵害。国内外的司法实践中均已出现相关案例,如我国的“AI陪伴”软件侵害人格权案,被告因擅自使用真实主体姓名、肖像创设数字人被法院认定为构成人格权侵权。在美国,加利福尼亚州中区地方法院也认定未经授权许可使用人工智能“复活”逝世演员的行为构成对逝世演员个人形象权及著作权的侵犯,并对被告发布了永久禁令。为此,美国加利福尼亚州也通过了关于数字复制人(digital replica)的法案,法案规定使用表演者的数字复制人应获得授权,旨在保护所有表演者的形象和声音权益。
其次,由于数字人应用形式与权限等尚无法律明确规定,因此即便经过真实主体的授权,数字人交互过程中还存在着名誉权、隐私权等人格权的侵害风险。传统人格权的商业化利用的方式往往采用照片、视频等呈现方式,使用场景也具有预见性和固定性,能够确保肖像、声音等呈现方式符合真实主体的形象和预期。而数字人在生成式人工智能的驱动下具有强大的内容生成能力,有可能生成与真实主体意志相悖的言论,甚至可能出现辱骂用户等侵权情形。而数字人外观的“人形”、记忆的“真实承载”及内在“智能”模糊了人机的边界,如果其在与用户交互过程中表达不当言论或作出不当行为,可能会导致用户将与数字人的交互和与真实主体的交流混为一谈。这不仅会给真实主体的名誉带来难以挽回的损害,也可能会对用户的权益造成侵害。
最后,数字人应用可能会给真实主体行使个人信息删除权造成阻碍。根据《个人信息保护法》的规定,删除权是指自然人在发现信息处理者违反法律、行政法规的规定或者双方的约定处理其个人信息时,有权请求信息处理者及时删除的权利。为保证数字人还原真实主体的全面性和准确度,除了需要收集真实主体的肖像、声音等数据,还需要收集真实主体的语言表达风格、日常生活习惯等其他数据。因此,在符合一定条件下,如肖像权授权许可合同期间届满,真实主体享有要求数字人应用服务提供者删除相关个人信息的权利。然而,数字人应用产业链主体多元,服务提供者完成数字人的构建后往往给部署者(实际使用者)开放端口。为保障市场交易的稳定性,数字人应用服务提供者履行删除义务时无法溯及数字人应用部署者,导致服务提供者即使履行了删除义务,也无法满足个人信息被删除的要求。
(二)数字人应用的公共利益风险
数字人应用旨在赋能各行各业,实现跨领域、跨场景应用,与此同时也带来了宏观层面的公共利益风险,具体包括数据安全风险、算法安全风险及内容安全风险。
一是数据安全风险。数据安全风险主要是在生成式人工智能数据训练、传输过程中的数据泄漏风险与防御能力的不足。为保障数据安全,生成式人工智能预训练过程中通常采取兼顾数据安全与数据利用的匿名化数据训练模式,即根据不同场景中相关主体与数据之间的关系,采取一种或多种匿名化处理技术手段,如抑制技术、假名化技术、K-匿名技术等,从而模糊、隐藏及切断数据与主体之间的关联。然而,构建数字人的本质是对真实主体的还原,这就需要保证将收集的真实主体个人数据直接用于生成式人工智能的微调训练,而不能像生成式人工智能预训练中抹去个人数据中的可识别性因素。因此,数字人的数据训练过程因无法采取匿名化训练方式,一旦数据泄漏可能会导致大规模个人信息泄漏的风险。此外,数字人应用产业上下游之间持续进行数据的传输、再加工,也导致数字人更容易成为网络攻击的对象,存在数据泄漏的风险。
二是算法安全风险。根据我国《人工智能安全治理框架》1.0版,算法安全风险包括偏见歧视风险、被窃取篡改的风险等。一方面,对于偏见歧视风险而言,由于数据集质量的参差不齐、算法的黑箱性以及技术本身的局限性等因素,作为数字人驱动内核的生成式人工智能本身就存在一定的偏见歧视问题。而数字人的微调训练过程不可避免地将真实主体的偏见歧视复制到数字人中,加剧了算法的偏见歧视风险。有研究显示,开发者通过手动制作年龄、性别、个人特征和偏好等细节为人工智能分配人物角色时,可能会无意中注入现实社会的刻板印象和个人偏好,导致人工智能的行为和交互方式之中衍生新型偏见。另一方面,对于被窃取篡改的风险而言,不法分子可以通过窃取篡改数字人的算法参数、结构、功能等核心信息,或攻击对话界面等方式冒充数字人,进行身份盗用、欺诈性交易或敲诈勒索等。
三是内容安全风险。相较于文字的交互方式,数字人应用加大了用户辨别错误虚假信息的难度,加剧内容安全的保障难度。数字人不仅可以模仿真实主体说话时的面部表情、语气语调,还可以分享出真实主体的历史经历和价值偏好,如此高度拟真的交流方式更容易让用户产生对生成内容的信任和情感上的认同。正如丹尼特所类比的,数字人如同假币一样,劫持了我们的意向立场(intentional stance),即利用了我们愿意相信显示出人类特性的任何事物的天性。也正是因为媒介形象是用户判定信息准确性、权威性方面的关键因素,中国主流媒体更加偏好以真人对应型数字人作为虚拟主播形式。因而,数字人交互场景下,高度拟真的媒介形象叠加符合人类逻辑的虚假、错误信息,有可能降低用户对信息内容真实性的判断能力,进而对社会的内容生态造成不良影响。
(三)数字人应用的伦理挑战
随着数字人使数字技术同生命体结合的愈加深入,并不断承担日益丰富的社会角色和社会功能,可以预见其对伦理秩序的冲击。
首先,数字人应用给真实主体独特性带来了威胁,给人类个体的价值完整性造成了冲击。人类个体的独特性和唯一性有助于实现个体价值,然而数字人不仅是对个人数据的简单复制,而是对真实主体独特个性的复制,进而对真实主体的唯一性带来威胁。例如,以哲学家丹尼尔·丹尼特(Daniel Dennett)的著作为基础创建的数字人复制了丹尼特的哲学敏感性,能够对哲学问题作出丹尼特式的回答,甚至使得专家很难区分真正的丹尼特和数字人。数字人不仅可以对我们的独特性进行复制,甚至可以在深度学习和情感计算的加持下呈现出比真实主体更加完美的形象,从而削弱真实主体的自我价值感。
其次,数字人应用还存在造成用户过度依赖、情感能力退化的伦理风险。生成式人工智能驱动的数字人可以在指令微调(Instruction Tuning)技术的支持下,不断适应用户的语言交流习惯,从而提高数字人在不同场景下的适用性。这虽然提高了数字人应用的效率和用户体验,但也可能加剧用户的依赖感,进而造成用户情感能力的退化。数字人应用在情感识别与计算技术的支持下,可以检测到用户的情绪并针对用户的偏好采取个性化的交流方式和营销策略,这会导致用户相较于与人类交流更愿意选择与数字人交流,进而长期处于虚拟情感交流的环境中。尤其是在还原逝者的数字人应用中,逝者数字人具有高仿真性、强交互性,加之逝者近亲属对逝者数字人的情感寄托,往往会导致用户判断力下降和对逝者数字人的情感依赖,从而加剧沉迷的风险,造成逃避现实、弱化社交等问题。
最后,数字人应用还给自我认知和生死观念等社会传统认知带来一定的挑战。一方面,随着真实主体与数字人的相互建构,数字人有可能成为真实主体自我认知的一部分,引发真实主体对数字人是否是自我分布式存在的思考,从而打破传统上对“自我”和“他者”的界限。但数字人应用由于技术的局限难以实现对真实主体的准确还原,一旦与真实主体现实身份产生差异或冲突,将导致真实主体出现自我认知模糊混乱的局面。另一方面,随着数字人应用在社会生产生活中的逐步普及,数字人应用会对人类关于生死观念、人际关系等社会认知带来改变。例如,还原逝者的数字人应用模糊了生死的边界,激发出人们关于数字化永生的想象,挑战着传统文化对生命秩序的认知。
三、数字人应用治理挑战的成因探赜
面对数字人应用对现行人工智能治理体系所带来的挑战,需要从根源上对成因进行剖析,从而明晰相应的完善思路。具言之,一是治理机制间协同不力难以应对风险的复杂性,需加强结构耦合;二是治理结构存在局限难以应对风险的广泛性,需多元主体参与;三是治理规范体系性不足难以应对风险的分散性,需统筹规范体系。
(一)治理机制协同不力
从世界范围来看,人工智能治理体系中法律治理机制与伦理治理机制属于两个核心机制。其中,法律治理机制主要以硬性义务条款为人工智能的研发与应用划定底线与红线,如欧盟的《人工智能法》依据人工智能的风险等级设定不同的监管要求。伦理治理机制则主要是通过伦理原则、伦理审查等方式指引科技创新良性发展,如联合国教科文组织(UNESCO)发布的《人工智能伦理问题建议书》确定了人工智能健康发展所应共同坚守的价值观与原则。数字人应用引发的风险呈现法律与伦理交织的复杂特点,如数字人应用的私权益侵害风险就包含了数字人应用引发的人格自主权、身份认知等伦理问题。这就要求法律治理机制与伦理治理机制不能局限于各行其是,而是要结构耦合。当前人工智能治理体系中二者之间耦合程度不足导致难以应对数字人应用风险的复杂性。
第一, 在理论层面,法律治理机制与伦理治理机制存在着对人工智能属性的界定差异,导致理论协同不足。人工智能法律治理机制将人工智能分为技术研发与服务应用,并在此基础上形成了技术与服务应用的分层治理逻辑。具言之,在《网络安全法》《个人信息保护法》《数据安全法》等多部法律的指引下,《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)分别对技术发展和服务规范进行了规定。因此,法律治理机制基于对数字人技术研发和服务应用不同属性界定开展分层治理,覆盖了数字人应用的全流程。而我国的人工智能伦理治理机制建构于科技伦理治理框架,如在2022年中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》中提出要制定包括人工智能等重点领域的科技伦理规范、指南等。2023年科技部等十部委联合发布的《科技伦理审查办法(试行)》(以下简称《审查办法》)将人工智能等新兴科技活动纳入伦理审查范围,并列举了必须开展伦理审查的情形。科技伦理主要是指为实现科学研究目标,在科研活动、技术探索的过程中应当遵循的价值观和行为准则,较少涉及技术的应用阶段。由此导致人工智能伦理治理机制主要关切的是数字人的技术研发阶段,与法律治理机制存在属性界定上的差异。然而,数字人应用所引发的风险不仅与数字人技术研发有关,还与数字人的部署场景和使用过程密切相关。因此,二者在理论层面的协同不力导致现行治理体系难以应对数字人应用风险的复杂性。
第二, 在实践层面,我国人工智能伦理治理机制尚未形成落地的实施方案,导致伦理治理机制难以与法律治理机制实践协同。人工智能伦理审查作为将人工智能伦理原则等理论适用于科技创新活动的实践工具,是确保相关技术服务和产品的设计、应用符合伦理,进而实现两个治理机制耦合的关键。根据《互联网信息服务深度合成管理规定》(以下简称《深度合成管理规定》)第7条以及《审查办法》第2条的规定,数字人应用属于利用个人数据涉及以人为研究参与者的科技活动,数字人应用服务提供者应当建立健全科技伦理审查管理制度,进行科技伦理审查。然而,人工智能伦理审查存在着可操作性低的问题,虽然《审查办法》对伦理审查的审查主体、审查对象、审查程序以及责任等进行了规定,但是规定内容仍较为原则和抽象,具体应当由哪些主体依据何种标准进行审查等内容还处于细化阶段。此外,《审查办法》起草思路主要是延续生物医药领域的伦理审查模式,未充分考虑人工智能伦理的特征,因此在具体的合规过程中会给研发者和相关企业带来实操性困扰。如何实现实践层面人工智能法律合规与伦理审查的耦合就成为数字人应用服务提供者、部署者所要面对的问题。
结构耦合在卢曼看来是指,社会系统的各个子系统独立运行,也可在需求驱动下进行系统交流,并在此通过沟通机制和相互影响产生结构耦合,从而在推动子系统之间的功能优化。数字人应用的耦合治理即在明确法律与伦理两个治理机制独立运行的基础上,通过理论和实践层面的沟通和相互影响产生结构耦合。一方面,法律作为社会子系统具有谦抑性和稳定性,缺乏动态同步治理的灵活性。而人工智能伦理具有高度开放性,可以避免法律因应数字人应用的时滞性。另一方面,人工智能伦理原则具有宣示性、模糊性及不可推演性,人工智能的快速迭代也导致社会公众对合乎伦理的行为的具体样态并不明晰,需要法律对其进行具体的义务性转化。此外,法律法规等正式制度通过将负反馈机制引入到伦理体系,从而在迫使行为主体规范自己行为的同时,也加强了行为主体的道德自律。
(二)治理结构存在局限
数字人应用治理挑战的另一重要成因在于治理结构存在局限。当前的人工智能治理结构在整体上呈现自上而下的治理格局,即监管部门以服务提供者为主要义务对象展开相关规则的制定,要求服务提供者在人工智能技术的开发、服务提供阶段履行人工智能合规义务,如《暂行办法》中的义务主要围绕服务提供者所展开。这样的治理结构具有为治理实践提供权威保障的优势,但也存在包容度、灵活度及适用性不足等结构局限,难以应对数字人应用风险的广泛性。由此,应构建多元主体参与的数字人应用治理结构,实现从链条向立体的结构升级。
首先,治理结构存在包容度不足的问题。当前的治理互动关系主要在监管机构和服务提供者之间展开,导致真实主体和用户因缺乏在治理结构中的明确定位而无法参与治理。一方面,数字人应用是对真实主体的还原,存在着侵害真实主体私权益的风险,因此有必要让真实主体成为治理结构的重要组成部分。真实主体的合法授权是构建数字人的必要前提,真实主体可通过关键节点的同意许可介入数字人应用的治理结构,进而对数字人的全生命周期进行监督。在数字人的部署使用阶段,真实主体可通过投诉举报渠道对侵害其权益的行为进行投诉举报,并根据具体情况通过请求侵权人承担民事法律责任实现权利救济。另一方面,用户作为数字人应用的重要一环,切实受到数字人应用的公共利益风险和伦理挑战的影响,应被纳入数字人应用治理结构。用户可以通过投诉举报机制为服务提供者反馈数据泄漏、算法歧视及错误虚假信息等风险。同时,用户不负责任的使用会放大数字人应用的风险,不应当进行违规改造或违反法律法规和伦理准则进行使用,如利用数字人从事违法犯罪活动等。
其次,治理结构存在灵活度不足的问题。自上而下的链条治理结构主要依赖规则之治,因而需要监管机构制定明确的规则以指导和约束服务提供者。一方面,数字人应用的部署场景直接影响着数字人的风险产生类型,而监管机构难以精准施策于不同部署场景中的具体风险导致灵活度不足。因此,需要将部署者纳入治理结构。部署者不仅可以结合所属领域专业知识展开风险评估,还能够及时解决数字人使用过程中的问题。欧盟《人工智能法》序言即指出:“部署者最了解高风险人工智能系统将如何具体使用,能够识别开发阶段未预见的潜在重大风险,并且更了解使用环境、包括弱势群体在内的可能受影响的人群或群体”。另一方面,监管机构并不具备相应的信息技术优势,所掌握的治理经验无法发挥技术的内在自省性。比较而言,数字人应用服务提供者具有一定的专业知识和技术能力,可以在体系结构设计、数据设计、过程设计以及接口设计四个方面将“通过设计保护数据”原则嵌入数字人的设计中,从而弥补当前治理结构忽视代码之治的灵活度缺陷。
最后,治理结构存在适应性不足的问题。链条治理结构导致监管机构无法与其他主体及时沟通风险信息和治理问题,所以服务提供者成为主要的责任承担者。而服务提供者为避免承担过多的责任,往往选择待相关科技创新应用足够成熟后再进行商业化推广,在技术发展初期则采取限制或禁止性策略。如视频号平台就在平台规范中将数字人直播认定为“非真实直播”内容,并对采用数字人直播的直播人员实施账号推荐限制、直播带货能力限制等处罚措施。因此,链式治理结构可能导致不合理制约人工智能产业发展,与“坚持统筹发展和安全”的人工智能治理宗旨相悖。而多元主体的参与可以有效打破链式治理结构下监管机构与其他主体之间的隔层,监管机构可以更好地把握其他治理参与者的需求和期望,从而基于发展型理念开展包容审慎治理。
(三)治理规范体系性不足
人工智能治理规范在治理实践中起到核心指导作用,完备且系统的治理规范体系是治理的基础。然而,当前的人工智能治理规范存在着系统性、整体性、协同性不足的问题,无法应对数字人应用风险的分散性。
其一,围绕数字人应用的基础性规范散落在《民法典》《网络安全法》《数据安全法》《个人信息保护法》等法律及相关司法解释,并未形成一个系统性架构,给数字人应用治理中的风险研判、识别和一体化适用带来困难。规则的分散不仅需要将数字人应用拆分成研发、部署、使用以及销毁阶段,还需要分别界定出不同阶段所涉及的不同法律关系,并根据法律关系的类型确定相应的法律依据。而数字人应用除涉及行政主体与服务提供者、部署者之间的行政法律关系外,还包括服务提供者、部署者以及用户之间的民事法律关系。缺乏系统性的人工智能法律体系提供保障,这必然不利于数字人产业的长足发展。
其二,虽然我国行政机关对人工智能技术涉及的相关规定进行了整合和细化,出台了《深度合成管理规定》《暂行办法》等部门规章,但二者之间关系的模糊给数字人应用法律适用带来了不确定性。厘清《深度合成管理规定》与《暂行办法》之间的关系,需要从规章所调整的技术本身入手,但问题在于深度合成与生成式人工智能两个法律概念本身关系即扑朔迷离。有学者认为生成式人工智能是深度合成的充分非必要条件,即深度合成并不一定是生成式人工智能。也有学者认为深度合成技术可以并入生成式人工智能之中,是生成式人工智能之下的一种子类型。从规范内容上看,《深度合成管理规定》与《暂行办法》之间在算法安全评估、真实身份认证等方面也存在着差异性要求。可见,二者并非包含与被包含的关系,而是人工智能的不同面向,存在着交叉重合。由此,我国急用先行、小快灵立法模式虽然可以缓解新兴技术治理的焦点问题,但同样引发了治理规范之间的关系模糊问题。
其三,人工智能技术标准由于可操行性、明确性等优势逐步成为人工智能治理中的重要规范,然而数字人产业标准体系的整体性和协同性还有待完善。一方面,整体性不足表现为技术标准数量和类型较少。对于政府颁布标准的国家、行业和地方三种标准类型,目前仅有一项处于征求意见阶段的推荐性国家标准《信息技术 客服型虚拟数字人基础能力技术要求(征求意见稿)》,且仅适用于指导客服型虚拟数字人的设计开发。行业标准也仅有一项适用于广播电视和网络视听领域的《数字虚拟人技术要求》,其他领域的行业标准尚付阙如。同样,数字人相关的地方标准依旧空白。另一方面,协调性不足则表现为技术标准与法律法规、部门规章的衔接不足。如《数字虚拟人技术要求》中要求由“数字虚拟人应用主体”负责其所处理的数据、算法以及个人信息安全,未与《数据安全法》《个人信息保护法》中的“处理者”保持统一。虽然人工智能技术标准是对人工智能技术设计、研发等基于工具理性的事实评价,但《国务院办公厅关于印发国家标准化体系建设发展规划(2016—2020年)的通知》中提出了“加强标准与法律法规、政策措施的衔接配套,发挥标准对法律法规的技术支撑和必要补充作用”的要求。当技术标准未能与法律法规等规范良好衔接时,可能导致技术实践与安全保障目标不当偏离,不利于整体治理体系的协调发展。
四、数字人应用的治理体系构建
基于数字人应用治理机制、治理结构及治理规范三个方面的挑战成因,明晰了完善的思路,需以此为基础构建数字人应用治理体系。具体构建可以从三个方面展开:一是加强人工智能法律治理机制与伦理治理机制的耦合;二是多元主体参与共建可信数字身份与可信透明制度;三是构建协调统一的人工智能治理规范体系。
(一)法律与伦理耦合治理路径展开
数字人应用的风险呈现出法律与伦理交织的复杂性,对法律治理机制和伦理治理机制间的耦合程度提出了更高的要求。为保障实质理性与价值理性之间的融贯,法律与伦理耦合治理的具体路径可以从理论和实践两个层面展开:
第一,理论层面,要保持法律与伦理之间双向沟通机制的持续畅通。一方面,要完善人工智能伦理理论体系,促进人工智能伦理对法律的价值指引。人工智能伦理理论体系的完善既要继承科技伦理的通用型伦理原则,同时也要基于对人工智能属性的全面界定进行独特性发展。不同于生物医药等传统科技伦理的主要规范对象是科学研发者,人工智能伦理的独特性体现在同样关注人工智能的应用过程。如我国发布的《新一代人工智能伦理规范》提出了专门针对人工智能管理、研发、供应、使用等的具体伦理要求。数字人应用的伦理挑战同样不仅在于数字人的设计阶段,更在于数字人的部署使用阶段。因此,应当通过构建伦理商谈等对话制度以达成数字人应用的伦理共识。我国国家科技伦理委员会人工智能伦理分委员会可以负责为此打造包含技术专家、服务提供者、法律专家以及潜在用户等多方主体参与交流的伦理对话平台。通过该平台明晰真实主体和用户的切实伦理诉求,明确数字人应用伦理理论体系的优化依据,防止伦理主张成为脱离数字人应用的伦理幻想。
另一方面,需要赋予人工智能伦理规范更多的约束力,推动重要伦理共识法制化发展。缺乏正式约束力的伦理规范文件往往凭借其自身的优点产生强大的合规吸引力,因而也被称为超级软法。然而,人工智能伦理仅仅具有合规吸引力尚且不足,还需要具备合规约束力。人工智能伦理问题的切实解决同样需要具有强制力的规范,管理、限制人工智能的应用范围,从而保障人类在使用人工智能时的权益最大化。“以人为本,智能向善”作为人工智能伦理规范中的首要共识,数字人应用的法律应当对其进行价值明确与规范展开,秉持将数字人的整个生命周期处于人类控制与监督之下。
首先,在对数字人应用的形式与权限进行明确时,应当充分尊重人格尊严。其次,对数字人的法律地位予以明确。虽然数字人内嵌的人工智能模型如GPT-4在心智理论(theory of mind)上的一些表现已经超过人类,但是自由意志的缺乏决定数字人无法真正意识到自己行为的法律后果,无法获得非法律主体地位,不应当允许数字人代表真实主体从事法律行为。对于数字人在交互过程中对他人的侵权等事实行为,应当根据具体的溯源机制确定的原因由服务提供者、部署者或真实主体承担相应责任。值得注意的是,数字人并非纯粹的一般财产权客体,其承载着真实主体在数字空间延伸的人格权益以及知识产权,不得未经许可随意流转或侮辱诽谤数字人。最后,应当完善数字人构建的撤回与销毁机制,以确保在数字人应用被他人不法利用或者人工智能系统发生异化的情形下,人类主体可以把握数字人留存与否的最终决定权。
第二,实践层面,同步推进法律合规与伦理审查。法律合规的内在逻辑在于通过安全风险评估、个人信息保护影响评估等判断是否存在违法行为以及权益损害程度;而伦理审查更加侧重识别、发现技术研发和应用中的科技伦理风险,推动技术方案更加符合人类福祉。可见,法律合规和伦理审查虽然存在着逻辑、范围等方面的差异,但二者最终的治理目标均为确保技术能够保障人类的主体地位。因此,数字人应用的法律合规和伦理审查应同步推进,确保智能向善。具体可以尝试从以下两个方面展开:
其一,在主体组成方面,数字人应用法律合规人员应成为伦理审查委员会的组成人员。数字人应用服务提供者设立或委托其他单位设立的科技伦理审查委员会的人员组成不仅包含数字人技术专家、伦理专家、真实主体及用户,还应当包含法律专家。由此,可以通过法律合规人员的参与促进伦理审查和法律合规相互补充,避免伦理审查与法律合规二者的重复,给数字人服务提供者带来运营负担。
其二,在环节设置方面,应将数字人应用的法律合规和伦理审查中的部分程序合并进行。其中,在数字人应用的设计研发阶段,二者在数据审查、算法安全评估及基本权利影响评估等方面均具有要求,可以在部分程序上合并推进以避免重复评估验证。经过伦理审查所发现的潜在伦理风险,应及时改进设计以规避风险。例如,采用包括前端对齐(forward alignment)和后端对齐(backward alignment)的循环对齐模式,使得模型的行动决策与人类的利益和价值选择保持一致。
人工智能技术的高速迭代性对数字人应用上线前的人工智能法律合规和伦理审查提出了时效性的要求。倘若伦理审查结束后才开始数据审查、算法安全评估等履行法律合规义务,显然难以满足时效性要求。因而,程序上伦理审查与法律合规二者应当高度耦合。
(二)多元主体参与的可信透明制度
参与主体的多元是治理的显著特征,多元主体有效参与是治理目标实现的必要条件。面对数字人应用治理体系所凸显的结构缺陷,应当充分调动数字人应用服务提供者、部署者、真实主体及用户等所有行动者的治理经验和力量,聚合多方主体以提高数字人应用的可信度与透明度。
第一,多元主体应协力共建数字人应用可信数字身份制度。数字人参与大众传播、商业活动的前提是获得用户的信任,否则无法开展后续的交流、交易等行为。故而应当构建数字人应用的可信数字身份制度,以提高用户对数字人的信任程度。传统可信数字身份制度的主要对象为人类网络用户,而数字人应用可信数字身份制度还要求将数字人纳入管理制度,并将其与真实主体进行区别治理。可信数字身份的具体内容主要为以下三个方面:
首先,真实主体授权许可构建数字人之前应经过数字身份验证。当前,数字人应用服务提供者为防止他人未经允许构建数字人从事不法活动,主要采取实名身份认证的方式对真实主体的身份和权限进行验证。如根据《深度合成管理规定》的规定,在以深度学习、虚拟现实为代表的生成合成类算法制作视频等信息前,服务提供者需要通过对自然人身份证号码进行验证等方式进行真实身份认证。但此种方式仅能够核验身份的真实性,无法对人身是否同一进行认定,因而无法有效避免他人盗用真实主体身份信息构建数字人的情形发生。而可信数字身份制度借助去中心化身份(Decentralized Identity,DID)认证系统可以实现人身同一认定。
其次,可信数字身份制度结合智能合约进行数据授权管理。可信数字身份制度中的数字身份不仅是真实身份信息的数字标志代码,而且是包含诸多个人基本情况的信息数据库,包括人脸、声音、身形等个人数据。经过验证的真实主体将部分数字身份的访问权限开放给数字人应用服务提供者即可实现数字人的构建,如此可以避免构建过程中的多次传输所造成数据安全风险。
最后,赋予数字人独特的数字“身份”,并建立其与真实主体稳定的身份对应关系。数字人身份上的不可识别不仅会增加用户的不信任感,同时还易导致网络虚假不良信息内容等的猖獗。通过对真实主体、数字人服务提供者以及部署者等不同参与主体进行记载,确保每一个数字人的背后具有明确的元身份及责任主体。此外,还应当对不同主体的代码修改、功能增加等操作情况、数字人的使用条件等予以记录,如此不仅可以避免与真实主体及其他用户的混淆,同时还可以有效解决数字人应用产业链多元主体所带来的问责难题。
第二,多元主体应共同参与数字人应用透明度制度的完善。透明度制度被认为是人工智能治理中消除人工智能开发与应用中的信息鸿沟、解决信息内容安全风险的重要工具。《暂行办法》第4条即要求“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性”。数字人应用透明度制度的完善即需要多元主体通过信息共享和披露,破解数字人应用的不透明所引发的治理困境,从而促进多元主体对数字人应用形成全面准确的认识,最终产生对数字人应用的信任。
其一,在数字人构建阶段,透明度制度应以数字人技术相关信息披露为主。首先,在数字人服务提供者与部署者之间,服务提供者应当对数字人的功能操作、风险管理以及安全检测情况进行说明告知,提供必要的技术文件和使用说明从而保障部署者正确使用以及主动防范风险。其次,数字人服务提供者和部署者应在不同节点对真实主体进行信息披露,披露的内容应包括构建数字人所使用个人数据的范围与方式、数字人将部署于何种应用场景、可能带来的风险和具体的防范措施等,并以此将真实主体纳入数字人应用治理网络。最后,数字人服务提供者和部署者应当通过备案向监管机构披露和解释数字人应用相关信息。监管机构则通过对备案内容进行审查、审计、评估以及问责等方式,监督数字人应用提供者和部署者义务的履行从而保障数字人应用透明度制度的落实。
其二,在数字人部署使用阶段,应建立包括数字人交互提醒和数字人生成内容标识的双重标识制度。一方面是数字人交互提醒,即服务提供者、部署者为防止用户将数字人与真实主体相混淆需对数字人本身进行标识。如浙江省出台的《浙江省网络直播营销行为规范指引》即规定:“使用应用深度合成服务的AI数字人可能导致公众混淆或者误认的,应当在合理位置、区域进行持续、显著标识,与自然人名义或形象进行明显区分,不得采用技术手段删除、篡改、隐匿区分AI数字人标识”。由于数字人在潜移默化地影响着用户的思维方式和决策自由,因此用户有权知晓与之交互的对象是数字人抑或是真实人类。数字人交互提醒不仅满足保障用户知情权的基本要求,同时有助于降低用户被操纵欺骗的风险。另一方面是对数字人生成内容进行标识,即传播存在误导风险的数字人生成内容,应当添加数字人生成内容的标识以防止破坏信息内容生态。为防止跨平台传播过程中标识被非法删除,应当加强数字人应用平台之间的互操作性建设。此外,在信息已经被传播的情况下,服务提供者、部署者应当及时采取辟谣措施以防止风险的进一步扩大。
(三)协调统一的数字人应用规范体系
随着人工智能技术的不断迭代,未来会出现更多与数字人应用类似的复合型人工智能应用,因此亟需构建科学统一、逻辑清晰的人工智能治理规范体系。首先是在国家法律层面推动治理规范的更新;其次是通过对现行规范中的具体规则进行梳理比较、评估取舍,消除现有规范体系的矛盾之处;最后是持续推进技术标准体系的全面性和协调性建设,进而构建贯穿法律法规、部门规章、技术标准的数字人应用规范体系。
第一, 人工智能治理规范亟需一部基本法定位下的《人工智能法》进行价值引领和规范融贯,通过统筹网络、数据、算法、算力、应用五大基础领域的安全与发展问题,解决现行法律规范不成体系的问题。从国内立法部署来看,人工智能健康发展等方面的立法项目被全国人大常委会列入2024年度立法工作计划中的预备审议项目,明确了建立人工智能基础制度的立法导向。基本法定位下的《人工智能法》旨在明确治理方向进行价值指引,提炼规范人工智能要素的共性规则实现规范融贯。为防止未来出现层出不穷的人工智能应用而无法明确规范的适用性,《人工智能法》对人工智能范畴的界定应当减少对所使用技术和方法的描述,可以从目的功能层面人工智能进行定义,并考虑如何将现行规范中深度合成和生成式人工智能的概念有机纳入。此外,《人工智能法》的制度设计应彰显人本主义,从保护个体权利出发以防止人工智能技术对个体意思自治、个人信息及人的主体性等其他合法权益的不当限制或损害。
第二,数字人应用应当结合其自身的应用特性、场景特质制定符合特殊场景的细化制度。穷尽世界所有法典也无法涵盖所有法律问题,数字人应用产业的健康发展还需要针对数字人应用的特殊性制定专门领域内的细化规范。一方面,应构建参与式同意模式。数字人应用对真实主体个人数据的利用应当区别于对用户个人信息的处理规则,可以尝试通过改良“单独同意模式”建立动态化的“参与式同意模式”。即在数字人构建之前、部署之前以及部署场景变化等关键节点均征求当事人的同意,允许真实主体对所使用的个人数据重新审查、审计和修订,强调真实主体的积极充分参与。另一方面,数字人应用结合部署场景展开区分治理。例如,数字人已经被部署于政务服务场景中,应规定政务数字人的决策行为仅仅可以作为行政行为的参考。对于电商直播场景,则应规定不得利用数字人对商品质量、商家信誉等关系到消费者合法权益的评价内容进行舆论操纵。
第三,完善数字人技术标准与法律法规的衔接协调机制。推进数字人术语、管理、服务等基础共性标准,数字身份多模态交互等关键技术标准,保障多技术融合规范,确保数字人的质量安全。首先,应当注重技术标准制定的科学性,保持与法律法规的协调一致。在技术标准的制定过程中,应当将对开发者、服务提供者、部署者和公众用户的义务融入数字人应用的全生命周期,避免技术研发与法律要求的偏离。其次,建立标准的动态更新机制。人工智能技术呈现着高速迭代的态势,我国数字人技术标准应当高度契合数字人的技术应用实践。为此,我国国家标准化管理委员会应当开展技术标准定期更新工作。最后,应当引领并积极参与数字人国际标准的制定。生成式人工智能的国际标准化不仅关乎技术规范的统一,更关乎国家战略与国际政治格局的演变。如中国信息通信研究院牵头制定的大模型数字人标准即在国际电信联盟标准化局(ITU-T)成功获得立项。
结语
数字人应用作为人工智能朝着兼具理性决策和情感认知的高阶形态演进的典型突破,其所带来的生产效率提升、数字社会经济价值不言而喻。随着人工智能技术的不断成熟和广泛应用,人类与其数字人相互构建将成为未来人类的生活图景。但这一生活模式变革的背后隐藏着难以预见的法律与伦理风险,需要持续的跟踪观察。面对如何保障数字人应用以人为本、智能向善这个复杂议题,一是要从保障法律与伦理双向沟通机制和同步推进法律合规与伦理审查两个方面加强法律与伦理的耦合治理;二是要强调多元主体参与共建数字人应用可信数字身份制度与透明度制度;三是要通过基本法定位下的《人工智能法》与特殊领域场景中的细化制度进行互动补充实现人工智能治理规范体系的更新。通过以上三个维度的努力,以期引导规范数字人应用,更好地促进人类社会的发展。
因篇幅限制,已省略注释及参考文献。
引注:鲍奕含:《数字人应用的治理挑战与体系构建》,载《河北法学》2026年第1期,第101页-119页。