来源:【《法律适用》杂志】

编辑提示
《法律适用》于2025年第3期刊发了北京科技大学文法学院副教授刘成杰撰写的《类型化视角下人工智能侵权责任的归结思路》一文,致力于以实践法学研究助力中国法学自主知识体系构建。该文章被《新华文摘》2025年第11期转载。现将文章全文予以回顾,以飨读者。
文章原载于《法律适用》2025年第3期,作者简介及文中所涉及的法律法规等按刊发时的内容转载。
刘成杰
北京科技大学文法学院副教授,法学博士
声明:
本刊对所发表的文章享有专有出版权。一切形式的复印、节选、电子刊物选用等以及其它一切以营利为目的的复制,须事先征得本刊的书面许可。
文章发表于《法律适用》2025年第3期“问题探讨”栏目,第115-130页。因文章篇幅较长,为方便电子阅读,已略去原文注释。
摘要
随着人工智能的广泛应用,其侵权责任的归结对现行侵权法律制度提出了新的挑战。人工智能的可解释性,对于查明因果和合理归责至关重要。基于可解释的类型化方式,传统侵权理论的归责原则及现有法律框架足以因应当前人工智能侵权责任的归结问题。人工智能客体论视角下,“白箱”“灰箱”与“黑箱”三种类型的人工智能,依次可采取过错责任、过错推定与无过错责任的归责原则。同时,为有效平衡技术发展创新、赔偿受害方损失和维护公共利益之间的关系,应立足法律适应技术发展的原则和创新制度供给的维度,试点推动“黑箱”人工智能的法律主体化,尝试和观测其侵权责任的独立归结。
关键词
人工智能 可解释性 类型化 责任归结
一、引言
“人工智能”一般是指运用计算机系统或算法智能模仿人类行为的能力,随着计算科学的发展,其内在机理和外在技术已不断扩张和迭代。党的二十届三中全会通过的《中共中央关于进一步全面深化改革 推进中国式现代化的决定》提出要完善推动人工智能等战略性产业发展政策和治理体系,“引导新兴产业健康有序发展”“健全因地制宜发展新质生产力体制机制”。当前,人工智能正以前所未有的态势,重塑着人类经济发展的模式和个体社会生活的方式。相伴而来,人工智能的应用与发展也产生一系列法律和社会治理问题,对现有法律秩序带来诸多新挑战。在此背景下,法律需经由创新性解释和系统性建构来重新完善自身,从而有效应对人工智能发展中不断涌现的理论革新和诸多实务问题。国务院2023年度和2024年度立法工作计划,均明确提出预备提请全国人大常委会审议人工智能法草案的立法计划,这标志着我国人工智能法治进入新阶段。人工智能侵权问题,是法学理论界和实务界关注的重要问题之一,构建相应的侵权责任规则,是人工智能安全防范和风险治理的重要组成部分,也是人工智能技术深入发展、规模应用以及真正形成新质生产力的基础制度之一。
历经数十年发展,当前人工智能应用形式及其相应功能状态差异巨大,可谓类型繁多。当不同类型的人工智能发生侵权问题,责任主体究竟是开发者、提供者、使用者还是人工智能自身,抑或应根据不同类型而区别对待?是否还应将过错责任和严格责任等在不同类型应用中区分适用?学界对此争议较大。中国社会科学院版《人工智能法示范法2.0(专家建议稿)》和中国政法大学版《中华人民共和国人工智能法(学者建议稿)》,虽均对人工智能侵权责任问题提出了立法构想,但并未充分回应上述问题。
近年来,我国涉人工智能的案件数量逐年增加,根据中国裁判文书网的数据,自2018年至2024年12月20日,涉人工智能的裁判文书数量从97件增长到3737件,涉及的纠纷类型也日益多样化。我国《生成式人工智能服务管理暂行办法》和《全球人工智能治理倡议》等法规政策文件明确提出,可以采取“分类分级管理”或“分类分级监管”以及精准分层治理,鼓励创新发展等人工智能监管与治理的思路和精神。因此,针对人工智能侵权问题,应充分考量人工智能应用已呈现形式多样化、技术多维度和场景多层次的实际状况,选取可行性标准和方法,尝试构建人工智能类型化、归责原则多元化的人工智能侵权责任归结思路和机制。
二、人工智能类型化再审视
(一)人工智能类型化的必要性
目前,人工智能的应用已极为广泛,基本涵盖了工农业自动化、医疗健康、交通物流、金融科技乃至辅助审判和公司治理等几乎所有社会领域。其中,部分人工智能功能仅具有专用性,属于有限智能,如工业化机械手臂、Siri和Alexa等智能语音助手以及初级图像识别软件等,其仅能执行特定任务,尚无法自主学习和理解超出预设范围的信息。部分人工智能基于大数据学习和识别模式技术,智能程度较高,与具有可预测且高度稳定的智能工业手臂类应用已存在质的不同。还有部分人工智能,已经具备自主学习、推理、感知和适应新环境的能力,如自动驾驶汽车和服务机器人类人工智能体,已能根据传感器获取实时环境信息,推理判断周围移动物体的行为意图及潜在危险并做出合理决策。近几年以ChatGPT为代表的生成式人工智能,则依托复杂神经网络等技术,具有强大的创造力、灵活性,乃至已具有“情绪感知”能力。
当前各类型人工智能内在决策逻辑,既有简单的、规则驱动具有高度可预测性的系统,也有相对复杂的、具有一定程度自适应学习能力的神经网络,还有部分人工智能的决策机制和运行逻辑,甚至已难以清晰解释。当人工智能应用场景各异、自主性不同,尤其决策逻辑的可理解性、输出的可预测性等方面存在本质差异时,若发生侵权后,试图参照普通侵权模式,忽视实际存在的本质差异,采用“一元化”侵权责任归结方式,例如,所有类型人工智能侵权都适用过错责任或无过错责任,则无法准确反映不同类型人工智能在侵权事件中的真实责任。若能基于上述本质差别,选取合适标准对人工智能进行类型化,根据其不同特性进行侵权责任的多元化归结,则有助于实现相对精准的责任认定。而且,类型化理念也有利于风险防控,促使不同类型人工智能的相关方更加明确自身在防范侵权风险中的角色和责任。
具言之,基于人工智能存在的类型差异化现状,对人工智能进行类型化,能够克服单一化侵权归结方式的不周延,更好地适应和引领人工智能的多样性发展,相对明确地确定责任方和保障各方的合法权益,推动人工智能产业的良性健康发展。
(二)传统类型化对人工智能侵权责任归结的价值缺失
人工智能最常见的分类方式,是根据“智能程度”将人工智能分为弱人工智能、强人工智能及超人工智能。弱人工智能是指尚不能自发推理和自主解决问题的智能应用,不具有“自主”意识;强人工智能是指能够运用与自然人基本相同或类似的“智慧”来完成任务,其典型特点是具有“自主”能力;超人工智能是指智能机器人所具有的智慧和执行任务的能力超越自然人的一类智能,但和强人工智能一样,目前尚处于理论状态。此种类型划分,在一定程度上勾勒出了人工智能的发展层级架构,也从潜在能力角度展示了未来发展趋势,但在侵权责任归结领域,难以有效发挥指引与规范作用。
第一,在现有的分类认知中,弱人工智能被定义为缺乏自发推理与自主解决问题能力,仅仅作为人类创造并操控的工具而存在,在法律关系里处于客体地位。该定位看似清晰明确,但在现实侵权场景下对侵权责任归结并无助益。当前所有人工智能均未真正达至强人工智能状态,因而就侵权责任归结的司法实践而言,该类型划分实质上并未对当前的人工智能进行分类。在弱人工智能定位的传统工具论视角下,弱人工智能为纯粹的客体,其侵权责任均归结为开发者、使用者或管理者,实质上导致无法深入剖析多元主体间真实责任或可能的流转分配;尤其当前部分弱人工智能虽无类人“自主”意识,但已展现出一定程度的自适应调整能力,在此类情境下,简单将所有弱人工智能均归为无责客体,已不利于敦促相关方提前预防侵权风险和优化设计。
第二,该类型化视角下强人工智能的致害归责,有学者尝试探讨在侵权时赋予其有限法律人格甚至完全的法律主体地位,以期在既有法律框架下找到责任落点。但强人工智能仍停留在设想与探索阶段,当前所谓接近强人工智能的产品,离真正意义上的意识觉醒、自主思维尚有巨大空间,超人工智能更是处于科幻畅想阶段。在此背景下,以该类型划分为参照构建侵权责任归结模式,尚无现实可行性,对当下迫切需要解决的实际侵权难题也无实质助益。从整体的技术演进路径审视,“弱—强—超”的划分界限本身就模糊不清。人工智能发展是连续、渐进的过程,弱人工智能向强人工智能的进阶并不存在明确“分水岭”,这使得基于此分类的侵权责任归结路径缺乏稳定性与可操作性,故而很难成为可行的责任界定范式或标准。
还有一种较具影响力的人工智能类型化方式,基于风险分级视角,将人工智能分为禁用型、高风险型和低风险型三种类型,并依此构建人工智能侵权责任归结机制。该分类方法,较合理地反映了不同人工智能技术对民事权益影响的程度,为人工智能侵权责任的归结提供了相对清晰的框架,更好实现了法律责任与技术风险的匹配,有利于更为准确合理地进行侵权责任归结。该类型化方式通过动态化配置责任要件,也较好地实现了技术创新与风险预防的相对平衡。对于高风险的人工智能,采取严格的责任标准;对于低风险的人工智能适当放宽责任要求,以激励技术创新。但也应认识到,该类型划分也存在明显的不足:
首先,该类型化的分类标准模糊。不同风险级别的人工智能之间的界限并不明确,例如,对于禁用型和高风险人工智能的具体类型界定,在实际操作中可能因技术发展的不确定性而影响分类的明确性和稳定性,特别是在技术交叉和融合的背景下,判断某一人工智能属于哪一风险类别,客观上存在困难。部分人工智能应用场景复杂,可能同时涉及多种风险因素,难以清晰地将其归入某一特定类型。尤其风险分级还存在主观性问题,不同专家或机构对同一人工智能技术的风险评估可能存在差异,这也易导致责任认定的不一致性和不确定性。
其次,该分类客观上依然存在确定实质责任主体的问题。人工智能侵权中确定责任主体的复杂性,主要源于人工智能生态系统的多元化和交叉性,在服务开发者、提供者以及使用者等主体形成的整个链条中,任何一个环节的失误或不当行为,都可能导致侵权行为的发生和成为侵权责任的源头,但在一些人工智能应用场景中确定具体的责任主体并非易事。责任主体的确定,涉及责任归属的公正性和效率性,实质责任主体不明确,可能出现责任推诿,导致受害者难以寻求赔偿,也不利于预防未来可能发生的侵权行为。因此,基于风险分级的类型化方式,不利于确定责任主体,从而进行侵权责任归结。故客观而言,该分类虽然能够在一定程度上平衡技术创新与风险防范问题,但在侵权责任归结方面,存在明显不足。
还有运用系统学方法对人工智能进行类型化的方式,基于功能性视角,将人工智能区分为反应型、有限记忆型、心智型以及自我意识型。该类型化方式,也无法解决人工智能侵权时的责任归结难题。此外,实践上还存在基于“需要使用的技术手段”进行的分类,如基于深度神经网络的人工智能、基于XGBoost的人工智能、基于Transformer的人工智能以及基于大语言模型的人工智能等,还有根据“用途”进行类型化的方式,如常见的工业化人工智能、家用型人工智能等类别区分,但类似的类型化,对所讨论的人工智能侵权责任归结问题,亦无实质价值。
(三)基于可解释性的类型化的理论分析
侵权问题中,解决责任归结难题至关重要,因为责任归结意味着要对侵权行为的发生原因、损害后果以及因果关系进行释明。对于人工智能侵权而言,如果责任归结分析框架合理,则不仅可以找出技术缺陷和设计漏洞,为人工智能创新发展提供宝贵的经验,还可有效应对基于“黑箱”等原因暂无法清晰判断责任主体等复杂的情形,进而高效解决相关法律纠纷。基于前述分析可以发现,责任归结难题的解决需要适配恰当的人工智能类型化方式,既有分类方案均未涉及人工智能的可解释性这一实质问题,仅从外在表现形式出发进行类型化分析,无助于查明具体的侵权主体、侵权行为、损害原因和损害后果。聚焦于人工智能的可解释性,并据此对人工智能进行类型化分析,而后厘清相应侵权责任的归结思路,或许更为可取。
人工智能的可解释性,是指能够使人类理解模型的决策过程以及如何做出选择。法律或司法上的“解释”,与人工智能之“可解释”是否类似,观点并不一致,但有一点可以确认,即该“可解释”不仅是科学问题,同时也是一个社会行为。至少,从侵权责任归结角度看,无论何种应用的人工智能,当其参与决策和执行任务时出现侵权问题或致害,可解释性能够为确定责任主体及责任承担和分配,提供更为清晰和直接的依据和标准。结合已有研究成果,根据人工智能的可解释性,人工智能可类型化为“白箱”“灰箱”和“黑箱”三种状态。“白—灰—黑”的界定模式,是人们研究“认知运动”总规律的一个重要的认识方法,本质而言,科学研究是要将“黑箱”通过“灰箱”变成“白箱”,这不仅是人类认识客观世界的过程和不断提升认知水平的重要方式,也是以实践改造外在世界过程中阐释包括人工智能在内的客观存在之应有之义。客观实践也已证实,对于信息科学等现代科学技术的发展和应用,认识运动总规律的研究有许多具体的帮助和价值,而“白箱”“灰箱”“黑箱”的类型化方法,是比较集中的体现之一。
对具体事物的界定,往往依靠构成要件的叠加,但人工智能应用极其复杂且技术本身处于不断演变的状态,亟需一个能够平衡“僵化的构成要件体系”与“灵活多变的实践表现”之间矛盾的标准。“白—灰—黑”的分类方法是否能够涵盖不同领域与场景的人工智能,适应技术发展的动态变化,为人工智能的分类提供一个全面且灵活的框架,也是必须直面的问题。奥地利法学家威尔伯格提出的“注重对系统内部多元要素的渐变式、层级式评价”的动态系统论,恰好为问题的解决提供了理想化理论路径。根据人工智能的运作机制,类型化体系中的动态要素应当包括模型结构、运算过程和训练数据,可解释性则作为纵向维度上对各动态要素进行分析与评价的标准,由此人工智能的分类呈现出一种渐变光谱的形态。
首先,当模型结构、运算过程和训练数据均具有可解释性,即内部结构透明、过程易于理解和参数标注清晰,且各动态要素之间相互联系协作,在运行逻辑上只会同向变化,任意要素的变动与整体的可解释性之间成正比,则可以认为这样的人工智能属于“白箱”人工智能。例如,规则驱动型AI,基于“如果—则—”的基础算法,将已有人类知识和行为规则嵌入计算机程序,模拟人类的思考和推理过程,达成特定行为的智能系统。基于强调逻辑和规则的特征,这类人工智能广泛应用于工业生产的质量控制与生产流程优化、金融交易的风险评估、航空航天的实时监控与飞行参数管理以及网络安全领域的非法登录检测与数据访问监控等众多领域。
其次,当模型结构无法被窥视全貌,运算过程的可解释性与可预测性随着机器自主学习深度的增加而由强到弱,训练数据和标准信息仅能得到部分呈现,以上三者在可解释性层级上弱化。随着自主学习和模型泛化,个别动态要素可解释性的暂时增强对整体的可解释性影响有限,要素之间同向协动、反向抵消,可以认为这样的人工智能属于“灰箱”人工智能。例如,“规则嵌入式神经网络”人工智能系统,其融合了神经网络和基于规则人工智能的共同优势,基本实现了兼具灵活性与一定程度可解释性的构想。目前,智能交通领域的交通流量预测与智能调控以及教育领域的教育资源分配与动态管理等降低人工智能“幻觉”的具体应用,即属于“灰箱”人工智能的体现。
最后,当模型结构中的神经网络层数和每层神经元数量等均不可见,深度学习运算过程完全不可预测,训练数据的呈现方式难以理解,各动态要素不具有可解释性,模型整体的确定性和可靠性也无法进行准确评估和预测,可以认为其属于“黑箱”人工智能。由于无法洞悉“黑箱”内部运作,且难以凭借常规手段预判其在不同场景下的表现,因而也无法提前察觉其风险。例如,被用于辅助癌症识别或筛查等医疗诊断的人工智能应用,依托深度神经网络构建,实际使用中会出现系统给出的诊断建议与实际病情严重不符的情况,但由于模型的“黑箱”属性,很难追溯到究竟是神经网络结构不合理、运算过程出错,还是训练数据存在偏差。同样,自动驾驶汽车通常使用复杂的传感器和算法来处理道路信息并作出驾驶决策,但现实交通状况如光线、天气、路况及周边情况瞬息万变,自动驾驶汽车面临此类复杂情境时,这些因素的差异有可能导致自动驾驶汽车不可预见的决策,但外界无从知晓关键决策的依据,此时如该自动驾驶汽车发生侵权致害,很难追溯导致损害的某个决策是如何作出。因而,尽管“黑箱”人工智能在许多领域展现出强大的性能和潜力,但其不可解释性和不可预测性也带来了巨大的挑战和风险。
基于技术迭代和程序升级等手段,动态要素在不同的可解释性层级之间会产生渐进式变化并相互影响,这也会推动人工智能的类型随之改变,故而“白—灰—黑”的界定模式具有动态特征。纵观人工智能技术发展历程,可以发现,人工智能发展呈现出从“白箱”到“灰箱”再到“黑箱”逐步演变的历程。从这个角度看,基于可解释性的类型化方式,也反映了人工智能技术的不同发展阶段。近几年人工智能技术发展的努力方向之一是从“黑箱”向“白箱”回归,例如,可解释人工智能的发展,即旨在提高人工智能系统的可解释性,将“黑箱”系统转化为“灰箱”甚至“白箱”系统。这种不同类型之间的转换和发展趋势,也说明基于可解释性,并辅以动态系统论的理论框架,将人工智能类型化为“白箱”“灰箱”和“黑箱”的路径是合理的,符合技术发展的动态特征。与传统分类模式相比,该类型化体系区分度更高,界限更明确,应用更灵活,也为人工智能侵权责任的清晰归结奠定了基础。
三、人工智能侵权责任的多元归结路径新探索
人工智能侵权责任归结难题及相关争论,根源在于人工智能的法律定位这一枢纽性问题,其间系列法律问题,本质上均属主客体定位的派生问题。现行法律通常将包括人工智能在内不具有自主意识和独立人格的物体界定为法律客体,这符合法律稳定性和延续性原则,也符合人工智能当前所处发展水平。司法实践一般也判定人工智能虽具有一定程度的自主性,但并未改变其作为工具的本质,其相应侵权后果,应归属于使用它的人类主体或对其负有责任的开发者等相关主体。但是由于部分人工智能的复杂性、高度自主性和不可解释性,将责任单纯分摊于开发者、所有者、制造商和使用者等所有参与者的传统侵权归责观念,在维护公平和鼓励创新等方面面临新的挑战。
理想的人工智能侵权责任归结思路在于平衡受害者权益保护、技术创新发展和社会公共利益之间的关系,并确保所构建的法律框架既能有效应对新技术的挑战,又不会对创新带来不利影响。当前阶段确定人工智能侵权类型和责任归结的思路,坚持将人工智能的法律客体定位理念作为基本原则的前提下,不应排除人工智能主体论可能带来的创新方案或合适解决路径。赋予人工智能主体地位的观点,其目的是尝试在开发者和使用者等诸多人类参与者与人工智能系统之间,作出创新型责任划分模式,特别是将缺乏可解释性和透明度的“黑箱”人工智能侵权责任,平衡分担给开发者、使用者乃至整个社会众多主体。
因此,结合可解释视角的人工智能类型化差异和人工智能技术发展的新趋势,基于增加制度供给和为人工智能技术发展预留更多制度空间的前瞻性视角,应坚持人工智能的法律客体定位基础上,考虑在自动驾驶汽车等技术应用相对成熟的“黑箱”人工智能特殊领域,推动试点法律主体资格,并同步构建相应的侵权责任归结多元化思路和侵权风险分散机制。
(一)人工智能客体定位下侵权责任归结的差异化
1.“白箱”人工智能侵权的过错责任归结
对于人工智能侵权责任归结,有学者提出替代过失责任性质的产品责任路径。对于具有高度可解释性的“白箱”人工智能而言,产品责任路径不失为现行法律架构下一种可行的问题解决方案。基于过错责任原则规制人工智能侵权行为,属于当前学术界主流观点。虽有部分学者持反对意见,提出应适用无过错责任应对人工智能侵权问题,但多数的人工智能法学研究者及上文人工智能法建议稿,均持“过错责任”观点。基于“白箱”人工智能的特征,其实质上就是一款蕴含人工智能技术的高科技产品,发生侵权时,与传统或其他类型的高科技产品致害的归责思路,并无本质差异。对于“白箱”人工智能而言,基于其决策逻辑和决策过程具有可解释性和高透明度,其发生侵权时,坚持过错责任的归责思路是适当的。
过错责任原则要求行为人在有故意或过失的情况下,才承担侵权责任。关于“过错”的判断问题,因“白箱”人工智能具有完全的可解释性,所以侵权行为中存在的“故意”因素易于发现,同时考虑到“白箱”人工智能的开发设计、生产过程和实践机理高度透明且风险可控,故而可以认为相关主体应当能够预见到特定侵权损害结果的发生,当存在“预见可能性”时,就要求其必须善尽对他人的“合理注意”,否则即构成“过失”,这种“过失”带有更多主观色彩。在“AIGC平台著作权侵权全球第一案”中,被告作为服务提供者,在提供具体服务的过程中欠缺投诉举报机制、欠缺潜在风险提示和显著标识,法院据此认定其在人工智能开发及运转中未尽到合理的注意义务,“主观上存在过错”,并判令其对侵权行为承担损害赔偿责任。可见,对于“白箱”人工智能而言,过错责任原则具有良好的适应性。基于“白箱”人工智能的可解释性,当证实侵权行为的发生,源于开发者、使用者或其他相关主体存在过错,适用过错责任进行责任归结,法律责任认定公平且合理,也符合社会公众朴素的公平正义观念。但是,前述案例同样表明,对于“合理注意”和“过错”的主观判断往往需要借助人工智能的客观表现来完成,这也提示人工智能相关主体在开发和使用人工智能时要更加注重对其可解释性的维护与建设,并最终体现在具体机制和提示信息的设置与提供等方面。此时,可解释性与“预见可能性”相互印证。由此可见,过错责任原则对“白箱”人工智能的合理发展也具有激励作用,开发者和相关主体会更加注重规则设计的合理性和安全性以及操作的规范性等,从而有利于“白箱”人工智能技术的健康创新和合理应用。
此外,在人工智能侵权案件中,因受害人或第三人过错导致侵权的问题更为常见。如“白箱”人工智能按照既定标准或预设程序正常运行,且运行状态和模式未超出开发者的预先设计标准和合理预期,因使用者不当操作系统导致侵权情形发生。“白箱”人工智能的开发者一般会通过提供清晰的操作指南、风险提示和使用限制来帮助使用者合理使用,若使用者正常使用,通常可以避免侵权行为的发生。鉴于“白箱”人工智能具有典型的工具性色彩,使用者在与其交互过程中具有主导权,且能够预见其行为可能带来的后果,使用不当或故意为之时的人工智能致害事件,应定性为民法上一般侵权。近年来类似案件多有发生,在“AI生成声音人格权侵权案”中,侵权方利用原告声音进行“人工智能处理”;在“AI换脸”软件侵权案中,侵权方“将原告的人脸通过AI技术手段抠除并替换成第三方的脸”。在这些案件中,被告在未获授权或者未经过合法途径并给付合理对价的情况下,利用人工智能技术对原告的声音和肖像等进行技术加工,用以传播并获利,严重侵害了原告的人格尊严和交易机会,法院明确判定侵权方“具有过错”,对其侵权行为应承担过错责任。在此类案件中,人工智能主要作为技术工具,为侵权人实施侵权行为并引致侵权后果提供桥梁,对过错因素的判定也主要聚焦于相关主体的主观动机和客观行为以及技术本身包含的各类必要设计。
2.“灰箱”人工智能致害的过错推定原则适用
过错推定原则,是从受害人的损害事实中推定加害人存在过错,加害人如果不能证明自己没有过错,则需要承担侵权责任。“灰箱”人工智能虽不是完全透明,但其一定程度的可解释性使得在部分侵权情形下,仍有可能通过追溯决策链条来查明具体原因,这对法律责任界定尤为重要。此时,侵权责任的归结仍属于过错责任范畴,与“白箱”人工智能侵权的责任承担并无实质不同。考虑到“灰箱”人工智能的可解释性在其运行的不同阶段呈现出由强到弱的光谱性转变以及“灰箱”的技术特征,客观而言,“灰箱”人工智能导致侵权问题时,被侵权人证明“过错”因素的能力有限,但应当给予开发者等主体自查自证的抗辩机会,故而可采取过错推定责任原则的归责思路。例如,现实商业实践中,为防止核心技术遭人窃取,开发者有时会将一些算法功能的核心信息进行特殊处理,故意使其难以被获取或解读,客观上形成自我保护型“灰箱”,侵权发生时开发者或相关主体可在一定程度上实现自我辩护。
《中华人民共和国人工智能法(学者建议稿)》在过错责任归责原则基础上采取了类似规制思路,其第85条规定:“人工智能产品和服务造成他人损害的,提供者未尽到本法规定义务的,应当承担侵权责任。关键人工智能产品和服务造成他人损害,提供者不能证明自己没有过错的,应当承担侵权责任。”这一原则适用于“灰箱”人工智能,相对合理也更为科学。在“搜索提示词人工智能侵权案”中,原告质疑并要求被告解释和说明涉案人工智能算法的决策规则及生成原理,被告则向法院充分说明“涉案技术的生成机制、展示的基本原理、运行规则及相关技术可行性等”技术问题,有效回应了涉案人工智能算法的风险、根源以及能否避免等技术细节,基于此,法院最终判定其不构成对原告名誉权的侵犯,不需承担损害赔偿责任。在此案件中,人工智能处于“灰箱”状态,被告需要通过对人工智能的可解释性进行举证,客观证明自身对于技术的运用行为并不具有“过错”,从而免于承担侵权责任。在过错推定原则语境下,通过初步推定过错并要求相关主体举证,保护受害人权益的同时,给予开发者或使用者证明机会,比较符合“灰箱”人工智能的实际情况。
可以发现,法院对于此类侵权案件中“过错”因素的判断主要与人工智能的“可解释性表现”挂钩,相关主体如果可以对具体技术设计的基本原理、风险防范机制的底层逻辑和显著信息标识的实践情况等充分解释说明,更有可能豁免承担侵权责任,此时人工智能的可解释性程度与侵权责任承担的可能性成反比。此裁判模式有利于引导开发者坚持《关于加强互联网信息服务算法综合治理的指导意见》(国信办发文〔2021〕7号)所要求的“透明可释”的算法应用基本原则,激励其追求《新一代人工智能伦理规范》所提倡的“透明度和可解释性”的人工智能发展导向。
本质而言,“灰箱”人工智能致害的“过错”判断,同样从分析“故意”和“过失”两种因素着手。在举证责任倒置的场景中,通过对认识要素和意愿要素进行分析,侵权行为中存在的“故意”因素易于证明,通过对可解释性的举证证明,侵权行为中存在的“过失”因素也不难认定。此时,传统的“预见可能性”标准可能转变为“可解释性”标准,人工智能侵权案件中的“过错”因素认定路径可能就此改变。但必须认识到,如果遇到仅具有部分可解释性的“灰箱”人工智能,因其不可解释性部分导致的侵权责任,不论是用“预见可能性”标准还是“可解释性”标准去衡量,都未免过于严苛,也不可量化。通常情况是,以当时的科学和认识水平,开发者或提供者在不可解释的方面无法做到完全的“合理注意”,也不具有“预见可能性”,这可能完全由科技发展尚不成熟所致。因此,“灰箱”人工智能致害时,对于“过失”因素的查明与举证,应当在不可解释的情形下转向客观化,从侵权赔偿责任转向损失补偿责任,构建人工智能行业的“善良管理人”标准,或既可提高裁判效率,也减轻开发者或提供者畸重的举证责任。
3.“黑箱”人工智能风险不可预测下的无过错责任承担
“黑箱”人工智能侵权情形发生时,因其难以解释和透明不足,导致因果关系证成极为困难,司法裁判也难以确定侵权的发生是源于使用者的过错还是制造商或其他主体的可能责任,此时的责任归结成为难题,侵权定性与归责原则均存在巨大争议。“黑箱”人工智能致害时,可能的责任主体众多,适用过错责任可能导致较高制度成本,此时无过错责任的责任归结思路更为可行,有研究从经济学视角论证,适用无过错责任不仅制度成本低,而且救济效果更好。当损害的可能性与具有风险性之特定主体的“不可预测”行为相关联时,引入无过错责任应是合理的。此种情况与传统民法上对动物或儿童等具有活动自主能力,但具体行为具有不可预测性之主体侵权时设定无过错责任相比,二者的规制理念并无不同,其指引目的均在于促使相关责任主体采取措施,以预防或降低发生侵权或类似风险的可能。
关于无过错责任的责任主体界定,有学者提出由使用者或所有者承担严格责任的路径,但学界对此多持否定意见。基于人工智能客体论的一般原则,结合几点考量,由开发者作为责任主体承担无过错责任,或许更为合理:
第一,开发者对人工智能的设计、开发和训练过程具有较高程度主导权,能够决定人工智能的功能性能和运作模式。即使是“黑箱”人工智能,其潜在缺陷也往往源于开发者在设计和开发阶段的错误设置,从人工智能生命周期的全过程而言,开发者可以通过合理的设计、严格的测试和持续的改进来减少缺陷并降低侵权可能,其具有较强的风险控制和预防能力。
第二,开发者通常拥有专业的知识信息和高度的技术技能,能真正理解人工智能的内部工作原理和潜在风险。相比人工智能产业链其他主体,其更有能力评估和判断产品的潜在缺陷问题,其他主体或使用者对人工智能技术的了解远低于开发者,难以判断产品是否存在系统缺陷以及如何避免侵权风险。
第三,开发者从人工智能的开发应用中获得丰厚的经济利益,经济实力强大。对于受害者来说,如果发生“黑箱”人工智能侵权问题,信息不对称的弱势群体难有能力确定具体的责任主体,此时要求开发者承担无过错责任或过错推定责任,可以更好地保护受害者的权益,实现利益的平衡,也可以敦促开发者进一步提高专业技能和创新技术,并更加关注安全性和可靠性问题。
(二)“黑箱”人工智能主体定位下侵权责任独立归结预想
目前,坚持“黑箱”人工智能的法律客体定位并采取无过错责任的归责思路,客观来讲可行,但随着自动驾驶汽车等自主性程度较高的人工智能逐渐增多,这类人工智能在不同场景中的行为与决策并不完全囿于开发者的既定设置,对于具备“感知—思考—行动”特性的“黑箱”人工智能,或许应考虑更多的制度因应。当相关致害情况发生时,针对侵权责任分配问题,可将人工智能的“自主能力”纳入考量范畴,构建赋予类似智能体法律主体地位的制度,并适时试点运行以观测利弊和累积经验。
1.技术创新与责任归属的平衡与考量
近年来,人工智能的适用逐渐扩展至高风险领域,设计和管理人工智能的责任、公平和透明的压力越来越大,特别是自主性较强的“黑箱”人工智能,其决策过程可能完全超出开发者的预期。此时,如果仅因“黑箱”的不透明和不可解释性,即一味坚持适用严格责任或过错推定责任,甚至即使开发者已采取合理的技术措施和安全保障手段,却仍因不可预见的致害结果而被追究无过错责任时,行业创新的积极性将备受打击,也不利于技术的发展和科技的进步。而且,“黑箱”人工智能可基于神经网络和深度学习算法进行独立学习和经验累积,乃至未来还会运用采集到的数据进行算法的自我更新的发展趋势下,如果这类人工智能在自主学习和迭代算法之后产生侵权行为,则很难界定侵权行为的发生原因和时间节点,亦无法苛求开发者或相关主体对此承担无过错责任。同时,如果“黑箱”人工智能投入市场时的技术检测水平尚不能发现或有效防止其致害问题,投入市场后基于新的解析手段和科技进步发现问题根源,如近期MIT的计算机科学与人工智能实验室即开发出一款唤作“COAR”的新方法,可以解剖神经网络打开部分黑箱,若以此追责之前上市人工智能体开发者及相关主体的无过错责任,则显失公平。面对以上种种利益衡量的难题,在特殊领域试点赋予“黑箱”人工智能以法律主体地位,或可一定程度消解前述困境。其实赋予人工智能法律主体地位的观点,也属于我国人工智能立法政策的考量范畴之一。
2.人工智能法律主体化的责任机制因应
法律主体资格,表面上看是赋予个体或集体在法律体系内的权利能力和行为能力,其实质是确认一种责任承担机制。因此,“黑箱”人工智能的法律主体化试点,解决责任承担的现实可操作性尤为重要。由于在“黑箱”人工智能侵权场景下,责任归属的复杂化、因果关系链条模糊化以及损害规模或损害程度与侵权方赔偿能力之间的不匹配等客观变化,实质上导致传统的“侵权人—受害者”二元框架已越来越难以合理解决人工智能侵权难题;尤其,在人工智能快速发展的背景下,作为人工智能侵权风险分配或责任分担机制或进路,“损害救济社会化”逐渐受到关注。此理念下,目前存在以下两种具有可行性的因应制度或机制框架。
一方面,建立人工智能责任保险制度或强制赔偿机制,要求人工智能的开发者或使用者在将其投入市场前先购买相应的保险,保证“黑箱”人工智能体引发事故和导致损失时,受害人能够得到及时的赔偿。同时,相关保险制度的建立也可为人工智能企业提供一定的风险保障,降低企业的经营风险,激励开发者持续推动人工智能技术的进步,从长远角度更有利于促进人工智能产业的创新尝试和健康发展。我国已存在相关立法尝试:《北京市关于加快推进自动驾驶车辆道路测试有关工作的指导意见(试行)》要求测试主体应预先提供自动驾驶车辆交通事故责任保险或赔偿保函;《深圳经济特区人工智能产业促进条例》规定,探索完善适应人工智能产品和服务的专门性保险赔偿体系,为人工智能产品和服务提供全链条的保险保障;《深圳经济特区智能网联汽车管理条例》鼓励保险企业开发覆盖“设计、制造、使用、经营、数据与算法服务”全链条风险的保险产品。上述地方立法尝试和责任保险机制,为人工智能主体化视域下构建保险制度提供了重要参考和观察样本。基于前文分析,若尝试构建和进一步完善人工智能责任保险制度或强制赔偿机制,在基于公正合理的侵权责任划分原则基础上,应将保险责任和投保义务从传统的所有者或使用者更多分摊乃至转移到开发者和制造商一方;同时,通过改进代位追偿制度,激励保险公司设计新机制和分担部分人工智能创新风险,保障该机制设计中保险理赔和损失分配能够适应人工智能在法律主体性方面的理论支持和现实需求。
另一方面,政府应推动设立专门的人工智能侵权共济基金或类似实体。“创新成功由社会受益,创新失败由社会兜底”,人工智能作为国家战略性产业和社会未来利益的高科技技术,作为社会公共利益的维护者和代表者的政府,有责任积极推动建立专门应对人工智能发展风险的损害救济责任分配机制。此共济基金的运作和管理应立足于人工智能领域“高新技术导向”,仅面向赋予法律主体地位的高度自主“黑箱”人工智能应用。同时,坚持共济基金的补偿性与辅助性特色,当人工智能侵权行为发生后,若受害者通过保险赔偿、向责任方索赔等常规途径无法获得充分赔偿,可申请通过共济基金进行补充性的经济补偿,以减轻受害者的损失。换言之,共济基金是在其他赔偿机制不足的情况下发挥作用,而非取代其他责任承担方式。共济基金的定位上不仅要对已发生的侵权行为进行赔偿,还应具有预防和教育功能,可以利用少部分资金开展人工智能安全和法律责任的宣传教育活动,提高开发者、使用者和社会公众对人工智能风险的认识,促进人工智能技术的安全开发和应用。
基金的资金来源可以秉持多元化思路:首先,政府作为公共利益的代表,应承担公共基金的初始启动资金,并在后续根据实际需要进行持续的财政支持。其次,应要求从事人工智能开发和应用的企业按照一定比例缴纳费用,尤其是开发自动驾驶汽车、医疗人工智能等高风险人工智能系统的企业;对于因人工智能侵权行为而被处罚的企业或个人,其缴纳的罚款可以全部或部分纳入公共基金,这不仅可以增加基金的资金来源,还可以对侵权行为起到一定的惩戒作用。最后,还可以鼓励社会各界通过捐赠的方式为公共基金提供资金支持,政府可制定税收优惠等专门激励机制,吸引企业、社会组织和个人的捐赠。
探讨赋予“黑箱”人工智能独立法律人格,并由保险和基金来承担可能引发的侵权责任,一个很难回避的问题是:可能诱导开发者更倾向于开发“黑箱”人工智能系统。为预防此潜在的消极后果,在选定的试点领域内,应配套设置一定因应措施。
首先,强化监管框架与伦理约束,构建风险可控的责任体系。为遏制试点“黑箱”人工智能独立法律人格可能引发的技术滥用倾向,需建立刚性的监管规则与动态责任分配机制。其一,明确“负面清单”与“穿透式审查”原则,例如,在数据隐私、算法安全等核心领域,强制要求提交涵盖数据来源合法性、失效场景模拟等关键指标以及全周期的算法影响评估报告,并实施动态审查。对故意规避透明性设计或隐瞒系统缺陷的行为,可设定诸如年营业额10%左右的高额罚款、永久性市场禁入,以及对关键负责人的个人连带追责等阶梯式处罚类似机制,力求最大限度压缩相关主体的投机空间或动机。其二,升级开发伦理的行业共识:在ISO 26000社会责任标准基础上,推动制定人工智能伦理认证体系,推动企业公开承诺算法设计的公正性、可追溯性、人类监督优先性,并将其纳入上市审查与融资评估要件,形成“技术—伦理—法律”三重约束。
其次,激活市场激励机制与公共认知引导,塑造可解释人工智能的生态优势。在试点领域内,需通过政策杠杆与公众参与,重构人工智能技术的价值排序。一方面,实施“透明度溢价”的经济激励,例如,参考新能源产业补贴模式,对通过IEEE2894“白箱”标准认证的可解释人工智能企业,给予研发费用较高比例加计扣除的税收优惠,并在政府采购中设置至少30%的“技术透明度评分权重”;同步建立“黑箱”人工智能附加成本机制,要求其开发者按利润比例缴纳“不可解释性风险基金”,用于补偿系统性风险与社会治理成本。另一方面,构建可解释性认知的“双向启蒙”体系:面向开发者,设立“透明算法设计”国家专项奖励基金,引导科研机构与企业的技术路径竞争;面向公众,推行强制性风险标识制度,例如,要求相关“黑箱”人工智能产品标注“不可解释”警示标签,通过市场选择倒逼技术升级或转型。此外,通过“保险金+共济基金”的财务兜底设计,将开发者预缴的定额责任储备与事故后的阶梯责任分摊相结合,迫使企业以“理性经济人”视角权衡法律风险与技术收益。由此,“黑箱”人工智能的独立责任试点非但不会诱发道德风险,反而可借制度合力推动可解释技术成为市场默认选项,最终实现负责任创新的帕累托改进。
四、结语
人工智能是当前最受瞩目也蕴含无限可能的高新技术,随着这一技术的飞速发展和广泛应用,人类社会将迎来前所未有的变革机遇,同时人工智能应用所伴生的侵权归责复杂问题,日益受到关注。借由可解释性的人工智能类型化方式,可以清晰整理出更为明晰的侵权责任归结思路,传统归责原则和现行法律框架仍足以因应当前的人工智能侵权责任归结问题。秉持人工智能法律客体的定位,通过过错责任、过错推定和无过错责任原则等传统归责原则的多元化适用,依旧可以有效适用于不同类型的人工智能侵权场景。但,随着“黑箱”人工智能的智能化和自主化程度不断提高,须认真对待技术发展与法律适用之间日渐凸显的矛盾,正视法律规则供给的明显不足。尤其当需要考量和平衡鼓励技术发展、赔偿受害方损失和维护公共利益等多元价值目标时,恪守传统侵权归责路径或将阻碍人工智能技术的发展和创新,也不利于赔偿受害方损失和维护公共利益等价值目标的实现。因此,还应当从理论和实践两个层面进行“黑箱”人工智能的法律主体化尝试,并试点引入人工智能责任保险制度和人工智能侵权公共基金机制,为人工智能侵权责任的独立归结和承担铺垫基础和提供观测样本,以期通过多元视角和路径,平衡和缓解人工智能侵权问题公平解决与保障其良性发展这一逐渐凸显的矛盾。
责任编辑:韩利楠
文章来源:《法律适用》2025年第3期
排 版:孙鹏庆
策 划:姜 丹
执行编辑:刘凌梅
点击名片关注本刊
本文来自【《法律适用》杂志】,仅代表作者观点。全国党媒信息公共平台提供信息发布传播服务。
ID:jrtt