2022年9月28日,欧盟委员会通过了《人工智能责任指令》(AI Liability Directive,AILD)和《产品责任指令》(Directive of the European Parliament and of the council on liability for defective products,PLD)修订版两项提案,前者确定了针对人工智能系统(以下简称AI系统)所致损害的适用规则,后者将其适用范围扩展到配有人工智能的产品。该草案将人工智能系统分为三个风险类别:不可接受的风险、高风险、有限或最低风险。如果个人或公司受到了机器人、无人机和配有人工智能的软件或服务的伤害,将更容易起诉索赔,这对于欧盟、英国和全球的政策制定者来说尤为重要,因为《人工智能法案》的实施和人工智能责任的落实,有利于搭建一个更有效的人工智能法律框架。欧洲在应对数字经济方面的立法速度是惊人的,今年,我们已经看到通过了几项主要的立法,包括《数字服务法》《数字市场法》和《数据治理法》,(还包括其他一些已进入立法阶段的草案,如人工智能法草案、机械条例草案和数据法草案等)。当涉及到调节数字经济的立法活动中,欧盟似乎是目前最具活力的地区,但有一个立法项目一再被推迟,现在似乎有些滞后——新兴技术产生的新的责任的归属,特别是人工智能的责任问题。现已公布两项立法提案,其一是2022年9月28日修订的《产品责任指令》,另一个是全新的《人工智能责任指令》,这在欧盟立法中尚无先例可循,也是本次立法的重点解释之处。
1
《人工智能责任指令(The AI Liability Directive)》草案
关于人工智能系统造成损害的法律后果,谁要承担责任,当人工智能系统出现故障时,谁是相关的责任主体,以及人类决策的作用等等,责任法有可能提供一些答案。新规则涵盖了基于提供者、开发者、使用者的过失或不作为而提出的赔偿责任,有助于保护受害人获得有效补救。将人类决策从可能造成伤害的原因中去除,会给现有框架带来重要的法律、道德和社会挑战,要求人工智能承担损害责任符合公众、企业和监管者的利益,否则我们就无法让人工智能更好地为人类和社会服务。
(一)时间线
欧盟关于人工智能责任的立法工作,开始于2017年的立法决议《欧洲议会关于机器人民法规则的决议》(European Parliament on Civil Law Rules on Robotics),其中因提及的“电子人格”的属性而出名,但也因此遭到了整个欧洲的批评,并随后被撤销。2018年,欧盟委员会成立了责任和新技术组,其中,新技术组在2019年提交了一名专家关于AI责任以及其他新兴数字技术的小组报告,成为了欧盟进一步立法的基础。2020年,委员会发布了人工智能、物联网的安全和责任的报告,也或多或少地对人工智能承担责任的途径产生了影响。与此同时,2020年10月,欧洲议会通过了一项关于人工智能责任条例的全面提案(Product Liability Directive - Adapting liability rules to the digital age),欧盟委员会又用一年的时间,征询公众的意见,该活动从2021年10月持续到2022年1月初。这次征询的结果现已公布,但确切的提议的细节仍不确定。然而,似乎越来越确定的是,欧盟委员会现在更倾向于制定指令而不是条例,因为条例将会与侵权责任法有重合或者相互影响的部分,而各国的侵权责任法之间存在很大差异。欧盟法律中,条例是具有普遍适用性的欧盟立法,并直接适用于所有会员国,无需由国家转换适用;指令对的会员国都具有约束力,但留给国家当局处理形式和方法的选择,需要由国家转换成相关的立法。所以,为了减少上述障碍,以指令的方式规范人工智能造成的损害的责任,可能会减少各国之间的摩擦。
(二)责任形式
本指令的目的是通过规定人工智能的非合同性民事责任规则,以补充欧盟民事责任领域的法律规则,促进市场的正常运作,以确保因人工智能系统对其造成的损害的受害人,享有等同于在没有人工智能系统参与的情况下而要求损害赔偿的保护水平。以下是非合同性民事责任的几种形式——
过错责任:基于被告过错(即故意或过失)的责任造成的危害;疏忽可能包括,未能在……方面作出应有的努力(例如,设计、部署或监控人工智能系统)。
产品责任:生产者的责任(或在一定条件下的其他责任,如进口商等)对不良产品造成的损害而承担责任,这种类型的责任并不要求被告有过错。
严格责任:不要求被告过错的责任,对于造成的损害而承担责任,只能以不可抗力抗辩。
替代责任:对他人,如辅助人员的行为的责任。
(三)为什么我们需要人工智能责任的新领域?
人工智能技术对现有法律框架提出了新的挑战:目前的法律框架是碎片化和不完整的,欧盟成员国对国家责任制度的过度依赖,破坏了企业公平竞争环境的目标。然而,规范人工智能责任,比规范《人工智能法案》和其他形式的数字监管问题要复杂得多,因为成员国已经有了非常成熟的责任规则,所以欧盟一开始就不敢贸然采取行动。然而,现在有五个明确的理由,以至于欧盟不得不推动关于人工智能的责任的立法:
1. 避免对受害方赔偿不足
调整适应人工智能的责任规则,或引入新的责任制度,将有助于解决对于人工智能系统造成的伤害的补偿不足的问题。学者和政策制定者一直在为损失应该归谁而争论(主要标准有行为是否不法,收益来源,对行为的控制程度等)。然而,大主流观点都认为人工智能的使用至少不应该让受伤的一方获得更低的补偿。
2. 加强《人工智能法》及类似法律的执行
当人工智能法案的提案在2021年4月提出时,令人惊讶的是,与《通用数据保护条例》(GDPR)不同,它采取了传统的产品安全方法监管。这意味着某些高风险人工智能系统必须满足一些清单上的要求(从数据治理到监督、以及算法的透明和稳健),才能被投放到市场上。它还包括一些对人工智能供应商和供应链中的其他人员的责任和义务,包括部署者(通常是企业或公共机构)。然而,它不包括个人权利,即那些受人工智能使用影响的人(如公民、消费者)在遭受损害时要求赔偿的权利。因此,人工智能法案无法在私主体的领域执行,建议将“受影响的人”纳入人工智能法案是大势所趋。
3. 提高公众对新技术的信任
将赔偿额不足的受害方引入欧盟范围内的人工智能责任新制度,在欧盟内部和全球范围内具有重要意义和象征价值。它表明欧盟正在采取行动,保护欧盟公民免受新的和潜在的危害技术。这一行动可能会增加公众对新技术,特别是人工智能的信任。欧盟立法需要确保人工智能系统带来的市场是安全可靠的。
4. 确保公平竞争和创新环境
对企业有些矛盾的是,有些人呼吁建立人工智能的新责任体制,主要不是为了对受伤方获得补偿的权利,而是对创新的关注以及企业的监管环境。机器人不仅是工作的工具,而且越来越多地在产品和服务的生产中自主地采取行动,因此需要全面系统的保护。
5. “布鲁塞尔效应”
欧盟在人工智能和数字领域的规范制定和监管方面,处于全球的领先地位,长远来看,制定第一个规范人工智能责任的法令,具有广泛的战略重要性,世界其他地区将直接或间接地受到欧盟规则的影响,因此欧盟制定人工智能责任制度志在必行。
2
补偿不足的理解:为什么人工智能产品让受害者处于更坏的境遇?
欧盟委员会指出,缺乏透明度和可解释性以及某些人工智能系统的自主程度,可能会使其难以实现受害方证明产品有缺陷,并证明因果关系与损害。为了适当地理解上述境遇,我们分析了一些不同的场景和例子。
场景1:完全自动驾驶汽车
在绝大多数欧盟司法管辖区,机动车的所有者对机动车造成的人身伤害或财产损失负严格责任。根据《关于机动车民事责任保险的指令2009/103/EC》,受害方不必证明所有者或司机的过失,而是有直接索赔权,且车辆强制保险的覆盖面广,赔偿额度极高。英国2018年颁布的《自动和电动汽车法》(Automated and Electric Vehicles Bill,简称AEV法案),将车辆强制保险范围扩大至自动驾驶汽车,对于自动驾驶汽车在“自我驾驶”状态下发生事故的,保险人或车辆所有人应当承担首要责任(initial liability)。本质上,这意味着,无论车辆由人工智能驱动或由人驾驶,受害方总是会得到补偿的。因此,无人驾驶汽车造成事故的责任,大多数问题是关于相关保险责任的公平分配问题,报销费应该继续由车主承担,还是应该转移到制造商?特别是,在完全自动驾驶汽车的情况下,大多数事故是由制造商的错误的设计引起的。
场景2:自动人工智能设备——割草机或清洁机器人
然而并不是所有的自动设备,都像无人驾驶汽车一样,有特殊责任或保险。以自动割草机为例,在花园里玩耍的孩子被自动割草机弄伤,或清洁机器人在公共空间作业时,有人挡住了它的去路而被撞倒受伤。如果一个人类园丁开着割草机碰伤一个孩子的脚,或者一个人类清洁工把人撞倒了,通常会很直接的证明其过失,然后园丁或者清洁工(可能还有他们的雇主)将承担损害赔偿责任。而对于一个自动装置,事情要困难得多。机器人(不像人类园丁或清洁工)自己不能承担责任,而由于许多法院拒绝适用替代责任的规则,受害人也难以证明机器的所有者违反了注意义务,导致机器执行了一个不适合的任务,或者未能对机器人的操作进行适当的监控或未能提供适当的维护,例如通过软件更新等等,则受害方不能依据此来获得赔偿。另一种补偿方式是通过生产者的产品责任主张索赔,但如果受伤的一方无法证明机器人有缺陷,或者是缺陷导致了事故(因果关系),则也于事无补。
场景三:信用评分AI
在人工智能导致的纯经济损失的情况下,事情就更加困难了。例如,因为信用评分人工智能系统的缺陷,拒绝给一个客户贷款,导致其不得不以低于市场的价格出售公司的业务,出现了严重的资金流动性危机。另外一个例子是,将申请人的种族作为影响贷款的信用等级的评价数据,不管这是否导致了经济损失,但确实在一定程度上造成了歧视。大多数相关案例,比如信用评分的人工智能系统,招聘决定或计算保险费,都基于合同中或合同前的设定,而人们往往会关注非嵌入式AI(即独立软件),在这种情况下,许多欧洲法律规定,要证明银行本身或承担合同责任的员工有过错。然而,正如在情景2中所解释的,法院一般不倾向于将替代责任规则类推适用于故障的技术系统。银行如果能证明它从一家得到认可的公司购买了信用评分AI系统,并且已经完成了所有操作,那么它将不承担责任。而相比于自动驾驶设备,产品责任也无法适用,因为产品责任通常只涵盖人身伤害或财产损失。
特别是在人工智能被部署到传统上由人类完成的任务,以及损害可分为纯经济损失和纯非经济损害的情况下,责任法中可能存在严重的“问责缺口”。人工智能系统的操作员,只要他们能证明自己尽职尽责,比如关于监控和维护,就可以“躲在人工智能后面”,以逃避责任的承担。
3
三种政策选择
在公开会议中提及的政策选择分为两大类:(1)采用严格责任论;(2)调整产品责任与过错责任的证明标准;(3)产品责任和过错责任兼而有之。严格的责任或强制保险的解决办法,是建立一个严格责任框架和/或强制责任保险,即确定AI支持的设备(见场景2)与完全自动驾驶汽车(见场景1)承担相同的责任。提案规定了对于 “高风险AI系统”的严格的责任,但没有明确列举哪些AI系统可能是高风险的。
严格责任意味着自动装置的操作者是有责任的,即使没有违反任何注意义务或是由于设备的缺陷而导致事故,也必须赔偿受伤方。对于这种严格的责任,可能只有不可抗力的抗辩(例如,如果卡车由第三者驾驶,或者第三人撞上了清洁机器人,把它推到了旁边的一个人身上,这可能会被排除在严格责任之外)。但这种方法的一个问题是,操作人员需要承担严格责任的范围需要被明确定义。
(一)与产品责任相关的证明问题
另一个解决方案是《欧盟产品责任指令》85/374/EEC(Product Liability Directive, Directive 85/374/EEC),提出的调整产品责任制度。如果我们仔细观察情形二,我们意识到主要问题是证明,即受害人无法证明割草机机器人有缺陷。然而,即使我们承认证明标准因管辖区而异,在标准普遍较高的欧洲司法管辖区,问题就变成了,法官通常是否会认为人工智能的缺陷是一个显而易见的证据?例如一个机器人突然撞倒一个人就可以证成其缺陷?受伤的一方是否只需要证明,是机器人向他们移动而造成了伤害,而不是他们自己绊倒了,这和传统事故的证明责任真的有那么大的不同吗?法官真的会要求受害方对AI系统的算法进行技术分析(当然考虑到算法的复杂性和不透明性,这是极其困难的)而履行其证明责任吗?无论这种担忧是否合理,减轻原告的举证责任,甚至把举证责任转移到被告身上,都有助于避免这种情况的发生。未来法规可以明确规定,当人工智能产品出现明显故障时,法院应该推定该故障缺陷和造成伤害之间存在因果关系。对于负有某些披露义务(如技术、系统数据等)的被告,没有遵守这些义务可能意味着被告处于劣势。但同时,《责任指令》也应做进一步的修订,以更好地适应科技发展,例如在缺陷是由软件更新引起的,或者只有在产品更新后才出现的缺陷而导致事故的情况下,制造商可以援引发展风险进行抗辩。
(二)与过错责任有关的证明问题
另一种政策选择是调整产品责任与过错责任的证明标准,例如将举证责任转移到被告身上,要求人工智能系统的运营商证明他们没有违规以及履行了注意义务。例如,自动割草机的所有人,可以证明他经过充分的培训,并根据指示进行程序操控。而一旦违反注意义务(例如没有安装软件或更新),被告必须证明事故发生与该义务的违反没有因果关系。同样,这种义务可能会进一步扩大到某些披露义务(关于技术规范和/或测试数据),不遵守披露义务将导致的被告承担不利后果。另一方面,如果这种责任制度强加于企业,可以作为人工智能法案的额外执行机制,这也为《人工智能法案》和《产品责任指令》建立了联系。例如,公司如果在公共场所使用清洁机器人,必须一丝不苟地记录其是否已经完全遵守了人工智能法案(和其他立法)所规定的义务,以致在事故发生时,能够反驳任何过失或责任推定。
4
总结
2017年,当欧盟开始讨论关于人工智能的责任时,世界与现在大不相同。从那以后,欧洲经历了COVID-19流行病、俄乌战争、气候危机等重大挑战,现在仍处于严重的经济危机的边缘。政策制定者目前的规制方向可能发生了变化,以至于不愿给已经负担沉重的欧盟经济增加额外负担。考虑到目前的压力,委员会似乎更有可能采取严格责任,但是在某些问题上进行有针对性的调整,比如在特定的情况下,过错责任也可能是一个合理的解决方案,无论欧盟如何决定,围绕人工智能和责任的基本问题都会持续存在。
李容佳 | 清华大学智能法治研究院实习生
选题、指导、修改 | 刘云
编辑 | 王欣辰
注:本公众号原创文章的著作权均归属于清华大学智能法治研究院,需转载者请在本公众号后台留言或者发送申请至computational_law@tsinghua.edu.cn,申请需注明拟转载公众号/网站名称、主理者基本信息、拟转载的文章标题等基本信息。

