×

何郑浛|论生成式人工智能责任承担体系的构建

hqy hqy 发表于2025-03-03 09:21:59 浏览10 评论0百度未收录

抢沙发发表评论

人工智能时代下的公民在享受人工智能便利的同时,也必须直面人工智能给公民权利带来的潜在风险。算法不断深度演进加大了人工智能行为的不确定性,极易导致人工智能违背设计者初衷进而损害公民权益。损害结果发生后,被侵权人能否直接请求人工智能承担民事责任是一个重要问题。学界关于人工智能是否具有法律主体资格意见不一。据现有的法律体系而言,人工智能没有法律意义上的权利及义务,无法成为民事法律主体。从法理逻辑角度,人工智能欠缺法律主体必要的自我意识及其不具有自律性决定了人工智能无法具备法律主体资格。在承认人工智能不具备法律主体资格的前提下,以康德的自律公式为理论支撑,构建人工智能侵权的责任承担体系。

一、问题的提出在大众视角外的人工智能已默默发展了数十年,人工智能技术早已潜移默化地改变着我们的生活,最常见的如自动驾驶技术、扫地机器人等。人工智能的爆火,吸引了诸多法学界的专家学者探讨人工智能对当下社会法律关系变动产生的影响。其中对人工智能是否具有法律主体资格、人工智能侵权责任如何承担等问题的讨论尤为激烈。一部分学者认为基于实际考量以及人工智能的有限自主意识,可以赋予人工智能法律主体资格,继而由其自身承担法律行为的后果。还有部分学者持否定态度,他们认为人工智能实质上仍是人造工具,因此无法获得法律主体资格,也不应当由人工智能对其行为承担法律责任。不可否认的是,人工智能在便捷公民生活的同时,也造成过一些严重事故并损害了公民的合法权益。侵权事故发生后,由谁来承担责任本是无法回避的问题,人工智能引发的事故也不例外。但有个横亘在责任承担之前的问题亟待解决:人工智能法律主体资格的有无。学术界关于人工智能有无法律主体资格讨论数十载,仍无最终定论。值得一提的是,2023年4月11日,国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》(下称《办法》)。《办法》第5条明确规定,生成式人工智能产品的提供者,承担该产品生成内容生产者的责任。这条规定似乎指明了当生成式人工智能发生民事侵权时,由人工智能产品的设计者或提供者承担侵权责任。本文论述以人工智能时代为背景,以人工智能不具备法律主体资格为前提,康德的自律公式作为理论支撑,试图构建人工智能侵权的责任承担体系。二、人工智能不具有法律主体资格的理论分析人工智能的发展经历了从弱人工智能到强人工智能的过程,以ChatGPT和Bard为代表的生成式人工智能诞生,标志着人工智能正式迈入强人工智能时代。甚至有学者认为目前的人工智能发展迅速,智能生产力水平已逼近人工奇点。且不说人工智能奇点的特征表现为“人工智能超越人类智能,机器人成为人类思想的继承者。”人工智能奇点实现与否也一直是学术界的焦点问题。所以,将时代背景限缩在人工智能时代下讨论人工智能的法律主体资格问题更为妥当。(一)人工智能不具备法律主体资格的理论基础人工智能的法律主体资格与其法律性质紧密相连,讨论人工智能是否具备法律主体资格,必须先厘清人工智能的法律性质。学界经过数十年的探讨,针对强人工智能的法律性质问题主要形成以下学说。在工具说的视角下,人工智能实质上仍然是人工造物,与人类使用的其他工具并无不同。持工具说的学者将人工智能和人类智能进行对比,得出人工智能与人类智能有显著不同的结论。他们的依据在于,人类智能源自人的意识,而人的意识源自生命体全身的神经元复杂系统的涌现,意识必须紧紧依赖于生命载体。人工智能是一种机器,是纯粹由无机物构成的生命体。在布莱克摩尔看来,由于人工智能不是由有机物构成的生命体,欠缺神经元,因此“人工意识不可能实现”。意识具有非物质性而人工智能具有物质性,两者之间的鸿沟奠定了人工智能只能是工具而不是主体。简言之,工具说完全否定了人工智能具备法律主体资格。在代理说的视角下,人工智能与人类的关系与民法上代理人与被代理人之间的关系相类似。人工智能在人类的意思表示范围内实施法律行为,行为责任由管理者承担。代理说承认了人工智能具有法律主体资格,它具有行为能力和权利能力,能够有限制地做出一些行为,但当它造成侵权事实时,无法承担赔偿义务,对它自己实施的行为负责。在代理说的视角下,人工智能虽然具备民事权利能力和民事行为能力,但它忽视了人工智能不能承担民事责任这个问题。人工智能所实施的民事侵权行为,最终还是有相关自然人承担赔偿责任。当人工智能在权限范围内从事法律行为,行为责任由管理者承担。而当人工智能超越权限范围从事法律行为,行为责任应当自负,而它本身又恰恰是无法负责的。具备民事法律主体资格的底层逻辑在于独立享有民事权利和民事义务,从而独立承担民事责任。代理说所定义的人工智能无法独立承担民事责任,那么法律主体资格就无从谈起。(二)强人工智能不具备法律主体资格的法理分析人工智能具有物质性,它归根结底仍是人工造物。人工智能被制造出来的目的在于将人类从繁重、危险的工作中解放出来,极大地解放劳动力。尽管有反对工具说的学者认为,人工智能在不断发展,甚至在某些领域已出现了超越人类智慧的人工智能,人工智能的工具属性大大削弱。但这并不代表人工智能可以替代人类在社会关系中的作用,也不代表人工智能具备了法律主体资格。人工智能不具有意志。人工智能基于算法程序的计算获得了意志的表象,然而,“离开了大数据,深度学习就成了无源之水、无木之本”。意志包含情感、直觉、灵感。人工智能如拥有意志,那么其必然具有情感。事实上,“情感是先于理智存在的,人工智能只有智力,没有情感,不是真正的智能”。不可否认,人工智能在算法的加持下具有智力,甚至在某些方面远超人类,但只有智力,缺乏情感,不是真正的意志。人工智能是人造智能物,它不具备心理认知能力。因此,人工智能不具有意志,或者说它不具有心理认知意义上的意志。人工智能无法承载法。法律主体是承载法的人格人,那么,主体之所以成为法律主体是因为它能承担法律上的权利义务。第一,人工智能的一切行动都是算法大数据演化的结果,人工智能不知道自己行为的社会意义,缺乏自我意识,不能做价值判断。第二,法律所具备的抽象性超出人工智能的理解范围。人工智能无法接受法律的调整,无法理解财产之于自身的意义,旨在通过赋予其法律人格以达到的责任限定效果不符合正义的基本要求,因而赋予智能机器以法律人格,从理论上看是无法成立的。综上,人工智能无法承担法律权利义务,不具备法律主体资格。三、康德“自律公式”下人工智能不具备法律主体资格的证成在上述赞同说看来,法律主体范围扩张的过程正是证明其理论合理性的最佳作证。赞同说的理论框架下,人工智能实际参与到法律关系中,因而获得法律主体资格。与其说是赞同说,不如说是法律建构说。法律主体是因为法律需要而得以存在并非其物质本身成为法律主体。相应的,人工智能就是因人类需要它参与到法律关系中,而被赋予法律主体资格。然而,看似有道理的“法律建构说”却忽视了法律主体中的人性本质。法律主体与人格密切相关,蕴含了自治的观念。法律制度的目的就是理解法律人格的基础。康德的道德学说完美回答了该问题,也从另一方面回答了为何人工智能无法具备法律主体资格。而在康德看来,道德性是一个理性存在者成为自在目的本身的唯一条件。康德制定了道德原则来检验一个事物法律主体资格的有无,同时道德原则有三种表现公式:自然准则公式、人性公式和自律公式。自然准则公式是立足于普遍性形式的公式。它要求在形式上主体所遵守的行为准则如自然规律一样有效,它适用于一切理性存在者。该准则投射到法学领域则变式为,成为法律主体必须具有自然规律的普遍必然性。换句话说,法律主体必定是个遵守普遍准则的理性存在者。人工智能具备法律主体资格的话,那它就是一个理性存在者。自然准则公式强调“理性”作为法律主体目的存在,引出了人性公式,人性公式是立足于道德的质料性规定:有理性的存在者,他本性中的目的,是其自在的目的本身。“人格中的人性”是目的,不是手段。该公式投射到法学领域变式为,人工智能具备法律主体资格必须先作为目的存在且具备赋予价值的能力。自然准则公式要求立法者客观上所制定的法律必须具有普遍性的形式,人性公式则要求立法者主观上全部立法目的的主体是作为立法目的本身的理性存在者。而将客观与主观协调一致的正是道德原则的第三种表现公式:自律公式。自律公式是对道德原则最完整的规定。在自律公式的视角下,理性存在者遵守的准则都是自己立法意志的体现。质言之,法律主体所遵守的法律都是自己制定的,也正因如此,他才会遵守法律。自律公式要求主体按照自己的准则应当被当作普遍准则那样去行动。人们检验道德原则失败的原因在于,他们没发现他们遵守准则所赋予的义务,来源是他们自己的立法,只是被上升为普遍性准则。且这种义务是他们按照自己的,但根据自然目的而普遍立法的意志而行动。不可避免的,人们遵守的某个普遍准则,不仅包含自己的意志也包含其他人的意志。康德把人们按照自己和他人的共同意志而采取行动,称作“意志自律”。每一个自律的理性存在者,他们贯彻自身意志的普遍性准则共同组成了“目的王国”。而他自己必须无时无刻把自己当成目的王国中的立法者,且他只服从自己所立的法。在自律公式的视角下,道德性是一个理性存在者能成为自在目的本身的唯一条件。这是康德再一次强调道德性的重要性,他认为,只有通过道德性,理性存在者才可能成为目的王国里的立法成员。“自律是人的本性以及任何理性本性的尊严之根据。”道德原则的三种表现公式并不是对立关系,相反它们的内涵呈阶梯性扩展。自律公式本就囊括了自然准则公式与人性公式。所以,用自律公式检验人工智能是否具有法律主体资格更为妥当。在自律公式下,人工智能具备法律主体资格需达成三个条件:它是理性存在者;它作为目的存在且具有价值赋予能力;它同时扮演守法者和立法者两种角色。就条件一而言,人工智能如果是理性存在者,那么它自然具有理性。然而,人类能够对规则提出质疑,而人工智能只能机械地遵守规则。在以理性为前提的图灵机器检验下,人工智能无法理解语言的意向性,康德的自由意志无法转化为技术理性。在以普遍准则为前提康德机器下,人工智能如果能通过自然准则测试,必须具有普遍准则,而作为手段的人工智能并不能把手段性规则上升为普遍准则,这与人性公式的目的性要求相悖。所以,人工智能不能成为理性存在者。这也证实了“工具说”的观点,人工智能只是人工造物,脱离不了工具或手段的本质。就条件二而言,人工智能必须是作为目的存在且具有价值赋予能力。首先,人工智能被制造出来是为了实现人类的目的,评价其效益就相当于评价其作为手段对人类的有用性,这与康德提出的主体论相悖。其次,只有人性能赋予价值,人性是内发于人类自身而又不假借外物,它具有内在价值和绝对价值。人工智能是编程的产物,无法独立编程存在,这表明人工智能只具有外在价值和相对价值,它无法赋予价值。就条件三而言,人工智能必须同时是守法者和立法者。就守法者来说,人工智能似乎是天生的道德标兵,它永远按照既定的准则行事,是公正、理性的化身,它担任守法者甚至比人类做得更好。就立法者来说,人工智能所遵守的准则必须是自己制定的,然而人工智能遵守的准则来源于人类的编程。程序员遵守的准则限制了他对人工智能算法的编写,继而限制了人工智能的行动自由。自我立法是责任产生的根据,人工智能的行动准则以及遵守这套准则的机制都由人类来提供,那么它就无法对自己的行为负责,一个无法自担其责的人工智能,根本不具备法律主体资格。“代理说”所遵守的准则都是由人类制定的,是人类意志的产物。人类之所以能够具备法律主体资格,正是因为人类满足意志自律的要求,人工智能受人类的准则限制,落入到意志他律的范畴,无法具备法律主体资格。简言之,人工智能无法通过自律公式的测试,进而不具备法律主体资格。最后,康德在检验道德原则的适用时,排除了一切经验性的东西,原因在于经验所提供的偶然根据将有损于道德的纯正性。在“法律拟制说”视角下,人工智能可以被拟制为法律主体,但这种拟制具有或然性,与强调普遍性的道德原则相悖。四、人工智能侵权责任承担体系之构建构建侵权责任体系不是一朝一夕能够完成,体系建成后也需要实践的不断检验,针对现实的反馈不断调整。而构建侵权责任体系,应当以传统民法侵权理论为根基。具体而言,构建人工智能侵权责任体系应考虑以下几个问题:(一)责任主体之确定诚如上文所说,人工智能无法通过自律公式的检验,不具有法律主体资格。那么,人工智能自然无法担任侵权责任主体。而当人工智能侵权事实发生后,不可能没有侵权责任的承担主体。既然人工智能无法承担侵权责任,势必有其他法律主体对人工智能侵权行为负责。学者们关于谁来承担人工智能侵权责任各自有不同的见解,但都一致认同,生产者和销售者一定承担侵权责任。据民法典的规定,被侵权人因产品缺陷遭受损害的,可以请求生产者或销售者赔偿。民法典对产品缺陷引发的产品责任有规定,人工智能是人造智能物,算智能产品,所以这款法条对人工智能同样适用。有学者提出,当人工智能产品的设计者与生产者不是同一人时,设计者也应当承担侵权责任。将设计者纳入侵权责任承担范畴,可以最大限度确保人工智能设计的安全性。此举与德国立法提高设计者道德水平有异曲同工之妙。有学者将生产者和销售者进行扩大解释,将生产者分为实际生产者、标识生产者和拟制生产者。将销售者分为经销商、批发商和零售商等等。其逻辑在于现行法律只是简要概括生产者和消费者,联系人工智能生产销售的全部流程,任何人的违法操作都会加大致害风险。此外,他还把产品软件开发商纳入责任承担范畴。如果人工智能因被改造,导致侵权事实发生,那么改造人工智能的行为人应对损害结果承担责任。综上,对责任主体的定义有大有小。笔者认为,应采取最大范围定义人工智能侵权责任的承担主体。因为普通群众相对人工智能来说是绝对的弱势方,人工智能快速迭代更新,再加上算法黑箱的存在,侵权行为越来越模糊。被侵权人甚至只知晓自己被侵权了,如何被侵权,何时被侵权等问题一概不知。允许被侵权人最大范围找寻相关责任人请求赔偿的做法也符合有损害必有救济原则。(二)主观过错之厘定行为人主观上具有故意或过失的过错,是其承担侵权责任的构成要件之一。人工智能不具备法律主体资格,这里讨论的主观过错,也是以上文的生产者销售者等为视角进行展开。在讨论行为人的主观过错时,无法回避归责原则的确定。归责原则有严格责任和过错责任之分。如果坚持人工智能侵权适用严格责任,那么就不用考虑行为人的主观过错。支持适用严格责任的理由如下:1.从产品责任的归责原则历史演变来看,从合同责任到侵权责任,从过失责任发展到严格责任。严格责任最终得以留存在法律中,具有深厚的社会经济基础。2.对缺陷产品应当适用严格责任。生产者担忧因产品缺陷导致的商业风险而加强对产品安全性的把控。3.适用严格责任,其实是加重了生产者的责任。但与消费者相比,生产者无疑能更早更全面地发现产品中隐藏的缺陷,特别是人工智能产品,消费者因技术壁垒完全无法发觉其中的缺陷。此时由人工智能产品生产者发现和降低其中暗藏的缺陷与风险更为妥当。而如果认为人工智能侵权适用过错责任,那么在追责时就应当考虑行为人的主观过错。支持适用过错责任的理由如下:1.严格责任要求生产者和销售者对人工智能产品承担无限责任。对于一些无法预见的产品缺陷,生产者已经尽到发现注意义务,此时要求其无限责任,意味着生产者和消费者需要对无法预见且无法控制的风险承担侵权责任。严厉适用严格责任无疑使得生产者受到限制,甚至为了降低风险删去一些亮点设计,这显然是不合理的。2.适用过失责任可以平衡生产者利益与受害者利益。人工智能立法除了保护受害者利益外,还需要调动人工智能产品设计者生产者的积极性。不能为了保护弱势方而遏制科技进步。美国和德国在针对人工智能做出的诸多改革措施中,最重要的一项措施就是归责原则的重述:生产者适用严格责任,销售者和使用者适用过错责任。美德两国虽然区分适用归责原则,但在对生产者归责时,仍坚守严格责任的立场。在美国产品责任相关规定中,只有产品制造缺陷才适用严格责任。美国立法的先进之处在于,一些具有设计缺陷和警示缺陷的人工智能产品适用过错责任。但是,它忽略了人工智能基于算法不断深度演进,暗藏一些生产无法预知的风险,此时再对生产者科以严格责任,将打击人工智能产品生产者的积极性。因此,立法者应当区分适用归责原则,但是应当以产品缺陷产品风险是否可预知为区分标准。综上,笔者认为应当差别适用归责原则,对人工智能可预见风险内的侵权行为适用严格责任自无疑问。此时无需考虑生产者或销售者的主观过错问题。对人工智能预见风险外的侵权行为适用过错责任,此时未履行注意义务的生产者对承担因自身疏忽而导致侵权事实发生的过错责任。是否追究生产者的过错关键即在于其在可预见风险内是否充分注意产品设计。(三)举证责任之分配在否认人工智能具有法律主体资格的前提下,人工智能侵权则从一般的侵权行为转变为产品责任。而根据民法典的相关规定,产品质量责任在证明责任分配上实行举证责任倒置的模式。即在受害人证明自身存在损害且损害是由生产者生产的相关产品或者管理者管理的相关物品造成的情况下,由生产者或者管理者证明自身不存在质量缺陷,或者不存在管理过错。但是,人工智能产品引发的侵权责任与一般的产品质量责任不同。就一般产品质量责任而言,被侵权人可以轻松指出产品的缺陷在哪。在人工智能侵权发生后,被侵权人极大可能只知晓自身权益被侵犯,人工智能侵权具有高度专业性,普通群众无法指出人工智能存在的缺陷,须留待专业人士对其进行检验。相较于被侵权人,人工智能产品的设计者和生产者具有更高的注意义务,他们也有能力对产品中的缺陷进行识别与修正。针对这一问题,欧盟与美德的解决方法迥异。欧盟首先部分承认人工智能的法律主体资格。对高度智能的机器人赋予其法律主体资格。在欧盟看来由人工智能承担责任,可以降低受害人举证责任难度。这是一种比较讨巧的做法,但它以人工智能具有法律主体资格为前提,所以借鉴意义不大。相较于欧盟的解决方案,美国设计出的方案是,效仿飞机上的黑匣子,在人工智能内部内嵌与黑匣子功能类似的芯片,用来记载人工智能运行的每条数据。在发生侵权事实后,通过分析黑匣子不但可以轻易找到故障发生的原因,还可以减轻受害人的举证责任,各方责任主体也得以据此对侵权责任进行分配。故而,在人工智能民事侵权事件中,应实行举证责任倒置的规定。由被侵权人证明损害事实的存在以及损害事实与人工智能之间存在因果关系。在被侵权人是第三人的情形下,由设计者和管理者证明损害结果的发生是由与被侵权人自身过错导致的;在被侵权人是管理者的情形下,由设计者和销售者证明损害结果的发生是由被侵权人自身过错导致的。为了进一步降低受害人的举证难度,可以在人工智能中安装“黑匣子”,用以记录人工智能运算的每一步骤。此外,欧盟的智能机器人登记制度同样值得我们借鉴,将市场流通的人工智能都登记造册,不仅便于管理,也便于发生侵权损害后,被侵权人快速找到责任人。因人工智能不具有法律主体资格,发生侵权事实后,被侵权人无法向人工智能索赔,只能请求人工智能背后的其他法律主体承担侵权责任。完善的登记制度可以极大减少被侵权人的维权成本。结语科技迅速发展的今天,人工智能走进生活已不是幻想。不可否认的是,人工智能是把双刃剑,它在便捷人类生活的同时,也会侵犯人类权益。尽管有不少学者建议赋予人工智能法律主体资格。但通过上文的逻辑梳理,人工智能无法通过自律公式的测试,所以人工智能不具有法律主体资格。现有的法律体系与人工智能不适配,而人工智能侵权事件又具有高发性。急需立法者构建一个完善的侵权责任承担体系,实践上可以借鉴西方国家人工智能立法的优秀经验。在构建人工智能侵权责任承担体系应当注意两个问题,第一,应将从生产到销售全部过程涉及的自然人确定为责任承担主体。第二,以人工智能侵权行为是否可预见未划分规则,差别适用归责原则。对不可预见侵权行为适用过错责任,对可预见侵权行为适用严格责任。第三,实行倒置的举证责任分配方法。为降低受害人的举证难度,可以在人工智能产品中安装类似“黑匣子”的芯片。人工智能侵权责任承担体系的构建,不是一朝一夕就能完成。在责任承担体系构建的过程中,应当在保障弱势自然人权益与鼓励科学技术发展寻求平衡。

往期精彩回顾

赵力|论都市圈协同规划的性质与效力

严嘉欢|长三角区域环境行政执法协同的困境纾解

张叶东 华晗|环境预防性民事责任的体系重构

王佳卫|生态环境损害惩罚性赔偿的适用研究

马晨贵|合议庭审判责任制改革的困境、反思与进路探究

嬴飞宇|论环境民事公益诉讼裁判对环境私益诉讼的预决效力——兼评《环境公益诉讼解释》第30条

上海市法学会官网

http://www.sls.org.cn