
中国民商法律网
本文原载于《比较法研究》2025年第4期。
【作者简介】王利明:中国人民大学法学院教授,法学博士。包丁裕睿:中国人民大学法学院讲师,法学博士。
全文共13046字,阅读时间约33分钟。
【摘要】生成式人工智能作品侵权的责任承担,既关系到受害人权益保护,也关涉技术利用与创新、产业发展以及信息自由等重要价值。在坚持过错责任原则的前提下,唯有合理设定生成式人工智能服务提供者的注意义务、审慎判断其是否构成过错,方能实现多元利益之间的有效平衡、促进社会整体福祉。我国民法典第1195条规定的“通知”规则,为判断网络服务提供者是否具有过错提供了一种具体化、可操作的路径。尽管生成式人工智能作品侵权与传统网络侵权在结构上有所不同,但在主体、价值、情境等本质特征上具有高度相似性,从而具备了类推适用“通知”规则的正当性基础。在具体适用上,“通知”规则所要求的“合格通知”与“必要措施”,应结合生成式人工智能服务的运行机制和技术特点加以解释。与之配合,我国民法典第1197条规定的“知道或应知”规则的类推适用构建了生成式人工智能服务提供者在未接到通知情况下的注意义务。两者共同构成了一个动态的注意义务体系,注意义务的标准随“现有技术水平”的发展而不断更新。
【关键词】“通知”规则;生成式人工智能;必要措施;网络侵权;类推适用
一、引言
随着Deepseek等人工智能大模型的横空出世,我们已经进入人工智能时代。人工智能带来了前所未有的发展机遇,也带来了前所未遇的风险。从法律层面看,生成式人工智能所带来的风险主要是其输出作品侵害他人的人格权、知识产权等权益。在人工智能生成的内容侵害他人民事权益时,如何准确认定相关主体的侵权责任,成为亟需解决的重大问题。
在我国已有的司法实践中,针对生成式人工智能侵权,法院主要依据过错责任而非严格责任的归责原则认定侵权责任。例如,广州互联网法院在“上海新创华文化发展有限公司与广州年光公司网络侵权责任纠纷案”中指出,“赔偿损失责任的承担需要考虑被告的过错问题”。杭州互联网法院则在“上海新创华文化发展有限公司与杭州某智能科技有限公司著作权侵权及不正当竞争纠纷案”中指出,“生成式人工智能服务提供者系提供生成式人工智能技术服务,对用户输入的提示词、训练图片等数据内容,以及生成物的传播等行为并不当然负有事先审查的义务,只有当其对具体侵权行为具有过错时,才可能构成帮助侵权”。这种归责原则的选择符合对人工智能技术所应采取的审慎包容、鼓励发展的政策。同时,采用过错责任也有利于平衡权益保护与行为自由。国内外学界具有共识性的观点也认为,应当对人工智能侵权采过错责任原则,避免抑制人工智能技术的利用和发展。然而,在过错责任原则之下,生成式人工智能服务提供者过错的认定是一大难题。
为了规范并鼓励互联网技术的运用和发展,《中华人民共和国民法典》(以下简称“《民法典》”)第1195条规定了“通知”规则。根据该规定,只有在权利人通知网络服务提供者后,网络服务提供者才有义务采取必要措施制止侵权。“通知”规则为信息高度流通与扩散的数字生态中网络服务提供者过错的认定提供了明确的标准,也为其提供了侵权责任的“避风港”。然而,“通知”规则可否适用于生成式人工智能侵权并不明确。应当看到,生成式人工智能服务与传统网络平台存在本质区别:用户的信息交互对象是人工智能服务提供者本身,而非其他用户。这也决定了,生成式人工智能作品侵权不能完全适用针对网络服务提供者的“通知”规则。但从立法目的、价值考量等因素出发,在认定生成式人工智能服务提供者的侵权责任时,应当类推适用“通知”规则,避免生成式人工智能服务提供者被迫投入大量资源用于防控潜在风险,甚至因此限制或放弃对相关技术的开发与应用。本文拟对生成式人工智能侵权中“通知”规则的适用问题展开研究,以求教于大家。
二、“通知”规则在生成式人工智能作品侵权中的不可直接适用性
在生成式人工智能作品侵权场景下,“通知”规则是类推适用,还是直接适用,存在不同观点。杭州互联网法院在判决中援引《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》(法释〔2012〕20号)第7条第3款有关侵犯信息网络传播权的“通知”规则作为裁判依据,是在生成式人工智能作品侵权案件中直接适用了“通知”规则。本案的判决思路和判决结果未必有误,但在未讨论“通知”规则的可适用性的情况下径行将其适用于生成式人工智能作品侵权,值得商榷。相比传统网络平台,生成式人工智能具有独特的内容生成、传播机制,生成式人工智能作品侵权的法律结构也不完全符合《民法典》第1195条预设的法律构造。因此,生成式人工智能作品侵权不能直接适用“通知”规则。
第一,生成式人工智能侵权作品的产生原因具有复杂性。与传统网络侵权行为源于用户发布侵权信息不同,生成式人工智能输出的侵权内容既受用户输入内容的影响,也受到模型训练数据与算法机制的影响。侵权信息的产生可能源于用户输入的特定提示词诱导模型生成涉嫌侵权的内容,或者用户输入的语料本身具有侵权性质(如他人私密信息),也可能源于人工智能训练语料的瑕疵、算法机制设计不当、模型未进行适当微调等原因,还可能源于纯粹的小概率随机事件。
第二,生成式人工智能作品侵权的法律结构具有多样性。《民法典》第1195条所针对的侵权场景是,网络用户通过网络平台发布侵权内容,受害人通过网络平台发现侵权行为,并向网络服务提供者发出通知,要求其采取必要措施。这与生成式人工智能作品侵权的法律结构有所不同。在生成式人工智能作品侵权的场景中,可能存在两种侵权结构:一是用户与被侵权人是同一主体,用户在使用生成式人工智能服务过程中发现其输出内容侵犯了自己的权益;二是用户与被侵权人不同,用户在输入合法提示词、侵权提示词或诱导侵权的提示词后,生成式人工智能所输出的内容侵犯了他人权益。
第三,生成式人工智能作品侵权可能不存在实施侵权行为的用户。当用户与被侵权人是同一主体时,侵权作品并非源自实施侵权行为的第三人,而是直接产生于生成式人工智能。例如,用户在查询个人简介时,发现生成式人工智能输出了包含其敏感个人信息的内容。即便在用户与被侵权人并非同一主体的情形中,也可能不存在实施侵权行为的用户。例如,用户输入的提示词本身不违法也不具有诱导侵权的性质,但生成式人工智能所输出的内容侵犯了他人合法权益。直接侵权用户的缺失使生成式人工智能作品侵权与《民法典》第1195条所设计的三方主体架构有所差异。
第四,生成式人工智能的内容输出具有封闭性,侵权作品的生成和传播阶段分离。由于生成式人工智能仅向输入提示词的用户输出内容,潜在的侵权信息并不会直接向不特定第三人公开。因此,在用户与被侵权人不同时,受害人无法直接通过服务提供者发现侵权事实;仅在用户通过其他方式自行公开输出内容时,受害人才可能知悉侵权事实。生成式人工智能服务提供者在接到通知后,有能力采取的措施仅限于删除、屏蔽已有和未来输出,而无法完全删除、屏蔽通过其他途径公开的侵权信息。生成式人工智能服务提供者封闭性的输出机制决定了其仅是侵权信息的生成者,而非侵权信息的传播者。
生成式人工智能独特的信息生产与传播特征,决定了生成式人工智能作品侵权不能直接适用针对传统网络侵权的“通知”规则:一是在法律结构上,生成式人工智能作品侵权可能仅存在两方主体而非三方主体,《民法典》规定的“转通知”和“反通知”规则可能无法适用;二是在侵权行为的判断上,服务提供者在收到“通知”后,需要先查明被控侵权内容是源于生成式人工智能服务还是用户,相比“通知”规则中的网络服务提供者,对构成侵权的证据需要进行更深入的审查;三是在接到“通知”后采取的措施上,相比传统“通知”规则以“通知—删除”为核心,生成式人工智能服务提供者可能难以直接删除侵权信息,而主要应当采取“通知—屏蔽”的手段预防侵权,其应对侵权的“必要措施”显然更为复杂。
三、“通知”规则在生成式人工智能作品侵权中的类推适用
生成式人工智能作品侵权不能直接适用“通知”规则,但应当类推适用“通知”规则。所谓“类推适用”,是指在特定案件缺乏明确法律规定时,裁判者援引与该案件具有相似法律评价基础的规定,将其适用于尚无明确规定的情形。类推适用的本质是“同类事物相同对待”,在对法律评价有决定性意义的方面,两类事实构成彼此类似,因此应被同等评价,且“不同之处在这里不能排除这种法定评价”。因此,能否类推适用,关键在于相似性的判定。生成式人工智能作品侵权与传统网络侵权在主体、价值、情境三个方面存在相似性,符合类推适用“通知”规则的条件。
(一)主体相似性:“技术中立”的服务提供者
《民法典》第1195条的“通知”规则的适用对象是“网络服务提供者”。生成式人工智能服务提供者是否属于“网络服务提供者”,现行法律规范并不明确。我国2023年发布的《生成式人工智能服务管理暂行办法》第22条将“生成式人工智能服务提供者”定义为“利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人”,似乎将其定义为一种特殊的“网络服务提供者”。然而,该文件第9条又规定“提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务”,似乎又将其定义为“网络内容生产者”。我国有学者指出,《生成式人工智能服务管理暂行办法》等规范具有公法性质,不能直接作为生成式人工智能服务提供者私法地位的判断依据。
从“网络服务提供者”概念的本质特征出发,生成式人工智能服务提供者与《民法典》第1195条规定的“网络服务提供者”具有高度相似性。网络服务提供者之所以适用“通知”规则,是因为其提供的服务具有“技术中立性”。当服务具有技术中立性,“不主动支持侵权活动,不实质上促进侵权发生或扩大”时,网络服务提供者不应承担过重的审查义务,受到“通知”规则的保护。生成式人工智能服务作为一种新型的信息处理与传递中介,其与传统的网络平台在结构上虽有差异,但其本质仍然是一种中立的信息传播方式。DeepSeek、ChatGPT等生成式人工智能既不主动输出任何内容,也不预存任何即将输出的内容,其并非严格意义上的“智能体”,而是基于大语言模型的概率预测工具。其在用户输入“提示词”后,通过计算提示词与训练语料中语言模式的关联,生成与之最可能匹配的响应。因此,其本质是基于既有语料进行预测的自动化信息处理工具,是信息传播链条中的中立节点。这与传统网络平台的特征相同,二者都只是在系统中预先设置算法,并不采取积极行为干涉信息发布。
比较法上也广泛认可生成式人工智能服务提供者具有“网络服务提供者”的技术中立性特征。在欧盟,学说争议主要在于生成式人工智能服务提供者是否是《数字服务法》(DSA)规定的适用避风港规则的网络“托管服务”提供者。有学者指出,虽然在文义解释上,生成式人工智能服务并非纯粹的托管服务,但从目的解释出发,“托管服务”应被解释为包括一切中立、自动、被动的网络服务。例如,搜索引擎作为信息中介,也不完全符合托管服务的定义,但法院一直以来将其视为一种“托管服务”提供者。在2010年的Google Search案中,法院认为,为了符合托管服务的定义,服务提供商必须扮演中立角色,即“仅仅是技术性的、自动的和被动的”(merely technical, automatic and passive),并且“对其存储的数据缺乏了解或控制”。只要服务提供者对其服务中的数据不具有控制力,就可以被视为托管服务。欧盟《数字服务法》本身也提到,搜索引擎也应当获得责任豁免。按照这一逻辑,生成式人工智能服务提供者也符合“对其存储或生成的内容缺乏认知和控制”的标准,因为这些内容是通过技术性、自动化且被动的方式生成的。因此,生成式人工智能服务提供者也应当适用欧盟《数字服务法》规定的避风港规则。
在美国,生成式人工智能服务提供者是否可以适用《美国法典》第47章第230条的豁免规则存在理论分歧。根据该规定,只有“信息内容提供者”可能承担内容侵权的责任,计算机“服务提供者”不对内容侵权负责。如果进行严格的文义解释,生成式人工智能服务提供者确实“提供”了内容。不过,根据美国法院的判例,作为“信息内容提供者”,相关主体必须“直接参与开发”或“实质性地促成”(materially contribute)被诉非法内容,而“不仅仅是该内容的被动传递者”。 也有学者认为,仅在网站“采取明确行动确保内容生成”时才无法免责。由于生成式人工智能服务提供者只是根据用户提供的命令或素材再现或重新包装语料库的内容,因此可能仍作为“服务提供者”享有侵权责任豁免。更多的学者认为,生成式人工智能服务提供者不应享有完全的侵权责任豁免,而是应当类推适用《数字千年版权法》(DMCA)的避风港规则,在符合“通知—删除”条件的情况下才能免除责任。
总之,从主体角度观察,生成式人工智能服务提供者与网络服务提供者在本质上具有相似性,即不控制、也不应控制服务中的内容,具有技术中立性。
(二)价值相似性:技术发展与权益保护的平衡
“通知”规则有助于在网络服务提供者、权利人等主体之间实现复杂的利益平衡,特别是技术利用与权益保护之间的平衡。在生成式人工智能作品侵权场景下,也存在相似的价值目标和利益平衡需求。
第一,“通知”规则旨在维护网络服务提供者的行为自由。“通知”规则的基本假设是,“本身不组织、筛选所传播信息的网络服务提供者通常必须借助于技术手段才能对通过其系统或网络的信息加以监控,但技术手段本身有局限性;网上信息数量太大,内容又在不断变化、更新,要求监控能力有限的网络服务提供者逐条甄别信息的合法性根本不可能”。因此,法律不应当给网络服务提供者施加进行审查并予以预防和制止的一般性义务,否则就会迫使网络服务提供者花费大量的人力、物力和财力审查网络信息内容,从而显著提高运营成本,不仅可能推高服务价格,还会妨碍信息自由流通,违背网络技术发展的初衷与价值取向。
第二,“通知”规则旨在保护被侵权人的合法权益。网络服务提供者通常具有更充分的技术手段和信息能力来预防和制止侵权行为。如果不采取“通知”规则,权利人只能向法院或有关部门寻求救济,此种方式不仅无法快速地预防和制止侵权行为、防止损害的发生或扩大,也增加了当事人的讼累和司法机关、行政机关的负担。依据“通知”规则,权利人只要能够提供构成侵权的初步证据,就可以要求网络服务提供者采取必要措施。这有利于服务提供者及时发现侵权信息,迅速采取措施预防和制止侵权行为。
第三,“通知”规则具有维护信息自由、促进技术创新等作用,有助于实现公共利益。欧盟2022年通过、2024年正式实施的《数字服务法》第6条也规定了以“通知”规则为核心的避风港规则。该法在序言部分(recitals)指出,有关中介服务提供者的责任规则旨在平衡不同类型的利益,包括言论和信息自由、经营自由、维持高水平的消费者保护,以及促进创新和经济增长。美国法院的判例也表明,如果网络服务具有“实质性非侵权用途”(substantial non-infringing use),服务提供者不介入技术的具体使用,就应当维护其“网络中立”性,即避免通过对其施加过高的注意义务促使其审查被传播的网络内容,破坏网络的自由环境,从而实现“市场自由竞争、信息自由流动、言论自由表达”等价值。可见,“通知”规则不仅能有效平衡网络服务提供者与权利人之间的利益,还有助于公共利益的实现。
“通知”规则所体现的价值理念适用于生成式人工智能作品侵权。生成式人工智能依赖于大规模训练数据和复杂算法,其抓取的数据是海量的,生成的内容具有高度的不确定性和即时性,服务提供者往往难以预先判断某一具体输出是否构成侵权。法谚指出,“法律不强人所难”(Lex non cogit ad impossibilia)。如果要求生成式人工智能服务提供者在作品生成前进行全面事前审查,不仅技术上难以实现,也不利于人工智能服务的利用和技术发展。广州互联网法院在裁判中就指出:“考虑到生成式人工智能产业正处于发展的初期,需要同时兼顾权利保障和产业发展,不宜过度加重服务提供者的义务”,服务提供者应当履行的是“合理的、可负担的”注意义务。只有要求服务提供者在接到权利人通知后再启动必要的处理机制,才具有技术上的可行性与责任上的合理性。“通知”规则一方面降低了服务提供者的负担(特别是原则上免除事前审查义务),为生成式人工智能服务提供者提供了明确的行为规则与责任边界;另一方面有助于为权利人提供及时有效的救济途径,高效地保护了可能受到权益侵害的民事主体,在权益保护与鼓励技术运用和发展的双重目标之间实现了合理平衡。
(三)情境相似性:“通知”在过错判断中的功能趋同
“通知”规则在生成式人工智能作品侵权与网络侵权场景中,都用以解决“过错”的判断问题,并且通过对“过错”内涵的细化、合理设置注意义务实现技术创新与权益保护的平衡。“通知”规则针对的情境是,在用户利用网络服务实施侵权行为侵害他人权利时,网络服务提供者的“过错”难以判断,因此需要借助“通知”规则来认定其过错。与传统网络侵权类似,生成式人工智能作品侵权中的“过错”判断也是一项难题。“通知”规则提供了一种判断生成式人工智能服务提供者是否存在过错的可行路径。
《民法典》第1195条的“通知”规则并非单纯的免责事由,而是判断网络服务提供者过错的法定义务规则。如果网络服务提供者在接到通知后未采取相应措施,就存在过错。该规则在性质上属于过错责任的一种特殊表现形式,与《民法典》第1165条规定的过错责任的一般条款属于一般规范与特别规范的关系。“通知”规则将过错认定的“标准”(standard)细化为“规则”(rule)形式,当行为主体选择在规范范围内开展相关活动时,便可获得较为确定的免于被追究责任的预期,相反则需要承担责任。
生成式人工智能具有“黑箱”问题,这也导致对生成式人工智能服务提供者过错的判断较为困难。生成式人工智能通过对用户提示词的语义分析,基于大规模语料训练出的概率模型,预测最可能的词语组合,从而逐步生成完整的文本内容。无论开发者还是使用者,目前都难以充分解释或预测其基于算法作出决策的具体过程。“通知”规则的类推适用有利于使生成式人工智能服务提供者的注意义务具体化,即通过设定外在的行为义务解决“黑箱”问题:在收到“通知”之前,服务提供者仅负担较低程度的注意义务;在收到“通知”后,服务提供者就应当依法采取一系列“必要措施”,否则就可能存在过错。
总之,生成式人工智能作品侵权与网络侵权在主体、价值、情境三个方面均存在相似性,因此应当类推适用“通知”规则。事实上,主体、价值、情境三个方面的相似性也存在相互关联:作为主体的服务提供者的技术中立性意味着,不应对其施加过重的注意义务,而应当合理平衡技术利用和权利人的权益保护,而这种平衡正是通过对“过错”内涵的细化、合理设置注意义务实现的。生成式人工智能作品侵权与网络侵权本质上的相似性,使其契合“通知”规则的基本思想和法律理由(ratio legis)。这构成了生成式人工智能作品侵权应当类推适用“通知”规则的根本理由。
四、“通知”规则在生成式人工智能作品侵权中的具体适用
(一)类推适用“通知”规则下注意义务的具体内容
在将“通知”规则类推至生成式人工智能作品侵权之后,服务提供者是否存在过错,便可围绕“通知—必要措施”这一程序进行判断:权利人发出的“合格通知”启动了服务提供者的注意义务,而服务提供者对该通知所涉内容采取的“必要措施”的及时性与充分性,则成为衡量其是否尽到合理注意义务的核心指标。以下分别从“合格通知”的认定标准以及通知后“必要措施”的类型与适当性判断两方面,探讨生成式人工智能作品侵权类推适用“通知”规则的具体内容。
1.“合格通知”的判断标准
《民法典》第1195条规定,权利人发出的“通知应当包括构成侵权的初步证据及权利人的真实身份信息”。有学者认为,有效通知应当包括以下内容项:侵权行为实施主体信息、侵权事实、权利人身份信息等。在用户与受害人不同的情况下,由于受害人难以知晓侵权作品的产生是输入“提示词”的用户造成的,还是生成式人工智能造成的,因此难以确定“侵权行为实施主体信息”;受害人也难以通过公开渠道获取足以定位侵权内容的信息,如特定账户或链接等。因此,在判断通知是否合格时,不应要求权利人详尽描述侵权信息。即使通知未具体指明涉嫌侵权的主体或侵权内容的定位信息,只要提供了足够的信息使生成式人工智能服务提供者能够定位侵权作品、采取必要措施,就属于有效通知。权利人在发出通知时,为了更好地让生成式人工智能服务提供者履行必要措施预防侵权,还可以在通知中提供关键词或侵权比对信息(如权利人可以提供其享有著作权的作品作为比对素材),便于服务提供者实施过滤、屏蔽等必要措施。
“合格通知”应当包括构成侵权的初步证据。对于不易识别的侵权行为,服务提供者应以“正常理性人”标准,结合一般专业知识判断是否支持权利请求。例如,针对可能侵犯名誉权的输出内容,如果输出内容在人工智能的训练数据、互联网资源以及用户的提示词中都无法找到时,生成式人工智能服务提供者就可以确认相关内容不存在任何支撑,此时应当及时采取必要措施。若按照一个正常理性人标准,生成式人工智能服务提供者无法识别出被举报内容的不法性,则其不应直接采取过滤、屏蔽等措施。这是因为其违法判定能力有限,既没有确认某一行为是否属于侵权行为的权力,也缺乏相应的专业知识和能力,不应由其代替法院对侵权纠纷进行裁决。在这种情形下,服务提供者可能会承担有限的标识义务,例如在生成相关内容时提示用户潜在的侵权风险或相关内容已被他人投诉。
2.接到通知后应当采取的必要措施
根据“通知”规则,网络服务提供者应当在接到合格通知后采取删除、屏蔽、断开链接等必要措施。“必要措施”的具体内容要根据服务的类型、受侵害权利的类型、侵权行为的性质、技术发展水平等因素进行衡量确定。在生成式人工智能作品侵权场景中,服务提供者应采取补救性与预防性“必要措施”,其中预防性措施更为关键。
第一,生成式人工智能服务提供者可以采取的主要措施是通过内容过滤机制屏蔽侵权内容。在生成式人工智能领域,“通知—删除规则”(notice-and-takedown)很大程度上被“通知—屏蔽规则”(notice-and-staydown)取代。此处的屏蔽措施不同于“接到通知后屏蔽通知所载的特定侵权链接”,而强调在接到通知后,服务提供者阻止侵权信息再次生成。服务提供者不仅要处理通知所载的具体侵权内容,还要过滤、屏蔽相似的侵权内容。例如,在通过关键词过滤侵权“奥特曼”作品时,如果仅屏蔽“奥特曼”而不屏蔽“迪迦”(“奥特曼”系列中的一个著名角色),就属于未尽到注意义务。服务提供者主要可通过两种方式实现过滤、屏蔽:一是“输入提示词过滤”,即在提示词违法或可能引发侵权时拒绝输出内容;二是“输出内容过滤”,即在提示词合法但生成内容具侵权风险时,拒绝输出内容或通过技术手段调整输出内容。需要注意的是,以上两种方案均依赖技术自动识别,现有技术可能无法做到完全杜绝侵权内容的生成。只要服务提供者在现行技术方案下尽到了合理努力、采取合理的算法进行过滤,就应当认为其尽到了注意义务,不应就无法控制的风险承担责任。在面临海量信息的情况下,过滤、屏蔽措施的合理性判断不是结果主义的,不能因为服务提供者采取了合理措施后仍然小概率偶发性地出现侵权内容,就要求其承担侵权责任。只要其采取的技术方案具备合理性,服务提供者就不应承担责任。
第二,生成式人工智能服务提供者还可以采取一系列其他的“必要措施”预防侵权。虽然“删除、屏蔽、断开链接等必要措施”是一种列举加概括的规定,但“必要措施”未必是与“删除、屏蔽、断开链接”程度相当的措施,而可以被解释为这些列举性措施以外的其他必要措施。生成式人工智能服务提供者可以采取的其他必要措施是多样化的。例如,服务提供者可以对存在侵权风险的内容进行标识、风险提示。在特定内容有侵权风险,但过滤、屏蔽相关内容不可行或相较侵权风险过于严厉时,服务提供者可以将内容可能侵权的事实告知使用人工智能生成该内容的用户,提醒用户谨慎使用或不得向他人传播侵权内容等,以避免损害后果扩大。目前已有搜索引擎平台采用类似策略,在呈现疑似侵权搜索结果时附加相关投诉信息或法院裁判链接。又如,服务提供者可以对侵权用户采取管理措施。在特定用户频繁输入侵权提示词或诱导输出侵权内容时,服务提供者可以根据侵权用户的侵权程度、次数和主观恶性等因素,采取警告、限制适用、暂停服务和关闭账户等手段。
第三,生成式人工智能服务提供者采取的“必要措施”应当与通知所载的侵权行为性质相符合。当权利人所通知的侵害较为严重、侵害行为较为容易辨别、采取必要措施并不会妨碍其他合法活动时,服务提供者应当采取过滤、屏蔽等较为严厉的措施。当通知所载的侵权行为真实性存疑、侵权的实际概率较低,采取措施可能激励不实举报、威胁与妨碍合法活动时,服务提供者就应当采取风险提示等较为柔和的措施,甚至不采取措施。在综合考虑相关因素后,服务提供者所采取的措施具有合理性的,应认定其已尽合理注意义务。这与《最高人民法院关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》(法释〔2020〕17号)第4条和《最高人民法院关于审理涉电子商务平台知识产权民事案件的指导意见》(法发〔2020〕32号)第10条所体现的思路一致,即法律应当从整体上判断服务提供者采取的措施或处理方案的合理性。服务提供者只需善意地采取整体合理的应对措施,无需对每一侵权通知都作出“完美响应”。杭州互联网法院在裁判中也指出,应综合考量“生成式人工智能服务的性质、当前人工智能技术的发展水平、避免损害的替代设计的可行性与成本、可以采取的必要措施及其效果、侵权责任的承担对行业的影响等因素,通过动态地调整过错的认定标准,将平台注意义务控制在合理的程度”。这有助于避免服务提供者因“寒蝉效应”采取过度的措施,影响生成式人工智能技术的运用和发展。
需要特别注意的是,生成式人工智能服务提供者与传统网络服务提供者在接到“通知”后能采取的措施存在不同。一方面,生成式人工智能服务提供者难以通过“删除语料库中被训练素材”或“调整模型参数”避免侵权行为。这是因为,在完成模型参数训练后,内容生成过程、输出结果往往难以解释和验证,服务提供者无法识别特定训练数据与侵权内容的稳定关联,事后删除语料内容也无法对已训练完成的模型的输出内容产生影响。只有用剔除侵权作品后的新语料数据集对该模型加以再次整体训练,才可能真正有效改变模型参数,但从产业实际和技术成本角度出发,这是无法实现的。另一方面,生成式人工智能服务提供者删除特定用户账号中的侵权内容或断开侵权内容的链接存在可行性,但在部分情况下也难以实施。如果特定侵权作品存储在服务器中,服务提供者当然可以采取断开链接、删除等措施。如果特定侵权作品存储在用户本地设备而非服务器中,或者用户已通过其他途径保存、传播了侵权作品,人工智能服务提供者就难以直接删除侵权内容。此时,服务提供者可采取提示用户侵权风险、建议用户删除或停止传播相关内容等“必要措施”,履行注意义务。
(二)“通知”规则与“知道或应知”规则的衔接适用
《民法典》第1197条在“通知”规则之外规定了“知道或应知”规则,即“网络服务提供者知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任”。该条规定了“知道或应知”侵权行为而不采取必要措施构成过错。由于引入了违反注意义务的应知,我国的“知道或应知”规则与美国法上的“红旗规则”不同,呈现出过错责任一般条款的结构。根据《民法典》第1197条,在没有接到通知的情况下,网络服务提供者如果知道或者应当知道生成的内容侵犯了他人权利,而未采取适当措施,也应当承担责任。可见,侵权通知不是服务提供者承担责任的唯一条件。“知道或应知”规则是过错判断的一般规则,而“通知”规则规定了有效通知构成“知道”,具有特殊性。
在类推适用“知道或应知”规则判断生成式人工智能服务提供者的过错时,应当考虑生成式人工智能的特殊性。在网络侵权中,网络服务提供者知道或应当知道的对象通常是已经发布的侵权信息,而生成式人工智能作品侵权的原因具有多样性,因此判断服务提供者“知道或应知”也较为复杂:一方面,生成式人工智能具有用户交互性,在用户上传语料或者输入提示词本身侵权或具有诱导侵权的高度可能性时,服务提供者就有可能知道或者应当知道侵权行为很可能发生;另一方面,生成式人工智能依赖海量的训练数据,对于语料库中涉嫌侵权的信息,服务提供者可能在技术上难以通过合理的成本进行筛查,因此应当降低其识别语料库中侵权信息的注意义务,不应因为语料库中存在侵权信息,就当然认定服务提供者知道或者应当知道侵权行为。
生成式人工智能服务提供者不承担普遍的审查义务,但在未接到针对特定侵权行为的通知时仍负有一定的注意义务。第一,对于明显构成侵权的信息,如敏感个人信息、含有明显违禁词的信息等,如果以一般理性人标准来看足以判定构成侵权,应认为服务提供者对此类信息“应知”,服务提供者应当采取适当措施。
第二,“防止侵权行为再次发生”包含了防止未来侵权的注意义务,在接到权利人的通知后,服务提供者需要通过合理的过滤、屏蔽手段,防止类似侵权行为的发生。在先通知构成了对未来类似侵权的注意义务来源。2019年欧盟通过的《单一数字市场版权指令》第17条就指出,在线内容分享服务提供者应“尽最大努力防止侵权行为的再次发生”。虽然该条明确否定了“一般性的监控义务”,但在实践中,服务提供者几乎无法回避一定程度的过滤或审查义务。
第三,从增进社会整体福祉的法经济学视角出发,在特定情形下,服务提供者亦应承担一定的事前注意义务。如果在考量服务提供者对内容的控制力、生成内容的类型、侵权的明显程度以及侵权的频率等因素后,服务提供者相比生成内容的接收者(包括用户和第三方)能以更低成本识别侵权行为,那么要求服务提供者通过技术进行有限审查更能减少社会成本。事前注意义务的标准不宜过高,其合理边界可以被划定为“采取与网络服务提供者的技术能力相适应的预防措施”。这种注意义务会随着生成式人工智能技术的不断提升尤其是防范措施的日渐成熟而逐渐提高。目前,《生成式人工智能服务管理暂行办法》等公法规范规定了人工智能服务提供者在特定情形下的事前注意义务。若上述规范被视为“保护性法律”,则服务提供者应在其适用范围内承担相应注意义务。不过,应当明确区分有限的事前注意义务与全面的事前审查义务:前者仅要求服务提供者在其技术能力允许的范围内,对高风险内容进行有针对性的预防措施,而非对所有生成内容进行普遍性的事前审查。
第四,生成式人工智能服务提供者主动采取的过滤筛查等手段,不应使其承担额外的侵权风险。在实践中,不少服务提供者会在没有法定审查义务的情况下主动对潜在侵权内容进行过滤。如ChatGPT的服务提供者OpenAI设立了内容审核机制,当接收到提示词时,审核端点会评估内容是否涉及色情、仇恨、暴力或宣扬自残等,这减少了产品输出侵权内容的可能性。如果善意的主动审核会使服务提供者陷入“知道或应知”侵权的状态,反而可能导致承担更多责任,那么就不利于鼓励其采取必要措施预防侵权。因此,美国与欧盟都规定了“好撒玛利亚人”条款(good Samaritans),服务提供者进行善意审核时不会被排除在避风港规则之外。《民法典》没有规定这一特殊条款,但是在解释上,如果服务提供者已经采取了与注意义务相符甚至更有效的预防措施,就不存在过错,因此也不应承担责任。对《民法典》第1197条进行恰当解释,并不会出现服务提供者“做多错多”的悖论。
总之,《民法典》第1197条与第1195条中的“必要措施”,均包括与技术能力相适应的必要过滤、屏蔽措施。在未接到通知时,生成式人工智能服务提供者也负有一定的注意义务,该规则实质上设定了有限的审查和预防侵权的作为义务。
五、结论
生成式人工智能技术的发展推动了信息传播模式的变革,其潜在的侵权可能性也对既有侵权责任规则提出了新的挑战。虽然生成式人工智能作品侵权与传统网络侵权在结构上存在一定差异,但生成式人工智能作品服务提供者与传统网络服务提供者在本质上具有相似性,因此可以类推适用《民法典》规定的“通知”规则。在生成式人工智能作品侵权案件中类推适用网络侵权的“通知”规则,一方面有助于在过错责任原则的基础上,合理设定服务提供者的注意义务,防止因不当加重服务提供者的侵权责任而影响人工智能技术的运用和创新;另一方面有助于结合“知道或应知”规则,使人工智能服务提供者采取事前与事后必要措施,保护被侵权人的权益。随着人工智能过滤审核机制等技术的发展,事前与事后注意义务标准也应根据“现有技术水平”持续调整,以实现权益保护与技术发展之间的动态平衡,最终服务于社会总福利的最大化。