×

康允德:人工智能的法律知识

hqy hqy 发表于2025-03-02 07:02:41 浏览8 评论0百度已收录

抢沙发发表评论

本文载于《厦门大学法律评论》总第39辑,此处略去原文引注。如需引用,可在期刊网下载查阅原文。

作者信息

康允德:上海交通大学凯原法学院特聘教授,法学博士

注:本文为作者2021年7月在上海世界人工智能大会上发表的主题演讲的扩展版本,略有修改,由华东政法大学外语学院副教授张纯辉、上海交通大学凯原法学院硕士研究生王子杰翻译。

摘要

本文尝试呈现人工智能在法律框架、学术研究和法律程序中的演变角色,探讨将人工智能作为自主智能体与将之作为分析人工智能融入法律实践的前景和风险之工具的区别。通过这个视角,文章调查了一系列旨在增强法律分析、规则制定和决策过程的人工智能工具。此外,文章还批判性地检视了人工智能作为代理人在法律程序中发挥积极作用的规范含义。本文认为,解决此问题需要理解法律不仅是一个机械系统,而且是人类生活形式的重要组成部分。参与这种生活形式需要承诺、技能、常识、创造力和判断力等特质,而人工智能无法或只能在有限程度上模拟这些元素。为了说明这些限制,本文展示了一个利用ChatGPT进行的现场测试,对于任何依赖或开发人工智能工具进行法律研究和应用的人来说,理解它们是至关重要的。

关键词

人工智能;判断;人类反向传播;法律专业知识;训练谬误

目录

一、法律与人工智能带来的挑战

二、人工智能与法律:双刃剑之利

三、人工智能与法律:双刃剑之弊

四、后记:ChatGPT的现场测试

一、法律与人工智能带来的挑战

人工智能(AI)是我们时代的重要研究领域之一。没有任何学科能够幸免于思考如何应对由先进计算机技术带来的挑战———这种发展有时被称为“机器的崛起”。对于科学来说,这些挑战是显而易见的,同时,社会科学也被要求探讨计算机化的过程和前景。当考虑到“数字人文 这一术语时(这个术语已经存在一段时间了),或者当通过“后人文主义”  (post-humanism) 的概念视角来审视人工智能时,人文学科的参与就变得显而易见了。

考虑到人工智能安全中心最近发布的一份关于人工智能风险的声明,“后人文主义”这个术语显得有些令人不安。该声明指出:“减轻人工智能对人类社会和人类整体造成的灭绝风险,应该成为全球范围内与其他社会规模风险(如流行病和核战争)并重的优先事项。”尽管这并不是有关人工智能对人类社会和人类整体潜在威胁的第一次警告,但这份关于人工智能风险的声明之所以特别引人注目,是因为它不仅得到了杰出的人工智能科学家的支持,而且还得到了人工智能行业知名人士的支持。此外,这份声明发布的时机(2023年5月)正值学界刚刚开始意识到“ChatGPT革命”。在这更广泛的背景下,对人工智能的法律知识进行反思确实非常适时。

探索人工智能与法律之间的关系有两种截然不同的角度:一种是研究法律应该如何应对人工智能的开发及其在特定社会领域中的应用。当今人工智能在医疗、经济、政治进程、军事、监控、金融技术以及其他众多领域的出现,已足以显示人工智能给法律带来的希望,也引发一定的忧虑。另一种是研究人工智能是如何影响法律的,如何将其应用于或可能应用于法律程序。本文将围绕第二个角度展开,因为我们也有足够的理由对这一问题满怀希望且心怀忧虑。

谈及人工智能在法律程序中的作用,首先必须提出的问题是:这是什么类型的人工智能?根据一个著名但又颇具争议的区分标准,人工智能可分为弱形式和强形式。在弱形式中,计算机程序是强大的工具,我们可以依赖其以更严格更精确的方式来形成并验证假设。在强形式中,对计算机进行适当的编程可使其具备与人类思维相同的认知能力,因此得以真正地智能运作。简而言之,弱人工智能是人类智能体的工具,强人工智能是与人类智能体处于同一层面的智能体。JohnSearle于1980年引入了强人工智能和弱人工智能的区别,并以此论证强人工智能的不可能性。这虽然并非要在本文中展开的内容,但区别工具和智能体有助于清晰地概览人工智能与法律之间关系。

二、人工智能与法律:双刃剑之利

将人工智能应用于法律程序的想法始于20世纪70年代的法律专家系统。这一想法的基础是拥有一个可以自行解决用户问题的计算机程序。该努力的主旨是安装计算机程序,将其作为解决法律问题的智能体。法律专家系统在某种程度上实现了这一目标,直至今日有些系统依然保持运行。然而,建造具备人类法律专家水平的人工智能法律专家这一强法律人工智能的目标显然还未能实现。鉴于对人工智能的研究离生产通用人工智能这一目标还很遥远,这种情况并不令人意外。

因此,就目前对法律和人工智能的研究而言,更重要的是了解其表现出的不同趋势:其核心关注点并非设计一个可以模拟法律专家的专家系统。当前的研究范式更多的是在法律程序中设计能为人类智能体所用的工具。这并未解决这样一些问题:这些法律人工智能工具中的一些是否可能作为智能工具运作,因此应被视为人类代理人的代理;未能明确人工智能工具是否可以在某个时刻与人类法律专家相提并论,也未能对我们是否应该为实现这个目标而努力的问题给予答案。人工智能作为人类智能体的法律工具这一范式仅仅标志着事态的发展。强化律师行为(augmented lawyering),而不是机器律师行为(machine lawyering),是表达这种范式转变的一种方式。现在,让我们更加具体地探索当前正在发展和使用的法律人工智能工具。

一个重要的研究领域是法律文本分析。这就需要研发有能力对法律文本进行大规模信息检索的计算机工具。检索的信息可能是对法律概念的使用或某种论证模式。可供选择的法律文本包括成文法、判例法、学术评论和期刊论文、立法材料、证据开示的文件或尽职调查程序的文件等。研究人员试图从中提取特定法律信息的文本,排列在语料库中并手动注释,以便机器学习。结果是呈现出一个可搜索的法律文本数据库,例如,人们可以用它来搜索“员工”这一概念会在哪些语境中出现。分析法定概念的使用语境有助于深入了解手头的案例中对这一概念的阐释。目前,这种语料库分析为探究如何实际使用某一法律相关术语提供了有用的工具。然而,它并没有解决该如何理解一个术语的规范性问题。即使我们明白这是一个动态的研究领域,但其在分析论证模式或论证挖掘方面也鲜起作用。其困难类似于自然语言处理(NLP)的语境和语义方面的一般性问题:在一个和数个法律文件中,计算机分析在提取语义内容并判断其相关性方面仍然存在极大的局限性。

另一个重要的前沿研究是用计算机代码进行法律推理的建模。这是以税法为基础的法律专家系统的发源地。早期的模型试图将权威的法律文本压缩成形式逻辑的算法。但在当时人们已经发现,对于判例法分析人们也需要对类比推理进行建模。今天,各种法律推理的计算模型的出现,为法定推理和基于判例的推理建立了模型,它们也被用在类比推理甚至政策论证推理中。一些模型可建构模拟法律辩论中的正反观点并预测法律案件的结果。

在当前创造法律人工智能工具以支持人类智能体的范式中,一个主要目标是将检索法律信息的工具与法律推理的计算机模型结合在同一个计算机应用程序中。这些法律应用程序将作为甚至有些已经作为法律专家研究诉讼策略、普通民众判断其法律立场、法律学者验证其假设在某一法律领域中所起作用的陪练伙伴,并可能在未来发展为为立法者检验其立法草案的逻辑性和术语一致性的工具。即使仍然存在许多技术困难,但也充满着希望。像ChatGPT这样的人工智能语言模型将在何种程度上影响并可能推动法律推理实践,还有待观察。我们将在后记中回到这个问题上。双刃剑之利,我们就先谈及至此。

三、人工智能与法律:双刃剑之弊

在某些方面,法律人工智能的前景确实非常黯淡。首先,人们没有理由相信,这些新人工智能工具的编程过程是在脱离了世俗利益而在纯粹科学精神的背景下进行的。对于政治上特别有争议的法律领域,例如劳动法,通常存在分别代表雇主和雇员利益的律师事务所,那么对劳动法的法律阐释是否因此会偏向于一方或另一方的观点呢?在这种背景下,为什么我们会认为引入雇佣法的法律应用程序就不会具有偏袒性呢?简而言之,我们不能认为法律应用程序是中立、公正的技术产品。一款能够预测法院将如何裁决争议的法律应用程序可以给一方带来法律和科学权威的光环,使其在庭外和解谈判中谋取利益,尤其是当另一方缺乏经验的时候。

当然,还存在的问题是:随着这些人工智能工具变得越来越智能,变得太智能了,那么又会发生什么呢?我们能够将法律推理交给人工智能工具,让它们成为次代理人(sub-agents),甚至某种情况下,成为法律程序中的代理人吗?处理这些经验和规范问题需要一些法理学的基础知识。首先必须理解,无论计算机科学的技术如何进步,法律始终都是一个规范领域。人们常常会产生一些误解,但法律不仅仅是处理过去的数据以解决当前的问题,其对未来的影响也在当前的法律程序中以两种关键方式体现出来:其一,如果当前没有足够可供借鉴的内容,那应该如何去裁定案件?此时对手头案件的裁决需要考虑对未来的法律会有什么影响。其二,原则上,未来全然的不确定性也为现有法律无法解决的手头案件带来了更多可能性。更实际地讲,普遍的情况是法律问题是由全新的事实情况造成的,而并不是由不明确的法律规则引起的。

因此,要让法律人工智能代替人去处理法律问题,就必须在技术上模拟规范的法律推理。换句话说,法律人工智能不仅要能解释如何解决某个法律问题,还要能就如何解决某个法律问题进行论证。鉴于人工智能技术的现状以及过去几十年来我们所见证的发展,计算机能够有效地进行规范性推理并非不可想象。然而,关键问题并不是技术的可行性问题,而是如果我们将法律问题的规范性推理外包托付给计算机,那么人类会失去什么。

面对这个潜在损失的问题,有两种不是特别有效的极端立场。一种是担心法律的独特性并认为法律规则可能会被计算机规则所取代。另一种则Weizenbaum一样认为仅仅考虑是否让计算机成为法律判决的代理人或次代理人都是“可憎的”。简而言之,我们需要的论证并非科幻小说,而是涉及更具体的伦理问题。这又需要一些更普遍的法理学和哲学知识。

回答这些问题需要这样一种洞察力,即法律体系不仅仅是一台将律师作为其组成部分的机器。相反,法律反映了一个社区或社会的生活形式。它反映了人类如何与他人共处,以及当他们对公正的含义产生分歧时是如何用更文明的形式去解决分歧的社会活动。这种对法律的理解,顺便说一下,也适用于法律实证主义者,因此,对法律的推理意味着一种能力和责任:它需要常识来理解人类生活的意义,也需要一种对于人类生活方式的责任。这种能力和责任并不是天生的,必须通过训练并得到重视——这就是为什么我们不仅应该关注我们的法律教育和职业状况,还应该关心公众如何看待法律以及公众的体验。

那么,人工智能可以复制这种能力和责任吗?撇开人工智能在技术上还不能复制人类的常识、情感和智慧的事实,原则上计算机不能分享人类状况。它们不像我们那样会濒临死亡和经受苦痛。即使进化的人工智能系统也是如此,与人类不同,它们不会经历一个有限的社会化的过程。所以,我们为什么要认为计算机会真正对人类生活负责呢?它们为什么会关心?这种人类特殊性就是为何法律程序始终根植于人类社会的重要原因。即使现代法律已经具有超出个体人类智能体控制的社会体系属性,但这并不意味着我们应该将人类对法律的推理完全交由机器并希望它们做得更好。

因此,当涉及AI和法院时,法治需要“人类的反向传播”,正如过去一样。即使我愿意考虑人工智能在标准案例中能提供法律解释,并在需要法律论证的时候作为我们的陪练伙伴,这些人工智能最终也仍然只是工具。它们是必须具有透明性、可靠性和安全性技术标准的工具,并经得起法律的质疑。换言之,法庭上的法律人工智能必须直面人类智能体对案件进行推理的权利,因为判决的重任完全落在我们的肩上,无论好坏。

四、后记:ChatGPT的现场测试

AI语言模型ChatGPT的介绍已经普遍存在,尤其是关于它如何影响学术研究和教学,以及它可能如何改变它们。但与其提供另一种介绍,我认为更有见地的做法是报告并简要反思对ChatGPT进行的现场测试结果。为了进行这次测试,我注册了一个ChatGPT账户,免费获得了该程序的5月24日版本的访问权限。我使用了本文的前三部分作为测试数据,其中包含基本相同的文本(包括标题)。不过,我省略了介绍的第二段关于最新进展的评论,以及文本中稍后提到的ChatGPT。我还删除了作者信息和参考文献。

首先,我只是要求ChatGPT“阅读文本”,所以当它的第一反应是对文本内容进行详细总结时,我感到有些惊讶。作为经验丰富的人类读者,我们知道除了总结内容之外,还有无数种方式可以处理文本。因此,常识告诉我们,对于阅读请求,应该有不同的回应,比如说,“是的,我已经阅读了文本。您想了解什么?”或者“您想让我用文本做什么?”当然,我们可以合理地期望ChatGPT学到,下一次最好先询问要对文本做什么,而不是喋喋不休地总结。公允而论,对于人类读者来说,我们也需要学习这一点。

值得称赞的是,ChatGPT对我的文本所做的总结相当出色:准确且表达清晰。然而,当我要求它写一份摘要时,它的表现就不那么令人印象深刻了。聊天机器人生成的内容基本上只是文章的一个较短的总结。尽管有几句措辞不错的句子,但整体上是那种令人兴味索然、毫无想象力的摘要:一堆信息,以线性方式总结文本,而没有以创造性的方式重新阐述论点或集中在关键主题上。可以肯定的是,这样的摘要并不吸引人去阅读全文。

我继续询问ChatGPT会为文本提供哪些参考文献。最初的回应是关于如何在研究论文中加脚注的介绍。在我将问题更改为要求提供具体的与主题相关的书籍和文章之后,ChatGPT提供了一份关于法律和人工智能主题的五个资料来源的列表,虽然确实相关,但仍然很笼统。于是我要求提供能用来为文章做脚注的具体资料,而回复又一次变成研究论文脚注的入门指南。因此,我尝试着问道:“但你为什么不能提供具体的资料来源呢?毕竟,文本中提到了非常著名的人名和论点。”这对ChatGPT来说已经足够接近了,它提供了正确的文献,即Searle关于强人工智能和弱人工智能区分的著名论文。不过需要注意的是,确定这个资料来源是毫不费力的:不仅因为它在人工智能辩论中是如此标准的参考文献,而且因为本文中提供了这方面的基本信息。此外,ChatGPT忽略了另一个显而易见的参考文献,原文中也有类似的细节信息:Weizenbaum的《计算机力量与人类理性》。

除了Searle的文章外,ChatGPT还提供了另外四个参考文献,包括两本书——其中一本与法律和人工智能相关,也与我的文本相关。然而,我发现聊天机器人推荐的两篇文章实际上并不存在。当我向ChatGPT指出这一点时,它摊牌承认:“我先前提供的参考文献是虚构的,并非基于真实的文章。”我随后询问为什么它没有从一开始就指出这些来源是虚构的,得到的回应是:“我对我之前的回应造成的任何混淆表示歉意。我应该从一开始就澄清,我提供的具体来源是虚构的,而不是基于实际文章的。”

这些虚构的参考文献引起了我的兴趣,我想知道ChatGPT对真实性的承诺会做何反应。我问道:“你在乎你给出的答案是否准确吗?”程序迅速回答道:“作为一个AI语言模型,我的主要目标是提供有用和准确的信息。”很容易看出,这个回答与提供虚构的参考文献之间存在着明显的不一致。因此,我对ChatGPT说:“早些时候你已经承认你提供了虚构的信息来源。你怎么还能像上次回应那样,声称自己关心提供准确信息?”此时程序未能生成回应,而是返回了一条错误信息。在点击“重新生成回应”按钮之后,最终还是收到了一个回答:“您是正确的,我为我之前回答中的矛盾表示道歉。我为提供虚构的来源而道歉,且未从一开始就澄清这些来源并非基于实际参考文献。我承认这个错误,并为可能造成的任何混淆或误解而道歉。准确性的确很重要,我为在这个实例中未能做到这一点而道歉。如果您有任何进一步的问题,或者我还能为您提供其他任何帮助,请告诉我。”

我继续询问ChatGPT如何改进文本。我对这一问题进行了多次重新措辞和重新定义,但却无法得到对我的论点有帮助的反馈。我当然渴望获得专业意见来提高文本的质量,但聊天机器人的回答始终停留在一个较为一般的水平上。程序似乎在努力提供全面的答案:面面俱到,但缺乏深度。基本上,ChatGPT的回应就像一个非常勤奋而有知识的学生,却缺乏带入自己观点的能力。在这一点上,它与人类专家对论文草稿的反馈明显不同,后者会挑出(或至少挑出一些)论点的关键线索和主题,并进行详细讨论。在ChatGPT向我推荐了一位该领域专家的意见之后,我直截了当地问道:“我想要你的意见,但要像专家一样。”这导致了一个信息量极大的回复:“作为一个AI语言模型,我没有个人观点或主观专业知识。我的回答是基于我接受训练的数据中的模式和信息生成的。虽然我可以就各种主题提供信息和见解,包括人工智能和法律,但我没有个人经验或形成独立观点的能力。如果您正在寻求专家意见,建议咨询该领域的权威学者、研究人员和从业者。他们可以根据他们的专业知识、研究和实践经验提供细致入微的观点。”

这个回答表明,程序员们已经考虑过聊天机器人如何向其对话伙伴展示自己。它相当准确地阐述了我在测试ChatGPT时观察到的限制,正如几个例子所证明的那样。总的来说,ChatGPT的常识和判断能力,以及对手头任务的投入程度仍有很大的提升空间。延长对ChatGPT的使用时间显然会提高其性能,因为该模型会将之前与特定用户对话的经验融入随后的回答中。至少,该程序的未来版本很可能会解决在这次显然很粗浅的测试中发现的问题,例如主动要求明确任务的规范,生成引人入胜的摘要,并在被要求反馈时避免默认给出完整但空洞的概括。

然而,我们不应该陷入所谓的“训练谬误”(trainingfallacy):我们总是可以争论说一个计算机程序可以在事后,即在人类用户指出问题之后,调整其算法。然而,在现实世界的沟通和决策中,第一次就做对是非常重要的。在法律的社会实践中,可靠的判断力的重要性是不言而喻的。这就是为什么我们希望将困难的案件交到经验丰富、训练有素的法律专家手中,交到具有精细判断力的智能体手中。这也是为什么司法系统中有多个实例,承认错误仍然会发生。因此,如果AI在常识和判断力方面失败,单单声称进一步的训练将纠正特定的失误是不够的。正如前面所说的,常识和判断力是参与法律程序的核心能力;因此,它们应该受到认真对待。ChatGPT的最后一句回答(如上文所引)比模型所“知道”的更接近事实真相。

END

投稿邮箱:lawrev@xmu.edu.cn

更多精彩,敬请关注

编辑丨李睿

审核丨魏磊杰