×

基塞列娃​:让人工智能的透明度变透明—关于《欧盟人工智能法案》提案的思考

hqy hqy 发表于2025-03-02 07:57:54 浏览20 评论0百度已收录

抢沙发发表评论

作者简介

阿纳斯塔西娅·基塞列娃(Anastasiya Kiseleva),布鲁塞尔自由大学法律、科学、技术和社会研究小组的博士生。

译者

叶凡,中国药科大学本科生

校对

徐奇,暨南大学法学院/知识产权学院讲师

声明

本文原载于欧洲法律博客(European Law Blog),题目是“让人工智能的透明度变透明——关于《欧盟人工智能法案提案的思考”(Making AI’s Transparency Transparent: Notes on the EU Proposal for the AI Act)。限于篇幅省略脚注和注释,译文谨代表作者立场,不代表平台和译者观点。如需原文请点击文末“阅读原文

正文

透明度是欧盟对人工智能系统的开发、部署和使用所倡导的核心价值之一。自监管人工智能的政策进程开始以来,所有相关文件包括人工智能高级别专家组截至2018年12月所发布的《可信人工智能伦理准则》(Ethics Guidelines for Trustworthy AI issued by the High-Level Expert Group on AI as of December 2018)、欧盟委员会于2020年2月发布的《人工智能白皮书》(White Paper on AI issued by the European Commission in February, 2020)、以及欧洲议会截至2020年10月所发布的《人工智能、机器人和相关技术的伦理问题框架》(European Parliament’s Framework of Ethical Aspects of AI, Rrobotics and Related Technologies as of October, 2020),这些文件都分别在其建议的伦理或法律框架中包含了透明度的规定。

关于此问题的第一个欧盟立法提案(欧盟委员会于2021年4月发布的关于人工智能条例的提案《人工智能法案》)(European Commission’s proposal for a Regulation on Artificial Intelligence as of April, 2021),以下简称《人工智能法案》)遵循了以前对人工智能透明度的政策方向,并包括了几个明确针对它的要求:第13条(“透明度和信息规定”)和涵盖整个第四章的第52条(“某些人工智能系统的透明度义务”)。但是透明度的确切含义仍然不清楚。我将通过分析透明度与以下相关概念的关联来说明这一点:1)沟通,2)可阐明性,3)可解释性,4)信息规定,5)记录保存与文件。这些概念与四个特定的政策法案(统称为 《人工智能政策文件》)中的透明度有关。我的分析意在证明欧盟立法者应该对《人工智能法案中的“透明度”术语有一个更一致的看法。为了保持一致性,我建议在相关的概念之间建立一个层次结构,其中透明度应被视为最广泛的概念。

透明度——沟通

如上所述,《人工智能法案》有两个条款涉及透明度:适用于高风险人工智能系统提供者的透明度义务(第13条)和适用于与自然人互动的人工智能系统提供者的透明度义务(第52条)。《人工智能法案》并没有解释这两条透明度规则之间的关系。

第13条第1款:

高风险人工智能系统的设计和开发应确保其操作足够透明,使用户能够解释系统的输出并适当地使用它。

第52条第1款:

供应商应确保旨在与自然人互动的人工智能系统的设计和开发能够使自然人被告知他们正在与人工智能系统进行互动,如果从环境和使用背景中可以明显看出这一点,则不用如此。

这些规则有类似的名字,但意味着不同的概念。对于高风险的人工智能系统来说,透明度是指可阐明性,对于交互式人工智能系统来说,透明度是指关于人工智能存在的交流(第52条第1款的规则也适用于情感识别(第52条第2款)、生物识别分类(第52条第3款)和 "深度伪造 "系统(第52条第4款)。这可能会导致这样一种情况:我们会把一种类型的人工智能系统(高风险)的一件事(可阐明性)和另一种类型(互动性)的另一件事(沟通)贴上透明度的标签。缺乏法律确定性和法律遵守的不一致性是这种情况导致的可能后果。

透明度——可阐明性

人工智能法案》第13条将适用于人工智能系统的关键部分——对自然人的健康和安全或基本权利构成潜在高风险的系统。这种类型的人工智能系统大量应用于医疗保健等重要部门的。在这种情况下,人工智能的透明度的目的是使用户能够解释系统的输出并适当地使用它。此外,该条款允许人工智能供应商定义相关的透明度类型和程度,以期实现遵守他们和用户的相关义务。这样一来,欧盟立法者不仅承认了透明度的内在价值,也承认了其工具性特征——与其他价值的关联性。它为法律的遵守提供了更多的灵活性,使透明度的要求更加平衡。然而,在透明度和可阐明性方面仍然需要更多指导。

首先,不清楚透明度是否与可阐明性完全重叠,或者它是否是一个更广泛的类别。第13条表明透明度是可解释性的需要,但同时也暗示有不同类型和程度的透明度。然而,《人工智能法案》并没有明确提供除可阐明性之外的透明度类型的例子。这使得人工智能系统的供应商不清楚确保可解释性是否足以遵守透明度的要求。他们也不清楚除了可解释性之外还有什么样的透明度措施。再加上可阐明性概念本身的不透明(在下一段中描述),这些因素使得人工智能供应商很难完全理解哪种措施符合透明度义务。

       第二,《人工智能法案》没有定义人工智能结果的可解释性到底是什么。当然,一个非常严格的定义会减少人工智能供应商在定义适合技术类型和使用环境的措施方面的灵活性。但是,一些关于可解释性的指导仍然被需要。来自不同领域的学者和政策制定者已经形成了他们独特的观点。例如,“可解释性”的一个定义是当“人们可以清楚地追踪你的输入数据通过人工智能模型时的路径”。然而,由于自我学习和自主性,一些算法模型的某些部分并不是完全可追溯的,即人类无法看到数据从输入到输出的整个路径。这些不透明的人工智能系统被称为“黑箱”(black box)模型。在这种情况下,可解释性的义务可能意味着欧盟立法者希望将“黑箱”模型排除在有资格应用于高风险人工智能系统的模型之外,因为它们是不可解释的(按所述理解)。我不认为这是立法者的意图,因为许多非常复杂和很有前景的人工智能技术都是“黑箱”模型(例如,神经网络)。将它们排除在监管范围之外会过于激进,因为这可能会阻碍创新。对这一思路的描述是为了说明缺乏对“可阐明性”术语的阐释是如何误导人工智能供应商并导致法律不确定性的。

这种“可阐明性”透明度义务(第13条)的不确定性的另一个方面是它与可解释性的相关性,这将在下一节描述。

透明度——可解释性

自从第一份政策文件——《可信人工智能伦理准则》出台以来,人工智能的可解释性与透明度一起进入了政策制定者的视野。该文件指出,人工智能的可解释性是其使用的道德原则之一。该原则(在指南的第一章第2节中描述)与透明度要求相关,并涵盖了可解释性措施。可解释性措施包括解释“为什么一个模型产生了一个特定的输出或决定(以及什么输入因素的组合促成了这一点)”。当这种解释不可能时(例如,对于“黑箱”模型),建议采取其他可解释措施:可追溯性、可审计性和关于系统能力的透明交流。此外,《欧洲议会人工智能框架报告》确立了对高风险人工智能系统的透明度要求,并在其第8条中规定,这些系统“需要以易于解释的方式进行开发、部署和使用,以确保可以对技术的技术过程进行审查”(斜体为作者后加)。尽管在这两个法案中,可解释性被以不同的方式描述,但它是被作为一个与透明度紧密相连的概念列入其中的。

在《人工智能法案》中,可解释因素消失了。在这种情况下,关于可阐明性和可解释性之间的相关性问题变得更加重要。当一个概念被列为人工智能系统供应商的义务时(可阐明性),而另一个没有(可解释性),就有必要理解它们之间的区别,这并不是最容易的任务。

一些从事人工智能工作的人将可阐明性和可解释性这两个词交替使用,其他人则将它们区分开来。例如,有些人将可解释性定义为“你可以解释你的模型从输入到输出所发生的事情”。正如我上文所说明的,和可阐明性的定义非常类似。但是,如果我们这样理解可解释性,并用另一种方式理解可阐明性,例如,理解为“人类能够理解一个决定原因的程度”,那么《人工智能法案》对人工智能供应商规定的义务似乎更加可行,甚至可以适用于黑箱模型。为了说明区别,我们可以举一个例子。“想象一下,你正在建立一个模型,预测时尚行业的价格趋势。这个模型可能是可阐明的——你可以看到你在做什么(从某种意义上说,人类可以检查他们所做/选择的东西(训练和验证数据集,初始算法参数))。但它还不是可解释的。一旦你深入研究所产生结果背后的数据和特征(这意味着检查算法的自学部分或者说打开‘黑箱’),它将是可解释的。了解哪些特征有助于模型的预测以及它们为什么这样做就是可解释性的意义所在。”在这种情况下,《人工智能法案》可能为人工智能系统的不透明性提供了一个很好的解决方案。如果打开黑匣子是为了可解释性而不是可阐明性,那么将可解释性排除在《人工智能法案》之外似乎是合理的。这意味着“黑箱”模型没有被排除在监管范围之外,而且根据《人工智能法案》,它们有资格被应用于高风险的人工智能系统。然而,这只是对立法者意图的一种可能理解,还存在许多其他的可能理解。这就是为什么欧盟立法者需要阐释如何区分可解释性和可阐明性的确切方法,以指导人工智能供应商的合规性。

透明度——信息提供

拟议的《人工智能法案》第13条有两个主要的义务类型——透明度和向人工智能用户提供信息。该条规定了信息的形式(简明、完整、正确、清晰、相关、可获取和可理解)及其类型(使用说明、人工智能供应商的详细联系方式、人工智能系统的特点、能力和性能限制、其可预见的变化和预期寿命、人力监督措施)。人工智能系统的用户接收信息的权利以及他们的相关义务(如按照收到的指示使用和监测人工智能的性能)是至关重要的,因为它将用户纳入了与人工智能有关的法律领域,从而提高了所有行为者的责任。

但同样,信息提供和透明度这两项义务之间的关联性并不明确。法律规定意味着这两个概念是非常相关但仍然独立的:该条的标题使用了不同的名称,而且该条的不同部分专门针对两个概念(第1款——关于透明度;第2和第3款——关于信息提供)。然而,一直以来信息的提供都是透明度的主要内容之一。欧盟《通用数据保护条例》(General Data Protection Regulation)就是这种关联性的例子之一。另外,在《人工智能法案》之前的所有人工智能政策文件都将信息提供纳入了透明度义务(《可信人工智能伦理准则》第二章第1.4节(作为沟通义务的一部分);《欧盟人工智能白皮书》第D(c)节和《欧洲议会人工智能框架报告》第8(1)(f)条)。为了避免在应用这两个概念时缺乏明确性,我认为《人工智能法案》应该继续以前的人工智能政策文件中所采取的路线,并将信息提供视为通用透明度义务的一部分。

透明度——记录保存与文件

同样的情况也适用于透明度与文件和记录保存义务之间的关联。在这种情况下,这些义务甚至划分得更加明确,因为它们在拟议的《人工智能法案》的不同条款中被说明。第11条涉及技术文件,第12条涉及记录保存,第13条涉及透明度和信息提供。一方面,将义务分为不同的条款意味着它们更加详细,其自身的重要性也更容易被识别。

另一方面,在以前的人工智能政策文件中,这两项义务中的任意一项或两项都被纳入透明度义务。在《可信人工智能道德准则》中,文件义务是可追溯性的一部分,而可追溯性又是透明度的要素(第二章,1.4节)。在《人工智能白皮书》中,透明度的要素之一是保存记录、文件和数据(D(b)节)。《欧洲议会人工智能框架报告》在其第8条(专门讨论安全、透明度和问责制)中包括了对人工智能高风险技术的要求,即“以透明和可追踪的方式开发、部署和使用,使其要素、过程和阶段以尽可能高的适用标准进行记录”。我认为将记录保存和文件纳入透明度义务更为合理。归根结底,透明度是确保人工智能技术安全、准确和尊重基本权利的事前和事后控制机制的需要。保存人工智能开发和使用过程中采取的所有步骤的记录和文件是组织这种控制的好方法,从而确保透明度。出于此,《人工智能法案》应该考虑到透明度、文件和记录保存之间的关联性。

结论

人工智能正在成为我们信息化社会的一个不可分割的部分。但只有当我们信任这项技术时,才能将人工智能的潜力变成现实。而透明度是信任的基本要素。我们越能观察到人工智能是如何被开发、部署和使用的,我们拥有的信息越多,我们对它的感知也越多,我们就越能控制人工智能,并确保所有相关主体的责任明确。为了获得人工智能的透明度,我们都应就其共同理解达成一致。这一因素表明,拟议的《人工智能法案》远远没有达到目标。

该法案对不同类型的人工智能技术有两种不同的透明度(高风险人工智能系统的可阐明性和交互式人工智能系统的沟通性)——这已经使术语不一致。

另一个不一致的地方是在《人工智能法案》中使用“可阐明性”一词作为透明度的主要元素,而在拟议的《人工智能法案》之前的所有法案都使用可解释性来代替。即使可解释性可能是更适合模糊和复杂的人工智能技术的概念,但《人工智能法案》并没有解释它的确切含义以及它与可解释性之间的关联。这种不明确性导致了不确定性,是否所有类型的人工智能技术都能满足透明度(可阐明性)的要求。对于可阐明性、可解释性以及这两个概念的相关性存在不同的观点。有些人认为,由于“黑箱”模型是不可解释的,它们不可能符合拟议中的《人工智能法案》所规定的透明度要求。我认为这种结果是不可取的,因为将非常复杂和很有前景的“黑箱”人工智能技术排除在法律范围之外会阻碍创新。

“透明度”一词的最后一个不一致之处涉及到它所涵盖的概念。信息提供、记录保存和文件等要素是与透明度密切相关的概念,以前的三份人工智能政策文件表明透明度应包含所有提到的概念。与之前的法案相比,《人工智能法案》虽然包括了所有的概念,但没有建立它们之间的关联性。

我认为,解决上述不一致的可能办法是建立概念之间的层次关系。在这个层次结构中,透明度是最广泛的类别。在法律意义上,它可以被看作是《人工智能法案》的原则。这样一来,这里分析的其他相关要素就可以被视为确保该原则实行的措施。这种层次结构将遵循立法中已经存在的方法。例如,《通用数据保护条例》规定了透明度原则(第5条)和提供信息的义务作为确保该原则实行的措施(如第12-15条)。此外,它将遵循以前的人工智能政策文件中采取的方法,这些文件也将透明度视为更广泛的类别。

除了建立层次结构外,还应该说明可阐明性和可解释性等概念,至少要明确它们所涵盖的措施方向。对《人工智能法案》的改进建议可以增加人工智能供应商对如何遵守透明度措施的理解,同时也会增强问责和信任。

以上观点不代表本平台立场

本推文图片来自网络,若有侵权,请联系删除

“法眼看南海”由暨南大学法学院/知识产权学院徐奇博士及其团队运营,旨在介绍和分析与国际法和南海问题有关的信息动态和名家学说。

联系邮箱:xuqi2019@jnu.edu.cn

欢迎关注、转发或分享朋友圈,如需转载独家刊文请注明“文章转自法眼看南海公众号”。

图文编辑|仰一帆 华东理工大学本科生

审校|徐奇 暨南大学法学院讲师