2024年3月13日,欧洲议会以523票支持、46票反对、49票弃权通过了去年底达成政治协议的《人工智能法案》(AI法案),这意味着欧盟内部经过多年谈判的AI法案将正式批准,并预计于2025年初生效。AI法案的初始目的是确保消费者安全,并对使用人工智能的产品或服务进行风险分级监管——AI应用的风险越高,面临的审查就越严格。根据该法案,欧盟在监管层面把人工智能划分为“最低风险”、“有限风险”、“高风险”及“不可接受风险”四种类型,但具体的一款AI应用究竟属于哪一种类型可能在实际监管过程中仍然很难确定。2024年3月,美国信息技术与创新基金会(ITIF)副总裁、数据创新中心主任丹尼尔.卡斯特罗撰写了一篇题为《欧盟人工智能法案将使开源人工智能监管复杂化》的评论文章。以下为该评论全文,供参考!经过多年的谈判,欧盟政策制定者终于就《人工智能法案》(AI法案)达成了一致,该法案项旨在监管人工智能这一新兴技术。直到法案制定前的最后几个小时仍在争论的一个焦点是,欧盟应该如何处理开源人工智能,即开发者向公众免费提供的人工智能模型。欧盟政策制定者特别担心AI法案对开源人工智能的影响,因为欧洲许多成功的人工智能初创公司都发布了开源模型。虽然AI法案的最终文本将开源人工智能排除在特定义务的适用范围之外,但排除规定仅适用于有限的特定条件。结合该法案广泛的适用范围,AI法案将对欧盟开源人工智能的开发和使用产生重大影响。AI法案为人工智能系统的提供者、部署者、进口者、分销者和产品制造者制定了一套全面的规则。根据该法案,人工智能系统分为四类:不可接受的风险类(例如,用于远程实时生物特征识别、个人潜意识操纵和社会评分的人工智能系统)、高风险类(例如,用于银行、保险、就业、教育、移民、执法和选举等基本服务的人工智能系统)、有限风险类(例如,旨在与个人直接互动的人工智能系统)和最小风险类(即其他所有人工智能系统)。AI法案禁止具有不可接受风险的人工智能系统的存在;要求高风险人工智能系统遵循一定的规则,包括与数据治理、技术文档、风险监控和影响评估相关的规则;并针对存在有限风险的人工智能系统提出了透明度要求。最后,AI法案针对通用人工智能(GPAI)模型(也称为“基础模型”)制定了额外的透明度和问责规则。开源人工智能提供了一条重要的创新途径,因为任何人都可以出于研究和商业目的自由使用和修改开源人工智能的代码和数据。开发者可以贡献开源项目,也可以基于现有项目创建自己的项目。这样的协作式流程可以通过共享代码和数据,加速开发、降低成本并实现人工智能技术的民主化。例如,开发者可以针对特定应用程序微调开源人工智能模型,从而提高人工智能模型的采用率。开源人工智能不仅有助于研究和开发更强大的人工智能模型,而且还能在可解释性、偏见、安全性和效率等其他指标上取得进展。AI法案针对开源人工智能制定了一些独特的规则。在禁止具有不可接受风险的人工智能和限制高风险人工智能系统方面,AI法案并未针对开源人工智能系统设置任何例外。就其他非通用人工智能系统而言,AI法案不适用于公开提供开源人工智能产品的第三方,但该项豁免仅适用于该第三方不将其产品货币化的情况。因此,任何试图将其开源人工智能产品货币化的公司,例如通过为开源模型提供付费技术支持或使用定向广告来支付成本的公司,都将无法利用这一豁免规定。其中还规定,“应鼓励开源开发者实施普遍采用的文档实践,例如模型卡和数据表等”,但并未详细说明在实践中如何具体实施该项鼓励。此外,AI法案还将“专门为科学研究和开发目的而开发并投入使用”的人工智能系统排除在外,这让局面变得更加复杂。虽然该豁免对于科学研究非常有利,但根据开源许可为学术目的开发的人工智能模型也可以重新用于商业目的。这样,该项豁免规定实际上就造成了一个漏洞,即为科学目的而生产的人工智能模型规避了欧盟为防止人工智能造成的危害而制定的必要安全法规。如前文所述,AI法案还针对通用人工智能模型制定了独特的规则。除存在系统性风险的情况外,开源的通用人工智能模型不必遵循AI法案要求向欧盟人工智能办公室提供关于人工智能模型的技术文档的规定。监管机构稍后将判断哪些模型属于这一类别,因此其中可能包括许多开源模型。目前,包括在训练中使用超过1025次浮点运算(FLOP)的所有人工智能模型,这是一个非基于任何特定已知风险的随机阈值。监管机构随后可能会认为,具有一定数量参数、经过一定数据量训练或达到一定数量用户的人工智能模型构成系统性风险。所有通用人工智能模型,即使是不存在系统性风险的模型,都必须公开披露关于培训的内容的信息,并制定确保其尊重欧盟版权法的政策。最后,AI法案要求具有系统性风险的通用人工智能模型(包括开源通用人工智能模型)的提供者指定一名授权代表与欧盟人工智能办公室和其他国家当局配合。尽管欧盟政策制定者试图解决开源社区的一些担忧,但很明显,许多开源人工智能项目仍将受到AI法案规则的约束。在某些情况下,例如在一家公司单方面开发开源人工智能模型的情况下,其合规要求与开发专有人工智能模型的情况没有任何不同。事实上,这些规则没有任何理由支持或惩罚开源商业模式。但对于基于不受单一公司支持的个人开发者的分散贡献的开源人工智能项目来说,这些新规则带来的复杂性可能会让开源人工智能更加难以引入欧盟。附录:《人工智能法案》中与开源人工智能相关的主要条款序言第57e条:在可通过免费开放的许可访问工具、服务、流程或人工智能组件的情况下,不得强制要求提供该公共工具、服务、流程或人工智能组件(通用人工智能模型除外)的第三方遵守针对人工智能价值链责任提出的要求,特别是已经使用或集成该工具、服务、流程或组件的提供者。应鼓励免费的开源工具、服务、流程或人工智能组件(通用人工智能模型除外)的开发者实施普遍采用的文档实践,例如模型卡和数据表,作为人工智能价值链加速信息共享的一种方式,以便在联盟内推广值得信赖的人工智能系统。序言第60i条:根据免费的开源许可发布的允许公开共享,且用户可以自由访问、使用、修改和重新分发的软件和数据(包括模型)或其修改版本,有助于推动市场的研究和创新,并可为欧盟经济的增长带来重大机遇。应认真考虑根据免费的开源许可发布的通用人工智能模型的参数(包括权重)、模型架构信息以及模型使用信息是否公开,确保高水平的透明度和开放性。如果许可证允许用户运行、复制、分发、研究、更改和改进软件和数据(包括模型),该许可证也应视为免费的开源许可,前提是模型的原始提供者已获授予许可,相同或类似的发行条款应受到尊重。序言第60i+1条:免费的开源人工智能组件涵盖软件和数据,包括人工智能系统的模型和通用人工智能模型、工具、服务或流程。免费的开源人工智能组件可通过不同的渠道提供,包括在开放存储库上的开发项目。就本条而言,除微型企业之间的交易外,以价格或其他方式货币化的人工智能组件,包括通过提供技术支持或其他服务(包括通过与人工智能组件相关的软件平台,或出于某种原因使用个人数据,专门用于提高软件的安全性、兼容性或互操作性的使用除外)货币化,不应适用针对免费开源人工智能组件提供的例外情况。通过开放存储库提供人工智能组件的事实本身不应构成货币化。序言第60f条:根据免费开源许可发布、其参数(包括权重、模型架构信息和模型使用信息)均已公开的通用人工智能模型的提供者但应遵守针对通用人工智能模型提出的透明度相关要求的例外情况,除非被认为会带来系统性风险,在此情况下,模型透明并附有开源许可的情况不应被视为排除遵守本条规定义务的充分理由。无论如何,鉴于根据免费的开源许可发布通用人工智能模型并不一定会透露关于用于模型训练或微调的数据集以及如何确保尊重版权法的大量信息,针对通用人工智能模型提供的遵守透明度相关要求的例外不应涉及生成模型培训所用内容摘要的义务,以及制定尊重联盟版权法的政策的义务,特别是,识别并尊重(EU) 2019/790 号指令第4(3)条项下所述的权利保留项的义务。序言第60o条:具有系统性风险的通用人工智能模型的分类程序也有必要予以明确。满足高影响力能力适用阈值的通用人工智能模型应假定为具有系统性风险的通用人工智能模型。提供者应在满足要求,或得知通用人工智能模型将满足导致推定的要求后最迟两周通知人工智能办公室。这一规定与FLOP阈值尤其相关,因为通用人工智能模型的训练需要大量规划,其中包括计算资源的预先分配,因此通用人工智能模型的提供者能够在培训完成前知晓他们的模型是否满足阈值要求。在通知中,提供者应能够证明,由于其特定特征,通用人工智能模型不会带来系统性风险,因此不应将其归类为具有系统性风险的通用人工智能模型。这些信息对于人工智能办公室预测具有系统性风险的通用人工智能模型在市场上的投放非常有价值,且提供者可尽早开始与人工智能办公室接触。对于计划开源发布的通用人工智能模型,这一程序尤其重要,因为开源模型发布后,确保遵守本条规定义务的必要措施可能更加难以实施。第2条(范围),第5a款:本条不适用于专门为科学研究和开发目的而开发并投入使用的人工智能系统和模型,包括其输出。第2条(范围),第5g款:本条规定的义务不适用于根据免费的开源许可发布的人工智能系统,除非作为高风险人工智能系统或第II章和第IV章规定的人工智能系统投放市场或投入使用。第28条(人工智能价值链的责任),第2b款:高风险人工智能系统的提供者以及提供高风险人工智能系统中使用的或集成的人工智能系统、工具、服务、组件或流程的第三方应通过书面协议,基于公认的现有技术水平列明必要的信息、能力、技术获取和其他援助,以使高风险人工智能系统的提供者能够完全遵守本条规定的义务。本项义务不适用于根据免费的开源许可访问公共工具、服务、流程或人工智能组件(通用人工智能模型除外)的第三方。人工智能办公室可以制定并推荐高风险人工智能系统提供者与提供高风险人工智能系统中使用或集成的工具、服务、组件或流程的第三方之间的自愿合同条款模板。在制定自愿合同条款模板时,人工智能办公室应将特定部门或商业案例适用的潜在合同要求考虑在内。合同条款模板应以易于使用的电子格式发布并免费提供。第52c条(通用人工智能模型提供者的义务)第2款:第1款规定的义务,除(c)项和(d)项外,不适用于根据允许访问、使用、修改和分发模型的免费开源许可向公众开放且其参数(包括权重)、模型架构信息和模型使用信息均已公开的人工智能模型的提供者。本项例外不适用于具有系统性风险的通用人工智能模型。第52ca条(授权代表)第5款:本条规定的义务不适用于根据允许访问、使用、修改和分发模型的免费开源许可向公众开放且其参数(包括权重)、模型架构信息和模型使用信息均已公开的人工智能模型,具有系统性风险的通用人工智能模型除外。