×

防范人工智能治理碎片化风险

hqy hqy 发表于2025-07-12 05:28:02 浏览1 评论0百度已收录

抢沙发发表评论

文 | 中国信息通信研究院工程师 秦越;上海交通大学计算法学与AI伦理研究中心执行主任 胡正坤

人工智能(AI)技术的快速发展,在为社会带来巨大变革和机遇的同时,也带来了复杂的治理挑战。如何有效应对这些挑战,实现人工智能的可持续发展,已成为国际社会共同关注的焦点。本文基于全球人工智能治理现状,剖析治理碎片化风险,并探讨相应的解决路径。

一、全球人工智能治理态势

随着生成式人工智能技术的快速突破,人工智能在提升产业效率与社会生产力的同时,也引发了网络安全、虚假信息、偏见歧视等风险。此外,发达国家与发展中国家在人工智能技术发展上的不平衡问题日益凸显,智能鸿沟进一步加大了风险。国际社会积极行动,围绕人工智能安全与发展两大核心问题开展了丰富的实践。

(一)人工智能安全国际合作持续推进

自2023年以来,国际社会多次提出人工智能可能给人类带来“灭绝风险”,并快速推动国际社会形成安全合作共识。

一是大国安全合作意愿上升,双多边对话密集推进。2024年,第二届人工智能安全峰会通过了英、美、日、新、欧等11个经济体领导人签署的《关于安全、创新和包容性人工智能的首尔宣言》,支持在治理框架互操作性、安全研究、赋能可持续发展等方面开展国际合作与对话。

二是美欧持续引领人工智能安全治理,从原则走向技术协调。七国集团(G7)广岛人工智能进程的影响力不断扩大。G7委托经济合作与发展组织(OECD)建立了《关于开发前沿人工智能系统组织的国际行为指南》监测机制,并于2025年初推出交互界面,便于组织填报遵守行为指南的情况,从而推动相关治理原则的落地。截至2024年9月,54个经济体,包括G7国家、印度、肯尼亚等,已加入“广岛AI进程之友小组”并承诺遵守行为指南。2024年11月20日,美国商务部与国务院联合举办了国际人工智能安全研究网络(以下简称“国际安全网络”)首次会议,宣布正式启动该网络。通过《使命宣言》,该网络将围绕安全研究、开发模型测试与评估最佳实践、共同方法及信息技术工具共享等四个方面开展合作。国际安全网络还发布了《前沿人工智能系统风险评估联合声明》,计划建立符合可操作性、透明性、综合性等要求的共同风险评估科学基础。

三是“超级大选年”放大合成内容风险,公私部门频出治理举措。2024年恰逢美国、俄罗斯、印度、英国、墨西哥、欧盟等70多个国家和地区举行重要选举,覆盖全球超过半数人口。人工智能生成的虚假信息可能误导选民,威胁选举公平性,引发国际社会的广泛担忧。达沃斯世界经济论坛《2024年全球风险报告》将人工智能生成的错误和虚假信息列为全球十大风险之首,排在气候变化、战争和经济疲软之前。各国政府和企业纷纷开展治理实践。例如,韩国国会于2023年底通过了《公职人员选举法》修正案,禁止利用人工智能深度伪造方式进行非法竞选活动,违法者将面临最高7年有期徒刑及最高5000万韩元的重罚。巴西最高法院在2024年8月下令关停巴西境内的社媒平台X。微软、Meta、谷歌、X、OpenAI、TikTok等全球20家大型科技公司在慕尼黑安全会议上签署协议,承诺通过数字水印、提高公众防范意识等措施,缓解人工智能对选举干扰的风险。此外,科技公司还通过技术手段规范相关人工智能信息的生产和分发,例如,OpenAI和Midjourney等生成式人工智能平台明确规定禁止生成与大选相关的数字信息,谷歌则利用SynthID嵌入式水印技术区分人工智能合成内容。

(二)联合国着力提升人工智能全球治理包容性

当前,人工智能全球治理举措的影响力和代表性严重不足。联合国人工智能高级别咨询机构的《为人类治理人工智能》最终报告指出,有118个国家缺席了七项重要的非联合国人工智能治理进程,主要集中在拉美、亚太和非洲区域。联合国在协调全球人工智能发展和治理重大问题上具有天然的优势和合法性,为各方共享知识和经验、讨论规范和原则提供了关键平台。

一是通过两份具有里程碑意义的人工智能决议。《抓住安全、可靠和可信人工智能带来的机遇,促进可持续发展》和《加强人工智能能力建设的国际合作》,强调弥合人工智能鸿沟、推动实现安全可靠的人工智能系统治理办法及框架,并提升发展中国家的能力建设与国际合作,展现了联合国在利用人工智能促进可持续发展方面的积极姿态,为实现可持续发展议程提供了方向指引。

二是积极酝酿协调全球人工智能治理的新机构。联合国人工智能高级别咨询机构于2024年9月发布了《治理人工智能、助力造福人类》最终报告,提出开展人工智能治理政策对话,组建国际人工智能科学小组、标准交流中心、能力发展网络和全球人工智能基金等多项建议,并提议在秘书处设立人工智能办公室,强化联合国系统内的协调。其中,多项建议已纳入《全球数字契约》案文。从全球数字契约的磋商过程看,人工智能治理政策对话和国际人工智能科学小组争议较小,已在未来峰会获得成员国授权,预计将率先落地;全球人工智能基金的后续落地难度较大,契约从第一至第三稿的相关承诺水平一再削弱。

三是联合国系统内专门机构已开展积极实践。联合国教科文组织(UNESCO)通过制定能力建设工具、召开人工智能伦理问题全球论坛、组建专家网络等举措,推动伦理问题建议书在成员国落地实施。国际电信联盟(ITU)长期开展人工智能标准化研究,覆盖网络、医疗、交通、应急等多个领域,可以有效推动可靠技术的传播。目前,ITU正与国际标准化组织(ISO)和国际电工委员会(IEC)共同推动数字水印标准研究。ITU还定期举办“人工智能向善”峰会,发布《人工智能向善:创新扩大影响案例集》等报告,为人工智能应用交流合作搭建舞台。世界卫生组织、国际劳工组织、粮食和农业组织等多个专门机构也加快了本领域人工智能应用和风险研究的步伐,发布了指南、案例集、建议书等多项成果,积极应对人工智能变革趋势。

(三)主要经济体推进差异化治理模式

世界主要经济体基于不同的政治文化、产业发展情况等,选择了差异化的治理模式。

一是美国监管立场转向,维持全球人工智能领导地位。特朗普新政府倡导宽松监管环境,废除了拜登政府发布的《关于安全、可靠和可信的人工智能》行政令。美国副总统万斯在巴黎人工智能行动峰会指出,本届政府将聚焦把握人工智能的机会,而非过度关注安全,指出过度监管可能扼杀正在起飞的变革性产业。美国启动了“星际之门”项目,由日本软银、美国OpenAI和甲骨文公司投资5000亿美元在本土建设数据中心,为下一代人工智能提供动力。

二是欧盟注重公民权利保护,发挥布鲁塞尔效应。2024年8月,欧盟《人工智能法》正式生效。欧盟采取基于风险的人工智能监管理念,按照应用场景划分对人工智能系统实行分级监管,对不可接受风险领域设定严格的前置审查程序和合规义务,同时,为中小企业提供监管沙箱、酌情减少认证评估费用,并通过对通用人工智能进行分层治理等方式回应欧盟国家产业发展诉求。欧盟成立了人工智能办公室,负责监督执行人工智能法案的通用人工智能部分,并在欧盟成员国间进行协调。

三是英国采用“促进创新、分散监管”思路。英国发布了《促进创新的人工智能监管方法》白皮书,要求各行业主管部门根据其领域人工智能实际使用情况评估风险,酌情考虑行业指南、技术标准、工具箱等较轻的干预手段。英国举办了首届“人工智能安全峰会”,推动主要经济体就深化人工智能安全风险认识、合作应对全球风险、强化前沿人工智能安全研究达成共识。

四是中国兼顾发展和安全,审慎监管营造有利发展环境。中国统筹人工智能安全与发展,以“小快灵”的立法路径,逐渐构建从法律、部门规章到技术标准完善的监管体系,服务于人工智能产业的健康发展。

(四)国际社会推进能力建设,回应全球南方关切

G7轮值主席国意大利与联合国开发计划署携手,建立可持续发展人工智能中心,向非盟成员国提供人工智能工具和框架,旨在加强非洲当地的人工智能生态系统建设。

中国积极落实推进人工智能能力建设的联大决议,发布了《人工智能能力建设普惠计划》,围绕各方尤其是全球南方期待的人工智能基础设施、产业赋能、人才培育、数据建设、安全治理等领域展开合作,提出了“五大愿景”和“十项行动”,并得到了各方的积极支持和响应。中国还成立了“金砖国家—中国人工智能发展中心”,为金砖国家人才培育、技术转移和解决方案搭建交流平台,促进互学互鉴。

国家人工智能准备度指标为发展中国家了解当前发展情况和识别下一步工作重点提供了指导。虽然国际社会对该指标尚无统一定义,但多家机构已开展了对各国人工智能发展情况的评估,包括基础设施、资金、研究、人才、创新和政策等。其中,UNESCO发布的“人工智能就绪度评估方法”(RAM)工具最具影响力。该工具采用定量和定性相结合的方法,从法律监管、社会与文化、经济、科学与教育、技术与基础设施五个层面进行评估,并在巴西、印度、南非等60余个国家实施。

二、人工智能治理碎片化风险日益凸显

虽然全球人工智能治理取得了诸多进展,国际组织和各国政府在重点议题和领域上进行探索,并形成了一些治理机制和规则,但尚未形成全面、统一的国际规则,治理碎片化的风险日益上升。

(一)治理环境差异导致碎片化风险

各国在政治、经济、文化等方面存在显著差异,深刻影响了各国人工智能治理策略的选择。

一是在政治文化方面,美国源于硅谷的技术乐观主义认为,市场自我调节优于政府干预,警惕“大政府”。美国联邦政法层面长期缺乏统一立法,各州实行各自的人工智能治理政策。相较而言,欧洲社会模式强调集体保护优先于个体创新,构建了由《欧盟基本权利宪章》《人工智能法》及成员国转化立法组成的金字塔式监管体系。《人工智能法》将《欧盟基本权利宪章》的抽象权利转化为技术治理的具体规则。

二是在治理手段方面,美国倾向于采取标准指引、行业自律等软性手段,而欧盟则采用硬性法律,通过《人工智能法》按照风险等级划分监管水平,禁止潜意识操纵技术、剥削脆弱群体等不可接受的风险。

三是在社会伦理道德方面,西方国家侧重个人隐私和数据安全,而一些亚洲国家则更看重社会和谐和集体利益。这些差异在人工智能应用和治理中表现为不同的政策和实践,治理环境差异使跨国合作和技术交流面临障碍,增加了治理的复杂性和不确定性,也可能导致跨国企业的运营成本和合规风险上升。此外,各国监管机制和执行力度不同,也增加了国际合作和协调的难度。

(二)议题优先级差异引发碎片化风险

不同国家和地区依据自身的经济发展水平、科技实力、社会需求和文化背景,在制定人工智能政策时,优先议题偏好各异。美国关注技术创新和产业竞争力,政策侧重于推动技术研发和应用,保持全球优势;欧盟则聚焦技术安全性、透明性和权利影响等问题,通过严格监管保护用户和社会利益;广大发展中国家,尤其是全球南方国家,更关注人工智能技术在促进社会经济发展、改善民生等方面的应用潜力,侧重于技术普及、数字基础设施建设等。这些议题优先级的差异,使国际间在合作和协调时面临困难和冲突,容易导致人工智能治理的碎片化。

(三)地缘政治因素加剧碎片化风险

作为具有战略意义的前沿技术,人工智能在各国发展的过程中,不可避免地受到地缘政治因素的影响。

一方面,各国的技术竞争不仅体现在科研和产业应用上,还体现在国际标准和规则制定上。主要国家都希望借此确保自身的技术优势和市场主导地位。这往往导致政策和法规的不协调,增加了全球治理的复杂性和不确定性。

另一方面,竞争思维可能导致不同技术路径、标准体系和产业生态的割裂。一些国家对其他国家实施技术封锁和制裁,例如美国对中国科技企业的制裁,限制了人工智能技术的全球普及与创新合作,进一步加剧了人工智能治理的碎片化风险。

此外,地缘政治因素还影响各国在人工智能治理方面的合作态度和策略。技术领先的国家可能制定有利于自身的规则。一些国家则基于地缘政治考虑选择与特定国家或地区合作,增加了全球人工智能治理的碎片化风险。

(四)国际机制间竞争造成碎片化风险

国际社会存在多个人工智能治理机构,例如联合国及其专门机构、OECD、全球人工智能伙伴关系(GPAI)和世界经济论坛等。这些机构在人工智能伦理和技术标准制定等方面各自开展工作,但由于职责、成员利益和战略目标不同,往往在具体政策取向和标准上存在竞争和不一致。例如,联合国、OECD、G7等在人工智能伦理和标准制定上的不同步,可能导致各国人工智能治理的差异和碎片化,造成治理资源的分散和浪费,削弱人工智能国际治理体系的有效性,也增加了全球人工智能治理的复杂性和不确定性。

三、深化国际协同合作,避免人工智能治理碎片化

人工智能治理攸关全人类命运,是世界各国面临的共同课题。国际社会理应加强对话与合作,共同弥合治理赤字,构建开放、公正、有效的治理机制,促进人工智能技术造福于人类。

(一)打造国际合作与治理平台

建立一个具有广泛代表性和包容性的全球人工智能治理平台,是避免治理碎片化的重要举措。该平台应汇聚各国政府、国际组织、企业、学术界和民间社会等多利益相关方,共同探讨和制定人工智能治理的全球标准和框架。鉴于联合国在协调全球努力、促进对话、确保治理框架包容公平方面发挥关键作用,平台可设立在联合国框架内,作为协作和建立共识的国际枢纽,凝聚全球人工智能治理的国际共识。同时,平台应推动跨国界的数据共享和技术合作,减少数据和技术标准不一致带来的治理碎片化问题,并设立透明和问责机制,监督评估各国人工智能治理政策和实践。

(二)探索适应性的全球治理框架

制定全球人工智能治理框架对于避免治理碎片化至关重要。鉴于人工智能应用尚处于初级阶段,且创新复杂、发展迅速,可采取零敲碎打的战略,重点针对特定部门制定措施,并随着技术和应用的发展不断完善。此框架应涵盖人工智能技术研发、应用、监管和伦理等各方面,提供全面、系统且可操作的指导原则和标准,促进各国在人工智能治理方面的协调与统一,确保治理措施能够适应并响应技术进步和社会需求。

(三)强化各国法律和政策间的协调

推动各国人工智能相关法律和政策的协调是避免治理碎片化的关键。各国在制定人工智能法律和政策时,应充分参考国际最佳实践和标准,确保在技术标准、伦理规范、隐私保护和法律框架等方面实现协调,考虑其对跨国企业和技术合作的影响,确保数据使用、技术标准和法律框架的协调统一。此外,各国应加强跨部门和跨领域的协作,充分考虑技术、法律、伦理和社会等各方面因素,制定并执行更加有效的人工智能治理政策。

(四)加强多利益相关方对话

加强多利益相关方对话是避免人工智能治理碎片化的重要途径。人工智能治理需要政府、企业、学术界和民间社会等各方共同参与。建议建立多利益相关方对话机制,定期召开国际会议,分享经验和最佳实践,共同解决人工智能治理中的挑战。同时,要增强公众对人工智能治理的参与和监督,确保治理过程的透明和公正;落实企业在人工智能治理中的责任和义务,促使企业在技术开发和应用过程中遵守伦理和法律要求。

(本文刊登于《中国信息安全》杂志2025年第2期)