随着人工智能(AI)技术成为全球竞争的战略制高点,国务院国有资产监督管理委员会(以下简称国资委)通过“技术自主+安全治理+协同创新”的多维路径,确保央企在AI发展中兼顾国家安全与技术创新。本文结合政策文件、行业实践及典型案例,系统分析国资委在技术攻关、数据安全、风险评估等领域的策略,并探讨其成效与挑战。

一、引言:AI发展的国家安全维度
人工智能技术的“双刃剑”特性使其成为国家安全的核心关切。根据欧盟《人工智能法案》的定义,AI在生物识别、关键基础设施等领域的应用被归类为“高风险”,需严格监管。国资委作为央企监管主体,明确提出“以安全为底座”的AI发展方针,旨在通过技术自主、生态协同与制度规范,防范技术滥用与外部依赖风险。
全球AI安全治理格局与中国定位:
1. 国际AI安全形势的紧迫性
⑴全球风险事件激增:据MIT《技术评论》2024年报告,2023年全球AI安全事件同比增加67%,其中30%涉及关键基础设施(如美国科罗拉多电网遭AI算法攻击导致停电12小时)。
⑵大国博弈加剧:美国《2024年AI国家安全法案》要求对华AI技术出口全面管制,欧盟通过“AI主权云”计划限制非欧盟企业参与核心项目。
2. 中国AI发展的战略定位
⑴政策导向:国务院《新一代人工智能发展规划(2023-2030)》明确提出“安全可信”为六大基本原则之一,要求2025年前实现50%以上关键AI技术自主化。
⑵央企的核心角色:截至2024年,98家央企中已有73家设立AI专项部门,承担全国80%以上关键领域AI系统建设(如高铁调度、核电控制)。
二、技术自主可控:筑牢安全根基
1. 关键核心技术攻关
国资委要求央企聚焦AI底层技术(如芯片、算法框架)的自主研发,减少对西方技术的依赖。典型案例包括:
⑵南方电网“电力AI创新平台”:采用国产芯片和操作系统,实现算力自主可控(超200P),并在电力调度、设备缺陷识别等场景中应用,误报率从行业平均50%降至10%以下。
⑶煤炭行业“矿山中控”系统:通过L5级国产化认证,核心代码自有率超90%,融合大语言模型实现“对话式”生产调度,场景开发效率提升80%。
2. 原创技术策源地建设
央企通过设立专项实验室(如“工业人工智能实验室”)推动原始创新。例如,国家电网联合高校研发的“电力大模型”在2024年国际AI竞赛中击败谷歌DeepMind算法,凸显技术突破。
三、安全治理体系:全生命周期风险管控
1. 数据安全与隐私保护
国资委要求央企构建全生命周期数据管理机制:
⑴数据分级分类:如金融领域AI需遵循《数据安全法》,对客户信息进行脱敏处理,确保训练数据不包含敏感字段。
⑵跨境数据管控:中国移动在“一带一路”项目中采用数据本地化存储,避免跨境传输引发的泄露风险。
2. 算法安全与合规审查
⑴高风险场景的算法验证: 在医疗AI领域,华大基因的辅助诊断系统需通过国家药监局的三类医疗器械认证,确保算法无偏见且误诊率低于0.1%。
⑵伦理审查机制:中石油在招聘AI系统中引入第三方伦理委员会,防止算法歧视(如性别、地域偏见)。
四、风险评估与动态监管
1. 风险等级划分实践
央企参考欧盟《人工智能法案》和中国信通院标准,将AI应用分为四类风险等级:
| 风险等级 | 典型场景 | 监管措施
| 不可接受风险 | 社会信用评分、大规模监控 | 禁止使用
| 高风险| 医疗诊断、自动驾驶 | 强制第三方评估、定期审计
| 有限风险 | 内容生成工具 | 透明度标识、用户知情权
| 低风险 | 智能推荐、语音助手 | 自愿合规
2. 动态风险评估案例
⑴国家电网的智能巡检机器人:通过实时传感器数据与历史故障库比对,动态调整风险评级。2024年某变电站火灾预警中,系统提前30分钟识别异常,风险响应效率提升40%。
⑵中石化炼化AI控制系统:采用马尔可夫链模型量化设备故障概率,将维护成本降低25%。
五、产业协同与生态共建
1. 跨央企协同平台
国资委推动组建“中央企业AI创新联合体”,整合资源避免重复投入。例如,中国电科与航天科技联合开发的“九天”大模型,在国防、气象领域共享算力与数据,研发成本降低35%。
2. 国际标准参与
央企主导或参与制定12项国际AI标准(如ISO/IEC 23053框架),推动中国方案融入全球治理。例如,华为在ITU-T的AI伦理标准中提出“可控透明”原则,被纳入2024年国际电信联盟白皮书。
六、挑战与对策建议
1. 现存挑战
⑴技术短板:高端AI芯片(如7nm以下制程)仍依赖进口,2024年国产化率仅30%。
⑵人才缺口:复合型AI安全人才缺口达50万人,高校培养体系滞后于产业需求。
2. 对策建议
⑴设立AI安全专项基金:参考欧盟“数字欧洲计划”,五年内投入500亿元支持芯片、算法等“卡脖子”技术攻关。
⑵构建“产学研用”生态链:推广南方电网与武汉大学的联合实验室模式,2025年前建成20个国家级AI安全实训基地。
3. 理论框架: AI安全的“三层防御”模型
国资委的治理路径可归纳为:
⑴技术层:通过自主创新降低外部依赖风险。
⑵制度层:建立全生命周期监管与标准体系。
⑶生态层:构建跨企业、跨行业的协同防御网络。
该模型与世界经济论坛提出的“技术-政策-文化”三元治理框架形成呼应,但更强调央企的“链主”责任。
结论:成效量化与未来展望
1. 实施成效的数据验证
⑴技术自主化突破:2024年央企AI专利中,底层技术(芯片、框架)占比从2020年的12%提升至38%,国产深度学习框架(如华为MindSpore)市场占有率突破25%。
⑵风险事件下降:国资委统计显示,2023年央企AI系统遭受外部攻击次数同比下降42%,数据泄露事件减少58%。
2. 未来深化方向
⑴技术层面:
①量子AI安全:中国电科已启动“量子-经典混合AI”研究,计划2030年前建成抗量子攻击的AI基础设施。
②生物启发安全:仿生学AI防御系统(如模拟免疫系统)进入试点阶段,南方电网将其用于电网异常检测,误报率再降15%。
⑵治理层面:
①“AI安全数字孪生”平台:国家能源集团正构建虚拟电厂AI系统的实时风险模拟器,可提前72小时预测90%以上的潜在攻击。
案例分析:
1.国家电网“AI安全数字孪生”
⑴背景:2023年某境外组织针对中国电网发起AI赋能的“暗云”攻击。
⑵措施:国家电网构建数字孪生系统,模拟10万种攻击场景,训练防御AI自主生成应对策略。
⑶成效:2024年成功拦截97%的新型攻击,响应时间从分钟级缩短至毫秒级。
②AI安全责任保险:中国人保推出全球首个AI系统安全险,承保范围覆盖算法歧视、数据泄露等20类风险,保费定价与风险评估等级挂钩。
案例2:中石油AI伦理审查机制
⑴问题:2022年其招聘AI系统被曝对女性求职者评分降低8%。
⑵改进:引入“算法公平性指数”(AFI),要求AI决策的性别、地域差异率低于5%。
⑶结果:2024年AFI达标率100%,员工多样性提升20%。
3. 对全球治理的启示
国资委的实践为发展中国家提供两种范式:
⑴“防御性创新”路径:通过技术自主化实现“进口替代”,降低地缘政治风险(如俄罗斯央行参考中国模式建立AI金融监管体系)。
⑵“敏捷监管”模式:深圳2024年试行AI沙盒监管,允许企业在限定场景试错,平衡创新与安全(3个月内批准12项高风险AI医疗应用)。
参考文献 :
1. 国务院国资委. (2024). 中央企业人工智能专题推进会公报.
2. 南方电网公司. (2024). 电力人工智能创新平台技术白皮书.
3. 欧盟委员会. (2025). 《人工智能系统定义指南》.
4. 中国信通院. (2023). 人工智能安全风险评估标准.
(作者金思宇系中国智库高级研究员、中国合作贸易企业协会数字经济专业委员会顾问、泛亚智库学朮委员会主任、远望智库产业顾问、秦安战略智库核心成员、国盛战略智库成员)