×

医疗AI 必须以“人机对齐”为前提

hqy hqy 发表于2025-05-03 02:18:20 浏览18 评论0百度已收录

抢沙发发表评论

文 | 王江平

近年来,AI 技术如潮水般涌进各个领域,在带来效率革命的同时,也暴露出隐私泄露、歧视偏见、算法滥用等伦理挑战。人们开始追问:AI 能否真正造福人类?如何避免其成为脱离掌控的“黑箱”?

我国非常重视这一问题,提出《全球人工智能治理倡议》,出台《科技伦理审查办法(试行)》等一系列政策法规。工信部正在研究编制人工智能科技伦理服务管理办法。这一系列动作,标志着我国 AI 伦理治理进入了体系化推进阶段。

医疗是AI 应用的重要领域,医疗AI 只有解决了人机对齐问题后,才有望成为人类可以信赖的医疗助手。

构建“技术向善”生态

从技术路线看,人机对齐正在成为治理AI 伦理问题的基本法则。

什么是人机对齐?简单来说,人机对齐就是通过技术手段与伦理框架,让AI 的目标、行为和输出与人类价值观、社会规范完全一致,本质上是“技术人性化”的准入要求。它不是简单的技术调试,是一场涉及技术、伦理、法律的系统性工程。

早在1960 年,诺伯特·维纳在《自动化的道德和技术后果》中就提出了这一理念。随着AI 技术不断发展,人机对齐的可操作性、有效性在实践中得到了强有力的证明,逐渐成为破解AI 伦理困境的“钥匙”。

在医疗领域,人机对齐有三大核心作用,分别是可解释性、信任性和人类和谐性。

一是可解释性。对齐的AI 能够清晰展现决策逻辑,让医生和患者都理解“黑箱”背后的依据。例如上海交大“明岐”大模型采用“透明诊断舱”机制,提供影像标记、诊断路径决策树和相似病例参考库作为决策证据,从而打消医患疑虑。欧盟《人工智能法案》明确要求,高风险 AI 系统(医疗AI 属此类别)必须提供“技术文件”和 “透明度信息”,将可解释性从技术选项升级为合规标准。

二是信任性。只有当AI 的建议符合医学伦理,人类才能对其建立深度信任,才敢对其托付生命健康。

三是人类和谐性。AI在应用过程中可能偏离人类的真实需求,如医疗AI为“最大化患者生存率”可能忽视治疗痛苦,情感陪伴机器人可能导致用户过度依赖、人际疏离等。人机对齐要求在算法设计中加入人性考量、目标校准,确保技术真正服务于人类福祉,而非单一指标的“冰冷计算”。

有人担心,人机对齐会束缚技术创新,其实恰恰相反——它是创新的催化剂。对齐原则一方面可以推动大模型更加符合人类价值观,另一方面也促进了人工智能技术进步,通过透明化、伦理化、人本化的AI系统设计,构建“技术向善”的可持续发展生态。可以说,人机对齐与技术创新共同构成AI 发展的双轮驱动力,确保技术既高效又可靠。

当前,人机对齐技术日益广泛地应用于模型训练,如基于人工反馈的强化学习(RLHF)、检索增强生成(RAG)技术等已经被大多数主流模型采用。基于AI反馈的强化学习方法(RLAIF)可有效解决人类专家标注耗时长、难以规模化等问题,OpenAI提出的弱到强泛化方法、阿里通义实验室提出的基于辩论驱动的弱监督对齐方法等,为解决未来的“超级对齐”问题提供了一种可能性(编者注:超级对齐指将AI系统与人类价值观和安全要求在超人类能力水平上的对齐)。

总的来看,人机对齐的前沿研究正从单一技术向多维度技术融合快速发展,既推动了AI 伦理与安全治理,也极大促进了 AI 模型能力提升。

进博会上展出的国产手术机器人 本刊首席摄影记者 肖翊I摄

筑牢医疗 AI 伦理合规防线

AI 应用在医疗领域,有三大特殊性。

一是数据敏感性。医疗数据包含生理指标、病史、诊疗记录等敏感信息,直接关联个人生命权和隐私权。欧盟《通用数据保护条例》(GDPR)、美国的HIPAA法案和我国《个人信息保护法》,都尤其强调对医疗数据的保护。

二是结果不可逆性。生成式AI的“幻觉”问题在医疗场景中可能导致严重问题。一次错误诊断可能直接危及生命,医疗AI 必须追求“零失误”。

三是责任主体复杂性。对于AI参与医疗决策导致损害问题,需以“权责清单”等形式清晰界定责任,避免出现“技术出错、操作失误、患者买单”的困局。

基于医疗AI 应用的特殊性,应从技术架构、数据集建设、医院管理、患者知情和行业监管等五大环节协同发力,让人机对齐贯穿医疗AI 的“研发—应用—监管”全周期全链条,确保筑牢医疗 AI 伦理合规防线。

在技术架构环节,要从源头上注入伦理基因、实现价值观驱动。模型预训练阶段引入“医学伦理知识图谱”,让模型优先学习循证医学指南、临床诊疗规范等,确保模型“学的是正确的知识”。模型微调阶段通过人工反馈强化学习让模型适应具体场景伦理偏好,在给出方案时综合评估患者年龄、病情、经济状况等因素,避免“一刀切”决策。

在数据集建设环节,要充分考量医疗数据格式不统一、多模态混杂、小样本高维度数据并存、隐私问题突出等难题。运用隐私计算技术实现数据“可用不可见”,通过术语标准化打破数据孤岛,利用小样本增强技术解决标注数据不足问题。设立“数据过滤器”,自动屏蔽包含歧视、错误伦理导向的数据源。建设医疗可信数据空间,推动统一数据规则和技术标准,促进合规共享。

在医院管理环节,在诊断、手术等高风险场景应实施“双保险机制”。AI手术建议需医生实时复核并留存记录。在健康咨询、用药提醒等中低风险场景可允许AI自主决策,嵌入动态监控日志,记录交互细节供事后审计。开发可视化工具包,让医生快速理解模型逻辑。设立“人机协作绩效指标”,将AI使用规范纳入医生考核体系,避免“盲目信任”或“过度抵触”。

在患者知情环节,要向患者提供“可理解的AI决策报告”,用通俗语言解释推荐药物、治疗方案的理由。保障患者的否决权,建立“患者一票否决通道”,当患者对AI建议提出质疑时强制切换至人工服务。

在模型测评与行业监管环节,建立国家统一的医疗AI对齐认证标准体系,由第三方机构开展测评,通过者颁发“伦理合规标签”,作为市场准入前提。常态化开展“红蓝对抗演练”等对抗性测试,模拟罕见病误诊、数据投毒等极端场景,测试模型鲁棒性。设立多学科伦理委员会,由临床医生、AI工程师、伦理学家、患者代表共同参与,定期评估模型对齐度,避免“技术单边主义”。编制《医疗AI对齐白皮书》,为开发者、医疗机构提供操作指南。

引入“数据飞轮”机制

“数据飞轮”是用户对AI输出进行标注、反馈,从而实现模型持续优化的闭环机制,不仅是模型技术迭代的引擎,更是人机对齐的重要实现路径。

医疗AI应建立“数据飞轮”机制,形成“模型输出评估—数据收集—应用反馈—模型优化”的闭环,使模型持续贴近真实的医疗需求。

医疗AI的“数据飞轮”有必要建立准入和激励机制。

准入机制目的是确保数据“干净合规”,医疗数据贡献者(医院、医生)需通过伦理审查和资质认证,避免噪声数据污染模型价值观。

激励机制目的是让数据共享“双向受益”。医院通过数据共享可以获得AI模型优先使用权或定制化服务,医生标注高质量数据可积累学术积分、助力职称晋升,从而激发医院和医生参与人机对齐的积极性。

通过准入和激励机制的设置,实现在真实医疗场景中持续收集高质量数据反馈,从而不断修正模型偏差,让对齐能力在迭代中持续进化,使对齐效果在实践中不断提升。

医疗AI人机对齐不仅是一项技术挑战,更是一项关于“AI如何服务人类”的价值思考。生命健康权是人的首要权益,是其他一切权益的基础,医疗健康行业对于人类社会有其特殊重要地位。医疗AI解决了对齐问题,才能真正成为人类可以信赖的医疗助手。

(本文作者系工业和信息化部原副部长、研究员级高级工程师)