今天分享的是:CSET:2024年人工智能安全与自动化偏见报告(英文版)(1)
报告共计:34页
该报告题为《2024年人工智能安全与自动化偏见》,由CSET的Lauren Kahn、Emelia S. Probasco和Ronnie Kinoshita撰写。报告指出自动化偏见是人类过度依赖自动化系统的倾向,会增加事故、错误和不良后果的风险。通过对用户、技术设计和组织三个层面的案例研究,提出了一个理解自动化偏见的三层框架,并给出了相应的建议。
1. 用户层面:以特斯拉为例,用户的个人知识、经验、对技术的熟悉程度以及对自己和系统的信任度会影响偏见。用户感知与系统能力的差异会导致偏见和伤害。建议建立和维护用户理解的资格标准,开发者和供应商应清晰传达系统信息。
2. 技术设计层面:以空客和波音为例,系统的整体设计、用户界面以及如何提供用户反馈会影响偏见。即使是训练有素的用户,系统界面也可能导致偏见。建议重视并执行一致的设计理念,考虑人为因素,必要时向老用户解释设计变更。
3. 组织层面:以陆军爱国者导弹系统和海军宙斯盾作战系统为例,组织的培训、流程和政策会影响偏见。组织可以基于不同的协议、操作、学说、培训和认证来使用相同的工具和技术,这些选择可能嵌入自动化偏见。建议组织根据技术能力和组织优先级设计和定期审查政策,随着技术变化更新政策和流程。
报告强调,“人在回路”并不能防止所有事故或错误,正确校准AI的技术和人为故障保护措施是降低使用AI系统风险的最佳机会。
以下为报告节选内容