导读 •AI导读带你速览精华 "当AI医生开始‘看人下菜碟’,医疗偏见被算法放大:高收入者更易获得CT检查,无住房患者被频繁转诊急诊。研究发现,大模型不仅复制人类医生的偏见,甚至通过X光片就能预测患者种族性别。医疗数据的先天缺陷与人类无意识偏见,正让‘赛博神医’陷入伦理困局——而人机对齐的治标方案,连OpenAI都宣告失败。" 内容由AI智能生成 有用