当玛格丽特·米切尔(Margaret Mitchell)意识到自己需要休息一下时,她刚刚在谷歌工作了两年。“我开始定期出现精神崩溃,”米切尔说,她创立了并共同领导了该公司的人工智能伦理团队。“这是我以前从来没有经历过的事情。”在与心理治疗师交谈后,她才明白了问题所在:工作让她精疲力尽。最终由于压力太大,她选择了休病假。米切尔现在是人工智能初创公司Hugging Face 的首席伦理科学家,她的遭遇并非孤例。蒙特利尔人工智能伦理研究所的创始人、波士顿咨询集团顾问阿比谢克·古普塔(Abhishek Gupta)表示,职业倦怠在与“负责任的人工智能(Responsible AI)”相关的团队中变得越来越普遍。科技公司正面临着来自监管机构和活动人士的越来越大的压力,要求他们确保其人工智能产品在开发时就采用一些减轻潜在危害的方法。作为应对措施的一部分,他们投资并组建了团队,评估人们的生活、社会和政治系统如何受到人工智能系统的设计、开发和部署方式的影响。Meta 等科技公司被迫为内容审核员等员工提供补偿和额外的心理健康支持,这些员工往往需要筛选可能造成创伤的图片和暴力内容。但员工们告诉《麻省理工科技评论》,研究负责任人工智能的团队往往只能“自求多福”,尽管这项工作像内容审核一样让人身心俱疲。最终,这可能会让团队中的人感到被低估,从而影响他们的心理健康,导致职业倦怠。鲁姆曼·乔杜里(Rumman Chowdhury)领导着推特的机器学习伦理、透明度和责任团队,也是应用人工智能伦理的先行者,她曾在之前的职位中面临过相同的问题。“有那么一瞬间,我感到无比疲惫,情况有点绝望。”所有接受《麻省理工科技评论》采访的从业者都热情地谈论了他们的工作:它由激情、紧迫感和为真实问题构建解决方案的满足感所推动。但如果没有正确的支持,这种使命感可能会难以为继。乔杜里说:“你会感觉自己一刻都不能松懈。在科技公司工作的这群人,他们的工作是保护这个平台上的用户。我有一种感觉,如果我去度假,或者没有 24 小时都保持注意力,就会有糟糕的事情发生。”米切尔还在继续研究人工智能伦理,她说,“因为它是如此的被需要,而且很显然,很少有人让真正从事机器学习的人意识到它。”但目前也面临很多挑战。科技公司向个人施加巨大的压力,要求他们在没有适当支持的情况下解决重大的系统性问题,而与此同时,公司本身也在网络上面临着持续不断的激进批评。
(来源:STEPHANIE ARNETT/MITTR | UNSPLASH)
认知失调
人工智能伦理学家或人工智能伦理团队成员的角色差异很大,从分析人工智能系统的社会影响,到制定负责任的策略和政策,再到解决技术问题。通常情况下,这些工作人员还被要求找到减轻人工智能危害的方法,从传播仇恨言论的算法,到以歧视性方式分配住房和福利的系统,再到暴力图像和语言的传播。这其中包括,试图解决人工智能系统中的种族歧视、性别歧视等根深蒂固的问题,比如亲自分析包含各种有毒内容的大型数据集。人工智能系统能够反映出我们社会中最严重的问题,比如种族主义和性别歧视,甚至是加剧这些问题。有问题的技术包括将黑人归为大猩猩的面部识别系统,还有将色情视频人物换头的深度伪造软件。处理这些问题对女性、有色人种和其他边缘群体来说尤其费力,这对人工智能道德工作施加了更大的压力。虽然职业倦怠并不是人工智能伦理从业者所特有的,但《麻省理工科技评论》采访的所有专家都表示,他们在该领域面临着特别棘手的挑战。米切尔说:“你所做的工作使你每天都受到伤害。这让歧视存在的事实变得更糟糕,因为你不能忽视它。”但是,尽管公众越来越意识到人工智能构成的风险,但伦理学家发现自己仍需努力得到人工智能领域的同事的认可。有些人甚至贬低了人工智能伦理学家的工作。开发开源文字转图片 AI 系统的Stability AI 公司的 CEO 埃马德·莫斯塔克(Emad Mostaque)在推特上说,围绕他的技术的道德辩论是“家长式的”。莫斯塔克和该公司都未回应《麻省理工科技评论》的置评请求。“在人工智能领域工作的人大多是工程师,他们对人文不感兴趣,”人工智能伦理学家、智库全球人工智能伦理研究所(Global AI Ethics Institute)的创始人伊曼纽尔·戈菲(Emmanuel Goffi)说。戈菲表示,公司只想要一个快速的技术修复方案;他们希望有人“带着三张幻灯片、列出四个要点,就能向他们解释清楚如何合乎伦理。”戈菲补充说,(真正的)伦理思维需要更深入,它应该应用于整个组织的运作方式。他说:“从心理上讲,最困难的部分是,你必须每天、每一分钟都在你的信仰和你必须做什么之间做出妥协。”米切尔说,科技公司的态度,尤其是机器学习团队,加剧了这个问题。“你不仅要努力解决这些棘手的问题,你还必须向他们证明这些问题值得被解决。这根本算不上获得支持,而是减少抵抗。”乔杜里补充说:“有些人认为(人工智能)伦理是一个毫无价值的领域,认为我们这些伦理工作者对人工智能的进步持否定态度。”社交媒体也让研究人员更容易遭到批评人士的攻击。乔杜里说,与那些不重视自己工作的人接触没有意义,“但如果你被标记或特别攻击,或者你的工作被提起,就很难不接触这些人。”

不断增长的需求
关于是否要采取行动支持人工智能伦理,企业在不久的将来可能再也无法自主选择,因为监管机构正开始起草针对人工智能的法律。欧盟即将出台的人工智能法案和人工智能责任法,将要求企业记录他们是如何减轻危害的。在美国,纽约、加州和其他地方的立法者正在努力对高风险行业的人工智能进行监管,比如招聘领域。2022 年 10 月初,白宫公布了人工智能权利法案,其中列出了美国人在自动化系统方面应该拥有的五项权利。该法案可能会推动联邦机构,加强对人工智能系统和公司的审查。尽管动荡的全球经济导致许多科技公司冻结招聘,并且进行大规模裁员,但负责任的人工智能团队从未像现在这样重要,因为推出不安全或非法的人工智能系统,可能会使公司面临巨额罚款或要求删除其算法的风险。例如,2021 年春天,美国监管机构发现了慧俪轻体(Weight Watchers)非法收集儿童数据,其算法被强行删除。开发人工智能模型和收集数据库是一笔重大投资,而被监管机构强迫完全删除他们,对公司而言是一个巨大的打击。精疲力竭和持续的被低估感可能会导致人们完全离开人工智能伦理领域,这可能会损害整个人工智能治理和伦理研究领域。那些在解决人工智能造成的危害方面经验最丰富的人,可能往往是最疲惫的,因此他们心灰意冷的风险尤其大。米切尔说:“仅仅失去一个人就会严重影响整个组织,因为一个人积累的专业知识极其难以替代。”2020 年底,谷歌解雇了其人工智能伦理团队的联合领导人,并且在几个月后解雇了米切尔,还有其他几名成员在接下来的几个月也离开了。古普塔说,这种人才流失对人工智能伦理方面的进步带来了“严重的风险”,并且使企业更难遵守他们的项目。2021 年,谷歌宣布将人工智能伦理的研究人员增加一倍,但此后没有对其进展发表评论。谷歌告诉《麻省理工科技评论》,它提供了心理健康弹性培训,同事对同事的心理健康支持计划,并且为员工提供数字工具来帮助实现正念。谷歌还为员工提供在线的心理健康服务,但它没有回答有关米切尔在公司工作时间的问题。Meta 表示,它已经投资了一些福利,比如每年为员工及其家人提供 25 次免费(心理)治疗。推特表示,它提供员工咨询和辅导课程,以及职业倦怠预防培训。推特还有一个专门关注心理健康的同伴支持项目。这些公司都没有提到,专门为人工智能伦理团队的员工提供了哪些支持。 古普塔说,有关人工智能合规和风险管理的需求正在增长,科技公司的高管们需要确保他们在负责任的人工智能项目上投入了足够的资金。这些改变是从上到下的。他说:“高管们需要讨论他们需要分配的资金、时间、资源。”否则,从事人工智能伦理工作的人“注定会失败”。古普塔补充说,成功的负责任的人工智能团队需要足够的工具、资源和人员来解决问题,但他们也需要跨机构和组织的关系,以及推行改变所需的权力。乔杜里说,科技公司的许多心理健康资源集中在时间管理和工作、生活平衡上,但对于那些工作性质就很糟糕的人,则需要更多的支持。她补充说,专门为人工智能伦理的技术人员提供的心理健康资源也会有所帮助。米切尔说:“人们还没有对从事此类工作的人产生足够认可,更不会支持或鼓励人们脱离它。”“大型科技公司处理这种事情的唯一机制,就是忽视它的现实。”支持:Ren
原文:
https://www.technologyreview.com/2022/10/28/1062332/responsible-ai-has-a-burnout-problem/