日前,欧盟委员会发布人工智能伦理准则,该准则列出了“可信赖人工智能”的7个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。
事实上,尽管人们对于人工智能未来将走向何方众说纷纭,但对人工智能加以伦理规制,已经成为一个基本共识。
“在人工智能,以及大数据、5G扑面而来的时代,要让先进的技术更好地为人们服务,作出准则进行规范是很有必要的。”全国乘用车市场信息联席会秘书长崔东树谈到。这无论是对于以人工智能为基础的技术研发还是产业的发展,应该说都是一颗“定心丸”。
世界各国积极推出人工智能伦理规则

2016年6月
日本人工智能学会伦理委员
起草了面向研究人员的伦理纲要草案。草案中提出了AI给人类社会带来危害的可能性,要求采取措施消除威胁和防止恶意利用。

2016年9月
英国标准行业协会
发布业界首个关于机器人伦理设计的公开指标,即《机器人和机器系统的伦理设计和应用指南》,旨在保证人类生产出来的智能机器人能够融入人类社会的道德规范。

2016年9月
人工智能合作组织
由亚马逊、谷歌、Facebook、微软和IBM等五大科技巨头宣布成立一家非盈利组织。目标之一即为人工智能的研究提供示范,涉及的领域包括伦理、公平和包容性。

2016年11月
美国电气和电子工程师协会(IEEE)
发布世界首个《人工智能道德准则设计草案(Ethically Aligned Design)》。欲借该文件帮助科技行业打造能够造福人类的AI自动化系统,改变道德伦理无需担虑等想法。

2017年1月
加利福尼亚州阿西洛马举行的 Beneficial Al 会议
近千名人工智能相关领域的专家,联合签署了著名的《阿西洛马人工智能23条原则》。

2017年11月
美国电气和电子工程师协会(IEEE)
宣布了三项新的人工智能伦理标准:机器化系统、智能系统和自动系统的伦理推动标准、自动和半自动系统的故障安全设计标准、道德化的人工智能和自动系统的福祉衡量标准。

2018年4月
欧盟委员会
发布《欧盟人工智能》文件,提出人工智能的欧盟道路。其中,建立起适当的道德和法律框架为发展人工智能的一种三管齐下的方法之一。

2018年4月
英国上议院人工智能特别委员会
发布报告说,在发展和应用人工智能过程中,有必要把伦理道德放在核心位置,以确保这项技术更好地造福人类。

2019年4月
欧盟委员会
发布正式版的《可信赖AI的伦理准则(Ethics Guidelines for Trustworthy AI)》,提出了实现可信赖人工智能全生命周期的框架。
资料来自全球技术地图
人工智能会带来哪些伦理挑战

中国发展研究基金会在发布的《未来基石——人工智能的社会角色与伦理》报告中提出,从人文视角来看,人工智能带来了一些已经在发生或即将发生、有可能撼动我们社会基础的根本性问题。
随着人工智能的不断发展,我们对于人的理解越来越物化和去意义化,人和机器的边界越来越模糊,我们需要思考这种边界模糊的后果。我们该如何对待机器和自身的关系?人和机器应该整合吗?如果人对快乐和痛苦的感受可以通过其他物理和化学手段来满足,那么,人还有参与社会互动的需要和动力吗?
人工智能还带来了新的社会权力结构问题。借助人工智能,企业可以赋予每个用户大量的数据标签,并基于这些标签了解人的偏好和行为,甚至超过用户对自己的了解,这是巨大的权利不对称。
再者,人工智能可能会造成偏见强化。在社交媒体中,人工智能将观点相近的人相互推荐,新闻推送也常常存在路径依赖。当人们的信息来源越来越依赖于智能机器,偏见会在这种同化和路径依赖中被强化。
人工智能还使社会的信息和知识加工处理能力被极大放大,信息和知识的冗余反而使人陷入选择困境。如果人参与社会互动的次数和范围缩小,而人工智能越来越多介入到知识的生产中,知识与人的需求之间的关系将变得越来越间接,甚至会反过来支配人的需求。
尽管人工智能也会推动进一步的专业化分工和创造新的工作机会,但并非所有人都有能力迈过技术性和社会性壁垒。尤瓦尔·赫拉利在《未来简史》中警告,未来社会可能会出现“无用阶级”,这种担心并非全无道理。
此外,人工智能也对传统的法律法规和社会规范提出了挑战。譬如,无人驾驶汽车一旦出现事故,我们究竟该归因于开发产品的企业、产品拥有者还是人工智能产品本身?
如何构建人工智能的伦理规范

当前,已经有一些人工智能领先企业关注人工智能开发和应用的伦理问题。
微软公司总裁施博德表示,要设计出可信赖的人工智能,必须采取体现道德原则的解决方案,因此微软提出6个道德基本准则:公平、包容、透明、负责、可靠与安全、隐私与保密。
谷歌公司也表示,在人工智能开发应用中,坚持包括公平、安全、透明、隐私保护在内的7个准则,并明确列出了谷歌“不会追求的AI应用”。
报告认为,这些企业的前瞻性探索十分重要。但是,考虑到人工智能对未来社会的深远影响,还需要全社会和各国政府的共同努力,制定人工智能开发和应用的伦理规范和政策方向,为其未来健康发展奠定基础。
为此,报告提出了一系列建议——
社会层面:高校和研究机构开展前瞻性科技伦理研究,为相关规范和制度的建立提供理论支撑;人工智能企业应该将伦理考量纳入企业社会责任框架中;投资机构应将伦理问题纳入ESG(环境、社会和治理)框架,引导企业进行负责任的人工智能产品开发;社会组织可以通过培训、发布伦理评估报告、总结代表性案例等方式,推动人工智能伦理规范的构建等。
公共政策层面:人工智能研发和应用的政策应该将人置于核心,满足人全面发展的需求,促进社会的公平和可持续发展;政府需要设立专项资金,支持大学和研究机构开展人工智能等前沿科技的伦理研究;优先鼓励人工智能应用于解决社会领域的突出挑战,包括减少贫困和不平等,促进弱势群体融入社会并参与社会发展进程;应组建由政府部门和行业专家组成的人工智能伦理委员会,对人工智能的开发和应用提供伦理指引,并对具有重大公共影响的人工智能产品进行伦理与合法性评估等。
国际层面:清华大学公共管理学院院长薛澜表示,“人工智能的发展将在创新治理、可持续发展和全球安全合作3个方面对现行国际秩序产生深刻影响,需要各国政府与社会各界从人类命运共同体的高度予以关切和回应。只有加强各国之间的合作与交流,才可能真正构建起一套全球性的、共建共享、安全高效、持续发展的人工智能治理新秩序。”
报告也建议,各国政府应促进数据共享技术,为人工智能培训和测试提供共享的公共数据集。在个人信息得到保护的前提下,促进数据的自由流通,并加强国际合作,建立多层次的国际人工智能治理机制。各国政府应通过联合国、G20以及其他国际平台,将人工智能发展纳入国际合作议程,利用人工智能推动联合国2030年可持续发展目标的实现。


▼
往期推荐(点击即阅)

请点击“阅读原文”查看往期内容!