《经济学人》曾表示,美国和中国已经是毋庸置疑的AI超级体,而欧洲可以率先制定规则来限制AI系统可能造成的危害。许多人希望欧洲能建立AI行业的全球标准,就像其建立的新数据隐私法GDPR一样。
七大条件
欧盟在技术监管方面占据全球领先地位,去年引入了具有里程碑意义的数据隐私法GDPR,同时瞄准大型科技公司的反垄断行为以及避税问题,而目前人工智能的道德准则是欧盟最新的监管方向。
欧盟召集了52名专家组成的小组,提出了他们认为未来AI系统应该满足的七大条件:
受人类监管:AI不能侵犯人类的自主性。人类不应该被AI系统操纵或威胁,人类应该能够干预或监督AI的每一项决定。
技术的稳健性和安全性:AI应该是安全和准确的。它不应该轻易受外部攻击的影响,它应该非常可靠。
隐私和数据管理:AI收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。
透明度:用于创建AI系统的数据和算法应该是可访问的,应确保AI决策的可追溯性。换句话说,运营商应该能够解释他们的AI系统是如何做出决策的。
多样性、非歧视性和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样,系统不应该有任何偏向。
社会和环境福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。
问责制:应建立机制,确保对AI系统及其成果负责和问责。
目前这些要求不具有法律约束力,但它们可能对欧盟未来起草的所有法律造成影响。欧盟希望成为AI伦理领域的领导者,并通过《通用数据保护条例》(GDPR)表明,愿意制定影响深远的法律,以保护公众的数字权利。
今年夏天,欧盟委员会将与相关方合作,确定可能需要额外指导的领域,并确定如何更好地执行和核查。2020年初,专家组将纳入试点阶段的反馈意见。
AI伦理探索
最早关于机器人的伦理规定是科幻作家阿西莫夫上世纪设计的防止机器人失控的“机器人三定律”:机器人不能伤害人类;它们必须服从于人类;它们必须保护自己。后来还加入了“第零定律”:机器人不得伤害人类整体,不得因不作为使人类整体受到伤害。
但是随着人工智能不断发展,“机器人三定律”中的许多问题都有待进一步细化。
全球知名的艾伦人工智能研究所首席执行官埃齐奥尼,两年前在一次演讲中呼吁更新“机器人三定律”。他还提出,人工智能系统必须遵守适用于其操作人员的所有法律条文;人工智能系统必须明确表示它不是人类;未经信息来源明确许可,人工智能系统不能保留或披露机密信息等。
在过去的两年时间里,有大量的AI研究人员开启对AI伦理的思索。
2016年9月,Amazon、Facebook、Google、DeepMind、Microsoft和IBM等几家全球大公司共同成立了PartnershiponAI,研究和制定人工智能技术的最佳实践,促进公众对人工智能的理解,并作为一个开放平台来讨论人工智能对人和社会的影响。
2017年7月,中国政府发布《新一代人工智能发展规划》时就指出,建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力
去年年底,加拿大和法国联合成立了一个国际小组,讨论如何负责任地使用人工智能。
目前,在国家层面上关于AI的规则制定并不平衡,有的国家已经优先制定了机器人和人工智能的规则,甚至还通过立法来管理自动驾驶汽车,但大多数国家还没有着手去做。
欧盟委员会指出,技术、数据和算法不分国界,为此,其将继续加强同日本、加拿大以及新加坡等志同道合国家的合作,并继续在包括七国集团(G7)和G20在内的国际场合讨论和倡议中发挥积极作用。
IBM欧洲主席页特(Martin Jetter)对此表示,欧盟委员会此次出台的指导方针“为推动AI的道德和责任制定了全球标准”。
执行摘要
人工智能是这个时代最具变革性的力量之一,它可以为个人和社会带来巨大利益,但同时也会带来某些风险。而这些风险应该得到妥善管理。总的来说,AI带来的收益大于风险。我们必须遵循“最大化AI的收益并将其带来的风险降到最低”的原则。为了确保不偏离这一方向,我们需要制定一个以人为中心的AI发展方向,时刻铭记AI的发展并不是为了发展其本身,最终目标应该是为人类谋福祉。因此,“可信赖AI”(Trustworthy AI)将成为我们的指路明灯。只有信赖这项技术,人类才能够安心地从AI中全面获益。
“可信赖AI”由两部分组成:1)它应该尊重基本权利、相关法规、核心原则及价值观,确保其目的合乎伦理道德;2)它使用的技术应该非常稳健、可靠,因为即使是出于好意,如果没有成熟技术的加持,技术也会带来意想不到的伤害。这些指导原则构成了”可信赖AI”的基本框架:
“可信赖AI”框架
Chapter I:确保人工智能的目的合乎道德,规定了人工智能发展应该遵守的基本权利、原则和价值观。
Chapter II:关于实现”可信赖AI”的指导原则,同时强调AI发展目的的道德性和技术稳健性。这部分列出了”可信赖AI”的要求,以及实现这些要求所需的技术和非技术方法。
Chapter III:提供”可信赖AI”的具体但非详尽的评估列表实施要求。该列表将根据具体的用例进行调整。
与其他有关AI伦理道德的文件相比,这份准则的目的不是为AI增加一份核心价值观和原则清单,而是为AI系统的具体实施和操作提供指导。
该准则面向开发、部署或使用AI的所有利益攸关方,包括公司、组织、研究人员、公共服务单位、机构、个人或其他实体。该准则的最终版将提出一种机制,是否认可这些这些准则将由利益攸关方自行决定。
需要指出的是,制定这些准则并不是为了替代任何形式的决策或监管,也不是为了阻止其出台。这份准则应该不断更新,以适应技术和知识发展的要求。
“可信赖AI”的实现
这一部分为”可信赖AI”的实施和实现提供了指导,指出实现”可信赖AI”有哪些要求,在发展、部署、使用AI的过程中有哪些方法可以满足这些要求,从而充分利用由AI创造的机遇。
1.“可信赖AI”的要求
实现”可信赖AI”意味着需要在AI系统和应用的具体要求中加入一般、抽象的原则。以下是从Chapter I的权利、原则和价值观中衍生出的十条要求。这十条要求同样重要,但实施过程中需要考虑不同应用领域和行业的具体背景。
问责机制
数据治理
为所有人设计
人工智能自治的治理(人的监督)
非歧视
尊重(增强)人类自主性
尊重隐私
稳健性
安全
透明
《准则》还对每一项要求进行了进一步解释。例如,在「问责机制」这项要求中,《准则》指出,问责机制的选择可能非常多样,从金钱补偿到过失调查,再到没有金钱补偿的和解。如一个系统误读了药品报销申请,错误地决定不予报销,系统所有者可能会被要求做出金钱补偿。其他要求的详细内容请参考原文。
这一清单按字母顺序对要求进行排序,以表明所有要求同等重要。Chapter III还提供了一份评估清单,以支持这些要求的实施。
2.实现“可信赖AI”的技术和非技术方法
为了满足上一节中提到的要求,开发过程的所有层面(包括分析、设计、开发和使用)都可以采用技术和非技术方法(参见图3)。对实施这些要求和方法的评估,以及对流程变化的报告和论证应该持续进行。事实上,考虑到AI系统不断发展,以及在动态环境中运行,实现“可信赖AI”可以看作一个持续的过程。
虽然这份准则中的方法列表并不详尽,但它旨在列出实施“可信赖AI”的主要方法。为了提高AI系统的可信度,这些方法应该基于第一章中定义的权利和原则。
图3显示了权利、原则和价值观对系统开发过程的影响。这些抽象的原则和权利被具体化为对AI系统的要求,该系统的实施和实现要由不同的技术和非技术方法支持。此外,考虑到AI技术的适应性和动态性,继续坚持原则和价值观要求将评估(evaluation)和论证(justification)流程作为开发流程的核心。