欧盟委员会(European Commission)周一公布了人工智能道德准则,旨在在人工智能系统深入社会之前影响其发展。这种干预可能有助于打破监管机构被迫追赶新兴技术的模式,这些技术往往会带来意想不到的负面后果。
周一,英国提出新规定,要求互联网公司对清除其平台上的有害内容承担法律责任,凸显了这么做的重要性。
“这就像在盖房子之前先打好地基……”IBM负责欧洲监管事务的副总裁利亚姆-贝纳姆(Liam Benham)说。
欧盟在科技监管方面已走在全球前列,去年出台了一项具有里程碑意义的数据隐私法,同时以反竞争行为和未缴税款为由,对大型科技公司提起诉讼。
人工智能吸引了公众的想象力,并对潜在的滥用发出了可怕的警告,这是欧盟最新的监管领域。这不是一个简单的话题。例如,谷歌上周关闭了其新成立的人工智能伦理委员会,原因是一群员工要求该组织的一个保守派智库首领离开。
欧盟委员会制定了指导人工智能发展和建立信任的7项原则。虽然这些指导方针没有约束力,但它们可能成为未来几年进一步行动的基础。
透明度是关键
欧洲负责数字经济的最高官员玛丽亚-加布里尔(Mariya Gabriel)表示,使用人工智能系统的公司应该对公众透明。加布里埃尔说:“当人们接触的是一种算法而不是另一个人的时候,他们需要被告知”,“算法做出的任何决定都必须经过验证和解释”。
例如,基于算法拒绝索赔的保险公司应该确保客户知道如何以及为什么做出这个决定,人类应该能够介入且可以推翻这个决定。
欧盟委员会表示,未来的人工智能系统需要在整个生命周期内安全可靠。它还表示,数据保护必须是一个优先事项,用户必须可以控制自己的信息。这项规则指引将责任完全推给了那些构建和部署人工智能系统的人。
“如果一家公司安装了人工智能系统,那么这家公司就有责任……如果发生任何意外,这是非常重要的,”盖伯瑞尔说。
避免歧视
Gabriel还表示,公司需要确保他们的人工智能系统是公平的。她举例说,在招聘过程中使用的一种算法使用的数据来自一家只聘用男性的公司,这种算法可能会拒绝女性候选人。加布里埃尔说:“如果你的输入数据有偏差,那就真的是个问题。”
非营利性组织AlgorithmWatch表示,虽然制定指导方针是个好主意,但欧洲的做法存在问题。该组织的联合创始人马蒂亚斯-斯皮尔坎普(Matthias Spielkamp)表示:“指导方针围绕着‘值得信赖的人工智能’这一概念,这是有问题的,因为它不是一个定义明确的术语。”
“谁值得信赖,谁又值得信赖?”他补充道。他还表示,目前还不清楚未来的监管将如何处理。
美因茨大学(University of Mainz)教授、哲学家托马斯-梅辛格(Thomas Metzinger)帮助起草了指导方针,但批评他们没有禁止使用人工智能开发武器。其他人则担心这些指导方针会对创新产生影响。
行业组织TechUK副首席执行官安东尼-沃克(Antony Walker)表示:“我们担心这些指导方针的力度,将使许多公司,尤其是中小型企业,难以实施。”
欧盟现在将尝试与大型科技公司合作,通过一个试点项目来解决这些问题和其他问题。