原标题:
https://www.artificialintelligence-news.com/2019/03/26/report-it-leaders-focus-ai-ethics/
SnapLogic的一项研究发现,在英国和美国,94%的IT决策者希望更多地关注道德AI开发。
算法中的偏见仍然是一个问题,也是社会采用的最大障碍之一。例如,人脸识别算法被发现在社会的某些部分远不如其他部分准确。
如果不解决这些问题,我们就有自动化问题的危险,比如种族分析。公众对人工智能的信任已经很低,因此业界有集体责任确保高道德标准。
SnapLogic首席执行官高拉夫•迪伦评论道:
“人工智能是未来,它已经对商业和社会产生了重大影响。然而,正如许多这种规模的快速发展一样,它有可能被用于不道德、恶意或仅仅是无意的目的。
我们都应该希望人工智能创新蓬勃发展,但我们必须管理潜在风险,尽自己的一份力量,确保人工智能以负责任的方式发展。”
SnapLogic的报告发现,超过半数(53%)的IT领导者认为,道德AI开发的责任在于开发IT的组织,无论他们是商业企业还是学术机构。
更少的人(17%)责怪从事人工智能项目的个人开发者。然而,美国的受访者(21%)责备个人的可能性是英国(9%)的两倍多。
一些旨在建立人工智能标准和公平规则的全球性机构正在涌现。可以理解的是,人工智能在军事技术中所扮演的角色备受关注。中国、美国和俄罗斯等全球大国之间的所谓“人工智能军备竞赛”可能导致不负责任的事态发展,并带来灾难性后果。
然而,只有16%的受访者认为,由政府、学术界、研究机构和企业代表组成的一个独立的全球联盟是建立急需的标准、规则和协议的唯一途径。
信息技术领导人欢迎欧洲委员会(European Commission)高级人工智能专家组等有关人工智能的专家组。半数受访者认为,机构会接受这些团体的指导和建议。英国人(15%)几乎是美国人(9%)的两倍。
只有5%的英国IT领导者认为,如果没有法律强制执行,来自人工智能专家小组的建议将毫无用处。
87%的受访者希望人工智能受到监管,尽管如何监管还存在一些争议。32%的人认为应该由政府和行业共同出资,而25%的人希望有一个独立的行业联盟。
基于行业的监管意愿也存在差异。近五分之一(18%)的制造业IT决策者反对这项规定,紧随其后的是13%的“技术”部门,同样比例的“零售、分销和运输”部门。给出的理由接近于两种观点的平分,一种观点认为,这将放缓创新,另一种观点认为,开发应由开发商自行决定。
Dhillon继续说:“监管有其优点,而且很可能是必要的,但它的实施应该经过深思熟虑,以便保留数据访问和信息流。”“如果没有这些,人工智能系统将从不完整或错误的数据中工作,阻碍未来人工智能创新的发展。”
人工智能将是革命性的——事实上,有人称之为第四次工业革命。然而,正如一位伟大的虚构人物曾经说过:“权力越大,责任越大。”
原文:
https://www.artificialintelligence-news.com/2019/03/26/report-it-leaders-focus-ai-ethics/