人工智能被塑造成既拯救世界又终结世界的矛盾技术。
为了打破围绕人工智能的争论和炒作,VentureBeat与该领域杰出人士交谈,由于多年来与世界上一些最大的科技和工业公司合作,让他们对人工智能的正确做法有了自己的看法。
以下是Google Brain联合创始人吴文达,ML和Fast Forward Labs创始人希拉里·梅森(Hilary Mason),Facebook AI Research创始人Yann LeCun和埃森哲工智全球能负责人Rumman Chowdhury博士的见解。我们可以了解他们眼中2018年的关键里程碑,以及他们认为2019年将会发生什么。
在对今年的回顾和对未来的预测中,一些人表示,随着越来越多的人了解人工智能能做什么和不能做什么,他们很少听到终结者般人工智能末日的场景。但这些专家也强调,在推进人工智能的同时,该领域的计算机和数据科学家仍需要采取负责任的道德规范。
图片来源:图虫创意
Rumman Chowdhury博士
Rumman Chowdhury博士是埃森哲应用智能部门的常务董事,也是其负责任的人工智能计划的全球负责人,并于2017年入选BBC的100名女性名单。去年,她在波士顿与Affectiva会议围绕人工智能讨论信任问题。她经常就这个话题向世界各地的观众发表讲话。
为了节省时间,她通过电子邮件回答了有关2019年人工智能预测的问题。本文中其他人的所有回复都在电话采访中分享。
Chowdhury在2018年表示,她很高兴看到公众对人工智能的能力和限制有了更多的了解,并且听到了对人工智能带来的威胁的更均衡的讨论,除了担心像“终结者”这样的智能机器全球接管。 “随之而来的是关于隐私和安全的意识和问题的增加,以及人工智能在塑造我们和后代方面可能发挥的作用。”她说。
然而,公众对人工智能的认识仍然不是她认为需要的地方。在未来的一年里,Chowdhury希望看到更多的人利用教育资源来理解人工智能系统,并能够机智地质疑人工智能决策。
她对AI生态系统中的技术公司和人们开始考虑其工作的伦理影响的速度感到惊喜。但她希望看到人工智能社区做得更多,“不止是发出道德信号,要转向实际行动”。
“至于道德和人工智能领域 – 不止是电车难题 - 我希望看到我们深入研究AI将提出的难题,那些没有明确答案的问题。支持AI和物联网的监控的“正确”平衡是什么,既能保证安全,又能抵制惩罚性监控状态,却深化现有的种族歧视?我们应该如何塑造先进技术收益的再分配,以便我们不会进一步扩大富人和穷人之间的鸿沟?对儿童的接触水平允许他们成为“AI本地人”,但不会被操纵或同质化?我们如何使用人工智能来扩展和自动化教育,但仍然能够使创造力和独立思想得以蓬勃发展?”她问道。
在未来一年,Chowdhury预计将在全球范围内看到更多的政府审查和技术监管。
“人工智能和全球科技巨头所掌握的权力,引发了很多关于如何规范行业和技术的问题,”她说,“在2019年,我们将不得不开始找到这些问题的答案,当一项技术是一种多用途工具,具有特定背景下的结果时,你如何规范技术?你如何制定既不扼杀创新、也不偏袒大公司(谁来承担合规成本)、又不偏袒小公司的监管规定?我们在什么层面上进行监管?国际吗?国家吗?当地的?”
她还希望看到人工智能在地缘政治问题上的作用不断演变。
“这不仅仅是一项技术,而是一种经济和社会的塑造。我们在这项技术中反思、扩大和巩固我们的价值观,我们的行业需要对我们构建的内容以及我们如何构建它的影响少点天真。”她说。为了实现这一目标,她认为人们需要摒弃人工智能行业中常见的想法,即如果我们不构建它,中国就会超越我们,仿佛只有这种创造才是力量所在。
“我希望监管机构,技术专家和研究人员意识到,我们的AI竞赛不仅仅是计算能力和技术敏锐性,就像冷战不只是核能力一样。”她说, “我们有责任以更公正,更公平,更公开的方式重建世界,同时我们有难得的机会。这个时刻是短暂的;我们不要浪费它。”
在消费者层面,她认为2019年将会在家中更多地使用人工智能。许多人已经习惯于使用Google Home和Amazon Echo等智能扬声器,以及一系列智能设备。在这方面,她很想知道消费电子展是否会在1月的第二周在拉斯维加斯拉开序幕,这可能会进一步将人工智能整合到人们的日常生活中。
“我想我们都在期待一个机器人管家的到来。”她说。
吴恩达
当我们听到吴恩达在会议或在线课程中讲话时,我们总是笑得比想象中的要多,也许是因为很容易和一个充满激情并且玩得开心的人一起大笑。
吴恩达是斯坦福大学计算机科学副教授,由于种种原因,他的名字在AI圈子中无人不知。
吴恩达是Google Brain的联合创始人,该公司致力于将人工智能推广到谷歌的许多产品中,,也是Landing AI的创始人,该公司帮助企业将AI整合到他们的运营中。
吴恩达还是YouTube和Coursera上一些最受欢迎的机器学习课程的讲师,Coursera是他创立的一家在线学习公司,他还创立了deeplearning.ai,并撰写了《深度学习渴望》一书。
在谷歌工作了三年多,2017年,他离开了他的职位,担任百度的首席人工智能科学家,百度是另一家技术巨头,他帮助其转型为人工智能公司。
最后,他还是1.75亿美元人工智能基金和无人驾驶汽车公司Fast.ai的董事会成员。
本月早些时候,吴恩达在发布《人工智能转型指南》时与VentureBeat进行了交谈,这是一本关于起亚如何释放人工智能对其公司积极影响的简短读物。
他希望在2019年看到的一个主要进展或变化领域是AI被用于科技或软件公司以外的应用程序。他说,人工智能领域最大的未开发机会超出了软件行业的范畴,他援引麦肯锡一份报告中的用例称,到2030年,人工智能将创造13万亿美元的GDP。
“我认为明年(2019年)要讲的很多故事都将出现在软件行业以外的人工智能应用中。作为一个行业,我们在帮助谷歌和百度以及Facebook和微软等公司(我和它们没有任何关系)方面做得不错,但即使像Square和Airbnb,Pinterest这样的公司也开始使用一些人工智能功能。我认为,下一次巨大的价值创造浪潮将是你可以让制造公司或农业设备公司或医疗保健公司开发数十种人工智能解决方案来帮助他们的业务。”
和Chowdhury一样,吴恩达对2018年AI能做什么和不能做什么的理解的增长感到惊讶,并且很高兴能够在不关注杀手机器人场景或害怕人工智能的情况下进行对话。
吴恩达说,他故有意回答我们提出的问题,并给出了很多他没想别人也这么想的答案。
“我试图有意地引用几个我认为对实际应用非常重要的领域。我认为人工智能的实际应用存在障碍,我认为在这些问题上,一些领域取得了有希望的进展。”他说。
在未来的一年里,吴恩达很高兴看到AI / ML研究中两个特定领域的进展有助于推动整个领域的发展。一个是人工智能,可以用较少的数据得出准确的结论,一些人在该领域称为“少样本学习”。
“我认为第一波深度学习进展主要在于大公司,它们拥有大量的数据,可以训练非常大的神经网络,是吧?因此,如果你想构建语音识别系统,请使用100,000小时的数据进行训练。想训练机器翻译系统?用平行语料库的数量对句子进行训练,这会产生很多突破性的结果。”吴恩达说,“我越来越多地看到在小数据上的结果,即使你有1000张照片,你也想在这些小数据上获取结果。”
另一个是计算机视觉的进步,称为“通用可见性”。“如果用斯坦福大学高端x光机拍摄的原始图像训练电脑视觉系统,效果可能会很好。”许多先进的公司和该领域的研究人员已经创造出了比人类放射学家更出色的系统,但它们并不是很灵活。
“但是,如果你采用训练有素的模型,并将其应用于从低端X光机拍摄的X射线或从不同的医院拍摄,其中图像有点模糊,也许X射线技术人员有意让患者略微向右转,所以角度有点偏离,事实证明,人类放射科医师在推广这一新环境方面比今天的学习算法要好得多。因此,我认为有趣的研究正在尝试提高新领域学习算法的普遍性。”他说。
Yann LeCun
Yann LeCun是纽约大学的教授,Facebook首席人工智能科学家,Facebook AI Research(FAIR)的创始董事,该公司创建了PyTorch 1.0和Caffe2,以及许多人工智能系统 - 就像文本翻译人工智能工具,Facebook每天使用数十亿次或使用高级强化学习系统。
LeCun认为,FAIR在其研究和工具中采用的开源政策,有助于推动其他大型科技公司做同样的事情,他认为这已经将AI领域作为一个整体推进。 LeCun上个月在NeurIPS会议和FAIR五周年之际与VentureBeat进行了交谈,他描述FAIR是一个组织,对机器学习的技术、数学感兴趣,使其全部起作用。
“当更多人就研究进行沟通时,整个领域的进展更快,这实际上会产生非常大的影响。”他说,“你今天在人工智能中看到的进步速度很大程度上是因为更多的人比以往更快、更有效率地进行更开放的研究。”
在伦理方面,LeCun很高兴看到在简单考虑工作的伦理影响和偏见决策的危险方面取得的进展。
“这些人们本应该注意的问题现在终于开始得到关注了。但在两三年前情况并非如此。”他说。
LeCun表示他不相信人工智能中的道德和偏见已经成为一个需要立即采取行动的主要问题,但他认为人们应该做好准备。
他说:“我认为还有......重大的生死问题需要紧急解决,但问题会出现,我们需要......了解这些问题,并在这些问题发生之前加以预防。”
与吴恩达一样,LeCun希望看到更多的AI系统具有灵活性,可以产生强大的AI系统,不需要原始输入数据或精确条件来实现精确输出。
LeCun表示,研究人员已经可以通过深度学习很好地管理感知,但缺少的部分是对完整AI系统整体架构的理解。
他说,通过观察世界训练机器来学习将需要自我监督学习或基于模型的强化学习。
“不同的人给它起了不同的名字,但从本质上说,人类婴儿和动物通过观察了解世界是如何运转的,并弄清楚关于它的大量背景信息,而我们还不知道如何用机器做到这一点,但这就是一个巨大的挑战。”他说,“这实质上是在人工智能和机器方面取得真正进展,让人们拥有一些常识和虚拟助理,与之交谈不会令人沮丧,话题和讨论范围也会更广。”
对于将在Facebook内部提供帮助的应用程序,LeCun表示在自我监督学习方面取得的重大进展将非常重要,同时人工智能需要更少的数据来反馈准确的结果。
“在解决这个问题的过程中,我们希望找到减少任何特定任务所需的数据量的方法,如机器翻译或图像识别或类似的事情,我们已经在这方面取得了进展;我们已经通过弱监督或自我监督学习翻译和图像识别,对Facebook使用的服务产生了影响。因此,这些事情不仅仅是长期的,它们也会产生非常短期的后果。”他说。
在未来,LeCun希望看到在人工智能方面取得的进展,能够在事件之间建立因果关系。这不仅是通过观察来学习的能力,也是通过实际的理解来学习的能力,例如,如果人们带雨伞,可能会下雨。
“那将是非常重要的,因为如果你想让一台机器通过观察来学习世界的模型,它必须能够知道它可以影响什么,从而改变世界的状态,还有一些事情是你做不了的。” 他说,“你知道,如果你在一个房间里,桌子就在你面前,它上面有一个物体,比如一个水瓶,你知道你推动水瓶,它会移动,但你不能移动桌子,因为它很大很重,这样的事情与因果关系有关。”
希拉里·梅森
在Cloudera于2017年收购Fast Forward Labs之后,希拉里·梅森成为了Cloudera的机器学习负责人。Fast Forward Labs虽然吸收了Cloudera,但仍在运作中,提供应用机器学习报告,并帮助客户预测未来六个月到两年的情况。
人工智能在2018年让梅森感到惊讶的一个进步与多任务学习有关,它可以训练单个神经网络,在推断例如图像中看到的物体时应用多种标签。
Fast Forward Labs也一直在为客户提供有关AI系统伦理影响的建议。梅森认为有必要建立某种道德框架。
“这是自从我们创建Fast Forward以来的事情,所以,五年前就开始了,我们一直在撰写关于道德规范的报告,但是今年[2018]人们已经真正开始接受并关注,我想明年我们“会开始看到公司和那些不关注这个问题的人们在这个领域尝到的后果或承担的责任。”梅森说,“我没有说清楚的是,我希望数据科学和人工智能的实践发展成为默认的期望,技术人员和商业领袖创建AI产品将考虑道德和偏见问题,而今天并不是任何人都想到这些问题,把它们当做一种默认。”
随着更多AI系统成为未来一年业务运营的一部分,梅森预计产品经理和产品负责人将开始在AI方面做出更多贡献,因为他们处于最佳状态。
“我认为很明显是那些了解整个产品的人,并且理解企业了解什么是有价值的,什么是没价值的,他们处于最佳位置,能够决定他们应该在哪里投资。”她说,“所以,如果你想要我预测,我想,就像我们希望所有这些人都能使用电子表格这样简单建模,我们很快就会期望他们在认识到自己产品中的人工智能机会时,也能有这家的简单能力。
人工智能的民主化,或者扩张到数据科学团队以外的公司的角落,是几家公司所强调的,包括Kubeflow Pipelines和AI Hub等Google Cloud AI产品,以及CI&T咨询公司的建议,以确保AI系统实际上是在公司内使用。
梅森还认为,越来越多的企业需要形成结构来管理多个人工智能系统。
就像有时用于描述在DevOps中工作的人所面临的挑战的类比,梅森说,管理单个系统可以使用手动部署的自定义脚本完成,而cron作业可以管理几十个。但是,当你管理数十个或数百个系统时,在具有安全性、治理和风险要求的企业中,你需要专业、强大的工具。
她说,企业正在从拥有一定能力甚至是聪明才智转变为有系统地追求机器学习和人工智能机会。
由于Cloudera最近推出了自己的基于容器的机器学习平台,因此强调部署AI的容器对梅森来说很有意义。 她相信这种趋势将在未来几年继续,因此公司可以选择在云中部署和内部部署AI作出选择。
最后,梅森认为,人工智能的业务将继续发展,在整个行业内,而不仅仅是在单个公司内,会有共同的实践。
“我认为我们将看到人工智能专业实践的不断发展。”她说, “现在,如果你是一家公司的数据科学家或ML工程师,而你跳槽到另一家公司,你的工作将完全不同:不同的工具,不同的期望,不同的报告结构。我想我们会看到这种一致性。”她说。