老话说“眼见为实”,这句话放在几年之前或许还有些可信度,那个时候我们在照片和视频中看到的内容可以说是真实的。即使PhotoshopPIng图像流行开来,我们仍然相信P过的图片也总有个原图。
然而,现在随着人工智能的进步,世界变得越来越虚化,你甚至不能确定你所看到或听到的是真实的,还是人工智能和机器创造的。在许多情况下,这项技术用得很好,但既然它存在,它也可以用来欺骗。
人工智能创造了一个假世界 - 这对人类意味着什么?
“智能虚构”的迷思
其实,如果观众能够足够了解,就会接受人工智能的“虚构”。多年来,为了我们能够能快乐地享受娱乐品,我们已经开始接受电影和电视屏幕上对现实生活的表现。不过现在,好莱坞已经连写剧本都要获得AI协助。
adobe公司正尝试用机器模仿声音,可创建一份30分钟的合成音频(洛杉矶时报2019年4月13日)
随着机器学习的发展,算法可以对大量数据进行分类分析,以了解哪些元素更有可能使电影获奖,商业成功或更受观众欢迎。这是人工智能帮助人们去做一些“创造性活动”的另一个例子,(甚至他们可以自己做,根本用不到人类)
合成的声音
现在只需要将音频放入机器算法之中,它就能模拟出这个人的声音,从而模糊真假之间的界限。这在某些情况下肯定会有所帮助,例如修复电影中的即时声音采集,而不用让演员回到现场重新录制,但滥用的机会也是可能的,并且很容易想象。
AI拯救渣画质
智能内容
个性化或智能内容的出现是把双刃剑,其他人工智能程序也一样,它们应该对用户透明,否则就不是“科技引领生活”而成了“科技误导生活”。 这里说的智能内容是指内容本身根据订阅者的用户画像而自觉进行的内容变化,并且正在通过Netflix和tikTok(一种短视频应用)进行测试。我们习惯于我们的搜索和推荐引擎根据我们自身特点向我们推送“更适合”的信息,智能内容会允许每个用户获得不同的体验。
就在我还在看这篇文章的时候,网站就会给我推送“You may also like”
Deepfake专业”枪手“
GPT2是OpenAI(一个由埃隆·马斯克投资的非营利性研究组织)开发的一个人工智能模型。它可以根据你输入进去的数据的语言特点来生成文字内容,不论这是发在朋友圈的、还是写进科幻小说里的、还是其他任何一种语境。该小组没有公开发布其研究报告,因为现实是很可怕的,他们害怕技术被滥用。
不再可信的照片
为了提高对人工智能技术的认识,Phillip Wang创建了网站“ 这个人不存在。” 网站上代表的每一个人脸看起来都像一个真人,但它们都是人工智能生成的。另一个类似的网站,Whichfaceisreal.com,它的创建也是为了提高人们对这种技术的能力的认识,要欺骗人们简直太轻松了。两个站点都旨在反映NVIDIA公司的软件工程师所开发的技术有多么的强大。他们使用了“通用对抗网络”(General Adversarial Network),这种技术就是说,两个神经网络在创建人工图像时反复竞争,通过计算机强大的高效的计算能力不断地去“纠正对方”,最终两者之间的和解就是问题的“最优解”。尽管在某些人脸中有一些细节能让他们暴露,但很多情况下都可以以假乱真。
假视频的危险性
乍一看,人工智能的能力创造逼真的声音,图像和视频,如此逼真,令人兴奋,令人捧腹、令人难以置信。但在深入了解这项技术之前,我们必须停下来考虑更恶毒的用途。
“ Deepfake ”技术使用计算机生成的音频和视频来呈现并未发生的事情。它被用来交换斯嘉丽·约翰逊的头像以及色情电影中的其他着名人物,也就是我们说的AI换脸,(此前本号文章中具体谈论过这种被BBC称为“色情报复的强大武器”)
除了个人的虚假陈述和可能对个人造成的损害之外,一些 立法者还担心 这种技术可能在互联网上传播的错误信息。
这部奥巴马总统的视频 展示了音频/视频被操纵的可能性,以便让一个有权威的人说出他们实际上从未做过的事情。除了影响个人声誉之外,这种欺骗可能对国家安全和选举产生负面影响。
Youtube用户用声音模拟软件做出的奥巴马演讲视频
中国的国营新闻机构新华社,也开发了自己的人工智能主持人,如果不是特殊说明,还真的不好分辨它究竟是一串代码,还是一个真实的人。
新华社的AI主持人
随着AI越来越复杂,确定什么是真实的和什么是人为的将变得更具挑战性。如果“假”信息以文本,照片,音频或视频传达,轻易的迷惑大众,则可以用于恶意目的。或许我们再也不能相信“眼见为实”了。