原标题:OpenAI withholds its latest research fearing societal impact
OpenAI已经决定不发布其最新的研究,因为担心它可能被误用,以及可能产生的负面社会影响。
在伊隆•马斯克(Elon Musk)和彼得•泰尔(Peter Thiel)等人的支持下,该研究所开发出了一种能够产生令人信服的“假新闻”文章的人工智能。
人工智能作者所写的文章可以是任何主题的,只需要一个简短的提示,然后就可以在无人监督的情况下进行工作。
人工智能从大约800万个网页中收集数据,只看那些在Reddit上发布的带有3个或更多“业力”的网页。这个检查意味着这篇文章引起了一些用户的共鸣,尽管出于什么原因它不能确定。
通常,生成的文本—逐字生成—是一致的,但却是捏造的。这甚至包括文章中使用的“引号”。
以下是OpenAI提供的示例:
大多数技术可以被用于有害的目的,但这并不意味着进步应该停止。计算机丰富了我们的生活,但我们需要严格的法律法规来限制它们更邪恶的一面。
以下是OpenAI看待进步的一些方式,比如它自己对社会的益处:
AI写作助手
更有能力的对话代理
无监督的语言间翻译
更好的语音识别系统
相反,以下是一些负面影响的例子:
生成误导性新闻文章
模仿别人的网络
自动生成在社交媒体上发布的滥用或伪造内容
自动生成垃圾邮件/钓鱼内容
一些进步,我们直到它们被开发出来才会彻底了解它们的影响。在提出他著名的方程式时,爱因斯坦没有想到有一天它会被用来制造核武器。
广岛仍将是人类历史上最严重的灾难之一,我们希望它继续成为有关使用核武器的警告。人们理所当然地对旨在制造流血事件的事情抱有禁忌,但社会破坏也可能是毁灭性的。
我们已经生活在一个充斥着机器人和虚假信息的时代。有些是外国用来影响政策和散布混乱的,而有些是用来散播恐惧和推动议程的。
因为这些运动不是为了杀戮而设计的,所以它们的影响会产生更多的脱节。仅在过去的一年里,我们就看到孩子们在边境与家人分离,难民们在学校受到同学们的“水刑”,原因是欺骗性的反移民运动。
目前,这类活动至少有一定程度的问责制。在这一过程的某个地方,有人发表了正在阅读的文章,如果发布了错误信息,他可能要对后果负责。
人工智能就像OpenAI所创造的那样,使得追究某人的责任变得困难得多。文章可以在网上大量发表,从而改变一个话题的公众舆论,这具有可怕的影响。
捏造文章的想法,再加上深度伪造的图片和视频,应该足以让任何人脊背发凉。
OpenAI已经承担了自己的责任,并做出了正确的决定,在这个时候不公开其最新的研究成果。希望其他AI玩家也能效仿OpenAI的做法来考虑影响。(编译/吉吉)
原文:
https://www.artificialintelligence-news.com/2019/02/15/openai-latest-research-societal-impact/