信息裸奔的现代,个人的隐私安全到底如何保障?相信这是所有消费者的普遍关心的热点,固然科技进步带来了生活方式的大变革,但倘若要以个人隐私泄密作为代价,这是你期待的吗?
2018年年末,关于亚马逊智能音箱泄露用户隐私的消息顿时登上了各大媒体头条,这俨然也引起了新一波的恐慌。一名名叫Martin Schneider的智能音箱用户,要求亚马逊给出自己使用Alexa智能音箱的语音记录,几个月之后,但当亚马逊向他发送链接时,他还获得了一位陌生人的1700个音频文件。
于是乎,智能音箱也成功上演了一出“监听门”。眼瞅着事态愈演愈烈,朝着不可预期的方向发展,当事人亚马逊也终于坐不住了。姗姗来迟的道歉,但亚马逊却以“人为错误”概述了整件事情的经过,这俨然让人失望了些。尽管实质意义上来讲,任何人都不能避免失误的发生,难道用户隐私的泄露不应该得到重视吗?缘何智能音箱能记录一个人的全部生活,甚至就连个人隐私也无时不刻的被智能音箱监听,这显然值得深思。
360集团董事长兼CEO周鸿祎表示,现在智能音箱开始融入很多家庭的日常,为我们的生活带来了一定便利,但大家有没有想过智能音箱可能会变成窃听器?
“现在智能音箱开始融入很多家庭的日常,为我们的生活带来了一定便利,但大家有没有想过智能音箱可能会变成窃听器?”在昨天举办的中国人工智能学会“人工智能与安全专委会” 成立大会上,360集团董事长兼CEO周鸿祎当选首任专委会主任,他表示,智能音箱变身窃听器并不是科幻电影里的场景。
据他介绍,360与浙大合作发现了一种“海豚音攻击”,该攻击人耳无法听见,但通过超声波信号可以劫持智能设备的语音控制系统,再利用麦克风的硬件漏洞,就可以悄悄开启语音助手,把智能音箱变成窃听器,窃取用户隐私。
此外,“海豚音攻击”还可用于攻击多种拥有语音助手的智能设备,包括智能手机、智能手表、智能汽车等。伴随着越来越多的智能设备介入我们的生活,人工智能面临的安全问题也令产学研各界持审慎态度。
周鸿祎指出,人工智能是个热词,也是未来的大势所趋。但当下的人工智能技术并不完善,存在四大冰点:
首先、前端传感器可以被干扰。人工智能广泛依赖音视频采集、红外感应、激光雷达等各类传感器。但这些传感器自身并不安全,能够被干扰,造成人工智能识别和决策失误。“海豚音攻击”就是干扰语音传感器的方式之一。
其次、人工智能的数据样本可以被污染。目前人工智能采用深度学习模型,黑客可以构建畸形输入或者污染训练数据集,进行“数据投毒”,导致人工智能出错。比如,通过给智能汽车输入“污染”过的训练样本,就可以把“禁止通行”的交通标志牌识别为“可以通行”,从而造成交通事故。
第三、内部算法可以被欺骗。人工智能本质上是一种用大量数据训练出来的概率判断系统,其内部复杂的计算逻辑和决策过程还不透明,可以被欺骗或绕过。周鸿祎表示,人工智能也许可以有99.99%的概率保证识别是正确的,但是对于安全来讲,它只要出现一次识别错误,就会造成严重后果。
最后、实现平台有漏洞。周鸿祎介绍,当下的人工智能系统都依赖开源的深度学习框架,存在大量漏洞,当前360研究人员已经发现了40多个深度学习框架的软件漏洞。