本文由腾讯数码独家发布
图片来源:图虫创意
自主武器系统崛起
随着科技的发展,技术的竞争越来越激烈,在引领新兴科技竞赛和未来战争战场的竞争中,人工智能(AI)正迅速成为大家关注的焦点。正如大家所看到的,自主武器系统(AWS)正在迅速发展,而人工智能武器化的发展成为了一个高风险不可控因素。这不仅给各国带来了复杂的安全挑战,也给人类的未来带来了安全威胁。
如今,人工智能正在引领我们走向一个新的时代同时也把我们领进了一个全新的战场,这个战场没有边界,可能涉及也可能不涉及人类,将控制整个人类生态系统的网络空间、地理空间和空间(CGS)。人工智能武器化带来的风险是肉眼可见的,人工智能无需人类设计者或操作者的进一步干预,可以自主选择和攻击人类和非人类目标,给人类带来巨大威胁。
一旦人工智能武器化,人工智能和武器就会脱离人工参与和干预,只需使用交互的嵌入式传感器、计算机编程和算法,这个有必要引起我们的注意和重视,也是一个不容忽视的现实。
人工智能武器化
随着人工智能、机器学习和深度学习的进一步发展,人工智能从概念到商业化,加上其计算能力、内存、大数据和高速通信的快速发展,不仅带来了市场创新、投资的热潮,也加剧了对人工智能芯片的追求。我们可以看到人工智能正在为战争带来革命性的变革,各国也很重视开发人工智能以及其人工智能自动化武器系统。
当各国在着力发展科学技术,争取在这方面取得竞争优势时,人工智能的进一步武器化是不可避免的。因此有必要为未来的人工智能自主武器系统做好准备。随着科技的发展,人工智能逐步进军事行业,正如我们所看见的,自动化战争已经开始有了苗头,我们有必要做好应对措施。
自动武器系统被认为提供降低武器系统的运营成本的一种方式,特别是通过更有效地利用人力资源,会使武器系统能够实现更高速度、更高准确性、持久性、精度,但同时技术、法律、经济、社会和安全问题仍然不能忽视。
程序员和编程人员扮演的角色
在应对这些复杂的安全挑战和未知的技术是,为了保障人类的安全,最根本的仍然是关注程序员和编程人员在其中扮演的角色。原因是程序员可以在开始时定义和确定AWS的性质,直到AI开始编写自己的程序。
不过设想一下,如果一个程序员有意或无意地编写了一种自动武器,而且这个武器违反了当前和未来的国际人道主义法(IHL),那么人类将如何控制人工智能武器化?而且问题的核心是,谁该为此负责?
网络安全挑战
简而言之算法的安全性不是很可靠,也不能忽视漏洞、恶意软件、恶意操纵带来的危险。虽然自主武器系统存在许多风险和挑战,但我们要重视的是,我们不能让人工智能将推动并决定我们的人类生存和安全战略,我们自己掌控。基于这个问题,Risk Group与Markus Wagner发起了关于自主武器系统的讨论,Markus Wagner是澳大利亚伍伦贡大学(University of Wollongong)的一名出版作家和法学副教授。
接下来我们要做什么?
各国都在科学技术方面卯着一股劲争取在科技领域获得竞争优势,而且人工智能的进一步武器化是不可避免的。重要的是要理解和评估,如果不能阻止,那么就该接受这样一个事实了,仅仅因为技术允许和AWS成功开发,并不意味着我们就应该这样做。如果人工智能武器化不符合人类的利益那就必须暂停。