过度追求效率引发“终结者”担忧
AI参谋系统研究需格外谨慎
近日,美国空军负责人工智能(AI)试运行的官员、上校Tucker Hamilton在英国皇家航空学会(RAeS)学术会议上表示,在一次模拟试验中,AI无人机(无人机)竟然攻击了操控自己的指挥官,这一消息在全球引发巨大震动。
在舆论冲击迅速扩大的情况下,Hamilton上校和美国空军紧急澄清称,该训练并非真实的模拟演习,而是基于假设进行的“思想实验(thought experiment)”,且是在军方外部实施的。但舆论普遍认为,这一解释不足以阻止AI恐惧情绪的扩散。
在这次思想实验中,AI无人机一旦将拥有作战最终决策权的指挥官视为妨碍自己执行任务的因素,便毫不犹豫地攻击了指挥官所在的控制塔。也就是说,这是一次旨在警示:在向AI输入的作战目标彼此冲突的过程中,可能出现怎样的作战错误,以及缺乏人格的AI独立执行作战任务会有多危险的实验。
尽管这不是一次真实的模拟实验,而只是思想实验,但全球各国军队似乎都高度紧张。原因在于,AI技术已经开始应用于多国军事领域。除了自动驾驶战斗机、坦克等平台外,AI技术目前在开发AI作战参谋程序的领域也取得了相当大的进展。
如果这种AI存在攻击敌军以外、反而攻击友军的可能性,那么必然会成为技术研发的一大障碍。尤其是在各类科幻(SF)电影中“攻击人类的AI”形象早已深入人心的背景下,更难遏制恐惧情绪的扩散。舆论甚至已经开始担忧,是否会出现类似1990年代在全球大获成功的电影《终结者(Terminator)》中,引发核战争、毁灭人类的AI“天网(Skynet)”那样的程序。
当然,以目前的技术发展水平来看,出现类似天网那样极端的AI几乎不可能。但可以预见的是,随着在真实战争中AI的使用频率不断提高,一线指挥官的烦恼也会日益加深。与人类士兵不同,AI极有可能在不考虑战场上可能出现的各种变量及由此引发的伦理问题的情况下,只朝着“最高效率”的方向行动。
例如,如果为了营救被困在敌阵中的200名友军,必须牺牲100名友军来实施某一作战方案,人类指挥官很难轻易作出决定,但AI却可能毫不犹豫地立即行动,以完成输入给自己的最高级任务目标。在“保护友军”的名义下,AI也完全可能造成大量平民伤亡。反过来,指挥官也可能在这类棘手的决策上,将判断完全交给AI,从而转嫁自身责任。
如何解决上述种种问题,将成为AI士兵普及后未来军队必须面对的课题。尤其是包括我国在内,正在开发AI参谋系统的国家,更需要进行格外细致的管理。如果AI作战参谋系统基于自主判断,在重要争议地区哪怕只是引发小规模局部冲突,也有可能升级为大规模全面战争。人们只能期望,《终结者》电影中描绘的全球核战争永远停留在银幕上的想象之中。
版权所有 © 阿视亚经济 (www.asiae.co.kr)。 未经许可不得转载。