在2017年海军陆战队彭德尔顿营地举行的“舰对岸机动探索与实验先进海军技术演习”中,一架无人军事机器人从美国海军陆战队两栖车辆中驶出。图片来源:Jamie Arzola 下士。一次关于致命自主武器的联合国会议令那些希望世界能在监管或禁止“杀手机器人”技术方面取得进展的倡导者感到失望。联合国政府专家组甚至都未能触及定义何为致命自主武器的皮毛。但与其试图创建一个包罗万象的杀手机器人定义,他们下次可能最好将重点放在人类在控制此类自主武器中的作用上。这种将重点放在人类在战争中作用的想法得到了许多专家和非政府组织(如国际红十字会)的支持。它将把焦点放在士兵和军官的法律和道德责任上,他们可能在不久的将来协调军事无人机群或向机器人坦克排发布命令。而且它避免了在人工智能和机器人技术发展速度远超每年只开会一次的联合国机构缓慢运转的齿轮时,试图定义致命自主武器所面临的挑战。
“人们提出的一个批评,而且是正确的批评,就是如果你今天根据现有的技术状态制定禁令,你可能在不久的将来就错了,”新美国安全中心(CNAS)技术与国家安全项目主任、即将于2018年春季出版的《无人军队》一书作者保罗·沙雷(Paul Scharre)说,“在致命自主武器这个领域,你可能错得非常离谱。”
一个非军事的例子,说明人工智能技术发展速度如何迅速超越监管讨论,来自DeepMind Lab的AlphaGo程序。在2016年上半年,AlphaGo通过击败围棋这项古老棋盘游戏中的顶尖人类选手,打破了仅仅几年前的专家预测。2017年,DeepMind发布了升级版的AlphaGo,名为AlphaZero,它在四小时内学会了下棋,并随后击败了最顶尖的专业国际象棋电脑程序。在人工智能取得惊人进展的同一时期,国际社会尽管召开了几次关于致命自主武器的联合国会议,却几乎没有取得任何成就。最近一次于2017年11月举行的联合国会议——涉及致命自主武器系统政府专家组——除了同意在2018年再次召开为期10天的会议并准备再次进行之外,几乎没有取得其他成就。https://www.youtube.com/watch?v=pGsdaqpq-5w
禁止杀手机器人的绊脚石
对于寻求禁止致命自主武器的倡导者来说,一个大问题是他们没有得到最有可能部署和使用此类自主武器的主要军事强国的支持。许多顶尖的人工智能研究人员和硅谷领导者呼吁禁止自主武器。但非政府组织(NGO)在试图说服世界军事巨头避免将致命自主武器纳入其军火库时,大多没有得到各国政府的支持。“你有一批非政府组织,基本上是在告诉主要民族国家——如俄罗斯、中国和美国等一些大国都表示人工智能将是国家安全和未来战争的核心——它们不能拥有这些武器,”沙雷说。“军事强国的反应是,‘我当然会负责任地使用它们,你凭什么这么说?’”这似乎与过去对致命自主武器禁令可能成功的预期是一致的。2016年10月,位于伦敦的查塔姆研究所智库举行了一次角色扮演演习,设想中国成为第一个在战争中使用致命自主武器的国家。那次演习侧重于美国、以色列和欧洲国家的观点,结果发现扮演各国政府的专家中,没有人愿意签署哪怕是临时性的自主武器禁令。“阻止杀手机器人运动”等非政府组织指出,至少有22个国家希望达成一项具有法律约束力的协议来禁止致命自主武器。但沙雷指出,这些国家都不是开发部署致命自主武器所需人工智能技术的主要军事强国。https://www.youtube.com/watch?v=jO_PPwJIf-0
俄罗斯对禁令说“不”
事实上,俄罗斯可能已经为任何潜在的杀手机器人禁令挖好了坟墓,因为它宣布不会受任何关于致命自主武器的国际禁令、暂停或监管的约束。《国防一号》的记者帕特里克·塔克(Patrick Tucker)描述了与联合国政府专家会议同时发布的俄罗斯声明,内容如下。
俄罗斯11月10日的声明无异于一次老谋深算的尝试,旨在破坏任何旨在达成禁令的进展。它认为,定义“致命自主机器人”过于困难,尚不必要,而且是对合法技术发展的威胁。
塔克接着引用了几位匿名专家的话,他们参加了联合国会议,抱怨为期五天的会议甚至没有触及定义致命自主武器这一基本步骤。就杀手机器人的定义达成共识似乎是基本的问题,但在某种意义上,这是政府代表确保他们不是在各说各话的必要条件。“一个人可能想象的是一台装有枪的Roomba,另一个人可能想象的是终结者,”沙雷说。
杀手机器人如何改变人类士兵
或许俄罗斯和美国等主要军事强国将能够更好地就向未来的自主武器群发布命令的人员的义务和责任达成一致。但即使他们成功了,潜在的陷阱依然存在。最大的挑战之一是,杀手机器人的崛起可能导致军事领导人或个别士兵在向未来的战场释放杀手机器人后,对自己行为的责任感降低。“让我担心的是,如果我们达到这样一个地步:人类负有责任,但人类实际上感觉他们不再是杀戮和做决定的人了呢?”沙雷说。https://www.youtube.com/watch?time_continue=1&v=OixSNQp0S_k 军事专业的核心是做出使用武力的决定。作为一名前美国陆军游骑兵,沙雷表示担忧,致命自主武器最终可能在士兵的个人责任感和使用潜在致命武器的行为之间造成更大的心理距离。然而他指出,关于这些对军事职业道德的未来影响,很少有文章提及。换句话说,世界最终可能会澄清人类在使用致命自主武器时如何在战争中承担道德和法律责任的法律框架。但杀手机器人的崛起仍然可能导致军事领导人和个别士兵对那些承受武器后果的人缺乏同情和克制——并使他们更容易忘记自己的道德和法律责任。“我认为技术迫使我们思考人类在战争中做出致命决策的作用这一根本问题,”沙雷说。














