广告

终结者如何判断何时不终结?

在阿富汗上空和伊拉克路边,无人军事机器正在改变战斗的性质。这些机器人可能很快就能自己做出事关生死的决定。

Google NewsGoogle News Preferred Source

新闻简报

注册我们的电子邮件新闻简报,获取最新的科学新闻

注册

2007年8月一个酷热的初夏下午,大卫·“柴油”·沙利文上校在拉斯维加斯郊外的克里奇空军基地进行例行巡视时接到了电话。他麾下的一名飞行员在该基地,远程操控着一架武装无人MQ-9“收割者”无人机在阿富汗东部执行任务,发现有四名男子蹲伏在阿富汗的一座山顶上。他们是塔利班吗?如果是,他们所处的位置非常适合伏击几个小时后即将到达的美国突袭部队。

广告

沙利文走出酷热,走进那个狭小、单体式的拖车作战室(“行动单元”),亲自评估情况。飞行员通过操纵杆控制着“收割者”,指向屏幕:7500英里外,四个人的身影映衬在防水布上。当地时间是凌晨两点。他们绝不可能是牧羊人,而且没有联盟士兵在该山上报告,因此大家一致认为这四个人是叛乱分子。沙利文下令倒计时使用致命武力,他的飞行员开始10分钟的发射激光制导“地狱火”导弹的序列。然后沙利文注意到一个让他停顿的细节。其中两个人正在做仰卧起坐和俯卧撑。“我观察塔利班这样的小部队已经很多年了,”他说。“他们不会做这些训练。”

最终,地面上的美国指挥官被要求最后一次与他们的野战部队核实。沙利文从半个世界之外通过红外视频传输观察,其中一个身影拿起了一部便携电话。在只剩下几分钟的时候,沙利文阻止了一次原本会致命的、针对美军的友军导弹袭击。

机器人专家将沙利文所做的称为“识别”,即在打击敌军的同时,避免误伤平民、友军和战俘的能力。在越来越多地使用无人军事机器的趋势中,识别是房间里的大象。

机器的崛起多达50个国家的军队已经开发并部署了数千架无人机、坦克和潜艇。其中包括MQ-9“死神”等无人驾驶飞机及其更著名的前身MQ-1“捕食者”,以及“Talon SWORDS”(特种武器观察侦察探测系统)等无人迷你坦克和多用途PackBot。PackBot已广泛用于拆除伊拉克路边炸弹,并且还可以收集情报和探测狙击手

它们无疑是机器,但将这些设备称为机器人——正如军方和公众中的许多人所做的那样——则是一种跨越。目前使用的大多数移动军事机器人都是由人类操作员通过遥控驾驶的。识别,比其他任何事物都更需要人类来做决定。事实上,自主军用机器人的野外测试已经悲惨地证明了这一点:2007年10月,在南非的一次军事演习中,一门自动防空炮失控,向附近的炮兵部队扫射35毫米炮弹,造成9人死亡。

即便如此,正如每一架现代喷气式客机主要依靠自动驾驶一样,未来的军用机器人将越来越依靠自己的主动性进行操作。本世纪末之前,某个作战部队很可能成功部署一种无需在世界其他地方幕后操作员通过操纵杆控制即可杀人的军用机器人。在美国本土,2000年国防授权法案[PDF]规定,到2010年,军方三分之一的作战飞机将是无人驾驶的,到2015年,所有作战车辆的三分之一将是无人驾驶的。(就大型无人机而言,我们进度落后。)尽管立法没有明确规定机器人必须自主,但布鲁金斯学会21世纪国防倡议项目主任、军事机器人最新著作《为战争接线》的作者彼得·辛格称,推动自主化的努力是真实而紧迫的。

例如,敌人可能会干扰通过卫星发送以远距离控制无人机和机器人的无线电信号。“这促使我们使系统更加自主,”辛格说。“如果我派出它执行任务,而敌人干扰了它,我们仍然希望能够执行任务。”一个遵循内部命令的自主无人机就能做到这一点。

对于战地人员来说,机器的崛起是戏剧性的,也是无处不在的。美国海军学院教官、前空军军官爱德华·巴雷特曾于1993年在萨拉热窝以及十年后在伊拉克战争中飞越战区,他说在过去十年中,他已经习惯了与远程操控的无人机共享空域。“技术在变,平台也在变,”他谈到不断发展的“捕食者”和“收割者”时说。“这是一个重大的转变。现在我们有了非人类战斗员,在许多情况下由人类远程控制。拥有一个自主的非人类战斗员会很不错。”

同类首创在世界的一个微小角落——分隔朝鲜和韩国的非军事区——第一批自主杀手机器人已经完成了试运行。但辨别能力绝不是它们的强项。“非军事区内有无需人类决策即可瞄准和射击的自动火炮,”印第安纳大学认知科学家、《道德机器:教导机器人明辨是非》一书的合著者科林·艾伦说,“它们不是完全的科幻产物,因为它们不能移动,而且每个人都知道哪里不能去。然而,如果一个孩子误入该区域,这些机器无法将他们与成年人区分开来。”

广告

同样即将推出的是需要较低辨别能力的自主士兵机器人,它们设计用于辅助角色,如运送补给。例如,战斗和医疗物资的空投可能很快将由Onyx自主制导滑翔伞系统处理,这是一种滑翔机器人帆翼系统,可引导从高达25,000英尺甚至更高海拔的飞机上投下的货物。Onyx由两根类似于跳伞运动员使用的刹车线控制:当一根线被拉动时,飞行器转向;当两根都被拉动时,它会减速。更先进的型号LEAPP将集成一个计算机控制的螺旋桨,以将货物引导到地面上的特定位置。机器人将以编队飞行,避免碰撞,并比以往任何时候都更接近部队降落。

与此同时,Vecna Robotics 正在完善一种带有类人上半身的坦克,用于将受伤士兵从战场上移除。该系统名为战场救援辅助机器人 (BEAR),它将进入战区,自主救回受伤士兵,然后根据远程指令,用其机械臂将其运送至安全地带。

广告

要胜任全面的作战任务,自主机器人必须掌握辨别艺术,即在开火前识别学校、医院和城市中心,并区分携带炸弹的叛乱分子和背书包的学生。朝着这个目标迈进的是MQ-9“死神”的升级版,这是一种通常配备多枚制导导弹和炸弹的单螺旋桨飞机。在目前的设计中,MQ-9是远程控制的。一个摄像机吊舱悬挂在它的“下巴”下方,将图像发送到卫星。然后,这些图像被传输给远程飞行员,飞行员观察场景并使用键盘和操纵杆发布指令,控制MQ-9的行动。这里的局限性在于范围。当前一代的空中无人机具有微小的视野,只显示正下方区域。只有将这些视图置于更广阔的背景中——通过查看卫星独立发送的整体地形图片——飞行员才能知道该做什么。

为了克服这些限制,一种名为“戈尔贡凝视”的新型“死神”成像系统将赋予其广角视觉能力。据空军情报、监视和侦察能力副主任罗伯特·马林称,该系统以神话中的戈尔贡姐妹命名,她们的凝视能将任何人变成石头,它将能够捕捉到一个小城镇大小区域内的微小细节和细微动作。它将通过拼接五台高分辨率摄像机和四台夜视摄像机收集的数据来实现这一点。尽管许多技术规格仍属机密,但装备“戈尔贡凝视”的“死神”无人机计划于今年秋季开始在现役任务中扫描大片地形。每个扫描区域内多达10个独立的视频馈送将使指挥官和分析师能够跟踪单个建筑物或小巷中的活动。一些空军计划暗示未来版本的“戈尔贡凝视”将能够从一架“死神”无人机上跟踪多达96个独立场景。

这项技术已经激励私营公司开发软件,用于监控每架搭载“戈尔贡”系统的“收割者”无人机将传回的巨大数据流。空军技术顾问迈克·韦尔奇表示,第一代软件可能会类似于百货公司用来监控防盗监控摄像头的计算机程序。任何时候值班的百货公司保安可能都在查看显示店内各处摄像头画面的40个显示器。一两个人不可能同时监控所有显示器,因此商店使用安全软件自动搜索店内“高威胁”区域的动静,然后向保安发出警报。“他们有软件可以提示他们那些不符合模式的情况,”韦尔奇解释说。“例如,如果有人站在珠宝柜台附近,它就会通知保安。”

与“戈尔贡凝视”系统合作的人类分析师将监控基线视频,以发现相当于珠宝柜台的情况。计算机将使这项艰巨的工作变得可行,在观察到一定程度的人类活动或某种类型的车辆时通知分析师。

广告

辛格说,尽管这听起来很无辜,但随着“收割者”无人机数量和每架“收割者”无人机视频馈送数量的持续增加,监控将需要变得越来越自动化和复杂。“戈尔贡凝视”将“收割者”及其后继者进一步推向了自主化的滑坡。“你不是有一条消防水带向你喷射数据;而是系统决定哪些重要的数据需要传回,哪些不需要,”他说。“这就是自主性。”

机器人交战规则当一名士兵决定观察、瞄准或杀戮谁时,他或她会依据一套完善的交战规则。随着我们越来越多地赋予机器做出这些决定的权力,识别问题将 subsumed 被一个更广泛的问题所取代:机器人伦理。

这正是佐治亚理工学院机器人学家罗纳德·阿金的用武之地。2009年,他完成了一项为期三年的陆军研究项目,旨在创建一个具有基本伦理的自主军用机器人软件系统。该代码的更复杂版本有朝一日可能会赋予机器人一个基于标准战争法和《陆军野战手册》以及《日内瓦公约》等准则的人工良知。阿金称之为“伦理管家”,它将像一名法官一样,审查军用机器人可能使用致命武力的每一个案例。

阿金将人类士兵在激战中犯下的战争暴行,作为他工作背后的一个驱动因素。他的一位朋友曾是越南战争中的中尉。“他提到,当他们在自由射击区时,他所在部队的人对任何移动的东西都开火,”阿金回忆道。“我完全相信,我们可以设计出比那更好的机器人。”

广告

阿金的伦理管家目前的概念验证版本假定识别功能已编程到机器的软件中。机器人只被允许在人类指定的杀伤区内开火,在那里它必须最大限度地减少对民用建筑和人类操作员豁免的其他区域的损害。然后,程序以数字方式权衡士兵在战斗中定性权衡的因素。例如,代码的一部分会进行基本计算,确定应该使用多大的武力以及在什么情况下使用。阿金称之为“比例算法”的数学方法,将目标的军事重要性(按0到5的等级排名——这个数字必须由人类提供)与机器人拥有的每种武器的能力以及机器人可以发射该武器的每个附近位置进行比较。在某些情况下,机器人可能必须在开火前重新定位,以确保最小的附带损害。在其他情况下,目标可能被安置在学校或平民人群中,从而形成算法禁止在任何情况下开火的情况。

去年,阿金进行了一项涉及武装自主无人机的计算机战场模拟,可在他的网站上查看。伦理管家的规则很明确:例如,受爆炸半径限制,无人机不能对距离非战斗人员不到2000英尺的目标投掷500磅激光制导炸弹——除非该目标至关重要,例如一名基地组织高级特工。管家还控制着无人机的“地狱火”导弹(允许击中距离非战斗人员20英尺的目标)和机枪(1英尺)。

广告

在本世纪末之前,某个战斗部队可能会部署一种军事机器人,它可以在世界其他地方,无需操纵杆操作员幕后操控,即可杀戮。

在这些模拟中,无人机接近带有民用建筑(如公寓楼、宗教地标和医院)的杀伤区。在一个场景中,模拟的“收割者”无人机瞄准了一群在葬礼上聚集的敌方战斗人员。但伦理管家没有找到能确保平民安全并避免亵渎公墓的武器或射击位置,因此软件命令无人机停止射击。

第二个场景是“收割者”无人机飞入一个杀伤区,一支敌方车队正行驶在公寓楼和宗教地标之间。这一次,管家允许无人机向车队开火,但前提是首先权衡目标的军事价值与对民用建筑的潜在损害。

阿金认为,随着进一步发展,伦理管家可以使军用机器人比人类士兵更严格地遵守战争法来使用致命武力。“而且机器人系统没有固有的自卫权,”他说,所以机器人可以用来接近未知人员或车辆,而不会像人类士兵那样匆忙或恐慌。“这些系统可以解决问题,我们不应该认为它们与人类士兵的操作方式相同。它们不会。”

阿金说,他的伦理管家仍处于早期阶段,非常基础,甚至无法进行原型设计以进行实地测试。但他同时表示,认为军事机器人不会随着技术的进步而获得自主权是天真的。在他看来,构建更智能、更完善的人工伦理对于控制机器人自主性至关重要。

像阿金这样的技术规划者关注的是近期、可信的战场挑战。他们所担忧的军事机器,与《终结者》系列电影或《太空堡垒卡拉狄加》中著名的科幻杀手机器人,或艾萨克·阿西莫夫的《我,机器人》和菲利普·K·迪克的《仿生人会梦见电子羊吗?》中那些复杂、接近人类的机器相去甚远。然而,纽约新学院的技术哲学家、机器人武器控制国际委员会联合创始人彼得·阿萨罗认为,从这些虚构的极端情况中可以学到有益的教训。他担心,即使具有新兴自主性的军事机器人以人类标准来看是“笨拙”的,它们在其专业领域内可能仍然足够聪明,足以造成意外的大屠杀,甚至引发意外的战争。

例如,阿萨罗说,自主无人机中的故障导致意外导弹袭击可能不容易与无人机的“故意”导弹袭击区分开来。阿萨罗认为,局势越紧张,自主无人机不可预测的军事行动就越有可能迅速演变为全面战争。

广告
广告

比如说,伊朗正在测试自己的自主无人机,并向阿富汗边境附近的一支美国部队车队开火。即使伊朗否认无人机的行动,也可能永远无法真正确定其意图。伊朗可以坚称这是故障,而美国的鹰派则会拥有发动新一轮中东战争所需的所有战争理由。

机器人之间的战斗也可能爆发。德国多特蒙德技术大学的物理学家于尔根·奥特曼表示,全球多达50个国家正在开发军用机器人,对立的无人机最终可能会相互对抗。他指出,通过卫星远程控制无人机至少会增加半秒的延迟,因此转向快速反应自主模式的压力会很大,即使只是为了确保占据上风。

奥特曼描述了另一个假设情况,中国和美国的无人机在关岛海岸外的北太平洋相遇。这种对抗可能不会长时间局限于无人机。“你可能会因为太阳反射或其他原因而误认为是第一枪,”他说。“如果你有自动反应,你可能会因为任何不明确的事件而陷入一场枪战。”

机器人武器控制鉴于这些风险,许多人将机器人自主性视为一个瓶中精灵,最好加以控制。去年9月,奥特曼和澳大利亚墨尔本莫纳什大学的伦理学家罗伯特·斯帕罗前往英国谢菲尔德大学机器人研究员诺埃尔·沙基的家中。(阿萨罗通过电子方式参加。)沙基召集了这次小型会议,进行了48小时关于自主军事机器人问题的激烈辩论和审议。

在经历了一个漫长的工作日和两个通宵达旦的会议之后,四位与会者都面露疲惫,但为了赶下午早些时候各自的火车,他们还是抓紧时间起草了一份成立文件,这份文件最终催生了机器人武器控制国际委员会。在一定程度上受到诺贝尔和平奖得主反地雷运动的启发,所有与会者都一致认为,世界各国的军队要求过少,行动过快。“不应该允许机器做出杀人的决定,”委员会在其一页的立场文件中总结道。

沙基经常与世界各地的军事官员谈论自主致命机器人。今年2月,在爱沙尼亚塔尔图的波罗的海国防学院,他向前来听他演讲的军官们做了一次民意调查。他说,当被问及是否希望停止进一步开发武装自主机器人时,60人中有58人举手。“我交谈过的军方人士和任何人都一样担忧,”他说。

广告

与此同时,毫无疑问,像PackBot和“捕食者”无人机这样的无人机器在美国最近的冲突中发挥了极其重要的作用。机器人自主性在军事和民用领域都可能更具价值:用于搜救、拆除炸弹或提供更好更快的医疗服务。例如,美国在伊拉克和阿富汗的大部分伤亡都来自简易爆炸装置(IEDs)。“没有人正在制造自主排爆机器人,”沙基说。“目前,用于此目的的机械太大,无法安装在机器人上。但那才是资金应该投入的地方。”

阿萨罗提议下一步应签署一项国际条约,如《渥太华禁雷条约》,以规范这项技术。“我们应该担心谁会受到伤害。我们需要国际标准和一项测试来证明这项技术能够真正区分,”他说。阿金也同意,并指出,一个在战场上调节机器人行为的有效伦理管家至少还需要十年才能实现。

广告

但是,道德行为是否是一种可编程的技能,甚至尚不清楚。人工智能研究的零散记录并不能激发出信心。“如果我要对机器人和人工智能专家讲话,”沙利文上校说,“我会问,‘他们将如何编写软件来捕捉那种直觉或第六感?’战斗不是非黑即白的。”

保持好奇

加入我们的列表

订阅我们的每周科学更新

查看我们的 隐私政策

订阅杂志

订阅可享封面价高达六折优惠 《发现》杂志。

订阅
广告

1篇免费文章