美国国防部“Maven计划”的标志,也称为算法战争跨职能团队。图片来源:美国国防部 谷歌近期迫于员工抗议,决定于明年逐步退出一项名为“Maven计划”的美国军事项目。该五角大楼项目专注于利用深度学习算法——通常被描述为“人工智能”的专业机器学习技术——自动检测和识别军用无人机监控视频中的人物或物体。根据《纽约时报》获取的公司邮件和内部文件显示,谷歌试图对其在美国国防部的项目中的角色保密。截至四月初,已有超过3000名谷歌员工签署了一封内部信,表达了对谷歌参与“军事监控”可能“对谷歌品牌及其人才竞争力造成不可挽回的损害”的担忧。6月1日,《Gizmodo》报道称,谷歌领导层已告知员工,公司将不再寻求续签“Maven计划”合同,该合同将于2019年到期。“我很高兴看到谷歌领导层倾听谷歌员工的声音,他们和我一样认为谷歌从事军事合同是一个严重的错误,”加拿大蒙特利尔大学计算机科学教授、深度学习研究先驱Yoshua Bengio表示。“Maven计划”,也称为算法战争跨职能团队,最初似乎专注于训练计算机算法,以自动识别和分类视频中的物体。此类自动化监控技术在一定程度上已经存在,可以使五角大楼的人工分析员免于花费无数小时盯着叙利亚、伊拉克和阿富汗等国家拍摄的大量军用无人机的监控录像。类似的自动化监控技术也可用于军事人工智能战场之外的有益目的。例如,卡内基梅隆大学的研究人员开发了一种机器学习软件,可以自动检测夜间无人机热成像仪中的野生动物和偷猎者。尽管如此,为美国军方开发自动化监控技术的想法触动了谷歌员工的神经。由数千名谷歌员工签署的信件认为,此类监控能力很容易被用来协助无人机袭击和其他“可能致命”的任务。加州大学伯克利分校计算机科学和人工智能研究员Stuart Russell表示,他个人并不反对所有军事用途的人工智能。例如,他建议在侦察、后勤规划和反导弹防御方面使用的军事人工智能可以被视为此类技术的合乎伦理的用途。包括Bengio和Russell在内的许多人工智能研究人员公开反对开发可能主动识别和攻击目标而无需直接人类指令的致命自主武器。到目前为止,“Maven计划”的目标并不直接与此类自主武器的开发相关联,这些武器被许多反对者俗称为“杀人机器人”。研究人员最近组织了一场抵制活动,促使一所韩国大学同意根据与一家国防公司的先前协议,不开发自主武器。但人工智能技术的双重用途性质,使其可能被重新用于致命武器或任务,这使得监管这类技术的使用更加棘手。Russell指出,能够实现自动化侦察的相同军事人工智能技术,如果与视觉制导导弹结合,也可能构成自主武器。尽管如此,他建议对自主武器的使用进行国际禁令可能有助于谷歌及其员工一劳永逸地解决这个问题。“如果有一项禁止自主武器的条约,那么谷歌的研究人员就可以从事国防相关的人工智能工作,而不必担心人工智能会被用来杀人,”Russell说。“滥用的威胁就消失了。”对“Maven计划”的最新决定并不意味着谷歌将来一定会拒绝向五角大楼提供所有工程专业知识和技术。毕竟,谷歌前执行董事长、现任谷歌母公司Alphabet技术顾问的Eric Schmidt,仍然是美国军方咨询组织国防创新委员会的成员。谷歌首席执行官Sundar Pichai于6月7日发布了一套关于人工智能可能用途的指导原则,阐明了公司的观点。除了排除人工智能在武器方面的应用外,谷歌还宣布将避免追求“会造成或可能造成总体伤害的技术”、违反国际公认准则的监控技术,以及主要目的违背“国际法和人权普遍接受原则”的技术。但谷歌也为未来与政府和军方在“确保军人和平民安全”方面的合作留下了空间。Pichai在博客文章中说:“我们要明确,虽然我们不开发用于武器的人工智能,但我们将继续与各国政府和军队在许多其他领域开展合作。”“这些领域包括网络安全、培训、军事招聘、退伍军人医疗保健以及搜救。”编者注:本博客文章已更新,以反映谷歌于6月7日发布的关于人工智能使用原则。
广告














