广告

会玩捉迷藏的机器人学会了撒谎

了解机器人欺骗的最新进展,这款机器人能够 75% 的时间欺骗搜寻者。这是人工智能的未来吗?

Google NewsGoogle News Preferred Source

新闻简报

注册我们的电子邮件新闻简报,获取最新的科学新闻

注册

它往左边假装,往右边移动。但这个欺骗者不是跑卫,这也不是足球。认识一下最新的撒谎机器人。佐治亚理工学院的科学家 Alan Wagner 和 Ronald Arkin创造了两个轮式机器人,它们彼此玩捉迷藏。然而,躲藏者拥有搜寻者所不具备的东西:一段允许它在某些情况下撒谎的编程算法。这个撒谎机器在这方面也相当不错,在简单的测试中,它可以在四分之三的时间里骗过天真的搜寻者。设置如下:躲藏者有左、中、右三个位置可供躲藏。还有三根直立的标记,意图是如果躲藏机器人决定躲在左边,它就会跑过左边的标记;如果决定躲在右边,就会跑过右边的标记。搜寻机器人知道这一点,因此它会寻找倒下的标记的线索来预测其目标藏在哪里。

广告

然而,不幸的红色搜寻者并不知道,黑色机器人早有准备。一旦它通过了彩色标记,它就改变了方向,藏在了完全不同的地方,留下了错误的线索,在研究人员进行的 20 次试验中有 75% 的时间骗过了红色机器人。五次失败的试验是由于黑色机器人难以推倒正确的标记。 [Wired.com]

这是机器人欺骗革命的最新发展,这场革命几年前就已经开始

:

2007 年,瑞士研究人员发现,被编程为从经验中学习的机器人会在某些条件下自发地进化出相互撒谎的习惯。但是故意植入欺骗的想法是新的。 [ScienceNOW]

当然,如果你担心未来机器人会反抗它们的创造者,它们正在学会撒谎这一事实可能无助于减轻你的担忧。Wagner 回应说,欺骗不一定是坏事。

在实际应用中,研究人员描述了可能需要欺骗的情况,例如在搜索和救援中,机器人可能需要安抚惊慌的受害者。他们还说,在战场上使用的机器人将受益于能够误导敌人的能力。 [CBS News]

Arkin 是思考赋予机器更多撒谎甚至杀戮自主权的道德困境的主要思想家之一。特写文章《终结者如何知道何时不应终结?

》出自 DISCOVER 的五月号,重点介绍了他的一个项目,他称之为“道德监护仪”。在未来的战争中,自主军事机器人需要运用人类士兵所拥有的判断力,以避免袭击平民并决定释放多少火力。他的道德监护仪将是一套指导机器人决策的编程规则——例如,禁止它亵渎墓地或宗教建筑,即使敌人聚集在那里,机器人也不会开火。那么欺骗呢?Arkin 坦承,撒谎的机器人有“有益和有害的方面”。他欢迎就是否应该或可能限制欺骗进行辩论,但这不太可能阻止对即将来临的 天网

的担忧。一项关于这项工作的文件将发表在 International Journal of Social Robotics

广告

上。相关内容:DISCOVER: the Body Shop: Where Life-Like Androids Are Born

(照片) DISCOVER:机器人的崛起并未如我们所料

广告

DISCOVER:机器人进化并学会撒谎

DISCOVER:人类对我们的机器人后代的殷切期望

图片:佐治亚理工学院

保持好奇

加入我们的列表

订阅我们的每周科学更新

查看我们的 隐私政策

订阅杂志

订阅可享封面价高达六折优惠 《发现》杂志。

订阅
广告

1篇免费文章