到目前为止,大多数人都是在科幻故事中遇到机器人。(不算那些能在大学校园里送餐或为你做拿铁的机器人。)但在不远的未来,在现实世界中与机器人互动将变得更加普遍。届时,机器人将需要社交技能来与人类进行恰当的互动。
然而,令人惊讶的是,在确保机器人能够进行社交方面,即使是基本的社交,也鲜有研究。但麻省理工学院(MIT)的一个研究团队已经接受了这一挑战:这些科学家开发了一个机器人框架,其中融入了社交互动,使机器能够理解我们如何帮助——或阻碍——我们的同类。
“机器人很快就会在我们这个世界生活,它们真的需要学会用人类的方式与我们沟通,”麻省理工学院计算机科学与人工智能实验室InfoLab Group负责人、研究作者之一Boris Katz在新闻稿中说。“它们需要理解何时是它们需要提供帮助的时候,以及何时是它们需要观察自己能做什么来阻止某事发生的时候。”
模拟社交
在该科学家的这个新框架下,他们能够定义三种类型的机器人:0级机器人只有物理目标,无法进行社交推理。相比之下,1级机器人同时拥有物理目标和社交目标,但假设其他机器人只有物理目标。而2级机器人则同时拥有物理目标和社交目标,并且也假设其他机器人也同时拥有这两种目标。科学家们推测,这些更高级别的机器人是那些已经与其他机器人配合良好的机器人——并且可能也能与人类很好地合作。
为了测试这个框架,研究人员创建了一个模拟环境,其中一个机器人观察另一个机器人,猜测另一个机器人的目标,然后根据自己的目标选择帮助或阻碍该同伴机器人。
该团队创建了98个不同的场景,在这些场景中,虚拟机器人根据对其他机器人目标的猜测,相互帮助或阻碍,然后将这些目标与自己的目标相结合。后来,当人类观看机器人互动视频时——这些视频被描绘成一系列计算机动画——他们对机器人目标的预测,在很大程度上与机器人对彼此的预测相符。
Katz说,这项实验是教导机器人识别人类目标并与人类互动的一个小但重要的步骤。“这是非常早期的工作,我们才刚刚触及皮毛,”Katz在新闻稿中说,“但我认为这是理解人类和机器进行社交互动意味着什么的第一步,而且是非常认真的一步。”
更友善的AI?
除了训练机器人,这项研究未来可能在人工智能领域之外也有应用。研究作者之一、麻省理工学院大脑、心灵与机器中心研究科学家Andrei Barbu指出,无法量化社交互动会在许多科学领域造成问题。
例如,与我们能够轻松准确地测量血压或胆固醇不同,目前没有量化方法来确定患者的抑郁程度或精确评估患者在自闭症谱系上的位置。但Barbu表示,由于抑郁症和自闭症在某种程度上都涉及社交障碍,像这样的计算模型可以提供客观的基准来评估人类的社交表现,并可能更容易开发和测试这些疾病的药物。
训练人工智能的一个有据可查的问题是,仅仅通过提供海量数据来训练模型,会产生非常强大的人工智能——但这种AI也倾向于带有性别歧视和种族歧视。麻省理工学院团队认为他们的方法可能是一种避免这个问题的方式。“孩子们不会因为他们95%的数据来自特定肤色的人,就认为他们父母的肤色比其他所有人都优越,”Barbu说,“但这些大规模模型得出的结论恰恰相反。”
通过学习估算他人的目标和需求,而不是仅仅基于海量数据进行关联和推断,这种新的机器人训练方法最终可能会创造出与人类利益更一致的AI。换句话说,它可能会创造出更友善的AI。
与此同时,该团队正计划使模拟环境更加逼真,包括一些允许机器人操作家用物品的环境。有一天,当机器人成为你的同事、家政人员,甚至可能是你的看护者时,你可能希望它能像人一样与你沟通。这项研究是帮助机器做到这一点的第一步。















