广告

仿人机器人的未来

我们的专家小组表示,拥有自己的机械仆人可能比你想象的要早得多。最大的问题是:它们应该有多像人类?

Google NewsGoogle News Preferred Source

新闻简报

注册我们的电子邮件新闻简报,获取最新的科学新闻

注册

肖像由帕特里克·哈布伦绘制

广告

当谈到家里有一个机器人时,人类似乎不愿满足于简单的解决方案:一个带轮子的机械箱。相反,我们似乎痴迷于让设备尽可能地像我们。不仅在外形上,而且在它说话、走路、思考和感受的方式上。我们应该将此推进到什么程度?一个仿人机器人应该有多像人类?最近,《发现》杂志与迪士尼研究院合作,召集了一批杰出的机器人研究人员来探讨这个问题。

查尔斯·珀蒂

主持人兼《美国新闻与世界报道》资深作家。珀蒂曾为《旧金山纪事报》撰稿,曾任美国科学作家协会主席。他拥有加州大学伯克利分校天文学学位。

埃里克·C·哈塞尔廷

华特迪士尼幻想工程研发高级副总裁,负责所有技术项目和虚拟现实工作室。他还构思了《发现》杂志每月一期的“神经探索”专栏。

乔·恩格尔伯格

HelpMate Robotics的创始人兼董事长,该公司生产一种成功的快递机器人,可在医院内运送餐食和药品。恩格尔伯格正在为老年人开发一款仆人伴侣机器人。

川村和彦 范德堡大学智能机器人实验室负责人。他和他的同事们正在开发各种服务机器人,包括一个名为ISAC的仿人机器人,它可以握手、舀汤和演奏特雷门琴。

塞巴斯蒂安·瑟伦 卡内基梅隆大学机器人学习实验室的联合主任。他开发了一系列交互式机器人,包括MINERVA,它曾带领数千名游客参观史密森尼博物馆。

广告

马文·明斯基 麻省理工学院人工智能实验室的联合创始人,该实验室开发了一些最早的基于智能的机器人。明斯基是人类智能里程碑式著作《心智社会》的作者,也是科幻小说《图灵选项》的合著者。

约翰·麦卡锡 斯坦福大学计算机科学教授。他于1955年创造了“人工智能”一词,并共同创立了麻省理工学院人工智能实验室。他还编写了Lisp,这是人工智能领域最重要的计算机编程语言。

广告

乔·赫克特 北卡罗来纳州立大学多学科研究助理教授。赫克特评估技术进步的长期影响。他还编辑了一本关于工程社会和伦理方面的新IEEE书籍。

艾伦·C·舒尔茨 华盛顿特区海军研究实验室智能系统部门负责人,舒尔茨一直致力于进化机器人、机器人系统学习和自适应系统领域的研究。

查尔斯·珀蒂:我想首先要明确的是“仿人”机器人的确切定义。埃里克,我们在这里谈论的是什么?

埃里克·哈塞尔廷:当然,首先想到的是机器人看起来像人。但在我看来,拓宽定义很重要。它的行为像人吗?如果你看看仿人机器人的成本,包括所有的机械部件、尺寸等等,很可能第一批经济实惠的仿人机器人不一定看起来像人,但仍然会像人一样行为、互动和表达情感。

广告

查尔斯·珀蒂:乔,你制作机器人已经很久了。你觉得呢?

乔·恩格尔伯格:嗯,我对仿人机器人很感兴趣,但我认为它不必是《斯蒂芬福妻子》里的那种。外表对我来说意义不大。如果你能获得支持我们生活方式的行为,并将其定义为“主仆关系”,那么你就完成了任务,而且在不久的将来这是可以实现的。我不确定仿人机器人除了像我们一样生活、处理我们的工具、处理我们的数据和像仆人一样服务我们之外,还有什么真正的价值。我们可以用我们的想象力来拟人化它。

查尔斯·珀蒂:卡兹,你制造机器人,服务机器人。它们现在可以被称为仿人机器人吗?

川村和彦:嗯,我对“仿人”这个词有些问题。在此之前,我对“机器人”这个词也有问题。对我来说,机器人是我们尚未拥有的一种智能机器。至于仿人,那只是存在于我们想象中的东西。问题是人们倾向于立即想到《机械战警》或《终结者》。

广告

查尔斯·珀蒂:塞巴斯蒂安,你造了一个能在博物馆里带队游览的机器人。你能解释一下你为什么要给它装一个头吗?

摄影:戴维斯与斯塔尔

广告

塞巴斯蒂安·瑟伦:我喜欢区分两种机器人。一种是《星际迷航》中那种仿人机器人——在外形上与人类无法区分。第二种可以称为“人机混合体”,即有意使用人类某些特征但显然是机器人的机器人。第一种类型很有趣,但现在确实没有必要这样做。地球上人类并不短缺,而且人类仍然是 unskilled labor 能够很好地生产的东西。我认为机会在于第二种类型。我们发现界面在机器人中极其重要。如果你建造一个人们会进行短期互动的机器人,你最好让它与人们熟悉的事物联系起来。

查尔斯·珀蒂:我们预测,30年后将出现能像人一样走路、说话并拥有情感的机器人。它们会带你的孩子去踢足球,告诉你早上什么时候起床,并帮你挑选杂货。它们甚至会坐下来和你聊聊你和妻子或丈夫相处得怎么样。但如果我们连自己的大脑如何运作都不了解,又怎么能制造出如此智能的东西呢?马文,你觉得呢?这样的未来可能吗?

马文·明斯基:哦,我确定这有可能,尽管无法预测需要多长时间。我们也不需要了解大脑的所有工作原理,因为可能存在更简单的方法。但在我看来——我不同意小组里大多数人的看法——建造看起来像人,从而唤起情感反应的机械机器人只是浪费时间。这并没有带来任何关于如何完成能让机器真正智能的重要事情的知识进步。关键问题是如何赋予计算机我和约翰·麦卡锡所说的“常识推理”。今天没有“活生生”的机器人知道一般性的事情,比如如果你松手,东西就会掉下来。没有机器人知道可以用绳子拉东西,但不能用绳子推东西。诸如此类的小事。一个5岁的孩子平均知道几十万件这样的事情,一个成年人知道几百万件。今天只有少数人在研究常识推理,所以你无法说机器人多久才能真正变得智能。

查尔斯·珀蒂:约翰,我们一直在讨论界面问题,以及机器人是否应该成为伴侣,甚至成为社会成员。你对此有何看法?

约翰·麦卡锡:嗯,我基本同意马文的观点。编程情感可能比编程智能更容易。请允许我阐述一下迄今为止提出的几个观点。想象一下,我们有机器人仆人会做家务,再想象一个出生在有机器人仆人的家庭中的孩子。在我看来,机器人需要被设计成被视为电器而不是人。我们不希望机器人让人们憎恨或爱上,或者类似的事情。我们对其他人已经有足够的麻烦去得体对待了,不需要再制造一个新的受压迫的少数群体。此外,我们尚未达到开发通用家庭仆人的范围。还有概念性问题需要解决。从某种意义上说,人工智能领域的大部分都在走错了路,我相信我也在走其中一些。

乔·恩格尔伯格:我想强调约翰的观点,这些机器人应该被视为电器,但我强烈不同意我们尚未能开发出家用服务机器人这种说法。人工智能研究界没有意识到我们现有技术的强大。我认为家用机器人是一种电器——它可以做饭、清洁、提供帮助、处理安全、取物和运送、通过自然语言响应我的指令,并进行85岁老人那种对话。我们现在就能做到。

广告
广告

塞巴斯蒂安·瑟伦:我们当然有能力建造一个机械助手,但我不太相信我们能为这样的机器人在私人住宅等多种环境中执行如此广泛的任务,而建造必要的“大脑”。从某种程度上说,我同意约翰的观点。在情感上与人建立联系比让机器人真正智能更容易。

查尔斯·珀蒂:乔·赫克特,我们这里有点争论。让机器看起来和行为像人类是否存在伦理维度?

乔·赫克特:是的,我认为是这样。我们非常擅长技术的“如何”,但在“为什么”方面却不那么擅长。我特别担心有人建议我们应该制造如此像人类的机器人,无论是在智能还是情感方面,以至于它们与人类无法区分。在短期内,这使得人们更可能回避与人类接触。我们已经看到了这一点——我和其他人一样对此感到内疚——在我们的电脑和电视上。技术在提供与他人联系可能性的同时,也提供了将我们与他人隔离开来的可能性。如果我有一个机器人作为最好的朋友,那么我拥有一个人类作为最好的朋友的可能性就会降低。

马文·明斯基:那又怎样?

乔·赫克特:嗯,我宁愿有一个人做最好的朋友。

马文·明斯基:是的,但为什么呢?你不是以个人身份说话,而是以伦理学家的身份说话。假设机器人拥有人类所有的优点,而且更聪明,更懂得事物。那么你为什么要更喜欢那些肮脏的老人呢?乔·赫克特:嗯,首先,我怀疑机器人是否会有那些优点。

广告

马文·明斯基:你可以怀疑,但你的根据是什么?现在你不是以伦理学家的身份说话,而是以怀疑论者的身份说话。假设机器人将拥有人类所有的优点,甚至更多。那么你持什么立场?

乔·赫克特:嗯,那是一个我无法接受的假设。例如,我无法接受机器人会拥有伦理道德。只有人类才能拥有伦理道德。但让我们假设马文和我刚才争论的都能实现。那么我看到人类生活被贬值会带来严重问题。如果我们能拥有具备我们所有美德、能更高效地完成工作且从不抱怨的机器人,那我们还需要不完美的人类吗?我担心最危险的人将是社会边缘化的人——穷人、少数民族,也许还有女性,以及发展中国家的人们。

广告

马文·明斯基:达尔文开始宣传他的理论时,他们也是这么说的。如果人类生活有更好的替代品,我不认为它的贬值有什么问题。

查尔斯·珀蒂:达尔文和进化论把我们带到了你,艾伦。你正在研究遗传算法和其他方法来实际培育出更好的机器。你认为进化会在机器人的发展中发挥作用吗?如何发挥作用?

艾伦·舒尔茨:从工程学的角度来看,是的。为机器创建程序非常困难。我将进化视为一种构建程序的方法,并让它们在部署后继续学习和适应。让程序本身通过与世界的实验来学习如何做它自己的事情——如果你愿意,可以称之为试错。其他人正在研究实际进化的硬件——他们使用可以自我重新布线的电路。我们实验室里的机器人通过在模拟中尝试许多事情来学习解决任务,那些表现更好的程序可以“复制”并创造下一代机器人程序,希望它们能更适应。

查尔斯·珀蒂:更进一步来说。这些发明会自己发明出来吗?我们将来会取代自己吗?

广告

艾伦·舒尔茨:我希望我们不会取代自己。不过,也许那是我的目标。我没有看到机器人自行繁殖;我不是想描绘那样的画面。但是机器人可能会聚在一起交换一些软件:“嘿,我有一个好方法可以做这个,”一个机器人说,另一个回答说:“嗯,我有一个更好的方法。”如果这导致了更好的机器人,那么这就是适者生存。

埃里克·哈塞尔廷:事实上,在你所做的一些工作中,程序是自行设计的,我们无法预测会发生什么。进化一直是一个强大的随机过程,我们正是通过它才走到了今天。例如,我们可以将机器人视为人类进化的另一个阶段。关键是,我们不知道。

艾伦·舒尔茨:然而问题是,它真的能变得有知觉吗?我只是不知道。

埃里克·哈塞尔廷:它不必变得有感知能力就能摆脱我们。它可能只是做某件事,是它某种其他欲望的附带现象。

广告

川村和彦:我建议,为了让仿人机器人被社会接受,它们必须对人类绝对安全,具有情感,并且有道德。

约翰·麦卡锡:乔治·奥威尔写道:“总的来说,人类想做好事,但不要太好,也不要一直都很好。”也许我们可以让机器人比人类更好。我不明白为什么我们不能将它们编程得非常道德——比我们更道德。但我不认为我们真的想模仿人类情感的某些特征。例如,一个人对什么是值得的看法会受到一个人的血液状况和疲劳程度的影响,而不仅仅是对事态的理性评估。

广告

埃里克·哈塞尔廷:你知道,如果伦理问题的支点是贬低人类状况,我们应该看看它的反面。在多大程度上,机器人技术有可能提升人类的价值?事实是,如果你谈论穷人、妇女和少数民族等等,如果机器人足够强大和便宜,那么整个社会的人口生产力都会提高,这将赋予每个人力量。不仅如此,通过让人们专注于他们独特擅长的事情,这可能有助于他们超越自我。

查尔斯·珀蒂:你预见仿人机器人最令人印象深刻的应用有哪些?它们还有多远?有什么障碍?

塞巴斯蒂安·瑟伦:在清洁服务、娱乐等领域,现在有一些机器人可以做20年前无法做到的事情。医院里也有机器人。如果我推断一下,我认为未来会有更多这样的情况。最大的需求领域之一是老年人。老年人入住养老院的首要原因是关节炎。人们再也打不开冰箱了,他们无法操作微波炉。我怀疑行业在这方面没有更快发展的原因之一是,人们还没有意识到机器人实际上是可行的。投入到机器人上的资金非常少。如果我们能投入今天汽车投入资金的1%,那么五到十年内,一个在家辅助你的机器人就会成为现实。

乔·恩格尔伯格:他说得对。今天,一个有用的仿人机器人唯一的障碍就是钱。我们有感官知觉,我们有语音识别和语音合成,我们有足够的计算能力。我们拥有一切工具。有人应该能够理解,制造一个个人助理机器人是一个价值数十亿美元的机会:它将创造一个比整个工业机器人市场大得多的市场。老年人会为了能够在家中独立生活而争相获得24小时仆人的机会。距离在年老体弱者家中进行实际测试只剩下500万美元和27个月的时间。然而,我却很难找到一个愿意合作的实业家。

艾伦·舒尔茨:我要 disagree 一点。乔,你说我们有能够感知环境的设备。我不知道你们其他人怎么想,但我们目前在机器人领域面临的最大问题之一是,我们没有眼睛以及其背后所需的处理能力。

乔·恩格尔伯格:等等。让我告诉你我们的“眼睛”。我们有一个带有脖子、点头、识别和测距的“眼睛”系统。但没有人将其商业化。

广告
广告

塞巴斯蒂安·瑟伦:对我来说,实际上并不清楚我们是否需要人类级别的视觉来建造乔刚才描述的那种机器人。我们的CD换碟机不用眼睛和手臂来操作CD。我们可以在没有人类级别视觉的情况下自主飞行和降落飞机。而且我们的飞机也不像鸟。我们今天可以建造一系列有用的服务机器人。市面上有优秀的图像理解系统。

艾伦·舒尔茨:即使我能买得起一个好的图像理解系统和一个好的传感器套件,这些部件的成本也只占总成本的一小部分。关键在于将这些部件整合起来,使其作为一个系统运行。

川村和彦:艾伦说得对。如何将零件组合在一起是关键问题。想想制造汽车。如果让你制造一辆新车,你会说:“好的,我有本田最好的发动机,福特最好的车身,通用汽车最好的传动轴,等等”吗?然后当你尝试将它们组合在一起时,它却无法工作。整合并非总是那么容易。我们迄今为止尚未讨论的一件事是“半机械人”技术。一种用于没有中央视力的人的生物电子助手——人造眼睛——将在2010年左右问世。半机械人更有可能在仿人机器人之前出现。

埃里克·哈塞尔廷:我想这个小组的任何人都不会否认,人类拥有能够代替人类完成某些家务的机械设备是件好事。但关于机器人是否应该像人类一样,是否应该拥有人类的情感,将会持续进行大量讨论。一个支持让它们更像人类的论点是,人类与技术之间的鸿沟正在扩大。技术变化如此之快,而人类变化如此缓慢。什么能弥合这个鸿沟?从人类的角度来看,它必须是某种熟悉的东西。

艾伦·舒尔茨:但为什么不在我们头后长两只眼睛呢?我们都希望我们头后有眼睛。

埃里克·哈塞尔廷:因为那是直觉。如果你想让人适应技术,你必须走到人们所在的地方。你不想把人们带到技术面前。

广告

马文·明斯基:没错,它们必须有点熟悉,但没有人会在烤面包机上挂脸。我们大多数电器都不像人。对我来说,新的观点是,我们不希望人们学会指挥那些看起来像人的仆人,因为那会传染。如果你命令家用机器人做一些不可言喻、令人厌恶或仅仅是无聊的事情,你就会习惯命令其他人。而且大多数人际互动已经很糟糕了。人们撒谎,欺骗,做各种可怕的事情。我们必须小心,不要说事情现在这样就好,我们希望它们保持原样。

查尔斯·珀蒂:而且我们不想教会机器人变坏。

广告

乔·恩格尔伯格:机器人没有必要邪恶,除非像马文所说,我们故意在它们身上产生邪恶。

埃里克·哈塞尔廷:与任何技术一样,滥用的可能性是存在的,而且无疑会发生。机器人将像黄金时段的电视节目一样,根据市场中的进化力量而发展。不管我们喜欢与否,我们作为人类的需求将决定机器人的形态。

欲了解更多关于圆桌会议参与者的信息,请点击以下链接:艾伦·舒尔茨:www.aic.nrl.navy.mil/~schultz; 川村和彦:mot.vuse.vanderbilt.edu/ece/~kawamura.htm 或智能系统中心:shogun.vuse.vanderbilt.edu/CIS 乔·赫克特:www4.ncsu.edu/unity/users/j/jherkert/jrh.html; 乔·恩格尔伯格:www.helpmaterobotics.com 塞巴斯蒂安·瑟伦和机器人学习实验室:www.cs.cmu.edu/~rll 马文·明斯基:www.media.mit.edu/~minsky 约翰·麦卡锡:www-formal.stanford.edu/jmc

保持好奇

加入我们的列表

订阅我们的每周科学更新

查看我们的 隐私政策

订阅杂志

订阅可享封面价高达六折优惠 《发现》杂志。

订阅
广告

1篇免费文章