我在东京排队等候参观一个旅游景点时,一个小型机器人开始对人群说话。这个机器人长得像《杰森一家》中的Rosie,目的是在人们等待时逗乐他们。它絮絮叨叨地说了一会儿,然后它的眼睛变成了两颗粉红色的心。“我爱大家,”它宣布道。

(图片来源:meunierd/Shutterstock)
“哦,是吗?”我讽刺地回应道。我忍不住了。“大家?这太虚伪了。”
这个东京的机器人是众多让我感到厌烦的机器人和其他形式的人工智能(AI)中的一个。我并不孤单。三十多年来,科学家们一直在研究对机器人的憎恨。研究发现,许多人将机器人视为“他者”,而对机器人的憎恨可能导致破坏、攻击甚至“机器人欺凌”。
人工智能是否对人类构成威胁?
在美国,机器人和人工智能的历史相对较短,但一直充满争议。随着20世纪50年代自动化水平的提高,一些人认为机械化是让生活更美好或更轻松的方式。另一些人则认为这是一种威胁。对那些读了很多科幻小说的人来说,机器人可能会抢走他们的工作,甚至统治世界。
到了20世纪90年代,信息检索代理变得普及,但它们并不总是功能完善,而且有时比帮助更令人烦恼。微软在1996年推出了虚拟助手Clippy,它因在不恰当的时候弹出并提出令人恼火的问题而闻名,例如:“看起来你正在写一封信。需要帮忙吗?”一项研究描述Clippy“在判断用户何时真正需要帮助方面存在致命缺陷”。
21世纪初,人工智能变得更加实用。人们转向搜索引擎来检索信息,全球定位系统(GPS)也得到了广泛应用。但人工智能也变得更加个性化。科技公司推出了像Jabberwacky这样的聊天机器人,它们可以与用户互动并做出回应。
像Siri或Alexa这样的“语音社交代理”现在已经成为许多用户日常生活的一部分。与之前的聊天机器人类似,它们的设计目的是模仿人类的沟通规范,并学习和模仿我们的行为模式。
对一些用户来说,让Alexa播放80年代的音乐是一种便利。但对另一些人来说,这可能是一种不良行为的机会。
阅读更多:机器人和人工智能起源于古代神话
机器人欺凌:严厉的言语辱骂
在人们向Siri或Alexa提出无礼问题之前很久,21世纪初聊天机器用户就已经表现出骚扰的倾向。这种人类对机器人不良行为是机器人欺凌的一个例子。
2008年,一项发表在《Interacting with Computers》杂志上的研究分析了用户如何与Jabberwacky互动。Jabberwacky是一个在线聊天机器人,于1997年推出,并在随后的十年里获得了超过1000万条回复。
为了分析对话,研究人员选取了一个时间样本,即他们选择了一个特定的日期(2004年11月22日),然后分析了该时期发生的所有互动(716次对话)。
AI滥用
在分析对话内容时,作者发现有些用户很友好,或者对测试系统及其能力感到好奇。但许多人并不友好。在AI滥用的较低级别上,一些用户喜欢告诉Jabberwacky它只是一个计算机,或者纠正它的语法。
然而,大约10%的互动涉及侮辱性或冒犯性语言。另有11%是性露骨的,或者正如研究人员所描述的:“严厉的言语辱骂是这些对话中的常态,这些对话更像是肮脏的独白,而不是热烈的聊天。”
作者们得出结论,因为聊天机器人缺乏记忆和推理能力,所以它们提供了一种让人们在看似无害的方式下违反社会规范的途径。但研究发现,在其他情况下,人们将机器人或AI视为威胁,从而导致“反机器人攻击”。
机器人欺凌:肢体攻击
从物理意义上讲,机器人欺凌,比如攻击,究竟是什么?学者们将“反机器人攻击”分为几个类别。肢体攻击、决策能力损害(例如,干扰传感器)、操纵、故意忽视和安全漏洞。还有一个非常具体的类别——“为在线传播而 staged 机器人攻击”,其中包括一些恶作剧,比如订购由机器人送达的食物,等待机器送达然后踢它,或者扯下它的小旗子。攻击者随后将视频发布到互联网上。

(图片来源:JHVEPhoto/Shutterstock)
AI取代工作
那么,为什么有人会踢送餐机器人呢?学者们发现,这背后有复杂的动机。自19世纪初以来,人们就一直在攻击那些威胁要取代工人的机器。一些反机器人情绪继续源于人们感到机器人对其生计构成的威胁。
人们还将机器人视为“他者”,意味着它们不是我们中的一员,但我们却被要求接受它们进入我们的生活。同样,人们可能将某个特定的机器人与他们不喜欢的组织或公司联系起来。
阅读更多:数字工作者可能对人类劳动力意味着什么
对机器人的恐惧
而且,由于这项技术相对较新,人们可能会产生不信任和愤世嫉俗的态度。2022年发表在《Personality and Individual Differences》杂志上的一项研究衡量了高中生对AI的感受。研究人员使用“愤世嫉俗地敌视AI量表”,让659名参与者完成了一项关于他们对AI感受的调查。
研究发现,一个人对AI持愤世嫉俗的态度并不意味着他们普遍愤世嫉俗,或者对其他人也愤世嫉俗。当参与者觉得AI具有敌意或怀有负面意图时,他们对AI的不信任感会增加。
无辜的良心
认为机器可能怀有负面意图的信念,体现了机器人仇恨的复杂性。人们相信机器可以被编程成有害的,但他们也明白机器人没有意识,如果我们对待它们不好,它们也不会感到痛苦。
一位学者认为,机器人“不具有道德考量”是人们对机器人仇恨感到心安理得的原因之一。我们的讽刺不会伤害机器人的感情。送餐机器人被踢不会留下心理创伤。因此,机器人可以成为人们(如Jabberwacky用户)打破社会规范的一个安全场所。
有时……机器人和AI似乎就是来找茬的。那些被编程来模仿人类沟通的设备,可能会用一种傲慢的方式来回应。研究人员现在正在探索设备如何才能更好地拟人化,以唤起用户的同情心。
阅读更多:研究表明人类与机器人的关系看起来是怎样的















