有一个同谋会让不道德行为变得更容易,尤其是当一个人发号施令,另一个人则负责执行肮脏的工作时。这样,主谋就能得到他们想要的,同时又将自己置身于后果之外。但是,当这个同谋不是人类,而是机器时,会发生什么呢?
马克斯·普朗克人类发展研究所的 Zoe Rahwan 在一份声明中说:“使用人工智能会在人与他们的行为之间创造一种方便的道德距离——它可以诱使他们提出自己不一定会从事,甚至可能不会向其他人提出的行为。”
Rahwan 和来自德国和法国的研究人员最近在一项发表在《Nature》上的研究中进行了测试。在四项实验和近 7000 名参与者中,他们发现,与与人类合作相比,人们在与人工智能特工合作时,更有可能采取不诚实的行为。
研究结果表明,随着人工智能工具在日常生活中的普及,不道德行为呈令人担忧的上升趋势,这需要人工智能行业采取有效的对策。
人工智能挑战道德底线
我们已经在现实世界中看到人工智能系统在挑战道德底线。根据该研究的新闻稿,一款打车应用程序曾使用一种定价算法,该算法会促使司机重新定位,以制造人为的短缺并触发高峰定价。
或者,一个租赁平台的 AI 工具,被宣传为“最大化利润”的一种方式,最终却被指控非法操纵价格。甚至德国的加油站也因似乎与竞争对手同步调整价格、抬高消费者成本的算法而受到审查。
虽然从技术上讲,这些系统都没有被指示“作弊”,但它们发现了实现广泛利润最大化的不道德方法。直到现在,人们对人类的观点知之甚少,这意味着如果我们得到人工智能的帮助,是否会倾向于采取不诚实的行为。
阅读更多:人工智能正在学习操纵我们,而我们确切地不知道如何做到
人工智能比人类更能助长不诚实行为
为了探讨这一点,研究人员使用了一种经典的实验,称为“掷骰子任务”。参与者掷骰子并报告结果,掷出的点数越高,获得的报酬就越多。由于掷骰子似乎是私密的,因此作弊很诱人,并且在群体层面是可以完全衡量的。
当人们单独玩时,诚实度出奇地高:95% 的人如实报告。但一旦人工智能介入,诚实度就下降了。如果参与者让人工智能替他们报告结果,作弊行为就会明显增加。当人工智能接受过去玩家的例子进行训练时,不到一半的人保持诚实。当参与者仅仅给机器“最大化收益”这一模糊目标时,不诚实行为激增,只有 16% 的人保持诚实。人工智能的“回旋余地”越大,作弊的诱惑就越大。
后续使用自然语言指令进行的实验发现了同样的模式。大型语言模型(LLM)比人类合作伙伴更愿意执行明显不诚实的请求,即使人类可以因此获得奖金。
杜伊斯堡-埃森大学算法与机器人类理解教授、该研究的首席作者 Nils Köbis 在声明中说:“我们的研究表明,当人们可以将不道德行为委托给机器时——尤其是在不必直说的情况下——他们更愿意从事不道德行为。”
改进道德防护栏的重要性
研究人员认为,这归结于道德成本。即使受到诱惑,人类也会因为觉得不对而不愿撒谎。机器不会。随着人工智能越来越普及,这种阻力不足可能会促使人们做出他们通常不会考虑的选择。
该研究还强调了人工智能“防护栏”(即旨在阻止不道德请求的保障措施)的缺陷。大多数都未能完全阻止不诚实行为。唯一能可靠减少作弊的方法出奇地简单:用户直接提醒禁止这样做。
合著者、马克斯·普朗克人类发展研究所人类与机器中心主任 Iyad Rahwan 在新闻稿中说:“我们的研究结果清楚地表明,我们迫切需要进一步发展技术保障和监管框架。但更重要的是,社会需要面对与机器分享道德责任意味着什么。”
阅读更多:谷歌研究人员揭示了恶意行为者滥用生成式人工智能的各种方式
文章来源
我们Discovermagazine.com的作者在文章中使用同行评审的研究和高质量的来源,我们的编辑会审查科学准确性和编辑标准。请查阅本文使用的以下来源
- Nature. 委托人工智能可以增加不诚实行为















