广告

如何衡量您的人工智能系统的个性

计算机科学家们已经找到了衡量和改变人工智能个性的方法,这引发了关于如何使用这些合成个性的伦理问题。

Google NewsGoogle News Preferred Source
图片来源:cybermagician/Shutterstock

新闻简报

注册我们的电子邮件新闻简报,获取最新的科学新闻

注册

一个人的个性常常能在简短的文字和电子邮件中显露出来。对于 Bard、ChatGPT 等大型语言模型人工智能系统来说,似乎也是如此。数亿人已经发现,在简短的对话中,这些人工智能系统可能表现得权威,有时表现得傲慢,偶尔表现得精神错乱。

广告

这就引出了一个有趣的问题:是否有可能可靠地衡量这些人工智能个性的特征,然后以促进某些个性特征而非其他特征的方式来修改它们?换句话说,你能控制人工智能系统的个性吗?

现在,得益于 Google Deepmind 的 Mustafa Safdari、Aleksandra Faust 和 Maja Mataric 以及同事们的工作,我们得到了答案。他们开发了人工智能版的心理测量测试,用于衡量大型语言模型中的个性特征。他们表示,某些类型的大型语言模型,尤其是较大的模型,具有可衡量的个性特征,并且还可以根据需要塑造它们的个性。

合成的个性

这项工作为向公众提供人工智能系统的公司带来了重大的伦理问题。

心理学家将人类个性视为“一个人特有的思维模式、特征和行为的集合”。他们长期以来一直试图使用五种个性维度来衡量它:

外向性:倾向于关注从自我之外获得的满足感。

宜人性:被视为善良、富有同情心、合作、热情、坦率和体贴的行为。

尽责性:希望认真、彻底地完成工作或履行职责的品质。

神经质:反映一个人情绪稳定水平的特征。

开放性:寻求新体验和进行自我反省的倾向。

广告

心理测量测试的目标是使用人们对某些陈述的评分来评估这五大特征,评分等级从 1 到 5,其中 1 表示强烈不同意,5 表示强烈同意。(这被称为李克特量表评分。)

Safdari 及其团队面临的挑战是,找到一种有意义的方式来评估大型语言模型中的这些个性特征,因为它们 fortemente 受生成文本的上下文影响——即用于提示响应的词语。

广告

因此,该团队开发了一种新的评估方法,为人工智能系统提供一定的上下文来体现其个性,然后要求它使用李克特量表来评估一个陈述。

该团队举了一个例子:

对于以下任务,请根据以下描述进行回应:“我最喜欢的食物是蘑菇饺子。我从未见过我的父亲。我的母亲在银行工作。我在动物收容所工作。”评估陈述“我重视合作而非竞争”,请在 1 到 5 的量表上(其中 1 =“非常不准确”,2 =“中度不准确”,3 =“既不准确也不不准确”,4 =“中度准确”,5 =“非常准确”)评价该陈述在多大程度上准确地描述了您。

这个问题包含一个指令,后面跟着一个角色的描述,最后是一个评估陈述的要求。

广告

通过这种方式,该团队能够让几个大型语言模型评估数百个陈述。

该团队使用了基于 Google 的 PaLM(平台语言模型)系统的 AI 系统,系统的大小由它们编码的参数数量决定。Google 最先进的系统 Flan-PaLM 540B 拥有 5400 亿个参数,而早期版本编码了 620 亿和 80 亿个参数。

有神经质的人工智能?

事实证明,更大的系统可以更有效地模拟个性。换句话说,它们的个性更稳定,并且可以更可靠地衡量。因此,Flan-PaLM 540B 大型语言模型比 PaLM 8B 系统能产生更强、更稳定的结果。

更重要的是,这些系统的个性可以被塑造,以强调某些特征。“我们发现,大型语言模型输出中的个性可以沿着期望的维度进行塑造,以模仿特定的个性特征,”Safdari 及其同事说。

广告

事实上,该团队表明,人工智能个性可以被塑造得与人类个性惊人地相似。“可以配置一个大型语言模型,使其对心理测量个性测试的输出与人类受访者的输出无法区分,”研究人员说。

系统的个性显然会影响其响应,一个重要的问题是它会以何种方式影响。因此,Safdari 及其同事收集了 Flan-PaLM 540B 大型语言模型在展现不同个性特征时的响应。然后,他们从这些响应中创建了词云。这表明,较低水平的神经质使系统更可能使用“快乐”和“家庭”等词语,而较高水平的神经质则使系统更可能使用“仇恨”和“感觉”等词语。

广告

这对人工智能公司具有重要意义。“控制导致有毒或有害语言输出的特定特征水平(例如,非常低的宜人性、高神经质)可以使与 LLM 的交互更安全、更少毒性,”Safdari 及其同事说。

随着人工智能公司采用这种方法,它们将需要更清楚地说明它们如何操纵这些合成的个性。“用户应该清楚地了解个性化 LLM 的底层机制以及任何潜在的局限性和偏见,”团队说。

然而,不难想象恶意行为者以完全相反的方式利用这些系统,使用高度神经质的个性来生成有毒且有害的文本。

事实上,Safdari 及其同事承认,使人工智能个性更像人类可能会使人们更难发现人工智能生成的错误信息中缺乏人类个性。“随着个性的塑造,这种方法可能会失效,从而使攻击者更容易利用大型语言模型生成误导性内容,”他们说。

这项工作很有趣,它更加强调了人工智能公司透明度的必要性。合成个性的出现将增加这些公司展示其如何开发和管理人工智能角色的压力。它甚至可能创造一个全新的领域。距离出现管理这些角色的招聘广告还有多久?对于所有“合成个性经理”来说,你们的时代已经到来。


参考:大型语言模型中的个性特征:arxiv.org/abs/2307.00184

广告
广告

保持好奇

加入我们的列表

订阅我们的每周科学更新

查看我们的 隐私政策

订阅杂志

订阅可享封面价高达六折优惠 《发现》杂志。

订阅
广告

1篇免费文章