广告

Facebook 用户实验,引发强烈反响

这家社交网络发现,玩弄情绪可能会很危险。

Google NewsGoogle News Preferred Source
Ted Soqui/Corbis

新闻简报

注册我们的电子邮件新闻简报,获取最新的科学新闻

注册

人们通常不会因为研究而激动,但当 Facebook 在未告知用户的情况下玩弄他们的情绪时,也引发了线下的强烈感受。

广告

六月份,研究人员在《美国国家科学院院刊》上披露,他们操纵了毫无戒心的 Facebook 用户的动态消息,影响了他们感受积极或消极情绪。这项实验的消息激怒了许多用户和隐私倡导者。不久之后,该期刊撤回了发表该研究的决定,并发表了“编辑关注声明”,承认参与者可能不知道自己是实验对象,也没有机会退出。

这项实验于 2012 年 1 月进行了一周,研究的是“情绪传染”——用户的在线情绪是否会影响其他用户的情绪,就像在现实生活中一样。Facebook 使用算法从 13 亿用户中的 69 万用户的动态消息中筛选掉包含积极或消极词汇的帖子。看到积极帖子的用户比看到消极帖子的用户更有可能发布积极内容。

隐私倡导者要求联邦贸易委员会调查 Facebook 的研究行为,因为它在未经用户许可的情况下对人类进行了实验。根据其政策,联邦贸易委员会拒绝就他们是否正在调查此事发表评论。但在事件发生之前,Facebook 悄悄修改了其数据使用政策,允许对用户进行研究——在实验结束后四个月。

哈佛商学院的迈克尔·卢卡表示,大学机构审查委员会可能会批准 Facebook 的实验,他已经获得了批准,可以与其他公司的网站进行类似的秘密实验。这是因为,如果研究只是微妙地操纵人们,没有公然欺骗他们,并且造成的伤害很小,则不需要知情同意,他说。

新闻曝光几个月后,Facebook 表示将加强对科学家的培训,并由其资深研究人员审查有关“可能被认为非常私密”内容的拟议研究,这是 Facebook 首席技术官迈克·施罗普弗在博客文章中的说法。“我们没有为该论文发表时收到的反应做好准备,并认真对待了评论和批评。”

保持好奇

加入我们的列表

订阅我们的每周科学更新

查看我们的 隐私政策

订阅杂志

订阅可享封面价高达六折优惠 《发现》杂志。

订阅
广告

1篇免费文章