广告

如何打破信息茧房

推荐算法可能会助长阴谋论,为用户制造虚假信息过滤气泡。但研究人员发现,打破这些气泡比预期的要容易。

Google NewsGoogle News Preferred Source
图片来源:Bits And Splits/Shutterstock

新闻简报

注册我们的电子邮件新闻简报,获取最新的科学新闻

注册

YouTube 等网站公然发布声称疫苗有害、美国政府提前知晓 9/11 袭击、登月是骗局等阴谋论的视频。

广告

那些寻求此类内容的人并不难找到。但更阴险的问题在于,推荐算法会向未曾主动搜索过的用户推送这些虚假信息。事实上,许多评论员抱怨这些算法会制造“虚假信息过滤气泡”,用户在其中被灌输一系列令人担忧的、明显错误的观念。

YouTube 等服务不公开其推荐算法。这使得人们很难知道用户容易陷入虚假信息过滤气泡的程度,以及他们从中脱离的难度。

打破气泡

因此,斯洛伐克 Kempelen 智能技术研究所的 Ivan Srba 及其同事开发了一个机器人系统,这些机器人冒充 YouTube 用户来探究其推荐算法,并探索形成的任何虚假信息过滤气泡的性质。该团队表示,他们的方法揭示了虚假信息过滤气泡的产生方式,同时也表明了如何打破它们——至少在 YouTube 上是这样。

为了理解这些气泡,研究人员首先详细记录了它们。Srba 和同事们训练他们的机器人使用一个包含 2000 个视频的数据集来识别虚假信息视频,这些视频根据是否传播虚假信息、揭穿虚假信息还是中立进行了手动标记。通过这种方式,机器人学会了自己标记视频。

随后,研究人员让机器人进入 YouTube,并编程让它们搜索传播和揭穿五种不同的、明显错误的阴谋论的视频。其中包括 9/11 阴谋论、登月阴谋论和疫苗阴谋论。

在每种情况下,机器人使用一个搜索词来查找传播阴谋论的视频,另一个搜索词来查找揭穿该想法的视频。他们评估了每个类别中排名前五十的视频,以及 YouTube 在每个视频旁边推荐的视频列表。总而言之,机器人评估了约 17,000 个视频。

结果令人不安。Srba 和同事们表示,他们发现阴谋论视频的数量与之前的研究相似,这表明打击虚假信息的努力几乎没有产生影响。

该团队还观察到了虚假信息过滤气泡的形成。当用户观看虚假信息视频时,YouTube 会推荐其他虚假信息视频,这时就会形成虚假信息过滤气泡。“我们的审计表明,尽管 YouTube(以及其他平台)迄今为止付出了最大努力,但仍能在一定程度上促进寻求虚假信息的行为,”Srba 和同事们说。

然而,该团队最有趣的结果是,虚假信息过滤气泡很容易打破。“观看揭穿虚假信息的视频在几乎所有情况下都有助于减少用户看到的虚假信息量,”他们说。

广告

因此,例如,用户可以通过观看一个关于同一主题的基于证据的视频来打破一个传播反疫苗内容的过滤气泡。当然,这只有在用户意识到揭穿虚假信息的材料存在并且能够自己找到它们的情况下才可能。

未知背景

尽管如此,Srba 和同事们的工作扩展了对 YouTube 等网站上推荐内容算法进行审计这项日益重要且持续的任务。

广告

他们的研究引发了关于这些平台应如何审核此类内容的一系列问题。YouTube 会显示维基百科文章来提供关于某些主题(如登月骗局)的背景信息,但并非总是为疫苗阴谋论等其他主题提供。

推荐算法在信息传播中已经发挥着重要作用,并且随着人们在网上和虚拟世界中花费更多时间,它们可能会变得更加强大。

理解它们在虚假信息传播中的作用至关重要,特别是对真实人们的影响。人们如何会上当受骗,多久一次,在什么情况下?这种行为研究将不容易进行。

欧盟已开始关注这一问题(它资助了 Srba 和同事们的研究)。但美国和其他国家缺乏适当的关注。

广告

至少,虚假信息的传播对基于证据的思考和辩论构成了威胁。最坏的情况下,它会不必要地加剧社区的极化,破坏公民社会,并威胁到民主的本质。

还有什么比阻止这一切更重要呢?


参考:审计 YouTube 的推荐算法以发现虚假信息过滤气泡:arxiv.org/abs/2210.10085

保持好奇

加入我们的列表

订阅我们的每周科学更新

查看我们的 隐私政策

订阅杂志

订阅可享封面价高达六折优惠 《发现》杂志。

订阅
广告

1篇免费文章