在互联网上遇到经过修改的视频和经过Photoshop处理的图像几乎是必经之路。如今,你几乎不可能访问社交媒体而不遇到某种形式的编辑内容——无论是带有滤镜的简单自拍照、经过大量润饰的表情包,还是为了添加音轨或增强某些元素而编辑的视频。
然而,虽然某些形式的媒体明显经过编辑,但其他修改可能更难察觉。近年来,你可能听说过“深度伪造”(deepfake)这个词——它最早出现在 2017 年,用来描述使用深度学习算法创建看起来真实的视频和图像。
例如,以美国前总统理查德·尼克松在阿波罗 11 号团队在月球表面坠毁时的“月球灾难演讲”为例。开个玩笑——那从未发生过。但在一部 2019 年的电影《如果发生月球灾难》中,出现了一个尼克松向牺牲的巴兹·奥尔德林和尼尔·阿姆斯特朗致敬的超逼真深度伪造视频,该视频展示了总统原始演讲令人信服的修改。
其他现任和前任世界领导人,例如约翰·肯尼迪、巴拉克·奥巴马和弗拉基米尔·普京,也成为了深度伪造视频的主题,这些视频中他们似乎说了或做了他们从未说过或做过的事情。尽管近年来深度伪造的兴起已在流行媒体中得到讨论,但关于该主题的学术文献仍然相对稀少。
但研究人员表示担忧,这些被篡改的图像和视频在未来几年可能会带来日益增长的安全风险。上周发表在《犯罪科学》杂志上的一份报告预测,在未来 15 年内,深度伪造将比其他一系列人工智能驱动的技术构成最严重的安全威胁。
“人类有强烈的倾向于相信自己的眼睛和耳朵,”研究人员在他们的结论中写道。因此,当我们消费的媒体看起来过于真实以至于不像是假的,我们就很容易上当受骗。而在线的深度伪造数量仍在持续增长,尽管不总是在你意想不到的地方。
什么构成深度伪造?
“深度伪造”一词不仅指任何逼真的编辑过的视频或图像——更具体地说,这个词是“深度学习”(deep learning)和“伪造”(fake)的结合。这种特定类型的媒体依赖于神经网络来修改音频和视频。
创建深度伪造的技术多年来变得越来越容易获取,出现了一些程序和网站,允许用户制作自己的深度伪造,有时价格不菲。然而,Sensity 的首席执行官兼创始人 Giorgio Patrini 表示,互联网上充斥的许多深度伪造并不那么逼真。Sensity 是一家位于阿姆斯特丹的公司,自 2018 年以来一直研究深度伪造的传播。“原因是它们非常易于使用,而且社区对它们非常了解,维护得也很好,”他补充道。正如 Patrini 所说,他们在“野外”(in the wild)发现的大多数媒体都使用相同的几种方法来修改数字影像。
最近,Facebook 宣布了一项竞赛的结果,专家们在此竞赛中开发了新的算法来检测深度伪造——获胜者能够检测到他们接触到的 AI 修改媒体的 82%。有些深度伪造的创建方法仍然很难被当前的检测算法发现,但 Patrini 说,实际中的深度伪造创作者在制作视频时倾向于使用更便宜、更简单的方法。他补充说,我们现有的检测软件实际上相当成功地筛选了在线的大量媒体。
“我认为我们发现的深度伪造视频中,可能有 99%,甚至更多,是……基于换脸,”他说。“还有其他创建假视频的方法,甚至可以改变语音和口型,[或]改变身体动作。”但到目前为止,Patrini 说,这些并不是深度伪造爱好者最流行的方法,所以目前的算法仍然可以筛除大量 AI 修改的内容。
尽管换脸技术可以应用于任何包含人脸的照片或视频,但深度伪造创作者似乎对一种特定类型的媒体情有独钟:色情内容。绝大多数 AI 修改的视频都是为了将某个主体(通常是女性)的脸部替换到色情明星的身体上——这种现象不成比例地针对女性,并且让人回想起深度伪造的黑暗起源。
色情问题
2019 年,Sensity 以 Deeptrace 的名义发布了一份关于深度伪造状况的报告,当时他们在网上检测到总共 14,678 个 AI 修改的视频。其中,96% 被用于色情内容。
事实上,最早的深度伪造视频也是出于同样的原因制作的。2017 年,Reddit 用户开始发布被篡改的女性名人视频,这些名人的脸被非自愿地换成了色情明星的身体。Reddit 在 2018 年禁止了发布这些露骨深度伪造的用户的行为,但有报道显示,其他道德上有问题的网站和应用程序仍然取而代之。
Patrini 说:“我们离那已经不远了。”尽管政治深度伪造获得了广泛媒体报道,但色情修改一直是网络上流传最广的 AI 修改内容形式。到目前为止,女性几乎总是受害者——Sensity 2019 年的报告发现,100% 被检测到的色情深度伪造都包含女性主体。
就在两个月前,Sensity 在网上识别出总共 49,081 个深度伪造视频——这一趋势表明其数量几乎每六个月翻一番。Patrini 说,最近,他们观察到针对 YouTube、Instagram 和 Twitch 上受欢迎的网络名人或影响者的视频有所增加。“也许一年前我们看到的大部分内容都是来自娱乐业的知名名人,”他说。但深度伪造创作者也正在针对那些活跃在网络上的个人,通常是女性。
我们能阻止其传播吗?
虽然 AI 修改的媒体可能看起来全是坏的,但技术本身并非固有损害。“对许多人来说,深度伪造已经带有内在地负面的含义,”Patrini 说。但其背后的技术可以用于大量的创意项目——例如翻译服务或电影和电视节目的视觉效果。
以尼克松的深度伪造为例。导演并没有提出他们的创作来误导观众,让他们认为历史书上对阿波罗 11 号任务的记载是错误的。相反,这部电影使用了新的实验技术来展示一个可能的替代历史时间线,同时让观众了解深度伪造和视频编辑可以多么逼真。
但这并不是说深度伪造不能误导,也不是说它们还没有被用来进行邪恶的行为。除了广泛使用的非自愿、被篡改的色情内容外,Patrini 说,他还看到越来越多的案例,深度伪造被用来冒充试图开设银行账户或比特币钱包的人。这些过程可能需要视频验证,而深度伪造有可能欺骗摄像头。
Patrini 说:“通过一些技巧,人们实际上可以伪造身份证,还可以伪造他们在视频中的样子。”有时,这意味着以陌生人或假名开设账户,并创建一个不存在的身份。Patrini 说,目前,这种欺骗似乎并不普遍——但这确实代表了深度伪造的一种更险恶的应用。
随着技术越来越容易获取,深度伪造的传播很可能会继续下去。我们只能希望人们选择用它们做好事。














