敬请关注 YOLO Vision 2025!
2025年9月25日
英国夏令时 10:00 - 18:00
混合活动
Yolo Vision 2024
词汇表

Deepfake

探索 Deepfake 的技术、应用和伦理问题,从娱乐到虚假信息。了解检测和 AI 解决方案。

使用深度学习技术创建的合成媒体被称为深度伪造(deepfake)。该术语是“深度学习”和“伪造”(fake)的合成词,指的是将一个人的肖像和声音替换为另一个人的视频或录音,通常具有高度的真实感。这是通过在目标个人的大量现有图像和视频上训练神经网络来实现的,以学习和复制他们的面部表情、举止和语音模式。

Deepfake 背后的技术

Deepfake 生成主要依赖于两个关键的机器学习概念:生成对抗网络 (GAN)自编码器

  • 生成对抗网络 (GANs): GAN 由两个相互竞争的神经网络组成:生成器和判别器。生成器创建虚假图像(例如,视频中换脸的帧),而判别器尝试确定图像是真实的还是虚假的。这种对抗过程迫使生成器产生越来越逼真的假图像,从而欺骗判别器。这项技术是现代生成式 AI的基石。
  • 自动编码器:此方法使用编码器-解码器架构。 在两个不同的人的镜头上训练两个自动编码器。 为了执行换脸,第一个人的图像通过第一个编码器运行,然后使用在第二个人身上训练的解码器进行解码。 这会生成第二个人的图像,其中包含第一个人的表情和方向。 该过程通常从目标检测模型(如Ultralytics YOLO)开始,以在开始交换过程之前定位视频中的人脸。

应用和现实世界的例子

虽然通常与恶意用途相关联,但 deepfake 技术具有一些合法的和创造性的应用。

  • 娱乐和媒体:该技术可用于将电影无缝地配音成不同的语言,使演员的口型与新的对话相匹配。它还可以对演员进行去老化或以数字方式重建历史人物以用于传记片,正如 Industrial Light & Magic 等公司所探索的那样。
  • 合成数据生成:创建逼真但人工的数据集是一个强大的应用。例如,人脸的合成数据可用于训练计算机视觉模型,以执行诸如面部识别之类的任务,而不会损害真实个人的数据隐私。这有助于提高模型的鲁棒性并减少数据集偏差

伦理挑战与检测

滥用的可能性使深度伪造成为一个重要的伦理问题。该技术可用于制造令人信服的假新闻、传播政治虚假信息、实施欺诈以及生成未经同意的露骨内容。这些风险凸显了制定健全的 AI 伦理负责任的 AI 开发 原则的重要性。

作为回应,深度伪造检测领域应运而生,在生成方法和检测方法之间形成了一场技术竞赛。研究人员和公司正在开发 AI 模型,以发现深度伪造算法经常留下的细微视觉伪影和不一致之处。“Deepfake Detection Challenge”等倡议和“Partnership on AI”等组织正致力于提高这些检测能力,以减轻该技术的负面影响。公众还可以使用诸如 Intel FakeCatcher 之类的工具来识别生成的内容。在当今的数字环境中,学习如何判断图像是否由 AI 生成正成为一项基本技能。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入
链接已复制到剪贴板