Yolo 深圳
深セン
今すぐ参加
用語集

ディープフェイク

Explore how deepfakes use GANs and deep learning to create synthetic media. Learn about face swapping, ethics, and detection with [Ultralytics YOLO26](https://docs.ultralytics.com/models/yolo26/).

Deepfakes represent a sophisticated category of synthetic media in which a person’s likeness, including their face, voice, and expressions, is convincingly replaced with that of another individual. This technology leverages advanced deep learning (DL) algorithms to analyze and reconstruct visual and audio data with high fidelity. While often associated with viral internet videos or entertainment, the underlying mechanisms represent a significant milestone in generative AI, demonstrating the capability of neural networks to understand and manipulate complex biological features. The term itself is a portmanteau of "deep learning" and "fake."

ディープフェイクの背後にある技術

The creation of deepfakes predominantly relies on a specific architecture known as Generative Adversarial Networks (GANs). A GAN consists of two competing neural networks: a generator and a discriminator. The generator creates the fake content, while the discriminator evaluates it against real data, attempting to spot the forgery. Through this adversarial process, the model iteratively improves until the generated media becomes indistinguishable from reality to the discriminator.

Another common approach involves autoencoders, which are employed to compress facial features into a lower-dimensional latent space and then reconstruct them. By training two autoencoders on different faces but swapping the decoder part of the network, the system can reconstruct the face of a source individual onto a target's movements. Before any swapping occurs, the system must accurately identify the face in the source video. This preprocessing step often utilizes real-time object detection models like Ultralytics YOLO26 to locate and track the subject's face with high precision.

実際のアプリケーション

While deepfakes are frequently discussed in the context of misinformation, they have transformative applications in legitimate industries ranging from creative arts to medical research.

  • Film and Visual Effects: Major studios use deepfake technology for visual effects (VFX) to de-age actors or recreate the likeness of deceased performers. For instance, Disney Research has developed high-resolution face-swapping algorithms that streamline the post-production process, reducing the need for expensive manual CGI.
  • プライバシーと匿名化:調査報道やドキュメンタリー映画制作において、ディープフェイクは情報源の身元を保護することができる。 は、情報源の身元を保護することができる。被写体の人間性を失わせる可能性のある、単に顔をぼかすのではなく、映画制作者は次のことができる。 合成された実在しない顔を重ね合わせることで、元の顔の表情や感情のニュアンスを保ちながら 表情や感情のニュアンスはそのままに その人物の正体を完全に隠すことができる。
  • 合成データの生成:ディープフェイク技術は、機械学習の学習用に多様な 機械学習モデルを訓練するための モデルを生成するために使用されます。これは特に ヘルスケアAIでは特に有用である。 データ・プライバシー規制(HIPAAなど)が厳しく、実際の患者画像の使用が制限されている。 実際の患者画像の使用が制限されている。
  • Personalized Marketing: Companies are exploring generative video platforms to create personalized video messages at scale, allowing brands to engage customers with content that appears to be spoken directly to them by a spokesperson in multiple languages.

実施例

To create a deepfake or perform face swapping, the first technical step is invariably detecting the face or person within a video frame to define the region of interest. The following Python code demonstrates how to initiate this detection using the ultralytics 図書館

from ultralytics import YOLO

# Load the official YOLO26 model (latest generation) for object detection
model = YOLO("yolo26n.pt")

# Run inference to locate persons (class 0) in an image
results = model.predict("https://ultralytics.com/images/bus.jpg")

# Output the detected bounding boxes for further processing
for result in results:
    print(f"Detected {len(result.boxes)} objects in the frame.")

倫理的配慮と検出

ディープフェイクの蔓延は、AIの倫理に関して重大な問題を提起している。 AIの倫理政治的な偽情報の拡散や同意のない露骨な資料の作成に悪用される可能性があることから 政治的な偽情報の拡散や、同意に基づかない露骨な資料の作成に悪用される可能性があるため、強固な検知システムが求められている。 システムが求められている。研究者たちは 研究者たちは、バイオメトリック・セキュリティ・マーカーを分析する対抗策を開発している、 不規則なまばたきのパターンや、微妙な肌の色の変化による脈拍の検出など、生体認証によるセキュリティ・マーカーを分析し、操作されたメディアを識別する対抗策を開発している。 メディア

Organizations like the Deepfake Detection Challenge have spurred innovation in forensic algorithms. As generation models become more efficient—anticipating future architectures like YOLO26 that aim for real-time, end-to-end processing—detection tools must evolve in parallel. Solutions often involve model monitoring to track the performance of detection algorithms against new generation techniques. Tools available on the Ultralytics Platform can assist teams in managing datasets for training these defensive models.

ディープフェイクと関連概念

It is important to distinguish deepfakes from similar terms in the AI landscape to understand their specific role:

  • ディープフェイクと合成データ:ディープフェイクが合成メディアの一種であるのに対し、合成データはより広いカテゴリーである、 合成データはより広いカテゴリーである。合成 合成データには、自律走行車の運転シナリオのシミュレーションなど、人工的に作成されたあらゆるデータが含まれる。 自律走行車のシミュレー 特定の人間のアイデンティティを置き換える必要はない。
  • ディープフェイクとCGIの比較 CGI(Computer-Generated Imagery)とは、通常、3Dオブジェクトやキャラクターを手作業でモデリングし、アニメーション化したものである。 は、3Dオブジェクトやキャラクタを手作業でモデリングし、アニメーション化する。ディープフェイクは、次のような違いがある。 ディープフェイクは、データセットから学習するニューラルネットワークによって自動的に生成されるため、異なる。 ディープフェイクは、アーティストによって明示的にモデリングされるのではなく、データセットから学習するニューラルネットワークによって自動的に生成される点が異なる。
  • Deepfakes vs. Face Morphing: Traditional morphing is a simple geometric interpolation between two images. Deepfakes use feature extraction to understand the underlying structure of the face, allowing for dynamic movement and rotation that simple morphing cannot achieve.

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加