Glossar

Deepfakes

Entdecken Sie die Technologie, Anwendungen und ethischen Bedenken von Deepfakes, von Unterhaltung bis hin zu Fehlinformationen. Lernen Sie Erkennungs- und KI-Lösungen kennen.

Synthetische Medien, die mithilfe von Deep-Learning-Techniken erstellt wurden, werden als Deepfakes bezeichnet. Der Begriff ist ein Portmanteau aus "Deep Learning" und "Fake" und bezieht sich auf Videos oder Audioaufnahmen, bei denen das Bildnis und die Stimme einer Person durch die einer anderen Person ersetzt werden, oft mit einem hohen Grad an Realismus. Dies wird erreicht, indem ein neuronales Netzwerk auf große Mengen vorhandener Bilder und Videos der Zielpersonen trainiert wird, um deren Mimik, Verhaltensweisen und Sprachmuster zu erlernen und zu replizieren.

Die Technologie hinter Deepfakes

Die Deepfake-Generierung beruht in erster Linie auf zwei wichtigen Konzepten des maschinellen Lernens: Generative Adversarial Networks (GANs) und Autoencoders.

  • Generative adversarische Netze (GANs): Ein GAN besteht aus zwei miteinander konkurrierenden neuronalen Netzen: einem Generator und einem Discriminator. Der Generator erstellt die gefälschten Bilder (z. B. ein Bild aus einem Video mit einem vertauschten Gesicht), während der Diskriminator versucht zu bestimmen, ob das Bild echt oder gefälscht ist. Dieser kontradiktorische Prozess zwingt den Generator, immer überzeugendere Fälschungen zu produzieren, die den Discriminator täuschen können. Diese Technik ist ein Eckpfeiler der modernen generativen KI.
  • Autoencoder: Dieser Ansatz verwendet eine Encoder-Decoder-Architektur. Zwei Autoencoder werden auf dem Filmmaterial von zwei verschiedenen Personen trainiert. Um einen Gesichtstausch vorzunehmen, werden die Bilder der ersten Person durch den ersten Encoder geleitet, dann aber mit dem an der zweiten Person trainierten Decoder dekodiert. Auf diese Weise werden Bilder der zweiten Person mit dem Gesichtsausdruck und der Ausrichtung der ersten Person erzeugt. Der Prozess beginnt oft mit einem Objekterkennungsmodell wie Ultralytics YOLO, um Gesichter in einem Video zu lokalisieren, bevor der Tauschprozess beginnt.

Anwendungen und Beispiele aus der Praxis

Die Deepfake-Technologie wird zwar oft mit böswilligen Zwecken in Verbindung gebracht, hat aber auch mehrere legitime und kreative Anwendungen.

  • Unterhaltung und Medien: Die Technologie kann eingesetzt werden, um Filme nahtlos in verschiedene Sprachen zu synchronisieren und die Lippenbewegungen der Schauspieler an die neuen Dialoge anzupassen. Sie ermöglicht auch die Alterung von Schauspielern oder die digitale Nachbildung historischer Figuren für Biopics, wie sie von Unternehmen wie Industrial Light & Magic erforscht wird.
  • Erzeugung synthetischer Daten: Die Erstellung realistischer, aber künstlicher Datensätze ist eine leistungsstarke Anwendung. So können beispielsweise synthetische Daten menschlicher Gesichter verwendet werden, um Computer-Vision-Modelle für Aufgaben wie die Gesichtserkennung zu trainieren, ohne den Datenschutz realer Personen zu gefährden. Dies trägt dazu bei, die Robustheit von Modellen zu verbessern und die Verzerrung von Datensätzen zu verringern.

Ethische Herausforderungen und Aufdeckung

Das Missbrauchspotenzial macht Deepfakes zu einem erheblichen ethischen Problem. Die Technologie kann verwendet werden, um überzeugende Fake News zu erstellen, politische Desinformationen zu verbreiten, Betrug zu begehen und nicht einvernehmliche explizite Inhalte zu erzeugen. Diese Risiken machen deutlich, wie wichtig es ist, solide Grundsätze für die KI-Ethik und eine verantwortungsvolle KI-Entwicklung zu entwickeln.

Als Reaktion darauf ist ein Bereich der Deepfake-Erkennung entstanden, der ein technologisches Wettrüsten zwischen Generation und Erkennungsmethoden auslöst. Forscher und Unternehmen entwickeln KI-Modelle, um die subtilen visuellen Artefakte und Ungereimtheiten zu erkennen, die Deepfake-Algorithmen oft hinterlassen. Initiativen wie die Deepfake Detection Challenge und Organisationen wie die Partnership on AI konzentrieren sich darauf, diese Erkennungsmöglichkeiten zu verbessern, um die negativen Auswirkungen der Technologie zu mindern. Es gibt auch öffentlich zugängliche Tools wie den Intel FakeCatcher, mit dem generierte Inhalte identifiziert werden können. Zu lernen, wie man erkennt, ob ein Bild KI-generiert ist, wird zu einer wesentlichen Fähigkeit in der modernen digitalen Landschaft.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert