Glossaire

Fausses découvertes

Découvrez la technologie, les applications et les préoccupations éthiques des "deepfakes", du divertissement à la désinformation. Apprenez les solutions de détection et d'IA.

Les médias synthétiques créés à l'aide de techniques d'apprentissage profond sont connus sous le nom de "deepfakes". Il s'agit d'un mélange de "deep learning" et de "fake", qui fait référence à des vidéos ou à des enregistrements audio dans lesquels l'image et la voix d'une personne sont remplacées par celles de quelqu'un d'autre, souvent avec un haut degré de réalisme. Pour ce faire, un réseau neuronal est entraîné sur de grandes quantités d'images et de vidéos existantes des personnes ciblées afin d'apprendre et de reproduire leurs expressions faciales, leurs maniérismes et leurs modèles d'élocution.

La technologie derrière les Deepfakes

La génération de Deepfake repose principalement sur deux concepts clés de l 'apprentissage automatique: les réseaux adversoriels génératifs (GAN) et les autoencodeurs.

  • Réseaux adversoriels génératifs (GAN): Un GAN se compose de deux réseaux neuronaux concurrents : un générateur et un discriminateur. Le générateur crée les fausses images (par exemple, une image d'une vidéo avec un visage échangé), tandis que le discriminateur tente de déterminer si l'image est réelle ou fausse. Ce processus contradictoire oblige le générateur à produire des faux de plus en plus convaincants, capables de tromper le discriminateur. Cette technique est la pierre angulaire de l'IA générative moderne.
  • Autoencodeurs: Cette approche utilise une architecture codeur-décodeur. Deux autoencodeurs sont entraînés sur des images de deux personnes différentes. Pour effectuer un échange de visages, les images de la première personne sont passées par le premier encodeur, puis décodées à l'aide du décodeur entraîné sur la deuxième personne. Cela génère des images de la deuxième personne avec les expressions et l'orientation de la première. Le processus commence souvent par un modèle de détection d'objets, comme Ultralytics YOLO, pour localiser les visages dans une vidéo avant le début du processus d'échange.

Applications et exemples concrets

Bien qu'elle soit souvent associée à des utilisations malveillantes, la technologie deepfake a plusieurs applications légitimes et créatives.

  • Divertissement et médias: La technologie peut être utilisée pour doubler de manière transparente des films dans différentes langues, en faisant correspondre les mouvements des lèvres des acteurs aux nouveaux dialogues. Elle permet également de désâger les acteurs ou de recréer numériquement des personnages historiques pour des biopics, comme l'ont fait des entreprises telles qu'Industrial Light & Magic.
  • Génération de données synthétiques: La création d'ensembles de données réalistes mais artificielles est une application puissante. Par exemple, des données synthétiques de visages humains peuvent être utilisées pour former des modèles de vision artificielle pour des tâches telles que la reconnaissance faciale, sans compromettre la confidentialité des données des personnes réelles. Cela permet d'améliorer la robustesse des modèles et de réduire les biais des ensembles de données.

Défis éthiques et détection

Le potentiel d'utilisation abusive fait des deepfakes une préoccupation éthique importante. La technologie peut être utilisée pour créer des fausses nouvelles convaincantes, diffuser de la désinformation politique, commettre des fraudes et générer des contenus explicites non consensuels. Ces risques soulignent l'importance d'élaborer des principes solides en matière d'éthique de l'IA et de développement responsable de l'IA.

En réponse, un domaine de détection des deepfakes a vu le jour, créant une course aux armements technologiques entre la génération et les méthodes de détection. Les chercheurs et les entreprises développent des modèles d'IA pour repérer les artefacts visuels subtils et les incohérences que les algorithmes de deepfake laissent souvent derrière eux. Des initiatives telles que le Deepfake Detection Challenge et des organisations telles que le Partnership on AI s'attachent à faire progresser ces capacités de détection afin d'atténuer l'impact négatif de la technologie. Il existe également des outils accessibles au public, comme Intel FakeCatcher, conçus pour identifier les contenus générés. Apprendre à déterminer si une image est générée par l'IA devient une compétence essentielle dans le paysage numérique moderne.

Rejoindre la communauté Ultralytics

Rejoignez l'avenir de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

S'inscrire
Lien copié dans le presse-papiers