Découvrez la technologie, les applications et les préoccupations éthiques des deepfakes, du divertissement à la désinformation. Apprenez les solutions de détection et d'IA.
Les médias synthétiques créés à l'aide de techniques d'apprentissage profond sont connus sous le nom de « deepfakes ». Le terme est un mot-valise combinant « deep learning » (apprentissage profond) et « fake » (faux), et désigne des vidéos ou des enregistrements audio dans lesquels l'apparence et la voix d'une personne sont remplacées par celles d'une autre, souvent avec un haut degré de réalisme. Pour ce faire, on entraîne un réseau neuronal sur de grandes quantités d'images et de vidéos existantes des personnes ciblées afin d'apprendre et de reproduire leurs expressions faciales, leurs maniérismes et leurs schémas d'élocution.
La génération de deepfakes repose principalement sur deux concepts clés de l'apprentissage automatique : les réseaux antagonistes génératifs (GAN) et les autoencodeurs.
Bien que souvent associée à des utilisations malveillantes, la technologie des deepfakes a plusieurs applications légitimes et créatives.
Le potentiel d'utilisation abusive fait des deepfakes une préoccupation éthique importante. La technologie peut être utilisée pour créer de fausses nouvelles convaincantes, diffuser de la désinformation politique, commettre des fraudes et générer du contenu explicite non consensuel. Ces risques soulignent l'importance de développer des principes robustes pour l'éthique de l'IA et le développement responsable de l'IA.
En réponse, un domaine de la détection de deepfakes a émergé, créant une course aux armements technologique entre les méthodes de génération et de détection. Les chercheurs et les entreprises développent des modèles d'IA pour repérer les artefacts visuels subtils et les incohérences que les algorithmes de deepfake laissent souvent derrière eux. Des initiatives comme le Deepfake Detection Challenge et des organisations comme le Partnership on AI se concentrent sur l'avancement de ces capacités de détection afin d'atténuer l'impact négatif de la technologie. Des outils sont également disponibles pour le public, comme l'Intel FakeCatcher, conçus pour identifier le contenu généré. Apprendre à savoir si une image est générée par l'IA devient une compétence essentielle dans le paysage numérique moderne.