L'intelligence artificielle générative a ouvert une nouvelle ère de désinformation avec la prolifération de deepfakes et de voix clonées. Comment sont-ils utilisés pour alimenter des campagnes de désinformation, notamment dans un contexte électoral ?
Dans ce second épisode des "Voies de l'IA", Pauline Pennanec'h (Journaliste à Franceinfo), Célia Zolynski (Co-directrice de l’Observatoire de l’IA et Professeure de droit à l’Université Paris 1), Camille Salinesi (Co-directeur de l’Observatoire de l’IA et Professeur d’informatique à Paris 1) et leurs invités, Jean Cattan (Secrétaire général du Conseil du numérique) et Katya Lainé (Directrice de Talkr.ai), répondent à cette question.
En 2018, on se souvient que Barack Obama insultait Donald Trump dans une vidéo vue des millions de fois. Ce premier deepfake “grand public” était à l’époque devenu viral et mettait en lumière le phénomène. Depuis, des campagnes de désinformation à grande échelle utilisent l’intelligence artificielle pour tromper les internautes (Ex. : fausse allocution du président ukrainien Volodymyr Zelensky annonçant sa défaite face à l’armée russe ; deepfake imitant l'ex-Premier ministre Michel Barnier avec des propos jamais énoncés).
La démocratisation des outils de génération audio par l'IA générative a donc considérablement accéléré la production de ces contenus trompeurs, rendant leur identification de plus en plus ardue. Cette intensification des deepfakes est aussi liée à l'année 2024 qualifiée d'historique en raison du grand nombre d'élections à travers le monde. La crainte de manipulations de l'opinion publique via la diffusion massive de ces contenus synthétiques par des acteurs nationaux ou étrangers est devenue palpable. Bien que les risques ne soient pas nouveaux, comme l'a illustré le scandale Cambridge Analytica en 2016, la facilité croissante de production de contenus synthétiques réalistes à grande échelle, notamment des images, amplifie considérablement ces dangers pour l'intégrité des scrutins et la stabilité des démocraties. Des enquêtes ont d'ailleurs révélé une présence significative de désinformation et d'images générées par IA lors des élections françaises et européennes de 2024, souvent sans mention de leur origine artificielle.
L'IA au service de la désinformation
Si le phénomène n'a pas atteint l'ampleur redoutée en 2023, la vigilance reste de mise face à son évolution. Les objectifs de la diffusion de deepfakes sont multiples : nuire à la réputation de candidats politiques, capter l'attention en diffusant des images fortes et orienter le débat public. Le recours aux deepfakes vient s'ajouter à des stratégies d'influence plus classiques telles que les campagnes d'amplification artificielle et l'astroturfing, une technique visant à simuler un soutien populaire massif sur un sujet en coordonnant un grand volume de publications par un petit nombre de comptes. L'IA générative amplifie la productivité de ces campagnes en permettant de produire des contenus plus nombreux, plus crédibles et mieux adaptés à différentes cibles, tout en facilitant la création de faux profils et l'automatisation de leur activité.
Les impacts à long terme sont également préoccupants. La diffusion de deepfakes à caractère sexuel pourrait dissuader les femmes politiques et journalistes de participer au débat public. On observe également une multiplication de "médias synthétiques" non fiables générés par l'IA, avec plus de 1200 sites recensés par l'AI Tracking Center de NewsGuard. En France, une enquête a révélé l'existence d'au moins 1000 sites web d'information générés par intelligence artificielle. Cette prolifération risque d'éroder la confiance des citoyens dans l'information et pourrait même conduire à un scepticisme généralisé quant à notre perception de la réalité.
Les "voice fakes", plus difficiles encore à détecter
Dans le domaine spécifique des "voice fakes", l'imitation de voix grâce à l'IA s'améliore constamment et constitue une arme de désinformation puissante. Des exemples concrets incluent l'imitation de personnalités politiques comme Emmanuel Macron en 2021 pour tenter de manipuler des dirigeants d'entreprise, ou celle de l'ancien Premier ministre britannique David Cameron en 2017 pour diffuser de fausses informations. L'efficacité des voice fakes réside dans la facilité avec laquelle une voix peut être reproduite à partir de quelques dizaines de secondes d'enregistrement. Ces clones vocaux sont extrêmement difficiles à détecter à l'oreille humaine car ils imitent fidèlement la prosodie, les accents et les intonations. La démonstration en direct de voix générées par l'IA via le logiciel Eleven Labs a illustré de manière convaincante cette réalité.
Si la détection humaine est complexe, l'intelligence artificielle elle-même peut être mobilisée pour identifier ces faux contenus. Des logiciels basés sur l'IA sont capables de repérer des caractéristiques perceptibles ou cachées dans les deepfakes, que ce soit de l’audio, de la vidéo ou de l’image. Cependant, l'efficacité des deepfakes ne repose pas uniquement sur la technologie de production, mais aussi sur leur capacité à jouer avec nos émotions et à exploiter les algorithmes de recommandation et les techniques de personnalisation pour cibler efficacement les individus.
Viginum, un rempart contre les ingérences numériques
Face à ces défis, des mesures de protection sont mises en place. Pour les assistants vocaux virtuels, une obligation légale impose désormais d'informer l'utilisateur de son interaction avec une machine, explique Katya Lainé, directrice de Talkr.ai, un éditeur d’assistants vocaux pour les entreprises. Le marquage des productions générées par IA est également une piste, bien que son application puisse être limitée. En France, le service Viginum est spécifiquement chargé de la vigilance et de la protection contre les ingérences numériques étrangères utilisant notamment l'IA générative. Viginum se concentre sur la détection de manœuvres étrangères visant à nuire aux intérêts de la nation par des contenus trompeurs et des dynamiques artificielles. Jean Cattan, secrétaire général du Conseil du numérique, explique comment l'outil 3 Delta, développé par Viginum, permet de détecter la duplication de contenus artificiels, et sa mise à disposition en open source, favorisant une démarche collective de détection.
Malgré ces efforts, la menace demeure importante et une action coordonnée au niveau international est nécessaire. Au-delà des solutions techniques, il est crucial de renforcer l'information et la sensibilisation du public face à ces usages problématiques de l'IA.
---
"Les voies de l'IA", un podcast de l'Observatoire de l'IA de l’université Paris 1 Panthéon-Sorbonne et Sorbonne TV en partenariat avec Franceinfo. Une production du studio Radio France et de Sorbonne TV, soutenue financièrement par l’Agence Nationale de la Recherche (France 2030) dans le cadre des projets Sorb’Rising (ANR-21-EXES-0015) et Una Europa. Un podcast à retrouver sur le site de franceinfo, l'application Radio France et plusieurs autres plateformes comme Apple podcasts, Podcast Addict, Spotify, ou Deezer.
Production : Pauline Pennanec'h, Célia Zolynski, Camille Salinesi, Margaux Debosque Trubert, Lydie Rollin-Jenouvrier
Technique : Cédric Châtelus | Réalisation : Marie Plaçais | Mixage : Manon Houssin
Mots clés : clonage deepfake desinformation election ia viginum voice fake voix
Informations
- Lydie Rollin-Jenouvrier (lyrollin)
-
- Camille Salinesi (camille)
- Celia Zolynski (czolynski)
- Margaux Debosque Trubert (matrubert)
- 3 avril 2025 18:12
- Podcast
- Français