Intelligence artificielleFaut-il craindre une campagne européenne bouleversée par les deepfakes ?

Elections européennes 2024 : « Une menace réelle »… Faut-il craindre une campagne bouleversée par les deepfakes ?

Intelligence artificielleCette technologie, qui permet de reproduire les visages et les voix des personnalités, notamment politiques, peut être utilisée pour produire de fausses informations
Des « deepfakes » mettant en scène Emmanuel Macron, Marine Le Pen, Jean-Luc Mélenchon et Eric Zemmour.
Des « deepfakes » mettant en scène Emmanuel Macron, Marine Le Pen, Jean-Luc Mélenchon et Eric Zemmour. - Cover IA Fr, TikTok amandineeette, PixelPerfectAI_FR, Fiasco FR / Captures d'écran YouTube, capture d'écran TikTok.
Thibaut Le Gal

Thibaut Le Gal

L'essentiel

  • Les élections européennes se dérouleront en France le 9 juin prochain.
  • Un scrutin organisé alors qu’émergent de plus en plus, sur les réseaux sociaux, les deepfakes. Cette technologie permet de générer de fausses vidéos avec les visages et les voix de personnalités.
  • La classe politique redoute l’irruption de ces fausses vidéos dans la dernière ligne droite, alors que plusieurs campagnes ont déjà été frappées par des tentatives de déstabilisation à l’étranger.

Emmanuel Macron en professeur de yoga. Éric Zemmour en rappeur à casquette. Marine Le Pen qui chante du raï. Marion Maréchal déguisée en Superwoman… Ce sont leurs voix, leurs visages, mais il ne s’agit pas d’eux. Ces fausses vidéos générées grâce à l’intelligence artificielle, appelées « deepfakes », pullulent sur les réseaux sociaux.

La plupart du temps, elles visent à amuser les internautes. Mais cette technologie d'« hypertrucage », aux progrès fulgurants, pourrait bien être utilisée pour tenter de biaiser les élections en diffusant de fausses informations. Une menace qui plane sur les européennes, qui se dérouleront le 9 juin prochain en France, et qui inquiète le monde politique.

Des exemples marquants aux Etats-Unis

La présidentielle américaine a récemment montré les possibilités (quasi infinies) offertes par ces nouvelles technologies dans le cadre de campagnes électorales. En juillet dernier, un soutien de Ron DeSantis diffusait dans un spot publicitaire un extrait sonore de Donald Trump, alors grand rival aux primaires républicaines. La voix de l’ex-président américain était en réalité clonée par une IA, les phrases en question n’ayant jamais été prononcées. Deux mois plus tard, le même Ron DeSantis apparaissait dans une vidéo pour annoncer son retrait de la course à la Maison-Blanche. Problème : il s’agissait là encore d’un deepfake, massivement relayé sur les réseaux sociaux, qui a contraint l’équipe du candidat à démentir.

Ce genre de pratique pourrait se répandre en France, notamment en amont des européennes. « C’est quasiment inévitable », souffle le député socialiste Hervé Saulignac. « Il faut s’attendre à ce que certains utilisent l’IA pour la désinformation ou la diffamation. On peut donc imaginer avoir des deepfakes d’excellentes factures qui fassent des dégâts et biaisent les élections », ajoute-t-il. « Il y a un devoir de vigilance extrême, car ces outils sont à portée de main de n’importe qui. C’est une menace réelle pour nos démocraties », s’inquiète également Constance Le Grip, députée Renaissance.

En février dernier, un opposant à Joe Biden pour les primaires démocrates a reconnu avoir utilisé l’IA pour reproduire la voix du président américain dans un appel téléphonique. Le message, adressé à des milliers d’Américains pour les convaincre de ne pas se rendre aux urnes, avait été produit en quelques clics, et pour seulement 500 dollars…

Les fausses nièces de Marine Le Pen

La France est jusqu’ici plutôt épargnée par ce type de controverses. Les vidéos publiées sur Instagram ou TikTok s’amusent ainsi surtout à faire chanter ou danser de manière parodique les politiques. Mais de récents exemples ont montré que l’usage « divertissant » peut aussi avoir une portée plus profonde. Mi-avril, des « influenceuses » se présentant comme membres de la famille Le Pen ont fait irruption sur TikTok en faisant des centaines de milliers de vues. Ces jeunes femmes sexy, empruntant les traits de Marine Le Pen et de Marion Maréchal, faisaient la promotion des idées du RN et de Reconquête. Ces faux comptes, dénoncés par l’ensemble de la classe politique, ont finalement été supprimés de la plateforme chinoise.

« L’usage de deepfakes interroge sur les campagnes à venir. Mais il ne faut pas non plus tout condamner. Il y a ce qui relève du divertissement, de l’humour. Et le scénario d’une fausse vidéo publiée quelques jours avant le scrutin, qui donnerait l’impression d’une déclaration qui n’a en réalité jamais été prononcée », nuance Gaëtan Dussausaye, porte-parole du RN, proche de Jordan Bardella.

Le parti à la flamme n’a toujours pas digéré le deepfake publié par Loïc Signor début janvier. Le porte-parole de Renaissance avait partagé sur son compte X de faux vœux de Marine Le Pen s’exprimant en russe, une première au sein de la classe politique française. L’initiative avait été dénoncée jusqu’au sein de la majorité, preuve de l’inquiétude entourant l’utilisation de ces nouveaux outils. « Ce n’était pas malin, on n’a pas besoin d’utiliser ça pour dénoncer les relations entre le RN et la Russie », regrette Erwan Balanant, député MoDem.

Le risque d’ingérence étrangère

Cette polémique tombait d’autant plus mal que le gouvernement cherchait alors à limiter les pratiques de trucage à travers la loi Sren (Projet de loi visant à sécuriser et réguler l’espace numérique), transposition du texte européen Digital Services Act (DSA), finalement adoptée le 10 avril. Mais la machine judiciaire semble parfois lente au regard de la vitesse de propagation des fausses informations. « On a un certain nombre de dispositifs mis en place ces dernières années, mais la justice intervient toujours après coup. C’est pourquoi on insiste sur l’obligation de transparence des plateformes, dans le cadre d’une autorégulation », souligne Romain Rambaud, professeur à l’université Grenoble Alpes et spécialiste de droit électoral.

Le texte européen DSA prévoit des amendes jusqu’à 6 % du chiffre d’affaires annuel des plateformes en cas de manquement à leur devoir de modération. Mais les élections législatives en Slovaquie, fin septembre, qui faisaient valeur de test, ont déjà montré les limites du dispositif européen. Le scrutin a été perturbé à quelques heures du vote par un faux enregistrement d’un candidat pro-Europe. L’extrait, aux origines floues, a été diffusé massivement sur les réseaux sociaux avant sa suppression par ces mêmes plateformes.

L’action des plateformes en question

Sous pression de la Commission européenne, plusieurs géants de la tech, comme YouTube ou Meta, ont annoncé ces dernières semaines vouloir étiqueter toute image générée par l’IA, à l’approche de plusieurs élections majeures en 2024. Meta donc, la maison mère de Facebook et Instagram, a d’ailleurs rencontré les équipes des candidats aux européennes en mars, rapporte Samuel Lafont, directeur de la stratégie numérique de Reconquête, pour évoquer ce risque. « Ils ont montré patte blanche, les plateformes savent qu’elles jouent très gros sur ce point », souligne ce proche d’Eric Zemmour.

Car la guerre en Ukraine a accentué les craintes d’une tentative de déstabilisation venue de la Russie. « Ce qui est le plus à redouter, c’est le risque de menace étrangère pour affaiblir tel ou tel candidat par un deepfake, à travers le relais d’usine à trolls », admet Anne Genetet, députée Renaissance. L’élu socialiste Arthur Delaporte abonde : « Le vrai danger n’est pas l’utilisation ponctuelle d’un deepfake, mais son utilisation par des puissances étrangères pour déstabiliser le scrutin ». Les européennes de juin feront figure de test grandeur nature en la matière, alors que 370 millions d’électeurs sont appelés aux urnes.

Que dit la loi ?

La loi prévoit désormais jusqu’à deux ans de prison et 45.000 euros d’amende pour l’auteur d’un deepfake qui serait effectuée sans le consentement de la personne visée.