l’enfer de l’IALes deepfakes pornographiques, le nouveau mâle du siècle ?

Intelligence artificielle : Nouveau porno aux allures sexistes, les deepfakes sont-ils le mâle du siècle ?

l’enfer de l’IALes deepfakes pornographiques sont de plus en plus nombreux et touchent majoritairement les femmes, qu’elles soient célèbres ou non
Les deepfake porno sont de plus en plus présents sur Internet.
Les deepfake porno sont de plus en plus présents sur Internet. - MishaBeliy/Andrea Piacquadio  / Pexels/Canva
Lina Fourneau

Lina Fourneau

L'essentiel

  • Les deepfakes pornographiques existent depuis quelques années déjà. Mais ces derniers mois, le phénomène s’est intensifié.
  • L’acte malveillant touche majoritairement les femmes. Des célébrités comme Margot Robbie ou Ariana Grande se sont retrouvées sur des sites pornographiques dédiés aux deepfakes. Mais les stars ne sont pas les seules touchées.
  • « 20 Minutes » a décrypté le phénomène avec la chercheuse Laurence Allard, spécialiste du numérique, maîtresse de conférences en sciences de la communication et chercheuse à l’université Sorbonne Nouvelle Paris-3-IRCAV.

En mai dernier, Anaïs découvrait des photos d’elle sur Internet. Elle se tient allongée sur le ventre, nue face à un miroir, une pose mettant en valeur ses seins. A première vue, cette photo pourrait être un vrai selfie un peu érotique. Sauf qu’Anaïs n’a aucunement décidé de se dénuder et sur la version originale, une serviette cache entièrement le corps de la jeune femme. « Je connais à mon tour les "joies" des sombres détraqués qui retouchent les photos pour se masturber dessus sur des sites chelous », dénonçait-elle alors sur X (anciennement Twitter).

Anaïs n’est pourtant pas la seule à apprendre l’existence de photo d’elle nue sur Internet. Outre des photomontages, il existe désormais ce qu’on appelle des deepfakes pornographiques, des fausses images générées artificiellement à partir de vraies photos d’une personne. Vous l’aurez compris, ces montages hyperréalistes ne s’arrêtent pas seulement à l’ironie des photos d’Emmanuel Macron en train de ramasser des poubelles ou du Pape en doudoune. Les deepfakes sont la plupart du temps des actes malveillants où les victimes sont mises à nu, quitte à les afficher dans des positions sexuelles… qui n’ont jamais été filmées.

« Le génie marketing et son horreur »

Si la tendance malveillante explose ces derniers mois, elle n’est pourtant pas si nouvelle. « La pornographie est en général le premier terrain d’expérimentation des dernières technologies. Ça fait longtemps qu’il en existe, depuis 2017 ou 2018 », souligne Laurence Allard, spécialiste du numérique, maîtresse de conférences en sciences de la communication et chercheuse à l’université Sorbonne Nouvelle Paris-3-IRCAV. Pour cette dernière, ce constat n’a rien d’étonnant : « La pornographique apparaît comme très réaliste dans son rendu. Mais par définition, c’est un genre fétichiste, fantasmatique. C’est assez paradoxal de s’entraîner à développer des faux parfaits pornographiques sachant que lui-même est totalement fake ».

L’accès à ce contenu a été bloqué afin de respecter votre choix de consentement

En cliquant sur« J’accepte », vous acceptez le dépôt de cookies par des services externes et aurez ainsi accès aux contenus de nos partenaires.

Et pour mieux rémunérer 20 Minutes, n’hésitez pas à accepter tous les cookies, même pour un jour uniquement, via notre bouton« J’accepte pour aujourd’hui » dans le bandeau ci-dessous.

Plus d’informations sur la pagePolitique de gestion des cookies

Aussi paradoxal soit-il, le phénomène s’est intensifié ces derniers mois, notamment avec l’ouverture au public des sites d’Intelligence artificielle comme le désormais célèbre Mid Journey. « Ils ont choisi de faire développer leurs outils par la foule. Tout ce qui est apprentissage, amélioration, renforcement, c’est fait par le public. A partir du moment où ces outils sont en co-développement et dans les mains de la foule, bien sûr ça peut qu’améliorer les modèles, les rendus, les répertoires et les bases de données », souligne Laurence Allard. Avant d’ajouter : « C’est là le génie marketing de cette chose et son horreur parce qu’après c’est tout et n’importe quoi qui peut être généré ».

Des sites pornos dédiés aux deepfakes

Le n’importe quoi est plus que visible en ligne et s’invite même sur les sites pornographiques où des fausses images mettant en scène des célébrités deviennent désormais des catégories spécifiques. Un site pornographique dédié aux deep fake a même été créé depuis. Ici la chanteuse Ariana Grande en train de faire une fellation, là un gang bang avec l’actrice Margot Robbie. Des images qui n’ont bien évidemment jamais été tournées et sont créées artificiellement. Mais les célébrités américaines ne sont pas les seules à en faire les frais. Pendant ses vlogs d’août, la youtubeuse Léna Situations avait alerté de l’apparition de fausses vidéos pornographiques la mettant en scène. Plus récemment encore, la journaliste Salomé Saqué a partagé des montages pornographiques d’elle, l’imaginant seins nus. Qualifiant les montages « d’immondes », celle-ci déclare : « Non seulement le harcèlement et les humiliations ne diminuent pas sur les réseaux sociaux, mais ça s’intensifie ».

Survient alors une première idée reçue autour des deepfakes pornographiques. En s’exposant, les personnalités publiques ne se risquent-elles pas à ce genre de phénomènes ? Il est possible qu’être présent et visible aux yeux du grand public augmente les risques. Pour autant, le phénomène des deepfakes pornographiques touche l’ensemble de la société. Au sud de l’Espagne, à Almendralejo, 22 adolescentes scolarisées dans différents établissements de la ville ont été victimes de montages pornographiques cet automne. La moitié a décidé de porter plainte après la diffusion de ces images.

Les femmes majoritairement victimes

Personnalités publiques ou privées, il y a un dénominateur commun : les victimes sont majoritairement des femmes. Selon une étude menée par l’association Deeptrace, plus de neuf vidéos deepfakes sur dix sont des vidéos pornographiques. Les personnes visées « sont dans 99 % des cas des femmes ». Pour s’en prémunir, la solution serait sans doute de poster le moins de photo ou de vidéo en ligne sur les réseaux sociaux. Mais d’une part, est-ce aux victimes de s’en prémunir ? D’autre part, certaines plateformes – à l’instar de TikTok – laissent beaucoup plus de libertés pour se servir chez ses utilisateurs. « On peut scrapper [extraire des données, Ndlr.] TikTok, là on peut avoir des extractions de base de vidéos. Dès qu’il y a une porte d’entrée, il y a du scrapping possible et donc il y a des possibilités de réutilisation d’images en "image to image" ».

Aujourd’hui, les deepfakes pornographiques sont encore peu l'objet de condamnations. En France, l’article 226-8 du Code pénal que « le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention » est puni d’un an d’emprisonnement et de 15.000 euros d’amende. Dans un entretien accordé à Ouest France, le ministre chargé du Numérique Jean-Noël Barrot a souligné que le projet de loi visant à sécuriser et réguler l’espace numérique viserait à durcir les conséquences. Les peines seraient « portées à trois ans d’emprisonnement et à 75.000 € d’amende lorsque la publication du montage a été réalisée en utilisant un service de communication au public en ligne ».

Sujets liés