INTELLIGENCE ARTIFICIELLEUne asso porte plainte contre ChatGPT pour avoir « inventé des réponses »

Une association autrichienne dépose plainte contre ChatGPT qui « divague » et « invente des réponses »

INTELLIGENCE ARTIFICIELLEL’association Noyb demande à l’Autorité autrichienne de protection des données d’ouvrir une enquête et d’imposer une amende à la société californienne
L’association viennoise Noyb, militant pour la protection de la vie privée, a annoncé lundi le dépôt d’une plainte en Autriche contre ChatGPT
L’association viennoise Noyb, militant pour la protection de la vie privée, a annoncé lundi le dépôt d’une plainte en Autriche contre ChatGPT - Rafael Henrique / SOPA Images / SIPA
20 Minutes avec AFP

20 Minutes avec AFP

Quand elle a interrogé ChatGPT sur la date de naissance de son fondateur Max Schrems, l’agent conversationnel « a systématiquement donné une fausse information » au lieu de reconnaître qu’il ne savait pas.

L’association viennoise Noyb, militant pour la protection de la vie privée, a annoncé lundi le dépôt d’une plainte en Autriche contre l’interface star d’intelligence artificielle (IA) générative. « ChatGPT divague » et même son éditeur OpenAI « ne peut l’en empêcher », souligne Noyb (pour « None of your business », signifiant en anglais « Ce ne sont pas vos affaires ») dans un communiqué. Pour l’association, ce type d’outils « invente régulièrement des réponses ».

« La technologie doit se plier à la loi »

« Si un système ne peut fournir des résultats corrects et transparents, il ne saurait être utilisé pour générer des données sur des individus. La technologie doit se plier à la loi, et non l’inverse », insiste l’avocate Maartje de Graaf, citée dans le communiqué. C’est tout simplement « inacceptable », selon Noyb qui rappelle que le Règlement général européen sur la protection des données (RGPD) stipule l’obligation d’exactitude.

D’autant que l’entreprise OpenAI « a refusé la requête du plaignant de corriger ou d’effacer l’erreur, affirmant que c’était impossible », le désapprentissage de l’IA étant de fait un problème crucial. Elle n’a pas non plus répondu à sa demande d’accès aux données le concernant et aux sources d’information, en violation là encore de la loi.

Protéger la confidentialité

Dans sa plainte, l’association (devenue depuis sa création en 2018 la bête noire des géants de la tech) demande à l’Autorité autrichienne de protection des données d’ouvrir une enquête et d’imposer une amende à la société californienne.

« Nous sommes déterminés à protéger la confidentialité des données », a réagi un porte-parole d’OpenAI. « Nous voulons que nos modèles d’IA apprennent à connaître le monde, et non les individus ; nous ne cherchons pas activement à obtenir des informations personnelles pour entraîner nos modèles, et nous n’utilisons pas d’informations publiques sur Internet pour établir des profils de personnes, leur faire de la publicité ou les cibler, ou pour vendre leurs données », a-t-il ajouté.

Un groupe de travail européen

Des procédures ont déjà été lancées dans plusieurs pays. L’Italie a temporairement bloqué le programme en mars 2023, tandis que l’autorité de régulation française (Cnil) a entamé l’examen d’une série de plaintes. Un groupe de travail européen a également été mis en place pour favoriser la coopération entre les autorités.

« Reste à voir où cela va nous mener », commente Noyb, sceptique pour le moment face aux efforts des gouvernements pour réguler l’intelligence artificielle.