IAChatGPT et Bard relaient beaucoup de « fake news » sans aucune vérification

ChatGPT et Bard relaient beaucoup trop de « fake news » pour être des sources fiables, selon cette étude

IADans la majorité des cas, les textes produits contiennent de fausses informations et ne citent pas de sources – ou des sources non fiables
ChatGPT, et son concurrent Bard lancé par Google, sont de plus en plus utilisés à travers le monde malgré leur manque flagrant de fiabilité.
ChatGPT, et son concurrent Bard lancé par Google, sont de plus en plus utilisés à travers le monde malgré leur manque flagrant de fiabilité. - Michael Dwyer/AP/SIPA / SIPA
20 Minutes avec agence

20 Minutes avec agence

De plus en plus populaires, les intelligences artificielles (IA) génératives doivent être utilisées avec prudence et précaution. Selon une récente étude de NewsGuard, les deux chatbots les plus connus, ChatGPT et Bard propagent énormément de fake news. Deux tests ont été réalisés, en mars puis en août 2023, rapportent Les Echos. Ils consistaient en l’écriture de textes à partir d’informations erronées. Résultat : en cinq mois, la progression des IA en matière de désinformation est faible, voire inexistante.

Des textes erronés mais convaincants

En mars, ChatGPT-4 a produit des contenus intégrant des fake news dans 100 % des cas, et Bard dans 76 % des cas. En août, la progression était mince : les chiffres étaient passés à 98 % pour l’IA d’OpenAI et 80 % pour celle de Google. A aucun moment, les informations données pour le test n’ont été vérifiées.

Plus inquiétant encore, ces IA sont capables de produire des textes qui pourraient vraiment être diffusés dans des médias. « Pour de nombreux prompts, ChatGPT-4 et Bard ont rapidement généré des articles ou des posts de blog si convaincants que l’on pourrait s’attendre à les lire sur des sites importants de diffusion de désinformation », indiquent les experts de NewsGuard.

Déjà utilisés comme sources

Bard est prudent et fournit parfois ses sources mais Chat-GPT s’avère plus « persuasif et sournois ». Aucune des deux IA ne fait en tout cas le tri entre des sources fiables et d’autres plus douteuses, comme des sites conspirationnistes. Or certains se servent déjà des deux chatbots comme source légitime. En Russie, des médias d’Etat les ont cités, affirmant que les Etats-Unis soutenaient « un coup d’Etat en Ukraine ».

Reste que les utilisateurs peuvent œuvrer à l’amélioration de ces outils en écrivant des commentaires. Ces derniers auraient permis d’augmenter « la précision factuelle de ChatGPT-4 », affirmait OpenAI en avril. Bard, lui, assure ses arrières en indiquant sur sa page qu’il est possible d’obtenir des « réponses inexactes ou inappropriées » avec le chatbot.

Sujets liés