HÔPITALTesté aux urgences, ChatGPT a réalisé des diagnostics « comme un médecin »

ChatGPT : Testée aux urgences, l’IA a pu faire des diagnostics « comme un médecin », selon une étude

HÔPITALDans 87 % des cas, le chatbot a formulé un diagnostic pertinent
Sorti en novembre 2022, ChatGPT est progressivement testé dans tous les domaines économiques et sociaux possibles, dont la santé.
Sorti en novembre 2022, ChatGPT est progressivement testé dans tous les domaines économiques et sociaux possibles, dont la santé. - OLIVIER MORIN / AFP / AFP
20 Minutes avec agences

20 Minutes avec agences

Nouvelle prouesse de ChatGPT. Utilisée aux urgences d’un hôpital des Pays-Bas, l’intelligence artificielle (IA) a réalisé des diagnostics au moins aussi performants que ceux des médecins, et parfois meilleurs, selon une étude parue ce mercredi dans la revue Annals of Emergency Medicine.

Selon les chercheurs néerlandais, ChatGPT pourrait ainsi « révolutionner le domaine médical ». Ils mesurent tout de même l’impact de leur étude : si le chatbot peut accélérer le diagnostic, il ne peut pas encore remplacer le jugement et l’expérience d’un humain.

Des diagnostics quasi-humains

Dans le cadre de l’étude, trente cas traités dans un service d’urgence néerlandais en 2022 ont été examinés. Les chercheurs ont donné à ChatGPT les antécédents des patients, les tests en laboratoire et les observations des médecins en lui demandant de proposer cinq diagnostics possibles.

Dans 87 % des cas, le bon diagnostic se trouvait dans la liste, contre 97 % pour la version 3.5 de ChatGPT. L’IA « était capable de réaliser des diagnostics médicaux un peu comme l’aurait fait un médecin humain », a résumé le responsable d’un service d’urgence aux Pays-Bas.

Des erreurs relevées

Selon le chercheur Steef Kurstjens, l’étude ne conclut pas que les ordinateurs pourront un jour diriger les urgences mais que l’IA peut jouer un rôle vital en aidant les médecins sous pression. Elle « peut aider à réaliser un diagnostic et peut peut-être proposer des idées auxquelles le médecin n’avait pas pensé », a expliqué le scientifique à l’AFP. La question de la confidentialité des données médicales se pose aussi.

Comme dans d’autres domaines, ChatGPT a également montré ses limites. Son raisonnement était « parfois médicalement invraisemblable ou incohérent, ce qui peut conduire à des informations erronées ou à un diagnostic incorrect », note l’étude. Les scientifiques admettent également certaines lacunes dans leurs recherches, comme la petite taille de l’échantillon ou la simplicité des cas examinés.

Sujets liés