ChatGPT : les mises en garde se succèdent en matière médicale
publié le 5 septembre 2023
Une étude récente réalisée par des chercheurs du Brigham and Women’s Hospital (université de Harvard) – étude publiée fin août dans la revue médicale JAMA Oncology – a identifié de sérieuses failles de fiabilité et de pertinence de ChatGPT dans les réponses et “conseils” que cet outil d’IA générative donne en matière de soins oncologiques. “34,3 % des réponses fournies par le modèle de langage ne correspondent pas aux recommandations des principaux centres de cancérologie des Etats-Unis”.
Lors de ce test, 13 des 104 réponses générées par ChatGPT avaient été… inventées de toutes pièces. Un tiers des traitements recommandés “ne présentaient au minimum aucune concordance avec les directives du NCCN [National Compréhensive Cancer Network]”.
Les chercheurs en concluent notamment que “le chatbot a le plus souvent tendance à mélanger des recommandations incorrectes avec des conseils corrects, une erreur qui est difficile à détecter, même pour des experts.”
D’où cette mise en garde de l’une des auteures de l’étude: “Les réponses de ChatGPT peuvent ressembler beaucoup à celles d’un être humain et être assez convaincantes. Mais lorsqu’il s’agit de prendre des décisions cliniques, il y a tellement de subtilités à prendre en compte dans la situation unique de chaque patient. Une bonne réponse peut être très nuancée, et ce n’est pas nécessairement quelque chose que ChatGPT ou un autre modèle de langage peut fournir.”
On le savait déjà mais l’étude apporte une nouvelle preuve qu’il est plus qu’utile de s’armer d’une belle paire de pincettes lorsque l’on a recours à ce genre d’outil “intelligent”.
A consulter : l’article publié dans JAMA Oncology “Use of Artificial Intelligence Chatbots for Cancer Treatment Information”.