IA et reconnaissance vocale en milieu médical : la prudence est de mise

publié le 18 novembre 2024

La “dictée vocale” (speech-to-text) telle qu’on l’a connue depuis déjà plusieurs dizaines d’années a pris une nouvelle dimension ces derniers temps grâce au recours aux potentiels de l’IA générative (exemple bien connu : ChatGPT).

Ces solutions sont de plus en plus utilisées – en ce compris en milieu médical, où elles permettent aux professionnels de santé de s’affranchir du clavier pendant leurs consultations, leurs examens ou leur réalisation de rapports et autres documents de recherche, leur évitant de devoir prendre des notes ou encoder des paramètres et informations dans un système.

Le logiciel se charge non seulement de transcrire mais, désormais, de structurer le texte en fonction de la forme et du format attendus. Allant, grâce à des algorithmes préalablement validés, jusqu’à formuler synopsis, avis, recommandations…

De quoi faire gagner bien du temps aux professionnels. Mais… Attention, tous les logiciels de transcription automatisée “intelligente” ne se valent pas et des dérives dangereuses ont récemment été pointées du doigt lors du recours à de tels outils. Exemple récent : le système de reconnaissance vocale automatique Whisper semble se permettre certaines libertés et initiatives à proscrire.

Whisper a été développé par OpenAI (société qui est à l’origine de ChatGPT) et s’est retrouvé intégré au logiciel Copilot, un logiciel de transcription médicale conçu par la société française Nabla… alors même qu’OpenAI avait averti que son logiciel était “déconseillé pour un usage dans des contextes à haut risque” !

Et les dérapages n’ont pas tardé : lâché en environnement de transcription médicale, l’outil se trompe et génère des erreurs de transcription, ce qui, en soi, est déjà problématique – même s’il doit toujours y avoir vérification par une personne qualifiée.

Plus grave, il arrive à l’outil d’inventer. Un travers déjà souvent signalé lors de l’utilisation de LLM (large language models). Autre défaut relevé, lui aussi assez courant : des biais racistes. Résultat : l’outil de transcription déforme carrément les propos des patients, inventant des situations que ces derniers n’ont jamais évoquées…

Source : Innovant.fr