L’IA générative comme “assistant” médical ? Oui, mais…
publié le 2 mai 2023
Peut-on s’appuyer sur les solutions d’IA générative (exemple récent : ChatGPT) en médecine? Est-ce un « outil » intéressant comme aide, support, inspiration, aide à la décision? La réponse est forcément nuancée et multiples.
Ce serait plutôt un « oui, mais… » si l’on compile quelques réactions et analyses de professionnels, de scientifiques et de chercheurs, comme l’a fait par exemple un article publié sur le site Business AM.
Côté « oui » : aide à la découverte de connaissances, amélioration potentielle de la qualité des soins, simplification et accélération de certaines activités administratives ou exigeantes en temps, réduction du nombre d’erreurs médicales d’origine humaine…
Côté « mais… », toute une série de risques et d’implications doivent être pris en considération. Des exemples ? Les biais invisibles (éthiques, sociaux, raciaux, genrés…) contenus dans les modèles, voire dans les données de départ ; difficulté à discerner le résultat fiable, objectivé, de ce que l’IA aura “imaginé”, “inventé” de toutes pièces, concocté en mélangeant plusieurs sources qui n’auraient pas dû être amalgamées ; limitations en matière de décision éthique, risque de pertes de compétences du côté du professionnel de santé…
L’article conclut : “l’IA générative peut s’avérer considérablement utile aux médecins pour des tâches administratives, mais elle devrait rester en dehors de tout questionnement éthique plus complexe, propre aux êtres humains et ses résultats devraient systématiquement être vérifiés par un médecin”.
Vous y trouverez par exemple un lien vers une étude de chercheurs allemands et danois publiée en janvier 2023 – “The moral authority of ChatGPT”.