Utilité de l’IA pour des raisons d’urgence? Restons prudents…
publié le 7 mai 2020
Au début de la crise sanitaire du Covid-19, certains – nombreux – se sont interrogés sur l’impuissance qu’avaient démontré les outils d’intelligence artificielle à prévenir ou anticiper la crise. Assez logique quand on connaît la manière dont l’IA fonctionne par rapport à un phénomène n’ayant pas d’antécédent…
Depuis, on espère de toutes parts que l’IA puisse aider pour diagnostiquer les personnes atteintes, même asymptomatiques, pour effectuer le tri au service des urgences (via interprétation automatique des radios de poumons), pour planifier les ressources hospitalières, pour organiser le déconfinement… Est-ce réaliste?
Entre gain de temps ou d’efficacité, d’une part, et risques induits par des solutions technologiques que les autorités ou les hôpitaux n’ont pas eu le temps de tester rigoureusement, le choix est parfois difficile. Et pourrait avoir des répercussions à long terme. Comme le signalait un article publié dans le MIT Technology Review, “the pandemic has turned into a gateway for AI adoption in health care—bringing both opportunity and risk. On the one hand, it is pushing doctors and hospitals to fast-track promising new technologies. On the other, this accelerated process could allow unvetted tools to bypass regulatory processes, putting patients in harm’s way.”
Les difficultés et obstacles habituels, beaucoup étant logiques voire essentiels, ne disparaîtront pas d’un coup de baguette magique: obligation de respect de la vue privée, difficulté à généraliser ou à transposer vers d’autres disciplines ou contextes les bienfaits d’une solution IA spécifique, procédures d’homologation, nécessaire vérification scrupuleuse de l’efficacité et de la pertinence réelle des modèles utilisés (par qui ont-ils été créés?) ainsi que des algorithmes et solutions proposées…
Par ailleurs, plusieurs études et analyses récentes douchent quelque peu certains espoirs.
Ainsi une étude de… Google Health sur l’efficacité des outils d’apprentissage profond (deep learning) en milieu clinique a conclu que l’IA risque, dans certains cas, d’“empirer les choses si les systèmes IA ne sont pas adaptés spécifiquement aux environnements cliniques dans lesquels ils sont amenés à opérer”.
Le projet mené, en mode proof of concept, par une équipe de Google Health s’est déroulé dans 11 cliniques thaïlandaises avec, comme cas d’étude, l’entraînement d’un algorithme d’apprentissage profond pour détecter des signes de maladie oculaire chez des patients souffrant de diabète. Dans le cadre de ce projet-pilote, pas moins d’un cinquième des clichés pris sur site par le personnel soignant n’ont pu être analysés et exploités utilement.
A l’évidence, les conditions de travail réel ne procuraient pas toujours au système IA le socle de données de qualité dont il a besoin pour fonctionner utilement. Clichés radio de qualité insuffisante pour cause de conditions d’éclairage déficitaires, clichés mal positionnés… Autant de raisons pour que le système IA refuse tout simplement de fonctionner (à moins qu’il ne produise de faux résultats).
A lire ces deux articles publiés dans le MIT Technology Review
– “Doctors are using AI to triage covid-19 patients. The tools may be here to stay”
– “Google’s medical AI was super accurate in a lab. Real life was a different story”