L’intelligence artificielle ne mène pas forcément à une médecine plus équitable
publié le 30 septembre 2019
En quoi le recours à des algorithmes et mécanismes d’apprentissage automatique peut-il réellement procurer un outil efficace pour optimiser les “performances” financières d’un hôpital? Par exemple, en prédisant la durée de séjour à l’hôpital en vue de gérer de manière optimale les ressources – en ce comprises humaines – de l’établissement.
Et cela est-il réellement compatible avec des considérations d’optimisation des soins et des notions d’égalité, d’équité et d’éthique? Diverses études ainsi que l’analyse de projets déployés aux Etats-Unis ont réservé quelques surprises lorsque l’on s’est penché sur la précision des algorithmes d’intelligence artificielle.
En cause notamment, des biais inattendus, insidieux, qui faussaient la pertinence des données sur lesquelles les développeurs se sont basées pour élaborer leurs algorithmes. Or ces données sont elles-mêmes le reflet de systèmes de santé qui ne profitent pas forcément de manière égalitaire et équitable à tous les bénéficiaires, pour de multiples raisons (sociales, culturelles, parfois politiques…).
Aux Etats-Unis, il a par exemple été déterminé que si certains algorithmes étaient rectifiés afin d’attribuer une notation égalitaire entre blancs et noirs, le nombre de patients noirs acceptés dans certains programmes de soins bénéficiant de financements particuliers serait deux fois plus élevé qu’il ne l’est actuellement.
Les algorithmes tels qu’ils sont actuellement conçus portent donc en eux un dangereux virus, en quelque sorte, ayant pour effet d’accentuer les inégalités et inéquités.
De même, certains algorithmes de détection de cancer du sein chez les femmes sont certes pertinents pour une population occidentale mais inefficace sur une population africaine. Un exemple d’un autre problème: l’applicabilité globale des algorithmes.
Un article récent de Nature illustre ces divers problèmes, sur base de cas concrets.