Prédiction médicale sous influence
publié le 28 octobre 2019
Des chercheurs de l’Université de Californie à Berkeley ont révélé que l’un des algorithmes utilisés à grande échelle par des prestataires de santé américains afin de prédire quels patients auront le plus besoin de soins médicaux supplémentaires est… basé sur un biais cognitif plutôt gênant.
L’outil souffre en effet d’un biais racial, enclin à prédire, à état de santé égal, un score de risque plus élevé pour des personnes de race blanche par rapport à des personnes de race noire. A contrario, lorsqu’un patient noir est plus malade qu’une personne de race blanche, le “score de risque” ne le fait pas remonter dans la hiérarchie.
L’étude des chercheurs de l’UC Berkeley a ainsi déterminé que seulement 17,7% de patients noirs avaient été identifiés comme susceptibles de recevoir des soins supplémentaires… contre 46,5% de blancs.
Les chercheurs n’ont pas révélé le nom du logiciel pris en défaut mais, selon le Washington Post, il s’agirait d’Optum, de l’assureur UnitedHealth.
La source du biais? Un manque de discernement dans la manière dont les statistiques ont été utilisées. L’algorithme a en effet été entraîner sur des informations concernant les frais de santé antérieurs de quelque 50.000 patients d’un hôpital américain. Le problème? “Pour des raisons socio-économiques notamment, les patients de race noire encourent des frais de santé inférieurs à ceux de patients blancs souffrant soucis de santé”.
L’histoire se finit bien. Alerté, l’éditeur aurait corrigé son algorithme “réduisant la disparité de plus de 80%”.