Même (ou surtout?) en France, l’IA appliquée aux données de santé suscite des inquiétudes
publié le 19 décembre 2019
Quelques jours seulement après le lancement officiel du “HDH” (lisez Health Data Hub), une initiative du gouvernement français destinée à autoriser et organiser la collecte massive de données santé publiques au service de la recherche médicale assistée (ou guidée) par Intelligence Artificielle, de nombreuses voix se sont élevées, venant de professionnels, exprimant leur inquiétude sur les implications et risques.
Le but du HDH est de mettre à disposition des entreprises, professionnels de santé ou organismes de recherche, toutes les données issues des actes médicaux remboursés et favoriser ainsi “l’utilisation et de multiplier les possibilités d’exploitation des données de santé, en particulier dans les domaines de la recherche, de l’appui au personnel de santé, du pilotage du système de santé, du suivi et de l’information des patients.”
Condition sine qua non: formuler une requête prouvant la volonté de développer un projet d’intérêt général (et après autorisation par la Cnil, l’Autorité française de confiance en matière de vie privée).
Plus de détails sur les objectifs de l’initiative HDH sur le site officiel du gouvernement français.
Premier “détail” qui irrite les professionnels et les observateurs: le fait que le stockage et la gestion de ces données aient été confiés à… Microsoft. Au grand dam d’acteurs locaux (français) qui espéraient être retenus.
Risques évoqués: l’accès que les autorités américaines pourraient imposer aux données sensibles de citoyens français, une technique d’anonymisation qui pourrait être insuffisante, la “fragilité” des algorithmes de chiffrement que la NSA (Agence de sécurité américaine) pourrait casser aisément…
Autre inquiétude: que les accès aux données de santé (remboursements, maladies professionnelles, causes de décès…), sous le prétexte de la recherche et de l’innovation, soit possible sans le consentement des patients.
Sans parler de l’incertitude qui plane sur l’utilisation de données santé publiques par des acteurs privés. “On privatise nos données, avec le prétexte de faire tourner des intelligences artificielles d’entreprises censées réaliser des exploits pour la médecine, alors que l’on observe depuis 10 ans que ces outils ne sont pas si performants que ça et demandent de nombreuses interventions humaines pour s’améliorer. Sans oublier que personne ne sait comment sont traitées ces données, et de quoi sont faits les résultats… »
A lire: les arguments et inquiétudes de plusieurs acteurs du secteur ou organismes – notamment Quadrature du Net – dans cet article publié sur le site de TV5 Monde.