Quelle responsabilité médicale à l’heure de l’IA en santé ?

Dans une chronique “Droit, Juriste et Pratique du Droit Augmentés” publiée sur le site mesinfos.fr, trois diplômées de la business school française EDHEC abordent la question de la responsabilité médicale en cas d’erreur médicale algorithmique à l’heure où l’intelligence artificielle s’insinue de plus en plus dans les pratiques du secteur de la santé.
“Le praticien demeure-t-il responsable d’un diagnostic erroné produit par une IA ? Le concepteur peut-il l’être ? Ou faut-il penser une responsabilité partagée, voire un nouveau régime spécifique aux technologies autonomes ?”
Les risques et écueils ? Les auteurs rappellent ce qui peut entacher les décisions ou recommandations d’une IA inadaptée : biais en tous genres dans la manière dont les données sont collectées et les algorithmes élaborés ; validation insuffisante des algorithmes, manquant d’indépendance ; manque de transparence sur les performances cliniques ; nécessaire mise à jour continue des dispositifs ; risque de désengagement ou de sur-confiance algorithmique ; déshumanisation progressive du lien thérapeutique médecin-patient…
Les auteurs présentent trois scénarios de responsabilité en cas d’“erreur médicale algorithmique”.
- Le principe fondamental de non-délégation du soin, dans le chef du professionnel de santé, qui “implique que le praticien ne peut se retrancher derrière les recommandations d’un système algorithmique pour se défausser de son obligation de discernement et de supervision”. Selon le code de santé public français, “une erreur de diagnostic imputable à un système d’IA ne saurait exonérer le médecin que si celui-ci a respecté son obligation de vigilance et n’a commis aucune faute dans l’usage du dispositif”.
- La responsabilité de l’établissement de soins : mise en place de protocoles de supervision, formation effective des professionnels à l’usage des outils d’intelligence artificielle, information préalable et loyale des patients sur leur utilisation.
- La responsabilité du concepteur ou fournisseur du système d’IA, en vertu des dispositions de la la directive européenne UE 2024/2853.
Responsabilité partagée, ou à partager, mais selon des principes et des moyens de détermination manquant encore de cohérence, de transparence ou d’applicabilité. “Ce morcellement du risque rend le cadre actuel peu opérationnel”, estiment les auteurs de la chronique. Qui précisent “cette dilution des responsabilités devient d’autant plus problématique que le Droit ne reconnaît pas de personnalité juridique aux systèmes d’intelligence artificielle, empêchant toute mise en cause directe du système en cas de dommage. […] En somme, la structure actuelle du droit de la responsabilité – qu’il soit civil, administratif ou pénal – révèle ses limites face à la complexité interactive de l’acte médical algorithmique. Une relecture systémique des obligations de chaque acteur s’impose, afin de mieux encadrer les risques et garantir la sécurité juridique du soin assisté par l’IA.”
Elles en concluent, documentant leur avis par des positions et analyses de plusieurs chercheurs, juristes et professionnels de l’éthique, que “l’émergence de l’IA en médecine appelle une évolution substantielle des fondements de la responsabilité. […] une réflexion plus prospective interroge la nécessité de créer une obligation générale de vigilance algorithmique. […]”. De punitive, la responsabilité doit devenir plus “structurante”. “Face à cette transformation des pratiques et des risques, il ne s’agit plus d’adapter à la marge un droit existant, mais de construire un cadre juridique clair, structurant et protecteur, à la mesure des enjeux éthiques, médicaux et sociétaux soulevés par l’IA en santé. ”
“L’IA ne saurait être perçue comme neutre ni autonome. Elle ne remplace ni l’expertise clinique, ni l’éthique du soin. L’un des risques documentés est une forme de déresponsabilisation du clinicien face à des recommandations algorithmiques perçues comme objectivées. Or, l’opacité de certains modèles, notamment en deep learning, rend difficile l’évaluation de la pertinence des résultats sans validation humaine.”
Lien vers l’article “Du scalpel à l’algorithme : redéfinir la responsabilité dans le soin” publié par MesInfos.fr.
Lien vers la Directive européenne (UE) 2024/2853 du Parlement européen et du Conseil du 23 avril 2024 relative à la responsabilité en matière de produits défectueux.
Source : mesinfos.fr
Réponses