Un label français “garantie humaine” pour l’IA en santé
publié le 20 février 2023
On le sait, le sujet de la “garantie humaine” comme garde-fou et moyen de validation et d’évaluation des “décisions” ou conseils générés par des algorithmes IA dans le domaine de la santé est considérée comme une condition essentielle du recours aux outils et mécanismes d’intelligence artificielle dans ce domaine particulièrement sensible. La France fut l’un des premiers pays à s’emparer de ce principe, l’incluant dans sa législation de bioéthique, suivi par l’Europe, qui devrait inclure ce principe dans son règlement sur l’intelligence artificielle (AI Act).
Définition donnée à ce concept: “supervision de l’IA tout au long de sa vie, de la conception à la mise en place, puis au fur et à mesure des éventuelles modifications pendant son utilisation
En ce début d’année, Ethik-IA, initiative académique et citoyenne française qui défend une “régulation positive de l’intelligence artificielle et de la robotisation” en santé, et le Digital Medical Hub, une émanation de l’Assistance publique-hôpitaux de Paris (AP-HP), ont défini un label devant “garantir la conformité d’un dispositif médical” (label qui serait valable deux ans). L’octroi de ce label serait soumis à audit préalable et implique par la suite le recours à un « modèle de supervision humaine de la solution, construit sur mesure, modulé en fonction des risques identifiés et des résultats de l’audit initial”.
La conformité de la solution (dispositif médical) sera examinée et validée – ou non – par un « collège de garantie humaine » composé de représentants des industriels, des professionnels de santé, des patients, du DMH et d’Ethik-IA. Cette évaluation de conformité serait effectuée non seulement pour approbation initiale mais aussi pour vérification de conformité lors de la mise en oeuvre de la solution et tout au long de son cycle de vie et de ses évolutions fonctionnelles.
Parmi les paramètres pris en compte lors de l’audit: la sécurité des systèmes d’information, la sécurité juridique de la solution médicale, l’existence de biais éventuels qui se seraient glissés – volontairement ou non – dans le processus de création de la solution basée sur IA.
S’ajouterait encore à ces mesures d’évaluation et de labellisation, un contrôle par les autorités de régulation compétentes.
“Il ne faudra plus simplement décrire les technologies et les risques, mais aussi pouvoir adapter la technologie pour qu’elle soit efficace, ce qui implique d’avoir une supervision humaine et un contrôle à l’instant T. On devra être capable, à tout moment, de contrôler chaque étape de la vie du produit. »
Source: TICpharma.fr / APMnews