IA en santé : jusqu’où l’autonomie-machine fait-elle sens ?

publié le 2 septembre 2024

Jusqu’où confier aux algorithmesle soin de décider de diagnostics, de la signification de clichés, de l’interprétation des données médicales ? La notion de “garantie humaine”, c’est-à-dire d’une vérification ou d’un arbitrage par un humain qualifié, gagne du terrain.

Mais, s’interrogent les observateurs, même si elle apparaît comme nécessaire face aux faiblesses ou aux travers (toujours bien réels) de l’ »intelligence” artificielle, cette intervention humaine ne va-t-elle pas à l’encontre des objectifs-mêmes du recours à l’IA, du moins dans une certaine mesure ?

C’est la question que pose notamment Cory Doctorow, militant open source et auteur de science-fiction canado-britannique (auteur notamment de “The Internet Con. How to Seize the Means of Computation”), à l’occasion d’un entretien accordé au journal Le Monde.

“Quand on parle de ces cas d’usages sensibles (la santé, la conduite autonome de véhicules…), les entreprises de l’IA proposent généralement comme solution d’ajouter un humain dans la boucle, pour vérifier la décision ou le contenu produit par le logiciel. Mais l’intérêt pratique et financier de ces IA est, selon leurs créateurs, qu’elles sont censées agir beaucoup plus rapidement que les humains. Et si on a besoin de gens pour revoir chacune de leurs actions, cela limite la rentabilité et les éventuels gains en productivité.”

Dans l’entretien, il s’interroge sur la validité des arguments “pro-productivité” de l’IA ou encore sur la réalité de l’“intelligence” que d’aucuns veulent affubler leurs solutions – ou leur discours marketing.

Article intitulé “L’intelligence artificielle est une bulle : il y a un décalage entre les coûts, très importants, et les revenus potentiels”, à lire via ce lien.