Médecine, santé et intelligence artificielle : prendre les devants pour ne pas être des marionnettes ?
publié le 24 avril 2023
Message entendu lors de la session d’ouverture du congrès HIMSS (Healthcare Information and Management Systems Society), à Chicago: les professionnels et les établissements de santé doivent s’emparer de l’intelligence artificielle en s’appuyant sur les technologies déjà existantes, sans attendre que les géants ne viennent leur proposer des solutions clés en main.
De la bouche de plusieurs intervenants…
Andrew Moore, ex-Google, directeur de Lovelace AI: ”pas rester immobiles et attendre de voir ce qui se passe”. Et d’ajouter: “Les hôpitaux doivent utiliser les grands modèles linguistiques (LLM ou IA générative] pour créer maintenant leurs propres cas d’usage. Il ne faut pas attendre que quelques experts le fassent pour vous”.
Peter Lee, Microsoft: “Les acteurs de la santé doivent essayer la technologie par eux-mêmes, puis travailler ensemble pour déterminer si, quand et comment l’IA doit être utilisée.”
Sans pour autant méconnaître ou négliger les risques, rappelait Kay Firth-Butterfield, directrice générale du Centre for Trustworthy Technology: responsabilités juridiques, gestion “éclairée” des énormes quantités de données impliquées, surveillance leur véracité, authenticité et origine, “décryptage” autant que faire se peut du code source et de ce qu’il contient ou de la manière dont il a été généré, manque de transparence des modèles d’entraînement…
Comme le soulignait Reid Blackman, directeur général de Virtue, société de conseil spécialisée dans l’éthique de l’intelligence artificielle, “ChatGPT prédit des mots mais ne réfléchit pas sur leur sens. Même si le diagnostic est exact, faut-il s’en contenter sans comprendre comment l’IA en est arrivée là? »
Source: TICsante.com