Arguments en faveur d’un code de conduite pour l’IA dans les soins de santé
Arguments en faveur d’un code de conduite pour l’IA dans les soins de santé

L’essor de l’IA générative a suscité des appels en faveur de l’introduction d’un cadre pour réglementer son utilisation dans les soins de santé.
L’essor de l’IA générative a incité un éthicien de l’IA à proposer un cadre pour atténuer les risques liés à l’utilisation de cette technologie en constante évolution dans le domaine des soins de santé. Cette initiative coïncide avec l’appel lancé par le directeur général d’OpenAI de ChatGPT aux législateurs américains pour qu’ils commencent à réglementer l’IA afin d’assurer la sécurité de l’humanité.
L’écrivain de science-fiction Isaac Asimov a présenté ses trois lois de la robotique dans la nouvelle « Runaround », publiée en 1942. Il est mort en 1992, bien avant d’avoir pu assister à l’essor de l’IA générative qui s’est produit ces dernières années.
L’IA générative comprend des algorithmes tels que ChatGPT ou DALL-E, qui peuvent être utilisés pour créer un nouveau contenu (texte, images, audio, vidéo et code informatique) en utilisant les données avec lesquelles ils ont été formés. Les grands modèles de langage (LLM) sont un élément clé de l’IA générative. Il s’agit de réseaux neuronaux formés sur de grandes quantités de texte non étiqueté en utilisant l’apprentissage autonome ou semi-supervisé.
Les capacités de l’IA générative se sont développées de manière exponentielle. Dans le domaine de la santé, elle a été utilisée pour prédire les résultats des patients en apprenant à partir d’un vaste ensemble de données sur les patients, a diagnostiqué des maladies rares avec une précision incroyable et a réussi l’examen d’aptitude médicale des États-Unis, obtenant une note de 60 % sans avoir suivi d’apprentissage préalable.
Le potentiel de l’IA à pénétrer l’espace des soins de santé et à remplacer les médecins, les infirmières et les autres professionnels de la santé a incité l’éthicien de l’IA Stefan Harrer à proposer un cadre pour l’utilisation de l’IA générative en médecine.
Stephan Harrer, qui est directeur de l’innovation au Digital Health Cooperative Research Center (DHCRC) et membre de la Coalition for Health AI (CHAI), explique que le problème de l’utilisation de l’IA générative est sa capacité à générer des contenus convaincants qui sont faux, inappropriés ou dangereux.
« L’essence d’une recherche efficace de connaissances consiste à poser les bonnes questions, et l’art de la pensée critique repose sur la capacité de chacun à sonder les réponses en évaluant leur validité par rapport à des modèles du monde », souligne Stephan Harrer, qui est basé à Melbourne, en Australie. « Les LLM ne peuvent accomplir aucune de ces tâches.
Stephan Harrer estime que l’IA générative a le potentiel de transformer les soins de santé, mais qu’elle n’en est pas encore là. À cette fin, il propose l’introduction d’un cadre réglementaire fondé sur l’éthique et composé de dix principes qui, selon lui, atténuent les risques de l’IA générative dans les soins de santé :
- Concevoir l’IA comme un outil d’assistance qui renforce les capacités des décideurs humains mais ne les remplace pas.
- Concevoir l’IA de manière à produire des indicateurs de performance, d’utilisation et d’impact qui expliquent quand et comment l’IA est utilisée pour aider à la prise de décision et qui analysent les biais potentiels.
- Concevoir l’IA en fonction des systèmes de valeurs des groupes d’utilisateurs cibles et s’y conformer.
- Déclarer l’objectif et l’utilisation de l’IA dès le début du travail de conception ou de développement.
- Divulguer toutes les sources de données utilisées pour l’entraînement de l’IA.
- Concevoir l’IA de manière à ce que le contenu généré par l’IA soit étiqueté de manière claire et transparente.
- Contrôler régulièrement l’IA par rapport aux normes de confidentialité, de sécurité et de performance des données.
- Documenter et partager les résultats des audits, informer les utilisateurs sur les capacités, les limites et les risques de l’IA, et améliorer les performances de l’IA en recyclant et en mettant à jour les algorithmes.
Lorsque vous employez des développeurs humains, veillez à ce que des normes de travail équitables et sûres soient appliquées.
Établir un précédent juridique définissant clairement quand les données peuvent être utilisées pour la formation à l’IA, et établir des cadres de droits d’auteur, de responsabilité et d’obligation de rendre compte régissant les données de formation, le contenu généré par l’IA et l’impact des décisions humaines prises à l’aide de ces données.
Il est intéressant de noter que le cadre proposé par M. Harrer coïncide avec les appels lancés par Sam Altman, directeur général de ChatGPT’s Open AI, aux législateurs américains pour qu’ils introduisent une réglementation gouvernementale afin de prévenir les risques potentiels que l’IA fait peser sur l’humanité. M. Altman, qui a cofondé OpenAI en 2015 avec le soutien d’Elon Musk, a suggéré que le gouvernement introduise des exigences en matière de licences et de tests avant la diffusion de modèles d’IA plus puissants.
En Europe, la loi sur l’IA doit être soumise au vote du Parlement européen le mois prochain. S’il est adopté, ce texte pourrait interdire la surveillance biométrique, la reconnaissance des émotions et certains systèmes d’IA utilisés par la police.
Le cadre relativement général proposé par M. Harrer pourrait s’appliquer à de nombreux lieux de travail où l’IA risque de remplacer l’homme. Et cela semble arriver à un moment où les gens, même ceux qui sont responsables de la création de la technologie, demandent au monde de faire une pause.
Les soins de santé sont-ils plus menacés que d’autres secteurs d’emploi ? Un tel cadre est-il bénéfique et, surtout, permettrait-il d’atténuer les risques compte tenu de la vitesse à laquelle l’IA s’améliore ? Seul le temps nous apportera des réponses à ces questions.
https://www.thelancet.com/journals/ebiom/article/PIIS2352-3964(23)00077-4/fulltext
https://journals.plos.org/digitalhealth/article?id=10.1371/journal.pdig.0000198