Skip to main content

5 Août, 2020

L’IA apprend quand elle doit ou pas s’en remettre à un humain

L’IA apprend quand elle doit ou pas s’en remettre à un humain

Un médecin examine l’image de résonance magnétique d’un cerveau humain.

Un médecin ou un système d’IA est-il meilleur pour diagnostiquer un patient particulier ? C’est cet outil d’apprentissage qui fait l’appel.

Le contexte : Des études montrent que lorsque les personnes et les systèmes d’IA travaillent ensemble, ils peuvent être plus performants que l’un ou l’autre agissant seul. Les systèmes de diagnostic médical sont souvent vérifiés par des médecins humains, et les systèmes de modération de contenu filtrent ce qu’ils peuvent avant de demander une assistance humaine. Mais les algorithmes sont rarement conçus pour optimiser ce transfert de l’IA à l’homme. S’ils l’étaient, le système d’IA ne s’en remettrait à son homologue humain que si la personne pouvait réellement prendre une meilleure décision.

La recherche : Les chercheurs du laboratoire d’informatique et d’IA du MIT (CSAIL) ont maintenant développé un système d’IA pour effectuer ce type d’optimisation en se basant sur les forces et les faiblesses du collaborateur humain. Il utilise deux modèles d’apprentissage machine distincts : l’un prend la décision proprement dite, qu’il s’agisse de diagnostiquer un patient ou de supprimer un message sur les médias sociaux, et l’autre prédit si l’IA ou l’humain est le meilleur décideur.

Ce dernier modèle, que les chercheurs appellent « le rejet », améliore itérativement ses prédictions en fonction des antécédents de chaque décideur au fil du temps. Il peut également prendre en compte des facteurs qui vont au-delà de la performance, notamment les contraintes de temps d’une personne ou l’accès d’un médecin à des informations sensibles sur le patient qui ne sont pas disponibles dans le système d’IA.

Les résultats : Les chercheurs ont testé l’approche hybride humain-AI dans divers scénarios, notamment pour des tâches de reconnaissance d’images et pour la détection de discours haineux. Le système d’IA a pu s’adapter au comportement de l’expert et s’y reporter le cas échéant, ce qui a permis aux deux décideurs d’atteindre rapidement un niveau de précision combiné supérieur à celui d’une approche hybride humain-AI précédente.

Étude de cas : Bien que ces expériences soient encore relativement simples, les chercheurs pensent qu’une telle approche pourrait éventuellement être appliquée à des décisions complexes dans le domaine des soins de santé et ailleurs. Envisagez un système d’IA qui aide les médecins à prescrire le bon antibiotique. Si les antibiotiques à large spectre sont très efficaces, leur surutilisation peut entraîner une résistance aux antibiotiques. Les antibiotiques spécifiques, en revanche, évitent ce problème mais ne doivent être utilisés que s’ils ont de fortes chances de fonctionner. Compte tenu de ce compromis, le système d’IA pourrait apprendre à s’adapter aux différents médecins dont les prescriptions présentent des biais différents, et à corriger les tendances à prescrire trop ou pas assez d’antibiotiques à large spectre.

https://www.technologyreview.com/2020/08/05/1006003/ai-machine-learning-defer-to-human-expert

https://arxiv.org/pdf/2006.01862.pdf