L’IA ne peut pas prédire comment la vie d’un enfant va se dérouler, même avec une tonne de données
L’IA ne peut pas prédire comment la vie d’un enfant va se dérouler, même avec une tonne de données

Des centaines de chercheurs ont tenté de prédire les résultats des enfants et des familles, en utilisant 15 ans de données. Aucun n’a pu le faire avec une précision significative.
Les décideurs politiques s’appuient souvent sur le travail des spécialistes en sciences sociales pour prédire comment des politiques spécifiques peuvent affecter les résultats sociaux tels que les taux d’emploi ou de criminalité. L’idée est que s’ils peuvent comprendre comment différents facteurs peuvent changer la trajectoire de vie d’une personne, ils peuvent proposer des interventions pour promouvoir les meilleurs résultats.
Ces dernières années, cependant, ils se sont de plus en plus appuyés sur l’apprentissage machine, qui promet de produire des prévisions bien plus précises en croisant des quantités bien plus importantes de données. De tels modèles sont maintenant utilisés pour prédire la probabilité qu’un accusé soit arrêté pour un second crime, ou qu’un enfant risque d’être maltraité et négligé à la maison. L’hypothèse est qu’un algorithme alimenté avec suffisamment de données sur une situation donnée fera des prédictions plus précises qu’une analyse humaine ou statistique plus basique.
Or, une nouvelle étude publiée dans les « Proceedings of the National Academy of Sciences » (Actes de l’Académie nationale des sciences) jette le doute sur l’efficacité réelle de cette approche. Trois sociologues de l’université de Princeton ont demandé à des centaines de chercheurs de prédire six résultats de vie pour les enfants, les parents et les ménages en utilisant près de 13 000 points de données sur plus de 4 000 familles. Aucun des chercheurs ne s’est approché d’un niveau de précision raisonnable, qu’ils aient utilisé de simples statistiques ou un apprentissage machine de pointe.
« L’étude met vraiment en évidence cette idée qu’au bout du compte, les outils d’apprentissage machine ne sont pas magiques », déclare Alice Xiang, responsable de la recherche sur l’équité et la responsabilité au sein de l’association à but non lucratif Partnership on AI.
Les chercheurs ont utilisé les données d’une étude sociologique de 15 ans intitulée Fragile Families and Child Wellbeing Study, menée par Sara McLanahan, professeur de sociologie et d’affaires publiques à Princeton et l’un des principaux auteurs du nouveau document. L’étude initiale visait à comprendre comment la vie des enfants nés de parents non mariés pouvait évoluer dans le temps. Les familles ont été sélectionnées au hasard parmi les enfants nés dans les hôpitaux des grandes villes américaines au cours de l’année 2000. Elles ont été suivies pour la collecte de données lorsque les enfants avaient 1, 3, 5, 9 et 15 ans.
Sara McLanahan et ses collègues Matthew Salganik et Ian Lundberg ont ensuite conçu un défi pour faire des prédictions sur six résultats de la phase finale qu’ils jugeaient sociologiquement importants. Il s’agissait de la moyenne des enfants à l’école, de leur niveau de « courage » ou de leur persévérance scolaire, et du niveau global de pauvreté dans leur ménage. Les participants au défi, issus de diverses universités, n’ont reçu qu’une partie des données pour entraîner leurs algorithmes, tandis que les organisateurs en ont retenu une partie pour les évaluations finales. Pendant cinq mois, des centaines de chercheurs, dont des informaticiens, des statisticiens et des sociologues informaticiens, ont ensuite soumis leurs meilleures techniques de prédiction.
Le fait qu’aucune soumission n’ait pu atteindre un niveau de précision élevé sur aucun des résultats a confirmé que les résultats n’étaient pas un hasard. « On ne peut pas expliquer un résultat en se basant sur l’échec d’un chercheur en particulier ou d’une technique particulière d’apprentissage automatique ou d’IA », explique Matthew Salganik, professeur de sociologie. Les techniques d’apprentissage machine les plus compliquées n’étaient pas non plus beaucoup plus précises que les méthodes beaucoup plus simples.
Pour les experts qui étudient l’utilisation de l’IA dans la société, les résultats ne sont pas si surprenants. Même les algorithmes les plus précis d’évaluation des risques dans le système de justice pénale, par exemple, ne dépassent pas 60 ou 70 %, explique Alice Xiang. « Peut-être que dans l’abstrait, cela semble plutôt bien », ajoute-t-elle, mais les taux de récidive peuvent de toute façon être inférieurs à 40 %. Cela signifie que prédire l’absence de récidive vous donnera déjà un taux de précision supérieur à 60 %.
De même, la recherche a montré à plusieurs reprises que dans les contextes où un algorithme évalue le risque ou choisit où diriger les ressources, des algorithmes simples et explicables ont souvent presque la même puissance de prédiction que les techniques de la boîte noire comme l’apprentissage approfondi. L’avantage supplémentaire des techniques de la boîte noire ne vaut donc pas les coûts élevés de l’interprétabilité.
Les résultats ne signifient pas nécessairement que les algorithmes prédictifs, qu’ils soient basés sur l’apprentissage machine ou non, ne seront jamais des outils utiles dans le monde politique. Certains chercheurs soulignent, par exemple, que les données collectées à des fins de recherche en sociologie sont différentes des données généralement analysées dans le cadre de l’élaboration des politiques.
Rashida Richardson, directrice politique de l’institut AI Now, qui étudie l’impact social de l’IA, fait également part de ses préoccupations quant à la manière dont le problème de la prédiction a été formulé. Le fait qu’un enfant ait du « cran », par exemple, est un jugement intrinsèquement subjectif que la recherche a montré comme « une construction raciste pour mesurer le succès et la performance », dit-elle. Ce détail l’a immédiatement amenée à se dire : « Oh, il n’y a aucune chance que ça marche ».
Matthew Salganik reconnaît également les limites de l’étude.
Mais il souligne qu’elle montre pourquoi les décideurs politiques devraient être plus attentifs à évaluer la précision des outils algorithmiques de manière transparente. « Le fait de disposer d’une grande quantité de données et d’un apprentissage machine compliqué ne garantit pas la précision des prévisions », ajoute-t-il. « Les décideurs politiques qui n’ont pas autant d’expérience de l’apprentissage machine peuvent avoir des attentes irréalistes à ce sujet ».