Laissée sans contrôle, l’intelligence artificielle peut devenir préjudiciable toute seule
Laissée sans contrôle, l’intelligence artificielle peut devenir préjudiciable toute seule
Si l’intelligence artificielle dirigeait le monde, ce ne serait pas si grave: elle pourrait objectivement prendre des décisions sur le genre de choses que les humains ont tendance à bousiller. Mais si nous passons les rênes à l’Intelligence Artificielle, il faut que ce soit juste. Et jusqu’à présent, ce n’est pas le cas. Les IA entrainées en fonction d’ensembles de données annotés ou organisés par des personnes ont tendance à apprendre les mêmes préjugés racistes, sexistes ou hostiles que ces personnes.
Lentement, les programmeurs semblent corriger ces dérives. Mais même si nous réussissons à garder nos propres préjugés hors de notre code, il semble que l’IA est maintenant capable de tout développer par elle-même.
Une nouvelle étude publiée dans Scientific Reports montre comment un réseau d’agents d’IA a développé de manière autonome non seulement une préférence de groupe pour d’autres agents similaires mais aussi une dérive active contre ceux qui étaient différents. En fait, les scientifiques ont conclu qu’il fallait très peu de capacité cognitive pour développer ces dérives, ce qui signifie qu’il pouvait apparaître dans les codes partout.
Les agents IA ont été mis en place afin de pouvoir donner de l’argent virtuel à d’autres agents, dans le but d’obtenir autant que possible en retour. Essentiellement, ils devaient choisir combien partager et avec quels autres agents partager. Les chercheurs à l’origine de l’expérience ont vu deux tendances émerger : les agents IA étaient plus susceptibles de faire un don à d’autres qui avaient été étiquetés avec des caractéristiques similaires (désignées par une valeur numérique arbitraire) et un préjugé actif contre ceux qui étaient différents. Les agents IA semblaient avoir appris qu’un don au résultat du groupe entraînerait davantage de réciprocité – et que faire un don à d’autres entraînerait une perte pour eux.
C’est une forme de préjugé plus abstraite que ce que nous voyons dans le monde réel, où les algorithmes sont utilisés pour cibler et opprimer spécifiquement les Noirs. Les agents IA n’ont pas développé un dédain spécifique pour un groupe minoritaire spécifique, comme le font certaines personnes. Au lieu de cela, c’est un préjugé contre un vague «autre», contre tout ce qui est différent d’eux-mêmes. Et, oui, c’est une forme de préjudice qui se limite à cette simulation particulière.
Mais la recherche a de grandes implications dans les applications du monde réel. Si rien n’est fait, de tels algorithmes pourraient mener à un racisme et à un sexisme institutionnalisés plus importants – peut-être dans un scénario extrême, voire à un parti pris anti-humain – malgré tous nos efforts pour le prévenir.
Il existe des moyens de réparer cela, selon l’article. Par exemple, les chercheurs ont découvert qu’ils pouvaient réduire les préjugés en forçant les agents IA à s’engager dans ce qu’ils appelaient un apprentissage global, ou en interagissant avec les différents agents IA en dehors de leur propre bulle. Et lorsque les populations des agents IA avaient plus de traits en général, les niveaux de préjugés ont également diminué, simplement parce qu’il y avait plus de diversité. Les chercheurs ont établi un parallèle pour exposer les personnes ayant des préjugés à d’autres perspectives dans la vie réelle.
De manière plus générale, cela signifie que nous ne pouvons absolument pas laisser l’IA gérer ses propres appareils et supposer que tout se passera bien. Dans son prochain livre, «Hello World: Being Human in the Age of Algorithms», un extrait publié dans le Wall Street Journal, la mathématicienne Hannah Fry nous invite à être plus critiques, plus sceptiques quant aux algorithmes qui façonnent nos vies. Et comme le montre cette étude, ce n’est pas un mauvais conseil.
Peu importe combien nous aimerions croire que les systèmes d’IA sont des machines objectives et impartiales, nous devons accepter qu’il y ait toujours des problèmes dans le système. Pour le moment, cela signifie que nous devons garder un œil sur ces algorithmes et faire attention à nous-mêmes.
https://futurism.com/artificial-intelligence-prejudiced/
https://futurism.com/microsoft-announces-tool-catch-biased-ai/
https://www.nature.com/articles/s41598-018-31363-z
https://www.wsj.com/articles/dont-believe-the-algorithm-1536157620