Skip to main content

24 Août, 2022

Un algorithme peut prédire les futurs crimes avec une précision de 90 %. Voici pourquoi son créateur pense que cette technologie ne sera pas utilisée à mauvais escient.

Un algorithme peut prédire les futurs crimes avec une précision de 90 %. Voici pourquoi son créateur pense que cette technologie ne sera pas utilisée à mauvais escient.

Le modèle d’IA a été testé dans huit villes des États-Unis et prédit les crimes futurs avec une précision de 80 à 90 %, sans être entaché de partialité.

Le professeur Ishanu Chattopadhyay dirige le ZeD Lab à l’université de Chicago, où il étudie les algorithmes et les données. Il parle de l’IA qu’il a développée et qui permet de prévoir les crimes commis plusieurs jours avant qu’ils ne se produisent.

Votre algorithme a réussi à prédire les crimes dans les villes américaines une semaine avant qu’ils ne se produisent. Comment avez-vous construit cet algorithme ?

La ville de Chicago et les sept autres villes que nous avons étudiées ont commencé à publier des journaux d’événements criminels dans le domaine public. À Chicago, ces journaux sont en fait mis à jour quotidiennement avec une semaine de retard.

Ces journaux contiennent des informations sur ce qui s’est passé, le type de crime, le lieu, la latitude, la longitude et l’horodatage. À Chicago, nous disposons également d’informations indiquant si des arrestations ont été effectuées lors d’interactions avec les agents de police.

Nous commençons donc par ce journal des événements, puis nous numérisons la ville en petites zones de deux pâtés de maisons par deux pâtés de maisons, soit environ 300 mètres de large. Et dans l’une de ces zones, nous verrons cette série chronologique de ces différents événements, comme les crimes violents, les crimes contre la propriété, les homicides, etc. Cela donne des dizaines de milliers de séries chronologiques qui évoluent ensemble.

Notre algorithme examine ces séries temporelles coévolutives, puis détermine comment elles dépendent les unes des autres et comment elles se contraignent mutuellement, c’est-à-dire comment elles se façonnent mutuellement. Cela donne un modèle très complexe.

Il est alors possible de faire des prévisions sur ce qui va se passer, disons, une semaine à l’avance à un endroit particulier, à plus ou moins un jour près. A Chicago, par exemple, nous sommes mercredi. En utilisant notre algorithme, vous pouvez dire que mercredi prochain, à l’intersection de la 37e rue et de Southwestern Avenue, il y aura un homicide.

Comment envisagez-vous la manière dont votre algorithme pourrait être utilisé ?

Les gens craignent qu’il soit utilisé comme un outil pour mettre les gens en prison avant qu’ils ne commettent des crimes. Cela ne se produira pas, car l’algorithme n’en a pas la capacité. Il ne fait que prédire un événement à un endroit précis. Il ne vous dit pas qui va commettre l’événement ou la dynamique ou la mécanique exacte des événements. Il ne peut pas être utilisé de la même manière que dans le film Minority Report.

À Chicago, la plupart des personnes qui perdent la vie dans des crimes violents sont en grande partie dues à la violence des gangs. Ce n’est pas comme un film de Sherlock Holmes où un meurtre alambiqué se produit. Il est en fait très facile d’agir si vous êtes informé une semaine à l’avance – vous pouvez intervenir. Il ne s’agit pas seulement de renforcer l’application de la loi et d’envoyer des policiers sur place, mais il existe d’autres moyens d’intervenir socialement pour que les chances que le crime se produise diminuent et, idéalement, qu’il ne se produise jamais.

Ce que nous aimerions faire, c’est permettre une sorte d’optimisation des politiques. Mes cohortes et moi-même avons insisté sur le fait que nous ne voulions pas que ce projet soit utilisé comme un outil politique purement prédictif. Nous voulons que l’optimisation des politiques soit sa principale utilisation. Nous devons permettre cela, car il ne suffit pas de publier un document et de présenter l’algorithme. Nous voulons que le maire ou les administrateurs utilisent le modèle généré pour faire des simulations et informer les politiques.

Les algorithmes précédents de ce type ont été fortement critiqués pour leur partialité, en termes de profils raciaux, par exemple. Comment en tenez-vous compte ?

Les approches qui ont été essayées jusqu’à présent sont des outils d’apprentissage automatique simples, disponibles dans le commerce, qui prennent un ensemble de données gigantesques, déterminent les caractéristiques importantes, puis utilisent ces caractéristiques avec un réseau neuronal complexe standard pour essayer de faire des prédictions.

Le problème avec cette approche est que dès que vous dites que certaines caractéristiques sont importantes, vous allez probablement manquer des choses, et vous obtiendrez donc des résultats trompeurs. C’est ce qui s’est passé au sein de la police de Chicago [en 2014-2016]. Ils mettaient sur la liste des gens qui étaient susceptibles d’être des auteurs ou des victimes de violence armée, en utilisant une équation impliquant des caractéristiques comme les antécédents d’arrestation. Et cela a fait qu’une grande partie de la population noire s’est retrouvée sur la liste.

Nous essayons de partir uniquement des journaux d’événements. Il n’y a pas de personnes assises pour déterminer les caractéristiques ou les attributs importants. Il y a très peu de saisie manuelle, à part le journal des événements qui nous parvient. Nous avons essayé de réduire les biais autant que possible. C’est en cela que notre modèle est différent des autres modèles qui l’ont précédé.

Beaucoup de gens s’inquiètent du manque de transparence dans le processus de décision de l’IA. Y a-t-il un problème à cet égard ?

Les systèmes d’IA ont été utilisés pour modéliser des systèmes de plus en plus complexes. Il n’est donc pas surprenant que nombre d’entre eux aient tendance à ressembler à une boîte noire. Comparez-les à la façon dont les choses fonctionnaient auparavant. À l’époque, nous avions juste une minuscule équation différentielle pour un système, ce qui nous donnait l’impression de le comprendre. Si nous avons un réseau neuronal géant, nous ne pouvons tout simplement pas comprendre ce qui se passe. C’est donc un problème et il y a beaucoup de travail qui est fait pour expliquer l’IA.

Nous disposons d’un modèle très complexe, que l’on ne peut pas simplement regarder et dont on ne peut pas lire les facteurs. Mais la façon d’y penser est de regarder tous les journaux d’événements. Il y a des observations de ce système social complexe qui interagit avec tous ces facteurs socio-économiques, les facteurs d’application, la démographie, l’économie et toutes ces choses. Tout cela alimente et façonne ce système social que vous modélisez. Vous ne pouvez pas vous attendre à ce qu’un modèle simple ressorte de toutes ces données.

https://www.sciencefocus.com/news/algorithm-predict-future-crimes-90-accuracy-heres-why-creator-thinks-tech-wont-be-abused/

https://ggsb.uchicago.edu/program/faculty/ishanu-chattopadhyay

https://www.nature.com/articles/s41562-022-01372-0