Skip to main content

17 Jan, 2024

Un nouvel événement olympique : la vidéosurveillance algorithmique

Un nouvel événement olympique : la vidéosurveillance algorithmique

Les retombées des Jeux olympiques de la sécurité arrivent pour vous, et vous, et vous

Alors que les skieurs faisaient des écarts dans un parc à neige à l’extérieur de Pékin pendant les Jeux olympiques d’hiver de 2022, certains ont peut-être remarqué une série de tours le long du chemin. Savaient-ils que ces tours collectaient des longueurs d’onde sur tout le spectre et parcouraient les données à la recherche de signes de mouvements suspects ? Se souciaient-ils d’être les sujets involontaires d’ une expérience de surveillance des frontières basée sur l’Internet des objets ?

Cet été, aux Jeux Olympiques de Paris, les responsables de la sécurité réaliseront une expérience bien plus vaste au cœur de la Ville Lumière, couvrant les épreuves, l’ensemble du village olympique, ainsi que les liaisons routières et ferroviaires. Cette procédure sera régie par une loi temporaire autorisant les systèmes de surveillance automatisés à détecter des « événements prédéterminés » susceptibles de conduire à des attaques terroristes.

Cette fois, les gens s’en soucient. Eh bien, c’est le cas des défenseurs de la vie privée. « La surveillance de masse basée sur l’IA est un projet politique dangereux qui pourrait conduire à de vastes violations des droits humains. Chaque action dans un espace public sera aspirée par un réseau d’infrastructures de surveillance, portant atteinte aux libertés civiques fondamentales », a déclaré Agnès Callamard, secrétaire générale d’Amnesty International , peu après l’adoption de la loi.

Pourtant, le grand public semble indifférent. En effet, lorsque les responsables de la Seine-Saint-Denis, l’un des districts accueillant les Jeux olympiques, ont présenté des informations sur un système préliminaire de vidéosurveillance alimenté par l’IA qui détecterait et infligerait des amendes pour les comportements antisociaux tels que les détritus, les habitants ont levé la main et ont demandé pourquoi ce n’était pas encore dans leurs rues.

« La surveillance n’est pas un concept monolithique. Tout le monde n’est pas contre la surveillance », déclare Matheus Viegas Ferrari , étudiant diplômé en anthropologie de l’Université fédérale de Bahia, au Brésil, et de l’Université Paris 8 : Saint-Denis, à Paris, qui a assisté à la réunion communautaire de Seine-Saint-Denis et a publié une étude sur la surveillance aux Jeux olympiques de 2024 .

Quiconque fulmine contre les voisins qui ne ramassent pas les déjections de leurs chiens peut s’identifier aux habitants de Seine-Saint-Denis qui accueillent et sont surveillés. Toutefois, si le système de surveillance inflige des amendes plus élevées à un voisin négligent qu’à un autre parce que son algorithme favorise une couleur de peau ou un style vestimentaire par rapport à un autre, les opinions pourraient changer.

En effet, la France et d’autres pays de l’Union européenne sont en train de peaufiner les détails de la loi de l’Union européenne sur l’IA , qui vise à protéger la vie privée et les droits des citoyens en réglementant l’utilisation gouvernementale et commerciale de l’IA. La mauvaise mise en œuvre d’une loi sur l’IA liée à la politique sociale a déjà fait tomber un gouvernement européen .

Les pays traitent souvent les Jeux olympiques comme un salon de la sécurité.

Il semble que la loi temporaire sur la surveillance – dont la clause sur le traitement vidéo expire en mars 2025 – ait été rédigée pour éviter une telle issue. Elle insiste sur le fait que les algorithmes placés sous son autorité « ne traitent aucune donnée biométrique et ne mettent en œuvre aucune technique de reconnaissance faciale. Ils ne peuvent procéder à aucun rapprochement, interconnexion ou mise en relation automatisée avec d’autres traitements de données personnelles.

Paolo Cirio, un artiste qui a imprimé des affiches représentant des visages de policiers et les a affichées dans Paris dans le cadre d’un exercice non autorisé de reconnaissance faciale participative, considère ce langage comme un progrès. « Le fait que même pendant les Jeux olympiques en France, le gouvernement doive inscrire dans la loi qu’il n’utilisera pas la technologie biométrique, c’est déjà quelque chose d’incroyable pour moi », dit-il. « C’est le résultat de militants qui se battent depuis des années en France, en Europe et ailleurs. »

La sécurité en chiffres ?

Ce que les autorités peuvent faire au lieu de l’analyse biométrique et de la reconnaissance faciale, c’est d’utiliser des ordinateurs pour analyser la foule en temps réel. La technique remonte à très longtemps et de nombreux aspects de nombreux types de comportement des foules ont été étudiés ; il a même été utilisé pour empêcher les poules de s’entretuer. Et même si les foules peuvent être irrationnelles, leur étude est une science.

Cependant, une foule n’offre pas vraiment l’anonymat à ses membres. Des groupes de la société civile européenne ont fait valoir dans une lettre ouverte que la surveillance nécessiterait nécessairement l’isolement et donc l’identification des individus, privant ainsi des innocents de leur droit à la vie privée.

Il n’est pas clair si cela est vrai ; l’évolution rapide des technologies impliquées rend cette question difficile à répondre. « Vous n’avez pas besoin d’identifier les personnes », explique Jonathan Weber, data scientist de l’ Université de Haute-Alsace , à Mulhouse, en France, et co-auteur d’ une revue d’analyse de foule vidéo . Au lieu de cela, les programmeurs peuvent former un réseau neuronal sur des formes ressemblant à des personnes jusqu’à ce qu’il identifie de manière fiable les êtres humains dans la vidéo suivante. Ensuite, ils peuvent entraîner le réseau neuronal sur des schémas plus sophistiqués, tels que des personnes tombant, courant, se battant, voire se disputant ou portant un couteau.

« Les alertes que nous émettons ne sont pas basées sur la biométrie, mais simplement sur une position, par exemple si une personne est allongée sur le sol », explique Alan Ferbach, cofondateur et PDG de Videtics , société parisienne qui a présenté une offre pour une partie du contrat de sécurité des Jeux Olympiques 2024. Videtics vend déjà des logiciels permettant de détecter les chutes dans les bâtiments ou les déversements sauvages en extérieur, aucun des deux ne nécessitant l’identification des individus.

Mais cela ne suffira peut-être pas à satisfaire les critiques. Même la simple catégorisation du comportement des gens « peut être tout aussi invasive et dangereuse que l’identification des personnes, car elle peut conduire à des erreurs, à la discrimination, à la violation de la vie privée et de l’anonymat dans les espaces publics et peut avoir un impact sur le droit à un procès équitable et l’accès à la justice », déclare Karolina Iwańska, la conseiller en espace civil numérique au Centre européen pour le droit à but non lucratif , une organisation de la société civile basée à La Haye, aux Pays-Bas. Elle a déposé un mémoire d’amicus sur la loi sur la surveillance des Jeux olympiques auprès du Conseil constitutionnel français.

Jonathan Weber est particulièrement préoccupé par la manière dont des données de formation biaisées pourraient conduire à des IA problématiques d’analyse de foule. Par exemple, lorsque l’ACLU a comparé des photos de représentants du Congrès américain à des photos d’identité judiciaire, le logiciel a identifié de manière disproportionnée et erronée les personnes à la peau plus foncée comme des correspondances. 

Les biais potentiels d’un tel algorithme dépendront de la manière dont les développeurs de logiciels le formeront, explique Jonathan Weber : « Vous devez être très prudent et c’est l’un des plus gros problèmes : vous n’aurez probablement pas à votre disposition des tonnes de vidéos de personnes ayant un comportement dangereux pour entraîner l’algorithme.

«A mon avis, nous devons certifier le pipeline de formation», déclare Alan Ferbach. Ensuite, différentes entreprises pourraient développer leurs propres modèles basés sur des ensembles de formations certifiés. « Si nous devons certifier chaque modèle, le coût sera énorme. » Les régulateurs de l’UE doivent encore déterminer comment la loi sur l’IA répondra à ce problème.

Si les développeurs de logiciels parviennent à créer suffisamment de vidéos réelles ou simulées de mauvais comportements pour entraîner leurs algorithmes sans parti pris, ils devront encore déterminer quoi faire avec toutes les données du monde réel qu’ils collectent. « Plus vous collectez de données, plus il y a de risque à l’avenir que ces données finissent dans le public ou entre de mauvaises mains », explique Paolo Cirio. En réponse, certaines entreprises utilisent des outils de floutage des visages pour réduire le risque de fuite de données personnelles. D’autres chercheurs proposent d’enregistrer une vidéo directement au-dessus de la tête, pour éviter d’enregistrer les visages des personnes.

Peut-être avez-vous besoin de biométrie

D’autres chercheurs vont dans la direction opposée en développant des outils permettant de reconnaître les individus ou au moins de les différencier des autres dans une vidéo, grâce à l’analyse de la démarche . Si cette technique était appliquée à la vidéo de surveillance, elle violerait la loi olympique française et contournerait les effets de préservation de la vie privée du flou des visages et de la capture vidéo aérienne. Le fait que la loi interdise le traitement des données biométriques tout en autorisant la détection algorithmique des événements « ne semble être rien de plus qu’un vœu pieux », estime Karolina Iwańska. « Je ne peux pas imaginer comment le système est censé fonctionner comme prévu sans nécessairement traiter des données biométriques. »

Fluage de surveillance

Une autre question qui préoccupe les observateurs de la sécurité des Jeux olympiques est la durée pendant laquelle le système doit rester en place. « Il est très courant que les gouvernements qui souhaitent davantage de surveillance invoquent un événement incitatif, comme une attaque ou un événement majeur à venir, pour justifier leur décision », explique Matthew Guariglia, analyste politique principal à l’ Electronic Frontier Foundation , une organisation de la société civile. à San Francisco. « L’infrastructure reste en place et peut très facilement être réutilisée pour le maintien de l’ordre quotidien. »

La loi olympique française prévoit une date d’expiration, mais Karolina Iwańska qualifie cela d’arbitraire. Elle dit que cela a été fait « sans aucune évaluation de nécessité ou de proportionnalité » aux deux mois des Jeux olympiques et paralympiques.

D’autres historiens des technologies de sécurité et des Jeux olympiques ont souligné que les pays traitent souvent les Jeux olympiques comme un salon de la sécurité . Et même si la France cesse d’utiliser ses algorithmes de traitement vidéo dans les lieux publics après l’expiration de la loi olympique, d’autres pays pourraient les acheter auprès d’entreprises françaises pour leur usage domestique. 

En effet, après les Jeux olympiques de 2008 en Chine, l’Équateur et d’autres pays ayant un bilan mitigé en matière de droits de l’homme ont acheté des équipements de surveillance basés sur les systèmes présentés lors des Jeux olympiques de 2008. L’industrie de la surveillance, en France et ailleurs, a beaucoup à gagner de cette exposition. Les droits de l’homme dans d’autres pays pourraient en pâtir.

Les Jeux olympiques ont également servi de banc d’essai pour trouver des moyens de contourner les mesures de sécurité ennuyeuses. Lorsque les autorités ont installé une clôture autour du village olympique de Lake Placid en 1980, les athlètes ont continué à s’appuyer contre la clôture, déclenchant des alarmes. Après un certain temps, les responsables de la sécurité ont remarqué que les alarmes ne fonctionnaient plus du tout. Il s’est avéré que quelqu’un, peut-être même un responsable de la sécurité, avait débranché le système d’alarme. 

https://spectrum.ieee.org/paris-olympics-2024