Cette caméra de sécurité japonaise avec IA montre que l’avenir de la surveillance sera automatisé
Cette caméra de sécurité japonaise avec IA montre que l’avenir de la surveillance sera automatisé
Le monde de la surveillance automatisée est en plein essor, avec de nouvelles techniques d’apprentissage automatique permettant aux caméras de vidéosurveillance de repérer des comportements troublants sans surveillance humaine. Et tôt ou tard, cette technologie sera intégrée dans les magasins près de chez vous, comme illustrée par la nouvelle caméra de sécurité avec IA fabriquée par le géant de télécoms, NTT East, et la start-up Earth Eyes Corp.
La caméra de sécurité s’appelle « AI Guardman » et est conçue pour aider les commerçants japonais à identifier les voleurs potentiels à l’étalage. Elle utilise la technologie open source développée par Carnegie Mellon University pour scanner les flux vidéo en direct et estimer les poses de tout corps visible. (Il faut penser à la caméra Kinect, mais qui utilise des données 2D au lieu de données 3D pour suivre les personnes.) Le système tente ensuite de faire correspondre cette pose à un comportement «suspect» prédéfini. Si elle voit quelque chose de notifiable, elle alerte les commerçants via une application connectée.
Une vidéo de démonstration d’une version prototype de la technologie publiée par Earth Eyes donne un bon aperçu de son fonctionnement
AI Guardman est en cours de développement depuis au moins quelques années, mais le mois dernier, NTT East et Earth Eyes ont partagé les résultats de plusieurs tests effectués avec cette caméra. Comme on aurait pu s’y attendre, le retour était « brillant »; car selon le site japonais IT Media, NTT East et Earth Eyes affirment que la AI Guardian a réduit les vols à l’étalage de 40%.
Sans vérification indépendante, ces allégations devraient être prises avec précaution, mais la technologie sous-jacente est certainement solide. Les nouvelles techniques d’apprentissage profonde sont plus rapides et moins coûteuses que jamais et se développent avec des capacités similaires. Des fonctionnalités équivalentes font également leur chemin vers les caméras de sécurité à domicile, avec des sociétés telles que Amazon et Nest offrant des analyses rudimentaires en IA, comme établir une différence entre un animal et une personne.
L’AI Guardman est remarquable, cependant, comme un produit avec des fonctionnalités avancées que les clients seront en mesure d’acheter, de brancher, et commencer à faire fonctionner sans trop de retard. Un porte-parole de NTT East a déclaré que la caméra serait mise en vente avec un prix initial d’environ 2150 dollars et un abonnement mensuel de 40 dollars pour le cloud computing. NTT espère commercialiser la caméra dans 10 000 boutiques dans les trois prochaines années. « Notre principale cible est les grandes entreprises bien que nous n’ayons pas l’intention d’omettre les petites », a déclaré un porte-parole.
Une illustration d’AI Guardman. La caméra utilise l’apprentissage profond pour détecter des comportements suspects et alerte un commerçant via une application, qui peut alors s’approcher de l’individu. Image: NTT Est
Mais il y a beaucoup de problèmes potentiels avec la surveillance automatisée, y compris la confidentialité, l’exactitude et la discrimination. Bien que l’IA puisse regarder de manière fiable une personne et déterminer où se trouvent ses parties du corps, il est difficile de faire correspondre cette information à un comportement «suspect», qui dépend du contexte. NTT East l’a admis et a déclaré que les «erreurs courantes» de l’AI Guardman incluaient une mauvaise identification des deux clients indécis (qui pourraient ramasser un article, le remettre en place, puis le ramasser), et les vendeurs qui réapprovisionneraient les étalages en « détecter » en tant que voleurs à l’étalage potentiels.
Il est difficile de connaître l’ampleur de ce problème, puisque NTT East a déclaré qu’il n’avait pas publié d’études sur l’exactitude de la technologie et qu’il n’était pas possible d’identifier un comportement innocent comme étant suspect.
Il est également possible que les données d’apprentissage soient biaisées à l’égard de certains groupes ou que la technologie puisse servir de prétexte à la discrimination. (C’est-à-dire, un agent de sécurité suivant quelqu’un dans le magasin parce que «l’ordinateur a dit qu’ils sont suspects.») NTT East a nié que la technologie puisse être discriminatoire car elle «ne trouve pas d’individus pré-enregistrés».
L’évaluation de la technologie est un problème, mais il est clair qu’il est plus probable qu’elle sera plus efficace à l’avenir avec des personnes qui travaillent sur de l’analyse avancée comme la détection de comportement violent dans une foule, et les sociétés technologiques qui vendent des outils de reconnaissance facial à des forces de l’ordre. La prochaine fois que vous marcherez devant une caméra de vidéosurveillance, votre interrogation ne sera pas de savoir qui vous regarde mais quoi
http://www.itmedia.co.jp/news/articles/1805/28/news085.html
http://earth-eyes.co.jp/?page_id=1261