L’intelligence artificielle continue de s’infiltrer dans nos vies quotidiennes. Au Japon, la technologie commence à être utilisée avec les caméras de sécurité dans les magasins.
L’AI Guardman est en cours de développement depuis au moins quelques années, mais le mois dernier, NTT East et Earth Eyes ont partagé les résultats de quelques premiers essais avec une caméra. Et selon un rapport du japonais IT Media, NTT East et Earth Eyes affirment qu’AI Guardman a réduit le vol à l’étalage dans les magasins d’environ 40%.
Sans vérification indépendante, ces allégations devraient être prises avec des pincettes, mais la technologie sous-jacente est certainement solide. De nouvelles techniques de machine learning nous ont permis d’analyser les séquences vidéo plus rapidement et à moindre coût que jamais auparavant, et un plus grand nombre d’entreprises au Japon, en Amérique et en Chine développent des produits aux capacités similaires. Des fonctionnalités similaires font également leur chemin dans les caméras de sécurité à domicile, avec des sociétés comme Amazon et Nest offrant des analyses IA rudimentaires, comme repérer la différence entre les animaux et les gens.
Cependant, AI Guardman embarque des fonctionnalités avancées que les clients pourront acheter, brancher, et commencer à utiliser sans trop de retard. Un porte-parole de NTT East a déclaré à The Verge que la caméra serait mise en vente à la fin du mois de juillet, avec un prix initial d’environ 2 150 dollars et un abonnement mensuel de 40 dollars pour le cloud computing. NTT dit qu’il espère présenter l’appareil à 10.000 magasins au cours des trois prochaines années. « Notre cible principale est les grandes entreprises, bien que nous n’ayons pas l’intention d’omettre les petites », a déclaré un porte-parole.
Mais avec la surveillance automatisée, il y a beaucoup de problèmes potentiels, y compris la confidentialité, l’exactitude et la discrimination. Bien que l’IA puisse regarder de manière fiable une personne et déterminer où se trouvent les différentes parties de son corps, il est difficile de faire correspondre cette information à un comportement «suspect», qui dépend du contexte. NTT East l’a admis et a déclaré que les «erreurs courantes» de l’AI Guardman incluaient l’identification erronée des clients indécis (qui pourraient ramasser un objet, le remettre en place, puis le reprendre) ainsi que les vendeurs gérant les stocks comme des voleurs à l’étalage potentiels.
NTT East a déclaré ne pas avoir publié d’études sur l’exactitude de la technologie et ne pouvait partager aucune information sur les statistiques comme son taux de faux positifs (c’est-à-dire, combien de fois il identifie un comportement innocent comme quelque chose méfiant).
Il est également possible que les données d’entraînement soient biaisées à l’égard de certains groupes ou que la technologie puisse servir de prétexte à la discrimination. (C’est-à-dire, un agent de sécurité suivant quelqu’un dans le magasin parce que «l’ordinateur a dit qu’il est suspect.») NTT East a nié que la technologie puisse être discriminatoire car elle «ne trouve pas d’individus pré-enregistrés».
Évaluer une technologie comme celle-ci est difficile à distance, mais il est clair que ce type de surveillance automatisée deviendra de plus en plus répandu dans le futur. La prochaine fois que vous passerez devant une caméra de vidéosurveillance, votre préoccupation ne sera pas de savoir qui regarde, mais quoi.