Un essai de technologie de reconnaissance faciale dans 18 magasins d’alimentation coopératifs a suscité l’indignation des défenseurs de la vie privée.
Le système, de la start-up Facewatch, alerte les travailleurs si quelqu’un entre dans le magasin qui avait des antécédents de «vol ou de comportement antisocial».
Le supermarché a déclaré que le projet pilote avait été conçu pour protéger les travailleurs des agressions des voleurs à l’étalage.
Les groupes de protection de la vie privée se disent « profondément préoccupés » par le procès.
L’initiative a été organisée par la Southern Co-operative, qui est indépendante de la plus grande chaîne de coopératives mais gère plus de 200 magasins dans le sud de l’Angleterre sous la même marque.
Le procès a été rapporté pour la première fois par le site d’information de Wired, qui a repris un blog publié sur le site Web de Facewatch par l’agent de prévention des pertes de Southern Co-op, Gareth Lewis.
M. Lewis a écrit que le détaillant a terminé un « essai réussi avec Facewatch dans un certain nombre de magasins où le niveau de criminalité est plus élevé ».
La technologie est toujours utilisée dans ces magasins, mais il n’est pas prévu de la déployer plus largement, a déclaré la société à la BBC.
Dans une lettre ouverte au détaillant, Privacy International a remis en question la légalité de la technologie dans les magasins. Il a également demandé si des informations étaient partagées avec la police.
Le directeur du groupe de défense des droits civiques Big Brother Watch, Silkie Carlo, a déclaré: «Voir une entreprise soi-disant éthique utiliser secrètement une technologie abusive des droits comme la reconnaissance faciale sur ses clients au Royaume-Uni est profondément effrayante.
«Cette surveillance est bien connue pour souffrir de graves inexactitudes et biais, conduisant à ce que des innocents soient signalés à tort et placés dans des bases de données criminelles.
« La reconnaissance faciale en direct est plus souvent observée dans les dictatures que dans les démocraties. C’est une grave erreur de jugement de la Southern Co-op et nous les exhortons à abandonner immédiatement ces caméras de type Big Brother. »
Agressions et violence
La coopérative du Sud a déclaré qu’il y avait des signes clairs sur le système dans les magasins impliqués dans l’essai et qu’il était conforme au RGPD.
Dans une déclaration à la BBC, il a ajouté qu’aucune donnée n’avait été partagée avec la police.
«Déjà cette année, nous avons constaté une augmentation de 80% des agressions et de la violence contre nos collègues du magasin.
«Le but de notre utilisation limitée et ciblée de la reconnaissance faciale est d’identifier quand un récidiviste connu entre dans l’un de nos magasins.
« Cela donne à nos collègues le temps de décider de toute action à entreprendre, par exemple en leur demandant de quitter poliment les lieux ou en avertissant la police s’il s’agit d’une violation d’un ordre d’interdiction. »
Il a ajouté que des violences dans les magasins surviennent lorsqu’un « collègue intervient après qu’un vol a déjà eu lieu » et que l’utilisation de la reconnaissance faciale « améliore la sécurité de nos collègues du magasin ».
La coopérative n’est pas le seul supermarché à utiliser la technologie de reconnaissance d’image pour attraper les voleurs.
Cet été, Sainsbury’s a testé un détecteur de dissimulation activé par l’IA dans plusieurs magasins, qui a pu détecter si un client avait empoché un article et envoyer une courte vidéo au personnel de sécurité.
Le supermarché s’est associé à la start-up ThirdEye, qui affirme que le système a arrêté 5 591 tentatives de vol.
Technologie illégale?
La technologie de reconnaissance faciale s’est révélée controversée, avec des questions sur la façon dont elle reconnaît les nuances de peau plus foncées, ainsi que des préoccupations éthiques concernant l’invasion de la vie privée.
En août, l’utilisation de la technologie par les forces de police britanniques a été déclarée illégale dans une affaire intentée par un militant des droits civiques.
Et aux États-Unis, de grandes entreprises technologiques, notamment Amazon et IBM, ont suspendu l’utilisation du logiciel de reconnaissance faciale par la police pour permettre aux législateurs d’envisager une législation sur la façon dont il devrait être déployé.
Facewatch se décrit comme un «système de sécurité de reconnaissance faciale basé sur le cloud» et travaille avec des détaillants en Argentine, au Brésil et en Espagne.
L’année dernière, il a été rapporté que l’entreprise était sur le point de signer des accords de partage de données avec la police métropolitaine et la police de la ville de Londres, et était en pourparlers avec les constabulaires du Hampshire et du Sussex.
source : BBC