Une nouvelle vague de surveillance renforcée par l'IA se répand aux États-Unis et au Royaume-Uni, les entreprises privées et les agences gouvernementales déployant des caméras alimentées par l'IA pour analyser les foules, détecter les crimes potentiels et même surveiller l'état émotionnel des personnes dans les espaces publics.
Au Royaume-Uni, l'organisme chargé de l'infrastructure ferroviaire Network Rail a récemment testé des caméras d'intelligence artificielle dans huit gares, dont des centres importants comme les gares de Waterloo et d'Euston à Londres, ainsi que celle de Manchester Piccadilly.
Documents obtenu par le groupe des libertés civiles Big Brother Regarder révèle que les caméras visent à détecter les intrusions sur les voies, la surpopulation sur les quais, les "comportements antisociaux" tels que le skateboard et le tabagisme, ainsi que les vols potentiels de vélos.
Plus inquiétant encore, le système d'IA, alimenté par le logiciel Rekognition d'Amazon, a cherché à analyser l'âge, le sexe et les émotions des personnes, telles que la joie, la tristesse et la colère, lorsqu'elles passaient devant des "tripwires" virtuels situés à proximité des barrières d'entrée.
⚠️We a découvert des documents révélant que huit gares ont fait l'objet d'essais AmazonLe logiciel de surveillance de l'IA de l'UE avec ses caméras de vidéosurveillance, dont certaines analysent l'âge, le sexe et les émotions des passagers.
"Le déploiement et la normalisation de la surveillance de l'IA dans ces espaces publics, sans beaucoup... pic.twitter.com/dJLS75ZURH
- Big Brother Watch (@BigBrotherWatch) 17 juin 2024
Le rapport de Network Rail, dont une partie est expurgée, indique qu'il y avait "une caméra dans chaque gare (généralement la caméra de la ligne de départ), où un cliché était pris toutes les secondes lorsque des personnes franchissaient le fil de déclenchement et envoyé pour analyse par AWS Rekognition".
Le rapport indique ensuite : "Potentiellement, la mesure de l'émotion du client pourrait être utilisée pour mesurer la satisfaction" et "Ces données pourraient être utilisées pour maximiser les recettes publicitaires et de vente au détail. Toutefois, il était difficile de quantifier ces données, car les propriétés des NR n'ont jamais été engagées avec succès".
Amazon Rekogniton, une plateforme d'apprentissage automatique de la vision par ordinateur d'Amazon, peut en effet détecter les émotions. Toutefois, il ne s'agissait que d'un essai pilote, et son efficacité n'est pas claire.
Le rapport indique que lors de l'utilisation de caméras pour compter les personnes franchissant les barrières de chemin de fer, "la précision entre les lignes de barrières était uniformément faible, avec une précision moyenne d'environ 50% à 60% par rapport au comptage manuel", mais cette situation devrait s'améliorer.
L'utilisation de la technologie de reconnaissance faciale par les forces de l'ordre a également suscité des inquiétudes. Il n'y a pas si longtemps, la police métropolitaine de Londres a utilisé des caméras de reconnaissance faciale en direct d'identifier et d'arrêter 17 personnes dans les quartiers de Croydon et de Tooting.
Dans le cadre de la "police de précision", cette technologie compare les images des caméras en direct à une liste de personnes faisant l'objet d'un mandat d'arrêt.
En février, la police a utilisé le système pour procéder à 42 arrestations, sans que l'on sache exactement combien d'entre elles ont donné lieu à une inculpation.
"Le déploiement et la normalisation de la surveillance de l'IA dans ces espaces publics, sans grande consultation ni conversation, est une étape très préoccupante", a commenté Jake Hurfurt, responsable de la recherche à Big Brother Watch.
Vos émotions sur une base de données
Les critiques ont affirmé avec véhémence que la reconnaissance faciale menaçait les libertés civiles.
Parlementaires au Royaume-Uni a demandé à la police de reconsidérer sa position comment ils déploient la technologie après avoir suggéré qu'ils pourraient accéder à une base de données de 45 millions de photos d'identité pour mieux former ces modèles de surveillance.
Les experts s'interrogent également sur la précision et la base juridique de la reconnaissance faciale. Big Brother Regarder en argumentant que la majorité (85%+) des correspondances de reconnaissance faciale de la police britannique sont des erreurs d'identification.
Les responsables de la police métropolitaine ont tenté d'apaiser les craintes relatives à la protection de la vie privée en déclarant que les images non conformes sont rapidement effacées et que le système de reconnaissance faciale a fait l'objet d'un audit indépendant.
Cependant, les paroles ne valent rien lorsque l'utilisation abusive de ces systèmes d'IA a un impact réel sur la vie des gens. Les programmes de police prédictive dans les US n'ont généralement pas atteint leurs objectifs, tout en causant des dommages collatéraux sous la forme de harcèlement policier et d'emprisonnements injustifiés.
Les préoccupations concernant les préjugés et l'inexactitude des systèmes de reconnaissance faciale, en particulier pour les personnes de couleur, ont été un sujet de controverse majeur.
Des études ont montré que la technologie peut être nettement moins précise pour les visages à la peau plus foncée, en particulier pour les femmes noires.
Les décideurs politiques devront s'attaquer à des questions difficiles concernant la transparence, la responsabilité et la réglementation de ces outils puissants.
Un débat public solide et des cadres juridiques clairs seront essentiels pour garantir que les avantages de l'IA en matière de sûreté et de sécurité publiques ne soient pas contrebalancés par les risques pour les droits individuels et les valeurs démocratiques.
La technologie étant en plein essor, le temps de faire les comptes pourrait être court.