À partir du 3 septembre, le Grand Manchester, au Royaume-Uni, sera la dernière région à déployer des caméras d'intelligence artificielle pour détecter automatiquement les conducteurs qui utilisent un téléphone portable ou qui ne portent pas leur ceinture de sécurité.
Les caméras "Heads Up", développées par la société australienne Acusensus, utilisent des algorithmes d'apprentissage automatique pour analyser les images des véhicules qui passent.
L'objectif est d'identifier les infractions au code de la route à une échelle et avec une précision impossibles à atteindre sans l'automatisation de l'IA.
Transport for Greater Manchester (TfGM) est convaincu que le projet contribuera à réduire les pratiques de conduite dangereuses qui contribuent aux accidents.
"Dans le Grand Manchester, nous savons que les distractions et le non-port de la ceinture de sécurité sont des facteurs clés dans un certain nombre de collisions routières qui ont entraîné la mort ou des blessures graves", a déclaré Peter Boulton, directeur du réseau routier de TfGM.
Boulton poursuit : "En utilisant cette technologie de pointe fournie par Acusensus, nous espérons mieux comprendre le nombre de conducteurs qui enfreignent la loi de cette manière, tout en contribuant à réduire ces pratiques de conduite dangereuses et à rendre nos routes plus sûres pour tout le monde".
L'essai fait partie d'un partenariat plus large entre Acusensus et l'agence nationale des autoroutes du gouvernement britannique.
Outre le Grand Manchester, les caméras d'intelligence artificielle seront déployées dans neuf autres régions : Durham, Humberside, Staffordshire, West Mercia, Northamptonshire, Wiltshire, Norfolk, Thames Valley et Sussex.
Le déploiement de nouvelles caméras d'intelligence artificielle n'aidera pas seulement la police à attraper et à punir les conducteurs dangereux. - Cela pourrait aussi être une vache à lait pour le gouvernement. Plus de billets, c'est plus d'argent dans les caisses de l'État.
Fonctionnement des caméras
Le système Acusensus capture deux images de chaque véhicule qui passe : une prise de vue à faible angle pour vérifier le port de la ceinture de sécurité et l'utilisation du téléphone, et un angle plus large pour détecter d'autres comportements à risque, comme l'envoi de SMS.
Le logiciel d'intelligence artificielle analyse ensuite les images afin d'identifier les infractions potentielles et de les soumettre à un examen humain avant l'application de toute sanction.
Le conducteur reçoit un avertissement ou une amende si le contrôle humain confirme une infraction. Si aucune infraction n'est constatée, Acusensus indique que l'image est immédiatement supprimée.
Des projets pilotes antérieurs ont prouvé l'efficacité de ces systèmes de caméras. L'année dernière, dans le Devon et les Cornouailles, un système de caméras de surveillance a été mis en place. Le système de caméra IA dévoilé 117 cas d'utilisation de téléphones portables et 180 violations du port de la ceinture de sécurité en seulement 72 heures.
Si les objectifs de réduction des distractions au volant et d'augmentation du port de la ceinture de sécurité sont louables, l'adoption croissante par le Royaume-Uni de la technologie de surveillance par IA suscite des réactions négatives sur le plan de la protection de la vie privée.
Les groupes de défense de la vie privée s'inquiètent des risques d'erreur d'identification, de partialité et d'utilisation abusive des données collectées. Les risques ne sont pas seulement théoriques ; ils ont déjà été mis en évidence par le passé. Échecs de l'IA dans le maintien de l'ordre.
Aux États-Unis en particulier, il existe plusieurs exemples d'individus accusés à tort par des systèmes automatisés de maintien de l'ordre, ce qui entraîne parfois des peines d'emprisonnement temporaires.
Il n'y a pas si longtemps, les gares britanniques caméras d'IA déployées capable de détecter les crimes, le sexe et même les émotions.
"Le déploiement et la normalisation de la surveillance de l'IA dans ces espaces publics, sans grande consultation ni conversation, est une étape très préoccupante", a déclaré Jake Hurfurt, responsable de la recherche au sein de l'association britannique de défense des libertés civiles Big Brother Watch, en réponse à ce projet.
La police britannique a également intensifié l'utilisation de la reconnaissance faciale pour scanner les foules à la recherche d'individus recherchés, ce qui a conduit à de nombreuses arrestations l'année dernière.
Les émeutes et les troubles récents dans tout le pays ont renforcé l'utilisation de ces technologies pendant les périodes de troubles publics.
Le problème est de savoir si cela s'arrêtera là. Ou bien la surveillance par détection des émotions fera-t-elle partie de la vie moderne ?
Big Brother Watch affirme que la reconnaissance faciale en direct échappe déjà à tout contrôle.
⚠️Met La police a augmenté de 1 000% le nombre d'opérations d'espionnage de la population par reconnaissance faciale en direct et continue de s'étendre.
Pendant ce temps, les magasins scannent les visages des clients en plaçant ces caméras sur les portes.
Il est urgent de mettre un terme à cette technologie intrusive
➡️https://t.co/KIFHRGsqVL pic.twitter.com/Gv29Pl7BdF
- Big Brother Watch (@BigBrotherWatch) 1er septembre 2024
Alors que la surveillance par l'IA devient une nouvelle norme, il sera exceptionnellement difficile de trouver le juste équilibre entre les avantages pour la sécurité publique et les risques pour la vie privée et les libertés civiles.
Il n'est pas très agréable de voir des caméras d'intelligence artificielle s'immiscer dans la vie des gens. Mais il n'est pas non plus confortable de partager la route avec des personnes qui pianotent sur leur téléphone au volant.
Si le système d'IA peut manifestement sauver des vies, les sceptiques pourraient se laisser convaincre. Toutefois, les autorités devront prouver l'efficacité de la technologie et veiller à ce que des mesures de protection des données solides comme le roc soient mises en place.
Bien entendu, le public doit également savoir exactement comment ses données sont collectées, utilisées et sauvegardées.
Le problème, c'est qu'à mesure que ces systèmes se généralisent, ils deviennent aussi plus difficiles à contrôler. Et une mauvaise surveillance peut avoir des conséquences désastreuses.