17 personnes arrêtées à Londres après une opération de reconnaissance faciale par IA

26 mars 2024

La semaine dernière, dans le sud de Londres, la police métropolitaine a utilisé des caméras de reconnaissance faciale en direct pour aider à l'arrestation de 17 personnes.

Les arrestations ont eu lieu lors d'opérations spécifiques menées les 19 et 21 mars à Croydon et le 21 mars à Tooting. 

Parmi les personnes arrêtées, un homme de 23 ans a été surpris en possession de deux cartouches à blanc. La police a alors saisi des munitions, des téléphones portables volés et du cannabis sur des biens liés à cet individu. Le système de reconnaissance faciale l'a ciblé en raison d'un mandat d'arrêt en cours. 

Actuellement, la technologie est conçue pour identifier les individus figurant sur une "liste de surveillance personnalisée", qui comprend les personnes faisant l'objet d'un mandat d'arrêt non exécuté. La police métropolitaine affirme que cette technologie lui permet d'exercer une "police de précision".

Ce chiffre fait suite aux 42 arrestations effectuées en février à l'aide de la même technologie, bien que l'on ne sache pas exactement combien de personnes ont été inculpées, d'après les enquêtes menées par BBC News.

Les arrestations couvrent un large éventail de délits, notamment les délits sexuels, les agressions, les vols, les fraudes, les cambriolages, le harcèlement racial aggravé et les violations d'ordonnances pour comportement antisocial (ASBO).

À la suite de l'opération, la police a déclaré qu'elle avait offert aux communautés "des informations et des garanties" concernant ses actions.

La reconnaissance faciale dans les services de police est controversée

L'année dernière, des membres de la Chambre des Lords et de la Chambre des Communes du Royaume-Uni ont demandé à la police de réévaluer la technologie de reconnaissance faciale en direct après que le ministre de la police a laissé entendre que les forces de police auraient accès à une base de données contenant 45 millions d'images de passeports.

Michael Birtwistle de la Institut Ada Lovelace partage leur scepticisme : "La précision et le fondement scientifique des technologies de reconnaissance faciale sont très contestés, et leur légalité est incertaine".

Groupe de défense des droits civils Big Brother Watch a également mis en évidence que 89% des alertes de reconnaissance faciale de la police britannique échouent.

Lindsey Chiswick, directrice du renseignement de la police métropolitaine, a cherché à dissiper les inquiétudes concernant la protection de la vie privée. Elle a déclaré à la BBC : "Nous ne conservons pas vos données. S'il n'y a pas de correspondance, vos données sont immédiatement et automatiquement effacées en quelques secondes". Chiswick a également affirmé que la technologie a été "testée de manière indépendante" pour en vérifier la fiabilité et l'impartialité. 

D'autres le contestent. Par exemple, Madeleine Stone, de Big Brother Watch, s'est inquiétée de la surveillance de l'IA, la qualifiant d'"orwellienne". 

Tout le monde veut que les criminels dangereux soient mis hors d'état de nuire, mais la solution n'est pas de colmater les fissures d'un système policier défaillant par une technologie de surveillance intrusive et orwellienne. Plutôt que de poursuivre activement les personnes qui représentent un risque pour le public, les policiers s'en remettent au hasard et espèrent que les personnes recherchées passeront par hasard devant une caméra de police".

Big Brother Watch a également tiré la sonnette d'alarme au sujet d'une nouvelle opération qui s'est déroulée hier (26/03) à Catford.

Comment la police britannique utilise la reconnaissance faciale par IA

Les forces de police britanniques ont commencé à tester les technologies de reconnaissance faciale en 2018, en déployant des camionnettes équipées de caméras pour filmer les lieux publics.

Reconnaissance faciale
Un exemple de camionnette de reconnaissance faciale lors d'un premier essai dans le centre de Londres. Source : X

Un récent Demande de liberté d'information adressée au Metropolitan Police Service (MPS) demandait des éclaircissements sur l'utilisation de l'IA pour contrôler automatiquement les individus et sur la manière dont les données sont traitées. 

Le MPS a révélé qu'il utilisait des technologies d'IA telles que la reconnaissance faciale en direct (LFR) et la reconnaissance faciale rétrospective (RFR) dans le cadre d'opérations spécifiques.

Cependant, le MPS a refusé de répondre à l'essentiel de l'enquête, citant les exemptions prévues par la loi de 2000 sur la liberté de l'information (Freedom of Information Act 2000) liées à la "sécurité nationale", à l'"application de la loi" et à la "protection des organes de sécurité".

Plus précisément, le MPS a fait valoir que la divulgation de détails sur l'utilisation secrète de la reconnaissance faciale pourrait compromettre les tactiques d'application de la loi.

La réponse de la police est la suivante : "Confirmer ou infirmer que toute information relative à une éventuelle pratique secrète de reconnaissance faciale montrerait aux criminels la capacité, les aptitudes tactiques et les capacités du MPS, leur permettant de cibler des régions spécifiques du Royaume-Uni pour mener/entreprendre leurs activités criminelles/terroristes".

Les leçons du passé

Tandis que police prédictive a été conçu pour rendre les communautés plus sûres, il a donné lieu à des résultats troublants, notamment l'arrestation injustifiée de plusieurs personnes. 

Il ne s'agit pas d'incidents isolés, mais plutôt d'un modèle qui révèle une faille critique dans le fait de s'appuyer trop fortement sur l'IA pour le travail de la police.

Robert McDaniel à Chicago, bien qu'il n'ait pas d'antécédents violents, a été pris pour cible par la police comme une menace potentielle simplement parce qu'un algorithme l'a placé sur une liste. 

Son histoire n'est pas unique. Dans tous les États-Unis, il y a eu des cas où des personnes ont été accusées et arrêtées à tort sur la base de correspondances de reconnaissance faciale erronées. 

L'histoire de Nijeer Parks en est un exemple frappant. Accusé de crimes avec lesquels il n'avait rien à voir, M. Parks a été condamné à une peine de prison et à une lourde facture juridique, tout cela à cause d'une erreur de concordance de la technologie de reconnaissance faciale.

La technologie de reconnaissance faciale s'est révélée inexacte pour les personnes à la peau plus foncée, en particulier les femmes noires. Alors que la reconnaissance faciale des visages blancs peut être précise dans plus de 90% des cas, elle peut être aussi imprécise pour les personnes à la peau plus foncée, en particulier les femmes noires. à partir de 35% pour les faces noires.

D'après les données actuelles, ce sont les groupes marginalisés qui risquent de perdre le plus à cause des stratégies algorithmiques inexactes de maintien de l'ordre. 

Les arrestations injustifiées ne sont pas seulement pénibles pour les personnes directement concernées ; elles jettent également une ombre sur les communautés touchées. 

Lorsque des personnes sont arrêtées sur la base de prédictions plutôt que d'actions concrètes, cela ébranle les fondements mêmes de la confiance entre les forces de l'ordre et le public. 

En effet, la confiance du public dans la police est au plus bas tant au Royaume-Uni qu'aux États-Unis. L'IA menace d'éroder encore davantage cette confiance si elle est mal gérée. 

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation