17 persone arrestate a Londra dopo un'operazione di riconoscimento facciale dell'IA

26 marzo 2024

La scorsa settimana, nel sud di Londra, la polizia metropolitana ha utilizzato le telecamere per il riconoscimento facciale per contribuire all'arresto di 17 persone.

Gli arresti sono avvenuti durante operazioni specifiche condotte il 19 e il 21 marzo a Croydon e il 21 marzo a Tooting. 

Tra gli arrestati c'era un uomo di 23 anni sorpreso in possesso di due munizioni a salve. Questo ha portato la polizia a sequestrare munizioni, telefoni cellulari rubati e cannabis da una proprietà collegata a questo individuo. Il sistema di riconoscimento facciale lo ha preso di mira a causa di un mandato di arresto pendente. 

Attualmente, la tecnologia è progettata per identificare le persone presenti in una "lista di controllo su misura", che include persone con mandati di arresto pendenti. La Metropolitan Police afferma che questa tecnologia consente di eseguire "un'azione di polizia di precisione".

Questo fa seguito a un precedente conteggio di 42 arresti effettuati a febbraio utilizzando la stessa tecnologia, anche se non è chiaro quanti degli arrestati siano stati incriminati, secondo le indagini effettuate da Notizie della BBC.

Gli arresti hanno riguardato un ampio spettro di reati, tra cui reati sessuali, aggressioni, furti, frodi, furti con scasso, molestie aggravate dalla razza e violazioni di ordini di comportamento antisociale (ASBO).

Dopo l'operazione, la polizia ha dichiarato di aver offerto alle comunità "informazioni e rassicurazioni" sulle proprie azioni.

Il riconoscimento facciale nelle forze di polizia è controverso

L'anno scorso, i membri della Camera dei Lord e dei Comuni del Regno Unito hanno chiesto alla polizia di rivalutare la tecnologia di riconoscimento facciale dal vivo dopo che il ministro della polizia ha accennato alla possibilità per le forze di polizia di accedere a un database di 45 milioni di immagini di passaporti.

Michael Birtwistle del Istituto Ada Lovelace Concorda con il loro scetticismo: "L'accuratezza e le basi scientifiche delle tecnologie di riconoscimento facciale sono molto contestate e la loro legalità è incerta".

Gruppo di difesa dei diritti civili Big Brother Watch ha anche evidenziato che 89% degli avvisi di riconoscimento facciale della polizia britannica falliscono.

Lindsey Chiswick, direttore dell'intelligence della Metropolitan Police, ha cercato di dissipare le preoccupazioni sulla privacy. Ha dichiarato alla BBC: "Non conserviamo i vostri dati. Se non c'è corrispondenza, i vostri dati vengono immediatamente e automaticamente cancellati in pochi secondi". Chiswick ha inoltre affermato che la tecnologia è stata "testata in modo indipendente" per verificarne l'affidabilità e la parzialità. 

Altri contestano questa affermazione. Ad esempio, Madeleine Stone di Big Brother Watch ha espresso preoccupazione per la sorveglianza dell'intelligenza artificiale, definendola "orwelliana". 

Stone ha continuato: "Tutti vogliono togliere dalla strada i criminali pericolosi, ma coprire le crepe di un sistema di polizia scricchiolante con una tecnologia di sorveglianza invadente e orwelliana non è la soluzione. Invece di perseguire attivamente le persone che rappresentano un rischio per il pubblico, gli agenti di polizia si affidano al caso e sperano che le persone ricercate passino per caso davanti a una telecamera della polizia".

Big Brother Watch ha anche lanciato l'allarme su una nuova operazione a Catford che ha avuto luogo ieri (26/03).

Come la polizia britannica utilizza il riconoscimento facciale AI

Le forze di polizia del Regno Unito hanno iniziato a testare le tecnologie di riconoscimento facciale nel 2018, distribuendo furgoni dotati di telecamere per catturare filmati da luoghi pubblici.

Riconoscimento facciale
Un esempio di furgone per il riconoscimento facciale durante una prima prova nel centro di Londra. Fonte: X

Un recente Richiesta di informazioni sulla libertà diretto al Metropolitan Police Service (MPS) ha chiesto chiarimenti sull'utilizzo dell'intelligenza artificiale per lo screening automatico delle persone e sulle modalità di trattamento dei dati. 

L'MPS ha rivelato l'utilizzo di tecnologie AI come il riconoscimento facciale dal vivo (LFR) e il riconoscimento facciale retrospettivo (RFR) nell'ambito di operazioni specifiche.

Tuttavia, l'MPS si è rifiutato di rispondere alla maggior parte dell'inchiesta, citando le esenzioni previste dalla legge sulla libertà d'informazione del 2000 relative alla "sicurezza nazionale", all'"applicazione della legge" e alla "protezione degli organi di sicurezza".

In particolare, l'MPS ha sostenuto che la divulgazione di dettagli sull'uso segreto del riconoscimento facciale potrebbe compromettere le tattiche di applicazione della legge.

La risposta della polizia afferma che: "Confermare o negare che qualsiasi informazione relativa a un'eventuale pratica segreta di riconoscimento facciale mostrerebbe ai criminali quali sono le capacità, le abilità tattiche e le capacità dell'MPS, consentendo loro di prendere di mira aree specifiche del Regno Unito per condurre/svolgere le loro attività criminali/terroristiche".

Lezioni dal passato

Mentre polizia predittiva è stato concepito per rendere le comunità più sicure, ha portato a risultati preoccupanti, tra cui l'arresto illegittimo di diverse persone. 

Non si tratta di incidenti isolati, ma piuttosto di uno schema che rivela un difetto critico nell'affidarsi troppo pesantemente all'IA per il lavoro della polizia.

Robert McDaniel a Chicago, nonostante non avesse precedenti di violenza, è stato preso di mira dalla polizia come una potenziale minaccia solo perché un algoritmo lo ha inserito in una lista. 

La sua storia non è unica. In tutti gli Stati Uniti si sono verificati casi di persone accusate e arrestate ingiustamente sulla base di un riconoscimento facciale errato. 

La storia di Nijeer Parks ne è un esempio lampante. Accusato di crimini con i quali non aveva nulla a che fare, Parks ha rischiato il carcere e un'ingente spesa legale, tutto a causa di un'errata corrispondenza con la tecnologia di riconoscimento facciale.

La tecnologia di riconoscimento facciale si è rivelata imprecisa per le persone con la pelle più scura, in particolare per le donne di colore. Mentre il riconoscimento facciale per i volti bianchi può essere accurato in oltre 90% dei casi, può essere altrettanto a partire da 35% per le facce nere.

In base alle prove attuali, i gruppi emarginati sono quelli che più di tutti possono perdere da strategie di polizia algoritmiche inaccurate. 

Gli arresti illegittimi non sono solo dolorosi per le persone direttamente coinvolte, ma gettano anche un'ombra lunga sulle comunità interessate. 

Quando le persone vengono arrestate sulla base di previsioni piuttosto che di azioni concrete, viene meno il fondamento stesso della fiducia tra le forze dell'ordine e il pubblico. 

In effetti, la fiducia dei cittadini nella polizia è ai minimi termini sia nel Regno Unito che negli Stati Uniti. L'intelligenza artificiale rischia di erodere ulteriormente questa fiducia se gestita male. 

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni