Na semana passada, no sul de Londres, a Polícia Metropolitana utilizou câmaras de reconhecimento facial em direto para ajudar na detenção de 17 indivíduos.
As detenções ocorreram durante operações específicas realizadas em 19 e 21 de março em Croydon e em 21 de março em Tooting.
Entre os detidos encontrava-se um homem de 23 anos que foi apanhado na posse de duas munições vazias. Isto levou a polícia a apreender munições, telemóveis roubados e cannabis em propriedades ligadas a esse indivíduo. O sistema de reconhecimento facial visava-o devido a um mandado de detenção pendente.
Atualmente, a tecnologia foi concebida para identificar indivíduos que constam de uma "lista de observação personalizada", que inclui pessoas com mandados de captura pendentes. A Polícia Metropolitana afirma que esta tecnologia lhes permite efetuar um "policiamento de precisão".
Este número segue-se a um registo anterior de 42 detenções efectuadas em fevereiro utilizando a mesma tecnologia, embora ainda não seja claro quantos dos detidos foram acusados, de acordo com os inquéritos efectuados por BBC Notícias.
As detenções abrangeram um amplo espetro de crimes, incluindo crimes sexuais, agressões, furtos, fraudes, roubos, assédio racial agravado e violações de ordens de comportamento antissocial (ASBO).
Na sequência da operação, a polícia disse que ofereceu às comunidades "informações e garantias" sobre as suas acções.
A tecnologia de reconhecimento facial em direto é uma ferramenta precisa de combate ao crime na comunidade. Liderados pela inteligência, colocamos os nossos esforços onde é provável que tenham o maior efeito. pic.twitter.com/N5bKwzAEI1
- Polícia Metropolitana (@metpoliceuk) 5 de abril de 2023
O reconhecimento facial no policiamento é controverso
No ano passado, membros da Câmara dos Lordes e da Câmara dos Comuns do Reino Unido queriam que a polícia reavaliar a tecnologia de reconhecimento facial em direto depois de o ministro da polícia ter dado a entender que as forças policiais teriam acesso a uma base de dados com 45 milhões de imagens de passaportes.
Michael Birtwistle do Instituto Ada Lovelace concordou com o seu ceticismo: "A precisão e a base científica das tecnologias de reconhecimento facial são altamente contestadas e a sua legalidade é incerta".
Grupo de defesa dos direitos civis O Big Brother Watch também destacou que 89% dos alertas de reconhecimento facial da polícia britânica falham.
Lindsey Chiswick, directora dos serviços secretos da Polícia Metropolitana, procurou dissipar as preocupações com a privacidade. Não guardamos os seus dados. Se não houver correspondência, os seus dados são imediata e automaticamente apagados em segundos". Chiswick também afirmou que a tecnologia foi "testada independentemente" quanto à sua fiabilidade e parcialidade.
Outros contestam-no. Por exemplo, Madeleine Stone, da Big Brother Watch, expressou preocupações sobre a vigilância por IA, rotulando-a de "orwelliana".
Stone continuou: "Toda a gente quer criminosos perigosos fora das ruas, mas tapar as fissuras de um sistema de policiamento que está a ranger com tecnologia de vigilância intrusiva e orwelliana não é a solução. Em vez de perseguirem ativamente as pessoas que representam um risco para o público, os agentes da polícia estão a confiar no acaso e a esperar que as pessoas procuradas passem por acaso em frente a uma câmara da polícia".
🚨Alerta de reconhecimento facial em direto🚨
A polícia está a analisar os rostos de um grande número de pessoas em #Catford utilizando uma tecnologia de reconhecimento facial invasiva e defeituosa.
Não há lugar para esta tecnologia orwelliana no policiamento britânico. #StopReconhecimento facial pic.twitter.com/JTcLYRoW7G
- Big Brother Watch (@BigBrotherWatch) 26 de março de 2024
O Big Brother Watch também alertou para uma nova operação em Catford que teve lugar ontem (26/03).
Como é que a polícia do Reino Unido utiliza o reconhecimento facial por IA
A força policial do Reino Unido começou a testar tecnologias de reconhecimento facial em 2018, implantando carrinhas equipadas com câmaras para captar imagens de locais públicos.
Um recente Pedido de liberdade de informação dirigida ao Serviço de Polícia Metropolitana (MPS), procurou esclarecer se a IA é utilizada para rastrear indivíduos automaticamente e como esses dados são processados.
O MPS divulgou a utilização de tecnologias de IA como o reconhecimento facial em direto (LFR) e o reconhecimento facial retrospetivo (RFR) em operações específicas.
No entanto, o MPS recusou-se a responder à maior parte do inquérito, invocando isenções ao abrigo da Lei da Liberdade de Informação de 2000 relacionadas com a "segurança nacional", a "aplicação da lei" e a "proteção dos organismos de segurança".
Especificamente, o MPS argumentou que a divulgação de pormenores sobre a utilização secreta do reconhecimento facial poderia comprometer as tácticas de aplicação da lei.
A resposta da polícia afirma: "Confirmar ou negar que qualquer informação relativa a uma eventual prática encoberta do reconhecimento facial mostraria aos criminosos qual é a capacidade, as aptidões tácticas e as capacidades do MPS, permitindo-lhes visar áreas específicas do Reino Unido para conduzir/realizar as suas actividades criminosas/terroristas."
Lições do passado
Enquanto policiamento preditivo foi concebido para tornar as comunidades mais seguras, conduziu a alguns resultados preocupantes, incluindo a detenção indevida de vários indivíduos.
Não se trata apenas de incidentes isolados, mas sim de um padrão que revela uma falha crítica no facto de se confiar demasiado na IA para o trabalho policial.
Robert McDaniel em Chicago, apesar de não ter antecedentes de violência, foi alvo da polícia como uma ameaça potencial simplesmente porque um algoritmo o colocou numa lista.
A sua história não é única. Em todos os EUA, houve casos em que pessoas foram injustamente acusadas e presas com base em correspondências de reconhecimento facial incorrectas.
A história de Nijeer Parks é um exemplo flagrante. Acusado de crimes com os quais nada tinha a ver, Parks enfrentou uma pena de prisão e uma pesada fatura legal - tudo por causa de uma correspondência incorrecta da tecnologia de reconhecimento facial.
A tecnologia de reconhecimento facial foi exposta como incorrecta para indivíduos de pele mais escura, em especial mulheres negras. Embora o reconhecimento facial de rostos brancos possa ser exato em mais de 90% dos casos, pode ser tão tão baixo quanto 35% para faces negras.
De acordo com os dados actuais, os grupos marginalizados são os que mais perdem com as estratégias imprecisas de policiamento algorítmico.
As detenções injustas não são apenas angustiantes para as pessoas diretamente envolvidas; também lançam uma longa sombra sobre as comunidades afectadas.
Quando as pessoas são presas com base em previsões e não em acções concretas, isso abala os próprios alicerces da confiança entre as forças da ordem e o público.
De facto, a confiança do público na polícia está no fundo do poço, tanto no Reino Unido como nos EUA. Se for mal gerida, a IA ameaça corroer ainda mais essa confiança.