Detenidos 17 individuos en Londres tras una operación de reconocimiento facial por IA

26 de marzo de 2024

La semana pasada, en el sur de Londres, la Policía Metropolitana utilizó cámaras de reconocimiento facial en directo para contribuir a la detención de 17 individuos.

Las detenciones se produjeron en operaciones específicas llevadas a cabo los días 19 y 21 de marzo en Croydon y 21 de marzo en Tooting. 

Entre los detenidos había un hombre de 23 años sorprendido en posesión de dos cartuchos de fogueo. Esto llevó a la policía a incautarse de munición, teléfonos móviles robados y cannabis en propiedades vinculadas a ese individuo. El sistema de reconocimiento facial se centró en él debido a una orden de detención pendiente. 

Actualmente, la tecnología está diseñada para identificar a personas que figuran en una "lista de vigilancia a medida", que incluye a personas con órdenes de detención pendientes. La Policía Metropolitana afirma que esta tecnología les permite ejecutar una "labor policial de precisión".

En febrero se efectuaron 42 detenciones utilizando la misma tecnología, aunque no está claro cuántos de los detenidos han sido acusados, según las investigaciones realizadas por Noticias de la BBC.

Las detenciones abarcaron un amplio espectro de delitos, entre ellos delitos sexuales, agresiones, hurtos, fraudes, robos con allanamiento de morada, acoso con agravantes raciales e incumplimientos de las órdenes de comportamiento antisocial (ASBO, por sus siglas en inglés).

Tras la operación, la policía declaró que ofrecía a las comunidades "información y tranquilidad" sobre su actuación.

El reconocimiento facial en la policía es controvertido

El año pasado, miembros de la Cámara de los Lores y de los Comunes del Reino Unido querían que la policía reevaluar la tecnología de reconocimiento facial en directo después de que el Ministro de Policía insinuara que las fuerzas policiales tendrían acceso a una base de datos de 45 millones de imágenes de pasaportes.

Michael Birtwistle de la Instituto Ada Lovelace coincidió con su escepticismo: "La precisión y la base científica de las tecnologías de reconocimiento facial son muy discutidas, y su legalidad es incierta".

Grupo de defensa de los derechos civiles Big Brother Watch también destacó que 89% de las alertas de reconocimiento facial de la policía británica fallan.

Lindsey Chiswick, directora de inteligencia de la Policía Metropolitana, trató de disipar las preocupaciones sobre la privacidad. No conservamos sus datos. Si no hay coincidencia, sus datos se borran inmediata y automáticamente en segundos". Chiswick también afirmó que la tecnología ha sido "sometida a pruebas independientes" de fiabilidad y parcialidad. 

Otros lo rebaten. Por ejemplo, Madeleine Stone, de Big Brother Watch, expresó su preocupación por la vigilancia de la IA, tachándola de "orwelliana". 

Stone continuó: "Todo el mundo quiere sacar de la calle a los delincuentes peligrosos, pero tapar las grietas de un sistema policial que cruje con tecnología de vigilancia intrusiva y orwelliana no es la solución. En lugar de perseguir activamente a las personas que suponen un riesgo para el público, los agentes de policía confían en el azar y esperan que las personas buscadas pasen por casualidad por delante de una cámara policial."

Big Brother Watch también dio la voz de alarma sobre una nueva operación en Catford que tuvo lugar ayer (26/03).

Cómo utiliza la policía británica el reconocimiento facial por IA

La policía británica comenzó a probar tecnologías de reconocimiento facial en 2018, desplegando furgonetas equipadas con cámaras para captar imágenes de lugares públicos.

Reconocimiento facial
Un ejemplo de furgoneta de reconocimiento facial en una de las primeras pruebas en el centro de Londres. Fuente: X

Un reciente Solicitud de libertad de información dirigida al Servicio de Policía Metropolitana (MPS) pedía aclaraciones sobre si la IA se utiliza para investigar automáticamente a las personas y cómo se procesan esos datos. 

El MPS reveló el uso de tecnologías de IA como el reconocimiento facial en vivo (LFR) y el reconocimiento facial retrospectivo (RFR) en operaciones específicas.

Sin embargo, el MPS se negó a responder a la mayor parte de la investigación, citando exenciones en virtud de la Ley de Libertad de Información de 2000 relacionadas con la "seguridad nacional", "la aplicación de la ley" y "la protección de los cuerpos de seguridad".

En concreto, el MPS argumentó que divulgar detalles sobre el uso encubierto del reconocimiento facial podría comprometer las tácticas de las fuerzas del orden.

La respuesta de la policía afirma: "Confirmar o negar que cualquier información relacionada con cualquier posible práctica encubierta de Reconocimiento Facial mostraría a los criminales cuál es la capacidad, habilidades tácticas y capacidades del MPS, permitiéndoles apuntar a áreas específicas del Reino Unido para llevar a cabo/realizar sus actividades criminales/terroristas."

Lecciones del pasado

En policía predictiva se concibió para aumentar la seguridad de las comunidades, ha dado lugar a algunos resultados preocupantes, como la detención ilegal de varias personas. 

No se trata de incidentes aislados, sino más bien de una pauta que revela un fallo crítico a la hora de confiar demasiado en la IA para el trabajo policial.

Robert McDaniel en Chicago, a pesar de no tener antecedentes violentos, fue objetivo de la policía como una amenaza potencial simplemente porque un algoritmo lo incluyó en una lista. 

Su historia no es única. En todo Estados Unidos se han dado casos de personas acusadas y detenidas injustamente por coincidencias erróneas de reconocimiento facial. 

La historia de Nijeer Parks es un claro ejemplo. Acusado de delitos con los que no tenía nada que ver, Parks se enfrentaba a penas de cárcel y a una abultada factura judicial, todo por culpa de una coincidencia incorrecta de la tecnología de reconocimiento facial.

La tecnología de reconocimiento facial se ha revelado imprecisa para las personas de piel más oscura, especialmente las mujeres negras. Mientras que el reconocimiento facial de rostros blancos puede ser preciso en más del 90% de los casos, puede ser tan tan bajo como 35% para caras negras.

Según los datos actuales, los grupos marginados son los que más pueden perder con estrategias policiales algorítmicas imprecisas. 

Las detenciones indebidas no sólo son angustiosas para las personas directamente implicadas; también proyectan una larga sombra sobre las comunidades afectadas. 

Cuando se detiene a personas basándose en predicciones y no en acciones concretas, se tambalean los cimientos mismos de la confianza entre las fuerzas del orden y el público. 

De hecho, la confianza de los ciudadanos en la policía está por los suelos tanto en el Reino Unido como en Estados Unidos. La IA amenaza con erosionarla aún más si se gestiona mal. 

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales