La semana pasada, en el sur de Londres, la Policía Metropolitana utilizó cámaras de reconocimiento facial en directo para contribuir a la detención de 17 individuos.
Las detenciones se produjeron en operaciones específicas llevadas a cabo los días 19 y 21 de marzo en Croydon y 21 de marzo en Tooting.
Entre los detenidos había un hombre de 23 años sorprendido en posesión de dos cartuchos de fogueo. Esto llevó a la policía a incautarse de munición, teléfonos móviles robados y cannabis en propiedades vinculadas a ese individuo. El sistema de reconocimiento facial se centró en él debido a una orden de detención pendiente.
Actualmente, la tecnología está diseñada para identificar a personas que figuran en una "lista de vigilancia a medida", que incluye a personas con órdenes de detención pendientes. La Policía Metropolitana afirma que esta tecnología les permite ejecutar una "labor policial de precisión".
En febrero se efectuaron 42 detenciones utilizando la misma tecnología, aunque no está claro cuántos de los detenidos han sido acusados, según las investigaciones realizadas por Noticias de la BBC.
Las detenciones abarcaron un amplio espectro de delitos, entre ellos delitos sexuales, agresiones, hurtos, fraudes, robos con allanamiento de morada, acoso con agravantes raciales e incumplimientos de las órdenes de comportamiento antisocial (ASBO, por sus siglas en inglés).
Tras la operación, la policía declaró que ofrecía a las comunidades "información y tranquilidad" sobre su actuación.
🧵| La tecnología de reconocimiento facial en directo es una precisa herramienta comunitaria de lucha contra la delincuencia. Guiados por la inteligencia, ponemos nuestro esfuerzo donde es probable que tenga el mayor efecto. pic.twitter.com/N5bKwzAEI1
- Policía Metropolitana (@metpoliceuk) 5 de abril de 2023
El reconocimiento facial en la policía es controvertido
El año pasado, miembros de la Cámara de los Lores y de los Comunes del Reino Unido querían que la policía reevaluar la tecnología de reconocimiento facial en directo después de que el Ministro de Policía insinuara que las fuerzas policiales tendrían acceso a una base de datos de 45 millones de imágenes de pasaportes.
Michael Birtwistle de la Instituto Ada Lovelace coincidió con su escepticismo: "La precisión y la base científica de las tecnologías de reconocimiento facial son muy discutidas, y su legalidad es incierta".
Grupo de defensa de los derechos civiles Big Brother Watch también destacó que 89% de las alertas de reconocimiento facial de la policía británica fallan.
Lindsey Chiswick, directora de inteligencia de la Policía Metropolitana, trató de disipar las preocupaciones sobre la privacidad. No conservamos sus datos. Si no hay coincidencia, sus datos se borran inmediata y automáticamente en segundos". Chiswick también afirmó que la tecnología ha sido "sometida a pruebas independientes" de fiabilidad y parcialidad.
Otros lo rebaten. Por ejemplo, Madeleine Stone, de Big Brother Watch, expresó su preocupación por la vigilancia de la IA, tachándola de "orwelliana".
Stone continuó: "Todo el mundo quiere sacar de la calle a los delincuentes peligrosos, pero tapar las grietas de un sistema policial que cruje con tecnología de vigilancia intrusiva y orwelliana no es la solución. En lugar de perseguir activamente a las personas que suponen un riesgo para el público, los agentes de policía confían en el azar y esperan que las personas buscadas pasen por casualidad por delante de una cámara policial."
🚨Alerta de reconocimiento facial en directo🚨
La policía está escaneando los rostros de un gran número de personas en #Catford utilizando tecnología de reconocimiento facial invasiva y defectuosa.
No hay lugar para esta tecnología orwelliana en la policía británica. #SarribaReconocimiento facial pic.twitter.com/JTcLYRoW7G
- Gran Hermano Watch (@BigBrotherWatch) 26 de marzo de 2024
Big Brother Watch también dio la voz de alarma sobre una nueva operación en Catford que tuvo lugar ayer (26/03).
Cómo utiliza la policía británica el reconocimiento facial por IA
La policía británica comenzó a probar tecnologías de reconocimiento facial en 2018, desplegando furgonetas equipadas con cámaras para captar imágenes de lugares públicos.
Un reciente Solicitud de libertad de información dirigida al Servicio de Policía Metropolitana (MPS) pedía aclaraciones sobre si la IA se utiliza para investigar automáticamente a las personas y cómo se procesan esos datos.
El MPS reveló el uso de tecnologías de IA como el reconocimiento facial en vivo (LFR) y el reconocimiento facial retrospectivo (RFR) en operaciones específicas.
Sin embargo, el MPS se negó a responder a la mayor parte de la investigación, citando exenciones en virtud de la Ley de Libertad de Información de 2000 relacionadas con la "seguridad nacional", "la aplicación de la ley" y "la protección de los cuerpos de seguridad".
En concreto, el MPS argumentó que divulgar detalles sobre el uso encubierto del reconocimiento facial podría comprometer las tácticas de las fuerzas del orden.
La respuesta de la policía afirma: "Confirmar o negar que cualquier información relacionada con cualquier posible práctica encubierta de Reconocimiento Facial mostraría a los criminales cuál es la capacidad, habilidades tácticas y capacidades del MPS, permitiéndoles apuntar a áreas específicas del Reino Unido para llevar a cabo/realizar sus actividades criminales/terroristas."
Lecciones del pasado
En policía predictiva se concibió para aumentar la seguridad de las comunidades, ha dado lugar a algunos resultados preocupantes, como la detención ilegal de varias personas.
No se trata de incidentes aislados, sino más bien de una pauta que revela un fallo crítico a la hora de confiar demasiado en la IA para el trabajo policial.
Robert McDaniel en Chicago, a pesar de no tener antecedentes violentos, fue objetivo de la policía como una amenaza potencial simplemente porque un algoritmo lo incluyó en una lista.
Su historia no es única. En todo Estados Unidos se han dado casos de personas acusadas y detenidas injustamente por coincidencias erróneas de reconocimiento facial.
La historia de Nijeer Parks es un claro ejemplo. Acusado de delitos con los que no tenía nada que ver, Parks se enfrentaba a penas de cárcel y a una abultada factura judicial, todo por culpa de una coincidencia incorrecta de la tecnología de reconocimiento facial.
La tecnología de reconocimiento facial se ha revelado imprecisa para las personas de piel más oscura, especialmente las mujeres negras. Mientras que el reconocimiento facial de rostros blancos puede ser preciso en más del 90% de los casos, puede ser tan tan bajo como 35% para caras negras.
Según los datos actuales, los grupos marginados son los que más pueden perder con estrategias policiales algorítmicas imprecisas.
Las detenciones indebidas no sólo son angustiosas para las personas directamente implicadas; también proyectan una larga sombra sobre las comunidades afectadas.
Cuando se detiene a personas basándose en predicciones y no en acciones concretas, se tambalean los cimientos mismos de la confianza entre las fuerzas del orden y el público.
De hecho, la confianza de los ciudadanos en la policía está por los suelos tanto en el Reino Unido como en Estados Unidos. La IA amenaza con erosionarla aún más si se gestiona mal.