El metro de Londres empleó tecnología de vigilancia por IA en una prueba de un año de duración.
Entre octubre de 2022 y septiembre de 2023, Transport for London (TfL) probó 11 algoritmos distintos en la estación de metro de Willesden Green, situada en el sector noroeste de la ciudad.
Según documentos detallados obtenidos por WIREDEl juicio consistió en vigilar los movimientos, comportamientos y lenguaje corporal de miles de pasajeros para detectar posibles actividades delictivas y riesgos para la seguridad.
El software de IA, vinculado con imágenes de CCTV en directo (que es la rama de la visión por ordenador (CV) del aprendizaje automático), se entrenó para identificar comportamientos agresivos, armas, evasión de tarifas y accidentes, como personas que podrían caer a las vías.
La policía británica ya ha experimentado anteriormente con la vigilancia mediante IA y sigue haciéndolo en algunos actos públicos, como ocurrió en un Concierto de Beyonce el año pasado.
Sin embargo, es a menudo han sido ineficaces, y grupos de derechos humanos han criticado la tecnología, calificándola de molesta invasión de la intimidad y fuente de prejuicios y discriminación.
La tecnología de vídeo con IA tiene una historia problemática, con numerosos proyectos en todo el mundo mientras que a veces se asocia a las personas de piel más oscura con delitos que no han cometido.
A lo largo del periodo de prueba de TfL, se generaron unas 44.000 alertas, de las cuales aproximadamente 19.000 se transmitieron directamente al personal para su intervención.
Los agentes participaron en las pruebas blandiendo armas como machetes y pistolas dentro del campo de visión del circuito cerrado de televisión (aunque durante las horas en que la estación estaba cerrada), con el objetivo de entrenar mejor a la IA.
Aquí está la lista completa de resultados:
- Total de descripciones: El sistema de IA emitió más de 44.000 alertas.
- Alertas en tiempo real al personal de la estación: 19.000 se entregaron en tiempo real al personal de la estación para su actuación inmediata.
- Alertas de evasión de tarifas: El sistema de IA generó 26.000 alertas relacionadas con actividades de evasión de tarifas.
- Alertas de sillas de ruedas: Hubo 59 alertas relativas a usuarios de sillas de ruedas en la estación, que carece de instalaciones adecuadas de acceso para sillas de ruedas.
- Alertas de líneas de seguridad: Cerca de 2.200 multas por cruzar las líneas amarillas de seguridad en los andenes.
- Alertas de borde de plataforma: El sistema generó 39 alertas de personas que se asomaban al borde de los andenes.
- Alertas de asiento extendido: Casi 2.000 alertas se referían a personas sentadas en bancos durante periodos prolongados, lo que podía indicar diversos motivos de preocupación, como el bienestar de los pasajeros o riesgos para la seguridad.
- Alertas de comportamiento agresivo: Hubo 66 alertas relacionadas con comportamientos agresivos, aunque el sistema de IA tuvo dificultades para detectar estos incidentes con fiabilidad debido a la insuficiencia de datos de entrenamiento.
Sin embargo, el sistema de inteligencia artificial no funcionó bien en algunos casos, lo que llevó a resultados erróneos, como marcar a los niños que pasaban por las barreras de los billetes como posibles evasores.
Según TfL, el objetivo último es fomentar un metro más seguro y eficiente que proteja tanto al público como al personal.
La tecnología de vigilancia por IA no es intrínsecamente terrible cuando se utiliza para la seguridad pública, pero una vez que la tecnología está ahí, mantenerla bajo control es una tarea complicada.
Ya hay pruebas de Mal uso de la IA en el sector público británicoy escándalos en otros países indican que se trata de una pendiente resbaladiza cuando no se maneja con el máximo cuidado.