Una nueva ola de vigilancia mejorada con IA se está extendiendo por Estados Unidos y Reino Unido, a medida que empresas privadas y organismos gubernamentales despliegan cámaras potenciadas con IA para analizar multitudes, detectar posibles delitos e incluso controlar los estados emocionales de las personas en espacios públicos.
En el Reino Unido, el organismo de infraestructuras ferroviarias Network Rail ha probado recientemente cámaras de IA en ocho estaciones de tren, entre ellas grandes centros neurálgicos como las estaciones londinenses de Waterloo y Euston, así como Manchester Piccadilly.
Documentos obtenida por el grupo de libertades civiles Big Brother Ver revelan que las cámaras pretenden detectar el intrusismo en las vías, el hacinamiento en los andenes, "comportamientos antisociales" como montar en monopatín y fumar, y posibles robos de bicicletas.
Lo más preocupante es que el sistema de inteligencia artificial, basado en el software Rekognition de Amazon, intentaba analizar la edad, el sexo y las emociones de las personas, como la felicidad, la tristeza y la ira, cuando pasaban por "cables trampa" virtuales cerca de las barreras de los billetes.
⚠️We han descubierto documentos que revelan que ocho estaciones de tren probaron Amazoncon sus cámaras de vídeovigilancia, algunas de las cuales analizan la edad, el sexo y las emociones de los pasajeros.
"El despliegue y la normalización de la vigilancia por IA en estos espacios públicos, sin... pic.twitter.com/dJLS75ZURH
- Gran Hermano Watch (@BigBrotherWatch) 17 de junio de 2024
El informe de Network Rail, parte del cual está redactado, dice que había "una cámara en cada estación (generalmente la cámara de la línea de acceso), donde se tomaba una instantánea cada segundo cada vez que la gente cruzaba el tripwire y se enviaba para su análisis por AWS Rekognition."
A continuación dice: "Potencialmente, la métrica de la emoción del cliente podría utilizarse para medir la satisfacción", y "Estos datos podrían utilizarse para maximizar los ingresos por publicidad y venta al por menor. Sin embargo, esto era difícil de cuantificar, ya que NR Properties nunca se comprometió con éxito".
Amazon Rekogniton, una plataforma de aprendizaje automático de visión por ordenador (CV) de Amazon, sí puede detectar emociones. Sin embargo, se trataba solo de una prueba piloto, y su eficacia no está clara.
El informe señala que, cuando se utilizaron cámaras para contar las personas que cruzaban las barreras ferroviarias, "la precisión en todas las líneas de barreras fue uniformemente deficiente, con una precisión media de aproximadamente 50% a 60% en comparación con el recuento manual", pero se espera que esto mejore.
El uso de la tecnología de reconocimiento facial por parte de las fuerzas del orden también ha suscitado preocupación. No hace mucho, la Policía Metropolitana de Londres utilizó cámaras de reconocimiento facial en directo para identificar y detener a 17 individuos en las zonas de Croydon y Tooting de la ciudad.
La tecnología compara las imágenes de las cámaras en directo con una lista de vigilancia de personas con órdenes de detención pendientes como parte de la "policía de precisión".
En febrero, la policía metropolitana utilizó el sistema para efectuar 42 detenciones, aunque no está claro cuántas dieron lugar a cargos formales.
"El despliegue y la normalización de la vigilancia por IA en estos espacios públicos, sin mucha consulta ni conversación, es un paso bastante preocupante", comentó Jake Hurfurt, jefe de investigación de Big Brother Watch.
Tus emociones en una base de datos
Los críticos han argumentado con vehemencia que el reconocimiento facial amenaza las libertades civiles.
Diputados en el Reino Unido instó a la policía a reconsiderar cómo despliegan la tecnología tras sugerir que podrían acceder a una base de datos de 45 millones de fotos de pasaportes para entrenar mejor estos modelos de vigilancia.
Los expertos también cuestionan la precisión y la base jurídica del reconocimiento facial, con Big Brother Ver discusión que la mayoría (85%+) de las coincidencias de reconocimiento facial de la policía británica son identificaciones erróneas.
Los responsables de la Met Police intentaron disipar los temores sobre la privacidad, afirmando que las imágenes que no coinciden se borran rápidamente y que el sistema de reconocimiento facial ha sido auditado de forma independiente.
Sin embargo, hablar es barato cuando el mal uso de estos sistemas de IA repercute realmente en la vida de las personas. Programas policiales predictivos en la US tampoco han logrado, por lo general, sus objetivos, al tiempo que han causado daños colaterales en forma de acoso policial y encarcelamientos injustos.
La preocupación por el sesgo y la inexactitud de los sistemas de reconocimiento facial, especialmente en el caso de las personas de color, ha sido un importante punto de controversia.
Los estudios han demostrado la tecnología puede ser significativamente menos precisa en los rostros de piel más oscura, sobre todo en las mujeres negras.
Los responsables políticos tendrán que lidiar con cuestiones difíciles sobre la transparencia, la responsabilidad y la regulación de estas poderosas herramientas.
Un debate público sólido y unos marcos jurídicos claros serán fundamentales para garantizar que los beneficios de la IA en la seguridad pública no se vean contrarrestados por los riesgos para los derechos individuales y los valores democráticos.
A medida que la tecnología avanza, el tiempo para ese ajuste de cuentas puede ser corto.