En ny bølge af AI-forstærket overvågning breder sig i USA og Storbritannien, hvor private virksomheder og offentlige myndigheder anvender AI-drevne kameraer til at analysere menneskemængder, opdage potentielle forbrydelser og endda overvåge folks følelsesmæssige tilstande i det offentlige rum.
I Storbritannien har jernbaneinfrastrukturselskabet Network Rail for nylig testet AI-kameraer på otte togstationer, herunder store knudepunkter som Londons Waterloo og Euston stationer samt Manchester Piccadilly.
Dokumenter indhentet af borgerrettighedsgruppe Big Brother Se her afslørede, at kameraerne havde til formål at opdage ulovlig indtrængen på sporene, overfyldte perroner, "antisocial adfærd" som skateboarding og rygning samt potentielle cykeltyverier.
Det mest bekymrende er, at AI-systemet, der drives af Amazons Rekognition-software, forsøgte at analysere folks alder, køn og følelser som lykke, sorg og vrede, når de passerede virtuelle "snubletråde" nær billetspærringer.
⚠️We har afdækket dokumenter, der afslører, at otte togstationer blev afprøvet Amazon's AI-overvågningssoftware med deres CCTV-kameraer - hvor nogle analyserer passagerernes alder, køn og følelser
"Udrulningen og normaliseringen af AI-overvågning i disse offentlige rum, uden meget... pic.twitter.com/dJLS75ZURH
- Big Brother Watch (@BigBrotherWatch) 17. juni 2024
Network Rail-rapporten, hvoraf noget er redigeret, siger, at der var "et kamera på hver station (generelt gateline-kameraet), hvor der blev taget et øjebliksbillede hvert sekund, når folk krydsede snubletråden og sendt til analyse af AWS Rekognition."
Derefter står der: "Potentielt kunne kundefølelsesmetrikken bruges til at måle tilfredshed," og "Disse data kunne bruges til at maksimere reklame- og detailindtægter. Dette var dog svært at kvantificere, da NR Properties aldrig blev engageret med succes."
Amazon Rekogniton, en maskinlæringsplatform for computersyn (CV) fra Amazon, kan faktisk registrere følelser. Det var dog kun en pilottest, og dens effektivitet er uklar.
Rapporten siger, at når man brugte kameraer til at tælle folk, der krydsede jernbaneporte, var "nøjagtigheden på tværs af portlinjerne ensartet dårlig med en gennemsnitlig nøjagtighed på ca. 50% til 60% sammenlignet med manuel tælling", men det forventes at blive bedre.
Politiets brug af ansigtsgenkendelsesteknologi har også givet anledning til bekymring. Det er ikke længe siden, at Londons Metropolitan Police brugte live ansigtsgenkendelseskameraer til at identificere og arrestere 17 personer i byens Croydon- og Tooting-områder.
Teknologien sammenligner live kamera-feeds med en overvågningsliste over personer med udestående arrestordrer som en del af "præcisions-politiarbejde".
I februar brugte politiet systemet til at foretage 42 anholdelser, men det er uklart, hvor mange der førte til formelle sigtelser.
"Udrulningen og normaliseringen af AI-overvågning i disse offentlige rum uden megen høring og samtale er et ganske bekymrende skridt", kommenterede Jake Hurfurt, forskningschef hos Big Brother Watch.
Dine følelser i en database
Kritikere har argumenteret kraftigt for, at ansigtsgenkendelse truer de borgerlige frihedsrettigheder.
Parlamentsmedlemmer i Storbritannien opfordrede politiet til at genoverveje hvordan de anvender teknologien efter at have foreslået, at de kunne få adgang til en database med 45 millioner pasfotos for bedre at kunne træne disse overvågningsmodeller.
Eksperter sætter også spørgsmålstegn ved ansigtsgenkendelsens nøjagtighed og juridiske grundlag. Big Brother Se argumenterende at størstedelen (85%+) af det britiske politis ansigtsgenkendelsesmatches er fejlidentifikationer.
Met Police-embedsmænd forsøgte at dæmpe frygten for privatlivets fred ved at sige, at billeder, der ikke matcher, hurtigt bliver slettet, og at ansigtsgenkendelsessystemet er blevet revideret af en uafhængig instans.
Men snak er billigt, når misbrug af disse AI-systemer virkelig påvirker folks liv. Forudsigende politiprogrammer i US har generelt heller ikke nået deres mål, mens de har forårsaget følgeskader i form af politichikane og uretmæssige fængslinger.
Bekymringer om bias og unøjagtigheder i ansigtsgenkendelsessystemer, især for farvede mennesker, har været et stort stridspunkt.
Undersøgelser har vist kan teknologien være betydeligt mindre præcis for mørklødede ansigter, især sorte kvinder.
De politiske beslutningstagere bliver nødt til at forholde sig til vanskelige spørgsmål om disse kraftfulde værktøjers gennemsigtighed, ansvarlighed og regulering.
En solid offentlig debat og klare juridiske rammer vil være afgørende for at sikre, at fordelene ved kunstig intelligens inden for offentlig sikkerhed ikke opvejes af risiciene for individuelle rettigheder og demokratiske værdier.
I takt med at teknologien stormer frem, kan der være kort tid til at gøre regnskabet op.