En ny bølge av AI-forbedret overvåking sprer seg i USA og Storbritannia, der private selskaper og offentlige etater tar i bruk AI-drevne kameraer for å analysere folkemengder, oppdage potensielle forbrytelser og til og med overvåke folks følelsesmessige tilstander i det offentlige rom.
I Storbritannia har Network Rail nylig testet AI-kameraer på åtte togstasjoner, inkludert store knutepunkter som Waterloo og Euston i London, samt Manchester Piccadilly.
Dokumenter innhentet av borgerrettighetsgruppe Big Brother Se på avslørte at kameraene hadde som mål å oppdage ulovlig ferdsel på sporene, overfylte perronger, "antisosial atferd" som skateboarding og røyking, og potensielle sykkeltyverier.
Det mest bekymringsfulle var at AI-systemet, som ble drevet av Amazons Rekognition-programvare, forsøkte å analysere folks alder, kjønn og følelser som lykke, tristhet og sinne når de passerte virtuelle "snubletråder" i nærheten av billettsperrer.
⚠️We har avdekket dokumenter som avslører at åtte togstasjoner prøvde ut Amazon's AI-overvåkningsprogramvare med sine CCTV-kameraer - og noen analyserer passasjerenes alder, kjønn og følelser
"Utrullingen og normaliseringen av AI-overvåking i disse offentlige rommene, uten særlig... pic.twitter.com/dJLS75ZURH
- Big Brother Watch (@BigBrotherWatch) 17. juni 2024
I Network Rail-rapporten, som delvis er redigert, står det at det var "ett kamera på hver stasjon (vanligvis gateline-kameraet), der det ble tatt et øyeblikksbilde hvert sekund når folk krysset snubletråden, og som ble sendt til analyse av AWS Rekognition".
Deretter står det: "Potensielt sett kunne kundefølelsesmålet brukes til å måle tilfredshet", og "Disse dataene kunne brukes til å maksimere reklame- og detaljhandelsinntektene". Dette var imidlertid vanskelig å kvantifisere, ettersom NR Properties aldri ble engasjert på en vellykket måte."
Amazon Rekogniton, en maskinlæringsplattform for datasyn (CV) fra Amazon, kan faktisk oppdage følelser. Dette var imidlertid bare en pilottest, og effektiviteten er uklar.
I rapporten står det at ved bruk av kameraer for å telle personer som krysser jernbanebommer, var "nøyaktigheten på tvers av bommer jevnt over dårlig, med en gjennomsnittlig nøyaktighet på mellom 50% og 60% sammenlignet med manuell telling", men det forventes at dette vil bli bedre.
Politiets bruk av ansiktsgjenkjenningsteknologi har også vakt bekymring. For ikke lenge siden ble Londons Metropolitan Police brukte live ansiktsgjenkjenningskameraer for å identifisere og arrestere 17 personer i bydelene Croydon og Tooting.
Teknologien sammenligner direkte kamerastrømmer med en overvåkningsliste over personer med utestående arrestordrer som en del av "presisjonspolitiarbeid".
I februar brukte politiet systemet til å foreta 42 arrestasjoner, men det er uklart hvor mange av dem som førte til formelle siktelser.
"Utrullingen og normaliseringen av AI-overvåking i disse offentlige rommene, uten mye konsultasjon og samtale, er et ganske bekymringsfullt skritt", kommenterte Jake Hurfurt, forskningssjef ved Big Brother Watch.
Følelsene dine i en database
Kritikerne har hevdet at ansiktsgjenkjenning truer borgernes rettigheter.
Parlamentsmedlemmer i Storbritannia oppfordret politiet til å revurdere hvordan de bruker teknologien etter å ha foreslått at de kunne få tilgang til en database med 45 millioner passbilder for å trene opp overvåkingsmodellene bedre.
Eksperter stiller også spørsmål ved ansiktsgjenkjenningens nøyaktighet og juridiske grunnlag, med Big Brother Se på krangling at majoriteten (85%+) av det britiske politiets ansiktsgjenkjenninger er feilidentifikasjoner.
Met Police forsøkte å dempe frykten for personvernet ved å opplyse om at bilder som ikke samsvarer, slettes raskt, og at ansiktsgjenkjenningssystemet har vært gjenstand for uavhengig revisjon.
Men det er ikke mye snakk når misbruk av disse AI-systemene virkelig påvirker menneskers liv. Forutseende politiprogrammer i US har som regel heller ikke nådd sine mål, samtidig som de har forårsaket følgeskader i form av polititrakassering og urettmessige fengslinger.
Bekymringer om skjevheter og unøyaktigheter i ansiktsgjenkjenningssystemer, spesielt for fargede, har vært et stort stridspunkt.
Studier har vist at kan teknologien være betydelig mindre nøyaktig for ansikter med mørkere hudfarge, særlig svarte kvinner.
Politikerne må ta stilling til vanskelige spørsmål om åpenhet, ansvarlighet og regulering av disse kraftfulle verktøyene.
En solid offentlig debatt og klare juridiske rammer vil være avgjørende for å sikre at fordelene med kunstig intelligens når det gjelder samfunnssikkerhet ikke oppveies av risikoen for individuelle rettigheter og demokratiske verdier.
Teknologien raser fremover, og tiden for å ta et oppgjør kan bli kort.