AI-drevne kameraer vekker bekymring for personvernet etter hvert som bruken øker

17. juni 2024

  • Dokumenter avslører pilotprogrammer for ansiktsgjenkjenning på åtte store togstasjoner i Storbritannia
  • Teknologi for ansiktsgjenkjenning kan brukes til å analysere folks følelser og handlinger
  • Personvernforkjempere advarer om at dette krenker folks sivile rettigheter
AI-overvåking

En ny bølge av AI-forbedret overvåking sprer seg i USA og Storbritannia, der private selskaper og offentlige etater tar i bruk AI-drevne kameraer for å analysere folkemengder, oppdage potensielle forbrytelser og til og med overvåke folks følelsesmessige tilstander i det offentlige rom.

I Storbritannia har Network Rail nylig testet AI-kameraer på åtte togstasjoner, inkludert store knutepunkter som Waterloo og Euston i London, samt Manchester Piccadilly. 

Dokumenter innhentet av borgerrettighetsgruppe Big Brother Se på avslørte at kameraene hadde som mål å oppdage ulovlig ferdsel på sporene, overfylte perronger, "antisosial atferd" som skateboarding og røyking, og potensielle sykkeltyverier.

Det mest bekymringsfulle var at AI-systemet, som ble drevet av Amazons Rekognition-programvare, forsøkte å analysere folks alder, kjønn og følelser som lykke, tristhet og sinne når de passerte virtuelle "snubletråder" i nærheten av billettsperrer. 

I Network Rail-rapporten, som delvis er redigert, står det at det var "ett kamera på hver stasjon (vanligvis gateline-kameraet), der det ble tatt et øyeblikksbilde hvert sekund når folk krysset snubletråden, og som ble sendt til analyse av AWS Rekognition".

Deretter står det: "Potensielt sett kunne kundefølelsesmålet brukes til å måle tilfredshet", og "Disse dataene kunne brukes til å maksimere reklame- og detaljhandelsinntektene". Dette var imidlertid vanskelig å kvantifisere, ettersom NR Properties aldri ble engasjert på en vellykket måte."

Amazon Rekogniton, en maskinlæringsplattform for datasyn (CV) fra Amazon, kan faktisk oppdage følelser. Dette var imidlertid bare en pilottest, og effektiviteten er uklar.

I rapporten står det at ved bruk av kameraer for å telle personer som krysser jernbanebommer, var "nøyaktigheten på tvers av bommer jevnt over dårlig, med en gjennomsnittlig nøyaktighet på mellom 50% og 60% sammenlignet med manuell telling", men det forventes at dette vil bli bedre. 

Politiets bruk av ansiktsgjenkjenningsteknologi har også vakt bekymring. For ikke lenge siden ble Londons Metropolitan Police brukte live ansiktsgjenkjenningskameraer for å identifisere og arrestere 17 personer i bydelene Croydon og Tooting. 

Teknologien sammenligner direkte kamerastrømmer med en overvåkningsliste over personer med utestående arrestordrer som en del av "presisjonspolitiarbeid".

I februar brukte politiet systemet til å foreta 42 arrestasjoner, men det er uklart hvor mange av dem som førte til formelle siktelser. 

"Utrullingen og normaliseringen av AI-overvåking i disse offentlige rommene, uten mye konsultasjon og samtale, er et ganske bekymringsfullt skritt", kommenterte Jake Hurfurt, forskningssjef ved Big Brother Watch.

Følelsene dine i en database

Kritikerne har hevdet at ansiktsgjenkjenning truer borgernes rettigheter. 

Parlamentsmedlemmer i Storbritannia oppfordret politiet til å revurdere hvordan de bruker teknologien etter å ha foreslått at de kunne få tilgang til en database med 45 millioner passbilder for å trene opp overvåkingsmodellene bedre. 

Eksperter stiller også spørsmål ved ansiktsgjenkjenningens nøyaktighet og juridiske grunnlag, med Big Brother Se på krangling at majoriteten (85%+) av det britiske politiets ansiktsgjenkjenninger er feilidentifikasjoner. 

Met Police forsøkte å dempe frykten for personvernet ved å opplyse om at bilder som ikke samsvarer, slettes raskt, og at ansiktsgjenkjenningssystemet har vært gjenstand for uavhengig revisjon. 

Men det er ikke mye snakk når misbruk av disse AI-systemene virkelig påvirker menneskers liv. Forutseende politiprogrammer i US har som regel heller ikke nådd sine mål, samtidig som de har forårsaket følgeskader i form av polititrakassering og urettmessige fengslinger. 

Bekymringer om skjevheter og unøyaktigheter i ansiktsgjenkjenningssystemer, spesielt for fargede, har vært et stort stridspunkt. 

Studier har vist at kan teknologien være betydelig mindre nøyaktig for ansikter med mørkere hudfarge, særlig svarte kvinner.

Politikerne må ta stilling til vanskelige spørsmål om åpenhet, ansvarlighet og regulering av disse kraftfulle verktøyene. 

En solid offentlig debatt og klare juridiske rammer vil være avgjørende for å sikre at fordelene med kunstig intelligens når det gjelder samfunnssikkerhet ikke oppveies av risikoen for individuelle rettigheter og demokratiske verdier. 

Teknologien raser fremover, og tiden for å ta et oppgjør kan bli kort.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser