Undergrunnsbanen i London tok i bruk AI-overvåkningsteknologi i et årelangt forsøk.
Fra oktober 2022 til september 2023 testet Transport for London (TfL) 11 forskjellige algoritmer på Willesden Green T-banestasjon, som ligger i den nordvestlige delen av byen.
Ifølge detaljerte dokumenter innhentet av WIREDI rettssaken ble tusenvis av passasjerers bevegelser, atferd og kroppsspråk overvåket for å identifisere potensielle kriminelle aktiviteter og sikkerhetsrisikoer.
AI-programvaren, som ble koblet sammen med live CCTV-opptak (som er en gren av maskinlæring), ble trent opp til å identifisere aggressiv atferd, våpen, billettunndragelser og ulykker, som for eksempel personer som potensielt kan falle ned på sporene.
Politiet i Storbritannia har tidligere eksperimentert med AI-overvåking og fortsetter å gjøre det på noen offentlige arrangementer, som de gjorde på en Beyonce-konsert i fjor.
Men.., det er ofte vært ineffektivt, og menneskerettighetsgrupper har kritisert teknologien og kalt den et plagsomt inngrep i privatlivet og en kilde til fordommer og diskriminering.
AI-videoteknologi har en problematisk historie, med mange prosjekter over hele verden som underleverer samtidig som mørkhudede mennesker knyttes til forbrytelser de ikke har begått.
I løpet av TfLs prøveperiode ble det generert rundt 44 000 varsler, hvorav omtrent 19 000 ble videresendt direkte til personalet for inngripen.
Betjentene deltok i testene ved å svinge våpen som macheter og pistoler innenfor overvåkningskameraets synsfelt (riktignok på tidspunkter da stasjonen var stengt), med sikte på å trene opp den kunstige intelligensen bedre.
Her er den komplette resultatlisten:
- Totalt antall varsler: Over 44 000 varsler ble utstedt av AI-systemet.
- Sanntidsvarsler til stasjonspersonalet: 19 000 ble levert i sanntid til stasjonspersonalet for umiddelbar handling.
- Varsler om avgiftsunndragelser: AI-systemet genererte 26 000 varsler om ulovlig billettprising.
- Rullestolvarsler: Det kom inn 59 varsler om rullestolbrukere på stasjonen, som mangler skikkelig rullestoltilgang.
- Varsler om sikkerhetslinjer: Nesten 2 200 utstedelser for personer som krysset de gule sikkerhetslinjene på perrongene.
- Varsler på plattformkanten: Systemet genererte 39 varsler om personer som lente seg over kanten på togperrongene.
- Utvidede sittebenkvarsler: Nesten 2000 varsler gjaldt personer som satt på benker i lengre perioder, noe som kunne tyde på ulike bekymringer, blant annet om passasjerenes velvære eller sikkerhetsrisiko.
- Varsler om aggressiv atferd: Det kom 66 varsler om aggressiv atferd, selv om AI-systemet slet med å oppdage slike hendelser på en pålitelig måte på grunn av utilstrekkelige treningsdata.
AI-systemet fungerte imidlertid ikke godt i noen scenarier, noe som førte til feilaktige resultater, for eksempel at barn som passerte gjennom billettsperrer, ble flagget som potensielle billettunndragelser.
Ifølge TfL er det endelige målet å skape en tryggere og mer effektiv undergrunnsbane som beskytter både publikum og ansatte.
AI-overvåkningsteknologi er ikke i seg selv forferdelig når den brukes til offentlig sikkerhet, men når teknologien først er på plass, er det vanskelig å holde den under kontroll.
Det finnes allerede bevis på Misbruk av kunstig intelligens i offentlig sektor i Storbritannia, og skandaler i andre land indikerer at dette er et skråplan når det ikke håndteres med den største forsiktighet.