Vorige week gebruikte de Metropolitan Police in Zuid-Londen live gezichtsherkenningscamera's om te helpen bij de arrestatie van 17 personen.
De arrestaties vonden plaats tijdens specifieke operaties op 19 en 21 maart in Croydon en op 21 maart in Tooting.
Onder de gearresteerden was een 23-jarige man die betrapt werd op het bezit van twee patronen. Dit leidde ertoe dat de politie munitie, gestolen mobiele telefoons en cannabis in beslag nam uit eigendommen die met deze persoon in verband worden gebracht. Het gezichtsherkenningssysteem richtte zich op hem vanwege een openstaand arrestatiebevel.
Op dit moment is de technologie ontworpen om personen te identificeren die op een "op maat gemaakte controlelijst" staan, waaronder personen met uitstaande arrestatiebevelen. De Metropolitan Police zegt dat deze technologie hen in staat stelt om "precisie politiewerk" uit te voeren.
Dit volgt op een eerder aantal van 42 arrestaties in februari met dezelfde technologie, hoewel het onduidelijk blijft hoeveel van de gearresteerden zijn aangeklaagd, zoals blijkt uit navraag bij BBC Nieuws.
De arrestaties hadden betrekking op een breed spectrum van overtredingen, waaronder seksuele misdrijven, mishandeling, diefstal, fraude, inbraak, intimidatie met een racistisch karakter en overtredingen van anti-sociale bevelen (ASBO's).
Na de operatie zei de politie dat ze de gemeenschappen "informatie en geruststelling" hadden geboden over hun acties.
🧵| Live gezichtsherkenningstechnologie is een nauwkeurig gemeenschapsinstrument voor misdaadbestrijding. Geleid door intelligentie plaatsen we onze inspanningen daar waar ze waarschijnlijk het grootste effect hebben. pic.twitter.com/N5bKwzAEI1
- Metropolitan Police (@metpoliceuk) 5 april 2023
Gezichtsherkenning bij politiewerk is controversieel
Vorig jaar wilden leden van het Britse Hogerhuis en Lagerhuis dat de politie live gezichtsherkenningstechnologie opnieuw evalueren nadat de minister van Politie liet doorschemeren dat de politie toegang zou krijgen tot een database met 45 miljoen pasfoto's.
Michael Birtwistle van de Ada Lovelace Instituut sloot zich aan bij hun scepsis: "De nauwkeurigheid en wetenschappelijke basis van gezichtsherkenningstechnologieën is zeer omstreden en hun legaliteit is onzeker."
Voorvechter van burgerrechten Big Brother Watch benadrukte ook dat 89% van de gezichtsherkenningssignalen van de Britse politie mislukt.
Lindsey Chiswick, de directeur inlichtingen van de Metropolitan Police, probeerde de bezorgdheid over privacy weg te nemen. Ze vertelde de BBC: "We bewaren je gegevens niet. Als er geen match is, worden je gegevens onmiddellijk en automatisch binnen enkele seconden verwijderd." Chiswick beweerde ook dat de technologie "onafhankelijk is getest" op betrouwbaarheid en bias.
Anderen betwisten dat. Madeleine Stone van Big Brother Watch maakte zich bijvoorbeeld zorgen over AI-surveillance en noemde het "Orwelliaans".
Stone vervolgde: "Iedereen wil gevaarlijke criminelen van de straat hebben, maar de barsten in een krakend politiesysteem bedekken met opdringerige en Orwelliaanse bewakingstechnologie is niet de oplossing. In plaats van actief mensen te achtervolgen die een risico vormen voor het publiek, vertrouwen politieagenten op toeval en hopen ze dat gezochte mensen toevallig voor een politiecamera lopen."
🚨Live gezichtsherkenningswaarschuwing🚨
De politie scant de gezichten van een groot aantal mensen in #Catford met behulp van invasieve en gebrekkige gezichtsherkenningstechnologie.
Er is geen plaats voor deze Orwelliaanse technologie in de Britse politie. #StopGezichtsherkenning pic.twitter.com/JTcLYRoW7G
- Big Brother Watch (@BigBrotherWatch) 26 maart 2024
Big Brother Watch heeft ook alarm geslagen over een nieuwe operatie in Catford die gisteren (26/03) plaatsvond.
Hoe de Britse politie AI-gezichtsherkenning gebruikt
De Britse politie is in 2018 begonnen met het testen van gezichtsherkenningstechnologieën en heeft daarbij Met camera's uitgeruste busjes om beelden op te nemen van openbare plaatsen.
Een recente Verzoek om vrijheid van informatie gericht aan de Metropolitan Police Service (MPS) om opheldering te krijgen over de vraag of AI wordt gebruikt om personen automatisch te screenen en hoe die gegevens worden verwerkt.
Het MPS onthulde het gebruik van AI-technologieën zoals Live Gezichtsherkenning (LFR) en Retrospectieve Gezichtsherkenning (RFR) binnen specifieke operaties.
Het MPS weigerde echter te reageren op het grootste deel van het onderzoek, met een beroep op uitzonderingen onder de Freedom of Information Act 2000 met betrekking tot "nationale veiligheid", "wetshandhaving" en "de bescherming van veiligheidsinstanties".
Specifiek voerde de MPS aan dat het onthullen van details over het heimelijke gebruik van gezichtsherkenning de tactiek van wetshandhaving in gevaar zou kunnen brengen.
In het antwoord van de politie staat "Het bevestigen of ontkennen dat alle informatie met betrekking tot een mogelijke geheime praktijk van gezichtsherkenning criminelen zou laten zien wat de capaciteit, tactische capaciteiten en mogelijkheden van het MPS zijn, waardoor ze zich kunnen richten op specifieke gebieden in het Verenigd Koninkrijk om hun criminele/terroristische activiteiten uit te voeren/te ondernemen."
Lessen uit het verleden
Terwijl voorspellende politie was ontworpen om gemeenschappen veiliger te maken, heeft het tot een aantal verontrustende resultaten geleid, waaronder de onterechte arrestatie van verschillende personen.
Dit zijn geen geïsoleerde incidenten, maar eerder een patroon dat een kritieke fout blootlegt in het te veel vertrouwen op AI voor politiewerk.
Robert McDaniel in Chicago, ondanks dat hij geen gewelddadig verleden had, was het doelwit van de politie als een potentiële bedreiging, alleen maar omdat een algoritme hem op een lijst plaatste.
Zijn verhaal is niet uniek. In de hele VS zijn er gevallen geweest waarbij mensen ten onrechte werden beschuldigd en gearresteerd op basis van foutieve gezichtsherkenning.
Het verhaal van Nijeer Parks is een grimmig voorbeeld. Parks werd beschuldigd van misdaden waar hij niets mee te maken had en riskeerde gevangenisstraf en een hoge rekening - allemaal vanwege een onjuiste match met gezichtsherkenningstechnologie.
Gezichtsherkenningstechnologie is onnauwkeurig gebleken voor personen met een donkere huidskleur, vooral zwarte vrouwen. Terwijl gezichtsherkenning voor blanke gezichten in meer dan 90% van de gevallen accuraat kan zijn, kan het net zo tot 35% voor zwarte gezichten.
Op basis van het huidige bewijs zullen gemarginaliseerde groepen het meest verliezen van onnauwkeurige algoritmische politiestrategieën.
Onterechte arrestaties zijn niet alleen schrijnend voor de direct betrokkenen; ze werpen ook een lange schaduw over de getroffen gemeenschappen.
Wanneer mensen worden gearresteerd op basis van voorspellingen in plaats van concrete acties, wordt de basis van het vertrouwen tussen wetshandhaving en het publiek aangetast.
Zowel in het VK als in de VS is het vertrouwen van het publiek in de politie op een dieptepunt beland. AI dreigt dit verder aan te tasten als het slecht wordt beheerd.