Letzte Woche setzte die Metropolitan Police im Süden Londons Live-Kameras zur Gesichtserkennung ein, um die Verhaftung von 17 Personen zu unterstützen.
Die Verhaftungen erfolgten bei speziellen Einsätzen am 19. und 21. März in Croydon und am 21. März in Tooting.
Unter den Festgenommenen befand sich ein 23-jähriger Mann, der im Besitz von zwei Patronenhülsen erwischt wurde. Daraufhin beschlagnahmte die Polizei Munition, gestohlene Mobiltelefone und Cannabis aus dem Besitz dieser Person. Das Gesichtserkennungssystem war auf ihn ausgerichtet, da gegen ihn ein Haftbefehl vorlag.
Derzeit ist die Technologie darauf ausgelegt, Personen zu identifizieren, die auf einer "maßgeschneiderten Überwachungsliste" stehen, die Personen mit ausstehenden Haftbefehlen umfasst. Die Metropolitan Police sagt, dass diese Technologie ihr eine "präzise Polizeiarbeit" ermöglicht.
Im Februar wurden bereits 42 Verhaftungen mit der gleichen Technologie vorgenommen, wobei unklar ist, wie viele der Verhafteten angeklagt wurden, wie Recherchen von BBC-Nachrichten.
Die Verhaftungen deckten ein breites Spektrum von Straftaten ab, darunter Sexualdelikte, Körperverletzung, Diebstahl, Betrug, Einbruch, rassistisch motivierte Belästigung und Verstöße gegen Anordnungen gegen soziales Verhalten (ASBOs).
Nach dem Einsatz erklärte die Polizei, sie biete den Gemeinden "Informationen und Beruhigung" über ihr Vorgehen an.
Die Live-Gesichtserkennungstechnologie ist ein präzises Instrument zur Verbrechensbekämpfung in der Gemeinschaft. Unter der Leitung von Geheimdiensten setzen wir unsere Bemühungen dort ein, wo sie die größte Wirkung erzielen können. pic.twitter.com/N5bKwzAEI1
- Städtische Polizei (@metpoliceuk) 5. April 2023
Gesichtserkennung bei der Polizeiarbeit ist umstritten
Letztes Jahr forderten Mitglieder des britischen Ober- und Unterhauses, die Polizei solle die Technologie der Live-Gesichtserkennung neu zu bewerten nachdem der Polizeiminister angedeutet hatte, dass die Polizeikräfte Zugang zu einer Datenbank mit 45 Millionen Passbildern erhalten würden.
Michael Birtwistle von der Ada Lovelace-Institut schloss sich ihrer Skepsis an: "Die Genauigkeit und die wissenschaftliche Grundlage der Gesichtserkennungstechnologien sind höchst umstritten, und ihre Rechtmäßigkeit ist ungewiss."
Gruppe, die sich für Bürgerrechte einsetzt Big Brother Watch hob außerdem hervor dass 89% der Gesichtserkennungswarnungen der britischen Polizei fehlschlagen.
Lindsey Chiswick, die Leiterin des Nachrichtendienstes der Metropolitan Police, versuchte, Bedenken hinsichtlich des Datenschutzes zu zerstreuen. Sie sagte der BBC: "Wir speichern Ihre Daten nicht. Wenn es keine Übereinstimmung gibt, werden Ihre Daten sofort und automatisch in Sekundenschnelle gelöscht." Chiswick versicherte außerdem, dass die Technologie von unabhängiger Seite auf Zuverlässigkeit und Verzerrung geprüft wurde.
Andere bestreiten das. So äußerte Madeleine Stone von Big Brother Watch Bedenken über die KI-Überwachung und bezeichnete sie als "Orwellsch".
Stone fuhr fort: "Jeder will gefährliche Kriminelle von der Straße haben, aber die Risse eines knarzenden Polizeisystems mit aufdringlicher und Orwellscher Überwachungstechnologie zu übertünchen, ist keine Lösung. Anstatt aktiv Menschen zu verfolgen, die eine Gefahr für die Öffentlichkeit darstellen, verlassen sich Polizeibeamte auf den Zufall und hoffen, dass gesuchte Personen zufällig vor eine Polizeikamera laufen."
🚨Live-Gesichtserkennungsalarm🚨
Die Polizei scannt die Gesichter einer großen Anzahl von Menschen in #Catford mit invasiver und fehlerhafter Gesichtserkennungstechnologie.
Für diese Orwellsche Technologie ist in der britischen Polizeiarbeit kein Platz. #StopGesichtserkennungen pic.twitter.com/JTcLYRoW7G
- Big Brother Watch (@BigBrotherWatch) 26. März 2024
Big Brother Watch schlug auch Alarm wegen einer neuen Aktion in Catford, die gestern (26.03.) stattfand.
Wie die britische Polizei KI-Gesichtserkennung einsetzt
Die britische Polizei testet seit 2018 Gesichtserkennungstechnologien und setzt dabei mit Kameras ausgerüstete Lieferwagen, um Aufnahmen von öffentlichen Plätzen zu machen.
Eine aktuelle Antrag auf Informationsfreiheit die an den Metropolitan Police Service (MPS) gerichtet war, sollte geklärt werden, ob KI zur automatischen Überprüfung von Personen eingesetzt wird und wie diese Daten verarbeitet werden.
Das MPS hat den Einsatz von KI-Technologien wie Live-Gesichtserkennung (LFR) und retrospektive Gesichtserkennung (RFR) bei bestimmten Vorgängen bekannt gegeben.
Der MPS weigerte sich jedoch, den Großteil der Anfrage zu beantworten, und berief sich dabei auf Ausnahmeregelungen gemäß dem Freedom of Information Act 2000, die sich auf die "nationale Sicherheit", die "Strafverfolgung" und den "Schutz von Sicherheitsorganen" beziehen.
Der MPS argumentierte insbesondere, dass die Offenlegung von Details über den verdeckten Einsatz der Gesichtserkennung die Taktik der Strafverfolgung gefährden könnte.
In der Antwort der Polizei heißt es: "Die Bestätigung oder Dementierung jeglicher Informationen in Bezug auf eine mögliche verdeckte Praxis der Gesichtserkennung würde Kriminellen zeigen, wie groß die Kapazität, die taktischen Fähigkeiten und die Möglichkeiten des MPS sind, die es ihnen ermöglichen, bestimmte Gebiete des Vereinigten Königreichs für ihre kriminellen/terroristischen Aktivitäten ins Visier zu nehmen."
Lehren aus der Vergangenheit
Während vorausschauende Polizeiarbeit die Gemeinden sicherer machen sollte, hat zu einigen beunruhigenden Ergebnissen geführt, darunter die unrechtmäßige Verhaftung mehrerer Personen.
Dabei handelt es sich nicht nur um einzelne Vorfälle, sondern vielmehr um ein Muster, das die kritische Schwachstelle eines zu starken Einsatzes von KI bei der Polizeiarbeit offenbart.
Robert McDaniel in Chicago, obwohl er keine gewalttätige Vergangenheit hat, wurde von der Polizei ins Visier genommen als potenzielle Bedrohung einzustufen, nur weil ein Algorithmus ihn auf eine Liste gesetzt hat.
Seine Geschichte ist kein Einzelfall. Überall in den USA gab es Fälle, in denen Menschen aufgrund von fehlerhaften Gesichtserkennungsergebnissen zu Unrecht beschuldigt und verhaftet wurden.
Die Geschichte von Nijeer Parks ist ein krasses Beispiel. Parks wurde wegen Verbrechen angeklagt, mit denen er nichts zu tun hatte, und ihm drohten eine Gefängnisstrafe und eine hohe Gerichtskostenrechnung - und das alles wegen einer falschen Übereinstimmung mit der Gesichtserkennungstechnologie.
Die Gesichtserkennungstechnologie hat sich bei dunkelhäutigen Personen, insbesondere bei schwarzen Frauen, als ungenau erwiesen. Während die Gesichtserkennung bei weißen Gesichtern in über 90% der Fälle korrekt ist, kann sie bei niedrig wie 35% für schwarze Gesichter.
Nach den derzeitigen Erkenntnissen werden marginalisierte Gruppen am meisten von ungenauen algorithmischen Polizeistrategien betroffen sein.
Ungerechtfertigte Verhaftungen sind nicht nur für die direkt Betroffenen belastend, sondern werfen auch einen langen Schatten auf die betroffenen Gemeinden.
Wenn Menschen aufgrund von Vorhersagen und nicht aufgrund konkreter Handlungen verhaftet werden, erschüttert dies die Grundlage des Vertrauens zwischen den Strafverfolgungsbehörden und der Öffentlichkeit.
In der Tat ist das Vertrauen der Öffentlichkeit in die Polizei sowohl im Vereinigten Königreich als auch in den USA auf dem Tiefpunkt. KI droht, dieses Vertrauen weiter zu untergraben, wenn sie schlecht gemanagt wird.