Eine BBC-Untersuchung hat ergeben, dass Pädophile die KI-Technologie nutzen, um realistische Bilder von sexuellem Kindesmissbrauch zu erzeugen und zu verbreiten.
Der Zugriff auf diese illegalen, von der KI generierten Bilder erfolgt in der Regel über Content-Sharing-Seiten wie Patreon. Der Nationale Rat der Polizeichefs (NPCC) brachte seine Empörung zum Ausdruck und wies auf das "empörende" Versäumnis einiger Plattformen hin, "moralische Verantwortung" zu übernehmen, obwohl sie erhebliche Gewinne erzielen.
GCHQ, der britische Geheimdienst und Cyber-Sicherheitsdienst, reagierte auf den Bericht mit der Aussage: "Täter, die sexuellen Kindesmissbrauch begehen, machen sich alle Technologien zu eigen, und einige glauben, dass die Zukunft des Materials zum sexuellen Kindesmissbrauch in KI-generierten Inhalten liegt."
Die Menschen verwenden Stable Diffusion, eine Open-Source-KI zur Bilderzeugung, um die Bilder zu generieren. Stable Diffusion ermöglicht die Eingabe von Wortvorgaben, die das gewünschte Bild beschreiben.
Entscheidend ist, dass eine Version von Stable Diffusion unter der Apache-Lizenz 2.0 als Open-Source-Software zur Verfügung steht, im Gegensatz zu Mid Journey und DALL-E, die es den Nutzern untersagen, grafische oder unerlaubte Bilder zu erstellen, wenn sie dazu aufgefordert werden. Dies gibt den Schöpfern freie Hand, fast jedes Bild zu erstellen, das sie wollen.
Die BBC entdeckte Fälle, in denen Stable Diffusion zur Erstellung hyperrealistischer Darstellungen von sexuellem Kindesmissbrauch verwendet wurde. Die britische Polizei bestätigte, dass sie bereits mit illegalem KI-generiertem Material in Kontakt gekommen ist.
Die freischaffende Forscherin und Journalistin Octavia Sheepshanks, die über die der Fallteilte ihre Erkenntnisse über die Kinderhilfsorganisation NSPCC mit der BBC. "Seitdem KI-generierte Bilder möglich sind, gibt es diese riesige Flut... es sind nicht nur sehr junge Mädchen, sie [Pädophile] sprechen über Kleinkinder", stellte sie fest.
In einem anderen Fall nutzten Nutzer eine VR-Porno-Plattform, um Avatare von minderjährigen Frauen zu erstellen. Ein Nutzer nahm angeblich ein Foto eines echten minderjährigen Mädchens und überlagerte es mit einem der Modelle.
Das britische Gesetz behandelt computergenerierte "Pseudobilder", auf denen sexueller Missbrauch von Kindern dargestellt ist, wie echte Bilder - ihr Besitz, ihre Veröffentlichung oder Weitergabe ist also illegal.
Ian Critchley, der für den Kinderschutz zuständige Leiter der NSPCC, wies darauf hin, dass "synthetische" Bilder zwar keine echten Kinder abbilden, aber dennoch zu echten Schäden führen können. Er warnte vor einer möglichen Eskalation der Handlungen von Straftätern "von Gedanken über synthetische Bilder bis hin zum tatsächlichen Missbrauch eines lebenden Kindes".
Wie haben die Pädophilen die Bilder erstellt und verbreitet?
Die Untersuchung ergab, dass der Prozess der Bildverteilung 3 Schritte umfasst:
- Pädophile erzeugen Bilder mit Hilfe von KI-Software.
- Diese Bilder werden auf Plattformen wie Pixiv, einer japanischen Website zur gemeinsamen Nutzung von Bildern, veröffentlicht.
- Auf diesen Plattformen werden Links angeboten, die die Kunden zu expliziteren Bildern führen, auf die sie gegen Bezahlung auf Seiten wie Patreon zugreifen können.
Auf Pixiv, das vor allem von Manga- und Anime-Künstlern genutzt wird, waren viele Bildgestalter aktiv.
Die Plattform wird jedoch in Japan gehostet, wo das Teilen von sexualisierten Karikaturen von Minderjährigen nicht illegal ist, was es den Urhebern ermöglicht, ihre Arbeit mit Gruppen und Hashtags zu bewerben.
Pixiv hat ab dem 31. Mai alle fotorealistischen Darstellungen von sexuellen Inhalten mit Minderjährigen verboten. Sie erklärten auch, dass sie ihre Überwachungssysteme verstärkt haben und mehr Ressourcen einsetzen, um gegen solche Inhalte vorzugehen.
Sheepshanks erklärte gegenüber der BBC, dass es sich um eine "industrielle Verbreitung" handelt. Außerdem deuten Kommentare auf Pixiv darauf hin, dass einige von ihnen nicht KI-generiertes Missbrauchsmaterial anbieten.
Viele Pixiv-Konten bieten Links zu ihren "unzensierten Inhalten" an, die auf Patreon gehostet werden, einer in den USA ansässigen Plattform zum Teilen von Inhalten mit einem Wert von rund $4 Mrd. (£3,1 Mrd.).
Patreon hat über 250.000 Unterstützer, darunter bekannte Persönlichkeiten, Journalisten und Schriftsteller. Bei der Untersuchung wurden Patreon-Konten entdeckt, die offen KI-generierte obszöne Kinderbilder verkaufen, wobei die Preise je nach Art des Materials variieren.
Stabilität AI und Patreon reagiert
Nachdem ich ein Beispiel gezeigt hatte, bestätigte Patreon, dass dies gegen ihre Richtlinien verstößt, und das Konto wurde umgehend entfernt.
Stable Diffusion, der KI-Bildgenerator, der bei der Erstellung dieser Bilder zum Einsatz kommt, wurde im Rahmen einer weltweiten Zusammenarbeit von Wissenschaftlern und Unternehmen unter der Leitung des britischen Unternehmens Stability AI entwickelt. Wie bereits erwähnt, enthält die Open-Source-Version der Software keine Filter, sodass jedes beliebige Bild erzeugt werden kann.
Stability AI reagierte daraufhin mit einem verstärkten Verbot des Missbrauchs seiner Software für illegale oder unmoralische Zwecke, einschließlich Material über sexuellen Kindesmissbrauch (CSAM).
Sie erklärten, die Strafverfolgungsbehörden bei der Bekämpfung der illegalen Verwendung ihrer Produkte nachdrücklich zu unterstützen.
Ian Critchley von der NPCC äußerte die Sorge, dass der Zustrom von KI-generierten oder "synthetischen" Bildern die Identifizierung tatsächlicher Missbrauchsopfer behindern könnte. Er sagte: "Für die Polizei und die Strafverfolgungsbehörden entsteht ein zusätzlicher Bedarf, um zu ermitteln, wo ein tatsächliches Kind, wo auch immer auf der Welt, missbraucht wird, im Gegensatz zu einem künstlichen oder synthetischen Kind".
Critchley fügte hinzu, dass die Gesellschaft an einem "entscheidenden Punkt" angelangt ist, an dem sich entscheidet, ob das Internet und die Technologie Chancen eröffnen oder zu einer Quelle größeren Schadens werden.
Die NSPCC schloss sich dieser Meinung an und forderte die Technologieunternehmen auf, Maßnahmen gegen die alarmierende Geschwindigkeit zu ergreifen, mit der sich Missbrauchstäter neue Technologien zu eigen gemacht haben.
Anna Edmundson, Leiterin der Abteilung Politik und öffentliche Angelegenheiten der Wohltätigkeitsorganisation, argumentierte, dass sich die Unternehmen dieser potenziellen Risiken bewusst seien, aber keine wesentlichen Maßnahmen ergriffen hätten, und betonte, dass es "keine Ausreden mehr für Untätigkeit" geben könne.
Ein Sprecher der Regierung erklärte daraufhin: "Das Gesetz zur Online-Sicherheit wird Unternehmen dazu verpflichten, proaktiv gegen alle Formen des sexuellen Missbrauchs von Kindern im Internet vorzugehen, einschließlich Grooming, Live-Streaming, Material über sexuellen Missbrauch von Kindern und verbotene Bilder von Kindern - sonst drohen hohe Geldstrafen."
Das Vereinigte Königreich Gesetzentwurf zur Online-Sicherheit wurde in erster Linie verfasst, bevor generative KI "Mainstream" wurde, zielt aber immer noch darauf ab, Fälle von KI-bedingtem Schaden im Internet zu kontrollieren.
Besorgnis über Deep Fakes nimmt zu
Dies lenkt die Aufmerksamkeit noch mehr auf die Rolle der KI bei Täuschung und Internetkriminalität. Das Aufkommen von Deep Fakes, ultrarealistischen, von KI generierten Bildern, Videos oder Audiodateien, hat eine Reihe von ethischen und sicherheitstechnischen Bedenken aufgeworfen.
Deep Fakes nutzen KI-Algorithmen, um aus vorhandenen Audio- oder Videoinhalten Muster in Gesichtsbewegungen, Stimmmodulationen und Körpersprache zu extrahieren. Mithilfe ihrer Analyse kann die KI äußerst überzeugende Fälschungen erstellen, die kaum von der echten Person zu unterscheiden sind.
Darüber hinaus wird der durch KI generierte Kindesmissbrauch wahrscheinlich die bestehende Gesetzgebung auf der ganzen Welt in Frage stellen. Während KI-generierte illegale Kinderbilder im Vereinigten Königreich rechtlich genauso behandelt werden wie echte Bilder, ist dies anderswo möglicherweise nicht der Fall.
Die Gesetzgeber haben es schwer, mit der KI Schritt zu halten, die wesentlich flexibler ist als schwerfällige Gesetzgebungsverfahren.
In der Zwischenzeit verwischen Betrüger und Kriminelle die Grenzen zwischen dem, was echt ist, und dem, was nicht echt ist, und nutzen Gesetzeslücken aus.
Der erste aufsehenerregende Fall von KI-gestütztem Betrug im Jahr 2019 eingetreten als Betrüger mit Hilfe von KI die Stimme eines Geschäftsführers nachahmten, um einen leitenden Angestellten davon zu überzeugen, 220 000 Euro ($243 000) zu überweisen, angeblich für eine dringende Lieferantenzahlung. Die Führungskraft glaubte, mit dem CEO zu sprechen, aber in Wirklichkeit hatte sie es mit einer Fälschung zu tun.
Anfang des Jahres wurde ein gefälschtes Bild eines Explosion im Pentagon kursierte in den sozialen Medien und ließ den US-Aktienmarkt vorübergehend um 0,3% fallen.
Viele sind besorgt, dass KI zur Erstellung falscher Nachrichtenberichte oder diffamierender Inhalte über politische Persönlichkeiten eingesetzt wird. Politiker nutzen bereits KI-generierte Inhalte, um ihre Kampagnen zu unterstützen.
Darüber hinaus gibt es eine Zunahme von nicht einvernehmlich hergestellter Fake-Pornografie, bei der die Gesichter von Personen ohne deren Zustimmung auf expliziten Bildern oder Videos eingeblendet werden.
Die FBI gewarnt über KI-Sextortion und stellte fest: "Böswillige Akteure nutzen Technologien und Dienste zur Manipulation von Inhalten, um Fotos und Videos - die typischerweise über das Social-Media-Konto einer Person oder das offene Internet aufgenommen oder vom Opfer angefordert werden - in sexuell motivierte Bilder zu verwandeln, die dem Opfer lebensecht erscheinen, und sie dann in sozialen Medien, öffentlichen Foren oder auf pornografischen Websites zu verbreiten. Viele Opfer, darunter auch Minderjährige, sind sich nicht bewusst, dass ihre Bilder kopiert, manipuliert und in Umlauf gebracht wurden, bis sie von jemand anderem darauf aufmerksam gemacht werden."
Ein britischer Dokumentarfilm, Meine Blondine GFwird ein echter Fall von gefälschtem Racheporno untersucht, der das Leben der Schriftstellerin Helen Mort in Mitleidenschaft zog.
Technologieunternehmen wie Google, Twitter und Facebook entwickeln Erkennungsinstrumente, um gefälschte Inhalte zu identifizieren, aber mit zunehmender Komplexität der künstlichen Intelligenz könnten solche Mechanismen weniger zuverlässig werden.
Während Fortschritte gemacht werden, müssen Einzelpersonen, Unternehmen und die Gesellschaft insgesamt über die potenziellen Risiken der Deep-Fake-Technologie informiert bleiben, die als eines der größten und dringlichsten Risiken der KI hervorgehoben wurde.