Eine von der Anglia Ruskin University in Großbritannien veröffentlichte Studie hat ergeben, dass in Dark-Web-Foren eine wachsende Nachfrage nach KI-generiertem CSAM besteht.
Die Forscher Dr. Deanna Davy und Professor. Sam Lundrigan analysierten die Unterhaltungen in diesen Foren im vergangenen Jahr und entdeckten ein beunruhigendes Muster von Nutzern, die aktiv Techniken zur Erstellung solchen Materials mit Hilfe von KI-Tools erlernen und weitergeben.
"Wir haben festgestellt, dass viele der Täter Bilder von Kindern beschaffen, um sie zu manipulieren, und dass der Wunsch nach 'Hardcore'-Bildern, die aus dem 'Softcore'-Bereich hervorgehen, regelmäßig diskutiert wird", erklärt Dr. Davy. in einem Blogeintrag.
Damit wird der Irrglaube ausgeräumt, dass KI-generierte Bilder "opferlos" sind, denn als Ausgangsmaterial für diese KI-Manipulationen werden oft echte Kinderbilder verwendet.
Die Studie ergab auch, dass die Mitglieder des Forums diejenigen, die KI-generierte CSAM erstellen, als "Künstler" bezeichneten, wobei einige die Hoffnung äußerten, dass sich die Technologie weiterentwickeln würde, um den Prozess noch einfacher zu machen als er jetzt ist.
Solch kriminelles Verhalten ist in diesen Online-Communities zur Normalität geworden.
Prof. Lundrigan fügte hinzu: "Die von uns analysierten Gespräche zeigen, dass durch die Verbreitung von Ratschlägen und Anleitungen zur Nutzung von KI auf diese Weise diese Art von Kindesmissbrauchsmaterial eskaliert und die Straftaten zunehmen. Dies trägt zur wachsenden globalen Bedrohung durch alle Formen des Online-Kindesmissbrauchs bei und muss als kritischer Bereich angesehen werden, den wir bei unserer Reaktion auf diese Art von Verbrechen berücksichtigen müssen.
Mann wegen illegaler AI-Bildproduktion verhaftet
In einem verwandter Fall Wie die BBC am selben Tag berichtete, hat die Polizei von Greater Manchester (GMP) vor kurzem einen "bahnbrechenden Fall" bekannt gegeben, bei dem es um den Einsatz von KI zur Erstellung unanständiger Bilder von Kindern geht.
Hugh Nelson, ein 27-jähriger Mann aus Bolton, hat 11 Straftaten zugegeben, darunter die Verbreitung und Herstellung von unanständigen Bildern, und soll am 25. September verurteilt werden.
Detective Constable Carly Baines von GMP beschrieb den Fall als "besonders einzigartig und zutiefst erschreckend" und stellte fest, dass Nelson "normale Alltagsfotos" von echten Kindern mithilfe von KI-Technologie in unanständige Bilder verwandelt hatte. "
Der Fall Nelson zeigt einmal mehr, vor welchen Herausforderungen die Strafverfolgungsbehörden im Umgang mit dieser neuen Form der digitalen Kriminalität stehen.
GMP bezeichnete den Fall als einen "echten Test für die Gesetzgebung", da der Einsatz von KI in dieser Form im geltenden britischen Recht nicht ausdrücklich geregelt ist. DC Baines drückte die Hoffnung aus, dass dieser Fall "eine Rolle dabei spielen wird, wie zukünftige Gesetzgebung aussieht".
Die Probleme mit illegalen KI-generierten Bildern nehmen zu
Diese Entwicklungen folgen auf mehrere andere öffentlichkeitswirksame Fälle, in denen es um KI-generierte CSAM geht.
So wurde im April ein Mann aus Florida angeklagt, weil er angeblich mit Hilfe von KI explizite Bilder von einem Nachbarskind erstellt hatte. Letztes Jahr wurde ein Mann aus North Carolina Kinderpsychiater wurde verurteilt zu 40 Jahren Gefängnis verurteilt, weil er KI-generiertes missbräuchliches Material von seinen kindlichen Patienten erstellt hat.
Vor kurzem gab das US-Justizministerium die Verhaftung von Der 42-jährige Steven Anderegg in Wisconsin wegen der angeblichen Erstellung von mehr als 13.000 KI-generierten Missbrauchsbildern von Kindern.
Die Behebung dieser Probleme hat für die KI-Branche höchste Priorität, und es wurden verschiedene Strategien vorgeschlagen, z. B:
- Aktualisierung der Rechtsvorschriften, um speziell auf KI-generierte CSAM einzugehen.
- Verbesserung der Zusammenarbeit zwischen Technologieunternehmen, Strafverfolgungsbehörden und Kinderschutzorganisationen.
- Entwicklung ausgefeilterer KI-Erkennungsinstrumente, um KI-generierte CSAM zu identifizieren und zu entfernen.
- Sensibilisierung der Öffentlichkeit für die Schäden, die durch alle Formen von CSAM, einschließlich KI-generierter Inhalte, verursacht werden.
- Bessere Unterstützung und Ressourcen für Missbrauchsopfer, einschließlich derer, die von der KI-Manipulation ihrer Bilder betroffen sind.
- Einführung strengerer Überprüfungsprozesse für KI-Trainingsdatensätze, um die Einbeziehung von CSAM zu verhindern.
Diese Maßnahmen haben sich bisher als unwirksam erwiesen.
Um eine endgültige Verbesserung herbeizuführen, müssen sowohl die Art und Weise, wie missbräuchliche KI-generierte Bilder unter dem technischen Radar fliegen können, während sie sich in einer Grauzone in der Gesetzgebung befinden, als auch die Art und Weise, wie sie manipuliert werden können, angegangen werden.