KI wird in alarmierendem Ausmaß für die Erstellung von Bildern des sexuellen Missbrauchs von Kindern missbraucht. Die Internet Watch Foundation (IWF) warnt vor einer überwältigenden Bedrohung der Internetsicherheit.
Die im Vereinigten Königreich ansässige Aufsichtsbehörde hat fast 3.000 KI-generierte Bilder identifiziert, die gegen britische Gesetze verstoßen.
Die IWF berichtet dass KI-Modelle mit Bildern tatsächlicher Missbrauchsopfer gefüttert werden, wodurch neue missbräuchliche Inhalte entstehen. Darüber hinaus wird die Technologie genutzt, um Bilder von minderjährigen Prominenten in Missbrauchsszenarien zu produzieren und Fotos von bekleideten Kindern, die im Internet gefunden wurden, zu "entblößen".
Es gibt zahlreiche internationale Fälle von gefälschtem Kindesmissbrauch, darunter ein aktueller Fall wo mehrere spanische Schülerinnen mit sexualisierten, von der KI generierten Bildern angegriffen wurden. Im Juni haben Journalisten der BBC enthüllt pädophile AI-Bilder die auf Plattformen wie Patreon kursieren.
Susie Hargreaves, IWF-Geschäftsführerin, erklärte, dass ihre "schlimmsten Albträume wahr geworden sind" und betonte die Beschleunigung der KI-Technologie für bösartige Zwecke.
Die Stiftung hatte bereits im Sommer auf die aufkommende Bedrohung hingewiesen und bestätigt nun, dass die Zahl der KI-generierten Fälle von sexuellem Kindesmissbrauch (CSAM) deutlich gestiegen ist.
Bei der einmonatigen Untersuchung eines Dark-Web-Forums für Kindesmissbrauch wurde festgestellt, dass 2.978 von 11.108 Bildern gegen britisches Recht verstoßen. 20% der Inhalte wurden als die schwerste Form des Missbrauchs eingestuft.
Dan Sexton, Chief Technology Officer des IWF, wies darauf hin, dass Stable Diffusion, ein weithin verfügbares Open-Source-KI-Modell, das wichtigste auf dem Forum diskutierte Instrument zur Erstellung von CSAM war.
Als Open-Source-Modell ist Stable Diffusion nicht unbedingt mit den gleichen Leitplanken versehen wie kommerzielle Bilderzeugungsmodelle wie DALL-E 3.
Umgang mit ausbeuterischen KI-generierten Inhalten in sozialen Medien
Social-Media-Plattformen sind zu Brutstätten für sexuell eindeutige und ausbeuterische KI-generierte Inhalte geworden.
Beliebte Social-Media-Plattformen wie Facebook, Instagram und TikTok stehen auf dem Prüfstand, weil sie Werbung hosten die KI-Avatare sexualisieren und die Förderung erwachsenengerechter Anwendungen.
Die Werbung ist explizit und beinhaltet die Sexualisierung von kindlichen Figuren, wobei Schlupflöcher in den Systemen zur Inhaltsmoderation ausgenutzt werden.
Trotz der Bemühungen von Meta und TikTok, diese Werbung zu entfernen, entzieht sich die KI-generierte Natur der Inhalte oft den automatischen Filtern. Die uneinheitliche Alterseinstufung dieser Apps und ihre weltweite Verfügbarkeit erschweren das Problem zusätzlich.
Da die KI-Algorithmen immer ausgefeilter werden, stellt die Erstellung ultrarealistischer Bilder, Videos und Audiodateien eine erhebliche Bedrohung für Einzelpersonen, Unternehmen und die Gesellschaft im Allgemeinen dar.
Das FBI Warnungen vor AI-Sextortion zu Beginn des Jahres, an denen vor allem Minderjährige beteiligt waren, haben deutlich gemacht, wie dringlich es ist, sich mit diesem Problem zu befassen. Das Problem scheint sich nur noch zu beschleunigen.