AI wordt in een alarmerend tempo gebruikt om beelden van seksueel misbruik van kinderen te maken, wat de angst aanwakkert voor een overweldigende bedreiging van de internetveiligheid, waarschuwt de Internet Watch Foundation (IWF).
De Britse waakhond heeft bijna 3.000 door AI gegenereerde afbeeldingen geïdentificeerd die de Britse wetgeving schenden.
De IWF rapporteerde dat AI-modellen worden gevoed met beelden van echte misbruikslachtoffers, waardoor nieuwe misbruikcontent wordt gegenereerd. Daarnaast wordt technologie gebruikt om beelden te produceren van minderjarige beroemdheden in misbruikscenario's en om foto's van geklede kinderen die online zijn gevonden te 'nudificeren'.
Er zijn talloze internationale gevallen van vals kindermisbruik, waaronder een recente zaak waar verschillende Spaanse vrouwelijke schoolkinderen het doelwit waren van geseksualiseerde, door AI gegenereerde afbeeldingen. In juni werden journalisten van de BBC onthulde pedofiele AI-beelden circuleren op platforms zoals Patreon.
Susie Hargreaves, Chief Executive van de IWF, zei dat hun "ergste nachtmerries zijn uitgekomen" en benadrukte de versnelling van AI-technologie voor kwaadaardige doeleinden.
De stichting heeft deze dreiging deze zomer al eerder onder de aandacht gebracht en bevestigt nu een significante toename van AI-gegenereerd kinderpornomateriaal (CSAM).
In het onderzoek, dat een maand duurde, bleek dat 2.978 van de 11.108 afbeeldingen in strijd waren met de Britse wet. 20% van de inhoud werd gecategoriseerd als de meest ernstige vorm van misbruik.
Dan Sexton, Chief Technology Officer van IWF, wees erop dat Stable Diffusion, een algemeen beschikbaar open-source AI-model, het primaire hulpmiddel was dat op het forum werd besproken voor het creëren van CSAM.
Als open-source model heeft Stable Diffusion niet noodzakelijkerwijs dezelfde beperkingen als commerciële beeldgeneratiemodellen zoals DALL-E 3.
De uitbuitende AI-gegenereerde inhoud op sociale media aanpakken
Sociale mediaplatforms zijn broeinesten geworden van seksueel expliciete en uitbuitende AI-gegenereerde inhoud.
Populaire sociale mediaplatforms zoals Facebook, Instagram en TikTok worden kritisch bekeken voor het hosten van advertenties die AI avatars seksualiseren en op volwassenen gerichte toepassingen promoten.
De advertenties zijn expliciet en bevatten de seksualisering van kinderlijke figuren, waarbij gebruik wordt gemaakt van mazen in de content moderatie systemen.
Ondanks de inspanningen van Meta en TikTok om deze advertenties te zuiveren, ontsnapt de AI-gegenereerde aard van de inhoud vaak aan geautomatiseerde filters. De inconsistente leeftijdsclassificaties van deze apps en hun wereldwijde beschikbaarheid maken het probleem nog ingewikkelder.
Nu AI-algoritmes steeds geavanceerder worden, vormt de creatie van ultrarealistische beelden, video's en audio een aanzienlijke bedreiging voor individuen, bedrijven en de samenleving als geheel.
De FBI waarschuwingen over AI sextortion eerder dit jaar, waarbij vooral minderjarigen betrokken waren, benadrukten de urgentie om dit probleem aan te pakken. Het lijkt alleen maar sneller te gaan.