Uit een onderzoek van de BBC blijkt dat pedofielen AI-technologie gebruiken om realistische beelden van seksueel misbruik van kinderen te genereren en te verspreiden.
Deze illegale, door AI gegenereerde afbeeldingen zijn meestal toegankelijk via sites voor het delen van inhoud, zoals Patreon. De National Police Chief's Council (NPCC) toonde zich verontwaardigd en benadrukte het "schandalige" falen van sommige platforms om "morele verantwoordelijkheid" te nemen ondanks het feit dat ze aanzienlijke winsten maken.
GCHQ, de Britse overheidsinstelling voor inlichtingen en cyberveiligheid, reageerde op het rapport door te stellen: "Daders van seksueel kindermisbruik gebruiken alle technologieën en sommigen geloven dat de toekomst van materiaal over seksueel kindermisbruik ligt in AI-gegenereerde inhoud."
Mensen gebruiken Stable Diffusion, een open-source AI voor het genereren van afbeeldingen, om de afbeeldingen te genereren. Met Stable Diffusion kunnen gebruikers woorden invoeren die het gewenste beeld beschrijven.
Cruciaal is dat één versie van Stable Diffusion open-source is onder de Apache Licentie 2.0, in tegenstelling tot Mid Journey en DALL-E, die gebruikers verbieden om prompts te gebruiken om grafische of illegale afbeeldingen te genereren. Dit geeft makers vrij spel om bijna elke afbeelding te maken die ze willen.
De BBC ontdekte gevallen waarin Stable Diffusion werd gebruikt om hyperrealistische afbeeldingen van seksueel misbruik van kinderen te maken. De Britse politie heeft bevestigd dat ze al in aanraking zijn gekomen met illegaal AI-gegenereerd materiaal.
Freelance onderzoeker en journalist Octavia Sheepshanks, die onderzoek deed naar de zaakdeelde haar bevindingen met de BBC via de liefdadigheidsinstelling voor kinderen NSPCC. "Sinds AI-gegenereerde beelden mogelijk zijn, is er een enorme vloedgolf geweest... het zijn niet alleen hele jonge meisjes, ze [pedofielen] hebben het over peuters," merkte ze op.
In een ander geval maakten gebruikers misbruik van een VR-pornoplatform om avatars van minderjarige vrouwen te maken. Eén gebruiker nam naar verluidt een foto van een echt minderjarig meisje en plaatste die op een van de modellen.
De Britse wet behandelt computergegenereerde "pseudobeelden" waarop seksueel misbruik van kinderen te zien is op dezelfde manier als echte beelden - dus het bezit, de publicatie of overdracht ervan is illegaal.
Ian Critchley, hoofd kinderbescherming van de NSPCC, stelde dat zelfs als "synthetische" afbeeldingen geen echte kinderen afbeelden, ze toch kunnen leiden tot echte schade. Hij waarschuwde voor een mogelijke escalatie in de acties van daders "van gedachte, naar synthetisch, naar daadwerkelijk misbruik van een levend kind".
Hoe hebben pedofielen de beelden gemaakt en verspreid?
Volgens het onderzoek omvat het beelddistributieproces 3 stappen:
- Pedofielen genereren beelden met behulp van AI-software.
- Deze afbeeldingen worden gepromoot op platforms zoals Pixiv, een Japanse website voor het delen van afbeeldingen.
- Op deze platforms staan links die klanten naar explicietere beelden leiden, waartoe ze toegang kunnen krijgen door te betalen op sites als Patreon.
Veel beeldmakers waren actief op Pixiv, voornamelijk gebruikt door manga en anime artiesten.
Het platform wordt echter gehost in Japan, waar het delen van geseksualiseerde cartoons van minderjarigen niet illegaal is, waardoor makers hun werk kunnen promoten met behulp van groepen en hashtags.
Pixiv verbood vanaf 31 mei alle fotorealistische afbeeldingen van seksuele inhoud waarbij minderjarigen betrokken zijn. Ze verklaarden ook dat ze hun controlesystemen hadden versterkt en meer middelen inzetten om dergelijke inhoud tegen te gaan.
Sheepshanks vertelde de BBC dat het gaat om "distributie op industriële schaal". Bovendien blijkt uit commentaren op Pixiv dat sommigen niet door AI gegenereerd misbruikmateriaal aanbieden.
Veel Pixiv-accounts bieden links naar hun "ongecensureerde inhoud" die gehost wordt op Patreon, een Amerikaans platform voor het delen van inhoud dat gewaardeerd wordt op ongeveer $4bn (£3.1bn).
Patreon heeft meer dan 250.000 makers, waaronder bekende beroemdheden, journalisten en schrijvers. Het onderzoek ontdekte Patreon-accounts die openlijk door AI gegenereerde obscene kinderafbeeldingen verkochten, met prijzen die varieerden afhankelijk van het soort materiaal.
Stabiliteit AI en Patreon reageert
Eenmaal een voorbeeld getoond, bevestigde Patreon dat dit in strijd was met hun beleid en de account werd prompt verwijderd.
Stable Diffusion, de AI-beeldgenerator die wordt gebruikt om deze afbeeldingen te maken, is ontwikkeld door een wereldwijde samenwerking van academici en bedrijven onder leiding van het Britse Stability AI. Zoals gezegd heeft de open-source versie van de software geen filters, waardoor elke afbeelding gemaakt kan worden.
Stability AI heeft hierop gereageerd door het verbod op misbruik van zijn software voor illegale of immorele doeleinden, waaronder materiaal over seksueel misbruik van kinderen (CSAM), aan te scherpen.
Ze verklaarden krachtige steun te geven aan inspanningen op het gebied van wetshandhaving om het illegale gebruik van hun producten te bestrijden.
Ian Critchley van de NPCC toonde zich bezorgd dat de toevloed van door AI gegenereerde of "synthetische" beelden het identificatieproces van echte slachtoffers van misbruik zou kunnen belemmeren. Hij zei: "Het creëert extra vraag, in termen van politie en wetshandhaving, om te identificeren waar een echt kind, waar ook ter wereld, wordt misbruikt in tegenstelling tot een kunstmatig of synthetisch kind."
Critchley voegde eraan toe dat de maatschappij een "cruciaal moment" heeft bereikt om te bepalen of het internet en de technologie mogelijkheden zullen bieden of een bron van grotere schade zullen worden.
De NSPCC sloot zich hierbij aan en drong er bij techbedrijven op aan om actie te ondernemen tegen de alarmerende snelheid waarmee misbruikers nieuwe technologieën hebben overgenomen.
Anna Edmundson, hoofd beleid en publieke zaken van de liefdadigheidsinstelling, stelde dat bedrijven zich bewust waren van deze potentiële risico's, maar geen substantiële actie hebben ondernomen en benadrukte dat er "geen excuses meer zijn om niets te doen".
Een woordvoerder van de overheid zei in een reactie: "De Online Safety Bill verplicht bedrijven om proactief op te treden tegen alle vormen van online seksueel misbruik van kinderen, inclusief kinderlokkerij, live-streaming, materiaal over seksueel misbruik van kinderen en verboden afbeeldingen van kinderen - of ze moeten hoge boetes betalen."
Het Verenigd Koninkrijk Wetsvoorstel online veiligheid werd voornamelijk opgesteld voordat generatieve AI 'mainstream' werd, maar is nog steeds bedoeld om gevallen van online AI-gerelateerde schade te beheersen.
Zorgen over diepe vervalsingen nemen toe
Dit vestigt nog meer de aandacht op de rol van AI in misleiding en cybercriminaliteit. De opkomst van deep fakes, ultra-realistische AI-gegenereerde afbeeldingen, video of audio, heeft geleid tot een groot aantal ethische en veiligheidszorgen.
Diepe vervalsingen gebruiken AI-algoritmes om patronen in gezichtsbewegingen, stemmodulaties en lichaamstaal uit bestaande audio- of videocontent te halen. Met behulp van hun analyse kan AI zeer overtuigende vervalsingen creëren die bijna onmogelijk van echt te onderscheiden zijn.
Daarnaast zal AI-gegenereerd kindermisbruik waarschijnlijk de bestaande wetgeving over de hele wereld op de proef stellen. Terwijl AI-gegenereerde illegale kinderfoto's in het Verenigd Koninkrijk wettelijk hetzelfde worden behandeld als echte foto's, is dit elders mogelijk niet het geval.
Wetgevers hebben het moeilijk om gelijke tred te houden met AI, dat veel flexibeler is dan logge wetgevingsprocessen.
Ondertussen vervagen fraudeurs en criminelen de grenzen tussen wat echt is en wat niet, terwijl ze gebruik maken van gaten in de wet.
De eerste geruchtmakende zaak van AI-ondersteunde fraude opgetreden in 2019 toen fraudeurs AI gebruikten om zich voor te doen als de stem van een CEO om een senior executive over te halen € 220.000 ($243.000) over te maken, onder het voorwendsel dat het ging om een dringende betaling aan een leverancier. De leidinggevende dacht dat hij met de CEO sprak, maar in werkelijkheid had hij te maken met een nepperd.
Eerder dit jaar werd een nepafbeelding van een explosie in het Pentagon circuleerde op sociale media, waardoor de Amerikaanse aandelenmarkt tijdelijk met 0,3% daalde.
Velen zijn bezorgd dat AI zal worden gebruikt om valse nieuwsberichten of lasterlijke inhoud over politieke figuren te creëren. Politici gebruiken al AI-gegenereerde inhoud om hun campagnes te ondersteunen.
Bovendien is er een toename van niet vrijwillige deep fake pornografie, waarbij gezichten van personen zonder toestemming op expliciete afbeeldingen of video's worden geplaatst.
De FBI gewaarschuwd eerder in juni over AI sextortion: "Kwaadwillenden gebruiken inhoudmanipulatietechnologieën en -diensten om foto's en video's - meestal afkomstig van iemands sociale media-account, van het open internet of opgevraagd bij het slachtoffer - om te zetten in seksueel getinte beelden die levensecht lijken op het slachtoffer en deze vervolgens te verspreiden via sociale media, openbare forums of pornografische websites. Veel slachtoffers, waaronder minderjarigen, zijn zich er niet van bewust dat hun afbeeldingen zijn gekopieerd, gemanipuleerd en verspreid totdat iemand anders hen erop attendeert."
Een Britse documentaire, Mijn blonde GFonderzoekt een echt geval van neppe wraakporno dat het leven van schrijfster Helen Mort in zijn greep hield.
Technologiebedrijven zoals Google, Twitter en Facebook ontwikkelen detectie-instrumenten om deep fake content te identificeren, maar naarmate AI geavanceerder wordt, kunnen dergelijke mechanismen minder betrouwbaar worden.
Terwijl er vooruitgang wordt geboekt, moeten individuen, bedrijven en de samenleving als geheel op de hoogte blijven van de potentiële risico's van deep fake technologie, die is benadrukt als een van de meest dreigende en urgente risico's van AI.