AI utnyttjas för att skapa bilder på sexuella övergrepp mot barn i en alarmerande takt, vilket väcker farhågor om ett överväldigande hot mot säkerheten på internet, varnar Internet Watch Foundation (IWF).
Den brittiska vakthunden har identifierat nästan 3.000 AI-genererade bilder som bryter mot brittiska lagar.
Den IWF rapporterade att AI-modeller matas med bilder av verkliga övergreppsoffer, vilket genererar nytt kränkande innehåll. Dessutom används tekniken för att producera bilder av minderåriga kändisar i kränkande situationer och "nudifiera" foton av påklädda barn som finns på nätet.
Det finns många internationella fall av djupt falska övergrepp mot barn, inklusive ett nyligen inträffat fall där flera spanska kvinnliga skolbarn utsattes för sexualiserade AI-genererade bilder. I juni avslöjade journalister från BBC exponerade pedofila AI-bilder som cirkulerar på plattformar som Patreon.
Susie Hargreaves, IWF:s Chief Executive, uttryckte att deras "värsta mardrömmar har blivit sanna" och betonade att AI-tekniken används i allt snabbare takt för skadliga syften.
Stiftelsen har tidigare under sommaren uppmärksammat det framväxande hotet och bekräftar nu en betydande ökning av förekomsten av AI-genererat material om sexuella övergrepp mot barn (CSAM).
I den månadslånga utredningen visade forskning på ett forum för barnmisshandel på dark web att 2.978 av 11.108 bilder bröt mot brittisk lag. 20% av innehållet kategoriserades som den allvarligaste formen av kränkande innehåll.
Dan Sexton, IWF:s Chief Technology Officer, påpekade att Stable Diffusion, en allmänt tillgänglig AI-modell med öppen källkod, var det primära verktyg som diskuterades på forumet för att skapa CSAM.
Eftersom Stable Diffusion är en modell med öppen källkod har den inte nödvändigtvis samma skyddsmekanismer som kommersiella bildgenereringsmodeller som DALL-E 3.
Hantering av exploaterande AI-genererat innehåll på sociala medier
Sociala medier har blivit en tummelplats för sexuellt explicit och exploaterande AI-genererat innehåll.
Populära sociala medieplattformar som Facebook, Instagram och TikTok granskas för att ha varit värd för reklam som sexualiserar AI-avatarer och främja vuxenfokuserade applikationer.
Annonserna är explicita och involverar sexualisering av barnliknande figurer och utnyttjar kryphål i system för innehållsmoderering.
Trots Meta och TikToks ansträngningar att rensa bort dessa annonser undgår innehållets AI-genererade natur ofta automatiserade filter. De inkonsekventa åldersbedömningarna av dessa appar, tillsammans med deras globala tillgänglighet, komplicerar frågan ytterligare.
I takt med att AI-algoritmerna blir allt mer sofistikerade utgör skapandet av ultrarealistiska bilder, videor och ljud ett betydande hot mot individer, företag och samhället i stort.
FBI:s varningar om AI-sextortion tidigare i år, särskilt när det gäller minderåriga, visade hur angeläget det är att ta itu med denna fråga. Det verkar bara accelerera.