Forskning som publicerats av Anglia Ruskin University i Storbritannien har avslöjat en växande efterfrågan på AI-genererad CSAM på mörka webbforum.
Forskarna Dr. Deanna Davy och Professor. Sam Lundrigan analyserade konversationer från dessa forum under det senaste året och upptäckte ett oroande mönster där användare aktivt lär sig och delar tekniker för att skapa sådant material med hjälp av AI-verktyg.
"Vi fann att många av förövarna köper bilder på barn för att manipulera dem, och att önskan om "hardcore"-bilder som eskalerar från "softcore" regelbundet diskuteras", förklarar Dr. Davy i ett blogginlägg.
Detta skingrar missuppfattningen att AI-genererade bilder är "offerlösa", eftersom verkliga barns bilder ofta används som källmaterial för dessa AI-manipulationer.
Studien visade också att forummedlemmarna kallade dem som skapar AI-genererade CSAM för "konstnärer", och vissa uttryckte hopp om att tekniken skulle utvecklas så att processen blir ännu enklare än den är nu.
Sådant kriminellt beteende har blivit normaliserat inom dessa onlinegemenskaper.
Prof. Lundrigan tillade: "De konversationer vi analyserat visar att genom spridningen av råd och vägledning om hur man använder AI på detta sätt eskalerar denna typ av barnpornografiskt material och brotten ökar. Detta bidrar till det växande globala hotet från alla former av övergrepp mot barn på nätet och måste ses som ett viktigt område att ta itu med i vårt svar på denna typ av brott."
Man gripen för olaglig produktion av AI-bilder
I en relaterat fall som rapporterades av BBC samma dag, meddelade Greater Manchester Police (GMP) nyligen vad de beskriver som ett "landmärkesfall" som involverar användningen av AI för att skapa oanständiga bilder av barn.
Hugh Nelson, en 27-årig man från Bolton, erkände 11 brott, inklusive distribution och framställning av oanständiga bilder, och kommer att dömas den 25 september.
Detective Constable Carly Baines från GMP beskrev fallet som "särskilt unikt och djupt skrämmande" och noterade att Nelson hade förvandlat "normala vardagsfotografier" av riktiga barn till oanständiga bilder med hjälp av AI-teknik. "
Fallet mot Nelson illustrerar än en gång de utmaningar som brottsbekämpande myndigheter står inför när det gäller att hantera denna nya form av digital brottslighet.
GMP beskrev det som ett "verkligt test av lagstiftningen", eftersom användningen av AI på detta sätt inte specifikt behandlas i gällande brittisk lagstiftning. DC Baines uttryckte förhoppning om att detta fall skulle "spela en roll för att påverka hur framtida lagstiftning ser ut".
Problemen med olagliga AI-genererade bilder blir allt större
Denna utveckling kommer i kölvattnet av flera andra uppmärksammade fall som rör AI-genererad CSAM.
I april åtalades till exempel en man i Florida för att ha använt AI för att generera explicita bilder av ett grannbarn. Förra året åtalades en man i North Carolina barnpsykiater dömdes till fängelse till 40 års fängelse för att ha skapat AI-genererat kränkande material från sina barnpatienter.
Nyligen meddelade det amerikanska justitiedepartementet att man gripit 42-årige Steven Anderegg i Wisconsin för att ha skapat mer än 13.000 AI-genererade kränkande bilder på barn.
Att lösa dessa problem är en enorm prioritet för AI-industrin, och olika strategier har lagts fram, till exempel:
- Uppdatering av lagstiftningen för att specifikt hantera AI-genererad CSAM.
- Förbättra samarbetet mellan teknikföretag, brottsbekämpande myndigheter och barnskyddsorganisationer.
- Utveckla mer sofistikerade AI-detekteringsverktyg för att identifiera och ta bort AI-genererad CSAM.
- Öka allmänhetens medvetenhet om den skada som orsakas av alla former av CSAM, inklusive AI-genererat innehåll.
- Ge bättre stöd och resurser till offer för övergrepp, inklusive de som drabbats av AI-manipulation av deras bilder.
- Genomföra striktare granskningsprocesser för AI-träningsdataset för att förhindra att CSAM inkluderas.
Dessa åtgärder har hittills visat sig vara verkningslösa.
För att få till stånd en definitiv förbättring måste man ta itu med både det sätt på vilket kränkande AI-genererade bilder kan flyga under den tekniska radarn och befinna sig i en gråzon i lagstiftningen, och det sätt på vilket de kan manipuleras.