Politiet i Australien har indledt en undersøgelse af distributionen af AI-genererede pornografiske billeder af omkring 50 skolepiger, hvor gerningsmanden menes at være en teenagedreng.
I et interview med ABC onsdag afslørede Emily, som er mor til en 16-årig pige, der går på Bacchus Marsh Grammar, at hendes datter blev fysisk syg efter at have set de "lemlæstede" billeder online.
"Jeg hentede min datter fra en overnatning, og hun var ekstremt ked af det og kastede op, fordi billederne var utroligt grafiske," forklarede hun til ABC Radio Melbourne.
Skolen har udsendt en erklæring, hvor den erklærer sig forpligtet til at sikre elevernes velfærd og tilbyder rådgivning og samarbejder med politiet.
"Vores elevers og deres familiers velbefindende på Bacchus Marsh Grammar er en topprioritet og bliver aktivt behandlet," siger Skolen sagde.
Det sker, mens den australske regering presser på for at få strengere love for eksplicitte deep fakes uden samtykke, hvilket øger fængselsstraffen for at generere og dele CSAM, AI-genereret eller ej, til op til syv år.
Eksplicitte deep fakes på fremmarch
Eksperter siger, at online-rovdyr på det mørke web i stigende grad udnytter AI-værktøjer - især tekst-til-billede-generatorer som Stability AI - til at generere ny CSAM.
Det er foruroligende, at disse CSAM-skabere nogle gange fikserer på tidligere overlevende børnemishandlere, hvis billeder cirkulerer online. Børnesikkerhedsgrupper rapporterer, at de har fundet adskillige chatroom-diskussioner om at bruge AI til at skabe mere indhold, der viser specifikke mindreårige "stjerner", som er populære i disse misbrugsmiljøer.
AI gør det muligt for folk at skabe nye eksplicitte billeder for at revictimisere og retraumatisere de overlevende.
"Min krop vil aldrig blive min igen, og det er noget, som mange overlevende må kæmpe med," sagde Leah Juliett, en aktivist og CSAM-overlever, for nylig. fortalte The Guardian.
En oktober 2023 rapport fra den britisk-baserede Internet Watch Foundation afslørede omfanget af AI-genereret CSAM. Rapporten fandt over 20.000 sådanne billeder på et enkelt dark web-forum i løbet af en måned.
Billederne er ofte umulige at skelne fra autentiske fotos og viser dybt foruroligende indhold som simuleret voldtægt af spædbørn og småbørn.
Sidste år blev en Rapport fra Stanford University afslørede, at hundredvis af ægte CSAM-billeder var inkluderet i LAION-5B-databasen, der bruges til at træne populære AI-værktøjer. Da databasen blev gjort open source, siger eksperter, at skabelsen af AI-genereret CSAM eksploderede.
Nylige anholdelser viser, at problemet ikke er teoretisk, og politistyrker verden over tager affære. I april blev for eksempel en Mand fra Florida blev anklaget for angiveligt at have brugt AI til at generere eksplicitte billeder af en barnlig nabo.
Sidste år blev en mand fra North Carolina - en børnepsykiater af alle mennesker -... blev idømt 40 års fængsel for at skabe AI-genereret børnepornografi fra sine patienter.
Og for bare få uger siden annoncerede det amerikanske justitsministerium Anholdelse af 42-årige Steven Anderegg i Wisconsin for angiveligt at have skabt mere end 13.000 AI-genererede krænkende billeder af børn.
Nuværende love er ikke nok, siger lovgivere og fortalere
Selv om de fleste lande allerede har love, der kriminaliserer computergenereret CSAM, ønsker lovgiverne at styrke reglerne.
For eksempel i USA, et lovforslag fra begge parter er blevet indført for at give ofre mulighed for at sagsøge skabere af eksplicitte deep fakes uden samtykke.
Men der er stadig nogle gråzoner, hvor det er svært at afgøre præcist, hvilke love sådanne aktiviteter bryder.
For eksempel blev en ung studerende i Spanien fundet i færd med at sprede eksplicitte billeder af klassemedlemmer genereret med AI. Nogle hævdede, at det ville falde ind under pædofililovgivningen og føre til hårdere anklager, mens andre sagde, at det ikke kunne opfylde de kriterier under den nuværende lovgivning.
En lignende hændelse skete på en Skole i New JerseyDet viser, hvordan børn kan bruge disse AI-værktøjer naivt og udsætte sig selv for ekstreme risici i processen.
Teknologivirksomheder bag AI-billedgeneratorer forbyder brug af deres værktøjer til at skabe ulovligt indhold. Men mange kraftfulde AI-modeller er open source og kan køres privat offline, så kassen kan ikke lukkes helt.
Desuden er en stor del af den kriminelle aktivitet også flyttet til krypterede meddelelsesplatforme, hvilket gør det endnu sværere at opdage.
Hvis AI åbnede Pandoras æske, er dette helt sikkert en af de farer, der lå i den.