Politiet i Australia har innledet en etterforskning av distribusjon av AI-genererte pornografiske bilder av rundt 50 skolejenter, og gjerningsmannen antas å være en tenåringsgutt.
I et intervju med ABC onsdag avslørte Emily, moren til en 16 år gammel jente som går på Bacchus Marsh Grammar, at datteren ble fysisk kvalm etter å ha sett de "lemlestede" bildene på nettet.
"Jeg hentet datteren min etter en overnatting, og hun var ekstremt opprørt og kastet opp fordi bildene var så utrolig grafiske", forteller hun til ABC Radio Melbourne.
Skolen har sendt ut en uttalelse der den erklærer at den er opptatt av elevenes velferd, og at den tilbyr rådgivning og samarbeider med politiet.
"Trivselen til elevene og familiene deres ved Bacchus Marsh Grammar har høyeste prioritet, og det jobbes aktivt med dette", sier skolen uttalte.
Dette kommer samtidig som den australske regjeringen presser på for strengere lover for ikke-samtykkebaserte eksplisitte deep fakes, og øker fengselsstraffene for å generere og dele CSAM, AI-genererte eller andre, til opptil syv år.
Eksplisitte deep fakes på fremmarsj
Eksperter sier at nettrovdyr som frekventerer det mørke nettet, i økende grad utnytter AI-verktøy - spesielt tekst-til-bilde-generatorer som Stability AI - for å generere ny CSAM.
Det er urovekkende at disse CSAM-skaperne noen ganger fikserer på tidligere barn som har overlevd overgrep, og hvis bilder sirkulerer på nettet. Barnesikkerhetsgrupper rapporterer at de har funnet mange diskusjoner i chatterom om å bruke kunstig intelligens til å skape mer innhold med bilder av spesifikke mindreårige "stjerner" som er populære i disse overgrepsmiljøene.
Kunstig intelligens gjør det mulig å skape nye eksplisitte bilder for å reviktimisere og retraumatisere de overlevende.
"Kroppen min vil aldri bli min igjen, og det er noe mange overlevende må forholde seg til", sa Leah Juliett, en aktivist og CSAM-overlevende, nylig. sa til The Guardian.
En oktober 2023 rapport fra den britiske Internet Watch Foundation avdekket omfanget av AI-genererte CSAM. Rapporten fant over 20 000 slike bilder lagt ut på et enkelt dark web-forum i løpet av en måned.
Bildene er ofte umulige å tyde fra autentiske bilder, og viser dypt urovekkende innhold som simulert voldtekt av spedbarn og småbarn.
I fjor ble en Rapport fra Stanford University avslørte at hundrevis av ekte CSAM-bilder var inkludert i LAION-5B-databasen som brukes til å trene opp populære AI-verktøy. Etter at databasen ble gjort tilgjengelig med åpen kildekode, eksploderte produksjonen av AI-genererte CSAM-bilder, ifølge ekspertene.
Nylige arrestasjoner viser at problemet ikke er teoretisk, og politistyrker over hele verden tar affære. I april ble for eksempel en En mann fra Florida ble siktet for angivelig å ha brukt kunstig intelligens til å generere eksplisitte bilder av en barnlig nabo.
I fjor ble en mann fra North Carolina - en barnepsykiater av alle mennesker - ble dømt til 40 års fengsel for å ha laget AI-generert barnepornografi av pasientene sine.
Og for bare noen uker siden kunngjorde det amerikanske justisdepartementet arrestasjonen av 42 år gamle Steven Anderegg i Wisconsin for angivelig å ha skapt mer enn 13 000 AI-genererte overgrepsbilder av barn.
Dagens lover er ikke nok, mener lovgivere og talsmenn
De fleste land har allerede lover som kriminaliserer datagenerert CSAM, men lovgiverne ønsker å styrke regelverket.
For eksempel i USA, et tverrpolitisk lovforslag har blitt introdusert for å gjøre det mulig for ofre å saksøke skaperne av eksplisitte, ikke-samtykkebaserte deep fakes.
Det gjenstår imidlertid noen gråsoner der det er vanskelig å fastslå nøyaktig hvilke lover slike aktiviteter bryter med.
I Spania ble for eksempel en ung student funnet i ferd med å spre eksplisitte bilder av klassemedlemmer generert med AI. Noen hevdet at dette ville falle inn under pedofililovgivningen, noe som ville føre til strengere anklager, mens andre sa at det ikke kunne oppfylle dette kriteriet i henhold til gjeldende lov.
En lignende hendelse skjedde på en skole i New JerseyDen viser hvordan barn kan bruke disse AI-verktøyene på en naiv måte og utsette seg for ekstreme risikoer i prosessen.
Teknologiselskapene bak AI-bildegeneratorer forbyr bruk av verktøyene deres til å skape ulovlig innhold. Mange kraftige AI-modeller er imidlertid åpen kildekode og kan kjøres privat offline, så boksen kan ikke lukkes helt.
Mye av den kriminelle aktiviteten har dessuten flyttet seg til krypterte meldingsplattformer, noe som gjør det enda vanskeligere å oppdage den.
Hvis kunstig intelligens åpnet Pandoras eske, er dette definitivt en av farene som ligger i den.