La polizia australiana ha avviato un'indagine sulla distribuzione di immagini pornografiche generate dall'intelligenza artificiale di circa 50 studentesse, e si ritiene che l'autore sia un adolescente.
In un'intervista rilasciata mercoledì alla ABC, Emily, madre di una ragazza di 16 anni che frequenta il Bacchus Marsh Grammar, ha rivelato che sua figlia si è sentita fisicamente male dopo aver visto le immagini "mutilate" online.
"Sono andata a prendere mia figlia a un pigiama party e lei era estremamente angosciata, vomitava perché le immagini erano incredibilmente grafiche", ha spiegato alla ABC Radio Melbourne.
La scuola ha rilasciato un comunicato in cui dichiara il suo impegno per il benessere degli studenti, sottolineando che sta offrendo consulenza e collaborando con la polizia.
"Il benessere dei nostri studenti e delle loro famiglie alla Bacchus Marsh Grammar è una priorità assoluta e viene affrontato attivamente", ha dichiarato il presidente della Bacchus Marsh Grammar. la scuola ha dichiarato.
Questo arriva mentre il governo australiano sta spingendo per leggi più severe per i falsi espliciti non consensuali, aumentando le pene detentive per la generazione e la condivisione di CSAM, generati dall'intelligenza artificiale o meno, fino a sette anni.
Aumentano i falsi profondi espliciti
Secondo gli esperti, i predatori online che frequentano il dark web stanno sfruttando sempre di più gli strumenti di intelligenza artificiale, in particolare i generatori di testo-immagine come Stability AI, per generare nuove CSAM.
È inquietante che questi creatori di CSAM a volte si fissino su sopravvissuti ad abusi su minori le cui immagini circolano online. I gruppi per la sicurezza dei minori riferiscono di aver trovato numerose discussioni in chat sull'uso dell'IA per creare più contenuti che ritraggono specifiche "star" minorenni popolari in queste comunità di abusi.
L'intelligenza artificiale consente alle persone di creare nuove immagini esplicite per rivittimizzare e ritraumatizzare i sopravvissuti.
"Il mio corpo non sarà mai più mio e questo è un problema che molti sopravvissuti devono affrontare", ha dichiarato recentemente Leah Juliett, attivista e sopravvissuta alla CSAM. ha dichiarato al Guardian.
Un ottobre 2023 rapporto della Fondazione Internet Watch con sede nel Regno Unito ha scoperto la portata del CSAM generato dall'intelligenza artificiale. Il rapporto ha rilevato oltre 20.000 immagini di questo tipo pubblicate su un singolo forum del dark web nell'arco di un mese.
Le immagini sono spesso indecifrabili dalle foto autentiche e ritraggono contenuti profondamente inquietanti come lo stupro simulato di neonati e bambini.
L'anno scorso, un Rapporto dell'Università di Stanford ha rivelato che centinaia di immagini CSAM reali erano incluse nel database LAION-5B, utilizzato per addestrare i più diffusi strumenti di intelligenza artificiale. Una volta che il database è stato reso open-source, gli esperti affermano che la creazione di CSAM generati dall'IA è esplosa.
I recenti arresti dimostrano che il problema non è teorico e le forze di polizia di tutto il mondo stanno agendo. Ad esempio, ad aprile, un Un uomo della Florida è stato accusato per aver presumibilmente utilizzato l'intelligenza artificiale per generare immagini esplicite di un bambino vicino.
L'anno scorso, un uomo della Carolina del Nord, tra l'altro uno psichiatra infantile, si è trovato in una situazione di emergenza. è stato condannato a 40 anni di carcere per aver creato materiale pedopornografico generato dall'intelligenza artificiale dei suoi pazienti.
E solo poche settimane fa, il Dipartimento di Giustizia degli Stati Uniti ha annunciato la l'arresto del 42enne Steven Anderegg in Wisconsin per aver presumibilmente creato più di 13.000 immagini abusive di bambini generate dall'intelligenza artificiale.
Le leggi attuali non sono sufficienti, dicono i legislatori e i sostenitori
Mentre la maggior parte dei Paesi ha già leggi che criminalizzano il CSAM generato al computer, i legislatori vogliono rafforzare le normative.
Ad esempio, negli Stati Uniti, una proposta di legge bipartisan è stata introdotta per consentire alle vittime di citare in giudizio i creatori di falsi profondi espliciti non consensuali.
Tuttavia, restano da affrontare alcune aree grigie in cui è difficile determinare con precisione quali leggi tali attività infrangano.
Per esempio, in Spagna, un giovane studente è stato trovato a diffondere immagini esplicite di membri della classe generati con AI. Alcuni hanno sostenuto che ciò rientrerebbe nelle leggi sulla pedofilia, con conseguenti accuse più severe, mentre altri hanno affermato che non potrebbe soddisfare tali criteri in base alla legge attuale.
Un incidente simile è avvenuto in un scuola nel New Jersey, mostrando come i bambini possano utilizzare questi strumenti di intelligenza artificiale in modo ingenuo, esponendosi così a rischi estremi.
Le aziende tecnologiche che si occupano di generare immagini AI vietano di utilizzare i loro strumenti per creare contenuti illegali. Tuttavia, molti potenti modelli di intelligenza artificiale sono open-source e possono essere eseguiti privatamente offline, quindi la scatola non può essere completamente chiusa.
Inoltre, gran parte dell'attività criminale si è spostata su piattaforme di messaggistica criptate, rendendo ancora più difficile l'individuazione.
Se l'intelligenza artificiale ha aperto il vaso di Pandora, questo è certamente uno dei pericoli che vi si nascondono.