Una ricerca pubblicata dall'Anglia Ruskin University nel Regno Unito ha rivelato una crescente domanda di CSAM generata dall'intelligenza artificiale sui forum del dark web.
I ricercatori Dr. Deanna Davy e il prof. Sam Lundrigan hanno analizzato le conversazioni di questi forum nel corso dell'ultimo anno, scoprendo un modello preoccupante di utenti che apprendono e condividono attivamente le tecniche per creare questo tipo di materiale utilizzando strumenti di intelligenza artificiale.
"Abbiamo scoperto che molti dei trasgressori si procurano immagini di bambini per manipolarli e che il desiderio di immagini 'hardcore', che passano da quelle 'softcore', viene regolarmente discusso", spiega la dottoressa Davy. in un post sul blog.
Questo sfata l'idea errata che le immagini generate dall'IA siano "senza vittime", dato che le immagini di bambini reali sono spesso utilizzate come materiale di partenza per queste manipolazioni dell'IA.
Lo studio ha anche rilevato che i membri del forum hanno definito "artisti" coloro che creano CSAM generati dall'IA, e alcuni hanno espresso la speranza che la tecnologia si evolva per rendere il processo ancora più semplice di quello attuale.
Questo comportamento criminale è diventato normalizzato all'interno di queste comunità online.
Il Prof. Lundrigan ha aggiunto: "Le conversazioni che abbiamo analizzato mostrano che, grazie alla proliferazione di consigli e indicazioni su come utilizzare l'IA in questo modo, questo tipo di materiale pedopornografico si sta intensificando e i reati sono in aumento. Ciò si aggiunge alla crescente minaccia globale dell'abuso di minori online in tutte le sue forme e deve essere considerato come un'area critica da affrontare nella nostra risposta a questo tipo di crimine".
Uomo arrestato per produzione illecita di immagini AI
In un caso correlato Come riportato dalla BBC lo stesso giorno, la Greater Manchester Police (GMP) ha recentemente annunciato quello che descrive come un "caso emblematico" riguardante l'uso dell'intelligenza artificiale per creare immagini indecenti di bambini.
Hugh Nelson, un 27enne di Bolton, ha ammesso 11 reati, tra cui la distribuzione e la realizzazione di immagini indecenti, e sarà condannato il 25 settembre.
L'agente investigativo Carly Baines del GMP ha descritto il caso come "particolarmente unico e profondamente orribile", notando che Nelson aveva trasformato "normali fotografie di tutti i giorni" di bambini reali in immagini indecenti utilizzando la tecnologia AI. "
Il caso contro Nelson illustra ancora una volta le sfide che le forze dell'ordine devono affrontare nell'affrontare questa nuova forma di criminalità digitale.
Il GMP ha descritto il caso come un "vero e proprio banco di prova per la legislazione", poiché l'uso dell'IA in questo modo non è specificamente affrontato nell'attuale legge del Regno Unito. Il procuratore Baines ha espresso la speranza che questo caso "possa avere un ruolo nell'influenzare l'aspetto della legislazione futura".
Crescono i problemi legati alle immagini illecite generate dall'IA
Questi sviluppi arrivano sulla scia di altri casi di alto profilo che coinvolgono il CSAM generato dall'IA.
Ad aprile, ad esempio, un uomo della Florida è stato accusato di aver presumibilmente utilizzato l'intelligenza artificiale per generare immagini esplicite di un bambino vicino di casa. L'anno scorso, un uomo della Carolina del Nord psichiatra infantile è stato condannato a 40 anni di carcere per aver creato materiale abusivo generato dall'IA sui suoi pazienti bambini.
Più recentemente, il Dipartimento di Giustizia degli Stati Uniti ha annunciato l'arresto di Steven Anderegg, 42 anni in Wisconsin per aver presumibilmente creato più di 13.000 immagini abusive di bambini generate dall'intelligenza artificiale.
Risolvere questi problemi è una grande priorità per l'industria dell'IA e sono state proposte diverse strategie, come ad esempio:
- Aggiornare la legislazione per affrontare in modo specifico il CSAM generato dall'IA.
- Migliorare la collaborazione tra aziende tecnologiche, forze dell'ordine e organizzazioni per la tutela dei minori.
- Sviluppare strumenti di rilevamento dell'IA più sofisticati per identificare e rimuovere il CSAM generato dall'IA.
- Aumentare la consapevolezza del pubblico sui danni causati da tutte le forme di CSAM, compresi i contenuti generati dall'intelligenza artificiale.
- Fornire un migliore supporto e risorse alle vittime di abusi, comprese quelle colpite dalla manipolazione delle loro immagini da parte dell'IA.
- Implementare processi di controllo più severi per i set di dati di addestramento dell'IA per evitare l'inclusione di CSAM.
Queste misure si sono dimostrate finora inefficaci.
Per catalizzare un miglioramento definitivo, sarà necessario affrontare sia il modo in cui le immagini abusive generate dall'IA possono passare sotto il radar tecnico, occupando una zona grigia nella legislazione, sia il modo in cui possono essere manipolate.