Un'inchiesta della BBC ha scoperto che i pedofili sfruttano la tecnologia AI per generare e distribuire immagini realistiche di abusi sessuali su minori.
Queste immagini illecite generate dall'intelligenza artificiale sono in genere accessibili attraverso siti di condivisione di contenuti come Patreon. Il Consiglio nazionale dei capi della polizia (NPCC) ha espresso indignazione, sottolineando l'incapacità "oltraggiosa" di alcune piattaforme di assumersi "responsabilità morali" nonostante i notevoli profitti.
Il GCHQ, l'agenzia di intelligence e sicurezza informatica del governo britannico, ha reagito al rapporto dichiarando: "Gli autori di abusi sessuali su minori adottano tutte le tecnologie e alcuni ritengono che il futuro del materiale pedopornografico risieda nei contenuti generati dall'intelligenza artificiale".
Per generare le immagini si utilizza Stable Diffusion, un'intelligenza artificiale open-source per la generazione di immagini. Stable Diffusion consente agli utenti di inserire parole che descrivono l'immagine desiderata.
Un aspetto critico è che una versione di Stable Diffusion è open-source sotto la licenza Apache 2.0, a differenza di Mid Journey e DALL-E, che impediscono agli utenti di utilizzare i prompt per generare immagini grafiche o illecite. Questo dà ai creatori la possibilità di creare quasi tutte le immagini che desiderano.
La BBC ha scoperto casi in cui la Diffusione Stabile è stata utilizzata per creare rappresentazioni iperrealistiche di abusi sessuali su minori. La polizia britannica ha confermato di essere già entrata in contatto con materiale illegale generato dall'intelligenza artificiale.
La ricercatrice e giornalista freelance Octavia Sheepshanks, che ha indagato su il casoha condiviso le sue scoperte con la BBC attraverso l'associazione di beneficenza per l'infanzia NSPCC. "Da quando le immagini generate dall'intelligenza artificiale sono diventate possibili, c'è stata un'enorme ondata... non si tratta solo di ragazze molto giovani, ma [i pedofili] parlano anche di bambini più piccoli", ha osservato.
In un altro caso, gli utenti hanno sfruttato una piattaforma porno VR per creare avatar di donne minorenni. Un utente avrebbe preso la foto di una vera minorenne e l'avrebbe sovrapposta a una delle modelle.
La legge britannica tratta le "pseudo-immagini" generate al computer che ritraggono abusi sessuali su minori alla stregua di immagini reali, per cui il loro possesso, pubblicazione o trasferimento è illegale.
Ian Critchley, responsabile dell'NSPCC per la tutela dei minori, ha affermato che anche se le immagini "sintetiche" non ritraggono bambini reali, possono portare a danni reali. Ha messo in guardia da una potenziale escalation delle azioni dei criminali "dal pensiero, al sintetico, all'effettivo abuso di un bambino in carne e ossa".
Come hanno fatto i pedofili a creare e distribuire le immagini?
Secondo l'indagine, il processo di distribuzione delle immagini prevede 3 fasi:
- I pedofili generano immagini utilizzando software di intelligenza artificiale.
- Queste immagini vengono promosse su piattaforme come Pixiv, un sito giapponese di condivisione di immagini.
- Su queste piattaforme vengono forniti link che indirizzano i clienti verso immagini più esplicite, alle quali possono accedere pagando su siti come Patreon.
Molti creatori di immagini erano attivi su Pixiv, utilizzato principalmente da artisti di manga e anime.
Tuttavia, la piattaforma è ospitata in Giappone, dove la condivisione di vignette sessuali di minori non è illegale, consentendo ai creatori di promuovere il proprio lavoro utilizzando gruppi e hashtag.
Pixiv ha vietato tutte le rappresentazioni fotorealistiche di contenuti sessuali che coinvolgono minori a partire dal 31 maggio. Ha inoltre dichiarato di aver rafforzato i propri sistemi di monitoraggio e di dedicare maggiori risorse per contrastare tali contenuti.
Sheepshanks ha dichiarato alla BBC che il problema riguarda la "distribuzione su scala industriale". Inoltre, i commenti su Pixiv indicano che alcuni offrono materiale d'abuso non generato dalle IA.
Molti account Pixiv forniscono link ai loro "contenuti non censurati" ospitati su Patreon, una piattaforma di condivisione di contenuti con sede negli Stati Uniti valutata circa $4mld (3,1mld di sterline).
Patreon conta oltre 250.000 creatori, tra cui rinomate celebrità, giornalisti e scrittori. L'indagine ha scoperto account Patreon che vendevano apertamente immagini oscene di bambini generate dall'intelligenza artificiale, con prezzi che variavano a seconda del tipo di materiale.
Stability AI e Patreon reagisce
Una volta mostrato un esempio, Patreon ha confermato che violava le sue politiche e l'account è stato prontamente rimosso.
Stable Diffusion, il generatore di immagini AI utilizzato per la creazione di queste immagini, è stato sviluppato grazie a una collaborazione globale che coinvolge accademici e aziende, guidati dalla britannica Stability AI. Come accennato, la versione open-source del software non ha filtri, consentendo la produzione di qualsiasi immagine.
Stability AI ha risposto rafforzando il divieto di utilizzare il suo software per scopi illegali o immorali, compreso il materiale pedopornografico (CSAM).
Hanno dichiarato di sostenere con forza gli sforzi delle forze dell'ordine per combattere l'uso illegale dei suoi prodotti.
Ian Critchley dell'NPCC ha espresso il timore che l'afflusso di immagini generate dall'intelligenza artificiale o "sintetiche" possa ostacolare il processo di identificazione delle vere vittime di abusi. Ha dichiarato: "Si crea un'ulteriore richiesta, in termini di polizia e di applicazione della legge, per identificare dove un bambino reale, ovunque si trovi nel mondo, viene abusato rispetto a un bambino artificiale o sintetico".
Critchley ha aggiunto che la società è giunta a un "momento cruciale" per stabilire se Internet e la tecnologia saranno in grado di offrire opportunità o diventeranno una fonte di danni maggiori.
L'NSPCC ha fatto eco a questi sentimenti, esortando le aziende tecnologiche ad agire contro la velocità allarmante con cui gli abusatori hanno adottato le tecnologie emergenti.
Anna Edmundson, responsabile delle politiche e degli affari pubblici dell'associazione, ha sostenuto che le aziende erano consapevoli di questi rischi potenziali ma non hanno preso provvedimenti sostanziali, sottolineando che non ci possono essere "più scuse per l'inazione".
Un portavoce del governo ha dichiarato in risposta: "Il disegno di legge sulla sicurezza online richiederà alle aziende di intraprendere azioni proattive per affrontare tutte le forme di abuso sessuale online sui minori, tra cui il grooming, il live-streaming, il materiale pedopornografico e le immagini proibite di bambini - o di incorrere in multe salate".
Il Regno Unito Proposta di legge sulla sicurezza online è stato redatto principalmente prima che l'IA generativa "diventasse di uso comune", ma intende comunque controllare i casi di danni legati all'IA online.
Si intensificano le preoccupazioni per i falsi profondi
Ciò richiama ulteriormente l'attenzione sul ruolo dell'IA nell'inganno e nella criminalità informatica. L'ascesa dei deep fake, immagini, video o audio ultra-realistici generati dall'intelligenza artificiale, ha sollevato una serie di problemi etici e di sicurezza.
Le falsificazioni profonde utilizzano algoritmi di intelligenza artificiale per estrarre modelli di movimenti facciali, modulazioni vocali e linguaggio del corpo da contenuti audio o video esistenti. Grazie alla loro analisi, l'intelligenza artificiale può creare contraffazioni molto convincenti, quasi impossibili da distinguere da quelle reali.
Inoltre, l'abuso di minori generato dall'IA metterà probabilmente in discussione la legislazione vigente in tutto il mondo. Mentre nel Regno Unito le immagini illecite di bambini generate dall'IA sono legalmente trattate come quelle reali, altrove potrebbe non essere così.
I legislatori hanno difficoltà a tenere il passo con l'IA, che è molto più agile dei goffi processi legislativi.
Nel frattempo, truffatori e criminali stanno confondendo i confini tra ciò che è reale e ciò che non lo è, sfruttando le lacune della legge.
Il primo caso di frode di alto profilo supportato dall'intelligenza artificiale nel 2019 quando i truffatori hanno usato l'intelligenza artificiale per impersonare la voce di un amministratore delegato e convincere un dirigente a trasferire 220.000 euro ($243.000), sostenendo che si trattava del pagamento di un fornitore urgente. Il dirigente credeva di parlare con l'amministratore delegato, ma in realtà stava interagendo con un falso profondo.
All'inizio di quest'anno, una falsa immagine di un esplosione al Pentagono circolato sui social media, causando un temporaneo calo del mercato azionario statunitense dello 0,3%.
Molti temono che l'intelligenza artificiale venga utilizzata per creare notizie false o contenuti diffamatori su personaggi politici. I politici stanno già utilizzando l'IA contenuti per rafforzare le loro campagne.
Inoltre, si è registrato un aumento della pornografia profonda non consensuale, in cui i volti degli individui vengono sovrapposti a immagini o video espliciti senza consenso.
Il L'FBI ha avvertito ha parlato dell'AI sextortion all'inizio di giugno, affermando: "I malintenzionati utilizzano tecnologie e servizi di manipolazione dei contenuti per sfruttare foto e video - tipicamente catturati dall'account di un individuo sui social media, da Internet o richiesti alla vittima - per creare immagini a tema sessuale che appaiono vere e proprie somiglianze con la vittima, per poi farle circolare sui social media, sui forum pubblici o sui siti web pornografici". Molte vittime, tra cui anche minorenni, non sono consapevoli che le loro immagini sono state copiate, manipolate e diffuse finché non sono state portate alla loro attenzione da qualcun altro".
Un documentario del Regno Unito, Il mio GF biondo, esplora un caso reale di falso revenge porn che ha attanagliato la vita della scrittrice Helen Mort.
Aziende tecnologiche come Google, Twitter e Facebook stanno sviluppando strumenti di rilevamento per identificare i contenuti falsi profondi, ma man mano che l'intelligenza artificiale diventa più sofisticata, tali meccanismi potrebbero diventare meno affidabili.
Mentre si compiono progressi, gli individui, le imprese e la società nel suo complesso devono rimanere informati sui rischi potenziali della tecnologia deep fake, che è stata evidenziata come uno dei rischi più imminenti e pressanti dell'IA.