Un'indagine dettagliata condotta dai giornalisti della BBC ha portato alla luce un'allarmante tendenza di video su YouTube generati dall'intelligenza artificiale e pieni di false informazioni "scientifiche" volte a ingannare i giovani spettatori.
Il team della BBC ha scoperto "oltre 50 canali in più di 20 lingue che diffondono disinformazione mascherata da contenuti STEM [Science, Technology, Engineering, Maths]".
Questi canali sono specializzati in pseudo-scienze, false informazioni e teorie cospirative che vanno dalla rivendicazione di piramidi che producono elettricità alla negazione del cambiamento climatico causato dall'uomo e alle discussioni sugli esseri extraterrestri.
Gli algoritmi di YouTube sono riusciti a consigliare questi video agli spettatori più giovani.
L'intelligenza artificiale ha semplificato il processo di creazione di video su YouTube utilizzando metodi automatizzati, facendo temere un calo della qualità dei contenuti sulla piattaforma.
Il ruolo dell'intelligenza artificiale nella diffusione della disinformazione
Il Analisi della BBC ha rivelato che la maggior parte di questi video ingannevoli ha utilizzato programmi di IA generativa, come ChatGPT e MidJourney, per produrre testo, immagini e narrazioni.
Kyle Hill, YouTuber ed educatore scientifico, ha avuto un'esperienza diretta di questo problema: "Sembra che i creatori abbiano rubato e manipolato contenuti accurati per poi ripubblicarli".
Ha inoltre commentato: "Questi canali sembrano aver individuato la cosa giusta per massimizzare le visualizzazioni con il minimo sforzo".
Il team della BBC ha condotto un esperimento per capire la portata dell'esposizione dei bambini a questi contenuti fuorvianti.
Hanno creato degli account per bambini su YouTube e hanno scoperto che questi video di "cattiva scienza" generati dall'IA venivano effettivamente raccomandati a questi account.
I bambini reagiscono
L'indagine ha anche misurato le reazioni ai video mostrandoli a due gruppi di bambini di 10-12 anni.
Un video si concentrava su cospirazioni di UFO e alieni, mentre un altro sosteneva falsamente che le Piramidi di Giza fossero utilizzate per la produzione di elettricità.
Un bambino ha detto: "Mi è piaciuto guardarlo", "All'inizio non ero sicuro che gli alieni esistessero, ma ora penso che esistano".
Alcuni hanno individuato il contenuto falso: "Ho trovato abbastanza divertente il fatto che non abbiano nemmeno usato una voce umana, ho pensato che non fosse umana", ha detto un bambino.
L'interazione dell'intelligenza artificiale con i bambini è stata oggetto di un acceso dibattito nelle ultime settimane, con 50 procuratori degli Stati Uniti unendo le forze per avvertire il Congresso dei pericoli della tecnologia per le giovani generazioni all'inizio di questo mese.
In agosto, il Il Forum economico mondiale (WEF) ha avvertito che la politica che affronta il ruolo dell'IA nella vita dei bambini è fortemente carente.
La risposta di YouTube
YouTube ha sottolineato che raccomanda YouTube Kids per i minori di 13 anni, sostenendo che ha una "soglia più alta" per la qualità dei video che possono essere mostrati.
Tuttavia, non hanno commentato le domande relative agli introiti pubblicitari generati da questi video ingannevoli.
Claire Seeley, insegnante di scuola primaria nel Regno Unito, ha espresso le sue preoccupazioni per il futuro.
"Non abbiamo una comprensione davvero chiara di come i contenuti generati dall'intelligenza artificiale abbiano un impatto reale sulla comprensione dei bambini. Come insegnanti, stiamo giocando a rimpiattino per cercare di capire come funziona".
La professoressa Vicki Nash, direttrice dell'Oxford Internet Institute, ha espresso preoccupazioni di carattere etico: "L'idea che YouTube e Google stiano facendo soldi grazie a pubblicità che vengono servite con notizie di pseudoscienza mi sembra davvero poco etica".
Con la continua evoluzione dell'IA, le sfide poste dalla disinformazione generata dall'IA sono destinate ad aumentare, richiedendo un'azione vigile da parte di aziende tecnologiche, educatori e genitori.
Se da un lato la regolamentazione aumenterà la pressione sulle piattaforme di social media affinché agiscano sui contenuti generati dall'intelligenza artificiale, dall'altro si tratta di un'impresa ardua quando individuare tali contenuti è notoriamente difficile.