Mentre il Bangladesh si prepara alle elezioni nazionali che si terranno all'inizio di gennaio, una minaccia sempre più familiare sta facendo capolino: La disinformazione generata dall'intelligenza artificiale (deep fake).
Le elezioni in Bangladesh sono un'accesa competizione tra l'attuale Primo Ministro, Sheikh Hasina, e l'opposizione, il Partito Nazionalista del Bangladesh.
Numerosi rapporti richiamano l'attenzione sui gruppi filogovernativi che utilizzano questi strumenti per produrre clip di notizie generate dall'intelligenza artificiale e destinate a influenzare l'opinione pubblica.
Ad esempio, in uno di questi filmati, un conduttore di telegiornale del Bangladesh creato dall'IA critica gli Stati Uniti, riprendendo la posizione dell'attuale governo.
Un altro esempio sono i video falsi che mirano a screditare i personaggi dell'opposizione, mostrandoli mentre assumono posizioni impopolari su questioni delicate come il sostegno a Gaza, un tema di dibattito estremamente importante in questo Paese a maggioranza musulmana con 175 milioni di abitanti.
La disinformazione e la falsificazione profonda sono diventate probabilmente i rischi più immediati e pressanti dell'IA. Solo questa settimana il Presidente russo Vladimir Putin è stato affrontato da una copia IA di se stesso in una conferenza stampa - uno studente lo stava usando per fare un'osservazione sui falsi profondi in una sessione di domande e risposte in diretta televisiva.
Le elezioni slovacche hanno sofferto di disinformazione sui social media nelle ultime 48 ore prima dell'ora della posta, quando ai media è vietato discutere di notizie politiche.
Le principali aziende tecnologiche come Google e Meta stanno iniziando a implementare politiche per la pubblicità politica, tra cui l'obbligo di rivelare le alterazioni digitali. Tuttavia, finora queste misure sembrano deboli, soprattutto nelle regioni che non attirano l'attenzione di queste aziende.
La regolamentazione dell'IA, in generale, è principalmente di competenza dell'Occidente, mentre i Paesi in via di sviluppo sono per lo più privi di normative e diritti digitali, lasciando le persone e i loro dati esposti allo sfruttamento.
Come funziona la tecnologia deep fake?
In sostanza, "deep fake" è un termine non tecnico che descrive qualsiasi fake estremamente efficace, in genere creato con strumenti di intelligenza artificiale generativa.
Un esempio illustrativo è HeyGen, un generatore di video AI con sede a Los Angeles. A fronte di un modesto abbonamento, questo servizio consente agli utenti di creare clip con avatar AI.
Uno di questi video, che denuncia l'interferenza degli Stati Uniti nelle elezioni in Bangladesh, è stato diffuso sulle piattaforme dei social media.
Poiché questi avatar AI sono così simili alla vita, spesso passano attraverso i filtri dei social media e il pubblico potrebbe non reagire immediatamente. Alcune immagini false associate alla Il conflitto israelo-palestinese ha raggiunto milioni di persone prima di essere completamente smascherato come falso, ad esempio.
L'assenza di strumenti robusti di rilevamento dell'IA per i contenuti non inglesi aggrava il problema.
Con l'avanzamento e l'accessibilità della tecnologia AI, l'imperativo per gli enti normativi e le piattaforme digitali è sviluppare e applicare misure efficaci per contrastare la disinformazione.
Finora si sta rivelando un compito intrattabile.