Una controversa registrazione audio è apparsa su Facebook a poche ore dall'orario di pubblicazione nel giorno delle elezioni in Slovacchia.
Vi comparivano voci che sembravano appartenere a Michal Šimečka, leader del partito Slovacchia Progressista, e a Monika Tódová del giornale Denník N.
La conversazione verteva sui brogli elettorali e sull'acquisto di voti dalla minoranza rom, scatenando preoccupazioni per la corruzione e confusione sui social media.
La registrazione è stata prontamente smentita come falsa sia da Šimečka che da Denník N. Il sito di fact-checker Agence France-Presse (AFP) ha indicato segni di manipolazione dell'IA nell'audio e successivamente è stato riportato da organi di informazione internazionali.
Data la tempistica - nelle 48 ore di silenzio mediatico prima delle elezioni - è stato difficile smentire il post in tempo.
Il partito Smer-SD, guidato dall'ex primo ministro slovacco Robert Fico, ha ottenuto 23% nel voto di sabato, battendo il centrista Progressive Slovakia con 18%.
Inoltre, trattandosi di contenuti audio, è sfuggito alla politica di Meta, che prende di mira soprattutto i video manipolati.
Prima del voto, il responsabile digitale dell'UE, Věra Jourová, ha sottolineato la suscettibilità delle elezioni europee a tattiche di manipolazione su larga scala, alludendo a influenze esterne come quelle di Mosca.
Ora le nazioni sono in stato di massima allerta per le interferenze elettorali causate dall'IA, che sembrano inevitabili - si tratta più che altro di capire se siamo in grado di fermarle e quanti danni possono fare. La Polonia, alle prese con un'imminente elezione, sarà il prossimo banco di prova.
All'orizzonte si profilano anche importanti elezioni nel 2024 e 2025, tra cui quelle negli Stati Uniti e in India l'anno prossimo.
I fact-checkers come AFP sottolineano che l'IA si sta rapidamente evolvendo in un potente strumento per destabilizzare le elezioni, e che non siamo attrezzati per contrastarla. Veronika Hincová Frankovská dell'organizzazione di fact-checking Demagog ha commentato: "Non siamo pronti come dovremmo".
Il team di Frankovská ha verificato l'origine del falso audio slovacco e ha consultato degli esperti prima di utilizzare un classificatore vocale AI di Eleven Labs per accertarne l'autenticità.
Nonostante l'evoluzione dell'intelligenza artificiale, ci affidiamo in larga misura agli esseri umani per individuare i falsi profondi.
I falsi profondi dell'intelligenza artificiale stanno diventando un problema critico
Il ruolo dell'IA nella diffusione della disinformazione è in crescita e dimostrare che le immagini, i video e le registrazioni dell'IA sono falsi è un compito erculeo.
La maggior parte dei contenuti falsi è vietata sui social media. Ben Walter, in rappresentanza di Meta, ha dichiarato: "I nostri standard comunitari si applicano a tutti i contenuti... e prenderemo provvedimenti contro i contenuti che violano queste politiche".
In pratica, però, impedire la diffusione di contenuti falsi profondi si sta rivelando un'impresa ardua e misure come l'AI le filigrane sono tristemente inefficaci.
Mentre la Polonia si prepara alle elezioni, c'è apprensione per il possibile afflusso di contenuti generati dall'intelligenza artificiale e la disinformazione sta già causando disordini.
Jakub Śliż del gruppo polacco di fact-checking, l'Associazione Pravda, ha dichiarato: "Come organizzazione di fact-checking, non abbiamo un piano concreto su come affrontare la questione".
Laddove i risultati elettorali si basano su margini ristretti e su amari dialoghi politici, come in Slovacchia, l'impatto della disinformazione generata dall'IA potrebbe essere grave. Inoltre, gli episodi passati di disinformazione ingigantita dagli algoritmi, come lo scandalo di Cambridge Analytica, ci dicono che alcune parti interessate potrebbero essere complici di queste tattiche.
Le elezioni presidenziali statunitensi del 2016 erano già piene di disinformazione, alimentata da attivisti estremisti, interferenze straniere e notizie ingannevoli.
Nel 2020, le accuse infondate di brogli elettorali divennero predominanti, rafforzando un movimento contro la democrazia che cercava di ribaltare i risultati.
La disinformazione guidata dall'IA non rischia solo di ingannare il pubblico, ma anche di travolgere un ambiente informativo già fragile, creando un'aria di falsità, sfiducia e inganno.
"Il grado di fiducia diminuirà, il lavoro dei giornalisti e di altri che cercano di diffondere informazioni reali diventerà più difficile", afferma Ben Winters, rappresentante senior dell'Electronic Privacy Information Center.
Nuovi strumenti per vecchie tattiche
Immaginate un mondo in cui i contenuti manipolativi vengono prodotti a costi così trascurabili e con tale facilità da diventare comuni.
La disinformazione alimentata dalla tecnologia non è un fenomeno nuovo, ma gli strumenti di intelligenza artificiale sono perfettamente in grado di potenziare queste tattiche.
Le prime schermaglie sono state numerose e indicative di ciò che accadrà. All'inizio dell'anno, un Immagine generata dall'intelligenza artificiale di un Pentagono L'esplosione ha avuto un impatto tangibile sui mercati azionari, anche se solo per pochi minuti prima che gli utenti dei social media denunciassero le immagini virali come false.
Immagini renderizzate dall'intelligenza artificiale, che sembrano mostrare Donald Trump che affronta la polizia, hanno guadagnato terreno online e il Comitato nazionale repubblicano ha trasmesso una pubblicità interamente generata dall'intelligenza artificiale, immaginando catastrofi se Biden fosse stato rieletto.
Un altro deep fake virale coinvolge il governatore della Florida e candidato repubblicano, Ron DeSantis, che ha diffuso immagini alterate che ritraggono l'ex presidente Donald Trump in una abbraccio con il dottor Anthony Fauci.
X (allora Twitter) ha aggiunto un tag al Tweet originale, etichettandolo come manipolato dall'intelligenza artificiale.
Donald Trump è diventato famoso licenziando innumerevoli persone *in televisione*.
Ma quando si trattava di Fauci... pic.twitter.com/7Lxwf75NQm
- Sala della Guerra DeSantis 🐊 (@DeSantisWarRoom) 5 giugno 2023
Nel Regno Unito, il primo ministro Rishi Sunak è stato ritoccato per mostrarlo versare una pinta di birra di qualità inferiore alla normacon grande disappunto degli utenti di X (allora Twitter) prima che l'autenticità dell'immagine venisse svelata.
Lontano dall'arena politica, le persone sono state truffati dai truffatori che brandiscono falsi profondi spacciandosi per amici o familiari.
Diverse donne e anche le ragazze giovani sono stati oggetto di una falsa "sextortion", con truffatori che li ricattano con immagini false e imprecatorie, come aveva avvertito l'FBI all'inizio dell'anno.
Cloni vocali di Omar al-Bashir, ex leader del Sudan, recentemente è apparso su TikTok, alimentando le fiamme di un Paese invischiato in una guerra civile.
L'elenco degli esempi è lungo e sembra che i falsi dell'IA siano in grado di padroneggiare testi, immagini, video e audio.
L'intelligenza artificiale abbassa l'asticella della disinformazione
Gli strumenti potenziati dall'intelligenza artificiale amplificano le tradizionali tattiche di interferenza elettorale, sia in termini di qualità che di scala.
Come abbiamo visto nelle elezioni slovacche, Josh Goldstein del Center for Security and Emerging Technology della Georgetown University sottolinea come gli attori stranieri possano generare contenuti convincenti nella lingua desiderata.
Ha dichiarato: "Le immagini e i video generati dall'intelligenza artificiale possono essere creati molto più rapidamente di quanto i factcheckers possano esaminarli e smontarli".
Esiste anche il potenziale per sfruttare l'IA per una disinformazione di massa mirata. Ad esempio, l'anno scorso due attivisti di estrema destra hanno usato le robocall (telefonate robotizzate che si rivolgono a una massa di persone) per diffondere disinformazione elettorale a migliaia di elettori di colore.
Gli Stati Uniti si preparano alla disinformazione elettorale con l'intelligenza artificiale
Con diverse elezioni di alto profilo previste per il 2024, l'influenza delle campagne di disinformazione alimentate dall'IA è destinata a essere esposta seriamente.
In risposta alla crescente influenza dell'Intelligenza Artificiale, giganti tecnologici come Google hanno avviato misure come l'etichettatura obbligatoria per gli annunci politici che utilizzano contenuti potenziati dall'Intelligenza Artificiale.
Nel frattempo, il Congresso sta deliberando sulla regolamentazione dell'IA e la Commissione elettorale federale (FEC) sta valutando le regole per l'uso dell'IA nella pubblicità politica.
In risposta alle crescenti preoccupazioni sul potere ingannevole dell'intelligenza artificiale, il La FEC ha proposto dei regolamenti sull'uso dell'intelligenza artificiale per la creazione di contenuti falsi nelle campagne politiche.
Presentata il 10 agosto, questa decisione unanime della FEC ha portato a una consultazione pubblica di 60 giorni con esperti, parti interessate e pubblico in generale.
Durante le discussioni all'interno della FEC, Lisa Gilbert, vicepresidente di Public Citizen, ha sottolineato la necessità di rivedere il modo in cui le leggi sulla "falsa dichiarazione fraudolenta" potrebbero intersecarsi con i falsi profondi dell'IA.
Mentre ci avviciniamo al 2024, i nuovi modelli di IA di Meta, OpenAI e altri sviluppatori di IA stanno ulteriormente dotando le persone della capacità di generare contenuti tremendamente realistici, quindi questo problema non diventerà più facile, anzi.