I falsi profondi sono diventati rapidamente un serio problema sociale e politico e una possibile minaccia all'integrità delle elezioni.
Poco prima delle elezioni in Slovacchia, una clip audio controversa sui social media, in cui una voce molto simile a quella del leader del Partito progressista slovacco, Michal Šimečka, ha parlato di un piano per manipolare le elezioni.
A causa della vicinanza del post all'orario delle votazioni, è stato difficile avvertire le persone che si trattava di un falso.
Non molto tempo dopo, un'altra polemica è scoppiata quando il leader del partito laburista britannico è stato sentito abbaiare imprecazioni in un clip audio postato su X, con il relativo post che affermava: "Ho ottenuto l'audio di Keir Starmer che abusa verbalmente dei suoi collaboratori alla conferenza [del partito laburista]", ha postato l'account X. "Questo disgustoso bullo sta per diventare il nostro prossimo premier".
Nello stesso periodo, un account di TikTok è stato rimosso dopo che è stato scoperto che era produrre filmati falsi dell'ex presidente sudanese Omar Al-Bashir, che è stato imprigionato, alimentando le fiamme di un Paese già in guerra civile.
I filmati in tutti e tre i casi avevano qualcosa in comune: erano falsi e probabilmente creati con l'intelligenza artificiale.
Mentre i video e le immagini di AI sono onnipresenti e pongono i loro problemi, i clip audio falsi sono più difficili da individuare e spesso sfuggono alla rete. Le voci stesse tendono a essere molto autentiche; come ha sottolineato Jack Brewster di NewsGuard, "Obama sembra ancora un po' plasticoso quando i cattivi attori usano il suo volto. Ma l'audio della sua voce è piuttosto buono e credo che questa sia la grande differenza".
Alla luce di queste preoccupazioni, un gruppo di senatori ha proposto il "No Fakes Act", un disegno di legge che mira a penalizzare coloro che producono o condividono audio o video creati dall'intelligenza artificiale senza il consenso della persona originale.
Come spiega Hany Farid, professore di digital forensics all'Università della California a Berkeley, diceNon si tratta di un'ipotesi. Si parla di violenza, di furto di elezioni, di frode - questo ha conseguenze reali per gli individui, per le società e per le democrazie".
Le applicazioni di clonazione vocale si sono evolute notevolmente, con piattaforme come Eleven Labs che offrono strumenti che consentono di creare una voce "deepfaked" per un canone mensile nominale di appena $5.
Hany Farid, sottolineando la responsabilità dei giganti dei social media, ha dichiarato: "Potrebbero chiudere il rubinetto in questo momento se volessero. Ma è un male per gli affari".
L'intelligenza artificiale può davvero influenzare le elezioni?
I deep fake hanno già dimostrato il loro impatto sul mondo reale: all'inizio dell'anno una falsa immagine di un'esplosione al Pentagono ha provocato un temporaneo calo dei mercati, anche se per pochi minuti.
Queste clip, video e filmati falsi minacciano un panorama informativo già fragile, in cui i sospetti sono spesso alti e i margini ristretti.
Sebbene sia eccezionalmente difficile valutare l'impatto reale dei deep fake dell'IA sul discorso politico e sul comportamento di voto, ciò abbassa l'asticella della disinformazione.
Ben Winters, rappresentante senior dell'Electronic Privacy Information Center, afferma: "Il grado di fiducia diminuirà, il lavoro dei giornalisti e di altri che cercano di diffondere informazioni reali diventerà più difficile".
Inoltre, se da un lato implicare falsamente i politici in scenari che danneggiano la loro reputazione è una delle tattiche più comuni di queste campagne, dall'altro esse potrebbero portare al "dividendo del bugiardo", in cui diventa possibile confutare come false le accuse veritiere.
La lotta ai deep fake dell'IA richiede una combinazione di filtri più avanzati per i contenuti dell'IA sui social media e l'educazione del pubblico. La qualità dei deep fake stessi, tuttavia, è destinata a migliorare.