L'intelligenza artificiale sta ridisegnando le campagne politiche in tutto il mondo, presentando strategie innovative e un potenziale di disinformazione.
Politici da Toronto alla Nuova Zelanda e a Chicago stanno già utilizzando l'intelligenza artificiale per le loro campagne.
Ad esempio, un candidato sindaco di Toronto ha utilizzato l'IA per generare immagini distopiche di rifugi per senzatetto, mentre un partito politico in Nuova Zelanda ha postato un'immagine generata dall'IA di una rapina fittizia in una gioielleria. A Chicago, è sorta una polemica quando un account Twitter che fingeva di essere un organo di informazione ha usato l'intelligenza artificiale per duplicare la voce di un candidato sindaco, suggerendo che egli approvasse la brutalità della polizia.
Molti temono che le falsificazioni profonde possano essere utilizzate per diffamare i politici e danneggiarne la reputazione. I meccanismi di protezione esistenti, compresi i servizi che pretendono di rilevare i contenuti dell'IA, sembrano in gran parte inefficaci.
Le imminenti elezioni presidenziali statunitensi del 2024 stanno già sperimentando l'impatto dell'IA. Il Comitato nazionale repubblicano ha pubblicato un video generato dall'intelligenza artificiale che illustra gli scenari peggiori dopo l'annuncio della rielezione di Biden. Anche i Democratici hanno sperimentato messaggi di raccolta fondi generati dall'IA.
Gli sforzi per regolamentare l'IA sono in corso, con proposte di legge introdotte al Congresso per richiedere dichiarazioni di non responsabilità sugli annunci politici generati dall'IA.
Nel frattempo, l'Associazione Americana dei Consulenti Politici ha dichiarato che l'uso di contenuti falsi nelle campagne politiche è un problema di sicurezza. violazione del loro codice etico.
Tuttavia, alcuni politici, come il candidato sindaco di Toronto Anthony Furey, stanno sfruttando l'intelligenza artificiale. Furey ha utilizzato l'intelligenza artificiale per generare contenuti a sostegno della sua posizione dura contro il crimine, nonostante la chiara natura artificiale di alcune immagini.
Gli esperti di politica temono che l'IA possa diffondere la disinformazione, che è una delle sue caratteristiche principali. minacce pressanti.
Secondo Ben Colman, CEO di Reality Defender, i contenuti AI non etichettati possono causare "danni irreversibili" prima di essere affrontati. "Spiegare a milioni di utenti che i contenuti che hanno visto e condiviso erano falsi, ben dopo il fatto, è troppo poco e troppo tardi", ha dichiarato.
L'IA realisticamente falsa in profondità fa temere anche il fenomeno del "dividendo del bugiardo", in cui i politici potrebbero scartare filmati autentici ma compromettenti.
In qualità di ricercatore del Centro per la Sicurezza e le Tecnologie Emergenti dell'Università di Georgetown Josh A. Goldstein spiegaSe le persone non si fidano dei loro occhi e delle loro orecchie, possono dire: "Chi lo sa?"".