I sostenitori di Trump sono stati sorpresi a creare e diffondere immagini generate dall'intelligenza artificiale che lo ritraggono falsamente accanto agli elettori afroamericani.
Questa tattica, scoperta per la prima volta dal BBC, che mirava a creare un senso di popolarità di Trump tra gli elettori di colore - un gruppo demografico che ha giocato un ruolo cruciale nella vittoria di Joe Biden nel 2020.
Mark Kaye, conduttore di un programma radiofonico conservatore in Florida, è stato tra coloro che hanno creato queste immagini, raffigurando Trump circondato da persone di colore e condividendole ampiamente sui social media.
L'approccio di Kaye alla questione è stato piuttosto diretto. "Non sono un fotoreporter. Sono un narratore", ha spiegato.
Kaye ha scritto su X per difendersi, dichiarando: "Ragazzi! Le notizie false @BBC mi ha accusato di condurre una campagna di "disinformazione". Oh, che ironia. È come se io li chiamassi "calvi"!
Ragazzi! Le notizie false @BBC mi ha accusato di condurre una campagna di "disinformazione". Oh, che ironia. È come se io li chiamassi "calvi"!https://t.co/SagEkC6Hmp
- Mark Kaye (@markkayeshow) 4 marzo 2024
I commentatori sono stati in gran parte indifferenti, e uno ha detto che Kaye è stato "colto con i pantaloni abbassati".
Non sorprende che queste immagini abbiano sollevato preoccupazioni di carattere etico, suscitando la risposta di Cliff Albright, cofondatore di Black Voters Matter.
Albright ha criticato la manipolazione, affermando: "Ci sono stati tentativi documentati di indirizzare nuovamente la disinformazione alle comunità nere, specialmente agli elettori neri più giovani".
Sebbene si possa essere tentati di pensare che queste immagini siano facilmente liquidabili come false, la BBC ha trovato molti che pensavano che fossero vere. La consapevolezza dei falsi profondi rimane non quantificata.
I critici di tutto lo spettro politico sostengono che questa tattica non solo travisa le realtà politiche, ma prende anche deliberatamente di mira segmenti vulnerabili dell'elettorato.
I falsi profondi sono prendere d'assalto le elezioni. Abbiamo visto campagne su larga scala nelle elezioni in Pakistan, Indonesia, Slovacchia e Bangladesh, tra le altre. Abbiamo anche osservato campagne falsificate su larga scala da attori statali stranieri che mirano a manipolare i comportamenti di voto.
Ora l'attenzione si sposta sulle elezioni statunitensi, che sono già state un banco di prova per i falsi profondi. Il caldo non farà che aumentare con l'avvicinarsi del giorno delle elezioni.
Assistente bot AI "Jennifer
Sulla frontiera tecnologica delle strategie di campagna, Peter Dixon, candidato democratico al congresso della California, ha impiegato un bot AI di nome "Jennifer" per chiamare gli elettori, sollevando le sopracciglia del suo stesso team.
La presentazione di Jennifer agli elettori è stata chiara e diretta: "Salve. Mi chiamo Jennifer e sono una volontaria dell'intelligenza artificiale". Questo fa parte della più ampia strategia di Dixon per raggiungere un vasto pubblico e non è il primo robocaller dell'intelligenza artificiale, il primo è stato distribuito in Pennslyvania l'anno scorso.
I risultati dell'impiego di Jennifer furono sorprendentemente positivi, sfidando lo scetticismo iniziale. Lo stesso Dixon è rimasto sorpreso da quanto ha funzionato, commentando la reazione del pubblico: "La gente era scioccata da quanto fosse buona la capacità".
Il deep fake electioneering evidenzia la natura a doppio taglio del ruolo dell'IA nelle campagne politiche moderne.
Se da un lato l'IA offre strumenti innovativi per l'impegno, dall'altro pone sfide etiche, in particolare quando viene utilizzata per fabbricare o manipolare il sostegno politico.
Tracciare linee di demarcazione sull'uso corretto dell'IA in scenari politici si è rivelato quasi impossibile. Le autorità di regolamentazione statunitensi hanno discusso divieto di vari materiali di campagna profondamente falsi, ma questo non si è concretizzato.