Il Dipartimento di Giustizia degli Stati Uniti (DOJ) ha citato il rischio di disinformazione dell'IA e di deepfakes come motivo per non rilasciare l'audio dell'interrogatorio del consulente speciale di Joe Biden sulla sua gestione di documenti riservati.
Il Dipartimento di Giustizia ha concluso che non c'erano le basi per perseguire Biden, ma la trascrizione dell'intervista è diventata il carburante per i critici delle facoltà mentali di Biden e della sua capacità di candidarsi per un altro mandato.
Leggere una trascrizione è una cosa, ascoltare l'audio del Presidente degli Stati Uniti che fatica a ricordare la data di morte del figlio o che dimentica chi sia il Presidente del Messico è tutta un'altra cosa.
Il DOJ afferma che la sua incapacità di combattere la disinformazione dell'IA è il motivo per cui non rilascerà l'audio.
"Il passare del tempo e i progressi nel campo dell'audio, dell'intelligenza artificiale e delle tecnologie "deep fake" non fanno che amplificare le preoccupazioni sulla manipolazione dolosa dei file audio. Se la registrazione audio viene rilasciata qui, è facile prevedere che possa essere alterata in modo improprio e che il file alterato possa essere spacciato per una registrazione autentica e ampiamente distribuito", ha dichiarato il dipartimento. ha scritto nel suo deposito in tribunale.
Il viceprocuratore generale associato del Dipartimento di Giustizia, Bradley Weinsheimer, ha dichiarato che se l'audio venisse reso pubblico ci sarebbe un "rischio sostanziale che malintenzionati possano alterare la registrazione per (ad esempio) inserire parole che il Presidente Biden non ha detto o cancellare parole che invece ha detto".
Cloni vocali generati dall'intelligenza artificiale richiedono solo pochi secondi della voce di una persona per generare un audio convincente. Un clone della voce di Joe Biden è stato utilizzato in una campagna di false telefonate a gennaio, che ha scoraggiato gli elettori dal votare alle primarie.
Il documento riconosce che la creazione di un clone della voce di Biden era già possibile.
Il documento affermava che. "Per essere sicuri, altro materiale grezzo per creare un deepfake della voce del presidente Biden è già disponibile, ma la pubblicazione della registrazione audio presenta rischi unici: se fosse di dominio pubblico che la registrazione audio è stata rilasciata, diventerebbe più facile per i malintenzionati spacciare un file alterato come la vera registrazione".
Il direttore esecutivo dell'Oversight Project della Heritage Foundation, Mike Howell, ritiene che il Dipartimento di Giustizia stia usando i deepfake dell'IA come una comoda scusa.
"Non vogliono assolutamente rilasciare l'audio... Stanno usando l'approccio del lavello della cucina e sono assolutamente spaventati dal fatto di non avere alcun argomento legale valido su cui basarsi", ha detto Howell.
Il senatore Mark Warner, presidente democratico della Commissione Intelligence del Senato, ha riconosciuto il rischio di manipolazione dell'IA, ma ha affermato che l'audio dovrebbe essere rilasciato con "componenti di filigrana" in modo da poter individuare eventuali manomissioni.
Ironicamente, alcuni repubblicani hanno pubblicamente ipotizzato che la trascrizione non rifletta accuratamente l'intervista.
La disinformazione dell'intelligenza artificiale e i deepfakes hanno avuto un'innegabile effetto dirompente impatto sulla politica globale.
Ma la facilità di creare immagini, audio e video falsi ha anche fornito una comoda scusa ai politici che si trovano in una situazione difficile.