Le false voci clonate dall'intelligenza artificiale hanno fatto notizia di recente a causa di una telefonata automatica "Biden", ma anche la gente comune viene colpita da questa tecnologia che diventa sempre più accessibile e difficile da individuare.
Due settimane fa è stata diffusa una registrazione audio del preside della Pikesville High Eric Eiswert, in cui sembra che Eiswert abbia fatto commenti razzisti e antisemiti sul personale e sugli studenti.
Eiswert ha negato l'autenticità dell'audio, una posizione sostenuta da Billy Burke, direttore esecutivo del Council of Administrative and Supervisory Employees, che rappresenta gli amministratori della contea di Baltimora.
"Crediamo che sia generato dall'IA", ha detto Burke. "Non ha detto questo".
Nell'era dei falsi AI, il "dividendo del bugiardo" dà a chiunque una facile via d'uscita per gridare "Falso!" quando si trova in una situazione difficile. Allo stesso tempo, la clonazione della voce da parte dell'intelligenza artificiale può causare un danno alla reputazione di persone comuni come Eiswert.
Cosa ne pensate? Falso o reale?
Visualizza questo post su Instagram
O l'audio è autentico e dovrebbe essere licenziato, o è un falso dell'IA e qualcuno dovrebbe essere citato in giudizio.
Due settimane dopo, nessuno può dirlo, quindi il lavoro e la reputazione di Eiswert rimangono nel limbo. È un merito di quanto stiano diventando validi questi strumenti di clonazione vocale e delle complesse questioni che la tecnologia solleva.
Un anno fa avremmo potuto respingere l'affermazione di Eiswert sulla falsificazione dell'intelligenza artificiale, sostenendo che una tecnologia AI così avanzata non esisteva. Oggi, aziende come Eleven Labs o strumenti economici come Parrot AI consentono a chiunque di creare cloni vocali di grande effetto.
OpenVoice, rilasciato all'inizio del mese, utilizza pochi secondi di audio per clonare una voce e consente un controllo granulare su emozioni, accento, tono, ritmo e altro ancora.
Oggi siamo orgogliosi di rendere open source il nostro algoritmo OpenVoice, abbracciando la nostra filosofia di base: l'intelligenza artificiale per tutti.
Provatelo ora: https://t.co/zHJpeVpX3t. Clonate le voci con una precisione senza pari, con un controllo granulare del tono, dall'emozione all'accento, al ritmo, alle pause e all'intonazione, utilizzando solo... pic.twitter.com/RwmYajpxOt
- MyShell (@myshell_ai) 2 gennaio 2024
Hany Farid, professore dell'Università della California, Berkley, è specializzato in digital forensics e nell'autenticazione dei media digitali. Quando un giornalista della WJZ gli ha chiesto di analizzare il filmato, Farid ha detto che era stato ovviamente modificato ma che, a parte questo, non poteva confermare se fosse autentico o meno.
In un'intervista a Scientific American, Farid ha dichiarato: "Ho analizzato l'audio con alcuni dei nostri strumenti, che non sono ancora disponibili pubblicamente. Penso che sia probabile, ma non certo, che questo audio sia generato dall'intelligenza artificiale... Nel complesso, credo che le prove indichino che questo audio non è autentico. Ma prima di prendere una decisione definitiva, dobbiamo saperne di più".
Farid ha detto che ci sono forse 5 o meno laboratori in tutto il mondo in grado di determinare in modo affidabile se l'audio è un falso dell'IA o autentico.
Il clone dell'intelligenza artificiale che Dudesy ha realizzato George Carlin è un ottimo esempio di come la clonazione della voce da parte dell'intelligenza artificiale stia diventando molto abile nell'abbinare inflessione ed emozioni. Il video non è più disponibile.
Le persone che stanno dietro ai chatbot mysentient.ai hanno creato una parodia Dibattito Trump vs Biden. Le cose che "Trump" e "Biden" dicono sono così assurde che sono ovviamente fatte per l'effetto comico, ma suonano davvero bene.
Man mano che questi strumenti diventano migliori e più liberamente disponibili, situazioni come quella del preside di Baltimora interesseranno sempre di più sia i politici che la gente comune.
Se avete inviato una nota vocale su WhatsApp o lasciato un messaggio su un servizio di risposta alle chiamate, potreste essere i prossimi. Oppure, se qualcuno vi ha registrato mentre dicevate qualcosa di imbarazzante, potreste dire che si tratta di un falso dell'intelligenza artificiale. Nessuno sembra essere in grado di dimostrarlo in entrambi i casi.