Un direttore sportivo di un liceo di Baltimora è stato arrestato giovedì dopo che la polizia ha dichiarato che aveva presumibilmente usato l'AI per creare un falso clip audio del preside della scuola.
A gennaio, abbiamo riportato sul filmato audio che sembra essere una registrazione del preside della Pikesville High Eric Eiswert che fa commenti razzisti e antisemiti sul personale e sugli studenti.
All'epoca, Eiswert negò l'autenticità dell'audio e si affermò che la clip era un falso dell'AI.
Il clip audio, ampiamente condiviso, ha portato Eiswert a perdere temporaneamente il lavoro mentre si indagava sull'autenticità dell'audio. Il contraccolpo da parte di insegnanti, studenti e altri membri della comunità che credevano che il clip fosse autentico ha sconvolto la vita di Eiswert.
Se si ascolta il clip audio, è facile capire perché la gente ha creduto che fosse autentico.
Visualizza questo post su Instagram
Gli esperti sono giunti alla conclusione che l'audio era un falso dell'IA in base al tono piatto, alla mancanza di suoni respiratori o pause coerenti e ai suoni di sottofondo insolitamente puliti.
Si sostiene che Dazhon Darien, ex direttore atletico della Pikesville High, abbia fatto il falso AI come ritorsione per l'avvio di un'indagine da parte di Eiswert sul suo uso improprio dei fondi scolastici.
Dazhon Darien è stato arrestato e accusato di disturbo delle operazioni scolastiche, furto, ritorsione contro un testimone e stalking. La scheda d'accusa riportava che Darien aveva usato i computer della scuola "per accedere OpenAI e i servizi di Microsoft Bing Chat".
Dall'elenco delle accuse mancava qualcosa che presto potrebbe diventare un reato: l'uso dell'intelligenza artificiale per falsificare la voce di qualcuno.
Bollette come il Legge No Fakes e il No AI Fraud Act sono stati depositati nella US Congresso, ma non sono ancora stati approvati. Quindi, quando Darien ha usato l'intelligenza artificiale per creare un falso clip audio non consensuale della voce di Eiswert, tecnicamente non si trattava di un reato.
Il fatto che ci siano volute settimane perché un esperto confermasse che il clip audio era un falso evidenzia quanto la società e le autorità siano impreparate a gestire i nuovi problemi che l'IA generativa presenta.
La facilità con cui questi falsi possono essere generati aggrava il problema. Se un insegnante di ginnastica può mettere insieme un falso passabile, immaginate cosa potrebbero fare i malintenzionati tecnicamente più competenti.
In assenza di un modo semplice per identificare audio e video falsi, la nostra migliore difesa potrebbe essere quella di supporre che le cose siano false finché non vengono confermate come reali.