En idrettsdirektør ved en videregående skole i Baltimore ble arrestert torsdag etter at politiet sa at han angivelig hadde brukt AI til å lage et falskt lydklipp av skolens rektor.
I januar, rapporterte vi på lydklippet som utgir seg for å være et opptak av Pikesville High-rektor Eric Eiswert som kommer med rasistiske og antisemittiske kommentarer om ansatte og elever.
Eiswert benektet den gang at lydklippet var autentisk, og det ble hevdet at klippet var en forfalskning av AI.
Lydklippet som ble delt av mange, førte til at Eiswert mistet jobben midlertidig mens autentisiteten av lydklippet ble etterforsket. Reaksjonene fra lærere, elever og andre i lokalsamfunnet som trodde at klippet var ekte, snudde opp ned på Eiswerts liv.
Hvis du lytter til lydklippet, er det lett å forstå hvorfor folk trodde det var ekte.
Se dette innlegget på Instagram
Eksperter har nå konkludert med at lyden var en AI-falsk basert på lydens flate tone, mangel på konsekvente pustelyder eller pauser og uvanlig rene bakgrunnslyder.
Det påstås at Dazhon Darien, Pikesville Highs tidligere sportsdirektør, laget AI-falsifikatet som hevn for at Eiswert satte i gang en etterforskning av hans misbruk av skolens midler.
Dazhon Darien er arrestert og siktet for å ha forstyrret skoledriften, tyveri, gjengjeldelse mot et vitne og forfølgelse. I siktelsen står det at Darien hadde brukt skolens datamaskiner "for å få tilgang til OpenAI verktøy og Microsoft Bing Chat-tjenester."
Fraværende fra listen over anklager var noe som snart kan bli en forbrytelse: å bruke AI til å forfalske noens stemme.
Lovforslag som Ingen forfalskninger og No AI Fraud Act har blitt innlevert i US Kongressen, men er ennå ikke vedtatt. Så da Darien brukte kunstig intelligens til å lage et falskt lydklipp av Eiswerts stemme uten samtykke, var det teknisk sett ikke en forbrytelse.
Det faktum at det tok flere uker før en ekspert til slutt kunne bekrefte at lydklippet var falskt, viser hvor uforberedt samfunnet og myndighetene er på å håndtere de nye problemstillingene som generativ AI byr på.
Problemet forsterkes av at det er så enkelt å lage slike forfalskninger. Hvis en gymlærer kan lage en brukbar forfalskning, kan du tenke deg hva mer teknisk kompetente kriminelle aktører kan få til.
I mangel av en enkel måte å identifisere falsk lyd og video på, kan vårt beste forsvar være å anta at ting er falske inntil vi får bekreftet at de er ekte.