En sportsdirektør på en high school i Baltimore blev anholdt torsdag, efter at politiet sagde, at han angiveligt havde brugt AI til at lave et falsk lydklip af skolens rektor.
I januar, Vi rapporterede på lydklippet, der angiveligt var en optagelse af Pikesville Highs rektor Eric Eiswert, der kom med racistiske og antisemitiske kommentarer om personale og elever.
På det tidspunkt benægtede Eiswert ægtheden af lyden, og der blev fremsat påstande om, at klippet var en AI-falskneri.
Det meget delte lydklip førte til, at Eiswert midlertidigt mistede sit job, mens ægtheden af lyden blev undersøgt. Modreaktionen fra lærere, elever og andre i lokalsamfundet, som troede, at klippet var ægte, vendte op og ned på Eiswerts liv.
Hvis du lytter til lydklippet, er det let at forstå, hvorfor folk troede, at det var ægte.
Se dette opslag på Instagram
Eksperter har nu konkluderet, at lyden var en AI-falsk baseret på lydens flade tone, mangel på konsekvente åndedrætslyde eller pauser og usædvanligt rene baggrundslyde.
Det påstås, at Dazhon Darien, Pikesville Highs tidligere sportsdirektør, lavede AI-falsifikatet som hævn for, at Eiswert havde indledt en undersøgelse af hans misbrug af skolens midler.
Dazhon Darien er blevet anholdt og sigtet for at forstyrre skolens drift, tyveri, repressalier mod et vidne og forfølgelse. I anklageskriftet står der, at Darien havde brugt skolens computere "til at få adgang til OpenAI værktøjer og Microsoft Bing Chat-tjenester."
Fraværende på listen over anklager var noget, der måske snart bliver en forbrydelse: at bruge AI til at forfalske en persons stemme.
Lovforslag som Lov om ingen forfalskninger og No AI Fraud Act er blevet indgivet i US Kongressen, men er endnu ikke vedtaget. Så da Darien brugte AI til at skabe et falsk lydklip af Eiswerts stemme uden samtykke, var det teknisk set ikke en forbrydelse.
Det faktum, at det tog uger, før en ekspert til sidst kunne bekræfte, at lydklippet var falsk, understreger, hvor uforberedt samfundet og myndighederne er på at håndtere de nye problemer, som generativ AI giver.
Den lethed, hvormed disse forfalskninger kan genereres, forværrer problemet. Hvis en gymnastiklærer kan lave en acceptabel forfalskning, så forestil dig, hvad mere teknisk kompetente dårlige skuespillere kan opnå.
I mangel af en nem måde at identificere falsk lyd og video på kan vores bedste forsvar være at antage, at tingene er falske, indtil de er bekræftet som ægte.