Diep vervalsingen zijn snel uitgegroeid tot een ernstige sociale en politieke kwestie en een mogelijke bedreiging voor de verkiezingsintegriteit.
Kort voor de verkiezingen in Slowakije, die dicht bij elkaar lagen, werd een omstreden audioclip op sociale media, waarin een stem die opvallend veel lijkt op de leider van de Progressieve Partij van Slowakije, Michal Šimečka, sprak van een plan om de verkiezingen te manipuleren.
Omdat het bericht zo dicht bij de verkiezingen kwam, was het een uitdaging om mensen te waarschuwen dat het nep was.
Niet lang daarna laaide er een nieuwe controverse op toen de leider van de Britse Labour Party werd gehoord terwijl hij scheldwoorden uitte in een audioclip die op X was geplaatst. In de bijbehorende post stond: "Ik heb audio verkregen van Keir Starmer die zijn medewerkers verbaal mishandelt op het congres [van de Labour Party]," plaatste het X-account. "Deze walgelijke bullebak staat op het punt om onze volgende premier te worden."
In dezelfde periode werd een TikTok-account verwijderd nadat bleek dat het nepclips produceren van de gevangen ex-Sudanese president Omar Al-Bashir, waardoor het vuur wordt aangewakkerd in een land dat al in burgeroorlog verkeert.
De clips in alle drie de gevallen hadden iets gemeen: ze waren nep en waarschijnlijk gemaakt met AI.
Terwijl AI-video en -beelden alomtegenwoordig zijn en hun eigen problemen opleveren, zijn nep-audioclips moeilijker te detecteren en glippen ze vaak door de mazen van het net. De stemmen zelf zijn meestal zeer authentiek; zoals Jack Brewster van NewsGuard benadrukte: "Obama ziet er nog steeds een beetje plastic uit als slechte acteurs zijn gezicht gebruiken. Maar de audio van zijn stem is behoorlijk goed - en ik denk dat dat hier het grote verschil is."
In het licht van deze zorgen heeft een groep senatoren de "No Fakes Act" voorgesteld, een wetsvoorstel dat erop gericht is om mensen te straffen die AI-gecreëerde audio of video's produceren of delen zonder toestemming van de oorspronkelijke persoon.
Zoals Hany Farid, professor in digitaal forensisch onderzoek aan de Universiteit van Californië in Berkeley, zegt"Dit is niet hypothetisch. Je hebt het over geweld, je hebt het over het stelen van verkiezingen, je hebt het over fraude - [dit heeft] gevolgen in de echte wereld voor individuen, voor samenlevingen en voor democratieën."
Toepassingen voor het klonen van stemmen zijn enorm geëvolueerd, met platforms zoals Eleven Labs die tools aanbieden waarmee je een 'deepfaked' stem kunt creëren voor een nominaal maandelijks bedrag van slechts $5.
Hany Farid, die de verantwoordelijkheid van sociale mediagiganten onderstreepte, verklaarde: "Ze zouden de kraan nu dicht kunnen draaien als ze dat zouden willen. Maar het is slecht voor de zaken."
Kan AI deep fakes echt verkiezingen beïnvloeden?
Diepe vervalsingen hebben hun impact in de echte wereld al bewezen, met een nepbeeld van een explosie in het Pentagon eerder dit jaar, waardoor de markten tijdelijk inzakten, zij het slechts voor een paar minuten.
Deze nepclips, -video's en -video's bedreigen een toch al kwetsbaar informatielandschap - een landschap waar de verdenkingen vaak hoog zijn en de marges krap.
Hoewel het buitengewoon moeilijk is om de werkelijke impact van AI deep fakes op het politieke discours en stemgedrag te beoordelen, wordt de lat voor desinformatie wel lager gelegd.
Ben Winters, een senior vertegenwoordiger bij het Electronic Privacy Information Center, stelt: "De mate van vertrouwen zal afnemen, het werk van journalisten en anderen die proberen echte informatie te verspreiden zal moeilijker worden."
Hoewel het valselijk beschuldigen van politici in scenario's die hun reputatie schaden een van de meer gebruikelijke tactieken van deze campagnes is, kunnen ze ook leiden tot "leugenaarsdividend", waarbij het mogelijk wordt om waarheidsgetrouwe beschuldigingen als vals te weerleggen.
Het bestrijden van AI-feeds vereist een combinatie van geavanceerdere AI-inhoudfilters op sociale media en publieke voorlichting. De kwaliteit van deep fakes zelf zal echter alleen maar verbeteren.