Een controversiële geluidsopname dook binnen enkele uren na het posten op Facebook op, op de verkiezingsdag in Slowakije.
Daarin waren stemmen te horen van Michal Šimečka, de leider van de Progressieve Slowaakse partij, en Monika Tódová van de krant Denník N.
Het gesprek draaide om verkiezingsfraude en het kopen van stemmen van de Roma-minderheid, wat zorgde voor zorgen over corruptie en verwarring in de sociale media.
De opname werd onmiddellijk weerlegd als vals door zowel Šimečka als Denník N. De fact-checker site Agence France-Presse (AFP) wees op tekenen van AI-manipulatie in de audio en werd vervolgens gemeld door internationale nieuwsverkooppunten.
Gezien de timing - binnen de 48-uur mediastilte voor de verkiezingen - was het een uitdaging om het bericht op tijd te weerleggen.
De Smer-SD partij, geleid door de voormalige Slowaakse premier Robert Fico, scoorde 23% in de stemming van zaterdag en versloeg het centristische Progressieve Slowakije met 18%.
Omdat het om audio-inhoud ging, glipte het ook langs het beleid van Meta, dat voornamelijk gemanipuleerde video's aanpakt.
Věra Jourová, het digitale hoofd van de EU, benadrukte voorafgaand aan de stemming de gevoeligheid van de Europese verkiezingen voor grootschalige manipulatieve tactieken en zinspeelde op invloeden van buitenaf, zoals die vanuit Moskou.
Nu staan landen op scherp voor door AI veroorzaakte verkiezingsinmenging, die onvermijdelijk lijkt - het is meer de vraag of we het kunnen stoppen en hoeveel schade het kan aanrichten. Polen, waar binnenkort verkiezingen worden gehouden, zal de volgende test zijn.
Er komen ook belangrijke verkiezingen aan in 2024 en 2025, waaronder volgend jaar in de VS en India.
Fact-checkers zoals AFP benadrukken dat AI zich snel ontwikkelt tot een krachtig middel om verkiezingen te destabiliseren, en we zijn slecht uitgerust om dit tegen te gaan. Veronika Hincová Frankovská van de fact-checking organisatie Demagog zei: "We zijn er niet zo klaar voor als we zouden moeten zijn."
Het team van Frankovská controleerde de herkomst van de valse Slowaakse audio en raadpleegde experts voordat ze een AI-spraakclassificator van Eleven Labs gebruikten om de authenticiteit vast te stellen.
Ondanks de evolutie van AI zijn we grotendeels afhankelijk van mensen om diepe vervalsingen op te sporen.
AI deep fakes worden een kritiek probleem
AI speelt een steeds grotere rol bij het verspreiden van desinformatie en het is een Hercules-taak om te bewijzen dat AI-afbeeldingen, -video's en -opnamen nep zijn.
De meeste nepcontent is verboden op sociale media. Ben Walter, vertegenwoordiger van Meta, verklaarde: "Onze Community Standards zijn van toepassing op alle inhoud... en we zullen actie ondernemen tegen inhoud die dit beleid schendt."
In de praktijk blijkt het echter moeilijk om te voorkomen dat deep fake content zich verspreidt. watermerken zijn jammerlijk ineffectief.
Terwijl Polen zich opmaakt voor de verkiezingen, is er bezorgdheid over de mogelijke toestroom van AI-gegenereerde content en desinformatie veroorzaakt nu al onrust.
Jakub Śliż van de Poolse fact-checking groep, de Pravda Vereniging, zei: "Als fact-checking organisatie hebben we geen concreet plan hoe we ermee om moeten gaan."
Waar verkiezingsuitslagen berusten op krappe marges en bittere beleidsdialogen, zoals in Slowakije, kan de impact van door AI gegenereerde desinformatie ernstig zijn. Bovendien vertellen eerdere incidenten van algoritmisch gemanipuleerde desinformatie, zoals het Cambridge Analytica-schandaal, ons dat sommige belanghebbenden mogelijk medeplichtig zijn aan deze tactieken.
De Amerikaanse presidentsverkiezingen van 2016 stonden al bol van de desinformatie, aangewakkerd door extremistische activisten, buitenlandse inmenging en misleidende nieuwszenders.
Tegen 2020 werden ongegronde beschuldigingen van verkiezingsfraude overheersend, wat een beweging tegen de democratie versterkte die de resultaten ongedaan wilde maken.
AI-gestuurde desinformatie dreigt niet alleen het publiek te misleiden; het dreigt ook een toch al kwetsbare informatieomgeving te overweldigen en een sfeer van onwaarheid, wantrouwen en misleiding te creëren.
"De mate van vertrouwen zal afnemen, het werk van journalisten en anderen die proberen echte informatie te verspreiden zal moeilijker worden," stelt Ben Winters, een senior vertegenwoordiger bij het Electronic Privacy Information Center.
Nieuwe gereedschappen voor oude tactieken
Stel je een wereld voor waarin manipulatieve inhoud wordt geproduceerd tegen zo'n verwaarloosbare kosten en met zo'n gemak dat het gemeengoed wordt.
Door technologie aangedreven desinformatie is geen nieuw fenomeen, maar AI-tools zijn perfect gepositioneerd om dergelijke tactieken te versterken.
Er zijn al veel vroege schermutselingen geweest die een indicatie gaven van wat komen gaat. Eerder dit jaar AI-gegenereerde afbeelding van een Pentagon De explosie had een tastbaar effect op de aandelenmarkten, al was het maar voor enkele minuten voordat gebruikers van sociale media de virale beelden als nep aan de kaak stelden.
AI-rendered visuals, die Donald Trump in confrontatie met de politie leken te tonen, wonnen online terrein en het Republikeinse Nationale Comité zond een volledig AI-gegenereerde advertentie uit waarin catastrofes werden voorzien als Biden zou worden herkozen.
Een andere viral deep fake betreft Ron DeSantis, gouverneur en Republikeins genomineerde van Florida, die gewijzigde beelden heeft vrijgegeven waarop ex-president Donald Trump te zien is in een omhelzing met Dr. Anthony Fauci.
X (toen nog Twitter) voegde een tag toe aan de oorspronkelijke tweet, waardoor deze als AI-gemanipuleerd werd bestempeld.
Donald Trump werd een begrip door talloze mensen *op televisie* te ONTSLAAN.
Maar toen het over Fauci ging... pic.twitter.com/7Lxwf75NQm
- DeSantis Oorlogskamer 🐊 (@DeSantisWarRoom) 5 juni 2023
In het Verenigd Koninkrijk werd premier Rishi Sunak gemanipuleerd om hem te tonen een biertje schenken dat niet aan de normen voldoettot groot ongenoegen van X (toen Twitter) gebruikers voordat de echtheid van de afbeelding werd onthuld.
Buiten de politieke arena hebben mensen opgelicht door fraudeurs die zich voordoen als vrienden of familieleden.
Verschillende vrouwen en zelfs jonge meisjes zijn het slachtoffer geworden van neppe 'sextortion' - waarbij fraudeurs hen chanteren met valse, scheldwoorden bevattende afbeeldingen - iets waar de FBI eerder dit jaar al voor waarschuwde.
Stemklonen van Omar al-Bashir, de voormalige leider van Soedan, onlangs verschenen op TikTokZe wakkeren het vuur aan in een land dat verwikkeld is in een burgeroorlog.
De lijst met voorbeelden blijft maar doorgaan en het lijkt erop dat AI-fakes tekst, afbeeldingen, video en audio beheersen.
AI verlaagt de lat voor desinformatie
AI-tools versterken de traditionele tactieken voor verkiezingsinterferentie, zowel wat betreft de kwaliteit als de schaal.
Zoals we hebben gezien bij de Slowaakse verkiezingen, wijst Josh Goldstein van het Georgetown University's Center for Security and Emerging Technology erop hoe buitenlandse actoren overtuigende inhoud in de gewenste taal kunnen genereren.
Hij verklaarde: "AI-gegenereerde afbeeldingen en video's kunnen veel sneller worden gemaakt dan factcheckers ze kunnen beoordelen en ontkrachten."
AI kan ook worden gebruikt voor gerichte desinformatie. Zo gebruikten twee extreemrechtse activisten vorig jaar robocalls (robotachtige telefoontjes die zich massaal op mensen richten) om verkeerde verkiezingsinformatie te verspreiden onder duizenden zwarte kiezers.
De VS maakt zich op voor AI-verkiezingsmisleiding
Met een aantal belangrijke verkiezingen in 2024 zal de invloed van AI-gestuurde desinformatiecampagnes serieus aan het licht komen.
Als reactie op de groeiende invloed van AI hebben techgiganten zoals Google maatregelen genomen, zoals verplichte labels voor politieke advertenties met AI-verrijkte inhoud.
Ondertussen beraadslaagt het Congres over AI-regelgeving en overweegt de Federal Election Commission (FEC) regels op te stellen voor het gebruik van AI in politieke advertenties.
Als reactie op de toenemende bezorgdheid over de misleidende kracht van AI heeft de FEC heeft regels voorgesteld over het gebruik van AI deep fake content in politieke campagnes.
Deze unanieme beslissing van de FEC werd op 10 augustus onthuld en leidde tot een 60 dagen durende openbare raadpleging met experts, belanghebbenden en het grote publiek.
Terwijl de discussies binnen de FEC vorderden, benadrukte Lisa Gilbert, vicevoorzitter van Public Citizen, de noodzaak om opnieuw te bekijken hoe wetten rond "frauduleuze onjuiste voorstelling van zaken" zouden kunnen botsen met AI-dieptemakers.
Terwijl we naar 2024 snellen, rusten nieuwe AI-modellen van Meta, OpenAI en andere AI-ontwikkelaars mensen verder uit met het vermogen om enorm levensechte inhoud te genereren, dus dit probleem zal er niet makkelijker op worden - integendeel.