Diepe vervalsingen in de politiek - wanneer zien niet langer geloven is

28 januari 2024

We zijn echt in een tijdperk beland waarin je niet kunt vertrouwen wat je online ziet. 

Hoewel die bewering al tientallen jaren gedeeltelijk waar is, heeft AI de manipulatie van content naar een nieuw niveau getild en het bewustzijn van het publiek enorm overtroffen.

AI deep fake-technologie kan beelden, video's en geluidsopnamen maken en veranderen, waardoor publieke figuren woorden in de mond krijgen of in situaties verschijnen die nooit hebben plaatsgevonden.

In veel gevallen is er meer dan een tweede blik nodig om de authenticiteit van inhoud te bepalen en nepmedia kunnen miljoenen vertoningen verzamelen voordat ze worden geïdentificeerd.

We zijn nu getuige van diepgaande vervalsingen die mogelijk democratische processen kunnen verstoren, hoewel het nog te vroeg is om tastbare effecten op het stemgedrag te meten.

Laten we eens kijken naar een aantal van de meest opvallende politieke AI deep fake-incidenten die we tot nu toe hebben gezien.

Joe Biden incident in New Hampshire

januari 2024, A New Hampshire, VS, a robotoproep die de stem van Biden nabootst moedigde kiezers aan om "je stem te bewaren voor de verkiezingen in november," ten onrechte suggererend dat deelname aan de voorverkiezing onbedoeld ten goede zou komen aan Donald Trump. 

Het werd toegeschreven aan Kathy Sullivan, het persoonlijke mobiele nummer van een voormalige voorzitter van de Democratische Partij. Sullivan veroordeelde de daad als een flagrante vorm van verkiezingsbemoeienis en persoonlijke intimidatie. 

Het kantoor van de procureur-generaal van New Hampshire zei dat dit een illegale poging was om de presidentsverkiezingen te verstoren en de opkomst te onderdrukken. 

De gefabriceerde audio bleek te zijn gegenereerd met behulp van ElevenLabs, een marktleider op het gebied van spraaksynthese.

ElevenLabs schorste later de dader achter de nepstem van Biden en zei: "We doen er alles aan om misbruik van audio-AI-tools te voorkomen en nemen misbruik uiterst serieus."

Duitse bondskanselier Olaf Scholz diep nepincident

In november 2023 was Duitsland getuige van een AI deep fake waarin kanselier Olaf Scholz ten onrechte een verbod op de extreemrechtse partij Alternative für Deutschland (AfD) goedkeurde. 

Deze diepe nepvideo maakte deel uit van een campagne van een kunstactivistische groep, de Centrum voor Politieke Schoonheid (CPB)en wil de aandacht vestigen op de toenemende invloed van de AfD. Kritieken op de AfD worden afgezet tegen de geschiedenis van Duitsland in de jaren 1930. 

Onder leiding van filosoof en kunstenaar Philipp Ruch wil de CPB-groep "politieke poëzie" en "morele schoonheid" creëren, waarbij belangrijke hedendaagse onderwerpen zoals mensenrechtenschendingen, dictatuur en genocide aan bod komen.

Het CPB is betrokken geweest bij tal van controversiële projecten, zoals de Installatie "Search for Us" bij de Bondsdagwaarvan ze beweerden dat het aarde van voormalige vernietigingskampen en overblijfselen van Holocaustslachtoffers bevatte. 

Terwijl de steun voor de AfD is gegroeid, tonen talrijke protesten in heel Duitsland een sterke oppositie tegen de ideologieën van de AfD.

Een woordvoerder van de groep achter de diepe nep verklaarde: "In onze ogen is het rechtsextremisme in Duitsland dat in het parlement zit gevaarlijker."

AfD-functionarissen noemden de diepe nepcampagne een misleidende tactiek om de partij in diskrediet te brengen en de publieke opinie te beïnvloeden. 

Britse premier Rishi Sunak betrokken bij oplichting

In januari 2024 ontdekte een Brits onderzoeksbureau dat PM Rishi Sunak betrokken was bij meer dan 100 misleidende videoadvertenties die voornamelijk op Facebook werden verspreid en naar schatting 400.000 mensen bereikten. 

Deze advertenties, afkomstig uit verschillende landen, waaronder de VS, Turkije, Maleisië en de Filippijnen, promootten frauduleuze investeringsplannen die ten onrechte in verband werden gebracht met bekende figuren zoals Elon Musk.

Het onderzoek, uitgevoerd door het online communicatiebureau bedrijf Fenimore Harperbenadrukte hoe sociale mediabedrijven eenvoudigweg niet binnen een redelijk tijdsbestek reageren op deze vorm van inhoud. 

Nepnieuws
Een diepgaande nepadvertentie trok gebruikers naar deze valse BBC nieuwspagina die een zwendelinvestering promootte. Bron: Fenimore Harper.

Marcus Beard, de oprichter van Fenimore Harper, legt uit hoe AI desinformatie democratiseert: "Met de komst van goedkope, eenvoudig te gebruiken stem- en gezichtsklonen, is er heel weinig kennis en expertise nodig om iemands gelijkenis te gebruiken voor kwaadaardige doeleinden."

Beard bekritiseerde ook de ontoereikendheid van content moderatie op sociale media, waarbij hij opmerkte: "Deze advertenties zijn in strijd met verschillende van Facebooks advertentiebeleidsregels. Maar heel weinig van de advertenties die we tegenkwamen lijken te zijn verwijderd."

De Britse regering reageerde op het risico van frauduleuze vervalsingen: "We werken uitgebreid samen in de regering om ervoor te zorgen dat we klaar zijn om snel te reageren op bedreigingen voor onze democratische processen via onze defending democracy taskforce en speciale regeringsteams." 

Pakistaanse premier Imran Khan verschijnt in virtuele rally

In december 2023 zit de voormalige premier van Pakistan, Imran Khan, momenteel gevangen op beschuldiging van het lekken van staatsgeheimen, verscheen op een virtuele rally met behulp van AI.

Ondanks dat hij achter de tralies zit, werd Khan's digitale avatar opmerkelijk goed bekeken door miljoenen mensen. De rally bevatte beelden van eerdere toespraken van zijn politieke partij, Pakistan Tehreek-e-Insaaf (PTI).

Khan's vier minuten durende toespraak sprak van veerkracht en verzet tegen de politieke onderdrukking waar PTI-leden mee te maken hebben. 

De AI-stem verwoordde het als volgt: "Onze partij mag geen openbare bijeenkomsten houden. Onze mensen worden ontvoerd en hun families worden lastiggevallen," vervolgde hij: "De geschiedenis zal zich jullie offers herinneren." 

De situatie werd nog verwarrender doordat de Pakistaanse regering naar verluidt probeerde de toegang tot de rally te blokkeren.

NetBlocks, een organisatie die toezicht houdt op het internet, verklaarde: "Metrics tonen aan dat belangrijke sociale mediaplatforms in Pakistan zondagavond [bijna] 7 uur lang werden beperkt tijdens een online politieke bijeenkomst; het incident komt overeen met eerdere gevallen van internetcensuur gericht tegen oppositieleider Imran Khan en zijn partij PTI."

Usama Khilji, een voorstander van de vrijheid van meningsuiting in Pakistan, zei: "Nu het recht van de PTI op vrijheid van vereniging en meningsuiting volledig wordt beknot door de arrestaties van de leiders, is het gebruik van kunstmatige intelligentie door de partij om een virtuele toespraak uit te zenden in de woorden van haar opgesloten voorzitter en voormalig premier Imran Khan, een nieuw punt in het gebruik van technologie in de Pakistaanse politiek." 

Nepaudio van ex-Sudanese president Omar al-Bashir op TikTok

Een AI-campagne op TikTok maakte gebruik van de stem van voormalig Sudanees president Omar al-Bashir te midden van de aanhoudende burgerlijke onrust in het land. 

Sinds eind augustus 2023 post een anoniem account naar eigen zeggen "gelekte opnames" van al-Bashir. Analisten stelden echter vast dat de opnames door AI gegenereerde vervalsingen waren.

al-Bashir' is niet meer in het openbaar geweest sinds hij in 2019 uit het land werd gezet vanwege ernstige beschuldigingen van oorlogsmisdaden. 

Slowaakse verkiezingsoplichterij

Op de dag van de verkiezingen in Slowakije bevatte een controversiële audio diepe vervalsingen van Michal Šimečka, leider van de Progressieve Slowaakse partij, en journaliste Monika Tódová die corrupte praktijken zoals het kopen van stemmen bespraken. 

Dit kwam aan het licht tijdens de media-blokkade van Slowakije voorafgaand aan de verkiezingen, zodat de betrokkenen hun betrokkenheid niet gemakkelijk publiekelijk konden weerleggen voordat het zover was. 

Beide betrokken partijen hebben later de opname als een diepe vervalsingwat een fact-checking bureau bevestigde. 

Volodymyr Zelenskiy's diepe vervalsing

In 2023 werd een nepvideo van de Oekraïense president Volodymyr Zelenskiy, die amateuristisch suggereerde dat hij soldaten opriep om hun posten te verlaten, al snel als nep geïdentificeerd en verwijderd door de grote sociale mediaplatforms.

Turkse verkiezingen diep nepdrama

In de aanloop naar de Turkse parlements- en presidentsverkiezingen werd online een video verspreid waarin ten onrechte werd getoond dat de belangrijkste uitdager van president Recep Tayyip Erdoğan, Kemal Kılıçdaroğlu, steun ontvangt van de PKK. 

Donald Trump diep nep

Begin 2023 waren we getuige van realistisch ogende deep fakes van Donald Trump die gearresteerd werd en een campagnevideo van Ron DeSantis met AI-gegenereerde beelden van Trump die Anthony Fauci omhelst. 

Trump AI
AI beelden van Trump die gearresteerd wordt, zorgden in maart 2023 voor rumoer.

Trump diep nep van Belgische politieke partij

Een eerder incident in 2018 in België veroorzaakte politieke opschudding toen een diepe nepvideo gemaakt door een politieke partij een publieke verontwaardiging veroorzaakte.

In de video werd ten onrechte afgebeeld dat president Donald Trump België aanraadt om zich terug te trekken uit het klimaatakkoord van Parijs. 

De video maakte deel uit van een hightech vervalsing, die later werd erkend door het mediateam van de partij. Het toonde aan hoe diepgaande vervalsingen kunnen worden gebruikt om verklaringen van wereldleiders te fabriceren om de publieke opinie en het beleid te beïnvloeden.

Diepe vervalsing van Nancy Pelosi

Een gemanipuleerde video van Nancy Pelosi in 2020, waarin het leek alsof ze slijmde en dronken was, verspreidde zich snel op sociale media. 

Dit toonde het potentieel aan van deep fakes om publieke figuren in diskrediet te brengen en in verlegenheid te brengen, wat vaak doorgaat nadat de inhoud als nep is bestempeld. 

Audio-fake van Keir Starmer

Een ander incident in de Britse politiek betrof een audiofragment waarop oppositieleider Sir Keir Starmer te horen zou zijn terwijl hij zijn personeel uitscheldt. 

De clip, die op grote schaal circuleerde op sociale media, bleek later een door AI gegenereerde deep fake te zijn.

Naarmate techbedrijven meer manieren verkennen om fakes op grote schaal aan te pakken, zullen de AI-modellen die worden gebruikt om valse media te creëren alleen maar geavanceerder en eenvoudiger te gebruiken worden.

De reis die voor ons ligt vereist een gezamenlijke inspanning van technologen, beleidsmakers en het publiek om de voordelen van AI te benutten en tegelijkertijd de pijlers van onze samenleving van vertrouwen en integriteit te beschermen.

Het vertrouwen in de politiek en openbare instellingen is op zijn zachtst gezegd al zwak. Diepgaande vervalsingen zullen het nog verder ondermijnen.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden