AI-gegenereerde nep-audioclips blijven controverse oproepen

14 oktober 2023

X Meta

Diep vervalsingen zijn snel uitgegroeid tot een ernstige sociale en politieke kwestie en een mogelijke bedreiging voor de verkiezingsintegriteit. 

Kort voor de verkiezingen in Slowakije, die dicht bij elkaar lagen, werd een omstreden audioclip op sociale media, waarin een stem die opvallend veel lijkt op de leider van de Progressieve Partij van Slowakije, Michal Šimečka, sprak van een plan om de verkiezingen te manipuleren. 

Omdat het bericht zo dicht bij de verkiezingen kwam, was het een uitdaging om mensen te waarschuwen dat het nep was. 

Niet lang daarna laaide er een nieuwe controverse op toen de leider van de Britse Labour Party werd gehoord terwijl hij scheldwoorden uitte in een audioclip die op X was geplaatst. In de bijbehorende post stond: "Ik heb audio verkregen van Keir Starmer die zijn medewerkers verbaal mishandelt op het congres [van de Labour Party]," plaatste het X-account. "Deze walgelijke bullebak staat op het punt om onze volgende premier te worden."

In dezelfde periode werd een TikTok-account verwijderd nadat bleek dat het nepclips produceren van de gevangen ex-Sudanese president Omar Al-Bashir, waardoor het vuur wordt aangewakkerd in een land dat al in burgeroorlog verkeert. 

De clips in alle drie de gevallen hadden iets gemeen: ze waren nep en waarschijnlijk gemaakt met AI. 

Terwijl AI-video en -beelden alomtegenwoordig zijn en hun eigen problemen opleveren, zijn nep-audioclips moeilijker te detecteren en glippen ze vaak door de mazen van het net. De stemmen zelf zijn meestal zeer authentiek; zoals Jack Brewster van NewsGuard benadrukte: "Obama ziet er nog steeds een beetje plastic uit als slechte acteurs zijn gezicht gebruiken. Maar de audio van zijn stem is behoorlijk goed - en ik denk dat dat hier het grote verschil is."

In het licht van deze zorgen heeft een groep senatoren de "No Fakes Act" voorgesteld, een wetsvoorstel dat erop gericht is om mensen te straffen die AI-gecreëerde audio of video's produceren of delen zonder toestemming van de oorspronkelijke persoon.

Zoals Hany Farid, professor in digitaal forensisch onderzoek aan de Universiteit van Californië in Berkeley, zegt"Dit is niet hypothetisch. Je hebt het over geweld, je hebt het over het stelen van verkiezingen, je hebt het over fraude - [dit heeft] gevolgen in de echte wereld voor individuen, voor samenlevingen en voor democratieën."

Toepassingen voor het klonen van stemmen zijn enorm geëvolueerd, met platforms zoals Eleven Labs die tools aanbieden waarmee je een 'deepfaked' stem kunt creëren voor een nominaal maandelijks bedrag van slechts $5.

Hany Farid, die de verantwoordelijkheid van sociale mediagiganten onderstreepte, verklaarde: "Ze zouden de kraan nu dicht kunnen draaien als ze dat zouden willen. Maar het is slecht voor de zaken."

Kan AI deep fakes echt verkiezingen beïnvloeden?

Diepe vervalsingen hebben hun impact in de echte wereld al bewezen, met een nepbeeld van een explosie in het Pentagon eerder dit jaar, waardoor de markten tijdelijk inzakten, zij het slechts voor een paar minuten. 

Deze nepclips, -video's en -video's bedreigen een toch al kwetsbaar informatielandschap - een landschap waar de verdenkingen vaak hoog zijn en de marges krap. 

Hoewel het buitengewoon moeilijk is om de werkelijke impact van AI deep fakes op het politieke discours en stemgedrag te beoordelen, wordt de lat voor desinformatie wel lager gelegd.

Ben Winters, een senior vertegenwoordiger bij het Electronic Privacy Information Center, stelt: "De mate van vertrouwen zal afnemen, het werk van journalisten en anderen die proberen echte informatie te verspreiden zal moeilijker worden."

Hoewel het valselijk beschuldigen van politici in scenario's die hun reputatie schaden een van de meer gebruikelijke tactieken van deze campagnes is, kunnen ze ook leiden tot "leugenaarsdividend", waarbij het mogelijk wordt om waarheidsgetrouwe beschuldigingen als vals te weerleggen. 

Het bestrijden van AI-feeds vereist een combinatie van geavanceerdere AI-inhoudfilters op sociale media en publieke voorlichting. De kwaliteit van deep fakes zelf zal echter alleen maar verbeteren.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden