Terwijl Bangladesh zich voorbereidt op de nationale verkiezingen begin januari, steekt een steeds bekendere dreiging de kop op: AI-gegenereerde valse desinformatie.
De verkiezingen in Bangladesh zijn een verhitte strijd tussen de huidige premier, Sheikh Hasina, en de oppositie, de Bangladesh Nationalist Party.
Talrijke rapporten vestigen de aandacht op regeringsgezinde groepen die deze tools gebruiken om door AI gegenereerde nieuwsclips te maken die bedoeld zijn om de publieke opinie te beïnvloeden.
In één zo'n clip bekritiseert een door AI gecreëerde nieuwsanker uit Bangladesh bijvoorbeeld de VS, wat overeenkomt met het standpunt van de huidige regering.
Een ander voorbeeld zijn nepvideo's die tot doel hebben oppositieleden in diskrediet te brengen, bijvoorbeeld door te laten zien dat ze impopulaire standpunten innemen over gevoelige kwesties zoals steun voor Gaza, een enorm belangrijk onderwerp van debat in dit 175 miljoen inwoners tellende land met een moslimmeerderheid.
Diepe valse desinformatie en desinformatie zijn aantoonbaar de meest directe en urgente risico's van AI geworden. Het was deze week nog dat de Russische president Vladimir Poetin werd geconfronteerd met een AI-kopie van zichzelf in een persconferentie - een student gebruikte het om een punt te maken over diepe vervalsingen tijdens een live vraag- en antwoordsessie op televisie.
De Slowaakse verkiezingen hadden te lijden onder desinformatie van sociale media in de laatste 48 uur voor posttijd, wanneer het de media verboden is om politiek nieuws te bespreken.
Grote technologiebedrijven zoals Google en Meta beginnen beleid te implementeren voor politieke advertenties, inclusief de eis om digitale wijzigingen bekend te maken. Tot nu toe lijken deze maatregelen echter zwak, vooral in regio's die niet zoveel aandacht van deze bedrijven krijgen.
AI-regulering is over het algemeen vooral Westers bepaald en ontwikkelingslanden hebben meestal geen digitale regulering en rechten, waardoor mensen en hun gegevens kunnen worden uitgebuit.
Hoe werkt deep fake technologie?
In wezen is 'deep fake' een niet-technische term die een extreem effectieve vervalsing beschrijft, meestal gemaakt met generatieve AI-tools.
Een illustratief voorbeeld is HeyGen, een AI-video generator gevestigd in Los Angeles. Voor een bescheiden abonnement kunnen gebruikers via deze dienst clips maken met AI-avatars.
Een van die video's, waarin werd beweerd dat de VS zich bemoeide met de verkiezingen in Bangladesh, circuleerde op sociale mediaplatforms.
Omdat deze AI-avatars zo levensecht zijn, glippen ze vaak door de filters van sociale media en reageert het grote publiek mogelijk niet meteen. Sommige nepafbeeldingen die in verband worden gebracht met de Israël-Palestijns conflict bereikte miljoenen mensen voordat het volledig werd ontmaskerd als nep, bijvoorbeeld.
Het ontbreken van robuuste AI-detectietools voor niet-Engelse inhoud verergert het probleem.
Nu AI-technologie steeds geavanceerder en toegankelijker wordt, moeten regelgevende instanties en digitale platforms effectieve maatregelen ontwikkelen en afdwingen om desinformatie tegen te gaan.
Tot nu toe blijkt het een lastige taak.