De algemene verkiezingen van 2024 in India, de grootste democratische oefening ter wereld met meer dan 960 miljoen kiesgerechtigden, worden getransformeerd door de opkomst van AI-intelligentie en hyperrealistische deep fake content.
Hiermee maakt een nieuwe generatie van technisch onderlegde politieke operatoren gebruik van AI om synthetische media te creëren met politieke en commerciële bedoelingen.
Een van de meest prominente figuren in de opkomende 'deep fake industrie' in India is Divyendra Singh Jadoun, een 31-jarige zelfbenoemde "Indiase deep faker" die al snel een veelgevraagd leverancier is geworden voor politieke campagnes.
Wat begon als een solo-operatie om Bollywood spoofs te maken, is uitgegroeid tot een volwaardige synthetische mediastudio.
"Hij is sindsdien uitgebreid vanwege al het werk dat op hem afkomt", zegt de verslaggever uit Bangalore. Saritha Rai vertelt Bloomberg.
"De eerste keer dat ik hem sprak, zei hij dat hij een paar werknemers had, en dat was een paar maanden geleden. Daarna vertelde hij me dat hij vijf andere werknemers heeft die hem helpen deze video's te maken."
Met behulp van AI-modellen die zijn getraind op uren aan authentiek beeldmateriaal, genereren Jadoun en zijn team griezelig realistische video's van politici zoals premier Narendra Modi die kiezers bij naam toespreken.
"Het niveau van hyperpersonalisatie dat mogelijk is met generatieve AI... Je kunt het model gewoon trainen om de belangrijkste boodschap te zeggen en het dan voeden met duizenden namen. En het zal onmiddellijk diezelfde video reproduceren en perfect synchroniseren met Narendra Modi die elke persoon bij naam noemt," legt Rai uit.
AI-verkiezingscampagnes bootsen de intimiteit van persoonlijke interacties na op een bijna oneindige schaal en tegen betaalbare kosten.
Rai merkt verder op: "Veel van de campagne zal hyper gepersonaliseerd zijn voor de kiezers... veel zal hen bereiken via hun telefoon. En veel ervan zal door AI gegenereerd materiaal zijn."
Diepe vervalsingen zijn schering en inslag in India in de aanloop naar de verkiezingen
Rai legt uit hoe miljoenen mensen in India voor het eerst kennismaken met technologie via betaalbare smartphones.
Een digitaal onervaren bevolking is veel vatbaarder voor misleidende inhoud.
Hetzelfde kan ook gezegd worden van oudere mensen, die weer niet zo blootgesteld zijn aan de dwaasheid van internetcontent.
Maar zelfs onder degenen die zichzelf effectief vinden in het herkennen van AI-vervalsingen, studies tonen aan dat even als we weten dat media nep zijn, kan het ons geheugen en onze besluitvorming beïnvloeden.
Naast diepe vervalsingen om publieke figuren in een positief daglicht te stellen, zijn er ook gevallen van kwaadaardige politieke neppers komen ook steeds vaker voor in India.
In november ontdekte feitencontroleur Muralikrishnan Chinnadurai bijvoorbeeld een livestream waarin te zien was hoe Duwaraka, de al lang overleden dochter van een Tamil militant leider, een vurige politieke toespraak hield.
Chinnadurai ontdekte fouten, waardoor het een door AI gegenereerde avatar bleek te zijn. "Dit is een gevoelige kwestie in de staat [Tamil Nadu] en met de verkiezingen voor de deur zou verkeerde informatie zich snel kunnen verspreiden," aldus Chinnadurai. vertelde hij de BBC.
Vorige maand gingen diepe nepvideo's van Bollywoodsterren Ranveer Singh en Aamir Khan die de oppositiepartij Congress leken te steunen viral, wat leidde tot klachten van de acteurs bij de politie.
Op 29 april waarschuwde premier Modi zelf voor diepe vervalsingen die worden gebruikt om toespraken van leiders van de regeringspartij te vervalsen.
De volgende dag werden twee medewerkers van de oppositiepartij gearresteerd voor een vervalste video van minister van Binnenlandse Zaken Amit Shah. De oppositiepartij Bharatiya Janata Party (BJP) heeft te maken gehad met soortgelijke beschuldigingen van rivalen.
Tot nu toe heeft de Indiase overheid nauwelijks toezicht gehouden en de moderatie van content grotendeels uitbesteed aan sociale mediaplatforms. "India heeft helemaal geen regelgeving als het gaat om AI", zegt Rai.
De overheid eist sinds kort voorafgaande goedkeuring voor het lanceren van "onbetrouwbare" AI-tools en waarschuwt voor outputs die verkiezingen kunnen ondermijnen, maar uitgebreide regels ontbreken. Hetzelfde geldt voor een groot deel van de wereld.
Zoals voormalig verkiezingscommissaris SY Qureshi treffend waarschuwt: "Geruchten zijn altijd een onderdeel geweest van verkiezingsstrijd. [Maar in het tijdperk van sociale media kunnen ze zich als een lopend vuurtje verspreiden... Het kan het land in vuur en vlam zetten."