Trump-aanhangers zijn betrapt op het maken en verspreiden van AI-gegenereerde afbeeldingen die hem valselijk afbeelden naast Afro-Amerikaanse kiezers.
Deze tactiek, voor het eerst ontdekt door de BBCgericht op het creëren van een gevoel van populariteit van Trump onder zwarte kiezers - een bevolkingsgroep die een cruciale rol speelde in de overwinning van Joe Biden in 2020.
Mark Kaye, een conservatieve presentator van radioprogramma's in Florida, was een van degenen die deze afbeeldingen hebben gemaakt. Hij beeldde Trump af omringd door zwarte mensen en deelde ze op grote schaal op sociale media.
Kaye's benadering van deze zaak was heel duidelijk. "Ik ben geen fotojournalist. Ik ben een verhalenverteller," legde hij uit.
Kaye ging naar X om zichzelf te verdedigen en zei: "Jongens! Het valse nieuws @BBC heeft me beschuldigd van het leiden van een "desinformatie" campagne. Oh, de ironie. Dat is net zoiets als dat ik ze "kaal" noem!
Jongens! Het valse nieuws @BBC heeft me beschuldigd van het leiden van een "desinformatie" campagne. Oh, de ironie. Dat is net zoiets als dat ik ze "kaal" noem!https://t.co/SagEkC6Hmp
- Mark Kaye (@markkayeshow) 4 maart 2024
Commentatoren waren overwegend onsympathiek en één commentator zei dat Kaye "betrapt is met zijn broek naar beneden".
Het zal niemand verbazen dat deze beelden ethische bezwaren opriepen, wat leidde tot een reactie van Cliff Albright, de medeoprichter van Black Voters Matter.
Albright bekritiseerde de manipulatie en zei: "Er zijn gedocumenteerde pogingen geweest om desinformatie opnieuw te richten op zwarte gemeenschappen, vooral op jongere zwarte kiezers."
Hoewel het verleidelijk is om aan te nemen dat deze beelden gemakkelijk als nep kunnen worden afgedaan, vond de BBC velen die dachten dat ze echt waren. De bekendheid met diepe vervalsingen is nog steeds niet gekwantificeerd.
Critici uit het hele politieke spectrum beweren dat deze tactiek niet alleen een verkeerd beeld geeft van de politieke realiteit, maar ook doelbewust kwetsbare segmenten van het electoraat viseert.
Diepe vervalsingen zijn verkiezingen stormenderhand veroveren. We hebben grootschalige campagnes gezien bij onder andere de verkiezingen in Pakistan, Indonesië, Slowakije en Bangladesh. We hebben ook diepgaande nepcampagnes gezien van buitenlandse staatsactoren gericht op het manipuleren van stemgedrag.
Nu gaat de aandacht uit naar de Amerikaanse verkiezingen, die al een proeftuin zijn geweest voor diepe vervalsingen. De hitte zal alleen maar toenemen naarmate de verkiezingsdag nadert.
AI bot assistent 'Jennifer'
Op de technologische grens van campagnestrategieën gebruikte Peter Dixon, een Democratische congreskandidaat uit Californië, een AI-bot met de naam "Jennifer" om kiezers te bellen, wat de wenkbrauwen deed fronsen binnen zijn eigen team.
Jennifer's introductie aan de kiezers was duidelijk en openhartig: "Hallo daar. Mijn naam is Jennifer en ik ben een vrijwilliger op het gebied van kunstmatige intelligentie." Dit is onderdeel van de bredere strategie van Dixon om een breed publiek te bereiken en het is niet de eerste AI-robotbeller. vorig jaar ingezet in Pennslyvania.
De resultaten van het gebruik van Jennifer waren verrassend positief en tartten de aanvankelijke scepsis. Dixon zelf was verrast door hoe goed het werkte en gaf commentaar op de reactie van het publiek: "Mensen waren geschokt over hoe goed het vermogen was."
Deep fake electionseering laat de tweeledige aard zien van de rol van AI in moderne politieke campagnes.
Hoewel AI innovatieve hulpmiddelen biedt voor betrokkenheid, brengt het ook ethische uitdagingen met zich mee, vooral wanneer het wordt gebruikt om politieke steun te creëren of te manipuleren.
Het is bijna onmogelijk gebleken om lijnen te trekken voor een eerlijk gebruik van AI in politieke scenario's. Amerikaanse regelgevers hebben gesproken over het verbieden van divers nepcampagnemateriaalmaar dit is niet gebeurd.