Kontroverser om det amerikanske valg: Trump dybe forfalskninger og AI-robocallere

5. marts 2024

Trump-tilhængere er blevet taget i at skabe og sprede AI-genererede billeder, der fejlagtigt viser ham sammen med afroamerikanske vælgere. 

Denne taktik, som først blev afsløret af BBCFormålet var at skabe en fornemmelse af Trumps popularitet blandt sorte vælgere - en befolkningsgruppe, der spillede en afgørende rolle i Joe Bidens sejr i 2020. 

Mark Kaye, en konservativ radiovært i Florida, var blandt dem, der skabte disse billeder, som viste Trump omgivet af sorte mennesker og delte dem vidt og bredt på de sociale medier. 

ai deep fake
Et eksempel på et af de AI-genererede billeder.

Kayes tilgang til denne sag var ganske ligetil. "Jeg er ikke fotojournalist. Jeg er historiefortæller," forklarede han.

Kaye gik til X for at forsvare sig og sagde: "Venner! De falske nyheder @BBC har beskyldt mig for at lede en "misinformationskampagne". Åh, hvilken ironi. Det svarer til, at jeg kaldte dem "skaldede"!

Kommentarerne var stort set usympatiske, og en sagde, at Kaye var blevet "taget med bukserne nede".

Det er ikke overraskende, at disse billeder gav anledning til etiske overvejelser, hvilket fik Cliff Albright, medstifter af Black Voters Matter, til at reagere. 

Albright kritiserede manipulationen og sagde: "Der har været dokumenterede forsøg på at målrette desinformation til sorte samfund igen, især yngre sorte vælgere." 

Selv om det kan være fristende at antage, at disse billeder let kan afvises som falske, fandt BBC mange, der troede, at de var ægte. Bevidstheden om dybe forfalskninger er stadig ikke kvantificeret.

Kritikere fra hele det politiske spektrum hævder, at denne taktik ikke kun giver et forkert billede af den politiske virkelighed, men også bevidst går efter sårbare dele af vælgerkorpset.

Dybe forfalskninger er tager valget med storm. Vi har bl.a. set store kampagner ved valgene i Pakistan, Indonesien, Slovakiet og Bangladesh. Vi har også observeret dybt falske kampagner fra udenlandske statslige aktører med det formål at manipulere stemmeadfærd. 

Nu vender opmærksomheden sig mod det amerikanske valg, som allerede har været et testområde for deep fakes. Varmen vil kun stige, når vi nærmer os valgdagen. 

AI-bot-assistent 'Jennifer'

På den teknologiske front af kampagnestrategier brugte Peter Dixon, en demokratisk kongreskandidat fra Californien, en AI-bot ved navn "Jennifer" til at ringe til vælgerne, hvilket fik hans eget team til at løfte øjenbrynene. 

Jennifers introduktion til vælgerne var klar og tydelig: "Hejsa. Mit navn er Jennifer, og jeg er en frivillig med kunstig intelligens." Dette er en del af Dixons bredere strategi for at nå ud til et bredt publikum, og det er ikke den første AI-robocaller, idet den første var indsat i Pennslyvania sidste år

Resultaterne af at bruge Jennifer var overraskende positive og udfordrede den oprindelige skepsis. Dixon blev selv overrasket over, hvor godt det fungerede, og kommenterede offentlighedens reaktion: "Folk var chokerede over, hvor god kapaciteten var." 

Deep fake electioneering fremhæver den dobbeltsidede karakter af AI's rolle i moderne politiske kampagner.

Mens AI tilbyder innovative værktøjer til engagement, giver det også etiske udfordringer, især når det bruges til at fabrikere eller manipulere politisk støtte. 

Det har vist sig næsten umuligt at trække grænser for fair brug af AI i politiske scenarier. Amerikanske tilsynsmyndigheder har diskuteret Forbud mod forskellige dybt falske kampagnematerialermen det har ikke materialiseret sig.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser