AI-manipuleret indhold truer valgets integritet, men hvad kan vi gøre?

5. oktober 2023

AI-valg

En kontroversiel lydoptagelse dukkede op på Facebook få timer efter offentliggørelsen på Slovakiets valgdag.

Den indeholdt stemmer, der angiveligt tilhørte Michal Šimečka, lederen af partiet Progressive Slovakia, og Monika Tódová fra avisen Denník N. 

Samtalen drejede sig om valgsvindel og køb af stemmer fra roma-mindretallet, hvilket udløste bekymringer om korruption og forvirring på de sociale medier. 

Optagelsen blev straks afvist som falsk af både Šimečka og Denník N. Agence France-Presse' (AFP) faktatjek-site viste tegn på AI-manipulation i lyden og blev efterfølgende rapporteret af internationale nyhedsbureauer. 

På grund af timingen - inden for 48 timers medietavshed før valget - var det en udfordring at modbevise indlægget i tide.

Smer-SD-partiet, der ledes af den tidligere slovakiske premierminister Robert Fico, fik 23% ved lørdagens afstemning og slog dermed det centralistiske Progressive Slovakia med 18%.

Da det var lydindhold, slap det også forbi Metas politik, som primært er rettet mod manipulerede videoer.

Forud for afstemningen understregede EU's digitale chef, Věra Jourová, at europæiske valg er sårbare over for storstilede manipulationer, og hun antydede, at der var tale om ekstern indflydelse, f.eks. fra Moskva.

Nu er nationerne i højeste alarmberedskab for AI-induceret valgindblanding, som synes uundgåelig - det er mere et spørgsmål om, hvorvidt vi kan stoppe det, og hvor meget skade det kan gøre. Polen, som står over for et nært forestående valg, bliver den næste test. 

Der er også store valg på vej i 2024 og 2025, blandt andet i USA og Indien næste år.  

Faktatjekkere som AFP understreger, at AI hurtigt udvikler sig til et potent værktøj til at destabilisere valg, og at vi er dårligt rustet til at imødegå det. Veronika Hincová Frankovská fra faktatjekorganisationen Demagog kommenterede: "Vi er ikke så klar til det, som vi burde være."

Frankovskás team kontrollerede den falske slovakiske lyds oprindelse og rådførte sig med eksperter, før de brugte en AI-taleklassifikator fra Eleven Labs til at fastslå dens ægthed.

På trods af udviklingen af AI er vi i vid udstrækning afhængige af, at mennesker opdager dybe forfalskninger. 

AI deep fakes er ved at blive et kritisk problem

AI's rolle i spredningen af misinformation vokser, og det er en kæmpe opgave at bevise, at AI-billeder, -videoer og -optagelser er falske. 

Det meste falske indhold er forbudt på sociale medier. Ben Walter, der repræsenterer Meta, sagde: "Vores fællesskabsstandarder gælder for alt indhold ... og vi vil gribe ind over for indhold, der overtræder disse politikker."

I praksis viser det sig dog at være svært at forhindre dybt falsk indhold i at sprede sig, og foranstaltninger som AI Vandmærker er sørgeligt ineffektive

Mens Polen forbereder sig på sit valg, er der bekymring over den mulige tilstrømning af AI-genereret indhold, og misinformation skaber allerede uro. 

Jakub Śliż fra den polske faktatjekgruppe Pravda Association sagde: "Som faktatjekorganisation har vi ikke en konkret plan for, hvordan vi skal håndtere det."

Når valgresultater hviler på små marginaler og bitre politiske dialoger, som de gjorde i Slovakiet, kan effekten af AI-genereret desinformation være alvorlig. Hvad mere er, er at tidligere hændelser med algoritmisk forstørret desinformation, såsom Cambridge Analytica-skandalen, fortæller os, at nogle interessenter kan være medskyldige i disse taktikker.  

Det amerikanske præsidentvalg i 2016 var allerede fyldt med misinformation drevet frem af ekstremistiske aktivister, udenlandsk indblanding og vildledende nyhedskanaler.

I 2020 blev ubegrundede beskyldninger om valgsvindel fremherskende og styrkede en bevægelse mod demokrati, der forsøgte at omstøde resultaterne.

AI-drevet desinformation risikerer ikke bare at bedrage offentligheden; den truer også med at overvælde et allerede skrøbeligt informationsmiljø og skabe en atmosfære af falskhed, mistillid og bedrag.

"Graden af tillid vil falde, og det vil blive sværere for journalister og andre, der forsøger at formidle reel information", siger Ben Winters, der er seniorrepræsentant ved Electronic Privacy Information Center. 

Nye værktøjer til gamle taktikker

Forestil dig en verden, hvor manipulerende indhold produceres til en så ubetydelig pris og med så stor lethed, at det bliver almindeligt. 

Teknologidrevet misinformation er ikke noget nyt fænomen, men AI-værktøjer er perfekt positioneret til at sætte turbo på sådanne taktikker. 

Der har været masser af tidlige træfninger, som viser, hvad der er i vente. Tidligere på året blev en AI-genereret billede af et Pentagon Eksplosionen havde en mærkbar effekt på aktiemarkederne, selv om det kun var i få minutter, før brugerne af de sociale medier fordømte de virale billeder som falske. 

AI Pentagon
Et AI-genereret billede af en eksplosion i Pentagon får markederne til at dykke kortvarigt.

AI-renderede billeder, der tilsyneladende viste Donald Trump konfrontere politiet, vandt indpas på nettet, og den republikanske nationalkomité sendte en helt AI-genereret reklame, der forestillede sig katastrofer, hvis Biden blev genvalgt.

Trump AI
AI-billeder af Trump, der bliver arresteret, skabte røre tilbage i marts. Kilde: Første post.

En anden viral deep fake involverer Floridas guvernør og republikanske kandidat, Ron DeSantis, som udgav ændrede billeder, der viser eks-præsident Donald Trump i en omfavnelse med Dr. Anthony Fauci.

X (dengang Twitter) tilføjede et tag til det oprindelige Tweet og betegnede det som AI-manipuleret.

I Storbritannien blev premierminister Rishi Sunak manipuleret til at vise ham skænke en øl af dårlig kvalitettil stor utilfredshed for X-brugere (dengang Twitter), før billedets ægthed blev afsløret. 

Redigeret billede af Rishi Sunak, der skænker en dårlig øl (til venstre) - dog ikke officielt verificeret som AI-genereret. Selv om disse AI-output kan ligne traditionelt manipuleret indhold, letter generativ AI masseproduktion for alle med rudimentære digitale færdigheder.

Uden for den politiske arena har folk været snydt af svindlere der udgiver sig for at være deres venner eller familiemedlemmer.

Flere kvinder og selv unge piger er blevet udsat for dybt falsk "sextortion" - hvor svindlere afpresser dem med falske billeder med bandeord - noget, som FBI advarede om tidligere på året.

Stemmekloner af Omar al-Bashir, den tidligere leder af Sudan, dukkede for nylig op på TikTokog puster til ilden i et land, der er indblandet i borgerkrig. 

Listen over eksempler bliver ved og ved, og det ser ud til, at AI-fakes mestrer både tekst, billeder, video og lyd.

AI sænker barren for misinformation

AI-forstærkede værktøjer forstærker traditionelle valgindblandingstaktikker, både hvad angår kvalitet og omfang. 

Som vi var vidne til ved det slovakiske valg, påpeger Josh Goldstein fra Georgetown University's Center for Security and Emerging Technology, hvordan udenlandske aktører kan skabe overbevisende indhold på det ønskede sprog.

Han sagde: "AI-genererede billeder og videoer kan skabes meget hurtigere, end faktatjekkere kan gennemgå og afsløre dem." 

Der er også mulighed for at udnytte AI til målrettet masse-desinformation. For eksempel brugte to højreekstreme aktivister robocalls (robotopkald, der er målrettet mod mennesker i massevis) til at sprede misinformation om valget til tusindvis af sorte vælgere sidste år. 

USA gør sig klar til AI-desinformation om valget 

Med flere højt profilerede valg i 2024 vil indflydelsen fra AI-drevne desinformationskampagner for alvor blive afsløret. 

Som reaktion på AI's voksende indflydelse har tech-giganter som Google iværksat foranstaltninger som f.eks. obligatorisk mærkning af politiske annoncer, der bruger AI-forbedret indhold. 

I mellemtiden overvejer Kongressen regler for kunstig intelligens, og Federal Election Commission (FEC) overvejer regler for brug af kunstig intelligens i politisk reklame.

Som reaktion på den stigende bekymring for AI's vildledende kraft har FEC har foreslået regler om at bruge AI deep fake content i politiske kampagner.

Denne enstemmige FEC-beslutning blev offentliggjort den 10. august og førte til en 60-dages offentlig høring med eksperter, interessenter og offentligheden. 

Da diskussionerne skred frem i FEC, understregede Lisa Gilbert, vicepræsident for Public Citizen, behovet for at genoverveje, hvordan love omkring "svigagtig vildledning" kan krydse hinanden med AI deep fakes.

Når vi nærmer os 2024, vil nye AI-modeller fra Meta, OpenAI og andre AI-udviklere yderligere udstyre mennesker med evnen til at skabe utroligt livagtigt indhold, så dette problem bliver ikke nemmere - tværtimod. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser