AI omformer politiske kampagner over hele verden og præsenterer innovative strategier og potentiale for misinformation.
Politikere fra Toronto til New Zealand og Chicago bruger allerede AI i deres kampagner.
For eksempel brugte en borgmesterkandidat i Toronto AI til at generere dystopiske billeder af herberger for hjemløse, mens et politisk parti i New Zealand lagde et AI-genereret billede op af en fiktivt røveri i en juvelerbutik. I Chicago opstod der en kontrovers, da en Twitter-konto, der udgav sig for at være et nyhedsmedie, brugte AI til at kopiere en borgmesterkandidats stemme og antydede, at han billigede politibrutalitet.
Mange er bekymrede for, at deep fakes kan bruges til at svine politikere til og skade deres omdømme. Eksisterende beskyttelsesmekanismer, herunder tjenester, der hævder at opdage AI-indhold, synes stort set ineffektive.
Det kommende præsidentvalg i USA i 2024 er allerede vidne til effekten af AI. Den republikanske nationalkomité udgav en AI-genereret video, der viste de værst tænkelige scenarier efter Bidens meddelelse om genvalg. Demokraterne har også eksperimenteret med AI-genererede fundraising-budskaber.
Der arbejdes på at regulere AI, og der er fremsat lovforslag i Kongressen om at kræve ansvarsfraskrivelse på AI-genererede politiske annoncer.
I mellemtiden har American Association of Political Consultants erklæret brugen af dybt falsk indhold i politiske kampagner for en brud på deres etiske kodeks.
Alligevel udnytter nogle politikere, som Torontos borgmesterkandidat Anthony Furey, AI. Furey brugte AI til at generere indhold, der skulle understøtte hans holdning til hård kriminalitet, på trods af at nogle af billederne tydeligvis var kunstige.
Politiske eksperter er bekymrede for, at AI kan sprede misinformation - hvilket er en af de mest presserende trusler.
Ifølge Ben Colman, CEO for Reality Defender, kan umærket AI-indhold forårsage "uoprettelig skade", før der bliver taget hånd om det. "At forklare millioner af brugere, at det indhold, de allerede har set og delt, var falsk, længe efter, er for lidt og for sent", siger han.
Realistisk deep fakes AI vækker også frygt for fænomenet "løgnerens udbytte", hvor politikere kan afvise autentiske, men kompromitterende optagelser.
Som forsker ved Georgetown University's Center for Security and Emerging Technology Josh A. Goldstein forklarer"Hvis folk ikke kan stole på deres øjne og ører, siger de måske bare: "Hvem ved?"".