AI omformar politiska kampanjer över hela världen, med innovativa strategier och potential för felaktig information.
Politiker från Toronto till Nya Zeeland och Chicago använder redan AI i sina kampanjer.
Till exempel använde en borgmästarkandidat i Toronto AI för att generera dystopiska bilder av härbärgen för hemlösa, medan ett politiskt parti i Nya Zeeland publicerade en AI-genererad bild av en fiktivt rån i en guldsmedsaffär. I Chicago uppstod en kontrovers när ett Twitterkonto som utgav sig för att vara ett nyhetsbolag använde AI för att kopiera en borgmästarkandidats röst och antydde att han godkände polisbrutalitet.
Många är oroliga för att deep fakes skulle kunna användas för att smutskasta politiker och skada deras rykte. Befintliga skyddsmekanismer, inklusive tjänster som påstår sig upptäcka AI-innehåll, verkar i stort sett ineffektiva.
Det kommande presidentvalet i USA 2024 vittnar redan om effekterna av AI. Republikanernas nationella kommitté släppte en AI-genererad video som visar värsta tänkbara scenarier efter att Biden meddelat att han blivit omvald. Demokraterna har också experimenterat med AI-genererade insamlingsmeddelanden.
Arbetet med att reglera AI pågår, med lagförslag som lagts fram i kongressen för att kräva ansvarsfriskrivningar på AI-genererade politiska annonser.
Under tiden har American Association of Political Consultants förklarat att användningen av djupt falskt innehåll i politiska kampanjer är en brott mot deras etiska kod.
Oavsett vilket utnyttjar vissa politiker, som Torontos borgmästarkandidat Anthony Furey, AI. Furey använde AI för att generera innehåll för att stärka sin tuffa inställning till brottslighet, trots den tydliga artificiella karaktären hos vissa bilder.
Politiska experter är oroade över att AI kan sprida felaktig information - vilket är en av dess mest akuta hot.
Enligt Ben Colman, VD för Reality Defender, kan omärkt AI-innehåll orsaka "oåterkallelig skada" innan det åtgärdas. "Att förklara för miljontals användare att det innehåll de redan sett och delat var falskt, långt efteråt, är för lite, för sent", sa han.
Realistiska djupförfalskningar AI väcker också farhågor om fenomenet "liar's dividend", där politiker kan avfärda autentiska men komprometterande bilder.
Som forskare vid Georgetown University's Center for Security and Emerging Technology Josh A. Goldstein förklarar"Om människor inte kan lita på sina ögon och öron kanske de bara säger: "Vem vet?""