Mens Bangladesh forbereder seg til det nasjonale valget i begynnelsen av januar, dukker en stadig mer kjent trussel opp: AI-generert dyp falsk feilinformasjon.
Valget i Bangladesh er en opphetet kamp mellom den sittende statsministeren, Sheikh Hasina, og opposisjonspartiet Bangladesh Nationalist Party.
Flere rapporter viser at regjeringsvennlige grupper bruker disse verktøyene til å produsere AI-genererte nyhetsklipp som er utformet for å påvirke opinionen.
I et slikt klipp kritiserer for eksempel et AI-skapt bangladeshisk nyhetsanker USA, noe som er et ekko av den nåværende regjeringens holdning.
Et annet eksempel er falske videoer som tar sikte på å diskreditere opposisjonelle, for eksempel ved å vise dem med upopulære standpunkter i sensitive spørsmål som støtte til Gaza, et svært viktig debattspørsmål i dette landet med 175 millioner innbyggere og muslimsk flertall.
Dyp falsk feilinformasjon og desinformasjon har uten tvil blitt AIs mest umiddelbare og presserende risiko. Det var først denne uken at Russlands president Vladimir Putin ble konfrontert med en AI-kopi av seg selv på en pressekonferanse - en student brukte den til å poengtere et poeng om dype forfalskninger i en direktesendt spørretime på TV.
Det slovakiske valget led under Desinformasjon i sosiale medier de siste 48 timene før innleggstidspunktet, da det er forbudt for mediene å diskutere politiske nyheter.
Store teknologiselskaper som Google og Meta er i ferd med å implementere retningslinjer for politisk reklame, inkludert krav om å opplyse om digitale endringer. Så langt virker imidlertid disse tiltakene svake, spesielt i regioner som ikke tiltrekker seg så mye oppmerksomhet fra disse selskapene.
Regulering av kunstig intelligens er først og fremst et vestlig anliggende, mens utviklingsland stort sett mangler digital regulering og rettigheter, noe som gjør at mennesker og deres data kan bli utnyttet.
Hvordan fungerer deep fake-teknologien?
I bunn og grunn er "deep fake" et ikke-teknisk begrep som beskriver en ekstremt effektiv forfalskning, vanligvis skapt med generative AI-verktøy.
Et illustrerende eksempel er HeyGen, en AI-videogenerator med base i Los Angeles. For en beskjeden abonnementsavgift kan brukerne lage klipp med AI-avatarer.
En slik video, der USAs innblanding i valget i Bangladesh ble påstått, ble spredt på sosiale medier.
Siden disse AI-avatarene er så naturtro, slipper de ofte gjennom filtre i sosiale medier, og det er ikke sikkert at allmennheten reagerer umiddelbart. Noen falske bilder knyttet til Israel-Palestina-konflikten nådde millioner av mennesker før den ble avslørt som falsk, for eksempel.
Fraværet av robuste AI-deteksjonsverktøy for ikke-engelskspråklig innhold gjør problemet enda større.
Etter hvert som AI-teknologien utvikler seg og blir mer tilgjengelig, er det viktig at reguleringsorganer og digitale plattformer utvikler og håndhever effektive tiltak for å motvirke desinformasjon.
Så langt har det vist seg å være en vanskelig oppgave.