Mens Bangladesh forbereder sig på det nationale valg i begyndelsen af januar, viser en stadig mere velkendt trussel sit grimme ansigt: AI-genereret dyb falsk misinformation.
Valget i Bangladesh er en ophedet kamp mellem den nuværende premierminister, Sheikh Hasina, og oppositionen, Bangladesh Nationalist Party.
Talrige rapporter gør opmærksom på, at regeringsvenlige grupper bruger disse værktøjer til at producere AI-genererede nyhedsklip, der er designet til at påvirke den offentlige mening.
I et af disse klip kritiserer en AI-skabt bangladeshisk nyhedsvært for eksempel USA, hvilket er et ekko af den nuværende regerings holdning.
Et andet eksempel er dybt falske videoer, der har til formål at miskreditere oppositionelle, f.eks. ved at vise dem indtage upopulære holdninger til følsomme emner som støtte til Gaza, et enormt vigtigt debatemne i dette land med 175 millioner indbyggere og muslimsk flertal.
Dyb falsk misinformation og desinformation er uden tvivl blevet AI's mest umiddelbare og presserende risici. Det var først i denne uge, at den russiske præsident Vladimir Putin blev konfronteret med en AI-kopi af sig selv på en pressekonference - en studerende brugte den til at komme med en pointe om deep fakes i en direkte tv-transmitteret Q&A-session.
Det slovakiske valg led under Desinformation på sociale medier i de sidste 48 timer før opslagstidspunktet, hvor det er forbudt for medierne at diskutere politiske nyheder.
Store teknologivirksomheder som Google og Meta er begyndt at implementere politikker for politiske reklamer, herunder kravet om at offentliggøre digitale ændringer. Men indtil videre virker disse foranstaltninger svage, især i regioner, der ikke tiltrækker så meget opmærksomhed fra disse virksomheder.
AI-regulering er generelt primært et vestligt anliggende, hvor udviklingslande for det meste mangler digital regulering og rettigheder, hvilket efterlader mennesker og deres data åbne for udnyttelse.
Hvordan fungerer deep fake-teknologi?
I bund og grund er "deep fake" et ikke-teknisk udtryk, der beskriver enhver ekstremt effektiv fake, typisk skabt med generative AI-værktøjer.
Et illustrativt eksempel er HeyGen, en AI-videogenerator med base i Los Angeles. For et beskedent abonnementsgebyr giver denne tjeneste brugerne mulighed for at skabe klip med AI-avatarer.
En af disse videoer, som beskyldte USA for at blande sig i valget i Bangladesh, blev spredt på de sociale medier.
Da disse AI-avatarer er så livagtige, slipper de ofte igennem de sociale mediers filtre, og det er ikke sikkert, at offentligheden reagerer med det samme. Nogle falske billeder forbundet med Israel-Palæstina-konflikten nåede f.eks. ud til millioner af mennesker, før den blev afsløret som falsk.
Fraværet af robuste AI-detekteringsværktøjer til ikke-engelsk indhold forværrer problemet.
I takt med at AI-teknologien udvikler sig og bliver mere tilgængelig, er det bydende nødvendigt for reguleringsorganer og digitale platforme at udvikle og håndhæve effektive foranstaltninger til at modvirke desinformation.
Indtil videre har det vist sig at være en vanskelig opgave.