De dype forfalskningene rundt Israel-Palestina-konflikten intensiveres

28. november 2023

Israel Gaza

Konflikten mellom Israel og Gaza har blitt et bakteppe for den stadig økende bruken av kunstig intelligens til å skape "deep fakes", noe som har blitt et problem for både Israel, Gaza og eksterne observatører. 

Blant de ulike bildene fra Gaza er det noen som er spesielt oppsiktsvekkende. "Blodige, forlatte spedbarn", som de ble beskrevet som, fikk stor oppmerksomhet på nettet. 

Et bilde av en brent baby ble delt av influencere, som Ben Shapiro, og nådde ut til millioner av mennesker før det ble kastet ut i kontroverser for å være AI-generert. 

Mange av disse falske bildene viser subtile, men avslørende tegn på digital manipulasjon, som "fingre som krøller seg merkelig, eller øyne som skinner med et unaturlig lys". " Det er imidlertid svært vanskelig å oppdage disse tegnene i øyeblikket. 

Dessuten varierer kvaliteten på bildene. Noen er gjenbrukte bilder fra ulike konflikter, mens andre er helt AI-genererte. Med tiden vil de bare bli mer realistiske. 

Som administrerende direktør i CREOpoint, Jean-Claude Goldenstein, beskriver det: "Det kommer til å bli verre - mye verre - før det blir bedre." Selskapet hans har samlet en database med de mest virale "deep fakes" fra konflikten, noe som viser at kunstig intelligens spiller en stadig større rolle i å skape realiteter i konflikter.

Det primære formålet med dype forfalskninger er å skape sjokk og angst, og derfor retter de seg ofte mot barn for å forsterke følelsesmessige reaksjoner.

Som Imran Ahmed, administrerende direktør for Center for Countering Digital Hate, forklarer"Desinformasjonen er designet for å få deg til å engasjere deg i den."

Dype forfalskninger er stadig økende

Deep fakes er en gjennomgripende effekt, eller bivirkning, av AI-utviklingen. Ikke bare risikerer AI-dypforfalskninger å bli sett på som autentiske, men de risikerer også at ekte innhold blir sett på som falskt.

Dessuten er dette fenomenet absolutt ikke begrenset til Gaza-konflikten. Lignende AI-generert innhold dukket opp under Russlands invasjon av Ukraina i 2022, inkludert en endret video av Ukrainas president Zelenskyj. 

Andre eksempler er falske bilder av politikere, som for eksempel Trump klemmer Fauci. Og problemet stopper ikke ved bilder - falske stemmer har impliserte politikere i samtaler de ikke deltok i eller ikke forekom i det hele tatt. 

Teknologiselskaper over hele verden reagerer med å utvikle AI-filtre som kan oppdage deepfakes, autentisere bilder og analysere tekst for feilinformasjon. Google, YouTube og Meta lovet nylig å merke AI-generert innhold, men det er en teknisk utfordring å få dette til. 

Vi har også vært vitne til en flom av faktasjekktjenester som er utformet for å avdekke tvilsomt innhold, men prosessene deres er feilbarlige og trege. Og hva er konsekvensene av at en "anerkjent" faktasjekker feilaktig stempler noe som ekte eller falskt?

Med viktige valg i horisonten, ikke minst det amerikanske presidentvalget i 2024, vekker deep fakes intens paranoia. Effekten har ikke nådd taket ennå.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser