Ny rapport avslører hvordan generativ AI utnyttes av terrorister

10. november 2023

AI-terrorisme

Voldelige ekstremister bruker generative AI-verktøy til å skape innhold i stor skala, og omgår samtidig sikkerhetsmekanismer og filtre, ifølge en ny rapport. 

Intelligent firma Teknologi mot terrorisme identifiserte rundt 5000 eksempler på AI-generert innhold, inkludert bilder knyttet til grupper som Hizbollah og Hamas. 

Disse bildene er ofte knyttet til sensitive temaer som krigen mellom Israel og Hamas, noe som tyder på en strategisk bruk av kunstig intelligens for å påvirke narrativer.

Det har vært mange eksempler av AI-genererte bilder som impliserer både Israel og Palestina i grusomheter og hendelser de ikke har hatt noe med å gjøre. Deep fakes utgjør en dobbel trussel: falske bilder kan tolkes som ekte, og ekte bilder som falske. 

Adam Hadley, administrerende direktør i Tech Against Terrorism, uttalte: "Vår største bekymring er at hvis terrorister begynner å bruke gen-AI til å manipulere bilder i stor skala, kan dette ødelegge hash-deling som løsning. Dette er en enorm risiko." 

Hash-deling i innholdsmoderering innebærer at det opprettes unike digitale fingeravtrykk (hasher) av skadelig innhold, som deretter deles på tvers av plattformer. På denne måten kan ulike tjenester raskt identifisere og fjerne slikt innhold, noe som gjør arbeidet med innholdsmoderering mer effektivt.

Denne metoden kan være ineffektiv hvis AI skaper nytt, ugjenkjennelig innhold.

Fra nynazistiske grupper som bruker rasistiske og antisemittiske AI-genererte bilder, til Den islamske staten (IS) som publiserer veiledninger om sikker bruk av generative AI-verktøy, er omfanget av misbruk av AI stadig økende. 

Ekstremistgrupper bruker også kunstig intelligens til å lage flerspråklig propaganda og personaliserte rekrutteringsmeldinger. 

Problemet strekker seg lenger enn til ekstremistisk propaganda. For eksempel rapporterte Internet Watch Foundation over 20 000 AI-genererte bilder av seksuelle overgrep mot barn på et enkelt dark web-forum i løpet av én måned, noe som understreker de bredere konsekvensene av AI-misbruk.

Hadley forsikret at det finnes mekanismer for å stanse denne trenden, og antydet: "Vi kommer til å samarbeide med Microsoft for å finne ut om det finnes måter å bruke arkivet vårt på til å lage et slags gen-AI-deteksjonssystem for å motvirke den nye trusselen om at gen-AI vil bli brukt til terrorinnhold i stor skala."

Hadley foreslår at et slikt verktøy kan gjøres tilgjengelig på tvers av flere plattformer, slik at plattformene kan slå ned på problematisk AI-generert innhold uten å utvikle sine egne verktøy. 

Mer om rapporten

Tech Against Terrorisms intelligente operasjoner arkiverte over 5000 AI-genererte innhold som brukes av terrorister og voldelige ekstremister. De understreker at dette utgjør en liten brøkdel av det totale volumet av TVE-innhold som identifiseres årlig. 

Den rapport dekker først og fremst innhold på tvers av islamistiske og høyreekstreme ideologier, noe som viser en bekymringsfull trend der TV-selskaper bruker generativ AI til propaganda. 

Viktige funn og bekymringer

TVE-nettverk tilknyttet Den islamske staten (IS), al-Qaida-tilhengere og nynazister har eksperimentert med generativ AI.

Exempler inkluderer:

  • IS' tekniske støttegruppe publiserer en veiledning om sikker bruk av AI-innholdsgeneratorer.
  • Nynazistiske meldingskanaler som distribuerer AI-genererte rasistiske og antisemittiske bilder.
  • Høyreekstreme propagandister bruker AI-genererte bildeverktøy for å skape ekstremistiske memes.
  • IS-vennlige brukere hevder å ha brukt kunstig intelligens til transkripsjon og oversettelse av IS-propaganda.
  • Al-Qaida-allierte medier publiserer AI-genererte propagandaplakater.

Potensielle risikoer ved utnyttelse av generativ AI

Det fremgår av rapporten:

  • Gyting i media: Generering av varianter av bilder eller videoer for å omgå deteksjon.
  • Automatisert flerspråklig oversettelse: Oversettelse av tekstbasert propaganda til flere språk.
  • Fullstendig syntetisk propaganda: Skaper kunstig innhold, for eksempel taler og bilder.
  • Resirkulering av varianter: Omforming av gammel propaganda til "nye" versjoner.
  • Personlig tilpasset propaganda: Tilpass budskap for målrettet rekruttering.
  • Undergraver moderasjon: Utforming av innhold for å omgå eksisterende modereringsteknikker.

Muligheter og utfordringer:

  • Proaktive løsninger og samarbeid, som "red-teaming", er nødvendig for å identifisere og redusere risiko.
  • Småskalaforekomster av kunstig intelligens brukt av TVE-aktører signaliserer en fremvoksende trussel, noe som krever tekniske løsninger og politikkutforming.

Fremtidige bekymringer:

  • Ekstremistgrupper vil sannsynligvis fortsette å utforske AI-verktøy for å styrke propagandastrategier.
  • Uoffisielle voldelige ekstremistiske medier kan utnytte AI-verktøy mer aggressivt på grunn av mangel på ressurser og originalmateriale.

Selv om risikoen for at generativ AI blir tatt i bruk i stor skala av TV-selskaper, er lav, tyder nye mønstre på en økende trussel. 

Deep fakes og andre former for AI-støttet manipulasjon utgjør en presserende risiko som teknologiselskapene sliter med å kontrollere. 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser