Ifølge en ny rapport bruger voldelige ekstremister generative AI-værktøjer til at skabe indhold i stor skala og omgå beskyttelsesforanstaltninger og filtre i processen.
Intelligent virksomhed Teknologi mod terrorisme identificerede omkring 5.000 eksempler på AI-genereret indhold, herunder billeder med tilknytning til grupper som Hizbollah og Hamas.
Disse billeder vedrører ofte følsomme emner som krigen mellem Israel og Hamas, hvilket tyder på en strategisk brug af AI til at påvirke narrativer.
Der har været talrige eksempler af AI-genererede billeder, der implicerer både Israel og Palæstina i grusomheder og begivenheder, som de ikke har haft en finger med i spillet i. Deep fakes udgør en dobbelt trussel: falske billeder kan tolkes som ægte, og ægte billeder som falske.
Adam Hadley, administrerende direktør for Tech Against Terrorism, sagde: "Vores største bekymring er, at hvis terrorister begynder at bruge gen-AI til at manipulere billeder i stor skala, kan det meget vel ødelægge hash-deling som en løsning. Det er en enorm risiko."
📰 I nyhederne | Sådan udnytter voldelige ekstremister generative AI-værktøjer
Vores administrerende direktør, Adam Hadley, delte vores seneste indsigter om #AI og pilotprojekt med @Microsoft på @WIRED.
Læs mere her: https://t.co/AUhrNTZibJ pic.twitter.com/yqY95J3L8i
- Teknologi mod terrorisme (@techvsterrorism) 10. november 2023
Fra nynazistiske grupper, der bruger racistiske og antisemitiske AI-genererede billeder, til Islamisk Stat (IS), der udgiver vejledninger i sikker brug af generative AI-værktøjer, bliver omfanget af AI-misbrug stadig større.
Ekstremistiske grupper bruger også kunstig intelligens til at skabe flersproget propaganda og personaliserede rekrutteringsmeddelelser.
Problemet strækker sig ud over ekstremistisk propaganda. For eksempel rapporterede Internet Watch Foundation over 20.000 AI-genererede billeder af seksuelt misbrug af børn på et enkelt dark web-forum på en måned, hvilket understreger de bredere konsekvenser af AI-misbrug.
Hadley forsikrede, at der er mekanismer til at stoppe denne tendens, og foreslog: "Vi vil samarbejde med Microsoft for at finde ud af, om der er måder, hvorpå vi kan bruge vores materialearkiv til at skabe en slags gen AI-detektionssystem for at imødegå den nye trussel om, at gen AI vil blive brugt til terrorindhold i stor skala."
Hadley foreslår, at et sådant værktøj kan gøres tilgængeligt på tværs af flere platforme, så platformene kan slå ned på problematisk AI-genereret indhold uden at udvikle deres egne værktøjer.
Mere om rapporten
Tech Against Terrorism's intelligente operationer arkiverede over 5.000 AI-genererede indhold, der blev brugt af terrorister og voldelige ekstremister (TVE'er). De understreger, at dette udgør en lille del af den samlede mængde TVE-indhold, der identificeres årligt.
Den Rapport dækker primært indhold på tværs af islamistiske og højreekstreme ideologier og viser en bekymrende tendens til, at tv-stationer bruger generativ AI til propaganda.
Vigtige resultater og bekymringer
TV-netværk med tilknytning til Islamisk Stat (IS), Al-Qaeda-tilhængere og nynazister har eksperimenteret med generativ AI.
Exemplerne omfatter:
- IS' tekniske supportgruppe udgiver en guide til sikker brug af AI-indholdsgeneratorer.
- Nynazistiske meddelelseskanaler, der distribuerer AI-genererede racistiske og antisemitiske billeder.
- Højreekstreme propagandister bruger AI-genererede billedværktøjer til at skabe ekstremistiske memes.
- Pro-IS-brugere hævder at have brugt AI til transskription og oversættelse af IS-propaganda.
- Al-Qaeda-allierede medier udgiver AI-genererede propagandaplakater.
Potentielle risici ved udnyttelse af generativ AI
Det fremgår af rapporten:
- Medier, der gyder: Generering af varianter af billeder eller videoer for at omgå afsløring.
- Automatiseret oversættelse til flere sprog: Oversættelse af tekstbaseret propaganda til flere sprog.
- Fuldt syntetisk propaganda: Skabe kunstigt indhold, som f.eks. taler og billeder.
- Variant af genbrug: Genbrug af gammel propaganda til "nye" versioner.
- Personlig propaganda: Tilpasning af budskaber til målrettet rekruttering.
- Underminering af moderation: Design af indhold til at omgå eksisterende moderationsteknikker.
Muligheder og udfordringer:
- Der er brug for proaktive løsninger og samarbejde som "red-teaming" for at identificere og mindske risici.
- Små forekomster af AI brugt af TVE-aktører signalerer en ny trussel, der kræver tekniske løsninger og politisk beslutningstagning.
Fremtidige bekymringer:
- Ekstremistiske grupper vil sandsynligvis fortsætte med at udforske AI-værktøjer til at forstærke propagandastrategier.
- Uofficielle voldelige ekstremistiske medier udnytter måske AI-værktøjer mere aggressivt på grund af mangel på ressourcer og originalt materiale.
Selv om den nuværende risiko for udbredt anvendelse af generativ AI af tv-selskaber er lav, indikerer nye mønstre en stigende trussel.
Deep fakes og andre former for AI-understøttet manipulation udgør en presserende risiko, som teknologivirksomheder kæmper for at kontrollere.