DeepMind-undersøgelse afslører deep fakes som førende form for AI-misbrug

26. juni 2024

  • DeepMind og Jigsaw undersøgte 200+ tilfælde af AI-misbrug på tværs af platforme
  • Det viste sig, at AI-genererede deep fakes er den førende form for AI-misbrug
  • De fleste deep fakes er motiveret af intentionen om at manipulere meninger

AI har et utal af anvendelsesmuligheder, men en af de mest bekymrende er skabelsen af dybt falske medier og misinformation.

En ny undersøgelse fra Google DeepMind og Puslespilen Google-teknologiinkubator, der overvåger samfundsmæssige trusler, analyserede misbrug af AI mellem januar 2023 og marts 2024.

Den vurderede omkring 200 virkelige tilfælde af AI-misbrug og afslørede, at den mest almindelige form for ondsindet AI-brug er at skabe og udbrede vildledende falske medier, især rettet mod politikere og offentlige personer.

Deep fakes, syntetiske medier, der genereres ved hjælp af AI-algoritmer til at skabe meget realistiske, men falske billeder, videoer og lyd, er blevet mere virkelighedstro og udbredte. 

Hændelser som da eksplicitte falske billeder af Taylor Swift på X viste, at sådanne billeder kan nå ud til millioner af mennesker, før de slettes. 

Men det mest lumske er deep fakes rettet mod politiske emner, såsom Israel-Palæstina-konflikten. I nogle tilfælde kan ikke engang de faktatjekkere, der har til opgave at stemple dem som "AI-genererede", finde ud af, om de er ægte. 

DeepMind-undersøgelsen indsamlede data fra en række forskellige kilder, herunder sociale medieplatforme som X og Reddit, onlineblogs og medierapporter. 

Hver hændelse blev analyseret for at bestemme den specifikke type AI-teknologi, der blev misbrugt, det tilsigtede formål bag misbruget og det niveau af teknisk ekspertise, der kræves for at udføre den ondsindede aktivitet.

Deep fakes er den dominerende form for AI-misbrug

Resultaterne tegner et alarmerende billede af det nuværende landskab af ondsindet brug af AI:

  1. Deep fakes viste sig at være den dominerende form for AI-misbrug og stod for næsten dobbelt så mange hændelser som den næstmest udbredte kategori.
  2. Den næsthyppigst observerede form for AI-misbrug var brugen af sprogmodeller og chatbots til at generere og sprede misinformation online. Ved at automatisere skabelsen af vildledende indhold kan dårlige aktører oversvømme sociale medier og andre platforme med falske nyheder og propaganda i et hidtil uset omfang.
  3. Påvirkning af den offentlige mening og politiske fortællinger var den primære motivation bag over en fjerdedel (27%) af de analyserede tilfælde af AI-misbrug. Dette illustrerer den trussel, som deep fakes og AI-genereret desinformation udgør mod demokratiske processer og integriteten af valg verden over, hvilket vi har observeret fra Nylige højt profilerede hændelser.
  4. Økonomisk gevinst blev identificeret som den næstmest almindelige drivkraft for ondsindet AI-aktivitet, hvor skruppelløse aktører tilbød betalte tjenester for at skabe dybe forfalskninger, herunder eksplicitte billeder uden samtykke, og udnyttede generativ AI til at masseproducere falsk indhold med profit for øje.
  5. De fleste tilfælde af AI-misbrug involverede lettilgængelige værktøjer og tjenester, der krævede minimal teknisk ekspertise for at fungere. Denne lave adgangsbarriere udvider i høj grad puljen af potentielle ondsindede aktører, hvilket gør det lettere end nogensinde for enkeltpersoner og grupper at engagere sig i AI-drevet bedrag og manipulation.
DeepMind
Kortlægning af AI-misbrug til hensigt. Kilde: DeepMind.

Dr. Nahema Marchal fra DeepMind forklarede det udviklende landskab af AI-misbrug til Financial Times: "Der har været en masse forståelig bekymring omkring ret sofistikerede cyberangreb, der blev muliggjort af disse værktøjer", og fortsætter: "Det, vi så, var ret almindeligt misbrug af GenAI [såsom deep fakes, der] måske går lidt mere under radaren."

Politiske beslutningstagere, teknologivirksomheder og forskere skal arbejde sammen om at udvikle omfattende strategier til at opdage og modvirke deepfakes, AI-genereret desinformation og andre former for AI-misbrug.

Men sandheden er, at de allerede har forsøgt - og stort set fejlet. For nylig har vi observeret flere tilfælde af Børn bliver fanget i dybe, falske hændelserog viser, at den samfundsmæssige skade, de påfører, kan være alvorlig. 

I øjeblikket kan teknologivirksomheder ikke pålideligt opdage dybe forfalskninger i stor skala, og de vil kun blive mere realistiske og sværere at opdage med tiden. 

Og når tekst-til-video-systemer som OpenAI's Sora lander, vil der være en helt ny dimension af dybe forfalskninger at håndtere. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser