Pædofile bruger AI til at generere billeder af børnemishandling

28. juni 2023

AI Patreon

En BBC-undersøgelse viste, at pædofile udnytter AI-teknologi til at generere og distribuere realistiske billeder af seksuelt misbrug af børn.

Disse ulovlige AI-genererede billeder får man typisk adgang til via indholdsdelingssider som Patreon. National Police Chief's Council (NPCC) udtrykte forargelse og fremhævede nogle platformes "skandaløse" manglende evne til at påtage sig "moralsk ansvar" på trods af, at de tjente store penge. 

GCHQ, den britiske regerings efterretnings- og cybersikkerhedsagentur, reagerede på rapporten ved at sige: "Krænkere af seksuelt misbrug af børn tager alle teknologier i brug, og nogle mener, at fremtiden for materiale om seksuelt misbrug af børn ligger i AI-genereret indhold."

Folk bruger Stable Diffusion, en open source billedgenererings-AI, til at generere billederne. Stable Diffusion giver brugerne mulighed for at indtaste ord, der beskriver det ønskede billede.

Det er vigtigt, at en version af Stable Diffusion er open source under Apache License 2.0, i modsætning til Mid Journey og DALL-E, som forhindrer brugerne i at bruge prompts til at generere grafiske eller ulovlige billeder. Det giver skaberne frie tøjler til at skabe næsten alle de billeder, de ønsker. 

BBC opdagede tilfælde, hvor Stable Diffusion blev brugt til at skabe hyperrealistiske skildringer af seksuelt misbrug af børn. Det britiske politi har bekræftet, at de allerede er kommet i kontakt med ulovligt AI-genereret materiale. 

Freelance researcher og journalist Octavia Sheepshanks, som undersøgte sagenHun delte sine resultater med BBC via børneorganisationen NSPCC. "Siden AI-genererede billeder blev mulige, har der været denne enorme oversvømmelse ... det er ikke kun meget unge piger, de [pædofile] taler om småbørn," bemærkede hun. 

I et andet tilfælde udnyttede brugere en VR-pornoplatform til at skabe avatarer af mindreårige kvinder. En bruger tog angiveligt et billede af en rigtig mindreårig pige og lagde det oven på en af modellerne.

Den britiske lov behandler computergenererede "pseudobilleder", der viser seksuelt misbrug af børn, som rigtige billeder - så det er ulovligt at besidde, offentliggøre eller overføre dem. 

NSPCC's chef for beskyttelse af børn, Ian Critchley, hævdede, at selv om "syntetiske" billeder ikke viser rigtige børn, kan de føre til reel skade. Han advarede om en potentiel eskalering i gerningsmændenes handlinger "fra tanke til syntetisk til faktisk misbrug af et levende barn."

Hvordan skabte og distribuerede de pædofile billederne?

Ifølge undersøgelsen involverer billedfordelingsprocessen 3 trin:

  • Pædofile genererer billeder ved hjælp af AI-software.
  • Disse billeder promoveres på platforme som Pixiv, et japansk website til billeddeling.
  • Der er links på disse platforme, som leder kunderne til mere eksplicitte billeder, som de kan få adgang til ved at betale på sider som Patreon.

Mange billedskabere var aktive på Pixiv, som primært blev brugt af manga- og animekunstnere. 

Platformen er dog hostet i Japan, hvor det ikke er ulovligt at dele seksualiserede tegninger af mindreårige, hvilket gør det muligt for skaberne at promovere deres arbejde ved hjælp af grupper og hashtags.

Pixiv forbød alle fotorealistiske afbildninger af seksuelt indhold, der involverer mindreårige, fra den 31. maj. De erklærede også, at de havde styrket deres overvågningssystemer og afsætter flere ressourcer til at modvirke sådant indhold.

Sheepshanks fortalte BBC, at problemet involverer "distribution i industriel skala". Desuden viser kommentarer på Pixiv, at nogle tilbyder ikke-AI-genereret misbrugsmateriale.

Mange Pixiv-konti indeholder links til deres "ucensurerede indhold" på Patreon, en amerikansk baseret indholdsdelingsplatform, der er vurderet til omkring $4 milliarder (£3,1 milliarder).

Patreon har over 250.000 skabere, herunder kendte berømtheder, journalister og forfattere. Undersøgelsen afslørede Patreon-konti, der åbent solgte AI-genererede obskøne børnebilleder, hvor priserne varierede alt efter materialetype.

Stabilitets-AI og Patreon reagerer

Da Patreon fik vist et eksempel, bekræftede de, at det var i strid med deres politik, og kontoen blev straks fjernet. 

Stable Diffusion, den AI-billedgenerator, der blev brugt til at skabe disse billeder, blev udviklet gennem et globalt samarbejde mellem akademikere og virksomheder under ledelse af Stability AI i Storbritannien. Som nævnt har open source-versionen af softwaren ingen filtre, hvilket gør det muligt at producere et hvilket som helst billede. 

Stability AI reagerede ved at skærpe sit forbud mod misbrug af sin software til ulovlige eller umoralske formål, herunder materiale om seksuelt misbrug af børn (CSAM).

De erklærede, at de kraftigt ville støtte politiets indsats for at bekæmpe ulovlig brug af deres produkter.

Ian Critchley fra NPCC udtrykte bekymring for, at tilstrømningen af AI-genererede eller "syntetiske" billeder kunne hæmme identifikationsprocessen for faktiske overgrebsofre. Han sagde: "Det skaber yderligere efterspørgsel, hvad angår politiarbejde og retshåndhævelse, for at identificere, hvor et faktisk barn, uanset hvor det er i verden, bliver misbrugt i modsætning til et kunstigt eller syntetisk barn." 

Critchley tilføjede, at samfundet er nået til et "afgørende øjeblik", hvor det skal afgøres, om internettet og teknologien vil give muligheder eller blive en kilde til større skade.

NSPCC gentog disse følelser og opfordrede tech-virksomheder til at gribe ind over for den alarmerende hastighed, hvormed overgrebsmænd har taget nye teknologier til sig. 

Anna Edmundson, velgørenhedsorganisationens chef for politik og offentlige anliggender, hævdede, at virksomhederne var klar over disse potentielle risici, men ikke har taget væsentlige skridt, og understregede, at der ikke kan være "flere undskyldninger for passivitet".

En talsmand for regeringen sagde som svar: "Lovforslaget om onlinesikkerhed vil kræve, at virksomheder tager proaktive skridt til at tackle alle former for seksuelt misbrug af børn på nettet, herunder grooming, live-streaming, materiale om seksuelt misbrug af børn og forbudte billeder af børn - eller får store bøder."

Storbritanniens Lovforslag om onlinesikkerhed blev primært udarbejdet, før generativ AI 'blev mainstream', men har stadig til hensigt at kontrollere tilfælde af online AI-relateret skade. 

Bekymringerne omkring dybe forfalskninger øges

Det sætter yderligere fokus på AI's rolle i forbindelse med bedrag og cyberkriminalitet. Fremkomsten af deep fakes, ultra-realistiske AI-genererede billeder, video eller lyd, har skabt en række etiske og sikkerhedsmæssige bekymringer.

Deep fakes bruger AI-algoritmer til at udtrække mønstre i ansigtsbevægelser, stemmemodulationer og kropssprog fra eksisterende lyd- eller videoindhold. Ved hjælp af deres analyse kan AI skabe meget overbevisende forfalskninger, som er næsten umulige at skelne fra den ægte vare.

Derudover vil AI-genereret børnemishandling sandsynligvis udfordre eksisterende lovgivning rundt om i verden. Mens AI-genererede ulovlige børnebilleder juridisk behandles på samme måde som rigtige billeder i Storbritannien, er det ikke sikkert, at det er tilfældet andre steder.

Lovgiverne har svært ved at holde trit med AI, som er langt mere smidig end klodsede lovgivningsprocesser.

I mellemtiden udvisker svindlere og kriminelle grænserne mellem, hvad der er ægte, og hvad der ikke er, mens de udnytter huller i loven.

Det første højt profilerede tilfælde af AI-understøttet svindel fandt sted i 2019 da svindlere brugte AI til at efterligne en CEO's stemme for at overbevise en ledende medarbejder om at overføre 220.000 euro ($243.000) under påskud af, at det drejede sig om en hastebetaling til en leverandør. Lederen troede, at han talte med den administrerende direktør, men i virkeligheden var han i kontakt med en falsk person.

Tidligere i år blev et falsk billede af en eksplosion i Pentagon cirkulerede på de sociale medier og fik det amerikanske aktiemarked til midlertidigt at falde med 0,3%.

Mange er bekymrede for, at AI vil blive brugt til at skabe falske nyhedsrapporter eller ærekrænkende indhold om politiske personer. Politikere bruger allerede AI-genererede indhold til at styrke deres kampagner.

Desuden er der sket en stigning i deep fake-pornografi uden samtykke, hvor personers ansigter lægges oven på eksplicitte billeder eller videoer uden samtykke.

Den FBI advarede om AI-sextortion tidligere i juni: "Ondsindede aktører bruger indholdsmanipulationsteknologier og -tjenester til at udnytte fotos og videoer, der typisk er taget fra en persons sociale mediekonto, det åbne internet eller anmodet om fra offeret, til billeder med seksuelt tema, der ser ud til at være virkelighedstro i forhold til et offer, og derefter cirkulere dem på sociale medier, offentlige fora eller pornografiske hjemmesider. Mange ofre, herunder mindreårige, er uvidende om, at deres billeder er blevet kopieret, manipuleret og spredt, indtil de bliver gjort opmærksom på det af en anden."

En britisk dokumentarfilm, Min blonde GFudforsker et virkeligt tilfælde af dybt falsk hævnporno, som greb forfatteren Helen Morts liv.

Teknologivirksomheder som Google, Twitter og Facebook er ved at udvikle værktøjer til at identificere dybt falsk indhold, men efterhånden som AI bliver mere sofistikeret, kan sådanne mekanismer blive mindre pålidelige.

Mens der sker fremskridt, skal enkeltpersoner, virksomheder og samfundet som helhed holde sig informeret om de potentielle risici ved deep fake-teknologi, som er blevet fremhævet som en af AI's mest overhængende og presserende risici.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser