En BBC-undersøkelse viser at pedofile utnytter AI-teknologi til å generere og distribuere realistiske bilder av seksuelle overgrep mot barn.
Disse ulovlige AI-genererte bildene er vanligvis tilgjengelige via innholdsdelingssider som Patreon. Det nasjonale politisjefrådet (NPCC) uttrykte indignasjon og fremhevet det "skandaløse" i at enkelte plattformer ikke tar "moralsk ansvar" til tross for at de tjener store penger.
GCHQ, den britiske regjeringens etterretnings- og cybersikkerhetsbyrå, reagerte på rapporten med følgende uttalelse: "Forbrytere som begår seksuelle overgrep mot barn, tar i bruk alle teknologier, og noen mener at fremtiden for overgrepsmateriale mot barn ligger i AI-generert innhold."
Folk bruker Stable Diffusion, en åpen kildekodebasert AI for bildegenerering, til å generere bildene. Med Stable Diffusion kan brukerne legge inn ord som beskriver det ønskede bildet.
Det er viktig å merke seg at en versjon av Stable Diffusion er åpen kildekode under Apache License 2.0, i motsetning til Mid Journey og DALL-E, som hindrer brukerne i å bruke prompter til å generere grafiske eller ulovlige bilder. Dette gir skaperne frie tøyler til å lage nesten hvilke bilder de vil.
BBC oppdaget tilfeller der Stable Diffusion ble brukt til å skape hyperrealistiske skildringer av seksuelle overgrep mot barn. Det britiske politiet har bekreftet at de allerede har kommet i kontakt med ulovlig AI-generert materiale.
Frilansforskeren og journalisten Octavia Sheepshanks, som undersøkte saken, delte sine funn med BBC via barneorganisasjonen NSPCC. "Etter at AI-genererte bilder ble mulig, har det vært en enorm flom ... det er ikke bare veldig unge jenter, de [pedofile] snakker om småbarn", bemerket hun.
I et annet tilfelle utnyttet brukere en VR-pornoplattform til å lage avatarer av mindreårige kvinner. En bruker skal ha tatt et bilde av en ekte mindreårig jente og lagt det over en av modellene.
I Storbritannia behandles datagenererte "pseudobilder" som viser seksuelle overgrep mot barn på samme måte som ekte bilder - og det er derfor ulovlig å besitte, publisere eller overføre slike bilder.
Ian Critchley, NSPCCs barnevernsleder, hevdet at selv om "syntetiske" bilder ikke avbilder faktiske barn, kan de føre til reell skade. Han advarte mot en potensiell eskalering i lovbryternes handlinger "fra tanke, til syntetisk, til faktisk misbruk av et levende barn".
Hvordan skapte og distribuerte de pedofile bildene?
Ifølge undersøkelsen består bildedistribusjonsprosessen av tre trinn:
- Pedofile genererer bilder ved hjelp av AI-programvare.
- Disse bildene markedsføres på plattformer som Pixiv, et japansk nettsted for deling av bilder.
- På disse plattformene finnes det lenker som leder kundene videre til mer eksplisitte bilder, som de kan få tilgang til ved å betale på nettsteder som Patreon.
Mange bildeskapere var aktive på Pixiv, som først og fremst ble brukt av manga- og animekunstnere.
Plattformen er imidlertid lokalisert i Japan, der det ikke er ulovlig å dele seksualiserte karikaturtegninger av mindreårige, noe som gjør det mulig for skaperne å promotere arbeidet sitt ved hjelp av grupper og hashtags.
Pixiv forbød alle fotorealistiske fremstillinger av seksuelt innhold som involverer mindreårige fra og med 31. mai. De opplyste også at de hadde forsterket overvåkingssystemene sine og bruker mer ressurser på å motvirke slikt innhold.
Sheepshanks sa til BBC at problemet involverer "distribusjon i industriell skala". Kommentarer på Pixiv tyder dessuten på at noen tilbyr overgrepsmateriale som ikke er AI-generert.
Mange Pixiv-kontoer inneholder lenker til deres "usensurerte innhold" på Patreon, en USA-basert plattform for deling av innhold som er verdsatt til rundt $4 milliarder pund (3,1 milliarder kroner).
Patreon har over 250 000 skapere, inkludert anerkjente kjendiser, journalister og forfattere. Etterforskningen avdekket Patreon-kontoer som åpent solgte AI-genererte obskøne bilder av barn, med priser som varierte avhengig av type materiale.
Stabilitet AI og Patreon reagerer
Da Patreon fikk se et eksempel, bekreftet de at det var i strid med retningslinjene deres, og kontoen ble umiddelbart fjernet.
Stable Diffusion, AI-bildegeneratoren som brukes til å lage disse bildene, ble utviklet gjennom et globalt samarbeid mellom akademikere og selskaper ledet av britiske Stability AI. Som nevnt har åpen kildekode-versjonen av programvaren ingen filtre, noe som gjør det mulig å produsere et hvilket som helst bilde.
Stability AI svarte med å innskjerpe forbudet mot misbruk av programvaren til ulovlige eller umoralske formål, inkludert seksuelt overgrepsmateriale mot barn (CSAM).
De erklærte at de vil gi sin fulle støtte til politiets innsats for å bekjempe ulovlig bruk av deres produkter.
Ian Critchley fra NPCC uttrykte bekymring for at tilstrømningen av AI-genererte eller "syntetiske" bilder kan hindre identifiseringsprosessen av faktiske overgrepsofre. Han sa: "Det skaper et ekstra behov for politiarbeid og rettshåndhevelse for å identifisere hvor et faktisk barn, uansett hvor i verden det befinner seg, blir misbrukt, i motsetning til et kunstig eller syntetisk barn."
Critchley la til at samfunnet har nådd et "avgjørende øyeblikk" når det gjelder å avgjøre om internett og teknologi vil skape muligheter eller bli en kilde til større skade.
NSPCC sluttet seg til disse synspunktene, og oppfordret teknologiselskaper til å iverksette tiltak mot den alarmerende hastigheten som overgripere har tatt i bruk ny teknologi med.
Anna Edmundson, som er leder for politikk og samfunnskontakt i organisasjonen, hevdet at selskapene var klar over disse potensielle risikoene, men at de ikke har iverksatt vesentlige tiltak, og understreket at det "ikke lenger finnes noen unnskyldninger for passivitet".
En talsperson for regjeringen uttalte følgende: "Lovforslaget om sikkerhet på nettet vil kreve at selskaper iverksetter proaktive tiltak for å bekjempe alle former for seksuelt misbruk av barn på nettet, inkludert grooming, direktesendinger, materiale om seksuelt misbruk av barn og forbudte bilder av barn - ellers må de betale store bøter."
Storbritannias Lovforslag om sikkerhet på nettet ble først og fremst utarbeidet før generativ AI ble "mainstream", men har fortsatt til hensikt å kontrollere tilfeller av AI-relatert skade på nettet.
Bekymringene rundt dyp forfalskning øker
Dette setter ytterligere søkelys på AIs rolle i bedrageri og cyberkriminalitet. Fremveksten av "deep fakes", ultrarealistiske AI-genererte bilder, video eller lyd, har ført til en rekke etiske og sikkerhetsmessige bekymringer.
Deep fakes bruker AI-algoritmer til å trekke ut mønstre i ansiktsbevegelser, stemmemoduleringer og kroppsspråk fra eksisterende lyd- eller videoinnhold. Ved hjelp av analysen kan kunstig intelligens skape svært overbevisende forfalskninger som er nesten umulige å skille fra den ekte varen.
I tillegg vil AI-genererte overgrep mot barn sannsynligvis utfordre eksisterende lovgivning rundt om i verden. Mens AI-genererte ulovlige bilder av barn behandles på samme måte som ekte bilder i Storbritannia, er det ikke sikkert at dette er tilfelle andre steder.
Lovgiverne har vanskelig for å holde tritt med kunstig intelligens, som er langt mer smidig enn tungrodde lovgivningsprosesser.
I mellomtiden utvisker svindlere og kriminelle grensene mellom hva som er ekte og hva som ikke er det, samtidig som de utnytter hull i loven.
Det første høyprofilerte tilfellet av AI-støttet svindel skjedde i 2019 da svindlere brukte kunstig intelligens til å utgi seg for å være en administrerende direktørs stemme for å overbevise en toppleder om å overføre 220 000 euro ($243 000), under påskudd av at det gjaldt en hastebetaling til en leverandør. Lederen trodde han snakket med konsernsjefen, men i virkeligheten snakket han med en falsk person.
Tidligere i år ble et falskt bilde av en eksplosjonen i Pentagon sirkulerte på sosiale medier, noe som førte til at det amerikanske aksjemarkedet midlertidig falt med 0,3%.
Mange er bekymret for at kunstig intelligens vil bli brukt til å lage falske nyhetsreportasjer eller ærekrenkende innhold om politiske personer. Politikere bruker allerede AI-genererte innhold for å styrke kampanjene deres.
I tillegg har det vært en økning i ikke-samtykkebasert deep fake-pornografi, der personers ansikter legges inn på eksplisitte bilder eller videoer uten samtykke.
Den FBI advarte om AI-sextortion tidligere i juni: "Ondsinnede aktører bruker innholdsmanipuleringsteknologier og -tjenester for å utnytte bilder og videoer - vanligvis tatt fra en persons konto på sosiale medier, åpent internett eller på forespørsel fra offeret - til bilder med seksuelt tema som ser ut som om de ligner offeret, for deretter å spre dem på sosiale medier, offentlige fora eller pornografiske nettsteder. Mange ofre, deriblant mindreårige, er uvitende om at bildene deres er blitt kopiert, manipulert og spredt, helt til de blir gjort oppmerksom på det av noen andre."
En britisk dokumentarfilm, Min blonde GFutforsker et virkelig tilfelle av falsk hevnporno som grep livet til forfatteren Helen Mort.
Teknologiselskaper som Google, Twitter og Facebook utvikler verktøy for å identifisere dypt falskt innhold, men etter hvert som kunstig intelligens blir mer sofistikert, kan slike mekanismer bli mindre pålitelige.
Selv om det gjøres fremskritt, må enkeltpersoner, bedrifter og samfunnet som helhet holde seg informert om de potensielle risikoene ved deep fake-teknologi, som har blitt fremhevet som en av de mest overhengende og presserende risikoene ved AI.