AI bliver udnyttet til at skabe billeder af seksuelt misbrug af børn i et alarmerende tempo, hvilket skaber frygt for en overvældende trussel mod internetsikkerheden, advarer Internet Watch Foundation (IWF).
Den britiske vagthund har identificeret næsten 3.000 AI-genererede billeder, der overtræder britisk lovgivning.
Den IWF rapporterede at AI-modeller bliver fodret med billeder af faktiske overgrebsofre, hvilket skaber nyt krænkende indhold. Derudover bruges teknologien til at producere billeder af mindreårige berømtheder i misbrugsscenarier og til at "nudificere" billeder af påklædte børn, der findes på nettet.
Der er mange internationale sager om dybt falsk børnemishandling, herunder en nylig sag hvor flere spanske kvindelige skolebørn blev angrebet med seksualiserede AI-genererede billeder. I juni blev journalister fra BBC afslørede pædofile AI-billeder der cirkulerer på platforme som Patreon.
Susie Hargreaves, IWF's administrerende direktør, udtrykte, at deres "værste mareridt er gået i opfyldelse", og understregede, at AI-teknologien accelererer til ondsindede formål.
Fonden har tidligere fremhævet den nye trussel i løbet af sommeren og bekræfter nu en betydelig stigning i forekomsten af AI-genereret materiale om seksuelt misbrug af børn (CSAM).
I den månedlange undersøgelse afslørede forskning i et forum for børnemishandling på det mørke net, at 2.978 ud af 11.108 billeder overtrådte britisk lov. 20% af indholdet blev kategoriseret som den mest alvorlige form for krænkende indhold.
Dan Sexton, IWF's Chief Technology Officer, påpegede, at Stable Diffusion, en bredt tilgængelig open source AI-model, var det primære værktøj, der blev diskuteret på forummet til at skabe CSAM.
Som open source-model kommer Stable Diffusion ikke nødvendigvis med de samme sikkerhedsforanstaltninger som kommercielle billedgenereringsmodeller som DALL-E 3.
Håndtering af udnyttende AI-genereret indhold på sociale medier
Sociale medieplatforme er blevet arnesteder for seksuelt eksplicit og udnyttende AI-genereret indhold.
Populære sociale medieplatforme som Facebook, Instagram og TikTok er i søgelyset for at være vært for reklamer der seksualiserer AI-avatarer og fremme voksenfokuserede applikationer.
Reklamerne er eksplicitte og involverer seksualisering af børnelignende figurer og udnytter smuthuller i indholdsmoderationssystemer.
På trods af Meta og TikToks bestræbelser på at fjerne disse reklamer undgår det AI-genererede indhold ofte de automatiske filtre. De inkonsekvente aldersvurderinger af disse apps samt deres globale tilgængelighed komplicerer problemet yderligere.
Efterhånden som AI-algoritmerne bliver mere sofistikerede, udgør skabelsen af ultrarealistiske billeder, videoer og lyd en betydelig trussel mod enkeltpersoner, virksomheder og samfundet som helhed.
FBI's Advarsler om AI-sextortion tidligere på året, som især involverede mindreårige, understregede, hvor vigtigt det er at tage fat på dette problem. Det ser kun ud til at accelerere.