Kunstig intelligens utnyttes til å lage bilder av seksuelle overgrep mot barn i et alarmerende tempo, noe som utløser frykt for en overveldende trussel mot sikkerheten på Internett, advarer Internet Watch Foundation (IWF).
Den britiske vakthunden har identifisert nesten 3000 AI-genererte bilder som bryter med britiske lover.
Den IWF rapporterte at AI-modeller blir matet med bilder av faktiske overgrepsofre, noe som genererer nytt krenkende innhold. I tillegg brukes teknologien til å produsere bilder av mindreårige kjendiser i overgrepsscenarioer og "nakenbilder" av påkledde barn som finnes på nettet.
Det finnes en rekke internasjonale tilfeller av dypt falske overgrep mot barn, inkludert en nylig sak der flere spanske kvinnelige skoleelever ble utsatt for seksualiserte AI-genererte bilder. I juni ble journalister fra BBC avslørte pedofile AI-bilder som sirkulerer på plattformer som Patreon.
Susie Hargreaves, administrerende direktør i IWF, uttrykte at deres "verste mareritt har gått i oppfyllelse", og understreket at AI-teknologien i stadig større grad brukes til ondsinnede formål.
Stiftelsen har tidligere i sommer påpekt den nye trusselen, og bekrefter nå en betydelig økning i forekomsten av AI-generert materiale om seksuelle overgrep mot barn (CSAM).
I den månedslange etterforskningen av et forum for overgrep mot barn på det mørke nettet ble det avdekket at 2 978 av 11 108 bilder brøt med britisk lov. 20% av innholdet ble kategorisert som den mest alvorlige formen for krenkende innhold.
Dan Sexton, IWFs Chief Technology Officer, påpekte at Stable Diffusion, en allment tilgjengelig AI-modell med åpen kildekode, var det primære verktøyet som ble diskutert på forumet for å skape CSAM.
Som en åpen kildekode-modell kommer ikke Stable Diffusion nødvendigvis med de samme sikkerhetsmekanismene som kommersielle bildegenereringsmodeller som DALL-E 3.
Håndtering av utnyttende AI-generert innhold på sosiale medier
Sosiale medier har blitt arnested for seksuelt eksplisitt og utnyttende AI-generert innhold.
Populære sosiale medier som Facebook, Instagram og TikTok er under lupen for å være vertskap for reklame som seksualiserer AI-avatarer og fremme voksenfokuserte applikasjoner.
Annonsene er eksplisitte og innebærer seksualisering av barnelignende figurer, og utnytter smutthull i innholdsmodereringssystemene.
Til tross for at Meta og TikTok forsøker å fjerne disse annonsene, unngår det AI-genererte innholdet ofte automatiserte filtre. Den inkonsekvente aldersmerkingen av disse appene, i tillegg til at de er tilgjengelige over hele verden, kompliserer problemet ytterligere.
Etter hvert som AI-algoritmene blir stadig mer sofistikerte, utgjør skapelsen av ultrarealistiske bilder, videoer og lyd en betydelig trussel mot enkeltpersoner, bedrifter og samfunnet som helhet.
FBIs Advarsler om AI-sextortion tidligere i år, som særlig involverte mindreårige, understreket hvor viktig det er å ta tak i dette problemet. Det ser bare ut til å akselerere.