Australische autoriteiten starten onderzoek naar expliciete vervalsingen van AI-dieptes

13 juni 2024

  • Australische autoriteiten onderzoeken een diep nepincident op een school in Melbourne
  • Volgens de politie zijn er expliciete afbeeldingen van zo'n 50 kinderen gemaakt.
  • Diepe nepincidenten gericht tegen jonge kinderen komen steeds vaker voor
Diepe vervalsingen

De politie in Australië is een onderzoek gestart naar de verspreiding van door AI gegenereerde pornografische afbeeldingen van ongeveer 50 schoolmeisjes, waarbij de dader vermoedelijk een tienerjongen is. 

In een interview met ABC op woensdag onthulde Emily, de moeder van een 16-jarig meisje dat op Bacchus Marsh Grammar zit, dat haar dochter fysiek ziek werd nadat ze de "verminkte" afbeeldingen online had bekeken.

"Ik haalde mijn dochter op van een logeerpartij en ze was erg overstuur en moest overgeven omdat de beelden ongelooflijk grafisch waren," legde ze uit aan ABC Radio Melbourne.

De school gaf een verklaring uit waarin ze haar toewijding aan het welzijn van de studenten uitsprak, waarin ze aangaf counseling aan te bieden en samen te werken met de politie.

"Het welzijn van onze studenten en hun families bij Bacchus Marsh Grammar is een topprioriteit en wordt actief aangepakt," aldus de directeur van Bacchus Marsh Grammar. school vermeld.

Dit komt op het moment dat de Australische regering aandringt op strengere wetten voor niet-consensuele expliciete deep fakes, waarbij de gevangenisstraffen voor het genereren en delen van al dan niet door AI gegenereerde CSAM worden verhoogd naar maximaal zeven jaar.

Expliciete deep fakes in opmars

Experts zeggen dat online roofdieren die het dark web frequenteren steeds vaker gebruik maken van AI-tools - met name tekst-naar-beeld generators zoals Stability AI - om nieuwe CSAM te genereren.

Het is verontrustend dat deze makers van CSAM zich soms fixeren op overlevenden van kindermisbruik van wie beelden online circuleren. Kinderveiligheidsgroepen melden dat ze in chatrooms veel discussies hebben gevonden over het gebruik van AI om meer inhoud te maken met specifieke minderjarige "sterren" die populair zijn in deze misbruikgemeenschappen.

AI stelt mensen in staat om nieuwe expliciete beelden te creëren om de overlevenden te revictimiseren en te retraumatiseren.

"Mijn lichaam zal nooit meer het mijne zijn en dat is iets waar veel overlevenden mee worstelen", zei Leah Juliett, een activiste en overlevende van CSAM onlangs. vertelde de Guardian.

Een oktober 2023 rapport van de in het Verenigd Koninkrijk gevestigde Internet Watch Foundation bracht de omvang van door AI gegenereerde CSAM aan het licht. In het rapport werden meer dan 20.000 van dit soort afbeeldingen gevonden die in een maand tijd op één dark web forum waren geplaatst. 

De afbeeldingen zijn vaak niet te onderscheiden van authentieke foto's en laten zeer verontrustende inhoud zien, zoals de gesimuleerde verkrachting van baby's en peuters.

Vorig jaar werd een Rapport van de universiteit van Stanford onthulde dat honderden echte CSAM-beelden waren opgenomen in de LAION-5B database die wordt gebruikt om populaire AI-tools te trainen. Toen de database eenmaal open-source was, explodeerde volgens experts de creatie van door AI gegenereerde CSAM.

Recente arrestaties tonen aan dat het probleem niet theoretisch is en dat politiediensten wereldwijd actie ondernemen. In april bijvoorbeeld werd een Florida man werd aangeklaagd voor het vermeende gebruik van AI om expliciete beelden van een buurkind te genereren.

Vorig jaar heeft een man uit North Carolina - uitgerekend een kinderpsychiater - werd veroordeeld tot 40 jaar gevangenisstraf voor het maken van AI-gegenereerde kinderporno van zijn patiënten. 

En slechts enkele weken geleden kondigde het Amerikaanse ministerie van Justitie de arrestatie van de 42-jarige Steven Anderegg in Wisconsin voor het naar verluidt maken van meer dan 13.000 door AI gegenereerde misbruikbeelden van kinderen.

De huidige wetten zijn niet genoeg, zeggen wetgevers en voorstanders

Hoewel de meeste landen al wetten hebben die computergegenereerde CSAM strafbaar stellen, willen wetgevers de regelgeving versterken. 

Bijvoorbeeld in de VS, een tweepartijdig wetsvoorstel is geïntroduceerd om slachtoffers in staat te stellen makers van expliciete, niet-consensuele deepfakes aan te klagen. 

Er zijn echter nog enkele grijze gebieden waar het moeilijk is om precies te bepalen welke wetten door dergelijke activiteiten worden overtreden. 

In Spanje werd bijvoorbeeld een jonge student aangetroffen die expliciete afbeeldingen van klasseleden gegenereerd met AI. Sommigen voerden aan dat dit onder de pedofiliewetgeving zou vallen, wat zou leiden tot zwaardere aanklachten, terwijl anderen zeiden dat het onder de huidige wet niet aan die criteria kon voldoen. 

Een soortgelijk incident vond plaats bij een school in New Jerseyen laat zien hoe kinderen deze AI-tools naïef gebruiken en zichzelf daarbij blootstellen aan extreme risico's. 

Techbedrijven achter AI-afbeeldingsgeneratoren verbieden het gebruik van hun tools om illegale inhoud te maken. Veel krachtige AI-modellen zijn echter open-source en kunnen offline privé worden uitgevoerd, dus de doos kan niet volledig worden gesloten. 

Bovendien is een groot deel van de criminele activiteiten verschoven naar versleutelde berichtenplatforms, waardoor opsporing nog moeilijker wordt.

Als AI de doos van Pandora heeft geopend, is dit zeker een van de gevaren die erin schuilen.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden