AI-beelddetectors kunnen worden misleid door textuur aan afbeeldingen toe te voegen

2 juli 2023

Valse AI-beelden kunnen AI-beelddetectors misleiden

Sommige van de beste AI-beelddetectors kunnen voor de gek worden gehouden door textuur aan de afbeelding toe te voegen of door de afbeelding iets te vervormen.

Hoewel AI-gegenereerde afbeeldingen nog niet zo lang bestaan, weten we wel beter dan onze ogen te vertrouwen. Maar het blijkt dat we niet eens de machines kunnen vertrouwen die ons moeten vertellen of een afbeelding echt of nep is.

Een recent experiment gerapporteerd door de New York Times ontdekten dat AI-beelddetectors zoals Hive of Umm-maybe in staat waren om AI-gegenereerde afbeeldingen correct te classificeren. Totdat ze korrel aan de afbeelding toevoegden.

Als ze de afbeeldingen verslechterden door een kleine hoeveelheid korrel of pixelachtige ruis toe te voegen, waren de detectors er meestal van overtuigd dat de door AI gegenereerde afbeeldingen echt waren. In één geval werd een zwart-wit afbeelding van een man eerst correct beoordeeld met een waarschijnlijkheid van 99% dat deze door AI was gegenereerd. Door een kleine hoeveelheid korrel toe te voegen verlaagde de detector die waarschijnlijkheid plotseling naar 3,3%, waarmee hij in wezen zei dat de afbeelding vrijwel zeker echt was.

Als nepafbeeldingen van de paus in een Balenciaga-puffer sommige mensen voor de gek houden, is dat onschuldig. Maar als AI-gegenereerde afbeeldingen worden gebruikt bij verkiezingen en niet kunnen worden geïdentificeerd als nep, dan kunnen de gevolgen rampzaliger zijn.

Ron DeSantis werd onlangs bekritiseerd voor het gebruik van AI-gegenereerde beelden in zijn campagne. Zijn campagne wisselde 3 echte beelden van Trump af met 3 AI-gegenereerde beelden van Trump die Dr. Anthony Fauci omhelst en kust. Franse pers was de eerste die de vervalsingen aanwees.

Als je ook maar een beetje bekend bent met de politiek van Trump, dan heb je geen software nodig om je te vertellen dat een foto waarop hij Fauci kust nep is. Maar AI-beelddetectors gebruiken de context of het onderwerp niet om te beslissen of een foto echt is of niet. Ze kijken naar pixelpatronen die AI-afbeeldingsgeneratoren produceren bij het maken van een afbeelding.

Het blijkt dat als je deze hoge-resolutie afbeeldingen neemt en ze een beetje degradeert, zelfs de beste AI-detectors vaak zullen zeggen dat de afbeelding echt is. Zelfs Midjourney vragen om een vintage foto van slechte kwaliteit te maken is genoeg om sommige van deze tools voor de gek te houden.

Het is een interessante ontwikkeling, maar hoe belangrijk die is, valt nog te bezien. De gevolgen in de echte wereld van AI-gegenereerde desinformatie kunnen waarschijnlijk niet worden vermeden door waterdichte detectoren. Een gezonde dosis scepsis en mensen voorlichten over de risico's van het vertrouwen op hun ogen zal waarschijnlijk veel effectiever zijn. 

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Eugene van der Watt

Eugene heeft een achtergrond in elektrotechniek en houdt van alles wat met techniek te maken heeft. Als hij even pauzeert van het consumeren van AI-nieuws, kun je hem aan de snookertafel vinden.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden