AI-bilddetektorer kan luras genom att lägga till textur i bilder

2 juli 2023

Falska AI-bilder kan lura AI-bilddetektorer

Några av de bästa AI-bilddetektorerna kan luras genom att lägga till textur i bilden eller genom att försämra bilden något.

Även om AI-genererade bilder inte har funnits särskilt länge vet vi att vi inte ska lita på våra ögon. Men det visar sig att vi inte ens kan lita på de maskiner som är tänkta att tala om för oss om en bild är äkta eller falsk.

Ett nyligen genomfört experiment rapporterade av New York Times fann att för det mesta AI-bilddetektorer som Bikupa eller Umm-maybe kunde klassificera AI-genererade bilder korrekt. Det vill säga tills de lade till korn i bilden.

När de försämrade bilderna genom att lägga till en liten mängd korn, eller pixligt brus, var detektorerna mestadels övertygade om att de AI-genererade bilderna var verkliga. I ett fall bedömdes en svartvit bild av en man först ha en 99% sannolikhet att vara AI-genererad. Genom att lägga till en liten mängd korn sänkte detektorn plötsligt sannolikheten till 3,3% och sa i princip att bilden nästan säkert var verklig.

När falska bilder av påven i en Balenciaga-puffer lurar vissa människor är det ofarligt kul. Men när AI-genererade bilder används i val och inte kan identifieras som falska kan konsekvenserna bli mer allvarliga.

Ron DeSantis kritiserades nyligen för att ha använt AI-genererade bilder i sin kampanj. Hans kampanj varvade 3 verkliga bilder av Trump med 3 AI-genererade bilder av Trump som omfamnar och kysser Dr. Anthony Fauci. Agence France-Press var den första att peka ut förfalskningarna.

Om du till och med är vagt bekant med Trumps politik behöver du inte programvara för att berätta att ett foto av honom som kysser Fauci är falskt. Men AI-bilddetektorer använder inte sammanhanget eller ämnet för att avgöra om ett foto är riktigt eller inte. De tittar på avslöjande pixelmönster som AI-bildgeneratorer producerar när de gör en bild.

Det visar sig att om man tar dessa högupplösta bilder och försämrar dem bara lite grann, så kommer till och med de bästa AI-falskdetektorerna ofta att säga att bilden är äkta. Även om man ber Midjourney att ta fram ett vintagefoto av dålig kvalitet räcker det för att lura vissa av dessa verktyg.

Det är en intressant utveckling, men hur betydelsefull den är återstår att se. De verkliga konsekvenserna av AI-genererad desinformation kommer sannolikt inte att kunna undvikas med idiotsäkra detektorer. En hälsosam dos av skepticism och att utbilda människor om riskerna med att lita på sina ögon kommer sannolikt att vara mycket mer effektivt. 

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar