AI-billeddetektorer kan snydes ved at tilføje tekstur til billeder

2. juli 2023

Falske AI-billeder kan narre AI-billeddetektorer

Nogle af de bedste AI-billeddetektorer kan narres ved at tilføje tekstur til billedet eller ved at forringe billedet en smule.

Selv om AI-genererede billeder ikke har eksisteret ret længe, ved vi godt, at vi ikke skal stole på vores øjne. Men det viser sig, at vi ikke engang kan stole på de maskiner, der skal fortælle os, om et billede er ægte eller falsk.

Et nyligt eksperiment rapporteret af New York Times fandt ud af, at for det meste AI-billeddetektorer som Bikube eller Umm-maybe var i stand til at klassificere AI-genererede billeder korrekt. Lige indtil de tilføjede korn til billedet.

Når de forringede billederne ved at tilføje en lille mængde korn eller pixeleret støj, var detektorerne for det meste overbeviste om, at de AI-genererede billeder var ægte. I et tilfælde blev et sort-hvidt billede af en mand først korrekt vurderet til at have en 99% sandsynlighed for at være AI-genereret. Ved at tilføje en lille smule korn faldt sandsynligheden pludselig til 3,3%, hvilket i bund og grund betød, at billedet næsten helt sikkert var ægte.

Når falske billeder af paven i en Balenciaga-puffer narrer nogle mennesker, er det harmløs sjov. Men når AI-genererede billeder bruges til valg og ikke kan identificeres som falske, kan konsekvenserne være mere alvorlige.

Ron DeSantis blev for nylig kritiseret for at bruge AI-genererede billeder i sin kampagne. Hans kampagne blandede 3 virkelige billeder af Trump med 3 AI-genererede billeder af Trump, der omfavner og kysser Dr. Anthony Fauci. Agence France-Press var den første til at påpege forfalskningerne.

Hvis du er bare nogenlunde bekendt med Trumps politik, har du ikke brug for software til at fortælle dig, at et foto af ham, der kysser Fauci, er falsk. Men AI-billeddetektorer bruger ikke konteksten eller motivet til at afgøre, om et foto er ægte eller ej. De ser på afslørende pixelmønstre, som AI-billedgeneratorer producerer, når de laver et billede.

Det viser sig, at hvis man tager disse højopløselige billeder og forringer dem bare en smule, så vil selv de bedste AI-falske detektorer ofte sige, at billedet er ægte. Selv hvis man beder Midjourney om at producere et vintagefoto af dårlig kvalitet, er det nok til at narre nogle af disse værktøjer.

Det er en interessant udvikling, men hvor betydningsfuld den er, er endnu uvist. Konsekvenserne i den virkelige verden af AI-genereret misinformation er usandsynligt, at de kan undgås med idiotsikre detektorer. En sund dosis skepsis og uddannelse af folk om risikoen ved at stole på deres øjne vil sandsynligvis være langt mere effektivt. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser