AI-bildedetektorer kan lures ved å legge tekstur til bilder

2. juli 2023

Falske AI-bilder kan lure AI-bildedetektorer

Noen av de beste AI-bildedetektorene kan lures ved å legge til tekstur i bildet eller ved å forringe bildet noe.

Selv om AI-genererte bilder ikke har eksistert så lenge, vet vi at vi ikke bør stole på øynene våre. Men det viser seg at vi ikke engang kan stole på maskinene som skal fortelle oss om et bilde er ekte eller falskt.

Et nylig eksperiment rapportert av New York Times fant at AI-bildedetektorer som for det meste Bikube eller Umm-maybe klarte å klassifisere AI-genererte bilder korrekt. Helt til de la til korn i bildet.

Når de degraderte bildene ved å legge til en liten mengde korn, eller pikselstøy, ble detektorene stort sett overbevist om at de AI-genererte bildene var ekte. I ett tilfelle ble et svart-hvitt bilde av en mann først korrekt vurdert til å ha en sannsynlighet på 99% for å være AI-generert. Ved å legge til en liten mengde korn reduserte detektoren plutselig sannsynligheten til 3,3%, og sa dermed at bildet nesten helt sikkert var ekte.

Når falske bilder av paven i en Balenciaga-puffer lurer noen mennesker, er det harmløs moro. Men når AI-genererte bilder brukes i valg og ikke kan identifiseres som falske, kan konsekvensene bli mer alvorlige.

Ron DeSantis ble nylig kritisert for å bruke AI-genererte bilder i kampanjen sin. Kampanjen hans blandet tre virkelige bilder av Trump med tre AI-genererte bilder av Trump som omfavner og kysser Dr. Anthony Fauci. Agence France-Press var den første til å påpeke forfalskningene.

Hvis du er bare litt kjent med Trumps politikk, trenger du ikke programvare for å fortelle deg at et bilde av ham som kysser Fauci, er falskt. Men AI-bildedetektorer bruker ikke konteksten eller motivet for å avgjøre om et bilde er ekte eller ikke. De ser på de avslørende pikselmønstrene som AI-bildegeneratorer produserer når de lager et bilde.

Det viser seg at hvis du tar disse høyoppløselige bildene og forringer dem bare litt, vil selv de beste AI-falskedetektorene ofte si at bildet er ekte. Selv om du ber Midjourney om å produsere et vintage-bilde av dårlig kvalitet, er det nok til å lure noen av disse verktøyene.

Det er en interessant utvikling, men det gjenstår å se hvor stor betydning den får. De virkelige konsekvensene av AI-generert desinformasjon kan neppe unngås med idiotsikre detektorer. En sunn dose skepsis og opplysning om risikoen ved å stole på øynene sine vil sannsynligvis være langt mer effektivt. 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser