AI-bildevannmerker fungerer ikke, og kommer sannsynligvis aldri til å gjøre det

3. oktober 2023

dyp falsk AI

Bedrifter prøver å bruke digitale vannmerker for å identifisere AI-bilder, men nyere forskning viser at innsatsen kan være forgjeves.

Et forskerteam fra University of Maryland testet de nyeste vannmerketeknikkene for bilder, og resultatene var ikke gode.

Soheil Feizi, professor i informatikk ved University of Maryland, sier at teamet hans har testet alle eksisterende vannmerketeknikker og ødelagt dem alle.

Den forskningsoppgave erkjenner at vannmerking ser ut til å være det mest lovende forsvaret mot dype forfalskninger, men skisserer deretter manglene ved dagens metoder.

De to hovedmetodene for vannmerking er lav og høy forstyrrelse.

Metoden med lav forstyrrelse innebærer at man gjør en subtil endring i et bilde som er umerkelig for øyet, men som likevel kan detekteres digitalt. Disse metodene viste en avveining mellom ytelse og falske positiver. Jo bedre metoden var til å identifisere en AI-falsk, desto mer sannsynlig var det at den feilaktig identifiserte et ekte bilde som falskt.

Høy forstyrrelse innebærer å legge til et synlig element i bildet, noe som anses som en mer robust tilnærming. Forskerne klarte å fjerne alle disse vannmerkene også. Deres "model substitution adversarial attack"-metode fjernet til og med de mer subtile og avanserte vannmerkene med treringer.

Etter hvert som kunstig intelligens fortsetter å bidra til å skape og spre desinformasjon, trenger vi en effektiv måte å finne ut når et bilde eller en video er skapt av kunstig intelligens. Denne undersøkelsen konkluderer imidlertid med at en effektiv løsning ser ut til å bli stadig mer usannsynlig, om enn ikke umulig.

Feizis team testet bare de tilgjengelige vannmerkene. Google og Meta jobber med sine egne vannmerketeknologier, men de var ikke tilgjengelige for testing ennå.

Likevel mener Feizi at forskningen deres tyder på at selv de store teknologiselskapene ikke vil levere en idiotsikker løsning. A artikkel publisert av forskere fra University of California konkluderte med at "alle usynlige vannmerker er sårbare".

Etter hvert som generativ AI blir bedre, vil det sannsynligvis bli vanskeligere å identifisere et AI-generert bilde. Så selv om kommersielle AI-bildegeneratorer som DALL-E eller Midjourney bruker et effektivt vannmerke, er det ingenting som tvinger andre modeller til å gjøre det.

Det andre problemet som Feizis forskning belyser, er at de klarte å innføre AI-vannmerker i bilder som ikke var AI-genererte.

Problemet med dette er at når man blir presentert for fotografisk bevismateriale, kan ondsinnede aktører bruke et AI-vannmerke på det i et forsøk på å diskreditere bevismaterialet.

Vi må se hvordan Googles og Metas vannmerker klarer seg mot Feizis teams brute-force-angrep. Foreløpig ser det ut til at vi må fortsette å minne oss selv på at det å se ikke er å tro.

 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser