Bedrifter prøver å bruke digitale vannmerker for å identifisere AI-bilder, men nyere forskning viser at innsatsen kan være forgjeves.
Et forskerteam fra University of Maryland testet de nyeste vannmerketeknikkene for bilder, og resultatene var ikke gode.
Soheil Feizi, professor i informatikk ved University of Maryland, sier at teamet hans har testet alle eksisterende vannmerketeknikker og ødelagt dem alle.
Den forskningsoppgave erkjenner at vannmerking ser ut til å være det mest lovende forsvaret mot dype forfalskninger, men skisserer deretter manglene ved dagens metoder.
De to hovedmetodene for vannmerking er lav og høy forstyrrelse.
Metoden med lav forstyrrelse innebærer at man gjør en subtil endring i et bilde som er umerkelig for øyet, men som likevel kan detekteres digitalt. Disse metodene viste en avveining mellom ytelse og falske positiver. Jo bedre metoden var til å identifisere en AI-falsk, desto mer sannsynlig var det at den feilaktig identifiserte et ekte bilde som falskt.
Høy forstyrrelse innebærer å legge til et synlig element i bildet, noe som anses som en mer robust tilnærming. Forskerne klarte å fjerne alle disse vannmerkene også. Deres "model substitution adversarial attack"-metode fjernet til og med de mer subtile og avanserte vannmerkene med treringer.
Etter hvert som kunstig intelligens fortsetter å bidra til å skape og spre desinformasjon, trenger vi en effektiv måte å finne ut når et bilde eller en video er skapt av kunstig intelligens. Denne undersøkelsen konkluderer imidlertid med at en effektiv løsning ser ut til å bli stadig mer usannsynlig, om enn ikke umulig.
Feizis team testet bare de tilgjengelige vannmerkene. Google og Meta jobber med sine egne vannmerketeknologier, men de var ikke tilgjengelige for testing ennå.
Likevel mener Feizi at forskningen deres tyder på at selv de store teknologiselskapene ikke vil levere en idiotsikker løsning. A artikkel publisert av forskere fra University of California konkluderte med at "alle usynlige vannmerker er sårbare".
Etter hvert som generativ AI blir bedre, vil det sannsynligvis bli vanskeligere å identifisere et AI-generert bilde. Så selv om kommersielle AI-bildegeneratorer som DALL-E eller Midjourney bruker et effektivt vannmerke, er det ingenting som tvinger andre modeller til å gjøre det.
Det andre problemet som Feizis forskning belyser, er at de klarte å innføre AI-vannmerker i bilder som ikke var AI-genererte.
Problemet med dette er at når man blir presentert for fotografisk bevismateriale, kan ondsinnede aktører bruke et AI-vannmerke på det i et forsøk på å diskreditere bevismaterialet.
Vi må se hvordan Googles og Metas vannmerker klarer seg mot Feizis teams brute-force-angrep. Foreløpig ser det ut til at vi må fortsette å minne oss selv på at det å se ikke er å tro.