AI-billedvandmærker virker ikke og kommer nok aldrig til det

3. oktober 2023

dyb falsk AI

Virksomheder forsøger at bruge digitale vandmærker til at identificere AI-billeder, men ny forskning viser, at deres indsats kan være forgæves.

Et hold forskere fra University of Maryland testede avancerede billedvandmærkningsteknikker, og resultaterne var ikke gode.

Soheil Feizi, professor i datalogi ved University of Maryland, sagde, at hans team testede alle eksisterende vandmærketeknikker og ødelagde dem alle.

Den forskningsartikel anerkender, at vandmærkning ser ud til at være det mest lovende forsvar mod dybe forfalskninger, men skitserer derefter manglerne i de nuværende tilgange.

De to vigtigste metoder til vandmærkning er lav og høj forstyrrelse.

Metoden med lav forstyrrelse indebærer en subtil ændring af et billede, som er umærkelig for øjet, men som stadig kan registreres digitalt. Disse metoder viste en afvejning mellem ydeevne og falske positiver. Jo bedre metoden var til at identificere en AI-falsk, jo mere sandsynligt var det, at den fejlagtigt identificerede et ægte billede som falsk.

Høj forstyrrelse indebærer, at der tilføjes et synligt element til billedet, hvilket anses for at være en mere robust tilgang. Forskerne var også i stand til at fjerne alle disse vandmærker. Deres "model substitution adversarial attack"-metode fjernede endda de mere subtile og avancerede vandmærker i form af træringe.

Da AI fortsætter med at skabe og sprede misinformation, har vi brug for en effektiv måde at se, hvornår et billede eller en video er skabt af AI. Denne undersøgelse konkluderer dog, at en effektiv løsning ser mere og mere usandsynlig ud, om end ikke umulig.

Feizis team testede kun de tilgængelige vandmærker. Google og Meta arbejder på deres egne vandmærketeknologier, men de var ikke tilgængelige for test endnu.

Alligevel mener Feizi, at deres forskning viser, at selv de store teknologivirksomheder ikke vil kunne levere en idiotsikker løsning. A artikel udgivet af forskere fra University of California konkluderede, at "alle usynlige vandmærker er sårbare."

Efterhånden som generativ AI bliver bedre, vil det sandsynligvis blive sværere at identificere et AI-genereret billede. Så selv om kommercielle AI-billedgeneratorer som DALL-E eller Midjourney anvender et effektivt vandmærke, er der ikke noget, der tvinger andre modeller til at gøre det.

Det andet problem, der blev fremhævet i Feizis forskning, er, at de var i stand til at indføre AI-vandmærker i billeder, der ikke var AI-genererede.

Problemet med dette er, at når man bliver præsenteret for fotografisk bevismateriale, kan dårlige aktører anvende et AI-vandmærke på det i et forsøg på at miskreditere bevismaterialet.

Vi må se, hvordan Googles og Metas vandmærker klarer sig mod Feizis teams brute-force-angreb. Indtil videre ser det ud til, at vi bliver nødt til at minde os selv om, at man ikke skal tro, hvad man ser.

 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser