Vattenstämplar för AI-bilder fungerar inte och kommer förmodligen aldrig att göra det

3 oktober 2023

djup falsk AI

Företag försöker använda digitala vattenstämplar för att identifiera AI-bilder, men ny forskning visar att deras ansträngningar kan vara förgäves.

Ett forskarteam från University of Maryland testade de senaste teknikerna för vattenmärkning av bilder och resultaten var inte bra.

Soheil Feizi, professor i datavetenskap vid University of Maryland, sa att hans team testade alla befintliga vattenmärkningstekniker och bröt dem alla.

Den forskningsrapport erkänner att vattenmärkning verkar vara det mest lovande försvaret mot djupa förfalskningar, men beskriver sedan bristerna i nuvarande metoder.

De två huvudsakliga metoderna för vattenmärkning är låg och hög störning.

Metoden med låg störning innebär att man gör en subtil förändring av en bild som är omärklig för ögat men ändå digitalt detekterbar. Dessa metoder visade en avvägning mellan prestanda och falska positiva resultat. Ju bättre metoden var på att identifiera en AI-imitation, desto mer sannolikt var det att den felaktigt identifierade en riktig bild som en fejk.

Hög störning innebär att man lägger till ett synligt element i bilden, vilket anses vara en mer robust metod. Forskarna kunde också ta bort alla dessa vattenstämplar. Deras "modell substitution adversarial attack" -metod tog till och med bort de mer subtila avancerade trädringvattenmärkena.

Eftersom AI fortsätter att driva skapandet och spridningen av desinformation behöver vi ett effektivt sätt att avgöra när en bild eller video har skapats av AI. Den här undersökningen visar dock att en effektiv lösning framstår som alltmer osannolik, om än inte omöjlig.

Feizis team testade bara de tillgängliga vattenstämplarna. Google och Meta arbetar med sina egna vattenstämpeltekniker men de var inte tillgängliga för testning ännu.

Trots detta anser Feizi att deras forskning tyder på att inte ens de stora teknikföretagen kommer att leverera en idiotsäker lösning. A artikel publicerad av forskare från University of California drog slutsatsen att "alla osynliga vattenstämplar är sårbara".

I takt med att generativ AI förbättras kommer det sannolikt att bli svårare att identifiera en AI-genererad bild. Så även om kommersiella AI-bildgeneratorer som DALL-E eller Midjourney använder en effektiv vattenstämpel, finns det inget som tvingar andra modeller att göra det.

Den andra frågan som lyfts fram i Feizis forskning är att de kunde införa AI-vattenstämplar i bilder som inte var AI-genererade.

Problemet med detta är att när fotografiska bevis presenteras kan dåliga aktörer applicera en AI-vattenstämpel på dem i ett försök att misskreditera bevisen.

Vi måste se hur Google och Metas vattenstämplar klarar sig mot Feizis teams brute-force-attacker. För närvarande verkar det som om vi måste fortsätta påminna oss själva om att se inte tror.

 

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar