Google testar en digital vattenstämpel för att identifiera AI-bilder

30 augusti 2023

Falska AI-bilder kan lura AI-bilddetektorer

Googles forskningslabb DeepMind har presenterat en betaversion av SynthID, ett nytt verktyg för vattenstämpling och identifiering av AI-genererade bilder.

Oron över deepfakes och AI:s potential att sprida desinformation har lyft fram behovet av ett sätt att upptäcka AI-genererade bilder. 

Konventionella vattenstämplar som läggs till bilder av upphovsrättsliga skäl kan enkelt tas bort genom beskärning, filter eller redigering. Även metadata kan tas bort från bilderna.

SynthID bäddar in den digitala vattenstämpeln direkt i bildens pixlar. Antalet redigerade pixlar är så litet att vattenstämpeln är omärkbar för det mänskliga ögat. Skalning, beskärning eller minskning av bildens upplösning tar inte bort vattenstämpeln.

Om du visste var vattenstämpeln var kan du tekniskt ta bort den men du skulle också skada bilden.

 

Google gör SynthID tillgängligt för vissa av sina kunder som använder sin bildgenerator, Imagen, på Googles Vertex AI-plattform. 

Användare som skapar en bild med Imagen kan lägga till vattenstämpeln eller använda SynthID för att upptäcka om en bild har skapats med Imagen. Det är dock inte en idiotsäker metod eftersom inlägg om DeepMind bekräftade.

"Verktyget ger tre konfidensnivåer för att tolka resultaten av vattenstämpelidentifiering. Om en digital vattenstämpel upptäcks är det troligt att en del av bilden har genererats av Imagen."

Den DeepMind blogginlägg sa också att "SynthID inte är idiotsäkert mot extrema bildmanipulationer."

Kommer SynthID att göra någon skillnad?

Google marknadsför inte verktyget som ett universalmedel mot falska bilder, men det är en början. Om metoden visar sig vara effektiv och får fäste hos andra AI-bildgeneratorer kan det göra det lättare att upptäcka en förfalskning.

Även om en idiotsäker metod utvecklas baserad på något som SynthID, hur skulle du genomdriva den? Det finns så många AI-bildgeneratorer som ligger utanför någon form av reglering.

Om du inte kan hindra människor från att använda AI genererar bilder på övergrepp mot barnHur tvingar man dem då att lägga till en vattenstämpel på falska bilder?

En annan utmaning för företag som Google är att ett verktyg måste vara idiotsäkert för att främja förtroendet. Om man säger till människor att en politiskt laddad bild har 75% sannolikhet att vara falsk, så eliminerar det inte argument om dess äkthet.

Att lägga till en vattenstämpel som SynthID till en falsk bild verkar vara en bra idé, men vad hindrar någon från att lägga till en liknande vattenstämpel till en äkta bild?

Kritiskt tänkande och en hälsosam dos skepticism kan vara vårt bästa försvar mot AI-förfalskningar ett tag framöver.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar