Googles forskningslaboratorium DeepMind har afsløret en beta-version af SynthID, deres nye værktøj til vandmærkning og identifikation af AI-genererede billeder.
Bekymringen over deepfakes og AI's potentiale til at fremme misinformation har understreget behovet for en måde at opdage AI-genererede billeder på.
Konventionelle vandmærker, der tilføjes billeder med henblik på ophavsret, kan nemt fjernes ved at beskære, tilføje filtre eller redigere. Selv metadata kan fjernes fra billederne.
SynthID indlejrer det digitale vandmærke direkte i billedets pixels. Antallet af redigerede pixels er så lille, at vandmærket er umærkeligt for det menneskelige øje. Skalering, beskæring eller reduktion af billedets opløsning fjerner ikke vandmærket.
Hvis du vidste, hvor vandmærket var, kunne du teknisk set fjerne det, men du ville også beskadige billedet.
Google gør SynthID tilgængelig for nogle af sine kunder ved hjælp af sin billedgenerator, Imagen, på Googles Vertex AI-platform.
Brugere, der skaber et billede med Imagen, kan tilføje vandmærket eller bruge SynthID til at opdage, om et billede er skabt med Imagen. Det er dog ikke en idiotsikker metode, da indlæg på DeepMind anerkendt.
"Værktøjet giver tre tillidsniveauer til fortolkning af resultaterne af vandmærkeidentifikationen. Hvis der opdages et digitalt vandmærke, er en del af billedet sandsynligvis genereret af Imagen."
Den DeepMind-blogindlæg sagde også, at "SynthID ikke er idiotsikker mod ekstreme billedmanipulationer."
Vil SynthID gøre nogen forskel?
Google promoverer ikke værktøjet som et universalmiddel mod falske billeder, men det er en begyndelse. Hvis metoden viser sig at være effektiv og vinder indpas hos andre AI-billedgeneratorer, kan det gøre det lettere at spotte en forfalskning.
Selv hvis der blev udviklet en idiotsikker metode baseret på noget som SynthID, hvordan ville du så håndhæve den? Der er så mange AI-billedgeneratorer, der ligger uden for enhver form for regulering.
Hvis du ikke kan forhindre folk i at bruge AI til at generere billeder af børnemishandlingHvordan tvinger man dem så til at tilføje et vandmærke til falske billeder?
En anden udfordring for virksomheder som Google er, at hvis et værktøj skal fremme tilliden, skal det være idiotsikkert. Hvis du fortæller folk, at der er 75% sandsynlighed for, at et politisk ladet billede er falsk, fjerner det ikke diskussionerne om dets ægthed.
At tilføje et vandmærke som SynthID til et falsk billede virker som en god idé, men hvad forhindrer nogen i at tilføje et lignende vandmærke til et ægte billede?
Kritisk tænkning og en sund dosis skepsis kan være vores bedste forsvar mod AI-fakes i et stykke tid endnu.