Google's onderzoekslaboratorium DeepMind heeft een bètaversie onthuld van SynthID, zijn nieuwe tool voor het watermerken en identificeren van AI-gegenereerde afbeeldingen.
Bezorgdheid over deepfakes en het potentieel van AI om desinformatie te promoten heeft de behoefte aan een manier om door AI gegenereerde afbeeldingen te detecteren onder de aandacht gebracht.
Conventionele watermerken die aan afbeeldingen worden toegevoegd voor auteursrechtelijke doeleinden kunnen eenvoudig worden verwijderd door ze bij te snijden, filters toe te voegen of te bewerken. Zelfs metadata kan van afbeeldingen worden verwijderd.
SynthID sluit het digitale watermerk rechtstreeks in de pixels van de afbeelding in. Het aantal bewerkte pixels is zo klein dat het watermerk niet waarneembaar is voor het menselijk oog. Het watermerk wordt niet verwijderd door schalen, bijsnijden of het verlagen van de resolutie van de afbeelding.
Als je wist waar het watermerk zat, zou je het technisch gezien kunnen verwijderen, maar dan zou je de afbeelding ook beschadigen.
Google maakt SynthID beschikbaar voor sommige van zijn klanten die gebruikmaken van de beeldgenerator Imagen op Google's Vertex AI-platform.
Gebruikers die een afbeelding met Imagen maken, kunnen het watermerk toevoegen of SynthID gebruiken om te detecteren of een afbeelding met Imagen is gemaakt. Het is echter geen onfeilbare methode omdat de bericht over DeepMind erkend.
"De tool biedt drie betrouwbaarheidsniveaus voor het interpreteren van de resultaten van watermerkidentificatie. Als er een digitaal watermerk wordt gedetecteerd, is een deel van de afbeelding waarschijnlijk gegenereerd door Imagen."
De DeepMind blogbericht zei ook dat "SynthID niet waterdicht is tegen extreme beeldmanipulaties".
Maakt SynthID enig verschil?
Google promoot de tool niet als een wondermiddel tegen valse afbeeldingen, maar het is een begin. Als de methode effectief blijkt en aanslaat bij andere AI-afbeeldingsgenerators, dan kan het makkelijker worden om een vervalsing te herkennen.
Zelfs als er een onfeilbare methode wordt ontwikkeld op basis van iets als SynthID, hoe zou je die kunnen afdwingen? Er zijn zoveel AI-beeldgeneratoren die buiten elke vorm van regelgeving vallen.
Als je niet kunt voorkomen dat mensen AI genereert beelden van kindermisbruikHoe dwing je ze dan om een watermerk toe te voegen aan valse afbeeldingen?
Een andere uitdaging voor bedrijven als Google is dat een tool die het vertrouwen bevordert, waterdicht moet zijn. Als je mensen vertelt dat het 75% waarschijnlijk is dat een politiek beladen afbeelding nep is, neemt dat de argumenten over de authenticiteit niet weg.
Een watermerk zoals SynthID toevoegen aan een valse afbeelding lijkt een geweldig idee, maar wat houdt iemand tegen om een soortgelijk watermerk toe te voegen aan een echte afbeelding?
Kritisch denken en een gezonde dosis scepsis zijn misschien voorlopig onze beste verdediging tegen AI-fakes.