Googles forskningslaboratorium DeepMind har avduket en betaversjon av SynthID, deres nye verktøy for vannmerking og identifisering av AI-genererte bilder.
Bekymringen for deepfakes og potensialet for at kunstig intelligens kan bidra til desinformasjon, har understreket behovet for en måte å oppdage AI-genererte bilder på.
Konvensjonelle vannmerker som legges til bilder for opphavsrettslige formål, kan enkelt fjernes ved å beskjære, legge til filtre eller redigere. Til og med metadata kan fjernes fra bilder.
SynthID legger det digitale vannmerket direkte inn i bildets piksler. Antallet redigerte piksler er så lite at vannmerket er umerkelig for det menneskelige øye. Skalering, beskjæring eller reduksjon av oppløsningen på bildet vil ikke fjerne vannmerket.
Hvis du visste hvor vannmerket var, kunne du teknisk sett fjerne det, men du ville også skade bildet.
Google gjør SynthID tilgjengelig for noen av sine kunder ved hjelp av bildegeneratoren Imagen på Googles Vertex AI-plattform.
Brukere som lager et bilde med Imagen, kan legge til vannmerket eller bruke SynthID til å oppdage om et bilde er laget med Imagen. Det er imidlertid ikke en idiotsikker metode, ettersom innlegg på DeepMind anerkjent.
"Verktøyet gir tre konfidensnivåer for tolkning av resultatene av vannmerkeidentifikasjonen. Hvis det oppdages et digitalt vannmerke, er det sannsynlig at en del av bildet er generert av Imagen."
Den Blogginnlegg fra DeepMind sa også at "SynthID ikke er idiotsikker mot ekstreme bildemanipulasjoner."
Vil SynthID gjøre noen forskjell?
Google markedsfører ikke verktøyet som et universalmiddel mot falske bilder, men det er en begynnelse. Hvis metoden viser seg å være effektiv og får gjennomslag hos andre AI-bildegeneratorer, kan det gjøre det lettere å oppdage forfalskninger.
Selv om det utvikles en idiotsikker metode basert på noe som SynthID, hvordan skal man håndheve den? Det finnes så mange AI-bildegeneratorer som ligger utenfor enhver form for regulering.
Hvis du ikke kan hindre folk i å bruke AI skal generere bilder av overgrep mot barnhvordan tvinger du dem da til å legge til et vannmerke på falske bilder?
En annen utfordring for selskaper som Google er at et verktøy må være idiotsikkert for å fremme tillit. Hvis du forteller folk at et politisk ladet bilde har 75% sannsynlighet for å være falskt, eliminerer ikke det diskusjonene om dets autentisitet.
Å legge til et vannmerke som SynthID på et falskt bilde virker som en god idé, men hva hindrer noen i å legge til et lignende vannmerke på et ekte bilde?
Kritisk tenkning og en sunn dose skepsis kan være vårt beste forsvar mot AI-fakes en stund til.