Google sperimenta una filigrana digitale per identificare le immagini di IA

30 agosto 2023

Le immagini AI false possono ingannare i rilevatori di immagini AI

Il laboratorio di ricerca DeepMind di Google ha presentato una versione beta di SynthID, il suo nuovo strumento per il watermarking e l'identificazione delle immagini generate dall'intelligenza artificiale.

La preoccupazione per i deepfake e per il potenziale dell'IA nel promuovere la disinformazione ha evidenziato la necessità di un modo per rilevare le immagini generate dall'IA. 

Le filigrane convenzionali aggiunte alle immagini per motivi di copyright possono essere facilmente rimosse ritagliando, aggiungendo filtri o modificando. Anche i metadati possono essere eliminati dalle immagini.

SynthID inserisce la filigrana digitale direttamente nei pixel dell'immagine. Il numero di pixel modificati è così piccolo che la filigrana è impercettibile all'occhio umano. Il ridimensionamento, il ritaglio o la riduzione della risoluzione dell'immagine non rimuovono la filigrana.

Se si sapesse dove si trova la filigrana, si potrebbe tecnicamente rimuoverla, ma si danneggerebbe l'immagine.

 

Google sta mettendo SynthID a disposizione di alcuni dei suoi clienti che utilizzano il suo generatore di immagini, Imagen, sulla piattaforma Vertex AI di Google. 

Gli utenti che creano un'immagine con Imagen possono aggiungere il watermark o utilizzare SynthID per rilevare se un'immagine è stata creata con Imagen. Non si tratta però di un metodo infallibile, in quanto il post su DeepMind riconosciuto.

"Lo strumento fornisce tre livelli di confidenza per interpretare i risultati dell'identificazione della filigrana. Se viene rilevata una filigrana digitale, è probabile che parte dell'immagine sia stata generata da Imagen".

Il Post sul blog di DeepMind ha anche detto che "SynthID non è infallibile contro le manipolazioni estreme delle immagini".

SynthID farà la differenza?

Google non promuove lo strumento come una panacea per le immagini false, ma è un inizio. Se il metodo si dimostrerà efficace e si diffonderà con altri generatori di immagini AI, potrebbe rendere più facile individuare un falso.

Anche se venisse sviluppato un metodo infallibile basato su qualcosa come SynthID, come si farebbe a farlo rispettare? Ci sono così tanti generatori di immagini AI che si trovano al di fuori di qualsiasi tipo di regolamentazione.

Se non si può impedire alle persone di usare L'intelligenza artificiale genera immagini di abusi su minoriCome si fa a costringerli ad aggiungere un watermark alle immagini false?

Un'altra sfida per aziende come Google è che, per promuovere la fiducia, uno strumento deve essere infallibile. Se si dice alle persone che un'immagine a sfondo politico ha una probabilità 75% di essere falsa, non si eliminano le discussioni sulla sua autenticità.

Aggiungere un watermark come SynthID a un'immagine falsa sembra un'ottima idea, ma cosa impedisce a qualcuno di aggiungere un watermark simile a un'immagine autentica?

Il pensiero critico e una sana dose di scetticismo potrebbero essere la nostra migliore difesa contro i falsi dell'intelligenza artificiale ancora per un po'.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni