I rilevatori di immagini AI possono essere ingannati aggiungendo texture alle immagini

2 luglio 2023

Le immagini AI false possono ingannare i rilevatori di immagini AI

Alcuni dei migliori rilevatori di immagini AI possono essere ingannati aggiungendo texture all'immagine o degradando leggermente l'immagine.

Anche se le immagini generate dall'intelligenza artificiale non esistono da molto tempo, sappiamo bene che non dobbiamo fidarci dei nostri occhi. Ma a quanto pare non possiamo fidarci nemmeno delle macchine che dovrebbero dirci se un'immagine è vera o falsa.

Un esperimento recente riportato dal New York Times ha riscontrato che per la maggior parte dei rilevatori di immagini AI come Alveare o Umm-maybe erano in grado di classificare correttamente le immagini generate dall'intelligenza artificiale. Questo fino a quando non hanno aggiunto grana all'immagine.

Quando hanno degradato le immagini aggiungendo una piccola quantità di grana, o rumore pixelato, i rilevatori si sono convinti che le immagini generate dall'IA fossero reali. In un caso, un'immagine in bianco e nero di un uomo è stata valutata correttamente con una probabilità di 99% di essere generata dall'IA. Aggiungendo una leggera quantità di grana, il rilevatore ha fatto scendere improvvisamente la probabilità a 3,3%, affermando in sostanza che l'immagine era quasi certamente reale.

Quando le immagini false del Papa in un puffer di Balenciaga ingannano alcune persone, si tratta di un divertimento innocuo. Ma quando le immagini generate dall'intelligenza artificiale vengono utilizzate per le elezioni e non possono essere identificate come false, le implicazioni potrebbero essere più gravi.

Ron DeSantis è stato recentemente criticato per aver utilizzato immagini generate dall'intelligenza artificiale nella sua campagna. La sua campagna ha intervallato 3 immagini reali di Trump con 3 immagini generate dall'intelligenza artificiale di Trump che abbraccia e bacia il dottor Anthony Fauci. Agence France-Press è stato il primo a segnalare i falsi.

Se conoscete anche solo vagamente la politica di Trump, non avete bisogno di un software che vi dica che una foto di lui che bacia Fauci è falsa. Ma i rilevatori di immagini AI non usano il contesto o il soggetto per decidere se una foto è reale o meno. Esaminano i modelli di pixel rivelatori che i generatori di immagini dell'IA producono quando creano un'immagine.

È emerso che se si prendono queste immagini ad alta risoluzione e le si degrada un po', anche i migliori rilevatori di falsi dell'intelligenza artificiale diranno spesso che l'immagine è autentica. Anche chiedere a Midjourney di produrre una foto d'epoca di scarsa qualità è sufficiente per ingannare alcuni di questi strumenti.

Si tratta di uno sviluppo interessante, ma resta da vedere quanto sia significativo. Le conseguenze reali di Disinformazione generata dall'intelligenza artificiale è improbabile che vengano evitati da rilevatori infallibili. Una sana dose di scetticismo e l'educazione ai rischi di fidarsi dei propri occhi saranno probabilmente molto più efficaci. 

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni