Le principali aziende di AI si impegnano a sviluppare tecniche di watermarking

22 luglio 2023

Filigrana AI

Nel tentativo di contrastare i falsi profondi e la disinformazione, le 7 aziende di IA che hanno aderito al quadro volontario statunitense sull'IA di questa settimana si sono impegnate a filigranare i contenuti generati dall'IA.

I partecipanti al quadro volontarioannunciate dalla Casa Bianca il 21 giugno, comprendono Google, OpenAI, Microsoft, Meta, Amazon, Anthropic e Inflection.

Nell'ambito di questo quadro, queste aziende si sono impegnate a sviluppare filigrane per aiutare il pubblico a identificare l'origine dei contenuti generati dall'IA e a ridurre gli inganni.

Come un watermark convenzionale, un watermark AI viene applicato a un'immagine, un video, un file audio o un testo. 

La filigrana dei contenuti generati dall'IA potrebbe ridurre le truffe, le false campagne virali e la sessuologia. "Questa filigrana permetterà alla creatività dell'IA di svilupparsi, ma ridurrà i rischi di frode e inganno", ha dichiarato la Casa Bianca. 

In un post sul blog pubblicato poco dopo l'annuncio della Casa Bianca, OpenAI si impegna a "sviluppare meccanismi robusti, compresi sistemi di provenienza e/o watermarking per i contenuti audio e visivi". Svilupperà inoltre "strumenti o API per stabilire se un contenuto è stato realizzato con il loro sistema".

Google intende migliorare l'affidabilità delle informazioni integrando i metadati e "altre tecniche innovative" oltre al watermarking. 

Venerdì la Casa Bianca ha annunciato diverse altre misure di salvaguardia, tra cui la conduzione di test interni ed esterni sui sistemi di IA prima del rilascio, l'aumento degli investimenti nella cybersicurezza e la promozione della collaborazione tra i settori per ridurre i rischi dell'IA.

OpenAI ha dichiarato che questi impegni segnano "un passo importante nel portare avanti una governance dell'IA significativa ed efficace, sia negli Stati Uniti che nel resto del mondo".

L'azienda ha anche promesso di "investire nella ricerca in aree che possono aiutare a informare la regolamentazione, come le tecniche per valutare le capacità potenzialmente pericolose nei modelli di IA".

Nick Clegg, presidente di Meta per gli affari globali, ha fatto eco al sentimento di OpenAI, descrivendo questi impegni come un "primo passo importante per garantire che vengano stabiliti dei guardrail responsabili per l'IA".

Le filigrane AI funzionano?

La filigrana dei contenuti generati dall'intelligenza artificiale, pur essendo concettualmente interessante, è tutt'altro che infallibile. 

Le immagini, i video e le registrazioni audio possono recare una piccola e debole grafica o un audio che segnala la loro origine generata dall'intelligenza artificiale.

Allo stesso modo, l'integrazione dei metadati nei file generati dall'intelligenza artificiale può fornire informazioni sulla fonte e sul processo di creazione dei contenuti. Tuttavia, la rimozione dei watermark utilizzando altri strumenti di IA o l'eliminazione dei metadati sarà probabilmente semplice. 

Se i watermark possono essere rimossi, i contenuti non filigranati generati dall'intelligenza artificiale acquistano improvvisamente legittimità. L'assenza di un watermark potrebbe essere usata per sostenere che un'immagine è autentica quando non lo è: un compromesso potenzialmente pericoloso. 

Per quanto riguarda il testo generato dall'intelligenza artificiale, non esiste una soluzione semplice. A differenza delle immagini o dell'audio, il testo non si presta facilmente all'inserimento di watermark. 

L'approccio principale consiste nel far passare il testo attraverso i rilevatori di IA, che analizzano la perplessità del testo - una misura della probabilità che un modello di IA riesca a prevedere una determinata sequenza di parole - per valutare se si tratta di un testo generato dall'IA. 

I rilevatori di intelligenza artificiale hanno i loro difetti. Spesso producono un'alta percentuale di falsi positivi, che portano a segnalare erroneamente contenuti non generati dall'IA. 

Questo problema è amplificato quando si analizzano testi scritti da persone non di madrelingua inglese, che potrebbero usare frasi meno comuni o avere una sintassi atipica, aumentando ulteriormente i tassi di falsi positivi. Uno studio recente ha sconsigliato l'uso di rilevatori di IA in contesti di formazione e reclutamento per questi motivi.

Inoltre, con l'evoluzione dei modelli di IA, la linea di demarcazione tra contenuti scritti dall'uomo e contenuti scritti dall'IA diventa sempre più labile. Man mano che l'IA migliora nell'imitare gli stili di scrittura umani, i rilevatori basati sulla perplessità diventeranno meno affidabili. 

Sebbene il watermarking rappresenti un passo avanti verso il miglioramento della trasparenza e della responsabilità dei contenuti generati dall'IA, non è una soluzione immediata e non serve come deterrente definitivo o "pallottola d'argento".

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni