Nel tentativo di contrastare i falsi profondi e la disinformazione, le 7 aziende di IA che hanno aderito al quadro volontario statunitense sull'IA di questa settimana si sono impegnate a filigranare i contenuti generati dall'IA.
I partecipanti al quadro volontarioannunciate dalla Casa Bianca il 21 giugno, comprendono Google, OpenAI, Microsoft, Meta, Amazon, Anthropic e Inflection.
Nell'ambito di questo quadro, queste aziende si sono impegnate a sviluppare filigrane per aiutare il pubblico a identificare l'origine dei contenuti generati dall'IA e a ridurre gli inganni.
Come un watermark convenzionale, un watermark AI viene applicato a un'immagine, un video, un file audio o un testo.
La filigrana dei contenuti generati dall'IA potrebbe ridurre le truffe, le false campagne virali e la sessuologia. "Questa filigrana permetterà alla creatività dell'IA di svilupparsi, ma ridurrà i rischi di frode e inganno", ha dichiarato la Casa Bianca.
In un post sul blog pubblicato poco dopo l'annuncio della Casa Bianca, OpenAI si impegna a "sviluppare meccanismi robusti, compresi sistemi di provenienza e/o watermarking per i contenuti audio e visivi". Svilupperà inoltre "strumenti o API per stabilire se un contenuto è stato realizzato con il loro sistema".
Google intende migliorare l'affidabilità delle informazioni integrando i metadati e "altre tecniche innovative" oltre al watermarking.
Venerdì la Casa Bianca ha annunciato diverse altre misure di salvaguardia, tra cui la conduzione di test interni ed esterni sui sistemi di IA prima del rilascio, l'aumento degli investimenti nella cybersicurezza e la promozione della collaborazione tra i settori per ridurre i rischi dell'IA.
OpenAI ha dichiarato che questi impegni segnano "un passo importante nel portare avanti una governance dell'IA significativa ed efficace, sia negli Stati Uniti che nel resto del mondo".
L'azienda ha anche promesso di "investire nella ricerca in aree che possono aiutare a informare la regolamentazione, come le tecniche per valutare le capacità potenzialmente pericolose nei modelli di IA".
Nick Clegg, presidente di Meta per gli affari globali, ha fatto eco al sentimento di OpenAI, descrivendo questi impegni come un "primo passo importante per garantire che vengano stabiliti dei guardrail responsabili per l'IA".
Le filigrane AI funzionano?
La filigrana dei contenuti generati dall'intelligenza artificiale, pur essendo concettualmente interessante, è tutt'altro che infallibile.
Le immagini, i video e le registrazioni audio possono recare una piccola e debole grafica o un audio che segnala la loro origine generata dall'intelligenza artificiale.
Allo stesso modo, l'integrazione dei metadati nei file generati dall'intelligenza artificiale può fornire informazioni sulla fonte e sul processo di creazione dei contenuti. Tuttavia, la rimozione dei watermark utilizzando altri strumenti di IA o l'eliminazione dei metadati sarà probabilmente semplice.
Se i watermark possono essere rimossi, i contenuti non filigranati generati dall'intelligenza artificiale acquistano improvvisamente legittimità. L'assenza di un watermark potrebbe essere usata per sostenere che un'immagine è autentica quando non lo è: un compromesso potenzialmente pericoloso.
Per quanto riguarda il testo generato dall'intelligenza artificiale, non esiste una soluzione semplice. A differenza delle immagini o dell'audio, il testo non si presta facilmente all'inserimento di watermark.
L'approccio principale consiste nel far passare il testo attraverso i rilevatori di IA, che analizzano la perplessità del testo - una misura della probabilità che un modello di IA riesca a prevedere una determinata sequenza di parole - per valutare se si tratta di un testo generato dall'IA.
I rilevatori di intelligenza artificiale hanno i loro difetti. Spesso producono un'alta percentuale di falsi positivi, che portano a segnalare erroneamente contenuti non generati dall'IA.
Questo problema è amplificato quando si analizzano testi scritti da persone non di madrelingua inglese, che potrebbero usare frasi meno comuni o avere una sintassi atipica, aumentando ulteriormente i tassi di falsi positivi. Uno studio recente ha sconsigliato l'uso di rilevatori di IA in contesti di formazione e reclutamento per questi motivi.
Inoltre, con l'evoluzione dei modelli di IA, la linea di demarcazione tra contenuti scritti dall'uomo e contenuti scritti dall'IA diventa sempre più labile. Man mano che l'IA migliora nell'imitare gli stili di scrittura umani, i rilevatori basati sulla perplessità diventeranno meno affidabili.
Sebbene il watermarking rappresenti un passo avanti verso il miglioramento della trasparenza e della responsabilità dei contenuti generati dall'IA, non è una soluzione immediata e non serve come deterrente definitivo o "pallottola d'argento".