Alla Conferenza sulla sicurezza di Monaco, una coalizione di 20 giganti tecnologici, tra cui OpenAI, Meta, Microsoft e altri, ha dichiarato uno sforzo congiunto per combattere i contenuti ingannevoli dell'intelligenza artificiale che influenzano le elezioni in tutto il mondo.
Ciò si inserisce nel contesto di crescenti preoccupazioni che i falsi profondi generati dall'IA possano manipolare i processi elettorali, in particolare quando quest'anno si profilano elezioni importanti in diversi Paesi.
Abbiamo già visto i falsi profondi fanno la loro parte almeno nelle elezioni in Pakistan, Indonesia, Slovacchia e Bangladesh.
Questo nuovo accordo prevede l'impegno a sviluppare strumenti per individuare e affrontare i media ingannevoli generati dall'intelligenza artificiale, a sensibilizzare l'opinione pubblica sui contenuti ingannevoli e ad agire rapidamente per rimuovere tali contenuti dalle loro piattaforme.
La verità, però, è che l'abbiamo sentita molte volte. Quindi cosa c'è di diverso ora?
Anche se le specifiche sulle tempistiche di implementazione rimangono vaghe, le aziende hanno sottolineato la necessità di un approccio collettivo per affrontare questa minaccia in evoluzione.
Le aziende tecnologiche si sono impegnate a implementare strumenti collaborativi per rilevare e mitigare la diffusione di contenuti elettorali dannosi generati dall'IA, comprese tecniche come il watermarking per certificare l'origine e le alterazioni dei contenuti. Si sono inoltre impegnate a garantire la trasparenza dei loro sforzi e a valutare i rischi posti dai loro modelli di IA generativa.
"Credo che l'utilità di questo accordo sia data dall'ampiezza delle aziende che lo hanno sottoscritto", ha dichiarato Nick Clegg, presidente degli affari globali di Meta Platforms.
"È tutto bello e positivo se le singole piattaforme sviluppano nuove politiche di rilevamento, provenienza, etichettatura, watermarking e così via, ma se non c'è un impegno più ampio a farlo in modo condiviso e interoperabile, resteremo bloccati con un guazzabuglio di impegni diversi".
Anche in questo caso, nulla di già sentito. Ci sono stati diversi accordi intersettoriali, ma non c'è stato un piano sostanzialmente efficace per fermare i falsi profondi.
Ad esempio, MLCommons ha collaborato con Big Tech per definire i parametri di sicurezza, aziende impegnate nel watermarking, e si è iscritto al Forum dei modelli di frontieraAnche in questo caso, per stabilire un "approccio unificato". Questi tre accordi a livello di settore mi sono appena venuti in mente, ma ce ne sono sicuramente molti altri.
I falsi profondi non sono facili da individuare, soprattutto non in scala. Sono diventati così simili a quelli veri che identificarli con l'IA o con tecniche algoritmiche è eccezionalmente difficile.
Le aziende tecnologiche hanno risposto etichettando i contenuti con metadati, identificandoli come generati dall'intelligenza artificiale, ma come si identifica lo scopo dell'immagine?
Anche i metadati sono facilmente eliminabili da un file. Inoltre, ci saranno sempre aziende di IA che non rispettano gli accordi e i modi per aggirare i controlli in vigore.
Dana Rao, Chief Trust Officer di Adobe, ha spiegato come e perché questi contenuti sono efficaci, affermando: "C'è una connessione emotiva con audio, video e immagini", ha detto. "Il cervello è predisposto a credere a questo tipo di media".
In effetti, i deep fake sembrano diffondersi molto tempo dopo essere stati dichiarati tali. Sebbene sia difficile quantificare quanto modifichino il nostro comportamento, la portata del loro impatto - con i contenuti visualizzati da milioni di persone alla volta - non è qualcosa con cui si possa correre alcun rischio.
Il fatto è che possiamo aspettarci altri incidenti e controversie legate all'intelligenza artificiale.
La consapevolezza individuale e il pensiero critico saranno la più grande arma dell'umanità per combattere gli impatti negativi.