Le aziende tecnologiche si uniscono per contrastare il deep fake electioneering

16 febbraio 2024

falso profondo

Alla Conferenza sulla sicurezza di Monaco, una coalizione di 20 giganti tecnologici, tra cui OpenAI, Meta, Microsoft e altri, ha dichiarato uno sforzo congiunto per combattere i contenuti ingannevoli dell'intelligenza artificiale che influenzano le elezioni in tutto il mondo. 

Ciò si inserisce nel contesto di crescenti preoccupazioni che i falsi profondi generati dall'IA possano manipolare i processi elettorali, in particolare quando quest'anno si profilano elezioni importanti in diversi Paesi. 

Abbiamo già visto i falsi profondi fanno la loro parte almeno nelle elezioni in Pakistan, Indonesia, Slovacchia e Bangladesh.

Questo nuovo accordo prevede l'impegno a sviluppare strumenti per individuare e affrontare i media ingannevoli generati dall'intelligenza artificiale, a sensibilizzare l'opinione pubblica sui contenuti ingannevoli e ad agire rapidamente per rimuovere tali contenuti dalle loro piattaforme. 

La verità, però, è che l'abbiamo sentita molte volte. Quindi cosa c'è di diverso ora?

Anche se le specifiche sulle tempistiche di implementazione rimangono vaghe, le aziende hanno sottolineato la necessità di un approccio collettivo per affrontare questa minaccia in evoluzione. 

Le aziende tecnologiche si sono impegnate a implementare strumenti collaborativi per rilevare e mitigare la diffusione di contenuti elettorali dannosi generati dall'IA, comprese tecniche come il watermarking per certificare l'origine e le alterazioni dei contenuti. Si sono inoltre impegnate a garantire la trasparenza dei loro sforzi e a valutare i rischi posti dai loro modelli di IA generativa.

"Credo che l'utilità di questo accordo sia data dall'ampiezza delle aziende che lo hanno sottoscritto", ha dichiarato Nick Clegg, presidente degli affari globali di Meta Platforms. 

"È tutto bello e positivo se le singole piattaforme sviluppano nuove politiche di rilevamento, provenienza, etichettatura, watermarking e così via, ma se non c'è un impegno più ampio a farlo in modo condiviso e interoperabile, resteremo bloccati con un guazzabuglio di impegni diversi".

Anche in questo caso, nulla di già sentito. Ci sono stati diversi accordi intersettoriali, ma non c'è stato un piano sostanzialmente efficace per fermare i falsi profondi. 

Ad esempio, MLCommons ha collaborato con Big Tech per definire i parametri di sicurezza, aziende impegnate nel watermarking, e si è iscritto al Forum dei modelli di frontieraAnche in questo caso, per stabilire un "approccio unificato". Questi tre accordi a livello di settore mi sono appena venuti in mente, ma ce ne sono sicuramente molti altri.

I falsi profondi non sono facili da individuare, soprattutto non in scala. Sono diventati così simili a quelli veri che identificarli con l'IA o con tecniche algoritmiche è eccezionalmente difficile

Le aziende tecnologiche hanno risposto etichettando i contenuti con metadati, identificandoli come generati dall'intelligenza artificiale, ma come si identifica lo scopo dell'immagine? 

Anche i metadati sono facilmente eliminabili da un file. Inoltre, ci saranno sempre aziende di IA che non rispettano gli accordi e i modi per aggirare i controlli in vigore. 

Dana Rao, Chief Trust Officer di Adobe, ha spiegato come e perché questi contenuti sono efficaci, affermando: "C'è una connessione emotiva con audio, video e immagini", ha detto. "Il cervello è predisposto a credere a questo tipo di media".

In effetti, i deep fake sembrano diffondersi molto tempo dopo essere stati dichiarati tali. Sebbene sia difficile quantificare quanto modifichino il nostro comportamento, la portata del loro impatto - con i contenuti visualizzati da milioni di persone alla volta - non è qualcosa con cui si possa correre alcun rischio. 

Il fatto è che possiamo aspettarci altri incidenti e controversie legate all'intelligenza artificiale.

La consapevolezza individuale e il pensiero critico saranno la più grande arma dell'umanità per combattere gli impatti negativi.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni