Meta alza la posta in gioco nella lotta ai contenuti falsi profondi dell'AI

6 febbraio 2024

Meta ai

Meta ha annunciato nuove iniziative per migliorare la trasparenza dei contenuti generati dall'intelligenza artificiale sulle sue piattaforme.

Scrivere in un post sul blogNick Clegg, presidente di Meta per gli affari globali, ha sottolineato l'impegno dell'azienda nell'etichettare le immagini generate dall'IA per aiutare gli utenti a distinguere i contenuti creati dall'uomo da quelli sintetici. 

Clegg ha dichiarato: "Man mano che la differenza tra contenuti umani e sintetici si fa sempre più sottile, le persone vogliono sapere dove si trova il confine". Ha inoltre aggiunto che Meta sta "lavorando con i partner del settore per allinearsi su standard tecnici comuni che segnalino quando un contenuto è stato creato utilizzando l'IA".

Meta riconosce la crescente diffusione di contenuti fotorealistici generati dall'intelligenza artificiale, ora ampiamente noti come deep fake.

Taylor Swift è stata l'ultima vittima di alto profilo di un'esplicita immagini generate dall'intelligenza artificiale non consensualiche gli utenti hanno fatto risalire a una "sfida" su 4Chan.

Una truffa orchestrata da falsi video profondi ha fruttato a una multinazionale $25,6 milioni di euro lunedì scorso.

La responsabilità di impedire la diffusione di queste immagini ricade sulle aziende di social media come X e Meta. 

Meta ha etichettato le immagini fotorealistiche create con la propria funzione Meta AI come "Imagined with AI" e intende estendere questa pratica ai contenuti generati dagli strumenti di altre aziende.

L'azienda afferma che sta sviluppando strumenti in grado di identificare marcatori invisibili e metadati incorporati nelle immagini generate dall'intelligenza artificiale, consentendole di etichettare contenuti provenienti da un ampio spettro di fonti, tra cui Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock. 

Meta è ora pronta ad applicare queste etichette a tutte le lingue supportate sulle sue piattaforme. 

Clegg ha anche sottolineato la necessità di collaborazione tra i settori tecnologici, scrivendo: "Poiché i contenuti generati dall'IA appaiono in tutto il mondo, abbiamo lavorato con altre aziende del nostro settore per sviluppare standard comuni per identificarli attraverso forum come la Partnership on AI (PAI). I marcatori invisibili che utilizziamo per le immagini Meta AI - metadati IPTC e watermark invisibili - sono in linea con le best practice della PAI".

Nonostante gli sforzi e i progressi compiuti per arginare le falsificazioni profonde, Clegg ha sottolineato che l'individuazione di audio e video generati dall'IA rimane difficile a causa della mancanza di segnali comparabili. 

Ma anche quando si tratta di immagini false, queste possono accumulare milioni di impressioni prima di essere completamente rimosse, come abbiamo visto nell'ultimo caso di Taylor Swift.

Altri episodi, come la condivisione da parte del commentatore Ben Shapiro di una probabile immagine generata dall'AI di un bambino morto dal conflitto israelo-palestinese, anch'esso ha raccolto un'enorme attenzione a livello mondiale prima di essere contrastato. 

Come misura provvisoria, Meta introdurrà una funzione che consentirà agli utenti di rivelare quando condividono video o audio generati dall'intelligenza artificiale.

Ma chi lo userà se sta pubblicando contenuti destinati ad accendere polemiche?

Oltre all'etichettatura, Meta sta esplorando varie tecnologie per migliorare la sua capacità di rilevare i contenuti generati dall'IA, anche in assenza di marcatori invisibili. 

Questo include la ricerca sulla tecnologia di watermarking invisibile, come il Firma stabile sviluppato dal laboratorio di ricerca AI di Meta, FAIR, che integra il watermarking direttamente nel processo di generazione delle immagini.

Elezioni imminenti, si intensificano le falsificazioni profonde

Abbiamo assistito a numerosi casi di disinformazione politica incanalato attraverso falsi profondi.

Google, Meta, YouTube, X e altri stanno intensificando gli sforzi per contrastare i deep fake in vista delle prossime elezioni, anche negli Stati Uniti e nel Regno Unito (molto probabilmente).

Man mano che i contenuti generati dall'IA diventano più sofisticati e diffusi, cresce la necessità di vigilare e innovare sull'autenticazione e la trasparenza dei contenuti.

È in vista una soluzione definitiva? Sembra di no. 

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni