Le false immagini esplicite e profonde di Taylor Swift suscitano indignazione

26 gennaio 2024

AI deep fake

Immagini esplicite della popstar Taylor Swift, generate dall'intelligenza artificiale, sono state recentemente diffuse sui social media, scatenando un'ondata di polemiche. 

Nonostante le rigide regole contro tali contenuti, queste immagini non consensuali ritraevano la Swift in posizioni sessualmente esplicite e sono rimaste attive per 19 ore, accumulando oltre 27 milioni di visualizzazioni e 260.000 like prima che l'account di pubblicazione venisse sospeso.

L'incidente contribuisce ad alimentare una serie di interrogativi sull'efficacia delle politiche sui social media nei confronti di disinformazione falsa e profonda.

Si può fermare? Apparentemente no. Allora come possiamo combatterlo? I servizi di rilevamento dell'intelligenza artificiale (simili ai fact checker) e le "note della comunità", allegate ai post su X, sono due possibili soluzioni, ma entrambe hanno i loro difetti. 

Le immagini esplicite di Taylor Swift sono state diffuse principalmente sulla piattaforma di social media X ma hanno trovato spazio anche su altre piattaforme di social media, tra cui Facebook, dimostrando come i contenuti controversi dell'IA si diffondano a macchia d'olio. 

Un portavoce di Meta ha risposto all'incidente, dichiarando: "Questo contenuto viola le nostre politiche e lo stiamo rimuovendo dalle nostre piattaforme e prendendo provvedimenti contro gli account che lo hanno pubblicato. Stiamo continuando a monitorare e se identificheremo altri contenuti in violazione li rimuoveremo e prenderemo provvedimenti adeguati".

Milioni di utenti si sono riversati su Reddit per discutere le ramificazioni e gli impatti di questo e di altri recenti incidenti virali di deep fake, tra cui una foto della Torre Eiffel in fiamme.

Sebbene molti percepiscano queste immagini come palesemente false, non possiamo dare per scontata la consapevolezza del grande pubblico.

Un commentatore su Reddit ha commentato l'incidente di Taylor Swift: "Ora so quante persone non sanno cosa sono i deepfakes", sottintendendo una scarsa consapevolezza del problema.

Gli esperti del settore hanno discusso il problema con l'ex dirigente di Stabilità Ed Newton-Rex, sostenendo che l'atteggiamento aggressivo delle aziende tecnologiche e lo scarso coinvolgimento dei decisori contribuiscono al problema.

Ben Decker di Memetica, un'agenzia di investigazioni digitali, ha commentato la mancanza di controllo sull'impatto dell'IA: "Questo è un esempio lampante dei modi in cui l'IA viene scatenata per molte ragioni nefaste senza che vi siano sufficienti guardrail per proteggere la pubblica piazza". 

Ha inoltre evidenziato le carenze delle strategie di monitoraggio dei contenuti delle aziende di social media.

Secondo quanto riportato, Taylor Swift starebbe valutando la possibilità di intraprendere un'azione legale contro il sito di falsi porno che ospita le immagini. 

Ci sono stati numerosi episodi simili di falsi espliciti in profondità, che hanno coinvolto soprattutto donne e bambini, a volte con il intento di corrompere le persone, chiamato anche "sexploitation".

Le immagini AI di abusi sessuali su minori sono l'impatto più oscuro e preoccupante della tecnologia di generazione di immagini. Un uomo statunitense è stato recentemente condannato a 40 anni in carcere per il possesso di tali immagini. 

Sulla scia di questo e di altri incidenti simili, sono aumentate le richieste di una legislazione che affronti questa forma di abuso dell'IA. 

Il rappresentante degli Stati Uniti Joe Morelle ha definito "spaventosa" la diffusione dei deepfakes della Swift, invocando un'azione legale urgente. Ha osservato: "Quello che è successo a Taylor Swift non è una novità", sottolineando l'impatto sproporzionato di tali contenuti sulle donne.

La disinformazione "deep fake" è stata ampiamente discussa anche a il Forum economico mondiale di Davos con l'aumento timori sulla possibilità che i contenuti manipolati possano influenzare i mercati azionari, le elezioni e l'opinione pubblica.

Gli sforzi per combattere i falsi profondi sono in corso, con startup e giganti tecnologici che sviluppano tecnologie di rilevamento. 

Intel, ad esempio, ha lanciato un prodotto in grado di rilevare i video falsi con una precisione di 96%. 

Tuttavia, per il momento la sfida rimane in gran parte insormontabile, dato che la tecnologia si sta rapidamente evolvendo e diffondendo su Internet.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni