Il 2023 è stato testimone di un diluvio di immagini false create con generatori di immagini AI, da un'immagine falsa di un'esplosione al Pentagono a immagini di abusi su minori.
La tecnologia Deep fake genera anche copie robuste della voce di quasi tutti, da Johnny Cash che canta Barbie Girl a discorsi falsi dell'ex presidente sudanese Omar al-Bashir.
Non sorprende, quindi, che i falsi profondi si siano insinuati nel già agitato panorama digitale che circonda l'attuale conflitto tra Israele e Hamas.
Nel complesso, gli analisti ritengono che la disinformazione generata dall'IA sia stata limitata: sui social media circolano abbastanza contenuti viscerali reali. Tuttavia, la sola prospettiva di falsi generati dall'IA ha portato le persone a mettere in dubbio la legittimità di immagini, video e clip audio autentici.
Si tratta del cosiddetto "dividendo del bugiardo". Un contenuto reale può ora essere potenzialmente liquidato come generato dall'IA, rendendolo così falsamente falso agli occhi degli spettatori.
I social media creano l'arena perfetta per diffondere a macchia d'olio il sospetto e la paranoia nei confronti dei contenuti digitali: l'opportunità di etichettare come falso qualcosa che appare reale, e viceversa, è qualcosa che molti useranno per rafforzare le proprie opinioni.
Bill Marcellino della RAND Corporation sottolinea questo dilemma: "Cosa succede quando tutto ciò che si vede di digitale potrebbe essere sintetico?".
Allo stesso modo, Hany Farid, specialista in digital forensics e AI misinformation, ha commentato il conflitto tra Israele e Hamas: "Anche per gli standard di nebbia di guerra a cui siamo abituati, questo conflitto è particolarmente incasinato... Lo spettro dei deepfakes è molto, molto più significativo ora - non ci vogliono decine di migliaia, ne bastano pochi, e poi si avvelena il pozzo e tutto diventa sospetto".
L'aspetto notevole è la rapidità con cui la tecnologia deep fake si è evoluta. Nel 2022, identificare le incongruenze nelle immagini generate dall'intelligenza artificiale era semplice e intuitivo, mentre oggi richiede spesso analisi specialistiche.
Con il protrarsi delle discussioni emotive su Gaza, soprattutto sulle piattaforme dei social media, l'erosione della fiducia diventa sempre più evidente.
I contenuti falsi attirano polemiche e, quindi, esposizione.
Il problema dei contenuti discutibilmente falsi è che attirano il dibattito e, di conseguenza, impressioni, like e commenti.
Ad esempio, un post su X, che ha attirato 1,8 milioni di visualizzazioni, raffigurava falsamente i tifosi dell'Atletico Madrid esponendo un'enorme bandiera palestinese. Gli utenti hanno sottolineato le figure distorte nell'immagine, che indicano la generazione di IA.
Un altro post di un account legato a Hamas sulla piattaforma X, come riportato dal New York Times, ritraeva in modo impreciso un accampamento di tende per gli sfollati israeliani, con un disegno di bandiera errato. Questo post è stato successivamente rimosso.
Maggiore attenzione e scrutinio sono stati rivolti ai filmati che non presentano segni apparenti di manipolazione dell'IA. Tra gli esempi c'è il video del direttore di un ospedale di Gaza che tiene una conferenza stampa, che alcuni hanno etichettato come "generato dall'IA" nonostante diverse fonti abbiano ripreso l'evento da angolazioni diverse.
Nel tentativo di separare la verità dai contenuti generati dall'intelligenza artificiale, alcuni utenti dei social media si sono rivolti a strumenti di rilevamento. Questi strumenti pretendono di identificare la manipolazione digitale, ma si sono dimostrati incoerenti e inaffidabili.
Nei primi giorni del conflitto, il Primo Ministro Netanyahu ha condiviso una serie di immagini sulla piattaforma X, sostenendo che raffiguravano "foto orribili di bambini uccisi e bruciati" da Hamas.
Quando il commentatore conservatore Ben Shapiro ha richiamato l'attenzione su una delle immagini presenti sulla piattaforma X, ha dovuto affrontare le accuse diffuse di diffondere contenuti generati dall'intelligenza artificiale. Non inseriremo direttamente il Tweet a causa della natura orribile dell'immagine, ma è possibile visualizzare il dibattito sul post di Shapiro qui.
Un post, che ha accumulato oltre 21 milioni di visualizzazioni prima di essere eliminato, sosteneva di avere le prove che l'immagine del bambino fosse un falso, presentando uno screenshot di AI or Not, uno strumento di rilevamento, che etichettava l'immagine come "generata da AI".
L'azienda ha successivamente rivisto questa valutazione sulla piattaforma X, spiegando che il risultato era "inconcludente" a causa della compressione delle immagini e delle alterazioni che oscuravano i dettagli di identificazione. L'azienda ha anche annunciato di aver perfezionato il suo strumento di rilevamento in risposta.
Stiamo monitorando il dibattito in corso su Twitter, come facciamo sempre con i casi controversi ad alta visibilità. Abbiamo confermato con il nostro sistema che il risultato è inconcludente a causa del fatto che la fotografia è stata compressa e alterata per sfocare la targhetta con il nome. https://t.co/uZihVMD7Cq
- AI o no (@Ai_or_Not) 13 ottobre 2023
Anatoly Kvitnitsky, CEO di AI o noha riflettuto sulle implicazioni etiche della loro tecnologia: "Ci siamo resi conto che ogni tecnologia che è stata costruita, a un certo punto, è stata usata per il male... Siamo giunti alla conclusione che stiamo cercando di fare del bene, manterremo il servizio attivo e faremo del nostro meglio per assicurarci di essere portatori della verità. Ma ci abbiamo pensato: stiamo causando più confusione, più caos?".
Tutto questo si traduce in una situazione incredibilmente confusa che amplifica le emozioni già spinte oltre il limite.
L'intelligenza artificiale dà e toglie al dibattito pubblico e alla verità. Come si adattano le persone alla sua presenza sui social media e le aziende tecnologiche possono mai riprendere il controllo?