Il conflitto tra Israele e Gaza ha fatto da sfondo all'evoluzione dell'uso dell'IA nella creazione di falsi profondi, che è diventato un problema per Israele, Gaza e gli osservatori esterni.
Tra le varie immagini provenienti da Gaza, alcune sono particolarmente sconvolgenti. I "neonati insanguinati e abbandonati", come sono stati descritti, hanno guadagnato notorietà online.
Un'immagine di un bambino incenerito è stata condivisa da influencer, come Ben Shapiro, raggiungendo milioni di persone prima che fosse gettato nella polemica per il fatto di essere generato dall'intelligenza artificiale.
Molte di queste immagini false mostrano segni sottili ma rivelatori di manipolazione digitale, come "dita che si arricciano in modo strano o occhi che brillano di una luce innaturale". "Tuttavia, individuare questi segni sul momento è eccezionalmente difficile.
Inoltre, la qualità delle immagini varia. Alcune sono foto riproposte da diversi conflitti, mentre altre sono interamente generate dall'intelligenza artificiale. Col tempo, diventeranno solo realistiche.
Come descrive l'amministratore delegato di CREOpoint, Jean-Claude Goldenstein, "la situazione peggiorerà - molto peggiorerà - prima di migliorare". La sua azienda ha compilato un database delle falsificazioni più virali del conflitto, mostrando il ruolo crescente dell'IA nella creazione di realtà nei conflitti.
Lo scopo principale dei falsi profondi è quello di suscitare shock e angoscia, per questo si rivolgono spesso ai bambini per intensificare le reazioni emotive.
Come afferma Imran Ahmed, CEO del Center for Countering Digital Hate, spiegaLa disinformazione è studiata per indurvi a seguirla".
I falsi profondi sono in continuo aumento
I deep fake sono un effetto pervasivo, o un effetto collaterale, dello sviluppo dell'IA. Non solo i deep fake dell'IA rischiano di essere visti come autentici, ma rischiano anche che i contenuti reali vengano visti come falsi.
Inoltre, questo fenomeno non è certamente limitato al conflitto di Gaza. Contenuti simili generati dall'IA sono emersi durante l'invasione dell'Ucraina da parte della Russia nel 2022, compreso un video alterato del presidente ucraino Zelenskyy.
Altri esempi sono le immagini false di politici, come ad esempio Trump abbraccia Fauci. E il problema non si ferma alle immagini: le voci false hanno politici coinvolti in conversazioni non hanno partecipato o non hanno partecipato affatto.
Le aziende tecnologiche di tutto il mondo stanno rispondendo sviluppando filtri AI in grado di rilevare i deepfake, autenticare le immagini e analizzare il testo alla ricerca di informazioni errate. Google, YouTube e Meta hanno recentemente promesso di etichettare i contenuti generati dall'IA, ma tecnicamente si tratta di una sfida.
Abbiamo anche assistito a un diluvio di servizi di fact-checking progettati per evidenziare i contenuti dubbi, ma i loro processi sono fallibili e lenti. E quali sono le implicazioni di un "rispettabile" fact checker che etichetta erroneamente qualcosa come reale o falso?
Con le elezioni cruciali all'orizzonte, non da meno le elezioni presidenziali statunitensi del 2024, le falsificazioni profonde stanno suscitando un'intensa paranoia. Il loro impatto non ha ancora raggiunto un limite.