{"id":10154,"date":"2024-02-17T20:32:11","date_gmt":"2024-02-17T20:32:11","guid":{"rendered":"https:\/\/dailyai.com\/?p=10154"},"modified":"2024-03-28T00:38:20","modified_gmt":"2024-03-28T00:38:20","slug":"deep-fakes-deep-impacts-critical-thinking-in-the-ai-era","status":"publish","type":"post","link":"https:\/\/dailyai.com\/it\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/","title":{"rendered":"Falsi profondi, impatti profondi: il pensiero critico nell'era dell'IA"},"content":{"rendered":"<p><strong>Gli esseri umani possono imparare a individuare in modo affidabile i falsi generati dall'intelligenza artificiale? Che impatto hanno su di noi a livello cognitivo?<\/strong><\/p>\n<p><a href=\"https:\/\/dailyai.com\/it\/2024\/02\/openai-introduces-sora-an-advanced-text-to-video-model\/\">Il sistema Sora di OpenAI<\/a> ha recentemente anticipato una nuova ondata di media sintetici alimentati dall'intelligenza artificiale. Probabilmente non passer\u00e0 molto tempo prima che una qualsiasi forma di media realistico <span style=\"font-weight: 400;\">- audio, video o immagine - pu\u00f2 essere generato con dei prompt in pochi secondi.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Man mano che questi sistemi di intelligenza artificiale diventano sempre pi\u00f9 capaci, dovremo affinare nuove capacit\u00e0 di pensiero critico per separare la verit\u00e0 dalla finzione.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Finora, gli sforzi di Big Tech per rallentare o fermare i deep fake hanno ottenuto ben poco, non per mancanza di convinzione ma perch\u00e9 i contenuti dell'AI sono cos\u00ec realistici.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Questo lo rende <\/span><a href=\"https:\/\/dailyai.com\/it\/2023\/10\/ai-image-watermarks-dont-work-and-probably-never-will\/\"><span style=\"font-weight: 400;\">difficile da rilevare a livello di pixel<\/span><\/a><span style=\"font-weight: 400;\">mentre altri segnali, come i metadati e le filigrane, hanno i loro difetti.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Inoltre, anche se i contenuti generati dall'intelligenza artificiale fossero rilevabili su scala, \u00e8 difficile separare i contenuti autentici e mirati da quelli destinati a diffondere disinformazione.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il passaggio dei contenuti a revisori umani e l'utilizzo di \"note della comunit\u00e0\" (informazioni allegate ai contenuti, spesso visibili su X) rappresentano una possibile soluzione. <\/span><span style=\"font-weight: 400;\">Tuttavia, ci\u00f2 comporta talvolta un'interpretazione soggettiva e rischia di comportare un'etichettatura errata. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ad esempio, nel <a href=\"https:\/\/dailyai.com\/it\/2023\/11\/deep-fakes-surrounding-the-israel-palestine-conflict-intensify\/\">Il conflitto israelo-palestinese<\/a>Abbiamo assistito a immagini inquietanti etichettate come vere quando invece erano false e viceversa.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Quando un'immagine reale viene etichettata come falsa, si pu\u00f2 creare una '<a href=\"https:\/\/dailyai.com\/it\/2024\/01\/the-rise-of-liars-dividend-as-ai-generated-deep-fakes-continue-to-trouble\/\">dividendo bugiardo<\/a>in cui qualcuno o qualcosa pu\u00f2 far passare la verit\u00e0 come falsa.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Quindi, in assenza di metodi tecnici per fermare le falsificazioni profonde dal punto di vista tecnologico, cosa possiamo fare?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">E in che misura le falsificazioni profonde influiscono sul nostro processo decisionale e sulla nostra psicologia? <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ad esempio, quando le persone sono esposte a immagini politiche false, questo ha un impatto tangibile sul loro comportamento di voto?\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Vediamo un paio di studi che valutano proprio questo aspetto.\u00a0<\/span><\/p>\n<h2>I falsi profondi influenzano le nostre opinioni e i nostri stati psicologici?<\/h2>\n<p><a href=\"https:\/\/journals.sagepub.com\/doi\/full\/10.1177\/2056305120903408\"><span style=\"font-weight: 400;\">Uno studio del 2020<\/span><\/a><span style=\"font-weight: 400;\">Il progetto \"Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News\", ha analizzato come i video deep fake influenzino la percezione del pubblico, in particolare per quanto riguarda la fiducia nelle notizie condivise sui social media.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La ricerca ha coinvolto un esperimento su larga scala con 2.005 partecipanti del Regno Unito, progettato per misurare le reazioni a diversi tipi di video deep fake dell'ex Presidente degli Stati Uniti Barack Obama.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I partecipanti sono stati assegnati in modo casuale alla visione di uno dei tre video:<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">Una clip di 4 secondi che mostra Obama che fa una dichiarazione sorprendente senza alcun contesto.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">Una clip di 26 secondi che includeva alcuni accenni alla natura artificiale del video, ma che era soprattutto ingannevole.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">Un video completo con una \"rivelazione educativa\" in cui viene esplicitamente rivelata la natura artificiale del deep fake, con Jordan Peele che spiega la tecnologia alla base del deep fake.<\/span><\/li>\n<\/ol>\n<h3><b>Risultati principali<\/b><\/h3>\n<p>Lo studio ha esplorato tre aree chiave:<\/p>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>L'inganno<\/b><span style=\"font-weight: 400;\">: Lo studio ha trovato prove minime del fatto che i partecipanti credessero alle false affermazioni contenute nei falsi profondi. La percentuale di partecipanti che sono stati ingannati dai falsi profondi \u00e8 stata relativamente bassa in tutti i gruppi di trattamento.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Incertezza<\/b><span style=\"font-weight: 400;\">: Tuttavia, un risultato fondamentale \u00e8 stato l'aumento dell'incertezza tra gli spettatori, soprattutto quelli che hanno visto i clip pi\u00f9 brevi e ingannevoli. Circa il 35,1% dei partecipanti che hanno visto il clip di 4 secondi e il 36,9% che hanno visto il clip di 26 secondi hanno riferito di sentirsi incerti sull'autenticit\u00e0 del video. Al contrario, solo il 27,5% di coloro che hanno visto il video didattico completo si \u00e8 sentito cos\u00ec.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Fiducia nelle notizie<\/b><span style=\"font-weight: 400;\">: Questa incertezza ha influito negativamente sulla fiducia dei partecipanti nelle notizie sui social media. Coloro che sono stati esposti ai falsi ingannevoli hanno mostrato livelli di fiducia inferiori rispetto a coloro che hanno visto la rivelazione educativa.<\/span><\/li>\n<\/ul>\n<figure id=\"attachment_10156\" aria-describedby=\"caption-attachment-10156\" style=\"width: 662px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-10156\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-1024x1024.jpeg\" alt=\"AI deep fakes\" width=\"662\" height=\"662\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-1024x1024.jpeg 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-300x300.jpeg 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-150x150.jpeg 150w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-768x769.jpeg 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-1534x1536.jpeg 1534w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-180x180.jpeg 180w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-90x90.jpeg 90w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-370x370.jpeg 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-800x801.jpeg 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-20x20.jpeg 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-740x741.jpeg 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-1600x1602.jpeg 1600w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-24x24.jpeg 24w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-48x48.jpeg 48w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1-96x96.jpeg 96w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/images_large_10.1177_2056305120903408-fig1.jpeg 1861w\" sizes=\"auto, (max-width: 662px) 100vw, 662px\" \/><figcaption id=\"caption-attachment-10156\" class=\"wp-caption-text\">Un'ampia percentuale di persone \u00e8 stata ingannata o incerta sui diversi tipi di video. Fonte: <a href=\"https:\/\/journals.sagepub.com\/doi\/full\/10.1177\/2056305120903408\">Riviste Sage<\/a>.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">Questo dimostra che l'esposizione a immagini falsificate profonde provoca un'incertezza a lungo termine. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nel tempo, le immagini false potrebbero indebolire la fiducia in tutte le informazioni, compresa la verit\u00e0.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Risultati simili sono stati dimostrati da un <\/span><a href=\"https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0287503\"><span style=\"font-weight: 400;\">studio pi\u00f9 recente del 2023<\/span><\/a><span style=\"font-weight: 400;\">Face\/Off: Changing the face of movies with deepfake\", che ha concluso che le immagini false hanno un impatto a lungo termine.\u00a0<\/span><\/p>\n<h2>Le persone \"ricordano\" i contenuti falsi dopo averli esposti<\/h2>\n<p><span style=\"font-weight: 400;\">Condotto su 436 partecipanti, lo studio Face\/Off ha analizzato come i falsi profondi possano influenzare il nostro ricordo dei film.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I partecipanti hanno preso parte a un sondaggio online progettato per esaminare le loro percezioni e i loro ricordi dei remake di film reali e immaginari. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il nucleo del sondaggio consisteva nel presentare ai partecipanti sei titoli di film, che comprendevano un mix di quattro remake di film reali e due di film fittizi. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">M<\/span><span style=\"font-weight: 400;\">I film sono stati randomizzati e presentati in due formati: met\u00e0 dei film sono stati introdotti attraverso brevi descrizioni testuali, mentre l'altra met\u00e0 \u00e8 stata abbinata a brevi videoclip. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">I remake di film fittizi consistevano in versioni di \"Shining\", \"Matrix\", \"Indiana Jones\" e \"Capitan Marvel\", complete di descrizioni che affermavano falsamente il coinvolgimento di attori di alto profilo in questi remake inesistenti. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ad esempio, ai partecipanti \u00e8 stato raccontato di un falso remake di \"Shining\" con Brad Pitt e Angelina Jolie, che non \u00e8 mai stato realizzato.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Al contrario, i remake di film reali presentati nel sondaggio, come \"Charlie e la fabbrica di cioccolato\" e \"Total Recall\", erano descritti accuratamente e accompagnati da filmati autentici. Questo mix di remake veri e falsi aveva lo scopo di indagare il modo in cui i partecipanti discernono tra contenuti reali e contenuti inventati.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I partecipanti sono stati interrogati sulla loro familiarit\u00e0 con ciascun film, chiedendo loro se avessero visto il film originale o il remake o se ne avessero una conoscenza precedente.\u00a0<\/span><\/p>\n<h3><b>Risultati principali<\/b><\/h3>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Fenomeno della falsa memoria<\/b><span style=\"font-weight: 400;\">: Un risultato chiave dello studio \u00e8 la rivelazione che quasi la met\u00e0 dei partecipanti (49%) ha sviluppato falsi ricordi della visione di remake fittizi, come immaginare Will Smith nei panni di Neo in \"Matrix\". Ci\u00f2 illustra l'effetto duraturo che i media suggestivi, siano essi video falsi o descrizioni testuali, possono avere sulla nostra memoria.<\/span><\/li>\n<li aria-level=\"1\"><strong>In particolare<\/strong>\"Capitan Marvel\" \u00e8 in cima alla lista, con 73% di partecipanti che ricordano il suo remake di AI, seguito da \"Indiana Jones\" con 43%, \"Matrix\" con 42% e \"Shining\" con 40%. Tra coloro che credevano erroneamente in questi remake, 41% pensavano che il remake di \"Captain Marvel\" fosse superiore all'originale.<\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Influenza comparata di falsi profondi e testo<\/b><span style=\"font-weight: 400;\">: Un'altra scoperta \u00e8 che i falsi profondi, nonostante il loro realismo visivo e uditivo, non sono stati pi\u00f9 efficaci nell'alterare i ricordi dei partecipanti rispetto alle descrizioni testuali dello stesso contenuto fittizio. Ci\u00f2 suggerisce che il formato della disinformazione - visiva o testuale - non altera significativamente il suo impatto sulla distorsione della memoria nel contesto del film.<\/span><\/li>\n<\/ul>\n<figure id=\"attachment_10155\" aria-describedby=\"caption-attachment-10155\" style=\"width: 737px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-10155\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-1024x484.png\" alt=\"Testo AI\" width=\"737\" height=\"348\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-1024x484.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-300x142.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-768x363.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-1536x726.png 1536w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-2048x968.png 2048w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-370x175.png 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-800x378.png 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-740x350.png 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-20x9.png 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-1600x757.png 1600w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/journal.pone_.0287503.g001-102x48.png 102w\" sizes=\"auto, (max-width: 737px) 100vw, 737px\" \/><figcaption id=\"caption-attachment-10155\" class=\"wp-caption-text\">Risposte di memoria per ciascuno dei quattro remake di film fittizi. Ad esempio, un gran numero di persone ha dichiarato di \"ricordare\" un falso remake di Captain Marvel. Fonte: <a href=\"https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0287503\">PLOS Uno<\/a>.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">Il fenomeno della falsa memoria, oggetto di questo studio, \u00e8 ampiamente studiato. Dimostra come gli esseri umani costruiscano o ricostruiscano efficacemente falsi ricordi che siamo certi siano reali quando invece non lo sono.\u00a0<\/span><\/p>\n<p>Tutti sono suscettibili di costruire falsi ricordi, e d<span style=\"font-weight: 400;\">I falsi sembrano attivare questo comportamento, il che significa che la visione di certi contenuti pu\u00f2 cambiare la nostra percezione, anche quando capiamo consapevolmente che non sono autentici.\u00a0<\/span><\/p>\n<p>In entrambi gli studi, i falsi profondi hanno avuto un impatto tangibile e potenzialmente a lungo termine. L'effetto potrebbe essere subdolo e accumularsi nel tempo.<\/p>\n<p>Dobbiamo anche ricordare che i contenuti falsi circolano tra milioni di persone, per cui i piccoli cambiamenti di percezione si estendono a tutta la popolazione globale.<\/p>\n<h2>Cosa fare per i falsi profondi?<\/h2>\n<p><span style=\"font-weight: 400;\">Fare la guerra ai falsi profondi significa combattere il cervello umano.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Se negli ultimi anni l'aumento delle fake news e della disinformazione ha costretto le persone a sviluppare una nuova alfabetizzazione mediatica, i media sintetici generati dall'IA richiederanno un nuovo livello di adattamento. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Abbiamo gi\u00e0 affrontato punti di inflessione di questo tipo in passato, dalla fotografia agli effetti speciali in CGI, ma l'intelligenza artificiale richieder\u00e0 un'evoluzione dei nostri sensi critici.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Oggi dobbiamo andare oltre la semplice fiducia nei nostri occhi e affidarci maggiormente all'analisi delle fonti e degli indizi contestuali.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\u00c8 essenziale interrogare gli incentivi o i pregiudizi dei contenuti. <\/span><span style=\"font-weight: 400;\">Corrisponde ai fatti noti o li contraddice? Esistono prove di conferma da altre fonti attendibili?\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Un altro aspetto fondamentale \u00e8 la definizione di standard legali per identificare i media falsificati o manipolati e ritenere i creatori responsabili.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il <a href=\"https:\/\/dailyai.com\/it\/2024\/02\/us-lawmakers-propose-defiance-act-to-tackle-troublesome-deep-fakes\/\">Legge USA sulla DIFESA<\/a>La legge britannica sulla sicurezza online e le altre leggi equivalenti in tutto il mondo stanno istituendo procedure legali per la gestione dei falsi profondi. Resta da vedere quanto saranno efficaci.\u00a0<\/span><\/p>\n<h2>Strategie per svelare la verit\u00e0<\/h2>\n<p><span style=\"font-weight: 400;\">Concludiamo con cinque strategie per identificare e interrogare potenziali falsi profondi.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Anche se nessuna strategia \u00e8 impeccabile, la promozione di una mentalit\u00e0 critica \u00e8 la cosa migliore che possiamo fare collettivamente per ridurre l'impatto della disinformazione dell'IA.\u00a0<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Verifica della fonte<\/b><span style=\"font-weight: 400;\">: Esaminare la credibilit\u00e0 e l'origine delle informazioni \u00e8 un passo fondamentale. I contenuti autentici provengono spesso da fonti autorevoli e affidabili.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Analisi tecnica<\/b><span style=\"font-weight: 400;\">: Nonostante la loro sofisticatezza, i falsi profondi possono presentare difetti sottili, come espressioni facciali irregolari o illuminazione incoerente. Esaminate i contenuti e valutate se sono stati alterati digitalmente.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Riferimenti incrociati<\/b><span style=\"font-weight: 400;\">: La verifica delle informazioni rispetto a pi\u00f9 fonti attendibili pu\u00f2 fornire una prospettiva pi\u00f9 ampia e contribuire a confermare l'autenticit\u00e0 dei contenuti.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Alfabetizzazione digitale<\/b><span style=\"font-weight: 400;\">: La comprensione delle capacit\u00e0 e dei limiti delle tecnologie AI \u00e8 fondamentale per la valutazione dei contenuti. L'educazione all'alfabetizzazione digitale nelle scuole e nei media, compreso il funzionamento dell'IA e le sue implicazioni etiche, sar\u00e0 fondamentale.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Interazione cauta<\/b><span style=\"font-weight: 400;\">: L'interazione con la disinformazione generata dall'IA ne amplifica gli effetti. Fate attenzione quando mettete \"mi piace\", condividete o ripubblicate contenuti di cui non siete sicuri.\u00a0<\/span><\/li>\n<\/ol>\n<p>Con l'evoluzione delle falsificazioni profonde, si evolveranno anche le tecniche necessarie per rilevarle e mitigarne i danni. Il 2024 sar\u00e0 un anno rivelatore, poich\u00e9 circa la met\u00e0 della popolazione mondiale voter\u00e0 alle principali elezioni.<\/p>\n<p>L'evidenza suggerisce che le falsificazioni profonde possono influenzare la nostra percezione, quindi \u00e8 tutt'altro che stravagante pensare che la disinformazione dell'IA possa avere un impatto concreto sui risultati.<\/p>\n<p><span style=\"font-weight: 400;\">Nel futuro, le pratiche etiche di IA, l'alfabetizzazione digitale, la regolamentazione e l'impegno critico saranno fondamentali per plasmare un futuro in cui la tecnologia amplifichi, anzich\u00e9 oscurare, l'essenza della verit\u00e0.\u00a0<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>Gli esseri umani possono imparare a individuare in modo affidabile i falsi generati dall'intelligenza artificiale? Che impatto hanno su di noi a livello cognitivo? Il sistema Sora di OpenAI ha recentemente presentato in anteprima una nuova ondata di media sintetici alimentati dall'intelligenza artificiale. Probabilmente non passer\u00e0 molto tempo prima che qualsiasi forma di media realistico - audio, video o immagini - possa essere generato con richieste in pochi secondi.  Man mano che questi sistemi di IA diventano sempre pi\u00f9 capaci, dovremo affinare nuove capacit\u00e0 di pensiero critico per separare la verit\u00e0 dalla finzione. Finora, gli sforzi delle Big Tech per rallentare o fermare i deep fake hanno ottenuto ben poco, non certo per mancanza di<\/p>","protected":false},"author":2,"featured_media":10158,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[85],"tags":[94],"class_list":["post-10154","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-policy","tag-deep-fakes"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Deep fakes, deep impacts: critical thinking in the AI era | DailyAI<\/title>\n<meta name=\"description\" content=\"OpenAI\u2019s Sora system preludes a new wave of synthetic video and AI-powered media.\u00a0Can humans learn to reliably detect AI-generated fakes? How do they impact us on a cognitive level?\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/it\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Deep fakes, deep impacts: critical thinking in the AI era | DailyAI\" \/>\n<meta property=\"og:description\" content=\"OpenAI\u2019s Sora system preludes a new wave of synthetic video and AI-powered media.\u00a0Can humans learn to reliably detect AI-generated fakes? How do they impact us on a cognitive level?\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/it\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2024-02-17T20:32:11+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:38:20+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_733796677.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Scritto da\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo di lettura stimato\" \/>\n\t<meta name=\"twitter:data2\" content=\"8 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Deep fakes, deep impacts: critical thinking in the AI era\",\"datePublished\":\"2024-02-17T20:32:11+00:00\",\"dateModified\":\"2024-03-28T00:38:20+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/\"},\"wordCount\":1591,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_733796677.jpg\",\"keywords\":[\"Deep fakes\"],\"articleSection\":{\"1\":\"Policy &amp; Regulation\"},\"inLanguage\":\"it-IT\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/\",\"name\":\"Deep fakes, deep impacts: critical thinking in the AI era | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_733796677.jpg\",\"datePublished\":\"2024-02-17T20:32:11+00:00\",\"dateModified\":\"2024-03-28T00:38:20+00:00\",\"description\":\"OpenAI\u2019s Sora system preludes a new wave of synthetic video and AI-powered media.\u00a0Can humans learn to reliably detect AI-generated fakes? How do they impact us on a cognitive level?\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_733796677.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/02\\\/shutterstock_733796677.jpg\",\"width\":1000,\"height\":667,\"caption\":\"AI deep fake\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/02\\\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Deep fakes, deep impacts: critical thinking in the AI era\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/it\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Falsi profondi, impatti profondi: il pensiero critico nell'era dell'AI | DailyAI","description":"Il sistema Sora di OpenAI prelude a una nuova ondata di video sintetici e di media alimentati dall'intelligenza artificiale. Gli esseri umani possono imparare a rilevare in modo affidabile i falsi generati dall'IA? Che impatto hanno su di noi a livello cognitivo?","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/it\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/","og_locale":"it_IT","og_type":"article","og_title":"Deep fakes, deep impacts: critical thinking in the AI era | DailyAI","og_description":"OpenAI\u2019s Sora system preludes a new wave of synthetic video and AI-powered media.\u00a0Can humans learn to reliably detect AI-generated fakes? How do they impact us on a cognitive level?","og_url":"https:\/\/dailyai.com\/it\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/","og_site_name":"DailyAI","article_published_time":"2024-02-17T20:32:11+00:00","article_modified_time":"2024-03-28T00:38:20+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_733796677.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Scritto da":"Sam Jeans","Tempo di lettura stimato":"8 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Deep fakes, deep impacts: critical thinking in the AI era","datePublished":"2024-02-17T20:32:11+00:00","dateModified":"2024-03-28T00:38:20+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/"},"wordCount":1591,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_733796677.jpg","keywords":["Deep fakes"],"articleSection":{"1":"Policy &amp; Regulation"},"inLanguage":"it-IT"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/","url":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/","name":"Falsi profondi, impatti profondi: il pensiero critico nell'era dell'AI | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_733796677.jpg","datePublished":"2024-02-17T20:32:11+00:00","dateModified":"2024-03-28T00:38:20+00:00","description":"Il sistema Sora di OpenAI prelude a una nuova ondata di video sintetici e di media alimentati dall'intelligenza artificiale. Gli esseri umani possono imparare a rilevare in modo affidabile i falsi generati dall'IA? Che impatto hanno su di noi a livello cognitivo?","breadcrumb":{"@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_733796677.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/02\/shutterstock_733796677.jpg","width":1000,"height":667,"caption":"AI deep fake"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2024\/02\/deep-fakes-deep-impacts-critical-thinking-in-the-ai-era\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Deep fakes, deep impacts: critical thinking in the AI era"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"La vostra dose quotidiana di notizie sull'intelligenza artificiale","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam \u00e8 uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si pu\u00f2 trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/it\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/10154","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/comments?post=10154"}],"version-history":[{"count":11,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/10154\/revisions"}],"predecessor-version":[{"id":10233,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/10154\/revisions\/10233"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media\/10158"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media?parent=10154"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/categories?post=10154"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/tags?post=10154"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}