{"id":9376,"date":"2024-01-20T16:18:52","date_gmt":"2024-01-20T16:18:52","guid":{"rendered":"https:\/\/dailyai.com\/?p=9376"},"modified":"2024-01-26T12:21:52","modified_gmt":"2024-01-26T12:21:52","slug":"the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models","status":"publish","type":"post","link":"https:\/\/dailyai.com\/it\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/","title":{"rendered":"Nightshade dell'Universit\u00e0 di Chicago \u00e8 progettato per avvelenare i modelli di intelligenza artificiale"},"content":{"rendered":"<p><strong>Un gruppo di sviluppatori di Chicago ha dotato gli artisti di Nightshade, un metodo di lotta contro le pratiche non etiche dei dati.<\/strong><\/p>\n<p><span style=\"font-weight: 400;\">Nightshade \u00e8 uno strumento sofisticato progettato per proteggere le opere d'arte digitali dall'uso non autorizzato nell'addestramento dell'intelligenza artificiale, introducendo campioni \"velenosi\". <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Queste alterazioni sono impercettibili all'occhio umano, ma disturbano il processo di apprendimento dell'intelligenza artificiale, portando ad associazioni e risposte errate. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il <\/span><a href=\"https:\/\/nightshade.cs.uchicago.edu\/whatis.html\"><span style=\"font-weight: 400;\">i ricercatori scrivono<\/span><\/a><span style=\"font-weight: 400;\">Gli occhi umani potrebbero vedere un'immagine ombreggiata di una mucca in un campo verde, ma un modello di intelligenza artificiale potrebbe vedere una grande borsa di pelle che giace nell'erba\".\u00a0<\/span><\/p>\n<p>L'effetto si accumula, quindi pi\u00f9 immagini \"avvelenate\" finiscono in un set di dati, pi\u00f9 le prestazioni del modello si deteriorano.<\/p>\n<figure id=\"attachment_9378\" aria-describedby=\"caption-attachment-9378\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-9378 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison2-1024x256.png\" alt=\"Nightshade AI\" width=\"1024\" height=\"256\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison2-1024x256.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison2-300x75.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison2-768x192.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison2-370x93.png 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison2-800x200.png 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison2-740x185.png 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison2-20x5.png 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison2-192x48.png 192w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison2.png 1276w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-9378\" class=\"wp-caption-text\">Come funzionano gli attacchi del veleno Nightshade. Fonte: <a href=\"https:\/\/arxiv.org\/pdf\/2310.13828.pdf\">Universit\u00e0 di Chicago via ArXiv<\/a><\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">Questo strumento si aggiunge alla precedente creazione dell'Universit\u00e0 di Chicago, Glaze, che aiuta gli artisti a combattere il data scraping. \"Glaze pu\u00f2 cambiare cose come colori e pennellate, presentando uno stile artistico diverso da quello che c'\u00e8 in realt\u00e0\", spiegano gli sviluppatori.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nightshade si discosta tuttavia dall'approccio di Glaze. \"Mentre Glaze era uno strumento difensivo, Nightshade \u00e8 stato progettato per essere uno strumento offensivo\", afferma il team.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Sono terribilmente entusiasta di annunciare che \"Artifact\" \u00e8 stato smaltato e oscurato da Nightshaded. <a href=\"https:\/\/twitter.com\/TheGlazeProject?ref_src=twsrc%5Etfw\">@TheGlazeProject<\/a> e anche un'opera perfetta per l'occasione. Si tratta di un dipinto sull'IA generativa che cannibalizza la voce autentica dei creativi umani. Quando questa immagine viene raschiata per l'addestramento, beh... <a href=\"https:\/\/t.co\/0VNFIyabc2\">pic.twitter.com\/0VNFIyabc2<\/a><\/p>\n<p>- Kelly McKernan (@Kelly_McKernan) <a href=\"https:\/\/twitter.com\/Kelly_McKernan\/status\/1746577016407622064?ref_src=twsrc%5Etfw\">14 gennaio 2024<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2>Come funziona Nightshade in cinque passi<\/h2>\n<p><span style=\"font-weight: 400;\">Nightshade \u00e8 uno strumento intelligente che utilizza le funzioni di apprendimento automatico coinvolte nell'addestramento dei modelli contro il sistema stesso, avvelenando il processo di apprendimento e portando a risultati peggiori tra i diversi modelli.\u00a0<\/span><\/p>\n<p><b>Comprendere la vulnerabilit\u00e0<\/b><\/p>\n<p><span style=\"font-weight: 400;\">L'attacco Nightshade sfrutta una debolezza specifica dei modelli generativi testo-immagine. Questi modelli di intelligenza artificiale sono addestrati su vasti set di immagini e descrizioni testuali corrispondenti. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tuttavia, il team dell'Universit\u00e0 di Chicago ha scoperto che la quantit\u00e0 di dati di addestramento \u00e8 piuttosto limitata per alcune richieste o soggetti specifici. Questo pool di dati limitato per richieste specifiche rende questi modelli vulnerabili ad attacchi mirati di avvelenamento dei dati.<\/span><\/p>\n<p><b>Il concetto alla base di Nightshade<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Nightshade \u00e8 un metodo sofisticato progettato per eseguire il cosiddetto attacco di avvelenamento specifico del prompt.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> In termini pi\u00f9 semplici, \u00e8 come introdurre un piccolo errore accuratamente progettato nel processo di apprendimento dell'IA, che porta a errori significativi e mirati quando l'IA genera immagini in base a determinati suggerimenti. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">La caratteristica principale di Nightshade \u00e8 la capacit\u00e0 di produrre campioni \"avvelenati\" che sembrano normali agli occhi umani, ma che sono radicalmente diversi nel modo in cui l'IA li percepisce e impara.<\/span><\/p>\n<p><b>Creazione di campioni di veleno<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Per eseguire un attacco Nightshade, i ricercatori generano innanzitutto quelle che chiamano \"immagini di ancoraggio\". Si tratta di immagini di un concetto non correlato all'obiettivo effettivo dell'attacco. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ad esempio, se il concetto target \u00e8 \"cane\", le immagini di ancoraggio potrebbero essere \"gatti\". Queste immagini di ancoraggio sono generate da un modello di intelligenza artificiale che gli utenti eseguono sul proprio PC.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Successivamente, i ricercatori trovano immagini reali del concetto target (come i cani) e le modificano sottilmente per allinearle alle caratteristiche delle immagini di riferimento nella percezione dell'intelligenza artificiale.<\/span><\/p>\n<figure id=\"attachment_9377\" aria-describedby=\"caption-attachment-9377\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-9377 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison-1024x501.png\" alt=\"AI Nightshade\" width=\"1024\" height=\"501\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison-1024x501.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison-300x147.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison-768x376.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison-370x181.png 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison-800x391.png 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison-740x362.png 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison-20x10.png 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison-98x48.png 98w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/Poison.png 1413w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-9377\" class=\"wp-caption-text\">Un esempio di come le immagini vengano progressivamente avvelenate dall'aggiunta di altri campioni. Fonte: <a href=\"https:\/\/arxiv.org\/pdf\/2310.13828.pdf\">Universit\u00e0 di Chicago via ArXiv<\/a>.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">Per un essere umano, queste immagini modificate continuano ad assomigliare a cani, ma per l'intelligenza artificiale sono molto simili a gatti. Sebbene questo concetto possa essere difficile da comprendere, \u00e8 importante ricordare che le forme che creano le immagini sono sempre fondamentalmente simili.\u00a0<\/span><\/p>\n<p>Le alterazioni sono chiamate perturbazioni avversarie. Sono accuratamente calcolate per spostare la rappresentazione dell'immagine nello spazio delle caratteristiche dell'intelligenza artificiale dalla regione associata ai gatti a quella associata ai cani.<\/p>\n<p><b>Come l'attacco colpisce i modelli di IA<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Quando un modello generativo di intelligenza artificiale viene addestrato su questi campioni avvelenati, inizia ad associare le caratteristiche del concetto non correlato (gatti) con il concetto target (cani). <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Di conseguenza, quando viene richiesto di generare immagini di cani, il modello AI potrebbe produrre invece immagini di gatti. Questo perch\u00e9 la comprensione del concetto di \"cane\" da parte del modello \u00e8 stata distorta dai dati avvelenati.<\/span><\/p>\n<p>Anche se questo non \"rompe\" completamente un modello di IA, lo rende meno efficace e pi\u00f9 imprevedibile, il che potrebbe certamente comprometterne l'usabilit\u00e0.<\/p>\n<p>Le aziende di IA probabilmente si opporranno a Nightshade e a tecniche simili, ma ci\u00f2 richieder\u00e0 tempo e sforzi.<\/p>\n<p><b>Impatto<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Un impatto chiave dell'attacco Nightshade \u00e8 il suo effetto \"bleed-through\". Ci\u00f2 significa che l'avvelenamento di un concetto pu\u00f2 influenzare concetti correlati. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ad esempio, avvelenare il concetto di \"cane\" potrebbe influenzare anche il modo in cui il modello genera immagini di animali correlati come \"lupo\" o \"volpe\".<\/span><\/p>\n<figure id=\"attachment_9389\" aria-describedby=\"caption-attachment-9389\" style=\"width: 711px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-9389 size-full\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/poison3.png\" alt=\"AI Nightshade\" width=\"711\" height=\"393\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/poison3.png 711w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/poison3-300x166.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/poison3-370x205.png 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/poison3-20x11.png 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/poison3-87x48.png 87w\" sizes=\"auto, (max-width: 711px) 100vw, 711px\" \/><figcaption id=\"caption-attachment-9389\" class=\"wp-caption-text\">Questo rappresenta un modello in cui il concetto di \"cane\" viene avvelenato. Senza essere specificamente mirati, i concetti correlati<br \/>sono corrotti dall'avvelenamento (effetto \"bleed-through\"). Fonte: <a href=\"https:\/\/arxiv.org\/pdf\/2310.13828.pdf\">Universit\u00e0 di Chicago via ArXiv<\/a><\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">Inoltre, quando pi\u00f9 concetti sono avvelenati in un modello, ci\u00f2 pu\u00f2 compromettere la capacit\u00e0 del modello di generare immagini coerenti per un'ampia gamma di richieste.<\/span><\/p>\n<h2>Come gli artisti possono utilizzare Nightshade<\/h2>\n<p><span style=\"font-weight: 400;\">Nightshade \u00e8 uno strumento che si scarica e si usa da soli, ma richiede un notevole dispendio di risorse e una GPU Nvidia compatibile con almeno 4G di memoria. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Questo processo potrebbe essere semplificato in futuro, oppure potrebbero esistere servizi cloud in cui \u00e8 possibile caricare semplicemente le immagini per farle diventare Nightshade.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ecco come utilizzare Nightshade:\u00a0<\/span><\/p>\n<ol>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Selezionare l'opera d'arte<\/b><span style=\"font-weight: 400;\">: \u00c8 possibile trascinare una singola immagine nel segnaposto immagine o selezionare pi\u00f9 immagini utilizzando il pulsante \"Seleziona...\".<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Regolare i parametri<\/b><span style=\"font-weight: 400;\">: L'intensit\u00e0 determina la forza dell'effetto di Nightshade. Un'intensit\u00e0 pi\u00f9 elevata porta a un'alterazione pi\u00f9 potente, ma pu\u00f2 causare modifiche evidenti all'opera d'arte. La qualit\u00e0 del rendering indica il tempo di calcolo per trovare il livello di veleno ottimale. Una qualit\u00e0 pi\u00f9 alta equivale a un veleno pi\u00f9 forte, ma richiede pi\u00f9 tempo. Se si dispone di una GPU, il processo sar\u00e0 pi\u00f9 veloce.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Scegliere la directory di output<\/b><span style=\"font-weight: 400;\">: Selezionare la posizione in cui salvare le immagini Nightshaded.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Selezionare l'etichetta del veleno<\/b><span style=\"font-weight: 400;\">: Nightshade agisce fuorviando l'intelligenza artificiale su alcuni concetti presenti nelle immagini. Ad esempio, pu\u00f2 alterare le immagini etichettate come \"auto\" per farle percepire come \"mucche\" dai modelli di intelligenza artificiale. Nightshade suggerisce un tag basato sull'analisi dei contenuti quando seleziona l'immagine. Assicuratevi che il tag rifletta accuratamente il concetto chiave dell'immagine e, se necessario, modificatelo. L'efficacia di Nightshade aumenta quando l'immagine \u00e8 associata a questo tag attraverso l'alt-text, le didascalie o il testo vicino.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><b>Eseguire Nightshade<\/b><span style=\"font-weight: 400;\">: Dopo aver finalizzato le impostazioni e confermato il tag dell'immagine, avviare il processo premendo il pulsante \"Esegui\". Le immagini modificate verranno salvate nella directory di output scelta.<\/span><\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\"><span style=\"font-weight: 400;\">Trovate istruzioni dettagliate nella sezione <\/span><a href=\"https:\/\/nightshade.cs.uchicago.edu\/userguide.html\"><span style=\"font-weight: 400;\">guida ufficiale per l'utente qui<\/span><\/a><span style=\"font-weight: 400;\">.<\/span><\/li>\n<\/ol>\n<div class=\"mceTemp\"><\/div>\n<h2>Accoglienza comunitaria all'accoglienza Nightshade<\/h2>\n<p><span style=\"font-weight: 400;\">Il sostegno agli artisti che cercano di difendere il loro lavoro dall'IA \u00e8 stato schiacciante, ma come sempre le fazioni sono molteplici, e alcuni hanno parlato di un cyberattacco ai modelli di IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In risposta alle critiche, il team chiarisce: \"L'obiettivo di Nightshade non \u00e8 quello di rompere i modelli, ma di aumentare il costo della formazione su dati senza licenza, in modo tale che la licenza delle immagini dai loro creatori diventi una valida alternativa\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Usato in modo responsabile, Nightshade pu\u00f2 aiutare a scoraggiare i formatori di modelli che non rispettano i diritti d'autore, le liste di opt-out e le direttive do-not-scrape\/robots.txt\", affermano.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Il dibattito sullo scraping dei dati e sull'addestramento dei modelli di IA \u00e8 diventato estremamente aspro dopo la controversia di Midjourney e il diluvio di aziende che utilizzano opere d'arte generate dall'IA, sostituendo cos\u00ec il lavoro umano.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Nightshade \u00e8 uscito!<\/p>\n<p>Nightshade avvelena i modelli dell'IA se la vostra arte o le vostre immagini vengono prese senza autorizzazione, Glaze vi protegge dall'imitazione dell'IA. Si consiglia di utilizzare prima Nightshade e poi Glaze. \u00c8 in arrivo una versione che fa entrambe le cose.<\/p>\n<p>Leggete questo thread per maggiori informazioni.<\/p>\n<p>Andate a prenderli \ud83e\udee1 <a href=\"https:\/\/t.co\/bU8EDthUcS\">https:\/\/t.co\/bU8EDthUcS<\/a> <a href=\"https:\/\/t.co\/YddNu8xmJm\">pic.twitter.com\/YddNu8xmJm<\/a><\/p>\n<p>- Reid Southen (@Rahll) <a href=\"https:\/\/twitter.com\/Rahll\/status\/1748199402928308375?ref_src=twsrc%5Etfw\">19 gennaio 2024<\/a><\/p><\/blockquote>\n<p><script src=\"https:\/\/platform.twitter.com\/widgets.js\" async=\"\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">Improvvisamente, sembra che ci sia un vuoto sempre pi\u00f9 ampio tra le aziende tecnologiche che commercializzano l'IA come forza filantropica e il pubblico, che ritiene che stia invadendo troppo la cultura e la societ\u00e0.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In effetti, Nightshade non \u00e8 utile solo agli artisti. Le persone stanno incoraggiando il maggior numero possibile di persone a utilizzare questi strumenti, creando un bacino pi\u00f9 ristretto di dati di alta qualit\u00e0 che le aziende di intelligenza artificiale possono raccogliere.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ma le aziende hanno gi\u00e0 abbastanza dati? Forse per ora, ma per mantenere i modelli attuali e aggiornati, gli sviluppatori di IA dovranno prima o poi introdurre nuovi dati nei loro sistemi.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\"><a href=\"https:\/\/twitter.com\/hashtag\/nightshade?src=hash&amp;ref_src=twsrc%5Etfw\">#nightshade<\/a><br \/>\nSuggerimento: utilizzate Nightshade su tutto ci\u00f2 che caricate online (non solo sulla vostra arte), sulle immagini dei social media, sulle foto quotidiane dei vostri pasti, della vostra famiglia, dei vostri cuccioli, dei vostri gattini, sui selfie casuali e sulle foto di strada - e che il gioco abbia inizio.<\/p>\n<p>- modifica ballai \ud83c\udf3f (@eballai) <a href=\"https:\/\/twitter.com\/eballai\/status\/1748404634056573339?ref_src=twsrc%5Etfw\">19 gennaio 2024<\/a><\/p><\/blockquote>\n<p><script src=\"https:\/\/platform.twitter.com\/widgets.js\" async=\"\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">In Glaze e Nightshade, stiamo assistendo a una battaglia tecnologica ed etica emergente tra i creatori e le aziende di IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La situazione si fa sempre pi\u00f9 interessante e potrebbero esistere modi simili per ingannare e avvelenare i modelli linguistici?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Questo, unito alle battaglie legali, potrebbe far entrare l'IA generativa in un periodo di volatilit\u00e0. Sar\u00e0 un anno importante per questa tecnologia. <\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>Un gruppo di sviluppatori di Chicago ha dotato gli artisti di Nightshade, un metodo per combattere le pratiche non etiche dei dati. Nightshade \u00e8 uno strumento sofisticato progettato per proteggere le opere d'arte digitali dall'uso non autorizzato nell'addestramento dell'intelligenza artificiale, introducendo campioni \"velenosi\". Queste alterazioni sono impercettibili all'occhio umano, ma disturbano il processo di apprendimento dell'IA, portando ad associazioni e risposte errate. I ricercatori scrivono: \"Gli occhi umani potrebbero vedere un'immagine ombreggiata di una mucca in un campo verde in gran parte invariata, ma un modello di IA potrebbe vedere una grande borsa di pelle che giace nell'erba\".  L'effetto si accumula, per cui pi\u00f9 immagini \"avvelenate<\/p>","protected":false},"author":2,"featured_media":9379,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[88],"tags":[197,234,526],"class_list":["post-9376","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ethics","tag-copyright","tag-midjourney","tag-nightshade"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>The University of Chicago&#039;s Nightshade is designed to poison AI models | DailyAI<\/title>\n<meta name=\"description\" content=\"A group of Chicago-based developers have equipped artists with Nightshade, a method of fighting back against unethical data practices and model training in the AI industry.\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/it\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"The University of Chicago&#039;s Nightshade is designed to poison AI models | DailyAI\" \/>\n<meta property=\"og:description\" content=\"A group of Chicago-based developers have equipped artists with Nightshade, a method of fighting back against unethical data practices and model training in the AI industry.\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/it\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2024-01-20T16:18:52+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-01-26T12:21:52+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/shutterstock_1950627238.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"673\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Scritto da\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo di lettura stimato\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/01\\\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/01\\\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"The University of Chicago&#8217;s Nightshade is designed to poison AI models\",\"datePublished\":\"2024-01-20T16:18:52+00:00\",\"dateModified\":\"2024-01-26T12:21:52+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/01\\\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\\\/\"},\"wordCount\":1523,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/01\\\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/01\\\/shutterstock_1950627238.jpg\",\"keywords\":[\"Copyright\",\"MidJourney\",\"Nightshade\"],\"articleSection\":[\"Ethics &amp; Society\"],\"inLanguage\":\"it-IT\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/01\\\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/01\\\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\\\/\",\"name\":\"The University of Chicago's Nightshade is designed to poison AI models | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/01\\\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/01\\\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/01\\\/shutterstock_1950627238.jpg\",\"datePublished\":\"2024-01-20T16:18:52+00:00\",\"dateModified\":\"2024-01-26T12:21:52+00:00\",\"description\":\"A group of Chicago-based developers have equipped artists with Nightshade, a method of fighting back against unethical data practices and model training in the AI industry.\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/01\\\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\\\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2024\\\/01\\\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/01\\\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/01\\\/shutterstock_1950627238.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2024\\\/01\\\/shutterstock_1950627238.jpg\",\"width\":1000,\"height\":673,\"caption\":\"AI nightshade\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2024\\\/01\\\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"The University of Chicago&#8217;s Nightshade is designed to poison AI models\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/it\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Nightshade dell'Universit\u00e0 di Chicago \u00e8 progettato per avvelenare i modelli di intelligenza artificiale | DailyAI","description":"Un gruppo di sviluppatori di Chicago ha dotato gli artisti di Nightshade, un metodo per combattere le pratiche non etiche dei dati e l'addestramento dei modelli nell'industria dell'intelligenza artificiale.\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/it\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/","og_locale":"it_IT","og_type":"article","og_title":"The University of Chicago's Nightshade is designed to poison AI models | DailyAI","og_description":"A group of Chicago-based developers have equipped artists with Nightshade, a method of fighting back against unethical data practices and model training in the AI industry.\u00a0","og_url":"https:\/\/dailyai.com\/it\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/","og_site_name":"DailyAI","article_published_time":"2024-01-20T16:18:52+00:00","article_modified_time":"2024-01-26T12:21:52+00:00","og_image":[{"width":1000,"height":673,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/shutterstock_1950627238.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Scritto da":"Sam Jeans","Tempo di lettura stimato":"7 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"The University of Chicago&#8217;s Nightshade is designed to poison AI models","datePublished":"2024-01-20T16:18:52+00:00","dateModified":"2024-01-26T12:21:52+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/"},"wordCount":1523,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/shutterstock_1950627238.jpg","keywords":["Copyright","MidJourney","Nightshade"],"articleSection":["Ethics &amp; Society"],"inLanguage":"it-IT"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/","url":"https:\/\/dailyai.com\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/","name":"Nightshade dell'Universit\u00e0 di Chicago \u00e8 progettato per avvelenare i modelli di intelligenza artificiale | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/shutterstock_1950627238.jpg","datePublished":"2024-01-20T16:18:52+00:00","dateModified":"2024-01-26T12:21:52+00:00","description":"Un gruppo di sviluppatori di Chicago ha dotato gli artisti di Nightshade, un metodo per combattere le pratiche non etiche dei dati e l'addestramento dei modelli nell'industria dell'intelligenza artificiale.\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/shutterstock_1950627238.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2024\/01\/shutterstock_1950627238.jpg","width":1000,"height":673,"caption":"AI nightshade"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2024\/01\/the-university-of-chicagos-nightshade-is-designed-to-poison-ai-models\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"The University of Chicago&#8217;s Nightshade is designed to poison AI models"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"La vostra dose quotidiana di notizie sull'intelligenza artificiale","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam \u00e8 uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si pu\u00f2 trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/it\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/9376","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/comments?post=9376"}],"version-history":[{"count":11,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/9376\/revisions"}],"predecessor-version":[{"id":9393,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/9376\/revisions\/9393"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media\/9379"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media?parent=9376"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/categories?post=9376"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/tags?post=9376"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}