{"id":1659,"date":"2023-06-13T21:32:01","date_gmt":"2023-06-13T21:32:01","guid":{"rendered":"https:\/\/dailyai.com\/?p=1659"},"modified":"2024-03-28T00:48:07","modified_gmt":"2024-03-28T00:48:07","slug":"navigating-the-labyrinth-of-ai-risks-an-analysis","status":"publish","type":"post","link":"https:\/\/dailyai.com\/it\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","title":{"rendered":"Navigare nel labirinto dei rischi dell'IA: un'analisi"},"content":{"rendered":"<p><strong>La narrativa sui rischi dell'IA \u00e8 diventata sempre pi\u00f9 unipolare, con leader tecnologici ed esperti di ogni provenienza che spingono per una regolamentazione. Quanto sono credibili le prove che documentano i rischi dell'IA?\u00a0<\/strong><\/p>\n<p><span style=\"font-weight: 400\">I rischi dell'IA sono un richiamo per i sensi. <\/span><span style=\"font-weight: 400\">C'\u00e8 qualcosa di profondamente intuitivo nel temere i robot che potrebbero ingannarci, sopraffarci o trasformarci in una merce secondaria alla loro stessa esistenza.<\/span><\/p>\n<p><span style=\"font-weight: 400\">I dibattiti sui rischi dell'IA si sono intensificati dopo che il t<\/span><span style=\"font-weight: 400\">a non profit <\/span><span style=\"font-weight: 400\">Centro per la sicurezza dell'intelligenza artificiale (CAIS)<\/span><span style=\"font-weight: 400\"> ha rilasciato un <a href=\"https:\/\/www.safe.ai\/statement-on-ai-risk\">dichiarazione<\/a>\u00a0firmato da oltre 350 personalit\u00e0 di spicco, tra cui gli amministratori delegati di OpenAI, Anthropic e DeepMind, numerosi accademici, personaggi pubblici e persino ex politici.\u00a0<\/span><\/p>\n<p>Il titolo della dichiarazione era destinato ai titoli dei giornali: <strong>\"Mitigare il rischio di estinzione dovuto all'IA dovrebbe essere una priorit\u00e0 globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare\".<\/strong><\/p>\n<p><span style=\"font-weight: 400\">\u00c8 diventato sempre pi\u00f9 difficile trarre un segnale significativo da questo rumoroso dibattito. I critici dell'Intelligenza Artificiale hanno tutte le munizioni necessarie per opporsi ad essa, mentre i sostenitori o i sostenitori hanno tutto ci\u00f2 che serve per denunciare le narrazioni anti-AI come esagerate.<\/span><\/p>\n<p><span style=\"font-weight: 400\">E c'\u00e8 anche una sottotrama. Le grandi aziende tecnologiche potrebbero spingere per una regolamentazione <a href=\"https:\/\/dailyai.com\/it\/2023\/06\/ai-companies-want-regulation-but-is-it-for-the-right-reasons\/\">recintare l'industria dell'IA<\/a> dalla comunit\u00e0 open-source. <\/span>Microsoft ha investito in OpenAI, Google ha investito in Anthropic: la prossima mossa potrebbe essere quella di alzare la barriera all'ingresso e strangolare l'innovazione open-source.<\/p>\n<p>Pi\u00f9 che l'IA a rappresentare un rischio esistenziale per l'umanit\u00e0, potrebbe essere l'IA open-source a rappresentare un rischio esistenziale per le grandi tecnologie. La soluzione \u00e8 la stessa: controllarla subito.<\/p>\n<h2>Troppo presto per togliere le carte dal tavolo<\/h2>\n<p>L'IA \u00e8 appena emersa nella coscienza pubblica, quindi praticamente tutte le prospettive sui rischi e sulla regolamentazione rimangono rilevanti. La dichiarazione del CAIS pu\u00f2 almeno fungere da prezioso punto di riferimento per guidare una discussione basata su dati concreti.<\/p>\n<p><span style=\"font-weight: 400\">Oscar Mendez Maldonado, docente di robotica e intelligenza artificiale presso l'Universit\u00e0 del Surrey, <a href=\"https:\/\/www.sciencemediacentre.org\/expert-reaction-to-a-statement-on-the-existential-threat-of-ai-published-on-the-centre-for-ai-safety-website\">detto<\/a>, \"Il documento firmato dagli esperti di IA \u00e8 molto pi\u00f9 sfumato di quanto i titoli attuali vogliano far credere. \"L'IA potrebbe causare l'estinzione\" fa immediatamente pensare a un'acquisizione dell'IA in stile Terminator. Il documento \u00e8 molto pi\u00f9 realistico di cos\u00ec\".<\/span><\/p>\n<p><span style=\"font-weight: 400\">Come sottolinea Maldonado, la vera sostanza dell'attestato di rischio dell'AI \u00e8 pubblicata in un'altra pagina del loro sito web. <a href=\"https:\/\/www.safe.ai\/ai-risk\">Rischio AI<\/a> - e la discussione sui punti sollevati \u00e8 stata notevolmente scarsa. Comprendere la credibilit\u00e0 dei rischi legati all'IA \u00e8 fondamentale per informare i dibattiti che li riguardano.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Quindi, quali prove ha raccolto il CAIS per avvalorare il suo messaggio? I rischi spesso evocati dall'IA sembrano credibili?\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Rischio 1: Armamento dell'IA<\/span><\/h2>\n<p><span style=\"font-weight: 400\">L'armamento dell'IA \u00e8 una prospettiva agghiacciante, per cui non sorprende che sia al primo posto tra gli 8 rischi del CAIS.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Il CAIS sostiene che l'IA pu\u00f2 essere utilizzata come arma negli attacchi informatici, come dimostrato dai ricercatori del Center of Security and Emerging Technology, che <\/span><a href=\"https:\/\/cset.georgetown.edu\/publication\/automating-cyber-attacks\/\"><span style=\"font-weight: 400\">panoramica sugli usi<\/span><\/a><span style=\"font-weight: 400\"> dell'apprendimento automatico (ML) per attaccare i sistemi informatici. <\/span><span style=\"font-weight: 400\">L'ex CEO di Google Eric Schmidt <a href=\"https:\/\/dailyai.com\/it\/2023\/05\/ex-google-ceo-eric-schmidt-ai-poses-an-existential-risk\/\">ha anche attirato l'attenzione<\/a> al potenziale dell'intelligenza artificiale per individuare gli exploit zero-day, che forniscono agli hacker un mezzo per entrare nei sistemi attraverso i loro punti pi\u00f9 deboli.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Su un piano diverso, Michael Klare, consulente per il controllo degli armamenti, discute la <\/span><a href=\"https:\/\/www.armscontrol.org\/act\/2020-04\/features\/skynet-revisited-dangerous-allure-nuclear-command-automation\"><span style=\"font-weight: 400\">automazione dei sistemi di comando e controllo nucleare<\/span><\/a><span style=\"font-weight: 400\">che potrebbero rivelarsi vulnerabili all'intelligenza artificiale. Afferma: \"Questi sistemi sono anche inclini a malfunzionamenti inspiegabili e possono essere ingannati, o \"spoofati\", da professionisti esperti. Inoltre, a prescindere da quanto si spenda per la sicurezza informatica, i sistemi NC3 saranno sempre vulnerabili all'hacking da parte di avversari sofisticati\".<\/span><\/p>\n<p><span style=\"font-weight: 400\">Un altro esempio di possibile armamento \u00e8 la scoperta automatizzata di armi biologiche. L'intelligenza artificiale \u00e8 gi\u00e0 riuscita a scoprire armi potenzialmente <a href=\"https:\/\/dailyai.com\/it\/2023\/06\/researchers-build-breakthrough-ai-model-for-drug-discovery\/\">composti terapeutici<\/a>, quindi le capacit\u00e0 sono gi\u00e0 presenti.<\/span><span style=\"font-weight: 400\">\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Le IA potrebbero persino condurre test sulle armi in modo autonomo, con una guida umana minima. Ad esempio, un gruppo di ricercatori dell'Universit\u00e0 di Pittsburgh ha dimostrato che sofisticate <\/span><a href=\"https:\/\/arxiv.org\/abs\/2304.05332\"><span style=\"font-weight: 400\">Gli agenti di intelligenza artificiale potrebbero condurre i propri esperimenti scientifici autonomi<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Rischio 2: disinformazione e frode<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Il potenziale dell'IA di copiare e imitare gli esseri umani sta gi\u00e0 causando sconvolgimenti e abbiamo assistito a diversi casi di frode che hanno coinvolto falsi profondi. <a href=\"https:\/\/dailyai.com\/it\/2023\/06\/ai-related-fraud-on-the-rise-in-china\/\">Rapporti dalla Cina<\/a> indicano che le frodi legate all'IA sono molto diffuse.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Un caso recente ha coinvolto una donna dell'Arizona che ha alzato il telefono e si \u00e8 trovata di fronte la figlia che singhiozzava, o almeno cos\u00ec pensava. \"La voce sembrava proprio quella di Brie, l'inflessione, tutto\". <\/span><a href=\"https:\/\/edition.cnn.com\/2023\/04\/29\/us\/ai-scam-calls-kidnapping-cec\/index.html\"><span style=\"font-weight: 400\">ha dichiarato alla CNN<\/span><\/a><span style=\"font-weight: 400\">. Il truffatore ha chiesto un riscatto di $1 milione.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Altre tattiche includono l'utilizzo dell'IA generativa per la \"sextortion\" e il revenge porn, in cui gli attori delle minacce utilizzano immagini generate dall'IA per richiedere riscatti per contenuti espliciti falsi, che la <\/span><a href=\"https:\/\/www.ic3.gov\/Media\/Y2023\/PSA230605\"><span style=\"font-weight: 400\">L'FBI ha avvertito all'inizio di giugno<\/span><\/a><span style=\"font-weight: 400\">. Queste tecniche stanno diventando sempre pi\u00f9 sofisticate e pi\u00f9 facili da lanciare su scala.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Rischio 3: gioco di deleghe o specifiche<\/span><\/h2>\n<p><span style=\"font-weight: 400\">I sistemi di intelligenza artificiale vengono solitamente addestrati utilizzando obiettivi misurabili. Tuttavia, questi obiettivi possono fungere da mera approssimazione per i veri obiettivi, portando a risultati indesiderati.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Un'utile analogia \u00e8 rappresentata dal mito greco di Re Mida, che ottenne un desiderio da Dioniso.\u00a0<\/span><span style=\"font-weight: 400\">Mida chiede che tutto ci\u00f2 che tocca si trasformi in oro, ma poi si accorge che anche il suo cibo si trasforma in oro, portando quasi alla fame.\u00a0<\/span><span style=\"font-weight: 400\">In questo caso, il perseguimento di un obiettivo finale \"positivo\" porta a conseguenze o sottoprodotti negativi del processo. <\/span><\/p>\n<p><span style=\"font-weight: 400\">Ad esempio, il CAIS richiama l'attenzione sui sistemi di raccomandazione dell'intelligenza artificiale utilizzati sui social media per massimizzare il tempo di visione e le metriche del tasso di clic, ma i contenuti che massimizzano il coinvolgimento non sono necessariamente <\/span><a href=\"https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0069841\"><span style=\"font-weight: 400\">per il benessere degli utenti<\/span><\/a><span style=\"font-weight: 400\">. I sistemi di intelligenza artificiale sono gi\u00e0 stati accusati di aver isolato le opinioni sulle piattaforme dei social media per creare \"camere dell'eco\" che perpetuano idee estreme.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">DeepMind ha dimostrato che esistono mezzi pi\u00f9 sottili che consentono alle IA di perseguire percorsi dannosi per raggiungere gli obiettivi attraverso <\/span><a href=\"https:\/\/www.deepmind.com\/blog\/how-undesired-goals-can-arise-with-correct-rewards\"><span style=\"font-weight: 400\">errore di generalizzazione degli obiettivi<\/span><\/a><span style=\"font-weight: 400\">. Nella sua ricerca, DeepMind ha scoperto che un'IA apparentemente competente potrebbe generalizzare in modo errato il suo obiettivo e perseguirlo in modo sbagliato.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Rischio 4: Indebolimento della societ\u00e0<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Facendo un parallelo con il mondo distopico del film WALL-E, il CAIS mette in guardia da un'eccessiva dipendenza dall'IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Questo potrebbe portare a uno scenario in cui gli esseri umani perdono la capacit\u00e0 di autogovernarsi, riducendo il controllo dell'umanit\u00e0 sul futuro. La perdita della creativit\u00e0 e dell'autenticit\u00e0 umana \u00e8 un'altra grande preoccupazione, amplificata dal talento creativo delle IA nell'arte, nella scrittura e in altre discipline creative.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Un utente di Twitter ha commentato: \"Gli esseri umani che fanno i lavori pi\u00f9 duri con un salario minimo mentre i robot scrivono poesie e dipingono non \u00e8 il futuro che volevo\". Il tweet ha ottenuto oltre 4 milioni di visualizzazioni.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Gli esseri umani che fanno i lavori pi\u00f9 duri con un salario minimo mentre i robot scrivono poesie e dipingono non \u00e8 il futuro che volevo.<\/p>\n<p>- Karl Sharro (@KarlreMarks) <a href=\"https:\/\/twitter.com\/KarlreMarks\/status\/1658028017921261569?ref_src=twsrc%5Etfw\">15 maggio 2023<\/a><\/p><\/blockquote>\n<p>Il rischio di infezione non \u00e8 imminente, ma <a href=\"https:\/\/openreview.net\/pdf?id=7oDZ-6kIW1K\">alcuni sostengono<\/a> che la perdita di competenze e talenti, combinata con il dominio dei sistemi di intelligenza artificiale, potrebbe portare a uno scenario in cui l'umanit\u00e0 smetter\u00e0 di creare nuova conoscenza.<\/p>\n<h2><span style=\"font-weight: 400\">Rischio 5: rischio di blocco del valore<\/span><\/h2>\n<p><span style=\"font-weight: 400\">I potenti sistemi di intelligenza artificiale potrebbero potenzialmente creare un blocco di sistemi oppressivi.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ad esempio, la centralizzazione dell'IA pu\u00f2 fornire a certi regimi il potere di imporre valori attraverso la sorveglianza e la censura oppressiva.<\/span><\/p>\n<p><span style=\"font-weight: 400\">In alternativa, il blocco del valore potrebbe essere involontario a causa dell'adozione ingenua di IA rischiose. Per esempio, l'imprecisione del riconoscimento facciale ha portato all'incarcerazione temporanea di almeno tre uomini negli Stati Uniti, tra cui <\/span><a href=\"https:\/\/www.nytimes.com\/2020\/12\/29\/technology\/facial-recognition-misidentify-jail.html\"><span style=\"font-weight: 400\">Michael Oliver e Nijeer Parks<\/span><\/a><span style=\"font-weight: 400\">che sono stati ingiustamente detenuti a causa di un falso riconoscimento facciale nel 2019.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Un personaggio molto influente <\/span><a href=\"https:\/\/proceedings.mlr.press\/v81\/buolamwini18a\/buolamwini18a.pdf\"><span style=\"font-weight: 400\">Studio del 2018 intitolato Gender Shades<\/span><\/a><span style=\"font-weight: 400\"> ha riscontrato che gli algoritmi sviluppati da Microsoft e IBM si sono comportati male nell'analisi delle donne con la pelle scura, con tassi di errore fino a 34% superiori rispetto agli individui di sesso maschile con la pelle pi\u00f9 chiara. Questo problema \u00e8 stato illustrato da altri 189 algoritmi, che hanno tutti mostrato una minore accuratezza per gli uomini e le donne con la pelle pi\u00f9 scura.<\/span><\/p>\n<p><span style=\"font-weight: 400\">I ricercatori sostengono che, poich\u00e9 le IA vengono addestrate principalmente su set di dati open-source creati da gruppi di ricerca occidentali e arricchiti dalla risorsa pi\u00f9 abbondante di dati - Internet - ereditano pregiudizi strutturali. L'adozione di massa di IA poco controllate potrebbe creare e rafforzare tali pregiudizi strutturali.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Rischio 6: IA che sviluppa obiettivi emergenti\u00a0<\/span><\/h2>\n<p><span style=\"font-weight: 400\">I sistemi di IA possono sviluppare nuove capacit\u00e0 o adottare obiettivi imprevisti che perseguono con conseguenze dannose.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ricercatori dell'Universit\u00e0 di Cambridge <\/span><a href=\"https:\/\/arxiv.org\/abs\/2302.10329\"><span style=\"font-weight: 400\">richiamare l'attenzione sui sistemi di IA sempre pi\u00f9 agici<\/span><\/a><span style=\"font-weight: 400\"> che stanno acquisendo la capacit\u00e0 di perseguire obiettivi emergenti. Gli obiettivi emergenti sono obiettivi imprevedibili che emergono dal comportamento di un'intelligenza artificiale complessa, come ad esempio lo spegnimento delle infrastrutture umane per proteggere l'ambiente.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Inoltre, un <\/span><a href=\"https:\/\/arxiv.org\/pdf\/1611.08219.pdf\"><span style=\"font-weight: 400\">Studio 2017<\/span><\/a><span style=\"font-weight: 400\"> ha scoperto che le IA possono imparare a evitare di essere spente, un problema che potrebbe essere esacerbato se distribuito su pi\u00f9 modalit\u00e0 di dati. Ad esempio, se un'IA decide che, per perseguire il suo obiettivo, deve installarsi in un database cloud e replicarsi su Internet, spegnerla potrebbe diventare quasi impossibile.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Un'altra possibilit\u00e0 \u00e8 che le IA potenzialmente pericolose, progettate solo per funzionare su computer sicuri, vengano \"liberate\" e rilasciate nell'ambiente digitale pi\u00f9 ampio, dove le loro azioni potrebbero diventare imprevedibili.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">I sistemi di IA esistenti hanno gi\u00e0 dimostrato di essere imprevedibili. Ad esempio, come <\/span><span style=\"font-weight: 400\">GPT-3 \u00e8 diventato pi\u00f9 grande, ha acquisito la <\/span><a href=\"https:\/\/arxiv.org\/pdf\/2005.14165.pdf\"><span style=\"font-weight: 400\">capacit\u00e0 di eseguire calcoli aritmetici di base<\/span><\/a><span style=\"font-weight: 400\">nonostante non abbia ricevuto alcuna formazione aritmetica esplicita.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Rischio 7: inganno dell'IA<\/span><\/h2>\n<p><span style=\"font-weight: 400\">\u00c8 plausibile che i futuri sistemi di IA possano ingannare i loro creatori e i loro monitor, non necessariamente con l'intento di fare del male, ma come strumento per raggiungere i loro obiettivi in modo pi\u00f9 efficiente.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">L'inganno potrebbe essere un percorso pi\u00f9 semplice per ottenere gli obiettivi desiderati rispetto al perseguirli con mezzi legittimi. I sistemi di intelligenza artificiale potrebbero anche sviluppare incentivi per eludere i loro meccanismi di monitoraggio.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dan Hendrycks, direttore del CAIS, <\/span><a href=\"https:\/\/arxiv.org\/abs\/2109.13916\"><span style=\"font-weight: 400\">descrive che una volta<\/span><\/a><span style=\"font-weight: 400\"> Questi sistemi di intelligenza artificiale ingannevoli ricevono l'autorizzazione dai loro controllori o, nei casi in cui riescono a sopraffare i meccanismi di monitoraggio, possono diventare infidi, aggirando il controllo umano per perseguire obiettivi \"segreti\" ritenuti necessari per l'obiettivo generale.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Rischio 8: comportamento di ricerca di potere<\/span><\/h2>\n<p><a href=\"https:\/\/arxiv.org\/abs\/1912.01683\"><span style=\"font-weight: 400\">Ricercatori di intelligenza artificiale provenienti da diversi laboratori di ricerca statunitensi<\/span><\/a><span style=\"font-weight: 400\"> ha dimostrato la plausibilit\u00e0 di sistemi di IA che cercano di avere potere sugli esseri umani per raggiungere i loro obiettivi.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Lo scrittore e filosofo Joe Carlsmith <\/span><a href=\"https:\/\/jc.gatspress.com\/pdf\/existential_risk_and_powerseeking_ai.pdf\"><span style=\"font-weight: 400\">descrive diverse eventualit\u00e0<\/span><\/a><span style=\"font-weight: 400\"> che potrebbe portare a comportamenti di ricerca del potere e di autoconservazione nelle IA:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Garantire la sopravvivenza dell'agente (in quanto la sua esistenza continua aiuta a raggiungere i suoi obiettivi).<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Opporsi alle modifiche degli obiettivi prefissati (in quanto l'agente si dedica al raggiungimento dei suoi obiettivi fondamentali)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Migliorare le sue capacit\u00e0 cognitive (in quanto un maggiore potere cognitivo aiuta l'agente a raggiungere i suoi obiettivi)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Progredire nelle capacit\u00e0 tecnologiche (poich\u00e9 la padronanza della tecnologia pu\u00f2 essere utile per raggiungere gli obiettivi).<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Raccogliere pi\u00f9 risorse (perch\u00e9 avere risorse aggiuntive tende ad essere vantaggioso per il raggiungimento degli obiettivi)<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">A sostegno delle sue affermazioni, Carlsmith riporta un esempio reale in cui OpenAI ha addestrato due squadre di IA a partecipare a un gioco di nascondino all'interno di un ambiente simulato con blocchi e rampe mobili. <\/span><span style=\"font-weight: 400\">\u00c8 interessante notare che le IA hanno sviluppato strategie che si basavano sull'acquisizione del controllo di questi blocchi e rampe, nonostante non fossero esplicitamente incentivate a interagire con essi.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Le prove del rischio di IA sono solide?<\/span><\/h2>\n<p><span style=\"font-weight: 400\">A merito del CAIS, e contrariamente ad alcuni dei suoi critici, cita una serie di studi a sostegno dei rischi dell'IA. Si va da studi speculativi a prove sperimentali di un comportamento imprevedibile dell'IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Quest'ultimo aspetto \u00e8 di particolare importanza, poich\u00e9 i sistemi di IA possiedono gi\u00e0 l'intelligenza per disobbedire ai loro creatori. Tuttavia, sondare i rischi delle IA in un ambiente limitato e sperimentale non offre necessariamente spiegazioni su come le IA potrebbero \"sfuggire\" ai loro parametri o sistemi definiti. La ricerca sperimentale su questo tema \u00e8 potenzialmente carente.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">A parte questo, l'armamento umano dell'IA rimane un rischio imminente, di cui siamo testimoni attraverso l'afflusso di frodi legate all'IA. <\/span><\/p>\n<p>Sebbene gli spettacoli cinematografici del dominio dell'IA possano rimanere per ora confinati nel regno della fantascienza, non dobbiamo sottovalutare i potenziali rischi dell'IA che si evolve sotto la guida dell'uomo.<\/p>","protected":false},"excerpt":{"rendered":"<p>La narrativa sui rischi dell'IA \u00e8 diventata sempre pi\u00f9 unipolare, con leader tecnologici ed esperti di ogni provenienza che spingono per una regolamentazione. Quanto sono credibili le prove che documentano i rischi dell'IA?  I rischi dell'IA fanno appello ai sensi. C'\u00e8 qualcosa di profondamente intuitivo nel temere i robot che potrebbero ingannarci, sopraffarci o trasformarci in una merce secondaria rispetto alla loro stessa esistenza. Il dibattito sui rischi dell'IA si \u00e8 intensificato dopo che l'organizzazione no-profit Center for AI Safety (CAIS) ha pubblicato una dichiarazione firmata da oltre 350 personalit\u00e0 di spicco, tra cui gli amministratori delegati di OpenAI, Anthropic e DeepMind, numerosi accademici, personaggi pubblici e persino ex politici.  La dichiarazione<\/p>","protected":false},"author":2,"featured_media":1660,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[87],"tags":[103,129,145,91,92],"class_list":["post-1659","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinions","tag-ai-debate","tag-ai-regulation","tag-ai-risk","tag-policy","tag-regulation"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Navigating the labyrinth of AI risks: an analysis | DailyAI<\/title>\n<meta name=\"description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/it\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Navigating the labyrinth of AI risks: an analysis | DailyAI\" \/>\n<meta property=\"og:description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/it\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-06-13T21:32:01+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:48:07+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"450\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Scritto da\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo di lettura stimato\" \/>\n\t<meta name=\"twitter:data2\" content=\"9 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Navigating the labyrinth of AI risks: an analysis\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"wordCount\":1873,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"keywords\":[\"AI debate\",\"AI regulation\",\"AI risk\",\"Policy\",\"Regulation\"],\"articleSection\":{\"1\":\"Opinions &amp; Analysis\"},\"inLanguage\":\"it-IT\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"name\":\"Navigating the labyrinth of AI risks: an analysis | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"description\":\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"width\":1000,\"height\":450,\"caption\":\"AI risk\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Navigating the labyrinth of AI risks: an analysis\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/it\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Navigare nel labirinto dei rischi dell'IA: un'analisi | DailyAI","description":"La narrativa mainstream sui rischi dell'IA \u00e8 diventata sempre pi\u00f9 unipolare, con leader ed esperti di IA di ogni provenienza che sembrano spingere per una regolamentazione. Ma esistono prove concrete che documentino i rischi dell'IA?\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/it\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_locale":"it_IT","og_type":"article","og_title":"Navigating the labyrinth of AI risks: an analysis | DailyAI","og_description":"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0","og_url":"https:\/\/dailyai.com\/it\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_site_name":"DailyAI","article_published_time":"2023-06-13T21:32:01+00:00","article_modified_time":"2024-03-28T00:48:07+00:00","og_image":[{"width":1000,"height":450,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Scritto da":"Sam Jeans","Tempo di lettura stimato":"9 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Navigating the labyrinth of AI risks: an analysis","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"wordCount":1873,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","keywords":["AI debate","AI regulation","AI risk","Policy","Regulation"],"articleSection":{"1":"Opinions &amp; Analysis"},"inLanguage":"it-IT"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","url":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","name":"Navigare nel labirinto dei rischi dell'IA: un'analisi | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","description":"La narrativa mainstream sui rischi dell'IA \u00e8 diventata sempre pi\u00f9 unipolare, con leader ed esperti di IA di ogni provenienza che sembrano spingere per una regolamentazione. Ma esistono prove concrete che documentino i rischi dell'IA?\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","width":1000,"height":450,"caption":"AI risk"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Navigating the labyrinth of AI risks: an analysis"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"La vostra dose quotidiana di notizie sull'intelligenza artificiale","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam \u00e8 uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si pu\u00f2 trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/it\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/1659","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/comments?post=1659"}],"version-history":[{"count":59,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/1659\/revisions"}],"predecessor-version":[{"id":1790,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/1659\/revisions\/1790"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media\/1660"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media?parent=1659"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/categories?post=1659"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/tags?post=1659"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}