{"id":7045,"date":"2023-11-02T21:38:56","date_gmt":"2023-11-02T21:38:56","guid":{"rendered":"https:\/\/dailyai.com\/?p=7045"},"modified":"2024-03-28T00:41:32","modified_gmt":"2024-03-28T00:41:32","slug":"the-battle-of-the-ai-godfathers-is-ai-risky-or-not","status":"publish","type":"post","link":"https:\/\/dailyai.com\/it\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","title":{"rendered":"La battaglia dei \"padrini dell'IA\": l'IA \u00e8 rischiosa o no?!"},"content":{"rendered":"<p><b>L'intelligenza artificiale \u00e8 rischiosa, giusto? \u00c8 quello che ci hanno detto tutti nell'ultimo anno. Ma non tutti sono d'accordo, compresi alcuni ricercatori di alto livello.\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Il sito X \u00e8 stato infiammato dalle polemiche sul fatto che l'IA ponga dei veri rischi esistenziali. Non stiamo parlando di disinformazione o di falsi profondi, che sono gi\u00e0 un problema, ma di rischi pari a disastri nucleari e pandemie.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Questo dibattito \u00e8 stato guidato dallo scettico sul rischio dell'IA e dal capo dell'IA di Meta Yann LeCun, considerato uno dei cosiddetti \"padrini dell'IA\" insieme a Yoshua Bengio e Geoffrey Hinton.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nel mirino di LeCun ci sono l'amministratore delegato di OpenAI Sam Altman, l'amministratore delegato di DeepMind Demis Hassabis e l'amministratore delegato di Anthropic Dario Amode, che LeCun ha accusato di \"massiccio lobbismo aziendale\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In particolare, LeCun teme che i grandi capi del settore tecnologico stiano aumentando le chiacchiere sui rischi e gli abusi dell'IA per convincere le autorit\u00e0 di regolamentazione a bloccare il settore a loro favore. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Le grandi aziende tecnologiche hanno i mezzi per affrontare la regolamentazione, mentre le piccole imprese e gli sviluppatori open-source non li hanno. LeCun dubita anche della visione, spesso evocata, di una \"singolarit\u00e0\" dell'IA, in cui la tecnologia diventa improvvisamente pi\u00f9 intelligente dell'uomo, segnando cos\u00ec una nuova era di IA superintelligente.\u00a0<\/span><\/p>\n<p>Altri, tra cui Altman, hanno dichiarato di aspettarsi che lo sviluppo dell'IA sia pi\u00f9 granulare e progressivo, piuttosto che \"decollare\" da un giorno all'altro.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">L'*unico* motivo per cui la gente va in iperventilazione per il rischio dell'IA \u00e8 il mito del \"decollo difficile\": l'idea che nel momento in cui si accende un sistema superintelligente, l'umanit\u00e0 \u00e8 condannata.<br \/>\nQuesto \u00e8 assurdamente stupido e si basa su un'incomprensione *completa* di come funziona tutto.<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1642524629137760259?ref_src=twsrc%5Etfw\">2 aprile 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">Secondo le argomentazioni di LeCun, le big tech possono sfruttare i rischi dell'AI a loro vantaggio, consentendo loro di rafforzare le strutture di mercato e di escludere la concorrenza. Il vero rischio, secondo LeCun, \u00e8 che pochi sviluppatori di IA posseggano il settore e ne dettino la traiettoria.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ha sottolineato la gravit\u00e0 della situazione, affermando: \"Se questi sforzi avessero successo, il risultato sarebbe una catastrofe perch\u00e9 un piccolo numero di aziende controller\u00e0 l'IA\". Questa affermazione riflette il pi\u00f9 ampio consenso nel mondo tecnologico sul potenziale di trasformazione dell'IA, equiparando la sua importanza a quella del microchip o di Internet.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Le osservazioni di LeCun rispondono al famoso fisico Max Tegmark, che aveva insinuato che LeCun non prendesse abbastanza sul serio i rischi esistenziali dell'IA.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> In un post pubblico, Tegmark ha riconosciuto gli sforzi dei leader mondiali nel riconoscere i potenziali pericoli dell'IA, affermando che \"non possono essere confutati solo con lo sberleffo e le lobby aziendali\".<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Yann, mi piacerebbe sentirti parlare di argomenti piuttosto che di acronimi. Grazie a <a href=\"https:\/\/twitter.com\/RishiSunak?ref_src=twsrc%5Etfw\">@RishiSunak<\/a> &amp; <a href=\"https:\/\/twitter.com\/vonderleyen?ref_src=twsrc%5Etfw\">@vonderleyen<\/a> per aver capito che le argomentazioni sul rischio dell'IA di Turing, Hinton, Bengio, Russell, Altman, Hassabis e Amodei non possono essere confutate solo con lo sberleffo e le lobby aziendali. <a href=\"https:\/\/t.co\/Zv1rvOA3Zz\">https:\/\/t.co\/Zv1rvOA3Zz<\/a><\/p>\n<p>- Max Tegmark (@tegmark) <a href=\"https:\/\/twitter.com\/tegmark\/status\/1718663322738868595?ref_src=twsrc%5Etfw\">29 ottobre 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">Con l'aumento dell'influenza dell'IA, figure come Altman e Hassabis sono diventate centrali nel discorso pubblico sulla tecnologia. Tuttavia, LeCun li critica per aver alimentato la paura nei confronti dell'IA e per averne contemporaneamente tratto profitto. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">A marzo, oltre mille leader del settore tecnologico, tra cui Elon Musk, Altman e Hassabis, <a href=\"https:\/\/dailyai.com\/it\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\">ha chiesto una pausa<\/a> nello sviluppo dell'IA, citando rischi sociali e umanitari significativi.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun, tuttavia, sostiene che questi drammatici avvertimenti sono una cortina fumogena, che distoglie l'attenzione da questioni immediate quali <a href=\"https:\/\/dailyai.com\/it\/2023\/10\/digital-colonialism-in-the-age-of-ai-and-machine-learning\/\">sfruttamento dei lavoratori<\/a> e furto di dati.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun chiede di riorientare la discussione sul presente e sul futuro immediato dello sviluppo dell'IA. Ha espresso le sue preoccupazioni per la potenziale scomparsa della comunit\u00e0 dell'IA open-source se lo sviluppo dell'IA sar\u00e0 confinato a entit\u00e0 private e a scopo di lucro.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Per LeCun, la posta in gioco \u00e8 alta: \"L'alternativa, che inevitabilmente si verificher\u00e0 se l'IA open source sar\u00e0 regolamentata, \u00e8 che un piccolo numero di aziende della costa occidentale degli Stati Uniti e della Cina controller\u00e0 la piattaforma di IA e quindi l'intera dieta digitale delle persone\", ha ammonito, invitando a considerare le implicazioni per la democrazia e la diversit\u00e0 culturale.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Altman, Hassabis e Amodei sono quelli che stanno facendo una massiccia attivit\u00e0 di lobbying aziendale al momento.<br \/>\nSono loro che stanno tentando di catturare l'industria dell'IA dal punto di vista normativo.<br \/>\nTu, Geoff e Yoshua state dando munizioni a coloro che stanno facendo pressioni per un divieto di ricerca e sviluppo aperto sull'IA.<\/p>\n<p>Se...<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1718670073391378694?ref_src=twsrc%5Etfw\">29 ottobre 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2><span style=\"font-weight: 400;\">I sostenitori di LeCun<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Le argomentazioni di LeCun sono ben sostenute sui social media e riscuotono consenso tra i commentatori e gli esperti del settore. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ad esempio, Andrew Ng, figura centrale nello sviluppo dell'IA e cofondatore di Google Brain, ha sollevato il timore che le principali aziende tecnologiche possano manipolare il discorso sull'IA per ottenere il dominio del mercato.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Beh, almeno *una* azienda Big Tech sta fornendo modelli di IA in open sourcing e non mente sul rischio esistenziale dell'IA \ud83d\ude0a<a href=\"https:\/\/t.co\/vyk4qkOzOq\">https:\/\/t.co\/vyk4qkOzOq<\/a><\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1719162768002093184?ref_src=twsrc%5Etfw\">31 ottobre 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">In un'intervista rilasciata all'Australian Financial Review, Ng ha evidenziato la tendenza dei giganti tecnologici ad amplificare i timori legati all'IA, in particolare l'idea che possa portare all'estinzione dell'uomo. Come LeCun e altri, Ng suggerisce che questa narrativa viene usata strategicamente per indurre una regolamentazione pi\u00f9 severa sull'IA, ostacolando cos\u00ec le iniziative open-source e i concorrenti pi\u00f9 piccoli.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Ci sono sicuramente grandi aziende tecnologiche che preferirebbero non dover cercare di competere con l'open source, quindi stanno creando la paura che l'IA porti all'estinzione umana\", ha spiegato Ng. \"\u00c8 stata un'arma per i lobbisti per sostenere una legislazione che sarebbe molto dannosa per la comunit\u00e0 open-source\".<\/span><\/p>\n<p><a href=\"https:\/\/dailyai.com\/it\/2023\/06\/ai-companies-want-regulation-but-is-it-for-the-right-reasons\/\"><span style=\"font-weight: 400;\">All'inizio dell'anno<\/span><\/a><span style=\"font-weight: 400;\">Una nota trapelata di Google sembra ammettere che le grandi tecnologie stanno perdendo terreno a favore dell'open-source.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nella nota si legge: \"I modelli open-source sono pi\u00f9 veloci, pi\u00f9 personalizzabili, pi\u00f9 privati e, a parit\u00e0 di peso, pi\u00f9 capaci. Con i parametri $100 e 13B fanno cose che noi facciamo fatica a fare con $10M e 540B. E lo fanno in settimane, non in mesi\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">L'IA open-source \u00e8 veloce, non monolitica, privata e, soprattutto, economica. Le grandi aziende tecnologiche sono gi\u00e0 <a href=\"https:\/\/dailyai.com\/it\/2023\/10\/can-the-tech-industry-overcome-the-challenge-of-ai-monetization\/\">che lottano per monetizzare l'IA<\/a>Quindi, sulla carta, tutto ha senso: regolamentare l'industria dell'IA per aiutare i titani a prevalere.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Distrazioni dalle minacce immediate<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">C'\u00e8 un'altra dimensione in questo dibattito che va oltre il denaro. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Molti hanno ribadito che i rischi attuali dell'IA, come le falsificazioni profonde e la disinformazione estremamente sofisticate, sono gi\u00e0 sufficienti a giustificare un lungo dibattito e una rapida azione.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Anche Aidan Gomez, ricercatore di spicco nel campo dell'IA e CEO di Cohere, ha sottolineato il rischio di concentrarsi troppo sugli scenari apocalittici.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Parlando in vista dell'evento di questa settimana <a href=\"https:\/\/dailyai.com\/it\/2023\/11\/round-up-of-day-two-of-the-uks-ai-safety-summit\/\">Vertice sulla sicurezza dell'intelligenza artificiale<\/a>Gomez ha sottolineato che le minacce immediate, come la disinformazione e l'erosione della fiducia sociale, vengono messe in ombra dalle discussioni sui rischi esistenziali a lungo termine.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Penso che in termini di rischio esistenziale e di politiche pubbliche, non sia una conversazione produttiva\", ha dichiarato Gomez, sottolineando la necessit\u00e0 di dare priorit\u00e0 ai rischi immediati. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Per quanto riguarda la politica pubblica e dove dovremmo concentrarci - o cercare di mitigare il rischio per la popolazione civile - penso che sia una distrazione, lontano dai rischi che sono molto pi\u00f9 tangibili e immediati\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Gomez evidenzia l'influenza pervasiva dell'IA nei prodotti utilizzati da miliardi di persone, sottolineando l'urgente necessit\u00e0 di affrontare i rischi che hanno un impatto attivo sul pubblico. \"Questa tecnologia \u00e8 gi\u00e0 presente in un miliardo di prodotti utilizzati dagli utenti, come quelli di Google e di altri. Questo presenta una serie di nuovi rischi da discutere, nessuno dei quali \u00e8 esistenziale, nessuno \u00e8 uno scenario apocalittico\", ha spiegato.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Egli identifica la disinformazione come una preoccupazione primaria, data la capacit\u00e0 dei modelli di IA di creare media \"virtualmente indistinguibili da testi, immagini o media creati dall'uomo\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">La disinformazione \u00e8 in effetti il nemico pubblico numero uno in termini di rischi per l'IA, visto che abbiamo gi\u00e0 osservato esempi di falsi profondi utilizzati per truffe di successo. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Finte profonde distribuite prima del posticipo <\/span><a href=\"https:\/\/dailyai.com\/it\/2023\/10\/ai-generated-fake-audio-clips-continue-to-stir-controversy\/\"><span style=\"font-weight: 400;\">alle elezioni slovacche<\/span><\/a><span style=\"font-weight: 400;\"> hanno mostrato come possono influire tangibilmente sulla democrazia.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Yoshua Bengio, Geoffrey Hinton ed Elon Musk si uniscono al dibattito<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Il \"padrino dell'intelligenza artificiale\" Yoshua Bengio, insieme a un'assemblea di oltre 200 leader e ricercatori del settore tecnologico, ha sottoscritto una lettera aperta che evidenzia la necessit\u00e0 critica di un'azione immediata e sostanziale. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Bengio \u00e8 ora a capo di un rapporto internazionale presentato al vertice britannico sulla sicurezza dell'IA. \u00c8 molto convinto dei rischi dell'IA, cos\u00ec come Geoffrey Hinton, il che significa che 2\/3 dei \"padrini dell'IA\" sono in qualche modo preoccupati.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Tu e Yoshua state inavvertitamente aiutando coloro che vogliono mettere sotto chiave la ricerca e lo sviluppo dell'IA e proteggere i loro affari vietando la ricerca aperta, il codice open-source e i modelli ad accesso aperto.<\/p>\n<p>Questo porter\u00e0 inevitabilmente a risultati negativi nel medio termine.<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1719432513003901278?ref_src=twsrc%5Etfw\">31 ottobre 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">Sul suo sito web, <a href=\"https:\/\/yoshuabengio.org\/2023\/04\/05\/slowing-down-development-of-ai-systems-passing-the-turing-test\/\">Bengio ha scritto<\/a>Ho recentemente firmato una lettera aperta in cui chiedo di rallentare lo sviluppo di giganteschi sistemi di intelligenza artificiale pi\u00f9 potenti del GPT-4, quelli che attualmente superano il test di Turing e possono quindi ingannare un essere umano facendogli credere che sta conversando con un suo simile e non con una macchina\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Geoffrey Hinton, del triumvirato dei padrini dell'IA, ha lasciato Google per \"parlare\" dei suoi timori sull'IA. In un'intervista si \u00e8 spinto fino a dire che rimpiangeva il suo lavoro a causa dell'uso improprio dell'IA, affermando: \"Mi consolo con la normale scusa: se non l'avessi fatto io, l'avrebbe fatto qualcun altro\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hinton, come Bengio, sostiene l'idea che l'IA comporti seri rischi di estinzione. Dubita inoltre che l'open-sourcing dei modelli possa sostenere gli sforzi di sicurezza.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Recentemente ha sottolineato che la sua scelta di lasciare Google era in contrasto con la posizione critica di LeCun e altri, affermando su X: \"Andrew Ng sostiene che l'idea che l'IA potrebbe farci estinguere \u00e8 una cospirazione big-tech. Un dato che non si adatta a questa teoria della cospirazione \u00e8 che ho lasciato Google per poter parlare liberamente della minaccia esistenziale\".<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Andrew Ng sostiene che l'idea che l'intelligenza artificiale possa farci estinguere \u00e8 una cospirazione big-tech. Un dato che non rientra in questa teoria del complotto \u00e8 che ho lasciato Google per poter parlare liberamente della minaccia esistenziale.<\/p>\n<p>- Geoffrey Hinton (@geoffreyhinton) <a href=\"https:\/\/twitter.com\/geoffreyhinton\/status\/1719406116503707668?ref_src=twsrc%5Etfw\">31 ottobre 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">Hinton, Bengio e altri ricercatori di IA di alto livello, tra cui l'influente scienziato informatico cinese Andrew Yao, hanno recentemente <\/span><a href=\"https:\/\/arxiv.org\/abs\/2310.17688\"><span style=\"font-weight: 400;\">ha sostenuto una carta<\/span><\/a><span style=\"font-weight: 400;\"> descrivendo i rischi dell'IA. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Secondo le parole di Hinton, \"le aziende stanno progettando di addestrare modelli con una capacit\u00e0 di calcolo 100 volte superiore allo stato dell'arte attuale, entro 18 mesi. Nessuno sa quanto saranno potenti. E non c'\u00e8 essenzialmente alcuna regolamentazione su ci\u00f2 che saranno in grado di fare con questi modelli\".<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Apriamo anche le armi nucleari per renderle pi\u00f9 sicure. I buoni (noi) avranno sempre armi pi\u00f9 grandi dei cattivi (loro), quindi dovrebbe andare tutto bene.<\/p>\n<p>- Geoffrey Hinton (@geoffreyhinton) <a href=\"https:\/\/twitter.com\/geoffreyhinton\/status\/1719443704098804136?ref_src=twsrc%5Etfw\">31 ottobre 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Regolare la diffusione dei prodotti va bene.<br \/>\nNel caso di applicazioni critiche per la vita, come l'assistenza alla guida, \u00e8 necessario.<\/p>\n<p>Siamo contrari a regolamentare la ricerca e lo sviluppo dell'IA.<br \/>\nIn particolare con limiti arbitrari sui livelli di calcolo.<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1719821488482660575?ref_src=twsrc%5Etfw\">1 novembre 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Il dibattito si protrae e continuer\u00e0 a farlo.<\/p>\n<p>Un utente di X ha commentato quanto segue:<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Padri fondatori dell'IA che hanno un dormitorio dopo 2 bongate a livello di dibattiti <a href=\"https:\/\/t.co\/8MUze6hxBS\">pic.twitter.com\/8MUze6hxBS<\/a><\/p>\n<p>- Hassan Hayat \ud83d\udd25 (@TheSeaMouse) <a href=\"https:\/\/twitter.com\/TheSeaMouse\/status\/1719464104186814611?ref_src=twsrc%5Etfw\">31 ottobre 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">LeCun ha un altro antagonista in Elon Musk, che raramente \u00e8 assente da un dibattito di alto livello su X, soprattutto se si tratta di un dibattito che si colloca saldamente nel suo ambito (per non parlare della sua piattaforma). <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Musk ha una storia ben documentata di espressioni di preoccupazione nei confronti dell'intelligenza artificiale, ma la sua posizione \u00e8 diventata molto imprevedibile.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Negli ultimi tempi, Musk ha sempre etichettato l'IA come una potenziale minaccia esistenziale per l'umanit\u00e0, affermando che sviluppare un'IA complessa \u00e8 come \"evocare il demonio\". In occasione dell'AI Safety Summit, tuttavia, ha dichiarato di ritenere che l'IA produrr\u00e0 benefici netti e positivi.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Negli ultimi mesi, Musk ha criticato OpenAI, evidenziando una deviazione dalla missione originaria dell'organizzazione ed esprimendo preoccupazione per la sua direzione \"closed-source\", fortemente influenzata da Microsoft.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sia Musk che LeCun sono ampiamente d'accordo nelle loro critiche all'IA closed-source, dimostrando che sostenere i rischi dell'IA non significa sempre denunciare l'open-source. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sul tema dell'open-source, vediamo cosa sceglie di fare Musk con i suoi prodotti. <a href=\"https:\/\/dailyai.com\/it\/2023\/07\/elon-musk-unveils-mysterious-new-ai-venture-xai\/\">La startup di intelligenza artificiale xAI rilascia<\/a>.<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Il capo di Google DeepMind risponde alle affermazioni di LeCun \"che incutono timore\".<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Il capo di Google DeepMind, Demis Hassabis, ha risposto alle accuse di LeCun, accusando l'azienda di essere impegnata in una vasta attivit\u00e0 di lobby aziendale per dominare l'industria dell'IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In un'intervista con <a href=\"https:\/\/www.cnbc.com\/world\/?region=world\">CNBC<\/a>Hassabis ha sottolineato che l'impegno di DeepMind nelle discussioni sull'IA non \u00e8 un tentativo di \"cattura normativa\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In risposta a queste affermazioni, Hassabis ha dichiarato: \"Non sono affatto d'accordo con la maggior parte dei commenti di Yann\".\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ha delineato tre categorie principali di rischi associati all'IA, sottolineando l'importanza di affrontare problemi immediati come la disinformazione, i falsi profondi e i pregiudizi, considerando anche il potenziale uso improprio dell'IA da parte di soggetti malintenzionati e i rischi a lungo termine associati all'intelligenza artificiale generale (AGI).\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Egli ha auspicato che si avviino conversazioni sulla regolamentazione dell'IA superintelligente prima che poi, per evitare conseguenze disastrose.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sottolineando la natura globale della tecnologia AI, Hassabis ha sottolineato la necessit\u00e0 di una cooperazione internazionale, anche con la Cina, per stabilire standard di sviluppo e regolamentazione responsabili.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sia lui che James Manyika, vicepresidente senior di Google per la ricerca, la tecnologia e la societ\u00e0, hanno espresso il desiderio di vedere un consenso globale sull'IA. Hassabis ha partecipato al Vertice sulla sicurezza dell'IA nel Regno Unito, dove si \u00e8 allineato al sentimento dei leader mondiali di enfatizzare la sicurezza e la supervisione dell'IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nonostante le continue tensioni tecnologiche tra Stati Uniti e Cina e l'esitazione dei giganti tecnologici statunitensi a impegnarsi in attivit\u00e0 commerciali in Cina, Hassabis ha sottolineato la necessit\u00e0 della comunicazione, affermando: \"Penso che in questa fase dobbiamo parlare con tutti\".<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Esiste una via di mezzo?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Il dibattito sui rischi potenziali dell'IA e sulle risposte normative necessarie sta raggiungendo un punto critico. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nelle ultime settimane si sono moltiplicati i \"colloqui ufficiali\" sull'IA, ma la regolamentazione \u00e8 ancora in fase di elaborazione. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">La normativa statunitense e l'AI Act dell'UE getteranno le prime solide basi per la governance dell'IA.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun ha presentato un'argomentazione convincente sulla monetizzazione dell'IA di fronte alla concorrenza open-source. Dalla nota trapelata di Google ai rischi esistenziali coesi presentati dai grandi capi del settore tecnologico nei media tradizionali, lui e i suoi sostenitori hanno molte munizioni.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tuttavia, la mancanza di consenso va oltre le teste degli sviluppatori di IA a scopo di lucro di Microsoft, DeepMind, Anthropic e cos\u00ec via. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Bengio e Hinton sono principalmente non affiliati, e il defunto professor Stephen Hawking, per esempio, ha affermato notoriamente che \"potrebbe segnare la fine della razza umana\" e potrebbe rivelarsi il \"peggiore evento nella storia della nostra civilt\u00e0\".\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">I ricercatori hanno dimostrato la capacit\u00e0 dei sistemi di AI di <\/span><a href=\"https:\/\/dailyai.com\/it\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\"><span style=\"font-weight: 400;\">sviluppare autonomamente obiettivi emergenti<\/span><\/a><span style=\"font-weight: 400;\">che potrebbero avere esiti catastrofici se non gestiti correttamente.\u00a0<\/span><span style=\"font-weight: 400;\">Altri esperimenti hanno dimostrato che i sistemi di intelligenza artificiale possono cercare attivamente le risorse, accumulare energia e prendere provvedimenti per evitare di essere spenti.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Esistono prove solide dei danni legati all'IA, ma sono proporzionate ai campanelli d'allarme suonati dai grandi capi delle tecnologie? <\/span><\/p>\n<p><span style=\"font-weight: 400;\">E forse, soprattutto, ci si pu\u00f2 davvero fidare che gestiscano il settore in modo etico per tutti, indipendentemente dalla presenza o meno di rischi?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Forse dovremmo considerare le azioni delle big tech come la scommessa definitiva. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">L'IA \u00e8 molto probabilmente rischiosa, ma poche aziende selezionate vogliono assumersi questo rischio, spingerla ai suoi limiti e modellarla come meglio credono, nel bene e nel male.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> La Big Tech potrebbe caricare il gioco in modo che la casa vinca sempre finch\u00e9 rimane in piedi.\u00a0<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>L'intelligenza artificiale \u00e8 rischiosa, giusto? \u00c8 quello che ci hanno detto tutti nell'ultimo anno. Ma non tutti sono d'accordo, compresi alcuni ricercatori di alto livello.  L'anno scorso, infatti, \u00e8 stato infuocato dalle polemiche sul fatto che l'IA rappresenti un vero e proprio rischio esistenziale. Non stiamo parlando di disinformazione o di falsi profondi, che sono gi\u00e0 un problema, ma di rischi pari a disastri nucleari e pandemie. Questo dibattito \u00e8 stato condotto dallo scettico sul rischio dell'IA e dal capo dell'IA di Meta Yann LeCun, considerato uno dei cosiddetti \"padrini dell'IA\" insieme a Yoshua Bengio e Geoffrey Hinton.  Nel mirino di LeCun ci sono il CEO di OpenAI Sam Altman, il CEO di DeepMind Demis Hassabis, e<\/p>","protected":false},"author":2,"featured_media":7046,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[88],"tags":[103,339,131,463],"class_list":["post-7045","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ethics","tag-ai-debate","tag-ai-safety","tag-meta","tag-yann-lecun"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>The battle of the &#039;AI godfathers&#039; \u2013 is AI risky or not?! | DailyAI<\/title>\n<meta name=\"description\" content=\"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/it\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"The battle of the &#039;AI godfathers&#039; \u2013 is AI risky or not?! | DailyAI\" \/>\n<meta property=\"og:description\" content=\"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/it\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-11-02T21:38:56+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:41:32+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Scritto da\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo di lettura stimato\" \/>\n\t<meta name=\"twitter:data2\" content=\"11 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!\",\"datePublished\":\"2023-11-02T21:38:56+00:00\",\"dateModified\":\"2024-03-28T00:41:32+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\"},\"wordCount\":2540,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"keywords\":[\"AI debate\",\"AI safety\",\"Meta\",\"Yann LeCUn\"],\"articleSection\":[\"Ethics &amp; Society\"],\"inLanguage\":\"it-IT\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\",\"name\":\"The battle of the 'AI godfathers' \u2013 is AI risky or not?! | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"datePublished\":\"2023-11-02T21:38:56+00:00\",\"dateModified\":\"2024-03-28T00:41:32+00:00\",\"description\":\"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"width\":1000,\"height\":667,\"caption\":\"AI risks\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/it\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"La battaglia dei \"padrini dell'IA\": l'IA \u00e8 rischiosa o no?! | DailyAI","description":"L'intelligenza artificiale \u00e8 rischiosa, giusto? \u00c8 quello che ci hanno detto tutti nell'ultimo anno. Ma non tutti sono d'accordo, compresi alcuni ricercatori di alto livello.\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/it\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","og_locale":"it_IT","og_type":"article","og_title":"The battle of the 'AI godfathers' \u2013 is AI risky or not?! | DailyAI","og_description":"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0","og_url":"https:\/\/dailyai.com\/it\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","og_site_name":"DailyAI","article_published_time":"2023-11-02T21:38:56+00:00","article_modified_time":"2024-03-28T00:41:32+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Scritto da":"Sam Jeans","Tempo di lettura stimato":"11 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!","datePublished":"2023-11-02T21:38:56+00:00","dateModified":"2024-03-28T00:41:32+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/"},"wordCount":2540,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","keywords":["AI debate","AI safety","Meta","Yann LeCUn"],"articleSection":["Ethics &amp; Society"],"inLanguage":"it-IT"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","url":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","name":"La battaglia dei \"padrini dell'IA\": l'IA \u00e8 rischiosa o no?! | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","datePublished":"2023-11-02T21:38:56+00:00","dateModified":"2024-03-28T00:41:32+00:00","description":"L'intelligenza artificiale \u00e8 rischiosa, giusto? \u00c8 quello che ci hanno detto tutti nell'ultimo anno. Ma non tutti sono d'accordo, compresi alcuni ricercatori di alto livello.\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","width":1000,"height":667,"caption":"AI risks"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"La vostra dose quotidiana di notizie sull'intelligenza artificiale","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam \u00e8 uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si pu\u00f2 trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/it\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/7045","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/comments?post=7045"}],"version-history":[{"count":13,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/7045\/revisions"}],"predecessor-version":[{"id":7076,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/posts\/7045\/revisions\/7076"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media\/7046"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/media?parent=7045"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/categories?post=7045"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/it\/wp-json\/wp\/v2\/tags?post=7045"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}