L'intelligenza artificiale è rischiosa, giusto? È quello che ci hanno detto tutti nell'ultimo anno. Ma non tutti sono d'accordo, compresi alcuni ricercatori di alto livello.
Il sito X è stato infiammato dalle polemiche sul fatto che l'IA ponga dei veri rischi esistenziali. Non stiamo parlando di disinformazione o di falsi profondi, che sono già un problema, ma di rischi pari a disastri nucleari e pandemie.
Questo dibattito è stato guidato dallo scettico sul rischio dell'IA e dal capo dell'IA di Meta Yann LeCun, considerato uno dei cosiddetti "padrini dell'IA" insieme a Yoshua Bengio e Geoffrey Hinton.
Nel mirino di LeCun ci sono l'amministratore delegato di OpenAI Sam Altman, l'amministratore delegato di DeepMind Demis Hassabis e l'amministratore delegato di Anthropic Dario Amode, che LeCun ha accusato di "massiccio lobbismo aziendale".
In particolare, LeCun teme che i grandi capi del settore tecnologico stiano aumentando le chiacchiere sui rischi e gli abusi dell'IA per convincere le autorità di regolamentazione a bloccare il settore a loro favore.
Le grandi aziende tecnologiche hanno i mezzi per affrontare la regolamentazione, mentre le piccole imprese e gli sviluppatori open-source non li hanno. LeCun dubita anche della visione, spesso evocata, di una "singolarità" dell'IA, in cui la tecnologia diventa improvvisamente più intelligente dell'uomo, segnando così una nuova era di IA superintelligente.
Altri, tra cui Altman, hanno dichiarato di aspettarsi che lo sviluppo dell'IA sia più granulare e progressivo, piuttosto che "decollare" da un giorno all'altro.
L'*unico* motivo per cui la gente va in iperventilazione per il rischio dell'IA è il mito del "decollo difficile": l'idea che nel momento in cui si accende un sistema superintelligente, l'umanità è condannata.
Questo è assurdamente stupido e si basa su un'incomprensione *completa* di come funziona tutto.- Yann LeCun (@ylecun) 2 aprile 2023
Secondo le argomentazioni di LeCun, le big tech possono sfruttare i rischi dell'AI a loro vantaggio, consentendo loro di rafforzare le strutture di mercato e di escludere la concorrenza. Il vero rischio, secondo LeCun, è che pochi sviluppatori di IA posseggano il settore e ne dettino la traiettoria.
Ha sottolineato la gravità della situazione, affermando: "Se questi sforzi avessero successo, il risultato sarebbe una catastrofe perché un piccolo numero di aziende controllerà l'IA". Questa affermazione riflette il più ampio consenso nel mondo tecnologico sul potenziale di trasformazione dell'IA, equiparando la sua importanza a quella del microchip o di Internet.
Le osservazioni di LeCun rispondono al famoso fisico Max Tegmark, che aveva insinuato che LeCun non prendesse abbastanza sul serio i rischi esistenziali dell'IA.
In un post pubblico, Tegmark ha riconosciuto gli sforzi dei leader mondiali nel riconoscere i potenziali pericoli dell'IA, affermando che "non possono essere confutati solo con lo sberleffo e le lobby aziendali".
Yann, mi piacerebbe sentirti parlare di argomenti piuttosto che di acronimi. Grazie a @RishiSunak & @vonderleyen per aver capito che le argomentazioni sul rischio dell'IA di Turing, Hinton, Bengio, Russell, Altman, Hassabis e Amodei non possono essere confutate solo con lo sberleffo e le lobby aziendali. https://t.co/Zv1rvOA3Zz
- Max Tegmark (@tegmark) 29 ottobre 2023
Con l'aumento dell'influenza dell'IA, figure come Altman e Hassabis sono diventate centrali nel discorso pubblico sulla tecnologia. Tuttavia, LeCun li critica per aver alimentato la paura nei confronti dell'IA e per averne contemporaneamente tratto profitto.
A marzo, oltre mille leader del settore tecnologico, tra cui Elon Musk, Altman e Hassabis, ha chiesto una pausa nello sviluppo dell'IA, citando rischi sociali e umanitari significativi.
LeCun, tuttavia, sostiene che questi drammatici avvertimenti sono una cortina fumogena, che distoglie l'attenzione da questioni immediate quali sfruttamento dei lavoratori e furto di dati.
LeCun chiede di riorientare la discussione sul presente e sul futuro immediato dello sviluppo dell'IA. Ha espresso le sue preoccupazioni per la potenziale scomparsa della comunità dell'IA open-source se lo sviluppo dell'IA sarà confinato a entità private e a scopo di lucro.
Per LeCun, la posta in gioco è alta: "L'alternativa, che inevitabilmente si verificherà se l'IA open source sarà regolamentata, è che un piccolo numero di aziende della costa occidentale degli Stati Uniti e della Cina controllerà la piattaforma di IA e quindi l'intera dieta digitale delle persone", ha ammonito, invitando a considerare le implicazioni per la democrazia e la diversità culturale.
Altman, Hassabis e Amodei sono quelli che stanno facendo una massiccia attività di lobbying aziendale al momento.
Sono loro che stanno tentando di catturare l'industria dell'IA dal punto di vista normativo.
Tu, Geoff e Yoshua state dando munizioni a coloro che stanno facendo pressioni per un divieto di ricerca e sviluppo aperto sull'IA.Se...
- Yann LeCun (@ylecun) 29 ottobre 2023
I sostenitori di LeCun
Le argomentazioni di LeCun sono ben sostenute sui social media e riscuotono consenso tra i commentatori e gli esperti del settore.
Ad esempio, Andrew Ng, figura centrale nello sviluppo dell'IA e cofondatore di Google Brain, ha sollevato il timore che le principali aziende tecnologiche possano manipolare il discorso sull'IA per ottenere il dominio del mercato.
Beh, almeno *una* azienda Big Tech sta fornendo modelli di IA in open sourcing e non mente sul rischio esistenziale dell'IA 😊https://t.co/vyk4qkOzOq
- Yann LeCun (@ylecun) 31 ottobre 2023
In un'intervista rilasciata all'Australian Financial Review, Ng ha evidenziato la tendenza dei giganti tecnologici ad amplificare i timori legati all'IA, in particolare l'idea che possa portare all'estinzione dell'uomo. Come LeCun e altri, Ng suggerisce che questa narrativa viene usata strategicamente per indurre una regolamentazione più severa sull'IA, ostacolando così le iniziative open-source e i concorrenti più piccoli.
"Ci sono sicuramente grandi aziende tecnologiche che preferirebbero non dover cercare di competere con l'open source, quindi stanno creando la paura che l'IA porti all'estinzione umana", ha spiegato Ng. "È stata un'arma per i lobbisti per sostenere una legislazione che sarebbe molto dannosa per la comunità open-source".
All'inizio dell'annoUna nota trapelata di Google sembra ammettere che le grandi tecnologie stanno perdendo terreno a favore dell'open-source.
Nella nota si legge: "I modelli open-source sono più veloci, più personalizzabili, più privati e, a parità di peso, più capaci. Con i parametri $100 e 13B fanno cose che noi facciamo fatica a fare con $10M e 540B. E lo fanno in settimane, non in mesi".
L'IA open-source è veloce, non monolitica, privata e, soprattutto, economica. Le grandi aziende tecnologiche sono già che lottano per monetizzare l'IAQuindi, sulla carta, tutto ha senso: regolamentare l'industria dell'IA per aiutare i titani a prevalere.
Distrazioni dalle minacce immediate
C'è un'altra dimensione in questo dibattito che va oltre il denaro.
Molti hanno ribadito che i rischi attuali dell'IA, come le falsificazioni profonde e la disinformazione estremamente sofisticate, sono già sufficienti a giustificare un lungo dibattito e una rapida azione.
Anche Aidan Gomez, ricercatore di spicco nel campo dell'IA e CEO di Cohere, ha sottolineato il rischio di concentrarsi troppo sugli scenari apocalittici.
Parlando in vista dell'evento di questa settimana Vertice sulla sicurezza dell'intelligenza artificialeGomez ha sottolineato che le minacce immediate, come la disinformazione e l'erosione della fiducia sociale, vengono messe in ombra dalle discussioni sui rischi esistenziali a lungo termine.
"Penso che in termini di rischio esistenziale e di politiche pubbliche, non sia una conversazione produttiva", ha dichiarato Gomez, sottolineando la necessità di dare priorità ai rischi immediati.
"Per quanto riguarda la politica pubblica e dove dovremmo concentrarci - o cercare di mitigare il rischio per la popolazione civile - penso che sia una distrazione, lontano dai rischi che sono molto più tangibili e immediati".
Gomez evidenzia l'influenza pervasiva dell'IA nei prodotti utilizzati da miliardi di persone, sottolineando l'urgente necessità di affrontare i rischi che hanno un impatto attivo sul pubblico. "Questa tecnologia è già presente in un miliardo di prodotti utilizzati dagli utenti, come quelli di Google e di altri. Questo presenta una serie di nuovi rischi da discutere, nessuno dei quali è esistenziale, nessuno è uno scenario apocalittico", ha spiegato.
Egli identifica la disinformazione come una preoccupazione primaria, data la capacità dei modelli di IA di creare media "virtualmente indistinguibili da testi, immagini o media creati dall'uomo".
La disinformazione è in effetti il nemico pubblico numero uno in termini di rischi per l'IA, visto che abbiamo già osservato esempi di falsi profondi utilizzati per truffe di successo.
Finte profonde distribuite prima del posticipo alle elezioni slovacche hanno mostrato come possono influire tangibilmente sulla democrazia.
Yoshua Bengio, Geoffrey Hinton ed Elon Musk si uniscono al dibattito
Il "padrino dell'intelligenza artificiale" Yoshua Bengio, insieme a un'assemblea di oltre 200 leader e ricercatori del settore tecnologico, ha sottoscritto una lettera aperta che evidenzia la necessità critica di un'azione immediata e sostanziale.
Bengio è ora a capo di un rapporto internazionale presentato al vertice britannico sulla sicurezza dell'IA. È molto convinto dei rischi dell'IA, così come Geoffrey Hinton, il che significa che 2/3 dei "padrini dell'IA" sono in qualche modo preoccupati.
Tu e Yoshua state inavvertitamente aiutando coloro che vogliono mettere sotto chiave la ricerca e lo sviluppo dell'IA e proteggere i loro affari vietando la ricerca aperta, il codice open-source e i modelli ad accesso aperto.
Questo porterà inevitabilmente a risultati negativi nel medio termine.
- Yann LeCun (@ylecun) 31 ottobre 2023
Sul suo sito web, Bengio ha scrittoHo recentemente firmato una lettera aperta in cui chiedo di rallentare lo sviluppo di giganteschi sistemi di intelligenza artificiale più potenti del GPT-4, quelli che attualmente superano il test di Turing e possono quindi ingannare un essere umano facendogli credere che sta conversando con un suo simile e non con una macchina".
Geoffrey Hinton, del triumvirato dei padrini dell'IA, ha lasciato Google per "parlare" dei suoi timori sull'IA. In un'intervista si è spinto fino a dire che rimpiangeva il suo lavoro a causa dell'uso improprio dell'IA, affermando: "Mi consolo con la normale scusa: se non l'avessi fatto io, l'avrebbe fatto qualcun altro".
Hinton, come Bengio, sostiene l'idea che l'IA comporti seri rischi di estinzione. Dubita inoltre che l'open-sourcing dei modelli possa sostenere gli sforzi di sicurezza.
Recentemente ha sottolineato che la sua scelta di lasciare Google era in contrasto con la posizione critica di LeCun e altri, affermando su X: "Andrew Ng sostiene che l'idea che l'IA potrebbe farci estinguere è una cospirazione big-tech. Un dato che non si adatta a questa teoria della cospirazione è che ho lasciato Google per poter parlare liberamente della minaccia esistenziale".
Andrew Ng sostiene che l'idea che l'intelligenza artificiale possa farci estinguere è una cospirazione big-tech. Un dato che non rientra in questa teoria del complotto è che ho lasciato Google per poter parlare liberamente della minaccia esistenziale.
- Geoffrey Hinton (@geoffreyhinton) 31 ottobre 2023
Hinton, Bengio e altri ricercatori di IA di alto livello, tra cui l'influente scienziato informatico cinese Andrew Yao, hanno recentemente ha sostenuto una carta descrivendo i rischi dell'IA.
Secondo le parole di Hinton, "le aziende stanno progettando di addestrare modelli con una capacità di calcolo 100 volte superiore allo stato dell'arte attuale, entro 18 mesi. Nessuno sa quanto saranno potenti. E non c'è essenzialmente alcuna regolamentazione su ciò che saranno in grado di fare con questi modelli".
Apriamo anche le armi nucleari per renderle più sicure. I buoni (noi) avranno sempre armi più grandi dei cattivi (loro), quindi dovrebbe andare tutto bene.
- Geoffrey Hinton (@geoffreyhinton) 31 ottobre 2023
Regolare la diffusione dei prodotti va bene.
Nel caso di applicazioni critiche per la vita, come l'assistenza alla guida, è necessario.Siamo contrari a regolamentare la ricerca e lo sviluppo dell'IA.
In particolare con limiti arbitrari sui livelli di calcolo.- Yann LeCun (@ylecun) 1 novembre 2023
Il dibattito si protrae e continuerà a farlo.
Un utente di X ha commentato quanto segue:
Padri fondatori dell'IA che hanno un dormitorio dopo 2 bongate a livello di dibattiti pic.twitter.com/8MUze6hxBS
- Hassan Hayat 🔥 (@TheSeaMouse) 31 ottobre 2023
LeCun ha un altro antagonista in Elon Musk, che raramente è assente da un dibattito di alto livello su X, soprattutto se si tratta di un dibattito che si colloca saldamente nel suo ambito (per non parlare della sua piattaforma).
Musk ha una storia ben documentata di espressioni di preoccupazione nei confronti dell'intelligenza artificiale, ma la sua posizione è diventata molto imprevedibile.
Negli ultimi tempi, Musk ha sempre etichettato l'IA come una potenziale minaccia esistenziale per l'umanità, affermando che sviluppare un'IA complessa è come "evocare il demonio". In occasione dell'AI Safety Summit, tuttavia, ha dichiarato di ritenere che l'IA produrrà benefici netti e positivi.
Negli ultimi mesi, Musk ha criticato OpenAI, evidenziando una deviazione dalla missione originaria dell'organizzazione ed esprimendo preoccupazione per la sua direzione "closed-source", fortemente influenzata da Microsoft.
Sia Musk che LeCun sono ampiamente d'accordo nelle loro critiche all'IA closed-source, dimostrando che sostenere i rischi dell'IA non significa sempre denunciare l'open-source.
Sul tema dell'open-source, vediamo cosa sceglie di fare Musk con i suoi prodotti. La startup di intelligenza artificiale xAI rilascia.
Il capo di Google DeepMind risponde alle affermazioni di LeCun "che incutono timore".
Il capo di Google DeepMind, Demis Hassabis, ha risposto alle accuse di LeCun, accusando l'azienda di essere impegnata in una vasta attività di lobby aziendale per dominare l'industria dell'IA.
In un'intervista con CNBCHassabis ha sottolineato che l'impegno di DeepMind nelle discussioni sull'IA non è un tentativo di "cattura normativa".
In risposta a queste affermazioni, Hassabis ha dichiarato: "Non sono affatto d'accordo con la maggior parte dei commenti di Yann".
Ha delineato tre categorie principali di rischi associati all'IA, sottolineando l'importanza di affrontare problemi immediati come la disinformazione, i falsi profondi e i pregiudizi, considerando anche il potenziale uso improprio dell'IA da parte di soggetti malintenzionati e i rischi a lungo termine associati all'intelligenza artificiale generale (AGI).
Egli ha auspicato che si avviino conversazioni sulla regolamentazione dell'IA superintelligente prima che poi, per evitare conseguenze disastrose.
Sottolineando la natura globale della tecnologia AI, Hassabis ha sottolineato la necessità di una cooperazione internazionale, anche con la Cina, per stabilire standard di sviluppo e regolamentazione responsabili.
Sia lui che James Manyika, vicepresidente senior di Google per la ricerca, la tecnologia e la società, hanno espresso il desiderio di vedere un consenso globale sull'IA. Hassabis ha partecipato al Vertice sulla sicurezza dell'IA nel Regno Unito, dove si è allineato al sentimento dei leader mondiali di enfatizzare la sicurezza e la supervisione dell'IA.
Nonostante le continue tensioni tecnologiche tra Stati Uniti e Cina e l'esitazione dei giganti tecnologici statunitensi a impegnarsi in attività commerciali in Cina, Hassabis ha sottolineato la necessità della comunicazione, affermando: "Penso che in questa fase dobbiamo parlare con tutti".
Esiste una via di mezzo?
Il dibattito sui rischi potenziali dell'IA e sulle risposte normative necessarie sta raggiungendo un punto critico.
Nelle ultime settimane si sono moltiplicati i "colloqui ufficiali" sull'IA, ma la regolamentazione è ancora in fase di elaborazione.
La normativa statunitense e l'AI Act dell'UE getteranno le prime solide basi per la governance dell'IA.
LeCun ha presentato un'argomentazione convincente sulla monetizzazione dell'IA di fronte alla concorrenza open-source. Dalla nota trapelata di Google ai rischi esistenziali coesi presentati dai grandi capi del settore tecnologico nei media tradizionali, lui e i suoi sostenitori hanno molte munizioni.
Tuttavia, la mancanza di consenso va oltre le teste degli sviluppatori di IA a scopo di lucro di Microsoft, DeepMind, Anthropic e così via.
Bengio e Hinton sono principalmente non affiliati, e il defunto professor Stephen Hawking, per esempio, ha affermato notoriamente che "potrebbe segnare la fine della razza umana" e potrebbe rivelarsi il "peggiore evento nella storia della nostra civiltà".
I ricercatori hanno dimostrato la capacità dei sistemi di AI di sviluppare autonomamente obiettivi emergentiche potrebbero avere esiti catastrofici se non gestiti correttamente. Altri esperimenti hanno dimostrato che i sistemi di intelligenza artificiale possono cercare attivamente le risorse, accumulare energia e prendere provvedimenti per evitare di essere spenti.
Esistono prove solide dei danni legati all'IA, ma sono proporzionate ai campanelli d'allarme suonati dai grandi capi delle tecnologie?
E forse, soprattutto, ci si può davvero fidare che gestiscano il settore in modo etico per tutti, indipendentemente dalla presenza o meno di rischi?
Forse dovremmo considerare le azioni delle big tech come la scommessa definitiva.
L'IA è molto probabilmente rischiosa, ma poche aziende selezionate vogliono assumersi questo rischio, spingerla ai suoi limiti e modellarla come meglio credono, nel bene e nel male.
La Big Tech potrebbe caricare il gioco in modo che la casa vinca sempre finché rimane in piedi.