Tre dibattiti per l'industria dell'IA: Intelligenza, progresso e sicurezza

22 marzo 2024

Il famoso detto: "Più sappiamo, più non sappiamo", è certamente vero per l'IA.

Più impariamo a conoscere l'IA, meno sembriamo sapere con certezza.

Gli esperti e i leader del settore si ritrovano spesso in un'aspra polemica sulla situazione attuale dell'IA e sulla sua direzione. Non riescono a trovare un accordo su concetti apparentemente elementari come l'intelligenza della macchina, la coscienza e la sicurezza.

Un giorno le macchine supereranno l'intelletto dei loro creatori umani? Il progresso dell'IA sta accelerando verso una singolarità tecnologica o siamo alla vigilia di un inverno dell'IA?

E, cosa forse più importante, come possiamo garantire che lo sviluppo dell'IA rimanga sicuro e vantaggioso quando gli esperti non sono d'accordo su cosa ci riservi il futuro?

L'IA è immersa in una nebbia di incertezza. Il meglio che possiamo fare è esplorare le prospettive e giungere a opinioni informate ma fluide per un settore in costante evoluzione.

Dibattito 1: Intelligenza artificiale

Con ogni nuova generazione di modelli di IA generativa si rinnova il dibattito sull'intelligenza artificiale.

Elon Musk ha recentemente alimentato il dibattito sull'intelligenza artificiale quando ha dichiarato: "L'anno prossimo l'intelligenza artificiale sarà probabilmente più intelligente di ogni singolo essere umano. Entro il 2029, l'IA sarà probabilmente più intelligente di tutti gli esseri umani messi insieme".

Musk è stato immediatamente smentito da Yann LeCun, capo scienziato di Meta ed eminente ricercatore di AI, che ha dichiarato: "No. Se fosse così, avremmo sistemi di AI in grado di imparare a guidare un'auto in 20 ore di pratica, come qualsiasi diciassettenne. Ma non abbiamo ancora una guida autonoma e affidabile, anche se abbiamo milioni di ore di dati di addestramento *etichettati*".

Questa conversazione indica solo un microcosmo di un vuoto ambiguo nell'opinione degli esperti e dei leader dell'IA.

È una conversazione che porta ad una spirale infinita di interpretazioni con scarso consenso.come dimostrano i pareri estremamente contrastanti di influenti tecnologi nell'ultimo anno o giù di lì (info da Migliorare le notizie):

  • Geoffrey Hinton: L'"intelligenza digitale" potrebbe superarci entro "5-20 anni".
  • Yann LeCun: È più probabile che la società ottenga un'IA "a livello di gatto" o "a livello di cane" anni prima dell'IA a livello umano.
  • Demis Hassabis: Potremmo raggiungere "qualcosa come l'AGI o simile all'AGI nel prossimo decennio".
  • Gary Marcus: "Alla fine raggiungeremo l'AGI... e molto probabilmente prima della fine di questo secolo".
  • Geoffrey Hinton: "Le attuali IA come il GPT-4 "eclissano una persona" nella conoscenza generale e potrebbero presto farlo anche nel ragionamento.
  • Geoffrey Hinton: L'intelligenza artificiale è "molto vicina" e sarà "molto più intelligente di noi in futuro".
  • Elon Musk: "Avremo, per la prima volta, qualcosa di più intelligente dell'uomo più intelligente".
  • Elon Musk: "Sarei sorpreso se non avessimo l'AGI entro il [2029]".
  • Sam Altman: "[Potremmo] arrivare a un vero AGI nel prossimo decennio".
  • Yoshua Bengio: Le "IA sovrumane" saranno raggiunte "tra pochi anni e un paio di decenni".
  • Dario Amodei: L'IA di "livello umano" potrebbe verificarsi in "due o tre anni".
  • Sam Altman: L'intelligenza artificiale potrebbe superare il "livello di competenza esperto" nella maggior parte dei campi entro un decennio.
  • Gary Marcus: "Non [penso] che siamo così vicini a macchine più intelligenti di noi".

Nessuna parte ha inequivocabilmente ragione o torto nel dibattito sull'intelligenza delle macchine. La questione dipende dalla propria interpretazione soggettiva dell'intelligenza e dal modo in cui i sistemi di intelligenza artificiale si misurano con tale definizione.

I pessimisti possono evidenziare i potenziali rischi e le conseguenze indesiderate dell'IA, sottolineando la necessità di cautela. Essi sostengono che, man mano che i sistemi di IA diventano più autonomi e potenti, potrebbero sviluppare obiettivi e comportamenti non allineati con i valori umani, portando a esiti catastrofici.

Al contrario, gli ottimisti possono concentrarsi sul potenziale trasformativo dell'IA, immaginando un futuro in cui le macchine lavorino a fianco degli esseri umani per risolvere problemi complessi e guidare l'innovazione. Possono minimizzare i rischi, sostenendo che le preoccupazioni sull'IA superintelligente sono in gran parte ipotetiche e che i benefici superano i rischi.

Il nocciolo della questione risiede nella difficoltà di definire e quantificare l'intelligenza, soprattutto quando si confrontano entità così diverse come gli esseri umani e le macchine.

Ad esempio, un La mosca ha circuiti neurali avanzati e può eludere con successo i nostri tentativi di colpirla o catturarla, superandoci in questo ambito ristretto. Questo tipo di confronti è potenzialmente illimitato.

Scegliete i vostri esempi di intelligenza, e ognuno può avere ragione o torto.

Secondo dibattito: l'IA sta accelerando o rallentando?

Il progresso dell'intelligenza artificiale è destinato ad accelerare o a stabilizzarsi e rallentare?

Alcuni sostengono che siamo nel bel mezzo di una rivoluzione dell'IA, con progressi a macchia d'olio. Altri sostengono che i progressi abbiano raggiunto un plateau e che il settore debba affrontare sfide epocali che potrebbero rallentare l'innovazione nei prossimi anni.

L'IA generativa è il culmine di decenni di ricerca e di miliardi di finanziamenti. Quando ChatGPT è sbarcato nel 2022, la tecnologia aveva già raggiunto un livello elevato negli ambienti di ricerca, ponendo l'asticella in alto e gettando la società nella mischia.

Il clamore che ne è derivato ha anche generato immensi finanziamenti per le startup di IA, da Anthropic a Inflection, da Stability AI a MidJourney.

Questo, unito agli enormi sforzi interni dei veterani della Silicon Valley Meta, Google, Amazon, Nvidia e Microsoft, ha portato a una rapida proliferazione di strumenti di IA. Il GPT-3 si è rapidamente trasformato nel pesante GPT-4. Nel frattempo, i concorrenti, come gli LLM Claude 3 Opus, Grok di xAI e MaestraleAnche i modelli open-source di Meta hanno lasciato il segno.

Alcuni esperti e tecnologi, come Sam Altman, Geoffrey Hinton, Yoshio Bengio, Demis Hassabis ed Elon Musk, ritengono che l'accelerazione dell'IA sia appena iniziata.

Musk ha detto che l'IA generativa è come "risvegliare il demone", mentre Altman ha detto che il controllo mentale dell'IA è imminente (cosa che Musk ha evidenziato con recenti progressi in Neuralink; vedi sotto come un uomo ha giocato una partita a scacchi con il solo pensiero).

D'altra parte, esperti come Gary Marcus e Yann LeCun ritengono che ci stiamo scontrando con un muro, e che l'IA generativa stia affrontando un periodo introspettivo o "invernale".

Ciò deriverebbe da ostacoli pratici, come l'aumento dei costi energetici, i limiti del calcolo a forza bruta, la regolamentazione e la scarsità di materiali.

L'IA generativa è costosa da sviluppare e mantenere, e la monetizzazione non è semplice. Le aziende tecnologiche devono trovare il modo di mantenere l'inerzia in modo che il denaro continui ad affluire nel settore.

Terzo dibattito: Sicurezza dell'IA

Le conversazioni sull'intelligenza e sul progresso dell'IA hanno implicazioni anche per la sicurezza dell'IA. Se non riusciamo a trovare un accordo su cosa si intende per intelligenza o su come misurarla, come possiamo garantire che i sistemi di IA siano progettati e utilizzati in modo sicuro?

L'assenza di una comprensione condivisa dell'intelligenza rende difficile stabilire misure di sicurezza adeguate e linee guida etiche per lo sviluppo dell'IA.

Sottovalutare l'intelligenza dell'IA significa sottovalutare la necessità di controlli e normative sulla sicurezza dell'IA.

Al contrario, la sopravvalutazione o l'esagerazione delle capacità dell'IA distorce la percezione e rischia di creare una regolamentazione eccessiva. Questo potrebbe bloccare il potere delle Big Tech, che hanno dimostrato di avere un potere di lobbying e di manipolazione della legislazione. E quando sbagliano, possono pagare le multe.

L'anno scorso, dibattiti prolungati X tra Yann LeCun, Geoffrey Hinton, Max Tegmark, Gary Marcus, Elon Musk e numerose altre figure di spicco della comunità dell'IA ha evidenziato profonde divisioni nella sicurezza dell'IA. Le Big Tech hanno lavorato duramente all'autoregolamentazione, creando "linee guida volontarie" di dubbia efficacia.

I critici sostengono inoltre che la regolamentazione consente alle Big Tech di rafforzare le strutture di mercatoliberarsi dei perturbatori e stabilire le condizioni di gioco del settore a proprio piacimento.

Su questo versante del dibattito, LeCun sostiene che i rischi esistenziali dell'IA sono stati sopravvalutati e vengono utilizzati come paravento dalle aziende Big Tech per spingere verso regolamenti che soffocherebbero la concorrenza e consoliderebbero il controllo.

LeCun e i suoi sostenitori sottolineano anche che i rischi immediati dell'IA, come la disinformazione, i falsi profondi e i pregiudizi, stanno già danneggiando le persone e richiedono un'attenzione urgente.

D'altra parte, Hinton, Bengio, Hassabis e Musk hanno lanciato l'allarme sui potenziali rischi esistenziali dell'IA.

Bengio, LeCun e Hinton, spesso conosciuti come i "padrini dell'IA" per aver sviluppato le reti neurali, l'apprendimento profondo e altre tecniche di IA negli anni '90 e nei primi anni 2000, continuano a essere influenti anche oggi. Hinton e Bengio, i cui punti di vista sono generalmente allineati, hanno partecipato a un recente e raro incontro tra ricercatori statunitensi e cinesi presso l'Istituto di ricerca di New York. Dialogo internazionale sulla sicurezza delle IA a Pechino.

L'incontro è culminato in una dichiarazione: "Nel pieno della Guerra Fredda, il coordinamento scientifico e governativo internazionale ha contribuito a scongiurare la catastrofe termonucleare. L'umanità ha nuovamente bisogno di coordinarsi per evitare una catastrofe che potrebbe derivare da una tecnologia senza precedenti".

Va detto che Bengio e Hinton non sono ovviamente allineati finanziariamente con le Big Tech e non hanno motivo di accollarsi eccessivamente i rischi dell'IA.

Hinton stesso ha sollevato questo punto in un battibecco con LeCun e l'ex cofondatore di Google Brain Andrew Ng, sottolineando che ha lasciato Google per parlare liberamente dei rischi dell'IA.

In effetti, molti grandi scienziati hanno messo in dubbio la sicurezza dell'IA nel corso degli anni, tra cui il compianto Prof. Stephen Hawking, che considerava la tecnologia come un rischio esistenziale.

Questo vorticoso mix di scambi polemici lascia poco spazio alle persone che occupano la via di mezzo, alimentando l'immagine dell'IA generativa come tecnologia polarizzante.

La regolamentazione dell'IA, nel frattempo, ha diventare una questione geopoliticaGli Stati Uniti e la Cina stanno collaborando sulla sicurezza dell'intelligenza artificiale, nonostante l'escalation di tensioni in altri settori.

Così, proprio come gli esperti non sono d'accordo su quando e come l'IA supererà le capacità umane, essi differiscono anche nella valutazione dei rischi e delle sfide per lo sviluppo di sistemi di IA sicuri e vantaggiosi.

I dibattiti sull'intelligenza artificiale non sono solo di natura filosofica o di principio. - sono anche una questione di governance.

Quando gli esperti sono in forte disaccordo persino sugli elementi di base dell'intelligenza artificiale e della sicurezza, la regolamentazione non può sperare di servire gli interessi delle persone.

La creazione di un consenso richiederà una dura presa di coscienza da parte di esperti, sviluppatori di IA, governi e società in generale.

Tuttavia, oltre a molte altre sfide, per guidare l'IA verso il futuro sarà necessario che alcuni leader ed esperti di tecnologia ammettano di essersi sbagliati. E non sarà facile.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×
 
 

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI


 

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".



 
 

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni