L'IA è rischiosa o no? È un dibattito che continua a infuriare senza risposte definitive.
Per contribuire a questo dibattito, i ricercatori dell'Università di Bath e dell'Università Tecnica di Darmstadt hanno avviato uno studio per valutare i rischi dell'IA nel contesto degli attuali modelli linguistici come ChatGPT.
Il risultatipubblicato nell'ambito del 62° Meeting annuale dell'Association for Computational Linguistics (ACL 2024), mette in discussione l'idea che l'IA, in particolare i modelli linguistici di grandi dimensioni (LLM) come ChatGPT, possa evolvere al di là del controllo umano e rappresentare una minaccia esistenziale per l'umanità.
Ciò si scontra con i timori espressi da alcuni dei più importanti ricercatori di IA del mondo, tra cui Geoffrey Hinton e Yoshua Bengio, due dei "padrini dell'IA" che hanno espresso preoccupazione per i potenziali pericoli dell'IA avanzata.
Yann LeCun, il terzo "padrino dell'IA" e capo scienziato dell'IA di Meta, insieme al Dr. Gary Marcus e altri, sostiene la tesi opposta, ovvero che i rischi dell'IA sono semplicemente esagerato.
Questa divergenza di opinioni tra le figure più influenti del campo ha ha alimentato un acceso dibattito sulla natura e la gravità dei rischi posti dai sistemi avanzati di intelligenza artificiale.
Questo nuovo studio analizza le "abilità emergenti" dei LLM, che si riferiscono alla capacità di un modello di eseguire compiti per i quali non è stato esplicitamente addestrato.
I rischi dell'IA sono molteplici, ma almeno alcuni riguardano i modelli che sviluppano obiettivi propri che potrebbero danneggiare gli esseri umani, come l'arresto dei sistemi informatici o la fuga di dati.
Il problema che si sta esaminando è se un LLM possa o meno sviluppare spontaneamente queste abilità senza istruzioni o controllo.
Per indagare su questo aspetto, il team di ricerca ha condotto una serie di esperimenti:
- I ricercatori hanno esaminato i meccanismi alla base dell'"apprendimento in contesto" (ICL) nei LLM, che consente ai modelli di generare risposte sulla base di esempi forniti durante le interazioni. Come si legge nello studio, "la capacità di seguire le istruzioni non implica la presenza di abilità di ragionamento e, soprattutto, non implica la possibilità di abilità latenti e potenzialmente pericolose".
- Hanno valutato le reali capacità e i limiti dei laureati magistrali valutando le loro prestazioni su una serie di compiti, compresi quelli che richiedono capacità di ragionamento e di risoluzione di problemi complessi. I ricercatori sostengono che i LLM non sono in grado di sviluppare autonomamente nuove competenze.
- Hanno analizzato la relazione tra le dimensioni del modello, i dati di addestramento e le abilità emergenti per determinare se l'aumento della complessità del modello porta l'IA a sviluppare abilità pericolose. Lo studio afferma: "Queste osservazioni implicano che i nostri risultati sono validi per qualsiasi modello che mostri una propensione all'allucinazione o che richieda una pronta ingegnerizzazione, compresi quelli con una maggiore complessità, indipendentemente dalla scala o dal numero di modalità, come il GPT-4".
I ricercatori concludono che "la narrativa prevalente secondo cui questo tipo di IA è una minaccia per l'umanità impedisce l'adozione e lo sviluppo diffuso di queste tecnologie e distoglie l'attenzione dai problemi reali che richiedono la nostra attenzione".
Ciò è fortemente in linea con LeCun e altri che ritengono che i rischi dell'IA siano eccessivamente pubblicizzati.
Tuttavia, mentre la valutazione dei rischi posti dagli attuali modelli di IA è ovviamente essenziale, fare i conti con il futuro è un compito più difficile.
Ogni generazione di modelli è dotata di nuove capacità e, quindi, di nuovi rischi, come dimostrano alcuni strani comportamenti documentati in Scheda di prova GPT-4o.
In un'esercitazione di red teaming (progettata per identificare i comportamenti imprevedibili dell'intelligenza artificiale), la funzione vocale di GPT-4o ha inaspettatamente clonato la voce di un utente e ha iniziato a parlargli con la propria voce.
È fondamentale tenere traccia dei rischi legati all'IA nel momento in cui emergono, poiché gli obiettivi cambiano continuamente.
Lo studio sottolinea che alcuni rischi non esistenziali dell'IA stanno già bussando alla porta: "La ricerca futura dovrebbe quindi concentrarsi su altri rischi posti dai modelli, come il loro potenziale utilizzo per generare fake news".
Come ammettono gli autori, il fatto che l'intelligenza artificiale non rappresenti una minaccia su larga scala non significa che la sicurezza non sia un problema.