OpenAI ha annunciato l'intenzione di incrementare la ricerca sulla "superintelligenza", una forma di IA con capacità superiori all'intelletto umano.
Mentre Superintelligenza AI potrebbe sembrare una prospettiva lontana, OpenAI ritiene che il suo sviluppo potrebbe avvenire entro pochi anni.
OpenAI afferma: "Al momento non disponiamo di una soluzione per guidare o controllare un'IA potenzialmente superintelligente e impedirle di fare il furbo". Si tratta di un'affermazione piuttosto inquietante da parte dell'azienda leader mondiale nel settore dell'IA.
Per mitigare i rischi dell'IA superintelligente, OpenAI prevede di introdurre nuove strutture di governance e di dedicare risorse all'allineamento della superintelligenza, che mira ad allineare le IA altamente intelligenti con i principi e i valori umani. L'orizzonte temporale per raggiungere questo obiettivo è di 4 anni.
In un post sul blogOpenAI ha identificato 3 obiettivi principali: sviluppare metodi di addestramento scalabili, convalidare il modello risultante e testare a fondo il processo di allineamento. Ciò include l'automazione del processo di scoperta di comportamenti problematici in modelli di grandi dimensioni. Per raggiungere questo obiettivo, OpenAI suggerisce di sviluppare un "ricercatore di allineamento automatico" specializzato, un'IA incaricata di allineare le IA.
OpenAI sta anche radunando un team di ricercatori e ingegneri di apprendimento automatico (umano) di alto livello per affrontare questo compito erculeo. Per aiutare, l'azienda sta impegnando 20% delle risorse di calcolo acquisite nei prossimi 4 anni per affrontare l'allineamento della superintelligenza.
Il suo "team di superallineamento" di recente costituzione si occuperà di questo compito, guidato dal cofondatore e Chief Scientist di OpenAI Ilya Sutskever e dal responsabile dell'allineamento Jan Leike.
Inoltre, OpenAI intende condividere i risultati di questo lavoro con altri. Hanno anche sottolineato che continueranno a lavorare per migliorare la sicurezza dei modelli attuali, come ChatGPT, e per mitigare altri rischi dell'IA, come l'uso improprio, l'interruzione dell'economia e la disinformazione.
Il post sul blog chiede anche di interessarsi alle loro posizioni per ingegnere di ricerca, scienziato ricercatore, e responsabile della ricerca posizioni. Lo stipendio più basso è di $245.000 all'anno, con un range che arriva fino a $450.000.
Le tecniche di OpenAI per l'allineamento dell'IA
In un precedente post sul blog sulla superintelligenza, OpenAI descrive due ampie tecniche di allineamento:
1: Addestramento dell'intelligenza artificiale con feedback umano: Questo approccio consiste nel perfezionare l'intelligenza artificiale utilizzando le risposte e le istruzioni umane. Ad esempio, l'intelligenza artificiale viene addestrata a fornire risposte in linea con i comandi diretti e con le intenzioni più sottili. L'intelligenza artificiale apprende da istruzioni esplicite e da segnali più impliciti, come la garanzia di risposte veritiere e sicure. Tuttavia, un approccio incentrato sull'uomo può avere difficoltà a gestire capacità complesse e richiede tempo e fatica.
2: Formazione di modelli per assistere la valutazione umana: Il secondo approccio riconosce che, man mano che l'IA diventa più sofisticata, ci sono compiti che può svolgere e che sono difficili da valutare per gli esseri umani. In questo approccio, quindi, l'IA viene utilizzata per eseguire compiti e valutarne la qualità. Ad esempio, un'intelligenza artificiale potrebbe essere utilizzata per controllare l'accuratezza delle informazioni, riassumere lunghi documenti per facilitare la valutazione umana o persino criticare il proprio lavoro.
L'obiettivo finale è quello di sviluppare sistemi di intelligenza artificiale che possano aiutare efficacemente gli esseri umani a valutare compiti complessi, dato che l'intelligenza artificiale si spinge oltre i confini della cognizione umana.
OpenAI ritiene che l'allineamento della superintelligenza sia "fattibile". Sebbene la prospettiva di un'intelligenza artificiale superintelligente sembri lontana anni luce, non sarebbe saggio pensare che OpenAI sia solo ottimista.