Sam Altman, CEO di OpenAI, accende la discussione sulla regolamentazione dell'IA in previsione della "superintelligenza".
In un nuovo articolo pubblicato sul sito Blog OpenAISam Altman, CEO dell'azienda, e i colleghi Ilya Sutskever e Greg Brockman discutono della progressione dell'IA verso la "superintelligenza", nota anche come intelligenza artificiale generale (AGI).
Questo avviene meno di una settimana dopo che Sam Altman ha testimoniato davanti al Congresso, affermando che l'IA richiede una regolamentazione "urgente" per salvaguardare la società e preservare i suoi benefici.
La superintelligenza descrive le IA che superano le capacità cognitive degli esseri umani, un traguardo che Altman, Sutskever e Brockman ritengono raggiungibile nei prossimi dieci anni.
Tali IA sarebbero in grado di raggiungere una produttività equivalente a quella di alcune delle più grandi aziende del mondo, rimodellando la società sia in positivo che in negativo.
L'articolo suggerisce tre potenziali strade per mitigare i rischi della superintelligenza:
1: Coordinamento
Altman, Sutskever e Brockman chiedono una stretta collaborazione tra i leader dell'IA per mantenere la sicurezza e facilitare l'integrazione della superintelligenza nella società.
Questo potrebbe essere attuato attraverso progetti governativi o accordi reciproci tra aziende, con i leader dell'IA che concordano di limitare il tasso di crescita dell'intelligenza dei loro modelli.
2: Monitoraggio internazionale
In secondo luogo, suggeriscono di istituire un'agenzia internazionale per la superintelligenza, come l'Agenzia Internazionale per l'Energia Atomica (AIEA), fondata nel 1957, per mitigare i rischi della tecnologia nucleare emergente.
I quadri normativi creati dall'agenzia verrebbero attuati su base volontaria e attraverso i governi nazionali.
3: Supervisione pubblica
In terzo luogo, OpenAI chiede un impegno pubblico nelle regole che circondano la superintelligenza, suggerendo che l'opinione pubblica dovrebbe supervisionare i "limiti e gli errori" dell'IA attraverso un sistema democratico.
Altman, Sutskever e Brockman affermano: "Non sappiamo ancora come progettare un meccanismo del genere, ma abbiamo intenzione di sperimentarne lo sviluppo". OpenAI aveva precedentemente descritto I valori predefiniti sono il comportamento di un'IA "fuori dagli schemi" e i limiti sono i limiti posti alle sue capacità.
OpenAI sostiene inoltre che i progetti open-source sviluppati al di sotto di una determinata "soglia" di capacità dovrebbero essere incoraggiati.
Essi affermano: "Crediamo che sarebbe poco rischioso e difficile fermare la creazione di una superintelligenza".
Data la crescita esponenziale dell'IA nell'ultimo decennio, le visioni di OpenAI per un panorama dell'IA regolamentato potrebbero rivelarsi preveggenti.
Tuttavia, il settore dell'IA sarà sicuramente messo alla prova dalla richiesta di collaborazione e dalla disponibilità dell'azienda a essere regolamentata. Ad oggi, ci sono poche prove di collaborazione incrociata tra i leader dell'IA.
Promuovere gli obiettivi competitivi proteggendo al contempo il pubblico sarà una sfida e, se si crede a OpenAI, il momento di agire sulla superintelligenza dell'IA è adesso.