Il neonato Center For AI Safety (CAIS) ha rilasciato martedì 30 maggio una dichiarazione firmata da 350 leader dell'IA, accademici, ingegneri e altre figure di spicco.
Tra i principali firmatari figurano i pionieri dell'IA Geoffery Hinton e Yoshua Bengio, l'amministratore delegato di OpenAI Sam Altman e diversi colleghi, gli amministratori delegati di DeepMind, Anthropic e di altre aziende leader nel settore dell'IA, nonché accademici di alto livello del MIT, di Berkeley, dell'Università di Cambridge e di altre importanti istituzioni accademiche di tutto il mondo.
"Mitigare il rischio di estinzione causato dall'IA dovrebbe essere una priorità globale, insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare". Dichiarazione del Centro per la sicurezza dell'IA (CAIS) sull'IA - 30 maggio 2023.
Il mese di maggio è stato caratterizzato dall'intensificarsi del dibattito sull'impatto sociale dell'IA.
Sam Altman, CEO di OpenAI, ha testimoniato davanti al Congresso sulla sicurezza dell'IA e uno dei primi pionieri dell'IA, Geoffrey Hinton, ha lasciato Google per parlare apertamente di IA.
Il CAIS si basa sulle intenzioni dei leader del settore tecnologico di unirsi e formare un piano coeso per mitigare i rischi dell'IA, sottolineandone al contempo gli usi e i benefici. I rischi sono sia immediati, come ad esempio la perdita massiccia di posti di lavoro, sia a medio o lungo termine, come ad esempio il fatto che l'IA autonoma inizi a superare l'intelligenza umana e noi perdiamo il controllo.
Dan Hendrycks, direttore del Center for AI Safety, ha dichiarato a Sky NewsGli esseri umani sono stati la specie dominante sulla Terra grazie alla nostra intelligenza. Ma ora che l'intelligenza artificiale sta diventando sempre più potente e intelligente, in futuro non occuperemo più la stessa posizione".
IA: rischi tangibili e intangibili
Come finisce il vostro film preferito sull'IA? C'è qualcosa di quasi innato nei rischi dell'IA, una paura istintiva di ciò che accade quando "i robot prendono il sopravvento".
Tuttavia, al momento, i rischi a lungo termine dell'IA sono principalmente intangibili e in gran parte basati su congetture, astrazioni e proiezioni.
Il primo impatto tangibile dell'IA sarà probabilmente avvertito nel mercato del lavoro, dove oltre 375 milioni di posti di lavoro saranno a rischio entro il 2030. L'IA si sta evolvendo rapidamente, quindi questa potrebbe rivelarsi una stima prudente. L'IA rischia anche la discriminazione, l'impersonificazione, i rischi per la sicurezza informatica e l'uso di armi.
I leader tecnologici e gli accademici riconoscono che stiamo attraversando un periodo di rapida innovazione, in cui gli sviluppi tecnologici superano la ricerca.
Ciò è accaduto più volte nel corso della storia umana, ad esempio durante l'avvento dell'energia atomica e nucleare e la creazione di Internet. All'inizio del mese, Sam Altman di OpenAI ha incoraggiato la formazione di un'agenzia internazionale per l'IA, simile all'Agenzia per l'IA di New York. Agenzia internazionale per l'energia atomica formatosi negli anni Cinquanta.
Qualunque siano i rischi dell'IA, è probabile che ci scontreremo con essi, poiché è difficile prevedere che le grandi tecnologie riescano a frenare il loro progresso, e la malcuni analisti ritengono che l'autoregolamentazione sia una chimera.
Gli scettici dubitano dei progressi dell'IA
Il dibattito sull'IA non è un traffico a senso unico e alcuni sono scettici sulla rapidità con cui il dibattito si è intensificato verso una narrazione di livello estintivo.
Ad esempio, non siamo ancora riusciti a costruire sistemi di IA efficaci, come le auto senza conducente, che apparirebbero rudimentali se l'IA dovesse conquistare il pianeta.
Inoltre, l'intelligenza computerizzata dell'IA è difficilmente paragonabile a quella umana. Gli esseri umani e altri organismi biologici sono in grado di elaborare dati sensoriali complessi attraverso i cinque sensi in pochi millisecondi. I robot non possono nemmeno competere con i bambini quando si tratta di compiti sensoriali.
Ancora più notevole è l'efficienza energetica del cervello umano: consuma meno energia di una lampadina. Attualmente, i centri dati che stanno dietro alle IA come ChatGPT richiedono la stessa quantità di energia di una città. Il vantaggio della biologia sui computer va oltre l'intelligenza.
Tuttavia, se è facile evidenziare i difetti delle visioni futuristiche di robot che conquistano il pianeta, ciò non esclude che gli esseri umani utilizzino l'IA per estendere le proprie capacità in modo negativo, il che rappresenta un rischio molto più immediato. Per ora, il rischio risiede in noi piuttosto che nella tecnologia stessa.
Anche se l'IA ha ancora molta strada da fare prima di camminare letteralmente tra noi, la dichiarazione del CAIS è una pietra miliare significativa per mitigare i rischi imminenti, come la sostituzione dei posti di lavoro dell'IA, l'inganno e l'armamento.
Per aggiungere credibilità al messaggio, abbiamo bisogno di vedere presto le prove di una collaborazione tra i protagonisti, che non si limiti a firmare le dichiarazioni.