Un'indagine su larga scala che ha coinvolto 2.700 ricercatori di IA ha evidenziato opinioni divergenti sui rischi dell'IA.
Il indagine condotta da AI Impacts, il più grande del suo genere, ha coinvolto professionisti che hanno pubblicato ricerche in sei importanti conferenze sull'IA.
Ai partecipanti è stato chiesto di esprimersi sulle future pietre miliari dell'IA e sulle loro implicazioni per la società.
In particolare, quasi 58% di questi ricercatori ritengono che ci sia una probabilità del 5% di estinzione umana o di esiti altrettanto terribili a causa dei progressi dell'intelligenza artificiale.
Altri risultati suggeriscono che l'IA ha una probabilità pari o superiore a 50% di padroneggiare compiti che vanno dalla composizione di musica da classifica allo sviluppo di un sito web completo per l'elaborazione dei pagamenti entro il prossimo decennio.
Compiti più complessi, come l'installazione di cavi elettrici o la risoluzione di problemi matematici, richiederanno più tempo, anche se DeepMind ha recentemente dimostrato Le prestazioni superiori dell'IA nell'affrontare i problemi di set di tappi e di impacchettamento dei cassonetti.
I ricercatori stimano anche una probabilità di 50% che l'IA superi le prestazioni umane in tutti i compiti entro il 2047 e l'automazione di tutti i lavori umani entro il 2116. Tutto ciò si basa sul fatto che la scienza "non venga interrotta".
I risultati sono certamente contrastanti, ma è lecito affermare che i rischi legati all'IA non hanno ancora raggiunto una massa critica.
Katja Grace dell'Istituto di ricerca sull'intelligenza artificiale in California dichiarato dello studioÈ un segnale importante che la maggior parte dei ricercatori di IA non ritiene fortemente implausibile che l'IA avanzata distrugga l'umanità".
Ecco un elenco delle statistiche e dei risultati principali:
- Probabilità che l'IA raggiunga le pietre miliari entro il 2028C'è una probabilità 50% che i sistemi di intelligenza artificiale siano in grado di costruire un sito di elaborazione dei pagamenti, di creare una canzone indistinguibile da quella di un musicista popolare e di scaricare e mettere a punto un modello linguistico di grandi dimensioni (LLM).
- Previsioni di prestazioni dell'IA a livello umano: Lo studio stima una probabilità di 10% entro il 2027 e di 50% entro il 2047 che le macchine non assistite superino gli esseri umani in tutti i compiti. Questa previsione per il 2047 è anticipata di 13 anni rispetto a quella fatta nel 2022.
2. Il tempo necessario per raggiungere la maggior parte delle pietre miliari è diminuito dal 2022, in alcuni casi di molto. Si prevede che i ricercatori di IA saranno automatizzabili circa 25 anni prima rispetto all'anno precedente. Il tempo per la pubblicazione di un bestseller del NYT è diminuito di circa 9 anni. pic.twitter.com/Npmd7QNW8g
- Impatti AI (@AIImpacts) 4 gennaio 2024
- Automazione delle professioni umane: C'è una probabilità di 10% che tutte le occupazioni umane diventino completamente automatizzabili entro il 2037 e una probabilità di 50% entro il 2116, rispetto alla previsione di 2164 fatta nel 2022.
- Prospettive sul valore a lungo termine dell'IAIl 68,3% degli intervistati ritiene che i risultati positivi dell'"IA sovrumana" siano più probabili di quelli negativi, ma 48% di questi ottimisti vedono ancora almeno una probabilità di 5% di risultati estremamente negativi, come l'estinzione umana. Nel frattempo, 59% dei pessimisti vedono una probabilità pari o superiore a 5% di risultati estremamente positivi.
- Preoccupazioni per gli scenari guidati dall'IA: Oltre 70% dei ricercatori esprimono preoccupazione per questioni come i falsi profondi, la manipolazione dell'opinione pubblica e le armi ingegnerizzate. I falsi profondi sono stati i più allarmanti, con 86% di ricercatori che hanno espresso preoccupazione.
- Stime di probabilità per i rischi di IA: Tra il 37,8% e il 51,4% degli intervistati ritiene che ci sia almeno una probabilità di 10% che l'IA avanzata possa portare a risultati gravi come l'estinzione umana.
3. Media di 5% o più sull'IA avanzata che porta all'estinzione dell'uomo o simili. Circa un terzo o la metà ha dato più di 10%, su quattro domande. (Spesso chiediamo di affrontare un argomento in modi diversi per garantire la solidità, ma in questo caso otteniamo risposte coerenti). pic.twitter.com/g7bPXAXABs
- Impatti AI (@AIImpacts) 4 gennaio 2024
- Stime di probabilità per HLMI (High-Level Machine Intelligence): La previsione aggregata del 2023 prevede una probabilità di 50% di raggiungere l'HLMI entro il 2047, segnando un cambiamento significativo rispetto alla previsione del 2060 fatta nel 2022.
- Probabilità di completa automazione del lavoro (FAOL): Le previsioni per il 2023 stimano una probabilità di FAOL di 50% entro il 2116, 48 anni prima di una previsione simile fatta nel 2022.
- Ricerca sulla sicurezza dell'IA: Circa il 70% dei partecipanti al sondaggio ritiene che la ricerca sulla sicurezza dell'IA dovrebbe essere più prioritaria di quanto non lo sia attualmente.
6. Il 70% dei partecipanti vorrebbe che la ricerca sulla sicurezza dell'IA avesse una priorità più alta. "Molto di più" è in aumento rispetto al 2016. (Ricordiamo che si tratta di un'indagine sui ricercatori di IA in generale, non sui ricercatori di sicurezza). pic.twitter.com/DvE8HeWCXY
- Impatti AI (@AIImpacts) 4 gennaio 2024
I rischi immediati eclissano quelli a lungo termine
Al di là dei rischi esistenziali, l'indagine evidenzia che una maggioranza sostanziale di ricercatori nutre preoccupazioni immediate riguardo all'IA.
Oltre 70% esprimono una forte preoccupazione per questioni legate all'IA, come i falsi profondi, la manipolazione dell'opinione pubblica, gli armamenti ingegnerizzati, il controllo autoritario e l'aumento della disuguaglianza economica.
Émile Torres della Case Western Reserve University in Ohio mette in guardia sul ruolo dell'IA nella diffusione della disinformazione su argomenti critici e sul suo impatto sulla governance democratica, affermando: "Abbiamo già la tecnologia, qui e ora, che potrebbe seriamente minare la democrazia [degli Stati Uniti]".
Le campagne politiche lanciate da politici statunitensi e canadesi hanno già utilizzato l'intelligenza artificiale per creare immagini, e Chiamate rapide AI sono attualmente in corso per raccogliere gli elettori.
Un altro aspetto significativo è stata la recente elezione in Slovacchia, dove, jià 48 ore prima delle votazioni, sui social media è emerso un audio falsificato in cui personaggi politici di spicco avrebbero discusso di tattiche di compravendita di voti.
Ha innescato una confusione diffusa durante un periodo critico di silenzio pre-elettorale. La tempistica del rilascio ha reso quasi impossibile contrastarne tempestivamente gli effetti.
Più di recente, le campagne diffamatorie generate dall'IA hanno preso di mira la elezioni in Bangladesh, molto contestatecon contenuti che mirano a screditare il partito avversario dichiarando il suo sostegno al bombardamento di Gaza, un argomento delicato in un Paese a maggioranza musulmana.
Le tempistiche del rischio AI sono discusse
Il confronto tra gli impatti a breve e a lungo termine dell'IA è stato fonte di un acceso dibattito quando il Centro per la sicurezza dell'IA (CAIS) ha rilasciato una dichiarazione drammatica nel 2023, paragonando i rischi dell'IA alle pandemie e alla guerra nucleare.
I media hanno pubblicato le peggiori previsioni sullo sviluppo dell'intelligenza artificiale, dai robot assassini ai droni fuori controllo sul campo di battaglia.
Finora, è il modo in cui gli esseri umani utilizzano l'IA a rappresentare un rischio - un caso di "l'IA non uccide le persone, lo fanno gli esseri umani" - e la preoccupazione per i rischi esistenziali è talvolta vista come eclissante rispetto a ciò che sta accadendo in questo momento.
I falsi profondi, in particolare, hanno un impatto tangibile sulla società umana.
C'è anche un altro livello, come quello proposto da Yann LeCun, una figura di spicco nel campo dell'IA, che suggerisce che le aziende tecnologiche più grandi potrebbero esagerare questi rischi per influenzare le azioni normative a loro favore.
I timori, spesso promossi dalle big tech, potrebbero essere uno stratagemma strategico per incoraggiare regolamenti più severi, che potrebbero svantaggiare le entità più piccole e le iniziative open-source.
Ciò mette in luce un pericolo più sottile: la potenziale monopolizzazione dell'IA da parte di poche grandi aziende, che potrebbe soffocare l'innovazione e la diversità nell'IA.
Questo lascia ai principali attori dello spazio, come Google e OpenAI, la possibilità di spingere il settore nella propria direzione, a patto di soddisfare le richieste di conformità.
Rischi esistenziali: cosa dicono le prove?
Il dialogo sui rischi oscilla spesso tra due estremi: scetticismo e allarmismo. Quali sono le prove effettive che suggeriscono che l'intelligenza artificiale potrebbe ucciderci o distruggere il pianeta?
L'idea di armare l'IA è forse l'esempio più imminente. In questo caso, i sistemi di IA potrebbero uccidere gli esseri umani con una supervisione limitata, oppure gli attori minacciosi potrebbero utilizzare la tecnologia per sviluppare armi di efficacia catastrofica.
I droni sono indubbiamente già in grado di distruggere obiettivi con un minimo di intervento umano, come si è probabilmente verificato nel caso del I conflitti israelo-palestinese e russo-ucraino sono già in corso.
Un fattore più sottile del rischio esistenziale dell'IA è l'indebolimento. La preoccupazione non è solo quella di perdere posti di lavoro a favore dei robot, ma anche di perdere capacità umane essenziali e creatività. Un'analogia comune è il film WALL-E, in cui esseri umani simili a blob hanno robot che eseguono i loro ordini a costo della Terra stessa.
C'è alcune prove che LLM come ChatGPT stiano erodendo il pensiero critico degli studenti, anche se è troppo presto per dirlo con certezza.
Le istituzioni educative sono desiderose di sfruttare i vantaggi dell'IA senza eliminare il mondo accademico guidato dagli esseri umani, e diversi istituti di alto profilo hanno approvato in modo condizionato l'uso della tecnologia da parte degli studenti.
Un altro rischio ragionevolmente ben documentato è che l'IA sviluppi obiettivi emergenti, come evidenziato da ricerca dell'Università di Cambridge e di DeepMindche potrebbe avere conseguenze indesiderate e potenzialmente dannose per la società umana.
Gli obiettivi emergenti potrebbero vedere le IA altamente intelligenti stabilire i propri obiettivi imprevedibili, eventualmente anche sfuggendo alla loro architettura per "infettare" altri sistemi.
In definitiva, il potenziale dell'IA per un'estinzione drammatica e violenta è altamente speculativo e ci sono pochi esempi o prove che questo possa accadere presto. Tuttavia, le prove sperimentali relative agli obiettivi emergenti e ad altri potenziali metodi di inflizione di danni da parte delle IA autonome sono in aumento.
Per ora abbiamo molti rischi immediati da gestire, e non dimentichiamo che queste sfide si svilupperanno parallelamente ai cambiamenti climatici, alla perdita di habitat, alle crisi demografiche e ad altri rischi di livello macro.
Se da un lato c'è eccitazione per i potenziali risultati dell'IA, dall'altro c'è anche una palpabile preoccupazione per i rischi immediati e le implicazioni a lungo termine.
Quest'ultimo sondaggio ci ricorda che il discorso sull'IA non dovrebbe essere orientato verso rischi esistenziali lontani, a scapito delle sfide immediate e dei dilemmi etici posti da questa tecnologia trasformativa.
Con il progredire dell'IA, trovare un equilibrio in questo dibattito diventa fondamentale per guidarne lo sviluppo verso risultati benefici e sicuri per l'umanità.