2.778 ricercatori si esprimono sui rischi dell'IA: cosa impariamo dalle loro risposte?

4 gennaio 2024

Rischi dell'intelligenza artificiale

Un'indagine su larga scala che ha coinvolto 2.700 ricercatori di IA ha evidenziato opinioni divergenti sui rischi dell'IA.

Il indagine condotta da AI Impacts, il più grande del suo genere, ha coinvolto professionisti che hanno pubblicato ricerche in sei importanti conferenze sull'IA.

Ai partecipanti è stato chiesto di esprimersi sulle future pietre miliari dell'IA e sulle loro implicazioni per la società. 

In particolare, quasi 58% di questi ricercatori ritengono che ci sia una probabilità del 5% di estinzione umana o di esiti altrettanto terribili a causa dei progressi dell'intelligenza artificiale.

Altri risultati suggeriscono che l'IA ha una probabilità pari o superiore a 50% di padroneggiare compiti che vanno dalla composizione di musica da classifica allo sviluppo di un sito web completo per l'elaborazione dei pagamenti entro il prossimo decennio. 

Compiti più complessi, come l'installazione di cavi elettrici o la risoluzione di problemi matematici, richiederanno più tempo, anche se DeepMind ha recentemente dimostrato Le prestazioni superiori dell'IA nell'affrontare i problemi di set di tappi e di impacchettamento dei cassonetti. 

I ricercatori stimano anche una probabilità di 50% che l'IA superi le prestazioni umane in tutti i compiti entro il 2047 e l'automazione di tutti i lavori umani entro il 2116. Tutto ciò si basa sul fatto che la scienza "non venga interrotta". 

I risultati sono certamente contrastanti, ma è lecito affermare che i rischi legati all'IA non hanno ancora raggiunto una massa critica. 

Katja Grace dell'Istituto di ricerca sull'intelligenza artificiale in California dichiarato dello studioÈ un segnale importante che la maggior parte dei ricercatori di IA non ritiene fortemente implausibile che l'IA avanzata distrugga l'umanità".

Ecco un elenco delle statistiche e dei risultati principali:

  • Probabilità che l'IA raggiunga le pietre miliari entro il 2028C'è una probabilità 50% che i sistemi di intelligenza artificiale siano in grado di costruire un sito di elaborazione dei pagamenti, di creare una canzone indistinguibile da quella di un musicista popolare e di scaricare e mettere a punto un modello linguistico di grandi dimensioni (LLM).
  • Previsioni di prestazioni dell'IA a livello umano: Lo studio stima una probabilità di 10% entro il 2027 e di 50% entro il 2047 che le macchine non assistite superino gli esseri umani in tutti i compiti. Questa previsione per il 2047 è anticipata di 13 anni rispetto a quella fatta nel 2022.

  • Automazione delle professioni umane: C'è una probabilità di 10% che tutte le occupazioni umane diventino completamente automatizzabili entro il 2037 e una probabilità di 50% entro il 2116, rispetto alla previsione di 2164 fatta nel 2022.
  • Prospettive sul valore a lungo termine dell'IAIl 68,3% degli intervistati ritiene che i risultati positivi dell'"IA sovrumana" siano più probabili di quelli negativi, ma 48% di questi ottimisti vedono ancora almeno una probabilità di 5% di risultati estremamente negativi, come l'estinzione umana. Nel frattempo, 59% dei pessimisti vedono una probabilità pari o superiore a 5% di risultati estremamente positivi.
  • Preoccupazioni per gli scenari guidati dall'IA: Oltre 70% dei ricercatori esprimono preoccupazione per questioni come i falsi profondi, la manipolazione dell'opinione pubblica e le armi ingegnerizzate. I falsi profondi sono stati i più allarmanti, con 86% di ricercatori che hanno espresso preoccupazione. 
  • Stime di probabilità per i rischi di IA: Tra il 37,8% e il 51,4% degli intervistati ritiene che ci sia almeno una probabilità di 10% che l'IA avanzata possa portare a risultati gravi come l'estinzione umana.

  • Stime di probabilità per HLMI (High-Level Machine Intelligence): La previsione aggregata del 2023 prevede una probabilità di 50% di raggiungere l'HLMI entro il 2047, segnando un cambiamento significativo rispetto alla previsione del 2060 fatta nel 2022.
  • Probabilità di completa automazione del lavoro (FAOL): Le previsioni per il 2023 stimano una probabilità di FAOL di 50% entro il 2116, 48 anni prima di una previsione simile fatta nel 2022.
  • Ricerca sulla sicurezza dell'IA: Circa il 70% dei partecipanti al sondaggio ritiene che la ricerca sulla sicurezza dell'IA dovrebbe essere più prioritaria di quanto non lo sia attualmente.

I rischi immediati eclissano quelli a lungo termine

Al di là dei rischi esistenziali, l'indagine evidenzia che una maggioranza sostanziale di ricercatori nutre preoccupazioni immediate riguardo all'IA.

Oltre 70% esprimono una forte preoccupazione per questioni legate all'IA, come i falsi profondi, la manipolazione dell'opinione pubblica, gli armamenti ingegnerizzati, il controllo autoritario e l'aumento della disuguaglianza economica. 

Émile Torres della Case Western Reserve University in Ohio mette in guardia sul ruolo dell'IA nella diffusione della disinformazione su argomenti critici e sul suo impatto sulla governance democratica, affermando: "Abbiamo già la tecnologia, qui e ora, che potrebbe seriamente minare la democrazia [degli Stati Uniti]". 

Le campagne politiche lanciate da politici statunitensi e canadesi hanno già utilizzato l'intelligenza artificiale per creare immagini, e Chiamate rapide AI sono attualmente in corso per raccogliere gli elettori. 

Un altro aspetto significativo è stata la recente elezione in Slovacchia, dove, jià 48 ore prima delle votazioni, sui social media è emerso un audio falsificato in cui personaggi politici di spicco avrebbero discusso di tattiche di compravendita di voti.

Ha innescato una confusione diffusa durante un periodo critico di silenzio pre-elettorale. La tempistica del rilascio ha reso quasi impossibile contrastarne tempestivamente gli effetti. 

Più di recente, le campagne diffamatorie generate dall'IA hanno preso di mira la elezioni in Bangladesh, molto contestatecon contenuti che mirano a screditare il partito avversario dichiarando il suo sostegno al bombardamento di Gaza, un argomento delicato in un Paese a maggioranza musulmana. 

Le tempistiche del rischio AI sono discusse

Il confronto tra gli impatti a breve e a lungo termine dell'IA è stato fonte di un acceso dibattito quando il Centro per la sicurezza dell'IA (CAIS) ha rilasciato una dichiarazione drammatica nel 2023, paragonando i rischi dell'IA alle pandemie e alla guerra nucleare. 

I media hanno pubblicato le peggiori previsioni sullo sviluppo dell'intelligenza artificiale, dai robot assassini ai droni fuori controllo sul campo di battaglia. 

Finora, è il modo in cui gli esseri umani utilizzano l'IA a rappresentare un rischio - un caso di "l'IA non uccide le persone, lo fanno gli esseri umani" - e la preoccupazione per i rischi esistenziali è talvolta vista come eclissante rispetto a ciò che sta accadendo in questo momento.

I falsi profondi, in particolare, hanno un impatto tangibile sulla società umana.

Esplosione del Pentagono
Questa falsa immagine generata dall'AI di un'esplosione al Pentagono temporaneamente ha avuto un impatto sui mercati finanziari all'inizio del 2023. Fonte: X.

C'è anche un altro livello, come quello proposto da Yann LeCun, una figura di spicco nel campo dell'IA, che suggerisce che le aziende tecnologiche più grandi potrebbero esagerare questi rischi per influenzare le azioni normative a loro favore. 

I timori, spesso promossi dalle big tech, potrebbero essere uno stratagemma strategico per incoraggiare regolamenti più severi, che potrebbero svantaggiare le entità più piccole e le iniziative open-source. 

Ciò mette in luce un pericolo più sottile: la potenziale monopolizzazione dell'IA da parte di poche grandi aziende, che potrebbe soffocare l'innovazione e la diversità nell'IA.

Questo lascia ai principali attori dello spazio, come Google e OpenAI, la possibilità di spingere il settore nella propria direzione, a patto di soddisfare le richieste di conformità.

Rischi esistenziali: cosa dicono le prove?

Il dialogo sui rischi oscilla spesso tra due estremi: scetticismo e allarmismo. Quali sono le prove effettive che suggeriscono che l'intelligenza artificiale potrebbe ucciderci o distruggere il pianeta?

L'idea di armare l'IA è forse l'esempio più imminente. In questo caso, i sistemi di IA potrebbero uccidere gli esseri umani con una supervisione limitata, oppure gli attori minacciosi potrebbero utilizzare la tecnologia per sviluppare armi di efficacia catastrofica. 

I droni sono indubbiamente già in grado di distruggere obiettivi con un minimo di intervento umano, come si è probabilmente verificato nel caso del I conflitti israelo-palestinese e russo-ucraino sono già in corso.

Il velivolo senza pilota XQ-58A Valkyrie è diventato completamente automatizzata nel 2023. Fonte: Wikimedia Commons.

Un fattore più sottile del rischio esistenziale dell'IA è l'indebolimento. La preoccupazione non è solo quella di perdere posti di lavoro a favore dei robot, ma anche di perdere capacità umane essenziali e creatività. Un'analogia comune è il film WALL-E, in cui esseri umani simili a blob hanno robot che eseguono i loro ordini a costo della Terra stessa.

C'è alcune prove che LLM come ChatGPT stiano erodendo il pensiero critico degli studenti, anche se è troppo presto per dirlo con certezza.

Le istituzioni educative sono desiderose di sfruttare i vantaggi dell'IA senza eliminare il mondo accademico guidato dagli esseri umani, e diversi istituti di alto profilo hanno approvato in modo condizionato l'uso della tecnologia da parte degli studenti.

WALL-E AI
WALL-E rappresenta un esempio popolare di "indebolimento" dell'IA o della tecnologia.

Un altro rischio ragionevolmente ben documentato è che l'IA sviluppi obiettivi emergenti, come evidenziato da ricerca dell'Università di Cambridge e di DeepMindche potrebbe avere conseguenze indesiderate e potenzialmente dannose per la società umana.

Gli obiettivi emergenti potrebbero vedere le IA altamente intelligenti stabilire i propri obiettivi imprevedibili, eventualmente anche sfuggendo alla loro architettura per "infettare" altri sistemi. 

In definitiva, il potenziale dell'IA per un'estinzione drammatica e violenta è altamente speculativo e ci sono pochi esempi o prove che questo possa accadere presto. Tuttavia, le prove sperimentali relative agli obiettivi emergenti e ad altri potenziali metodi di inflizione di danni da parte delle IA autonome sono in aumento.

Per ora abbiamo molti rischi immediati da gestire, e non dimentichiamo che queste sfide si svilupperanno parallelamente ai cambiamenti climatici, alla perdita di habitat, alle crisi demografiche e ad altri rischi di livello macro.

Se da un lato c'è eccitazione per i potenziali risultati dell'IA, dall'altro c'è anche una palpabile preoccupazione per i rischi immediati e le implicazioni a lungo termine. 

Quest'ultimo sondaggio ci ricorda che il discorso sull'IA non dovrebbe essere orientato verso rischi esistenziali lontani, a scapito delle sfide immediate e dei dilemmi etici posti da questa tecnologia trasformativa. 

Con il progredire dell'IA, trovare un equilibrio in questo dibattito diventa fondamentale per guidarne lo sviluppo verso risultati benefici e sicuri per l'umanità.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni