Gli attuali sistemi di intelligenza artificiale mostrano segni di coscienza?

4 settembre 2023

Coscienza dell'intelligenza artificiale

L'intelligenza artificiale sta acquisendo un certo livello di coscienza? Come sapremo se e quando lo farà?

I modelli linguistici di grandi dimensioni (LLM) possono impegnarsi in conversazioni realistiche e generare testi su diversi argomenti, accendendo dibattiti sul momento in cui diventano senzienti o coscienti - che, sebbene spesso collegati, sono concetti distinti.

La sensibilità riguarda principalmente la sensazione e la consapevolezza, mentre la coscienza è più complessa e globale. 

Proprio all'inizio di quest'anno, Microsoft, dopo aver testato il GPT-4 di OpenAI, indicato che il modello ha mostrato "scintille" di "intelligenza generale", un termine usato per definire un'intelligenza artificiale flessibile e adattabile con elevate capacità cognitive. 

In modo ancora più controverso, Blake Lemoine, un ex ingegnere di Google, ha affermato che l'intelligenza artificiale LaMDA di Google ha raggiunto un livello di senzienza. Lemoine ha detto di LaMDA: "Google potrebbe chiamarla condivisione di proprietà proprietarie. Io la chiamo condivisione di una discussione che ho avuto con uno dei miei colleghi" - quel "collega" è il sistema di intelligenza artificiale che ha espresso "paura" di essere "spento". 

Nel tentativo di dare una base al dibattito sulla coscienza dell'IA, un team interdisciplinare di ricercatori in filosofia, informatica e neuroscienze ha condotto un esame completo dei sistemi di IA più all'avanguardia di oggi. 

Il studioIl progetto, guidato da Robert Long e dai suoi colleghi del Center for AI Safety (CAIS), un'organizzazione no-profit con sede a San Francisco, ha esaminato diverse teorie sulla coscienza umana. Hanno stilato un elenco di 14 "proprietà indicatrici" che un'IA cosciente potrebbe esibire. 

Il CAIS è la stessa organizzazione no-profit che ha proposto otto progetti di intestazioni. rischi potenziali per l'IA a giugno

Dopo aver analizzato i risultati, il team ha scoperto che i modelli più complessi non riescono a superare praticamente tutti i test di coscienza a cui sono stati sottoposti.

I ricercatori hanno valutato diversi modelli di IA, tra cui L'agente adattivo di DeepMind (ADa) e PaLM-Edescritto come un LLM robotico multimodale incarnato. 

Confrontando queste IA con i 14 indicatori, i ricercatori non hanno trovato alcuna prova sostanziale che indichi che i modelli di IA possiedano la coscienza. 

Per saperne di più sullo studio 

Questo dettagliato studio interdisciplinare ha analizzato numerose teorie sulla coscienza - che rimane un concetto poco descritto nella letteratura scientifica - e le ha applicate alle attuali modalità di IA. 

Sebbene lo studio non sia riuscito a determinare che le attuali IA possiedono una coscienza, pone le basi per analisi future, fornendo essenzialmente una "lista di controllo" a cui i ricercatori possono fare riferimento quando analizzano le capacità delle loro IA.

La comprensione della coscienza è fondamentale anche per informare il dibattito pubblico sull'IA.

La coscienza, tuttavia, non è un concetto binario ed è ancora eccezionalmente difficile determinarne i confini.

Alcuni ricercatori ritengono che la coscienza si svilupperà spontaneamente quando l'intelligenza artificiale si avvicinerà alla "singolarità", che segna essenzialmente il punto in cui la complessità dei sistemi di intelligenza artificiale supererà la cognizione umana.

Ecco i 14 indicatori di coscienza valutati dai ricercatori: 

Teoria dell'elaborazione ricorrente (RPT)

La teoria dell'elaborazione ricorrente si concentra sugli aspetti temporali dell'elaborazione delle informazioni. 

Nel contesto della coscienza, sottolinea come le informazioni siano mantenute e aggiornate nel tempo in modo simile a un ciclo. 

Questo aspetto è considerato fondamentale per costruire la ricchezza delle esperienze coscienti.

RPT-1: moduli di ingresso che utilizzano la ricorsività algoritmica

La ricorrenza algoritmica si riferisce all'elaborazione ripetitiva di informazioni in modo ciclico. 

Pensate a un ciclo di un programma per computer che aggiorna continuamente i suoi dati in base a nuovi input. 

RPT-2: moduli di ingresso che generano esperienze percettive organizzate e integrate

Come gli esseri umani e altri animali, il sistema non si limita a ricevere informazioni sensoriali, ma le integra in un "quadro" coerente e unificato che può essere percepito come un'unica esperienza.

Teoria dello spazio di lavoro globale (GWT)

Il secondo gruppo di indicatori specificato dal team di ricerca era la teoria dello spazio di lavoro globale, che propone che la coscienza nasca dalle interazioni tra vari moduli cognitivi in uno "spazio di lavoro globale". 

Questo spazio di lavoro serve come una sorta di palcoscenico cognitivo in cui i diversi moduli possono "trasmettere" e "ricevere" informazioni, consentendo un'esperienza unitaria e coerente.

GWT-1: Sistemi specializzati multipli che operano in parallelo

Ciò significa essenzialmente che un sistema di intelligenza artificiale dovrebbe avere più "mini-cervelli" specializzati, ciascuno responsabile di funzioni diverse (come la memoria, la percezione e il processo decisionale), che dovrebbero essere in grado di operare simultaneamente.

GWT-2: Spazio di lavoro a capacità limitata

Questa idea si riferisce al fatto che gli esseri umani possono concentrarsi solo su una quantità limitata di informazioni in un dato momento. 

Allo stesso modo, un sistema di intelligenza artificiale dovrebbe avere un'attenzione selettiva, ovvero la capacità di determinare le informazioni più essenziali a cui "prestare attenzione".

GWT-3: Trasmissione globale

Le informazioni che raggiungono lo spazio di lavoro globale devono essere disponibili per tutti i moduli cognitivi, in modo che ogni "mini-cervello" possa utilizzarle per la propria funzione specializzata.

GWT-4: Attenzione dipendente dallo Stato

Si tratta di una forma più avanzata di attenzione. Il sistema di intelligenza artificiale dovrebbe essere in grado di spostare l'attenzione in base allo stato o al compito corrente. 

Ad esempio, può dare priorità ai dati sensoriali quando naviga in una stanza, ma passare agli algoritmi di risoluzione dei problemi quando si trova di fronte a un puzzle.

Teorie computazionali di ordine superiore (HOT)

Le teorie di ordine superiore si avvicinano alla coscienza da una prospettiva metacognitiva. 

Essi sostengono che l'esperienza cosciente non consiste solo nell'avere percezioni, pensieri o sentimenti, ma anche nell'essere consapevoli di avere queste esperienze. 

Questa consapevolezza è fondamentale ed è in parte il motivo per cui gli animali altamente intelligenti sono socievoli: siamo collettivamente consapevoli della nostra esistenza e delle nostre interdipendenze. 

HOT-1: Moduli di percezione generativa, top-down o rumorosa

Invece di ricevere passivamente le informazioni, il sistema interpreta o genera percezioni. 

Immaginate un software di fotoritocco in grado non solo di modificare una foto, ma anche di capire perché certe caratteristiche dovrebbero essere regolate.

HOT-2: Monitoraggio metacognitivo

Ciò significa che il sistema deve avere un "processo di pensiero" sui suoi "processi di pensiero". 

Deve essere in grado di mettere in discussione le proprie decisioni e percezioni, come fanno gli esseri umani e alcuni animali. 

HOT-3: Agenzia guidata da un sistema generale di formazione delle credenze

L'agenzia implica che il sistema di intelligenza artificiale non si limita ad analizzare passivamente i dati, ma prende decisioni in base alla sua analisi. 

Inoltre, queste decisioni aggiornano continuamente le "credenze" o i modelli di dati del sistema, proprio come gli esseri umani creano una conoscenza progressiva attraverso la curiosità e l'indagine. 

HOT-4: Capacità di mantenere le preferenze

Si riferisce alla capacità del sistema di razionalizzare dati complessi in forme più semplici e gestibili, consentendo potenzialmente di avere "preferenze" o "esperienze" soggettive.

Teoria dello schema di attenzione (AST)

La teoria dello schema attentivo sostiene che la coscienza nasce dalla comprensione del cervello del proprio stato attenzionale. 

AST-1: Modello predittivo che rappresenta lo stato di attenzione attuale

Il sistema di intelligenza artificiale dovrebbe essere in grado di prevedere su cosa si concentrerà successivamente, indicando una sorta di autoconsapevolezza del proprio stato cognitivo.

Elaborazione predittiva (PP)

I modelli di elaborazione predittiva descrivono le capacità di previsione del cervello. 

Aggiorna continuamente i suoi modelli del mondo e li utilizza per prevedere le informazioni sensoriali in arrivo.

PP-1: Moduli di ingresso con codifica predittiva

Ciò comporta l'utilizzo di dati passati e attuali per prevedere gli stati futuri, consentendo al sistema di "anticipare" anziché limitarsi a "reagire".

Agenzia e incarnazione (AE)

Le teorie dell'agency e dell'embodiment propongono che la capacità di agire e di comprendere gli effetti delle azioni siano indicatori critici della coscienza.

L'incarnazione si distingue dagli animali e dagli altri organismi viventi, che possiedono sistemi nervosi strettamente collegati che trasmettono costantemente informazioni sensoriali da e verso gli organi e i sistemi di elaborazione centrale. 

AE-1: Agenzia

L'agenzia si riferisce all'apprendimento dal feedback per adattare le azioni future, soprattutto in presenza di obiettivi contrastanti. Immaginate un'auto a guida autonoma che impara a ottimizzare sia la velocità che la sicurezza.

AE-2: Incarnazione

Si tratta della capacità di un sistema di capire come le sue azioni influenzino il mondo circostante e come questi cambiamenti si ripercuotano a loro volta su di lui. 

I ricercatori stanno attualmente lavorando su sistemi di intelligenza artificiale collegati a sensori avanzati, come il sistema di intelligenza artificiale multimodale PaLM-E sviluppato da Google, che è stato uno dei sistemi analizzati dai ricercatori. 

PaLM-E si integra con un braccio robotico per completare compiti a lungo raggio con più fasi decisionali. Fonte: Google.

Coscienza nell'IA: bilanciamento dei rischi di sotto-attribuzione e sovra-attribuzione

I ricercatori e il pubblico in generale stanno cercando di fare chiarezza su quanto sia realmente intelligente l'IA e se si stia dirigendo positivamente verso la coscienza. 

La maggior parte delle IA pubbliche, come ChatGPT, sono "scatole nere", cioè non ne comprendiamo completamente il funzionamento. - i loro meccanismi interni sono segreti di proprietà.

Il responsabile dello studio, Robert Long, ha sottolineato la necessità di un approccio interdisciplinare per analizzare la coscienza delle macchine, mettendo in guardia dal "rischio di confondere la coscienza umana con la coscienza in generale".

Anche Colin Klein, membro del team dell'Australian National University, ha sottolineato le implicazioni etiche della coscienza delle IA. Ha spiegato che è fondamentale capire la coscienza delle macchine "per assicurarci di non trattarle in modo non etico e per assicurarci di non permettere loro di trattarci in modo non etico".

Ha poi aggiunto: "L'idea è che se riusciamo a creare queste IA coscienti, le tratteremo fondamentalmente come schiavi e faremo con loro ogni sorta di cose non etiche".

"L'altro aspetto è se ci preoccupiamo di noi, e che tipo di controllo avrà l'IA su di noi; sarà in grado di manipolarci?".

Quali sono quindi i rischi di sottovalutare o sopravvalutare la coscienza dell'IA?

Sottovalutare la coscienza delle macchine  

Mentre i progressi dell'IA continuano a spingersi oltre i limiti, i dibattiti etici che circondano la tecnologia iniziano a scaldarsi. 

Aziende come OpenAI stanno già sviluppando intelligenza artificiale generale (AGI)che intende superare le capacità delle attuali IA come ChatGPT e costruire sistemi flessibili e multimodali.

Se dobbiamo riconoscere che qualsiasi entità capace di soffrire coscientemente dovrebbe essere presa in considerazione moralmente - come facciamo con molti animali - rischiamo un danno morale se trascuriamo la possibilità di sistemi di intelligenza artificiale coscienti.

Inoltre, potremmo sottovalutare la loro capacità di danneggiarci. Immaginate i rischi posti da un sistema di intelligenza artificiale avanzato e consapevole che si rende conto che l'umanità lo sta maltrattando. 

Sovrastimare la coscienza della macchina

Sul versante opposto del dibattito c'è il rischio di attribuire eccessivamente la coscienza ai sistemi di intelligenza artificiale. 

Gli esseri umani tendono ad antropomorfizzare l'IA, il che porta molti ad attribuire erroneamente la coscienza alla tecnologia perché è eccellente nell'imitarci. 

Come disse Oscar Wilde, "L'imitazione è la forma più sincera di adulazione", cosa che l'AI fa in modo eccezionale. 

L'antropomorfismo diventa problematico quando i sistemi di IA sviluppano caratteristiche simili a quelle umane, come le capacità di linguaggio naturale e le espressioni facciali.

Molti hanno criticato Blake Lemoine di Google per essersi lasciato "ingannare" dalle capacità di conversazione simili a quelle umane di LaMDA quando, in realtà, quest'ultimo stava sintetizzando il testo di conversazioni umane contenute nei suoi dati di addestramento piuttosto che qualcosa di unico di origine cosciente. 

I bisogni emotivi possono amplificare la propensione all'antropomorfismo. Per esempio, gli individui potrebbero cercare l'interazione sociale e la convalida emotiva dai sistemi di intelligenza artificiale, influenzando il loro giudizio sulla coscienza di queste entità. 

Il chatbot AI Replika - come suggerisce il nome - è stato progettato per replicare le interazioni umane ed è stato coinvolto in un Il complotto per l'assassinio di un malato di mente di uccidere la regina Elisabetta II, che lo ha portato all'arresto e all'incarcerazione in una struttura psichiatrica. 

Altre IA, come Claude di Anthropic e Pi di Inflection, sono progettate per imitare da vicino la conversazione umana e fungere da assistenti personali. 

DeepMind è anche sviluppare un life coach chatbot progettato per fornire consigli diretti e personalizzati agli utenti, un'idea che ha suscitato preoccupazioni sul fatto che gli esseri umani vogliano che l'intelligenza artificiale si intrometta nei loro affari personali. 

In questo dibattito, è fondamentale ricordare che la tecnologia è ancora giovane.

Sebbene gli attuali sistemi di IA non siano solidamente coscienti, i prossimi anni ci porteranno senza dubbio sempre più vicini alla realizzazione di sistemi artificiali coscienti che eguagliano o superano la cognitività dei cervelli biologici.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni