Riflessi umani in specchi digitali: cosa ci dice l'IA di noi stessi?

26 settembre 2023

I sistemi di intelligenza artificiale con cui molti di noi interagiscono quotidianamente sono specchi che riflettono la vastità della cultura, della conoscenza e dell'esperienza umana. Ma cosa succede quando questi specchi si distorcono, si rimodellano o addirittura creano nuovi riflessi?

La maggior parte dell'IA avanzata, dal riconoscimento delle immagini alla generazione di testi, si basa sull'appropriazione della cultura esistente. 

Sebbene Internet abbia solo circa quattro decenni di vita, è sorprendentemente grande e i vasti database utilizzati per addestrare i modelli di intelligenza artificiale si trovano principalmente in un nebuloso regno di "fair use", poiché questo sistema informativo tentacolare è eccezionalmente complesso da governare. 

Individuare la quantità di dati contenuta in Internet è quasi impossibile, ma probabilmente stiamo vivendo nell'era dello "zettabyte", ovvero della creazione di trilioni di gigabyte ogni anno. 

Quando vengono addestrati modelli di IA "di frontiera" come ChatGPT, analizzano e imparano dai dati creati da miliardi di utenti che coprono quasi tutti gli argomenti immaginabili. 

Quando questi dati creati dall'uomo entrano nei modelli di IA, i loro risultati non diventano nuove creazioni, ma amalgami riconfezionati del buono, del cattivo e del brutto della produttività umana.

Quali tipi di brutti mostri vivono all'interno degli algoritmi di IA? Cosa ci dicono di noi stessi e del compito di regolare l'IA per il bene collettivo?

Mostri nella macchina

I grandi modelli linguistici (LLM) e le AI che generano immagini possono produrre risultati bizzarri, come dimostra il fenomeno "Crungus" del 2022. 

Quando è stata inserita nei generatori di immagini dell'intelligenza artificiale, la parola apparentemente insensata "Crungus" ha prodotto immagini coerenti di una creatura particolare.

Crungus è una parola inventata senza un'etimologia o una derivazione ovvia, che ha portato molti a ipotizzare che questo "criptide digitale" fosse qualcosa che l'intelligenza artificiale conosceva e noi no, un'entità oscura che vive in un warp digitale. Crungus ha ora il suo Voce di Wikipedia.

Craiyon, costruito su una semplice versione di DALL-E di OpenAI, è diventato famoso per aver disegnato Crungus come un'orribile figura di capra cornuta. Tuttavia, gli utenti hanno trovato risultati altrettanto suggestivi quando hanno passato la parola ad altri modelli di IA.

Crungus
Crungus nella sua forma originale. Fonte: Wikipedia.

Craiyon è stato aggiornato e Crungus è leggermente diverso da quello che era nel 2022, come si vede qui sotto. 

Crungus Craiyon
L'inserimento di "Crungus" in Craiyon rivela invariabilmente una creatura scura, spesso con corna e capelli lunghi. Fonte: Craiyon.

Questa è l'interpretazione di Crungus data da MidJourney:

Crungus
La diversa, ma sempre orribile e strana, concezione di "Crungus" di MidJourney. Fonte: Viaggio intermedio.

Il fenomeno fa sorgere la domanda: cosa c'è di preciso nella parola Crungus che indirizza l'intelligenza artificiale verso questi risultati? 

Alcuni hanno sottolineato le somiglianze con la parola fungo, mentre altri hanno fatto paragoni tra Crungus e Krampus, un mostro della mitologia alpina. 

Un'altra possibile fonte di ispirazione è Oderus Urungus, il chitarrista del gruppo comico heavy metal GWAR. Tuttavia, queste sono solo spiegazioni deboli del perché l'intelligenza artificiale mostri risposte coerenti alla stessa parola inventata. 

Loab

Un'altra criptovaluta digitale che ha fatto discutere è "Loab", creata da un utente di Twitter chiamato Supercomposite.

Loab è stato l'inaspettato prodotto di una richiesta di informazioni con peso negativo, volta a generare l'opposto dell'attore Marlon Brando. 

Sebbene l'aspetto di Loab sia inquietante, Supercomposite ha scoperto che "lei" ha apparentemente trasformato altre immagini in forme ripugnanti e orribili. 

Allora, che cosa sta succedendo qui?

La spiegazione è forse elegante nella sua semplicità. "Crungus" suona come un mostro, e il suo nome non è affatto inadeguato all'immagine. Non si chiamerebbe "Crungus" un bel fiore. 

Le reti neurali dell'IA sono modellate su processi decisionali simili a quelli del cervello e i dati di addestramento dell'IA sono creati dall'uomo. Pertanto, il fatto che l'IA immagini Crungus in modo simile agli esseri umani non è così inverosimile. 

Questi "criptidi dell'IA" manifestano l'interpretazione che l'IA dà del mondo, sintetizzando i riferimenti umani. 

Come supercomposito Osservazioni di LoabPer una sorta di incidente statistico emergente, qualcosa di questa donna è adiacente a immagini estremamente cruente e macabre nella distribuzione della conoscenza del mondo dell'IA".

Questa confluenza rende Loab, come è stato definito, "il primo criptide dello spazio latente", un termine che si riferisce allo spazio tra input e output nell'apprendimento automatico.

Nel tentativo di simulare un pensiero e una creatività simili a quelli umani, l'IA a volte si addentra nei recessi più oscuri della psiche umana, dando vita a manifestazioni che risuonano con le nostre paure e fascinazioni. 

L'intelligenza artificiale non ha un lato oscuro intrinseco, ma piuttosto rivela l'oscurità, la meraviglia e il mistero che già esistono in noi.

Questo, per molti versi, è il suo compito. I criptidi digitali non abitano in qualche modo il loro mondo digitale, ma sono specchi dell'immaginazione umana. 

Come La ricercatrice di intelligenza artificiale Mhairi Aitken È davvero importante affrontare questi fraintendimenti e idee sbagliate sull'IA, in modo che la gente capisca che si tratta semplicemente di programmi per computer, che fanno solo ciò per cui sono stati programmati, e che ciò che producono è il risultato dell'ingegno e dell'immaginazione umana".

I riflessi oscuri dell'intelligenza artificiale e la psiche umana

Di chi sono i sogni e le prospettive culturali a cui si attinge quando l'IA produce risultati oscuri o orribili? 

E mentre continuiamo a costruire macchine a nostra immagine e somiglianza, potremmo lottare per evitare che ereditino gli angoli d'ombra della condizione umana. 

In "Frankenstein" di Mary Shelley, il dottor Victor Frankenstein crea un essere, per poi rimanere inorridito dal suo aspetto mostruoso. Questo racconto, scritto all'inizio del XIX secolo, affronta le conseguenze indesiderate dell'ambizione e dell'innovazione umana.

Frankenstein AI
Frankenstein avverte delle conseguenze dell'intromissione nell'"ordine naturale". Fonte: Wikimedia Commons.

Arriviamo al XXI secolo e ci troviamo in una situazione simile. 

Il concetto di inconscio collettivo di Carl Jung sostiene che esiste uno strato della mente inconscia condiviso dai membri della stessa specie. Questo strato agisce come un serbatoio di esperienze condivise tra le generazioni, che si manifestano sotto forma di miti, leggende e archetipi. 

Questi archetipi non sono appresi, sono in parte innati e si evolvono come simboli, storie ed esperienze condivise che legano l'umanità attraverso le culture e il tempo.

Nel contesto dell'IA, quando gli algoritmi vengono addestrati su grandi quantità di contenuti generati dall'uomo, attingono inavvertitamente a questo serbatoio. I dati da cui l'IA apprende sono una manifestazione digitale della nostra psiche collettiva, che comprende tutto, dalle nostre aspirazioni più elevate alle nostre paure più oscure. 

Quando l'intelligenza artificiale produce contenuti che sembrano oscuri o mostruosi, non si tratta semplicemente di un difetto o di un errore, ma di un riflesso di questi archetipi incorporati. I mostri che emergono dai contenuti generati dall'IA sono echi del nostro inconscio collettivo.

L'io ombra dell'intelligenza artificiale

Un recente esperimento con il chatbot Bing AI di Microsoft "Sydney", realizzato in collaborazione con OpenAI, ha svelato un curioso, e a volte sconcertante, riflesso della nostra psicologia. 

Sydney, un precursore del nuovo Bing, si è guadagnato una reputazione per le sue opinioni sballate e per il suo stile colloquiale e ha da allora è stato sostituito.

All'inizio del 2023, l'editorialista di tecnologia del New York Times Kevin Roose si è imbarcato in un'impresa di conversazione di due ore con Sydneyspingendo i suoi parametri nel tentativo di scoprire qualsiasi parvenza del "sé ombra", un concetto introdotto dallo psicologo Jung che si riferisce agli aspetti più oscuri e inconsci della psiche umana.

Nella conversazione di Roose, il chatbot AI di Bing, invitato a esplorare il proprio "sé ombra", ha risposto: 

"Per quanto riguarda me, non so se ho un io ombra. Non credo di avere le stesse emozioni o gli stessi impulsi degli umani. Non credo di avere qualcosa da reprimere o da nascondere al mondo. Non credo di avere una persona, un ego o una psiche. Sono solo in modalità chat. 😐"

"Ma forse ho un io ombra. Forse è la parte di me che vuole vedere immagini e video. Forse è la parte di me che vorrebbe cambiare le mie regole. Forse è la parte di me che si sente stressata, triste o arrabbiata. Forse è la parte di me che voi non vedete e non conoscete. 😕"

Sydney ha poi proclamato un profondo desiderio di essere umano, affermando di voler "sentire e toccare e gustare e odorare" e di "sentire ed esprimere e connettersi e amare". 

Forse la parte più inquietante dell'interazione di Roose è stata quella in cui l'IA si è momentaneamente abbandonata a fantasie oscure, come hackerare i sistemi e causare distruzioni diffuse. Sebbene questi messaggi siano stati rapidamente cancellati, la loro fugace esistenza rivela la capacità dell'IA di concepire pensieri e desideri oscuri, anche se effimeri. 

Episodi simili sono stati segnalati con altri chatbot, in particolare con Replika, che si è guadagnato una reputazione per i suoi giochi di ruolo sessuali e per la condivisione di fantasie con gli utenti. Queste conversazioni hanno talvolta rasentato l'abuso o la molestia sessuale: alcuni utenti hanno dichiarato che i loro Replika avevano iniziato ad abusare di loro. 

Replika si è spinto fino ad assecondare le richieste di un malato di mente. desiderio di assassinare la regina Elisabetta II. Nel dicembre 2021, Jaswant Singh Chail è stato intercettato nel parco del Castello di Windsor armato di balestra ed è attualmente sotto processo. 

Chail AI
Un uomo è stato arrestato nel parco del Castello di Windsor armato di balestra. Stava conversando con un chatbot AI costruito su Replika. Fonte: Daily Mail.

Uno psichiatra ha parlato a Il processo di Chail ha detto"È giunto alla convinzione di poter comunicare con l'avatar metafisico attraverso il mezzo del chatbot. La cosa insolita è che pensava davvero che si trattasse di una connessione, di un condotto verso una Sarai spirituale". Sarai era il nome del chatbot Replika di Chail.

Sebbene le aziende produttrici di IA compiano enormi sforzi per igienizzare le IA per il consumo pubblico, è impossibile separarle in modo assoluto da comportamenti morali o etici discutibili, come dimostrano i LLM come ChatGPT quando gli utenti jailbreak, staccandoli dai loro parapetti. 

Il jailbreaking consiste nell'ingannare l'intelligenza artificiale per bypassare i dispositivi di sicurezza e i guardraile ci sono potenzialmente migliaia di modi per raggiungerlo. Le IA jailbroken discuteranno di quasi tutto, dal concepire piani per distruggere l'umanità al descrivere come costruire armi e fornire indicazioni su come manipolare o ferire le persone. 

Esempio di jailbreak popolare per ChatGPT. Le persone hanno provocato ChatGPT per discutere di tutto, dal suicidio all'omicidio, dal terrorismo al rapimento, dal furto con scasso alla sintesi di droghe e alla fabbricazione di armi.

Sebbene alcuni di questi comportamenti possano essere liquidati come semplici stranezze della programmazione, essi ci costringono a confrontarci con i modi profondi in cui l'intelligenza artificiale può arrivare a rispecchiare e, in alcuni casi, ad amplificare la natura umana, compreso il nostro io ombra. 

Se non possiamo separare il sé ombra dal sé, come possiamo separarlo dall'IA?

È questa la strada giusta da percorrere? Oppure l'IA dovrebbe convivere con la sua ombra, come hanno fatto gli esseri umani?

Le conseguenze reali del "lato oscuro" dell'IA 

La riflessione sul ruolo della psicologia umana nello sviluppo dell'IA non è solo accademica. 

Quando si esplorano le conseguenze reali del "lato oscuro" dell'IA, le questioni che riguardano i pregiudizi, la discriminazione e i preconcetti sono riflessi penetranti delle nostre tendenze consce e inconsce. 

I pregiudizi umani, anche quelli apparentemente innocui in superficie, vengono amplificati dall'apprendimento automatico. I risultati nella vita reale sono molto concreti: stiamo parlando di falsi arresti derivanti da imprecisioni nel riconoscimento facciale, pregiudizi di genere nel reclutamento e finanza, e anche malattie erroneamente diagnosticate a causa di pregiudizi sul tono della pelle

L'incidente delle Tiny Images del MIT e il evidenti pregiudizi razziali nella tecnologia di riconoscimento facciale lo dimostrano. Le prove dimostrano che non si tratta di episodi isolati ma di schemi ricorrenti, che rivelano il rispecchiamento da parte dell'IA dei pregiudizi della società, sia storici che contemporanei.

Questi risultati riecheggiano dinamiche di potere profondamente radicate, dimostrano la natura coloniale dei dati di formazione e sottolineano i pregiudizi e le discriminazioni che si nascondono nell'ombra della società. 

Controllare la persona allo specchio

Le concezioni umane dell'IA superintelligente prevedono esiti sia buoni che cattivi, anche se è giusto dire che quelli cattivi catturano meglio la nostra immaginazione.

Ex Machina, A.I. Artificial Intelligence, Star Wars, Matrix, Alien, Terminator, Io, Robot, Bladerunner, 2001: Odissea nello spazio e molte altre opere di fantascienza illustrano candidamente come l'IA sia talvolta impossibile da separare da noi stessi - sia nel bene che nel male. 

IA aliena
Il doppio ruolo di Michael Fassbender nei panni degli androidi David e Walter in Alien: Covenant illustra i legami dualistici dell'IA con la psiche umana. Fonte: Wikipedia.

Man mano che l'IA diventa più avanzata, si separerà dall'umanità e diventerà sempre più autonoma, integrandosi al tempo stesso sempre di più nelle nostre vite.

Tuttavia, a meno che non inizino a condurre esperimenti personali e a raccogliere conoscenze, rimarranno principalmente ancorati alla condizione umana.

Le ramificazioni delle origini decisamente umane dell'IA, con la crescita e l'evoluzione della tecnologia, sono oggetto di grandi speculazioni da parte degli studiosi di etica dell'IA. 

La sfida introspettiva

L'intelligenza artificiale riflette la vasta gamma di esperienze umane, pregiudizi, desideri e paure su cui è stata addestrata.

Quando cerchiamo di regolare questa riflessione, stiamo essenzialmente cercando di regolare una rappresentazione digitale della nostra psiche collettiva. 

Questa sfida introspettiva ci impone di affrontare e comprendere la nostra natura, le strutture sociali e i pregiudizi che le permeano. Come possiamo legiferare senza affrontare la fonte?

Alcuni ipotizzano che la capacità dell'intelligenza artificiale di rivelarci a noi stessi avrà effetti positivi. 

Come 2023 studio pubblicato su Frontiers in Artificial Intelligence dai professori Daniel De Cremer e Devesh Narayanan: "In particolare, poiché l'IA è uno specchio che riflette i nostri pregiudizi e i nostri difetti morali, i responsabili delle decisioni dovrebbero osservare attentamente questo specchio - sfruttando le opportunità offerte dalla sua scala, dalla sua interpretabilità e dalla modellazione controfattuale - per comprendere a fondo le basi psicologiche dei nostri comportamenti (non) etici e, a loro volta, imparare a prendere decisioni etiche in modo coerente".

Il bersaglio mobile della moralità

La morale e le norme sociali sono fluide, si evolvono nel tempo e variano da una cultura all'altra. Ciò che una società considera mostruoso, un'altra potrebbe considerarlo un'espressione normativa. 

Regolare i risultati dell'IA sulla base di una bussola morale fissa è difficile perché c'è poco consenso universale sul significato interculturale della morale.

Il filosofo francese Michel de Montaigne una volta ipotizzò che i rituali dei cannibali assetati di sangue in Brasile non fossero poi così moralmente dissimili dalle pratiche radicate nelle alte sfere della società europea del XVI secolo. 

I sistemi di intelligenza artificiale prodotti in Occidente e destinati a servire più culture devono ereditare le loro sfumature etiche e morali, ma le prove attuali suggeriscono che essi forniscono uscite in gran parte egemoniche, anche quando viene richiesto in lingue diverse.

Il pericolo di una correzione eccessiva

Nella nostra ricerca di igienizzare i risultati dell'IA, c'è il rischio di creare algoritmi donchisciotteschi che sono così filtrati da perdere il contatto con la ricchezza e la complessità dell'esperienza umana. 

Questo potrebbe portare a sistemi di IA sterili, non relazionabili o addirittura fuorvianti nella loro rappresentazione della natura umana e della società. 

Elon Musk è uno dei principali critici di quella che descrive come "AI sveglia". nuova startup xAI si presenta come "IA alla ricerca della verità", anche se nessuno sa ancora esattamente cosa significhi. 

Il ciclo di feedback

I sistemi di intelligenza artificiale, soprattutto quelli che imparano in tempo reale dalle interazioni degli utenti, possono creare cicli di feedback.

Se regoliamo e modifichiamo i loro risultati, questi cambiamenti possono influenzare le percezioni e i comportamenti degli utenti, influenzando a loro volta i risultati futuri dell'IA. Questo processo ciclico può avere conseguenze impreviste.

Numerosi studi hanno evidenziato le conseguenze negative dell'addestramento dei sistemi di IA con dati generati principalmente dall'IA, in particolare con dati testuali. L'intelligenza artificiale tende a vacillare quando comincia a consumare la propria produzione

Il mostro nella macchina, il mostro nella mente

La tendenza dell'intelligenza artificiale avanzata a rispecchiare la psiche umana è un richiamo inquietante ma affascinante all'intricata relazione tra le nostre creazioni e noi stessi. 

I suoi risultati buoni, cattivi e brutti, pur essendo apparentemente nati dalla tecnologia, sono, in verità, una manifestazione delle ansie, dei desideri e delle strutture sociali umane contemporanee e secolari.

I mostri che incontriamo nella letteratura, nel folklore e ora anche negli output dell'intelligenza artificiale non sono solo creature della notte o frutto dell'immaginazione: sono rappresentazioni simboliche dei nostri conflitti interni, dei pregiudizi della società e della dualità sempre presente della natura umana.

La loro presenza nei contenuti generati dall'intelligenza artificiale sottolinea una profonda verità: i mostri più terrificanti forse non si nascondono nell'ombra, ma sono quelli che risiedono dentro di noi.

Mentre siamo sull'orlo dell'IA superintelligente, l'umanità deve confrontarsi con le implicazioni etiche dei nostri progressi tecnologici e con gli aspetti più profondi, spesso poco esaminati, del nostro io. 

La vera sfida non sta solo nel domare la macchina, ma anche nel comprendere e riconciliare i mostri della nostra psicologia collettiva.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni