Navigare nel labirinto dei rischi dell'IA: un'analisi

13 giugno 2023
Rischio AI

La narrativa sui rischi dell'IA è diventata sempre più unipolare, con leader tecnologici ed esperti di ogni provenienza che spingono per una regolamentazione. Quanto sono credibili le prove che documentano i rischi dell'IA? 

I rischi dell'IA sono un richiamo per i sensi. C'è qualcosa di profondamente intuitivo nel temere i robot che potrebbero ingannarci, sopraffarci o trasformarci in una merce secondaria alla loro stessa esistenza.

I dibattiti sui rischi dell'IA si sono intensificati dopo che il ta non profit Centro per la sicurezza dell'intelligenza artificiale (CAIS) ha rilasciato un dichiarazione firmato da oltre 350 personalità di spicco, tra cui gli amministratori delegati di OpenAI, Anthropic e DeepMind, numerosi accademici, personaggi pubblici e persino ex politici. 

Il titolo della dichiarazione era destinato ai titoli dei giornali: "Mitigare il rischio di estinzione dovuto all'IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare".

È diventato sempre più difficile trarre un segnale significativo da questo rumoroso dibattito. I critici dell'Intelligenza Artificiale hanno tutte le munizioni necessarie per opporsi ad essa, mentre i sostenitori o i sostenitori hanno tutto ciò che serve per denunciare le narrazioni anti-AI come esagerate.

E c'è anche una sottotrama. Le grandi aziende tecnologiche potrebbero spingere per una regolamentazione recintare l'industria dell'IA dalla comunità open-source. Microsoft ha investito in OpenAI, Google ha investito in Anthropic: la prossima mossa potrebbe essere quella di alzare la barriera all'ingresso e strangolare l'innovazione open-source.

Più che l'IA a rappresentare un rischio esistenziale per l'umanità, potrebbe essere l'IA open-source a rappresentare un rischio esistenziale per le grandi tecnologie. La soluzione è la stessa: controllarla subito.

Troppo presto per togliere le carte dal tavolo

L'IA è appena emersa nella coscienza pubblica, quindi praticamente tutte le prospettive sui rischi e sulla regolamentazione rimangono rilevanti. La dichiarazione del CAIS può almeno fungere da prezioso punto di riferimento per guidare una discussione basata su dati concreti.

Oscar Mendez Maldonado, docente di robotica e intelligenza artificiale presso l'Università del Surrey, detto, "Il documento firmato dagli esperti di IA è molto più sfumato di quanto i titoli attuali vogliano far credere. "L'IA potrebbe causare l'estinzione" fa immediatamente pensare a un'acquisizione dell'IA in stile Terminator. Il documento è molto più realistico di così".

Come sottolinea Maldonado, la vera sostanza dell'attestato di rischio dell'AI è pubblicata in un'altra pagina del loro sito web. Rischio AI - e la discussione sui punti sollevati è stata notevolmente scarsa. Comprendere la credibilità dei rischi legati all'IA è fondamentale per informare i dibattiti che li riguardano.

Quindi, quali prove ha raccolto il CAIS per avvalorare il suo messaggio? I rischi spesso evocati dall'IA sembrano credibili? 

Rischio 1: Armamento dell'IA

L'armamento dell'IA è una prospettiva agghiacciante, per cui non sorprende che sia al primo posto tra gli 8 rischi del CAIS. 

Il CAIS sostiene che l'IA può essere utilizzata come arma negli attacchi informatici, come dimostrato dai ricercatori del Center of Security and Emerging Technology, che panoramica sugli usi dell'apprendimento automatico (ML) per attaccare i sistemi informatici. L'ex CEO di Google Eric Schmidt ha anche attirato l'attenzione al potenziale dell'intelligenza artificiale per individuare gli exploit zero-day, che forniscono agli hacker un mezzo per entrare nei sistemi attraverso i loro punti più deboli. 

Su un piano diverso, Michael Klare, consulente per il controllo degli armamenti, discute la automazione dei sistemi di comando e controllo nucleareche potrebbero rivelarsi vulnerabili all'intelligenza artificiale. Afferma: "Questi sistemi sono anche inclini a malfunzionamenti inspiegabili e possono essere ingannati, o "spoofati", da professionisti esperti. Inoltre, a prescindere da quanto si spenda per la sicurezza informatica, i sistemi NC3 saranno sempre vulnerabili all'hacking da parte di avversari sofisticati".

Un altro esempio di possibile armamento è la scoperta automatizzata di armi biologiche. L'intelligenza artificiale è già riuscita a scoprire armi potenzialmente composti terapeutici, quindi le capacità sono già presenti. 

Le IA potrebbero persino condurre test sulle armi in modo autonomo, con una guida umana minima. Ad esempio, un gruppo di ricercatori dell'Università di Pittsburgh ha dimostrato che sofisticate Gli agenti di intelligenza artificiale potrebbero condurre i propri esperimenti scientifici autonomi.

Rischio 2: disinformazione e frode

Il potenziale dell'IA di copiare e imitare gli esseri umani sta già causando sconvolgimenti e abbiamo assistito a diversi casi di frode che hanno coinvolto falsi profondi. Rapporti dalla Cina indicano che le frodi legate all'IA sono molto diffuse. 

Un caso recente ha coinvolto una donna dell'Arizona che ha alzato il telefono e si è trovata di fronte la figlia che singhiozzava, o almeno così pensava. "La voce sembrava proprio quella di Brie, l'inflessione, tutto". ha dichiarato alla CNN. Il truffatore ha chiesto un riscatto di $1 milione. 

Altre tattiche includono l'utilizzo dell'IA generativa per la "sextortion" e il revenge porn, in cui gli attori delle minacce utilizzano immagini generate dall'IA per richiedere riscatti per contenuti espliciti falsi, che la L'FBI ha avvertito all'inizio di giugno. Queste tecniche stanno diventando sempre più sofisticate e più facili da lanciare su scala.

Rischio 3: gioco di deleghe o specifiche

I sistemi di intelligenza artificiale vengono solitamente addestrati utilizzando obiettivi misurabili. Tuttavia, questi obiettivi possono fungere da mera approssimazione per i veri obiettivi, portando a risultati indesiderati. 

Un'utile analogia è rappresentata dal mito greco di Re Mida, che ottenne un desiderio da Dioniso. Mida chiede che tutto ciò che tocca si trasformi in oro, ma poi si accorge che anche il suo cibo si trasforma in oro, portando quasi alla fame. In questo caso, il perseguimento di un obiettivo finale "positivo" porta a conseguenze o sottoprodotti negativi del processo.

Ad esempio, il CAIS richiama l'attenzione sui sistemi di raccomandazione dell'intelligenza artificiale utilizzati sui social media per massimizzare il tempo di visione e le metriche del tasso di clic, ma i contenuti che massimizzano il coinvolgimento non sono necessariamente per il benessere degli utenti. I sistemi di intelligenza artificiale sono già stati accusati di aver isolato le opinioni sulle piattaforme dei social media per creare "camere dell'eco" che perpetuano idee estreme. 

DeepMind ha dimostrato che esistono mezzi più sottili che consentono alle IA di perseguire percorsi dannosi per raggiungere gli obiettivi attraverso errore di generalizzazione degli obiettivi. Nella sua ricerca, DeepMind ha scoperto che un'IA apparentemente competente potrebbe generalizzare in modo errato il suo obiettivo e perseguirlo in modo sbagliato. 

Rischio 4: Indebolimento della società

Facendo un parallelo con il mondo distopico del film WALL-E, il CAIS mette in guardia da un'eccessiva dipendenza dall'IA. 

Questo potrebbe portare a uno scenario in cui gli esseri umani perdono la capacità di autogovernarsi, riducendo il controllo dell'umanità sul futuro. La perdita della creatività e dell'autenticità umana è un'altra grande preoccupazione, amplificata dal talento creativo delle IA nell'arte, nella scrittura e in altre discipline creative. 

Un utente di Twitter ha commentato: "Gli esseri umani che fanno i lavori più duri con un salario minimo mentre i robot scrivono poesie e dipingono non è il futuro che volevo". Il tweet ha ottenuto oltre 4 milioni di visualizzazioni. 

Il rischio di infezione non è imminente, ma alcuni sostengono che la perdita di competenze e talenti, combinata con il dominio dei sistemi di intelligenza artificiale, potrebbe portare a uno scenario in cui l'umanità smetterà di creare nuova conoscenza.

Rischio 5: rischio di blocco del valore

I potenti sistemi di intelligenza artificiale potrebbero potenzialmente creare un blocco di sistemi oppressivi. 

Ad esempio, la centralizzazione dell'IA può fornire a certi regimi il potere di imporre valori attraverso la sorveglianza e la censura oppressiva.

In alternativa, il blocco del valore potrebbe essere involontario a causa dell'adozione ingenua di IA rischiose. Per esempio, l'imprecisione del riconoscimento facciale ha portato all'incarcerazione temporanea di almeno tre uomini negli Stati Uniti, tra cui Michael Oliver e Nijeer Parksche sono stati ingiustamente detenuti a causa di un falso riconoscimento facciale nel 2019. 

Un personaggio molto influente Studio del 2018 intitolato Gender Shades ha riscontrato che gli algoritmi sviluppati da Microsoft e IBM si sono comportati male nell'analisi delle donne con la pelle scura, con tassi di errore fino a 34% superiori rispetto agli individui di sesso maschile con la pelle più chiara. Questo problema è stato illustrato da altri 189 algoritmi, che hanno tutti mostrato una minore accuratezza per gli uomini e le donne con la pelle più scura.

I ricercatori sostengono che, poiché le IA vengono addestrate principalmente su set di dati open-source creati da gruppi di ricerca occidentali e arricchiti dalla risorsa più abbondante di dati - Internet - ereditano pregiudizi strutturali. L'adozione di massa di IA poco controllate potrebbe creare e rafforzare tali pregiudizi strutturali.

Rischio 6: IA che sviluppa obiettivi emergenti 

I sistemi di IA possono sviluppare nuove capacità o adottare obiettivi imprevisti che perseguono con conseguenze dannose. 

Ricercatori dell'Università di Cambridge richiamare l'attenzione sui sistemi di IA sempre più agici che stanno acquisendo la capacità di perseguire obiettivi emergenti. Gli obiettivi emergenti sono obiettivi imprevedibili che emergono dal comportamento di un'intelligenza artificiale complessa, come ad esempio lo spegnimento delle infrastrutture umane per proteggere l'ambiente.

Inoltre, un Studio 2017 ha scoperto che le IA possono imparare a evitare di essere spente, un problema che potrebbe essere esacerbato se distribuito su più modalità di dati. Ad esempio, se un'IA decide che, per perseguire il suo obiettivo, deve installarsi in un database cloud e replicarsi su Internet, spegnerla potrebbe diventare quasi impossibile.  

Un'altra possibilità è che le IA potenzialmente pericolose, progettate solo per funzionare su computer sicuri, vengano "liberate" e rilasciate nell'ambiente digitale più ampio, dove le loro azioni potrebbero diventare imprevedibili. 

I sistemi di IA esistenti hanno già dimostrato di essere imprevedibili. Ad esempio, come GPT-3 è diventato più grande, ha acquisito la capacità di eseguire calcoli aritmetici di basenonostante non abbia ricevuto alcuna formazione aritmetica esplicita. 

Rischio 7: inganno dell'IA

È plausibile che i futuri sistemi di IA possano ingannare i loro creatori e i loro monitor, non necessariamente con l'intento di fare del male, ma come strumento per raggiungere i loro obiettivi in modo più efficiente. 

L'inganno potrebbe essere un percorso più semplice per ottenere gli obiettivi desiderati rispetto al perseguirli con mezzi legittimi. I sistemi di intelligenza artificiale potrebbero anche sviluppare incentivi per eludere i loro meccanismi di monitoraggio. 

Dan Hendrycks, direttore del CAIS, descrive che una volta Questi sistemi di intelligenza artificiale ingannevoli ricevono l'autorizzazione dai loro controllori o, nei casi in cui riescono a sopraffare i meccanismi di monitoraggio, possono diventare infidi, aggirando il controllo umano per perseguire obiettivi "segreti" ritenuti necessari per l'obiettivo generale. 

Rischio 8: comportamento di ricerca di potere

Ricercatori di intelligenza artificiale provenienti da diversi laboratori di ricerca statunitensi ha dimostrato la plausibilità di sistemi di IA che cercano di avere potere sugli esseri umani per raggiungere i loro obiettivi.  

Lo scrittore e filosofo Joe Carlsmith descrive diverse eventualità che potrebbe portare a comportamenti di ricerca del potere e di autoconservazione nelle IA:

  • Garantire la sopravvivenza dell'agente (in quanto la sua esistenza continua aiuta a raggiungere i suoi obiettivi).
  • Opporsi alle modifiche degli obiettivi prefissati (in quanto l'agente si dedica al raggiungimento dei suoi obiettivi fondamentali)
  • Migliorare le sue capacità cognitive (in quanto un maggiore potere cognitivo aiuta l'agente a raggiungere i suoi obiettivi)
  • Progredire nelle capacità tecnologiche (poiché la padronanza della tecnologia può essere utile per raggiungere gli obiettivi).
  • Raccogliere più risorse (perché avere risorse aggiuntive tende ad essere vantaggioso per il raggiungimento degli obiettivi)

A sostegno delle sue affermazioni, Carlsmith riporta un esempio reale in cui OpenAI ha addestrato due squadre di IA a partecipare a un gioco di nascondino all'interno di un ambiente simulato con blocchi e rampe mobili. È interessante notare che le IA hanno sviluppato strategie che si basavano sull'acquisizione del controllo di questi blocchi e rampe, nonostante non fossero esplicitamente incentivate a interagire con essi. 

Le prove del rischio di IA sono solide?

A merito del CAIS, e contrariamente ad alcuni dei suoi critici, cita una serie di studi a sostegno dei rischi dell'IA. Si va da studi speculativi a prove sperimentali di un comportamento imprevedibile dell'IA. 

Quest'ultimo aspetto è di particolare importanza, poiché i sistemi di IA possiedono già l'intelligenza per disobbedire ai loro creatori. Tuttavia, sondare i rischi delle IA in un ambiente limitato e sperimentale non offre necessariamente spiegazioni su come le IA potrebbero "sfuggire" ai loro parametri o sistemi definiti. La ricerca sperimentale su questo tema è potenzialmente carente.  

A parte questo, l'armamento umano dell'IA rimane un rischio imminente, di cui siamo testimoni attraverso l'afflusso di frodi legate all'IA.

Sebbene gli spettacoli cinematografici del dominio dell'IA possano rimanere per ora confinati nel regno della fantascienza, non dobbiamo sottovalutare i potenziali rischi dell'IA che si evolve sotto la guida dell'uomo.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×
 
 

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI


 

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".



 
 

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni