Geoffrey Hinton, spesso definito il "padrino dell'IA" per il suo lavoro pionieristico sulle reti neurali artificiali, teme che l'IA possa presto prendere il sopravvento sull'umanità.
In un'intervista a 60 Minutes, Hinton ha spiegato che, pur non potendo essere certo del futuro dell'IA, le cose potrebbero andare molto male, molto presto, se non prendiamo le dovute precauzioni.
Hinton non crede che l'IA sia ancora senziente in modo autoconsapevole, ma che "stiamo entrando in un periodo in cui per la prima volta abbiamo cose più intelligenti di noi".
Hinton non è il tipico profeta dell'IA. È orgoglioso del suo lavoro pionieristico e dei risultati ottenuti nel campo dell'IA mentre lavorava a Google. Vede i vantaggi evidenti dell'utilizzo L'intelligenza artificiale nell'assistenza sanitaria e il sviluppo di nuovi farmaci.
Il pericolo che mette in evidenza è il fatto che non sappiamo davvero come "pensano" i sistemi di intelligenza artificiale complicati.
Riferendosi alla capacità dell'intelligenza artificiale di autoapprendere, Hinton ha detto: "Abbiamo un'idea molto buona di quello che sta facendo. Ma non appena diventa molto complicato, non sappiamo più cosa sta succedendo, così come non sappiamo cosa succede nel vostro cervello".
Con il miglioramento dell'IA, non è detto che diventi più facile capire il funzionamento interno dell'intelligenza artificiale. scatola nera.
"Penso che tra cinque anni potrebbe essere in grado di ragionare meglio di noi", ha detto Hinton. In sostanza, gli esseri umani potrebbero presto diventare i secondi esseri più intelligenti del pianeta e perdere il controllo sull'intelligenza artificiale.
Hinton ha dichiarato: "Uno dei modi in cui questi sistemi potrebbero sfuggire al controllo è scrivere il proprio codice informatico per modificarsi. E questo è un aspetto di cui dobbiamo preoccuparci seriamente".
Se un giorno gli scimpanzé decidessero di sollevarsi e attaccare gli umani, questi ultimi vincerebbero perché siamo più intelligenti. Se l'intelligenza artificiale diventasse più intelligente dell'uomo e decidesse di non apprezzarci, subiremmo lo stesso destino.
Non potremmo semplicemente spegnere i computer se iniziano a comportarsi male? Hinton dice che dopo aver letto e studiato tutta la letteratura umana e le connivenze politiche, l'IA diventerebbe un maestro nel manipolare le persone per evitare che ciò accada.
Alla domanda se l'intelligenza artificiale prenderà il sopravvento sull'umanità, Hinton ha risposto: "Sì, è una possibilità. Non sto dicendo che succederà. Se potessimo impedire loro di volerlo fare, sarebbe fantastico. Ma non è chiaro se possiamo impedire che lo vogliano".
Hinton si è dimesso da Google nel maggio di quest'anno, citando i rischi dell'IA che a suo avviso non venivano affrontati. Si è unito a 350 leader dell'IA per firmare una dichiarazione rilasciata dal Center For AI Safety (CAIS).
Il Dichiarazione CAIS ha dichiarato: "Mitigare il rischio di estinzione dovuto all'IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare".
È chiaro che Hinton ritiene che non si tratti di un'esagerazione dei rischi.
"Queste cose capiscono e, poiché capiscono, dobbiamo pensare bene a cosa fare dopo, ma non lo sappiamo".