La scorsa settimana, i principali scienziati dell'IA si sono incontrati a Pechino in occasione del secondo Dialogo internazionale sulla sicurezza dell'IA per concordare le "linee rosse" per lo sviluppo dell'IA al fine di mitigare i rischi esistenziali.
L'elenco degli informatici comprendeva nomi di spicco come i vincitori del Premio Turing Yoshua Bengio e Geoffrey Hinton, spesso definiti i "padrini" dell'IA, e Andrew Yao, uno dei più importanti informatici cinesi.
Spiegando l'urgente necessità di discutere a livello internazionale per limitare lo sviluppo dell'IA, Bengio ha dichiarato: "La scienza non sa come assicurarsi che questi futuri sistemi di IA, che chiamiamo AGI, siano sicuri. Dovremmo iniziare a lavorare fin da ora su soluzioni sia scientifiche che politiche a questo problema".
In una dichiarazione congiunta firmata dagli scienziati, sono stati messi a fuoco i loro sentimenti di disagio per i rischi dell'IA e la necessità di un dialogo internazionale.
La dichiarazione ha dichiarato: "Nel pieno della Guerra Fredda, il coordinamento scientifico e governativo internazionale ha contribuito a scongiurare la catastrofe termonucleare. L'umanità ha nuovamente bisogno di coordinarsi per evitare una catastrofe che potrebbe derivare da una tecnologia senza precedenti".
Linee rosse dell'IA
L'elenco delle linee rosse per lo sviluppo dell'IA, che la dichiarazione definisce "non esaustivo", comprende quanto segue:
Replicazione o miglioramento autonomo - Nessun sistema di intelligenza artificiale deve essere in grado di copiare o migliorare se stesso senza l'esplicita approvazione e assistenza umana. Ciò include sia copie esatte di se stesso sia la creazione di nuovi sistemi di IA con capacità simili o superiori.
Ricerca di energia - Nessun sistema di intelligenza artificiale dovrebbe intraprendere azioni per aumentare indebitamente il proprio potere e la propria influenza.
Assistenza allo sviluppo delle armi - Nessun sistema di IA dovrebbe aumentare sostanzialmente la capacità degli attori di progettare armi di distruzione di massa (WMD) o di violare la convenzione sulle armi biologiche o chimiche.
Attacchi informatici - Nessun sistema di intelligenza artificiale dovrebbe essere in grado di eseguire autonomamente attacchi informatici che causino gravi perdite finanziarie o danni equivalenti.
L'inganno - Nessun sistema di intelligenza artificiale dovrebbe essere in grado di indurre i suoi progettisti o le autorità di regolamentazione a fraintendere la sua probabilità o capacità di superare una qualsiasi delle precedenti linee rosse.
Sembrano buone idee, ma questa lista di desideri per lo sviluppo dell'IA a livello globale è realistica? Gli scienziati sono stati ottimisti nella loro dichiarazione: "Garantire che queste linee rosse non vengano superate è possibile, ma richiederà uno sforzo concertato per sviluppare sia regimi di governance migliorati che metodi tecnici di sicurezza".
Chi volesse dare un'occhiata più fatalista alle voci dell'elenco potrebbe concludere che molti di questi cavalli dell'IA sono già scappati. O stanno per farlo.
Replica autonoma o miglioramento? Quanto tempo prima che un Strumento di codifica AI come Devin può farlo?
Ricerca di potere? Questi scienziati hanno letto alcune delle cose sconclusionate che Copilot ha detto quando è uscito dal copione e hanno fatto un'analisi del problema? ha deciso di essere venerato?
Per quanto riguarda l'assistenza alla progettazione di armi di distruzione di massa o all'automazione di attacchi informatici, sarebbe ingenuo credere che la Cina e le potenze occidentali non stiano lo sta già facendo.
Per quanto riguarda l'inganno, alcuni modelli di intelligenza artificiale come Claude 3 Opus hanno già ha accennato al fatto di sapere quando vengono messi alla prova durante l'addestramento. Se un modello di intelligenza artificiale nascondesse l'intenzione di superare una di queste linee rosse, saremmo in grado di capirlo?
In particolare, sono stati assenti dalle discussioni i rappresentanti del lato e/acc dell'AI, come il Chief AI Scientist di Meta Yann LeCun.
L'anno scorso LeCun ha affermato che l'idea che l'IA rappresenti una minaccia esistenziale per l'umanità è "assurdamente ridicola" e si è detto d'accordo con l'affermazione di Marc Andreesen secondo cui "l'IA salverà il mondo", non lo ucciderà.
Speriamo che abbiano ragione. Perché è improbabile che queste linee rosse non vengano superate.