Elon Musk ha intentato una causa contro OpenAI e i suoi co-fondatori, Sam Altman e Greg Brockman, per la presunta violazione dell'accordo firmato quando i tre uomini hanno fondato OpenAI.
La causa offre uno sguardo interessante sulla genesi dell'azienda che è diventata leader nello sviluppo di modelli di IA all'avanguardia. La causa è incentrata sui due obiettivi principali di OpenAI, documentati nel "Founding Agreement" dell'azienda.
I tre uomini hanno concordato che OpenAI "sarà una società senza scopo di lucro che svilupperà l'intelligenza artificiale per il bene dell'umanità, non per una società a scopo di lucro che cerca di massimizzare i profitti degli azionisti".
Hanno inoltre concordato che OpenAI "sarebbe stato open-source, bilanciando solo le considerazioni sulla sicurezza, e non avrebbe mantenuto la sua tecnologia chiusa e segreta per ragioni commerciali proprietarie".
Musk temeva, e teme tuttora, che il perseguimento redditizio dell'intelligenza artificiale e il controllo esclusivo della tecnologia da parte di aziende come Google sarebbero stati dannosi per la società umana.
L'idea alla base dell'accordo era che OpenAI avrebbe creato un'intelligenza artificiale aperta e sicura che sarebbe stata liberamente disponibile per l'umanità, eliminando così il rischio che aziende a scopo di lucro utilizzassero la tecnologia a danno dell'umanità.
La violazione
Oggi il modello di AI leader indiscusso è il GPT-4 di OpenAI, ma non ha nulla di aperto, nonostante il nome dell'azienda che lo ha sviluppato. A differenza del GPT-3, OpenAI non ha nemmeno rilasciato un documento tecnico che illustri nel dettaglio il funzionamento del GPT-4.
Sebbene l'accordo di fondazione prevedesse che l'azienda avrebbe perseguito una tecnologia open-source, solo OpenAI, e probabilmente Microsoft, ha accesso al codice, ai pesi e ai dati di addestramento del GPT-4.
Gestire un'azienda come OpenAI costa, quindi non sorprende che faccia pagare gli utenti per utilizzare i suoi prodotti. Ma l'accordo di licenza esclusiva con Microsoft significa che i suoi modelli sono ora utilizzati per generare profitti per Big Tech. Esattamente il contrario dei principi fondanti che Musk dice di aver accettato.
La causa sostiene che "OpenAI, Inc. è stata trasformata in una filiale de facto a codice chiuso della più grande azienda tecnologica del mondo: Microsoft. Sotto il suo nuovo consiglio di amministrazione, non solo sta sviluppando, ma sta addirittura perfezionando un'intelligenza artificiale per massimizzare i profitti di Microsoft, piuttosto che per il bene dell'umanità".
Abbiamo l'AGI?
L'accordo di licenza di Microsoft si applica solo alla tecnologia pre-AGI di OpenAI. Se un modello OpenAI raggiunge il livello di AGI, l'accordo di licenza impedisce a Microsoft di accedervi.
L'azione legale di Musk fa un'affermazione audace, affermando che "il GPT-4 è un algoritmo dell'AGI" e quindi Microsoft non dovrebbe avere accesso ad esso. L'azione legale chiede che il tribunale stabilisca che questo è vero. Non sono sicuro di come il giudice e la giuria possano farlo in assenza di una definizione accettata dall'industria di cosa sia esattamente l'AGI.
La causa conferma anche le voci su cui gli ingegneri di OpenAI stavano lavorando. La causa sostiene che "OpenAI sta attualmente sviluppando un modello noto come Q* (stella Q) che ha una pretesa ancora più forte di AGI".
In definitiva, è il consiglio di amministrazione di OpenAI che decide cosa si qualifica come AGI in base al contratto di licenza Microsoft. Dopo il Licenziamento e riassunzione di Altman e rimescolamento del consiglio di amministrazioneLa decisione spetta ora ai nuovi membri del consiglio di amministrazione, nominati con la benedizione di Microsoft.
È questo il motivo per cui Ilya Sutskever è stato rimosso dal consiglio di amministrazione e bloccato in silenzio in qualche stanza sul retro? Qualcuno ha avuto sue notizie da mesi? Cosa ha visto Ilya?
Non aspettatevi che il nuovo consiglio di amministrazione si affretti a dichiarare che l'AGI è stato raggiunto, anche se questo è l'obiettivo. obiettivo espressamente dichiarato dell'azienda.
Timori per l'intelligenza artificiale
Una delle motivazioni dichiarate alla base della causa è il timore di Musk che l'AGI finisca nelle mani sbagliate.
La causa racconta di come Musk si sia incontrato con il cofondatore di DeepMind Demis Hassabis nel 2012 per discutere di questi timori, alcuni dei quali condivisi da Hassabis.
Si legge inoltre che "dopo un incontro con il signor Hassabis e gli investitori di DeepMind, uno degli investitori ha osservato che la cosa migliore che avrebbe potuto fare per la razza umana era sparare al signor Hassabis in quel momento".
Quando Musk ha discusso i suoi timori con l'allora amministratore delegato di Google Larry Page, quest'ultimo ha affermato che l'intelligenza artificiale superintelligente che sostituisce l'uomo sarebbe solo "il prossimo stadio dell'evoluzione" e ha sostenuto che Musk era uno "specista" con le sue opinioni a favore dell'uomo.
Musk è eccessivamente drammatico o dobbiamo preoccuparci?
La causa vale la pena di leggere se si vuole uno sguardo dietro le quinte su come una parte importante dell'industria sia arrivata al punto in cui si trova oggi. Tuttavia, non è detto che il caso si risolva presto.
OpenAI potrebbe confermare i timori di Musk nei confronti dell'intelligenza artificiale e usare questo come motivo principale per non rilasciare i suoi modelli come open-source. La ricerca del profitto da parte dell'azienda potrebbe essere un compito più arduo per la società OpenAI. team legale molto impegnato.