Sebbene Microsoft sia uno dei maggiori investitori in OpenAI, sembra che i rapporti tra le due aziende siano diventati tesi.
OpenAI è l'azienda che sta dietro a ChatGPT, che ha utenti da classi nelle sale riunioni di tutto il mondo. Recentemente è stato oggetto di critiche per il rischio potenziale che rappresenta per i dati privati e aziendali.
Dopo aver investito miliardi di dollari in OpenAI, Microsoft sembra non essere sicura del futuro di ChatGPT nella sua forma attuale. Grandi aziende tecnologiche come Apple, Amazon e Samsung, hanno hanno limitato o imposto divieti generalizzati al proprio personale di utilizzare ChatGPT per il lavoro per problemi di sicurezza.
Non aiuta il fatto che OpenAI stia affrontando una causa legale in cui si sostiene che l'azienda abbia rubato "enormi quantità di dati personali" per addestrare ChatGPT. La notizia della sua Raschiamento GPTBot Anche i dati provenienti dai siti web hanno sollevato delle perplessità.
Microsoft ha investito molto nel fatto che le aziende si fidano dei suoi prodotti e sta naturalmente cercando di evitare la colpa per associazione.
Allo stesso tempo, Microsoft vede il valore di ChatGPT e i suoi azionisti vorranno vedere un ritorno sul loro investimento. Ecco Azure ChatGPT.
Azure ChatGPT - Ora lo vedi, ora no
Microsoft si è resa conto che i suoi clienti volevano una versione sicura di ChatGPT, così qualche giorno fa ha rilasciato Azure ChatGPT su GitHub.
Quando Microsoft ha annunciato il rilascio, ha espresso le sue preoccupazioni su ChatGPT dicendo: "ChatGPT rischia di esporre la proprietà intellettuale riservata. Un'opzione è quella di bloccare l'accesso aziendale a ChatGPT, ma le persone trovano sempre delle soluzioni".
Azure ChatGPT era stato concepito come una versione privata e sicura di ChatGPT che poteva essere eseguita sulla rete aziendale senza accesso alla rete esterna.
Dico "era" previsto perché Microsoft ha prontamente ritirato Azure ChatGPT dagli scaffali.
Aggiornamento :
Microsoft ha eliminato il repo Azure ChatGPT. Sam Altman ha pubblicato un post per chiarire che i dati raccolti in ChatGPT erano sicuri e non sono stati utilizzati per addestrare un nuovo modello.
Grande confusione tra gli utenti di OpenAI.
- zakaria sabti (@SabtiZakaria) 15 agosto 2023
Sam Altman è stato tempestivo quando è arrivata la notizia di Azure ChatGPT e probabilmente è rimasto sorpreso quanto tutti gli altri dalla mossa di Microsoft. Quando il vostro principale investitore dice di non fidarsi della sicurezza del vostro prodotto, non è una bella cosa per il vostro marchio.
Ha twittato la conferma dell'affermazione di OpenAI secondo cui non utilizza i dati inviati a ChatGPT tramite l'API per addestrare i suoi modelli.
Ho riscontrato molta confusione in merito, quindi per fare chiarezza:
openai non si allena mai su nulla di ciò che viene inviato all'API e non utilizza tali dati per migliorare i propri modelli in alcun modo.
- Sam Altman (@sama) 15 agosto 2023
L'esigenza di avere versioni private e sicure di ChatGPT è evidente. Le aziende non vogliono rischiare che i dati sensibili vengano divulgati da dipendenti incauti che utilizzano lo strumento nella sua veste attuale.
OpenAI troverà un modo per far sentire le persone sicure del suo prodotto? Microsoft sarà disposta ad aspettare che lo faccia? Sembra che Microsoft stia diventando irrequieta ed è ovvio che l'atmosfera tra le due aziende non sia delle migliori.