Selv om Microsoft er en af de største investorer i OpenAI, ser det ud til, at forholdet mellem de to virksomheder er blevet anstrengt.
OpenAI er firmaet bag ChatGPT, som har brugere fra klasseværelser til bestyrelseslokaler over hele verden. På det seneste er det blevet kritiseret for den potentielle risiko, det udgør for private data og virksomhedsdata.
Efter at have investeret milliarder af dollars i OpenAI ser Microsoft ud til at være usikker på fremtiden for ChatGPT i sin nuværende form. Store teknologivirksomheder som Apple, Amazon og Samsung har begrænsede eller indførte generelle forbud mod, at deres medarbejdere brugte ChatGPT for at arbejde på grund af sikkerhedsproblemer.
Det hjælper ikke, at OpenAI i øjeblikket står over for en retssag, der hævder, at virksomheden stjal "enorme mængder personlige data" for at træne ChatGPT. Nyheden om dens GPTBot-skrabning data fra hjemmesider har også fået folk til at løfte øjenbrynene.
Microsoft er stærkt investeret i, at virksomheder har tillid til deres produkter, og forsøger naturligvis at undgå skyld ved association.
Samtidig ser Microsoft værdien af ChatGPT, og dets aktionærer vil gerne se et afkast af deres investering. Her kommer Azure ChatGPT ind i billedet.
Azure ChatGPT - Nu ser du det, nu ser du det ikke
Microsoft indså, at deres kunder ønskede en sikker version af ChatGPT, så for et par dage siden udgav de Azure ChatGPT på GitHub.
Da Microsoft annoncerede udgivelsen, udtrykte de deres bekymring over ChatGPT ved at sige: "ChatGPT risikerer at afsløre fortrolig intellektuel ejendom. En mulighed er at blokere virksomhedens adgang til ChatGPT, men folk finder altid løsninger."
Azure ChatGPT var tænkt som en sikker privat version af ChatGPT, der kunne køre på en virksomheds netværk uden ekstern netværksadgang.
Jeg siger, at det "var" meningen, fordi Microsoft straks trak Azure ChatGPT tilbage fra hylderne.
Opdatering :
Microsoft har slettet Azure ChatGPT repo. Sam Altman skriver et indlæg for at præcisere, at de data, der blev indsamlet i ChatGPT, var sikre og ikke bruges til at træne en ny model.
Stor forvirring blandt OpenAI-brugere.
- zakaria sabti (@SabtiZakaria) 15. august 2023
Sam Altman var hurtig på aftrækkeren, da nyheden om Azure ChatGPT kom, og han var nok lige så overrasket som alle andre over Microsofts træk. Når din største investor siger, at de ikke stoler på sikkerheden i dit produkt, er det ikke godt for dit brand.
Han tweetede en bekræftelse af OpenAI's påstand om, at de ikke bruger data, der sendes til ChatGPT via API'en, til at træne deres modeller.
Jeg ser en masse forvirring omkring dette, så for at skabe klarhed:
openai træner aldrig på noget, der nogensinde er sendt til api'en, eller bruger disse data til at forbedre vores modeller på nogen måde.
- Sam Altman (@sama) 15. august 2023
Behovet for sikkert kørende private versioner af ChatGPT er en no-brainer. Virksomheder vil ikke risikere, at følsomme data bliver lækket af uforsigtige medarbejdere, der bruger værktøjet i dets nuværende form.
Vil OpenAI finde en måde at få folk til at føle sig trygge ved deres produkt? Vil Microsoft være villig til at vente, indtil det sker? Det ser ud til, at Microsoft er ved at blive rastløs, og det er tydeligt, at stemningen mellem de to virksomheder ikke er god.