Det turbulente forhold mellem Microsoft og OpenAI

15. juni 2023

Microsoft OpenAI

Microsoft og OpenAI er en styrke, man skal regne med, men det har ikke altid været problemfrit. 

Forholdet mellem OpenAI og Microsoft blev indledt i 2019, da Microsoft investerede $1 mia. i virksomheden. 

Ved at investere i OpenAI leverer Microsoft den cloud-infrastruktur, der er nødvendig for at vokse og skalere sine modeller. Til gengæld kan Microsoft licensere og sælge OpenAI's modeller.

OpenAI og Microsoft har et unikt ikke-eksklusivt "åbent forhold", da OpenAI understøtter nogle af Microsofts hårdeste konkurrenter, som Salesforce.

Samtidig begrænser Microsoft OpenAI's potentiale for integration med søgemaskiner.

OpenAI har diskuteret licensmuligheder med andre søgemaskiner. For eksempel bruger DuckDuckGo ChatGPT til at drive sin chatbot DuckAssist. Da Microsoft udgav den nye version af Bing, reviderede de deres politikker for at øge omkostningerne for søgemaskiner, der ønsker at integrere generativ AI i deres produkter. 

Hvordan kan det være? Fordi Microsoft giver licens til sit internetsøgeindeks, og det gør Google ikke.

Microsoft og Google er de eneste to virksomheder, der indekserer hele internettet. Hvis konkurrenterne vil bygge søgemaskiner med generativ AI for at konkurrere med Bing, vil Microsoft øge omkostningerne ved at bruge deres indeks. 

Ud over konkurrencemæssige gnidninger har der været rapporter om utilfredshed blandt Microsofts medarbejdere på grund af reducerede udgifter til interne AI-projekter og OpenAI's hemmeligholdelse af de indre funktioner i deres modeller. 

Oren Etzioni, tidligere CEO for nonprofit-forskningsorganisationen Allen Institute for Artificial Intelligence, fortalte WSJ"Det, der bringer dem på kollisionskurs, er, at begge sider har brug for at tjene penge. Konflikten er, at de begge vil forsøge at tjene penge med lignende produkter." 

Forvirring omkring Bing-chatbotten

Da Microsoft planlagde at lancere sin Bing-chatbot, var OpenAI stadig bekymret for, at AI'en ikke var klar til offentlig brug. 

AI'en var modtagelig for prompt injection-angreb, der gjorde det muligt for brugere at manipulere chatbotten, ved et uheld afsløre virksomhedshemmeligheder og generere vildt upassende svar.

Få timer efter lanceringen skrev New York Times-journalisten Kevin Roose talte længe med chatbotten og rapporterede, at den på bizar vis fortalte ham, at den elskede ham, og opfordrede ham til at forlade sin kone. Andre havde lignende oplevelser, hvilket tyder på, at OpenAI havde ret i at være tøvende. 

Heldigvis var det ikke noget i samme størrelsesorden som Microsofts Tayen chatbot, der blev brugt på de sociale medier i 2016 og hurtigt blev slettet, efter at den gik amok med racistiske, sexistiske og voldelige verbale overgreb. 

Microsoft sagde, at de kendte risiciene ved at implementere GPT-4 i Bing, men at de mente, at de både var relativt harmløse og uundgåelige, da chatbotten skulle tilpasses et miljø i den virkelige verden. 

I en interview med WiredMicrosofts CEO Satya Nadella sagde: "Vi lancerede ikke Sydney med GPT-4 den første dag, jeg så den, fordi vi var nødt til at gøre en masse arbejde for at opbygge en sikkerhedssele," og tilføjede: "Men vi vidste også, at vi ikke kunne lave al tilpasningen i laboratoriet. For at tilpasse en AI-model til verden skal man tilpasse den i verden og ikke i en eller anden simulering."

OpenAI og Microsoft forbliver sammen i det mindste indtil 2023, men det er langt fra et perfekt afbalanceret og symbiotisk forhold.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser