Microsoft och OpenAI är en kraft att räkna med, men det har inte alltid varit en dans på rosor.
Förhållandet mellan OpenAI och Microsoft inleddes 2019 när Microsoft investerade $1 miljard i företaget.
Genom att investera i OpenAI tillhandahåller Microsoft den molninfrastruktur som krävs för att växa och skala sina modeller. I utbyte kan Microsoft licensiera och sälja OpenAI:s modeller.
OpenAI och Microsoft har ett unikt icke-exklusivt "öppet förhållande", eftersom OpenAI stöder några av Microsofts hårdaste rivaler, som Salesforce.
Samtidigt begränsar Microsoft OpenAI:s potential för integration med sökmotorer.
OpenAI har diskuterat licensieringsalternativ med andra sökmotorer. Till exempel använder DuckDuckGo ChatGPT för att driva sin chatbot DuckAssist. När Microsoft släppte den nya versionen av Bing reviderade de sin policy för att öka kostnaderna för sökmotorer som vill integrera generativ AI i sina produkter.
Hur kommer det sig? För att Microsoft licensierar sitt sökindex på internet, vilket Google inte gör.
Microsoft och Google är de enda två företag som indexerar hela webben. Om konkurrenter vill bygga sökmotorer med generativ AI för att konkurrera med Bing kommer Microsoft att öka kostnaderna för att använda deras index.
Förutom konkurrensproblem har det förekommit rapporter om missnöje bland Microsofts anställda på grund av minskade utgifter för interna AI-projekt och OpenAI:s hemlighetsmakeri kring hur deras modeller fungerar.
Oren Etzioni, tidigare VD för den ideella forskningsorganisationen Allen Institute for Artificial Intelligence, berättade för WSJ"Det som gör att de hamnar mer på kollisionskurs är att båda sidor behöver tjäna pengar. Konflikten är att de båda kommer att försöka tjäna pengar på liknande produkter."
Förvirring kring Bings chatbot
När Microsoft planerade att lansera sin Bing-chatbot var OpenAI fortfarande oroliga för att AI:n inte var redo för allmän användning.
AI:n var känslig för attacker med snabbinjektioner som gjorde det möjligt för användare att manipulera chatboten, oavsiktligt avslöja företagshemligheter och generera mycket olämpliga svar.
Inom några timmar efter lanseringen skrev New York Times-journalisten Kevin Roose pratade länge och väl med chatboten och rapporterade att den på ett bisarrt sätt sa att den älskade honom och uppmanade honom att lämna sin fru. Andra hade liknande upplevelser, vilket tyder på att OpenAI hade rätt att vara tveksamt.
Lyckligtvis var det ingenting i samma storleksordning som Microsofts Tay, en chatbot som användes i sociala medier 2016 och som snabbt raderades efter att den gått bärsärkagång med rasistiska, sexistiska och våldsamma verbala påhopp.
Microsoft sa att de kände till riskerna med att distribuera GPT-4 till Bing men ansåg att de var både relativt oskyldiga och oundvikliga, eftersom chatboten skulle behöva anpassas i en verklig miljö.
I en intervju med Wired"Vi lanserade inte Sydney med GPT-4 den första dagen jag såg det eftersom vi var tvungna att göra mycket arbete för att bygga en säkerhetssele", tillade Microsofts VD Satya Nadella "Men vi visste också att vi inte kunde göra all anpassning i labbet. Om man vill anpassa en AI-modell till verkligheten måste man göra det i verkligheten och inte i någon simulering."
OpenAI och Microsoft kommer att fortsätta samarbeta åtminstone fram till 2023, men det är långt ifrån ett perfekt balanserat och symbiotiskt förhållande.