Den här veckan bildade Microsoft, Google, OpenAI och Anthropic Frontier Model Forum, som ägnar sig åt AI-säkerhet och ansvarighet.
Forumets uppdrag omfattar att identifiera bästa praxis för AI, stödja den offentliga och privata sektorn, samarbeta med akademiker och arbeta med beslutsfattare för att säkerställa att fördelarna med AI kanaliseras och riskerna minskas.
Detta kommer kort efter att 7 AI-företag valt att ansluta sig till ett frivilligt AI-ramverk som beskrivs av Vita huset.
Sådana samarbeten mellan rivaler har varit relativt vanliga i den spirande AI-industrin, där konkurrenter ibland har delat hårdvara och forskning, men det betyder inte att den verkliga substansen bakom modellerna inte förblir under lås och bom.
Microsoft-stödda OpenAI har varit samarbeta med företagets rivaler, Salesforce och Duckduckgo, vilket visar att relationer i AI-världen är komplicerade.
Experter menar att för att forumet ska bli framgångsrikt krävs en samarbetsnivå som går utöver att dela resurser för ömsesidig nytta - det innebär att AI-företagen måste avslöja sina innersta funktioner.
Avivah Litan, ledande analytiker på Gartner, tvivlar på att forumet kommer att uppnå sina mål och säger: "Chansen att en grupp hårdnackade konkurrenter ska komma fram till en gemensam användbar lösning och faktiskt få den att implementeras överallt - i både slutna och öppna källkodsmodeller som de och andra kontrollerar över hela världen - är praktiskt taget noll."
Forumet består för närvarande av fyra grundande medlemmar, men är öppet för andra organisationer som arbetar för säker modellutveckling och stödjer bredare branschinitiativ.
Litan uttryckte optimism om bolagen reglering med bättre inflytande men betonade behovet av ett internationellt tillsynsorgan för att genomdriva globala AI-standarder.
"Med tanke på att vi ännu inte har sett ett globalt regeringssamarbete kring klimatförändringar, där lösningarna redan är kända, är det ännu svårare att förvänta sig ett sådant samarbete kring AI, där lösningarna fortfarande inte är definierade. Åtminstone kan dessa företag sträva efter att identifiera lösningar, och det är en positiv aspekt", säger Litan.
Vissa uttrycker optimism om Frontier Model Forum
Dr. Kate Devlin, universitetslektor i AI vid King's College London, bekräftade Frontier Model Forums positiva inställning.
"Tillkännagivandet verkar främst koncentrera sig på tekniska tillvägagångssätt. Men när man utvecklar AI på ett ansvarsfullt sätt finns det bredare sociotekniska aspekter som måste tas upp", säger Dr. Devlin noterade.
Forumet skulle dessutom kunna förenkla samarbetet kring reglering och se till att reglerna tillämpas i hela branschen.
Forum utlovade till exempel stöd för G7:s Hiroshima AI-process, en pakt som slöts vid G7:s toppmöte i Japan, och begärde samarbete med OECD och GPAI.
Med få eller inga obligatoriska regler kring AI ligger teknikens inriktning fortfarande i knät på utvecklarna, som åtminstone ytligt försöker begränsa riskerna på kort sikt.
Resultaten av samarbetsinsatser, som forumet, är i högsta grad avvaktande.