I denne uge dannede Microsoft, Google, OpenAI og Anthropic Frontier Model Forum, der er dedikeret til AI-sikkerhed og ansvarlighed.
Forummet er Mission omfatter identifikation af bedste AI-praksis, støtte til den offentlige og private sektor, samarbejde med akademikere og samarbejde med politiske beslutningstagere for at sikre, at AI's fordele kanaliseres og dens risici mindskes.
Dette kommer kort tid efter, at 7 AI-virksomheder valgte at indgå i en frivillig AI-ramme. skitseret af Det Hvide Hus.
Et sådant samarbejde mellem rivaler har været relativt almindeligt i den spirende AI-industri, hvor konkurrenter lejlighedsvis har delt hardware og forskning, men det betyder ikke, at den virkelige substans bag modellerne ikke forbliver under lås og slå.
Microsoft-støttede OpenAI har været samarbejde med virksomhedens rivaler, Salesforce og Duckduckgo, som viser, at relationer i AI-verdenen er komplicerede.
Eksperter mener, at forummets succes kræver et niveau af samarbejde, der går ud over at dele ressourcer til gensidig fordel - det indebærer, at AI-virksomheder afslører deres inderste arbejde.
Den førende Gartner-analytiker Avivah Litan tvivler på, at forummet vil nå sine mål og siger: "Chancen for, at en gruppe hårdnakkede konkurrenter vil nå frem til en fælles nyttig løsning og faktisk få den implementeret overalt - på tværs af både lukkede og open source-modeller, som de og andre kontrollerer over hele kloden - er praktisk talt lig nul."
Forummet består i øjeblikket af 4 stiftende medlemmer, men er åbent for andre organisationer, der er engageret i sikker modeludvikling og støtter bredere brancheinitiativer.
Litan udtrykte optimisme over for virksomhederne regulering med bedre indflydelse kollektivt, men understregede behovet for et internationalt reguleringsorgan til at håndhæve globale AI-standarder.
"I betragtning af at vi endnu ikke har været vidne til et globalt regeringssamarbejde om klimaforandringer, hvor løsningerne allerede er kendt, er det endnu mere udfordrende at forvente et sådant samarbejde om AI, hvor løsningerne stadig ikke er defineret. I det mindste kan disse virksomheder bestræbe sig på at finde løsninger, og det er et positivt aspekt," siger Litan.
Nogle udtrykker optimisme over for Frontier Model Forum
Dr. Kate Devlin, lektor i AI ved King's College London, anerkendte Frontier Model Forums positive følelser.
"Meddelelsen ser ud til primært at koncentrere sig om tekniske tilgange. Men når man udvikler AI på en ansvarlig måde, er der bredere sociotekniske aspekter, der skal adresseres," siger Dr. Devlin. bemærket.
Desuden kan forummet forenkle samarbejdet om regulering og sikre, at reglerne anvendes i hele branchen.
Forum lovede f.eks. at støtte G7's Hiroshima AI-proces, en pagt indgået på G7-topmødet i Japan, hvor der blev anmodet om samarbejde med OECD og GPAI.
Med få eller ingen obligatoriske regler omkring AI forbliver teknologiens retning i skødet på udviklere, som i det mindste overfladisk forsøger at begrænse risici på kort sigt.
Resultaterne af samarbejdsbestræbelser som forummet er i høj grad afventende.