Grensemodellen Forum: vil den fungere?

28. juli 2023

Google Microsoft

Denne uken dannet Microsoft, Google, OpenAI og Anthropic Frontier Model Forum, som er dedikert til AI-sikkerhet og ansvarlighet. 

Forumets oppdrag omfatter identifisering av beste praksis for kunstig intelligens, støtte til offentlig og privat sektor, samarbeid med akademikere og samarbeid med beslutningstakere for å sikre at fordelene med kunstig intelligens kanaliseres og risikoen reduseres.

Dette kommer kort tid etter at 7 AI-selskaper valgte å delta i et frivillig AI-rammeverk skissert av Det hvite hus

Slike samarbeid mellom rivaler har vært relativt vanlig i den gryende AI-bransjen, der konkurrenter tidvis har delt maskinvare og forskning, men det betyr ikke at den virkelige substansen bak modellene ikke forblir under lås og slå. 

Microsoft-støttede OpenAI har vært samarbeid med selskapets rivaler, Salesforce og Duckduckgo, noe som viser at relasjoner i AI-verdenen er kompliserte.

Ekspertene mener at for at forumet skal lykkes, kreves det et samarbeid som går lenger enn å dele ressurser til gjensidig nytte - det innebærer at AI-selskapene avslører sine innerste hemmeligheter. 

Gartners ledende analytiker Avivah Litan stiller seg tvilende til om forumet vil nå sine mål, og sier: "Sjansen for at en gruppe hardnakkede konkurrenter skal komme frem til en felles nyttig løsning og faktisk få den implementert overalt - på tvers av både lukkede og åpne kildekodemodeller som de og andre kontrollerer over hele verden - er praktisk talt lik null."

Forumet består for tiden av fire stiftende medlemmer, men er åpent for andre organisasjoner som er opptatt av å utvikle sikre modeller og støtte bredere bransjeinitiativer.

Litan uttrykte optimisme med hensyn til selskapene regulering med bedre påvirkningskraft kollektivt, men understreket behovet for et internasjonalt reguleringsorgan for å håndheve globale AI-standarder. 

"Gitt at vi ennå ikke har vært vitne til et globalt regjeringssamarbeid om klimaendringer, der løsningene allerede er kjent, er det enda mer utfordrende å forvente et slikt samarbeid om AI, der løsningene fortsatt ikke er definert. Men disse selskapene kan i det minste forsøke å finne løsninger, og det er et positivt aspekt, sier Litan.

Noen uttrykker optimisme med hensyn til Frontier Model Forum 

Dr. Kate Devlin, universitetslektor i kunstig intelligens ved King's College London, anerkjente Frontier Model Forums positive innstilling. 

"Kunngjøringen ser ut til å konsentrere seg først og fremst om tekniske tilnærminger. Men når man skal utvikle AI på en ansvarlig måte, er det bredere sosio-tekniske aspekter som må tas hensyn til", sier Dr. Devlin bemerket

Forumet kan dessuten forenkle samarbeidet om regulering og sikre at reglene gjelder for hele bransjen.

Forum lovet for eksempel støtte til G7s Hiroshima AI-prosess, en pakt som ble inngått på G7-toppmøtet i Japan, og som krever samarbeid med OECD og GPAI. 

Med få eller ingen obligatoriske regler for kunstig intelligens er det opp til utviklerne å styre teknologien, som i det minste på overflaten forsøker å begrense risikoen på kort sikt.

Resultatene av samarbeidstiltak, som for eksempel forumet, er i høyeste grad avventende.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser