OpenAI gør det muligt for bestyrelsen at 'overstyre' CEO'ens beslutninger om modeludgivelse

18. december 2023

OpenAI-forordning

OpenAI har for nylig afsløret, at bestyrelsen har bemyndigelse til at tilsidesætte den administrerende direktørs beslutninger om at frigive nye AI-modeller, selv om de er blevet vurderet som sikre af virksomhedens ledelse. 

Disse oplysninger blev beskrevet i et sæt retningslinjer, der blev præsenteret mandag, og som skitserer virksomhedens strategi for at imødegå potentielle ekstreme risici, som dens mest avancerede AI-systemer udgør. 

Mens ledelsesteamet i første omgang kan beslutte at frigive et nyt AI-system, bevarer bestyrelsen retten til at omgøre sådanne beslutninger.

Sam Altman, OpenAI's CEO, blev afskediget fra sit job og på dramatisk vis genansat, hvilket understreger en besynderlig magtdynamik mellem virksomhedens direktører og ledere. 

I kølvandet spekulerede mange i, at Altman ikke havde været tilstrækkeligt opmærksom på modelsikkerhed, at han så at sige var blevet "opslugt af sit arbejde". Senere rapporter såede tvivl om det, inklusive Microsofts præsident Brad Smith, som sagde, at han fandt det usandsynligt at sikkerhed var hovedmotivet. 

Der var også den ikke uvæsentlige omstændighed, at OpenAI var blevet vurderet meget højt, og at medarbejderne ønskede at indløse deres aktieoptioner. 

Business Insider hævdede at OpenAI-medarbejdere brugte deres åbne brev om, at de ville forlade virksomheden, hvis Altman ikke blev genansat, som forhandlingsmiddel. En medarbejder sagde endda, at han var en dårlig CEO, selvom disse rapporter er ubekræftede. 

OpenAI har nu handlet for at dæmpe frygten for, at de ikke tager AI sikkert, først ved at offentliggøre resultaterne af deres nye "superalignment"-eksperiment og også ved at øge "kræfterne" i deres "beredskabsteam". 

OpenAI's Beredskabsteamledet af Aleksander Madry, der i øjeblikket har orlov fra MIT, vurderer løbende AI-systemer på tværs af forskellige risikokategorier, herunder cybersikkerhed og trusler relateret til kemiske, nukleare og biologiske domæner. 

Dette team har til formål at identificere og afbøde eventuelle væsentlige farer forbundet med teknologien. Ifølge retningslinjerne kan risici, der er klassificeret som "katastrofale", føre til betydelig økonomisk skade eller alvorlig skade på mange enkeltpersoner.

Madry forklarede processen og sagde: "AI er ikke noget, der bare sker for os, og som kan være godt eller skidt. Det er noget, vi former." Han udtrykte desuden håb om, at andre virksomheder ville tage OpenAI's retningslinjer for risikovurdering til sig. 

Hans team, som blev dannet i oktober som en del af tre separate grupper, der fører tilsyn med AI-sikkerhed hos OpenAI, vil evaluere uudgivne AI-modeller og klassificere de opfattede risici som "lav", "middel", "høj" eller "kritisk". Kun modeller med vurderingen "middel" eller "lav" vil blive overvejet til frigivelse.

Om deres nye politikker om X sagde OpenAI: "Vi systematiserer vores sikkerhedstænkning med vores Preparedness Framework, et levende dokument (i øjeblikket i beta), som beskriver de tekniske og operationelle investeringer, vi foretager for at styre sikkerheden i vores udvikling af frontier-modeller."

Ud over disse foranstaltninger har OpenAI en intern sikkerhedsrådgivningsgruppe, som gennemgår Madrys teams resultater og kommer med anbefalinger til Altman og bestyrelsen. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser