OpenAI stelt het bestuur in staat om de beslissingen van de CEO over het vrijgeven van modellen 'op te heffen

18 december 2023

OpenAI-regelgeving

OpenAI heeft onlangs bekendgemaakt dat het bestuur de bevoegdheid heeft om beslissingen van de CEO met betrekking tot het uitbrengen van nieuwe AI-modellen terzijde te schuiven, zelfs als deze veilig zijn bevonden door de leiding van het bedrijf. 

Deze informatie is gedetailleerd beschreven in een reeks richtlijnen die maandag zijn onthuld en waarin de strategie van het bedrijf wordt beschreven om potentiële extreme risico's van zijn meest geavanceerde AI-systemen aan te pakken. 

Hoewel het managementteam in eerste instantie kan beslissen over de introductie van een nieuw AI-systeem, behoudt het bestuur het recht om dergelijke beslissingen terug te draaien.

Sam Altman, de CEO van OpenAI, werd uit zijn functie ontheven en op dramatische wijze weer aangenomen, wat een merkwaardige machtsdynamiek tussen de directeuren en leidinggevenden van het bedrijf aan het licht bracht. 

In de nasleep speculeerden velen dat Altman niet goed had opgelet bij modelveiligheid, dat hij als het ware 'opging in zijn werk'. Latere rapporten trokken dat in twijfel, waaronder Microsoft President Brad Smith, die zei dat hij het onwaarschijnlijk achtte dat veiligheid het belangrijkste motief was. 

Er was ook nog de niet onbelangrijke kwestie dat OpenAI een enorme waardering had gekregen en de werknemers hun aandelenopties wilden verzilveren. 

Business Insider beweerde dat OpenAI werknemers hun open brief waarin ze stelden dat ze het bedrijf zouden verlaten als Altman niet zou terugkeren als onderhandelingstroef gebruikten. Eén werknemer zei zelfs dat hij een slechte CEO was, hoewel deze berichten onbevestigd zijn. 

OpenAI heeft nu actie ondernomen om de angst weg te nemen dat ze AI niet op een veilige manier gebruiken, ten eerste door de resultaten van hun nieuwe "superuitlijning" experiment en ook door de "bevoegdheden" van hun "paraatheidsteam" te vergroten. 

OpenAI's paraatheidsteamonder leiding van Aleksander Madry, die momenteel met verlof is bij het MIT, beoordelen voortdurend AI-systemen op verschillende risicocategorieën, waaronder cyberbeveiliging en bedreigingen op chemisch, nucleair en biologisch gebied. 

Dit team heeft als doel het identificeren en beperken van significante gevaren die verbonden zijn aan de technologie. Volgens de richtlijnen kunnen risico's die als "catastrofaal" worden geclassificeerd leiden tot aanzienlijke economische schade of ernstige schade voor veel individuen.

Madry legde het proces uit: "AI is niet iets dat ons zomaar overkomt en dat goed of slecht kan zijn. Het is iets dat we vormgeven." Hij sprak verder zijn hoop uit dat andere bedrijven OpenAI's richtlijnen voor risicobeoordeling zullen overnemen. 

Zijn team, dat in oktober werd gevormd als onderdeel van drie afzonderlijke groepen die toezicht houden op AI-veiligheid bij OpenAI, zal nog niet vrijgegeven AI-modellen evalueren en de waargenomen risico's classificeren als "laag", "gemiddeld", "hoog" of "kritiek". Alleen modellen met een beoordeling "gemiddeld" of "laag" komen in aanmerking voor vrijgave.

Over hun nieuwe beleid met betrekking tot X zei OpenAI: "We systematiseren ons veiligheidsdenken met ons Preparedness Framework, een levend document (momenteel in bèta) dat de technische en operationele investeringen beschrijft die we doen om de veiligheid van onze grensverleggende modelontwikkeling te sturen."

Naast deze maatregelen heeft OpenAI een interne veiligheidsadviesgroep die de bevindingen van Madry's team beoordeelt en aanbevelingen doet aan Altman en het bestuur. 

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden