OpenAI bestuur vormt veiligheids- en beveiligingscommissie

29 mei 2024

  • Het bestuur van OpenAI heeft een veiligheids- en beveiligingscomité opgericht om processen en waarborgen te ontwikkelen.
  • De commissie adviseert het bestuur over cruciale beslissingen op het gebied van veiligheid en beveiliging
  • OpenAI zegt dat het begonnen is met het trainen van zijn next frontier model met "next level of capabilities".

Het bestuur van OpenAI kondigde de vorming aan van een Veiligheids- en Beveiligingscomité dat aanbevelingen moet doen over kritieke veiligheids- en beveiligingsbeslissingen voor alle OpenAI-projecten.

De commissie wordt geleid door directeuren Bret Taylor (voorzitter), Adam D'Angelo, Nicole Seligman en OpenAI's CEO Sam Altman.

Aleksander Madry (hoofd Paraatheid), Lilian Weng (hoofd Veiligheidssystemen), John Schulman (hoofd Uitlijningswetenschap), Matt Knight (hoofd Beveiliging) en Jakub Pachocki (hoofd Wetenschap) zullen ook deel uitmaken van de commissie.

OpenAI's benadering van AI-veiligheid heeft zowel externe als interne kritiek gekregen. Het ontslag van Altman vorig jaar werd gesteund door toenmalig bestuurslid Ilya Sutskever en anderen, ogenschijnlijk uit veiligheidsoverwegingen.

Vorige week hebben Sutskever en Jan Leike van OpenAI's "superalignment" team verliet het bedrijf. Leike noemde veiligheidskwesties specifiek als reden voor zijn vertrek en zei dat het bedrijf veiligheid "ondergeschikt maakte aan glanzende producten".

Gisteren kondigde Leike aan dat hij bij Anthropic ging werken aan overzicht en afstemmingsonderzoek.

Nu is Altman niet alleen terug als CEO, maar zit hij ook in de commissie die verantwoordelijk is voor het benadrukken van veiligheidsproblemen. De inzichten van voormalig bestuurslid Helen Toner in waarom Altman werd ontslagen, doen je afvragen hoe transparant hij zal zijn over veiligheidskwesties die de commissie ontdekt.

Blijkbaar hoorde het OpenAI-bestuur via Twitter over de release van ChatGPT.

Het Veiligheids- en Beveiligingscomité zal de komende 90 dagen gebruiken om OpenAI's processen en beveiligingen te evalueren en verder te ontwikkelen.

De aanbevelingen zullen ter goedkeuring worden voorgelegd aan het bestuur van OpenAI en het bedrijf heeft toegezegd de aangenomen veiligheidsaanbevelingen te publiceren.

Deze drang naar extra vangrails komt op het moment dat OpenAI zegt begonnen te zijn met het trainen van zijn volgende grensmodel, dat ons naar eigen zeggen "naar het volgende niveau van mogelijkheden zal brengen op ons pad naar AGI".

Er werd geen verwachte releasedatum gegeven voor het nieuwe model, maar de training alleen zal waarschijnlijk weken, zo niet maanden, duren.

In een update over de veiligheidsaanpak, gepubliceerd na de AI Seoul Summit, zei OpenAI: "We zullen geen nieuw model vrijgeven als het de risicodrempel "Gemiddeld" van ons Preparedness Framework overschrijdt, totdat we voldoende veiligheidsinterventies hebben geïmplementeerd om de post-mitigation score terug te brengen naar "Gemiddeld"."

Het bedrijf zei dat er meer dan 70 externe experts betrokken waren bij de red teaming GPT-4o voor de release.

Met nog 90 dagen te gaan voordat de commissie haar bevindingen presenteert aan het bestuur, pas onlangs begonnen met de training en een verplichting tot uitgebreide red teaming, lijkt het erop dat we nog lang moeten wachten voordat GPT-5 eindelijk een feit is.

Of bedoelen ze dat ze net zijn begonnen met het trainen van GPT-6?

 

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Eugene van der Watt

Eugene heeft een achtergrond in elektrotechniek en houdt van alles wat met techniek te maken heeft. Als hij even pauzeert van het consumeren van AI-nieuws, kun je hem aan de snookertafel vinden.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden