OpenAI's bestyrelse danner et sikkerhedsudvalg

29. maj 2024

  • OpenAI's bestyrelse har nedsat en sikkerhedsgruppe, der skal udvikle processer og sikkerhedsforanstaltninger.
  • Udvalget vil rådgive bestyrelsen om kritiske beslutninger om sikkerhed og tryghed.
  • OpenAI siger, at de er begyndt at træne deres next frontier-model med "næste niveau af evner"

OpenAI's bestyrelse annoncerede dannelsen af en Safety and Security Committee, som har til opgave at komme med anbefalinger om kritiske sikkerhedsafgørelser for alle OpenAI-projekter.

Udvalget ledes af bestyrelsesmedlemmerne Bret Taylor (formand), Adam D'Angelo, Nicole Seligman og OpenAI's CEO Sam Altman.

Aleksander Madry (Head of Preparedness), Lilian Weng (Head of Safety Systems), John Schulman (Head of Alignment Science), Matt Knight (Head of Security) og Jakub Pachocki (Chief Scientist) vil også være med i udvalget.

OpenAI's tilgang til AI-sikkerhed har været udsat for både ekstern og intern kritik. Sidste års fyring af Altman blev støttet af det daværende bestyrelsesmedlem Ilya Sutskever og andre, angiveligt på grund af sikkerhedshensyn.

I sidste uge var Sutskever og Jan Leike fra OpenAI's "superalignment"-team forlod virksomheden. Leike nævnte specifikt sikkerhedsspørgsmål som årsag til sin afgang og sagde, at virksomheden lod sikkerheden "komme i anden række i forhold til skinnende produkter".

I går meddelte Leike, at han slutter sig til Anthropic for at arbejde med tilsyn og forskning i tilpasning.

Nu er Altman ikke kun tilbage som CEO, men sidder også i det udvalg, der er ansvarligt for at belyse sikkerhedsspørgsmål. Tidligere bestyrelsesmedlem Helen Toners indsigt i, hvorfor Altman blev fyret, får en til at spekulere på, hvor åben han vil være om de sikkerhedsproblemer, udvalget opdager.

OpenAI's bestyrelse fik åbenbart nys om udgivelsen af ChatGPT via Twitter.

Sikkerhedsudvalget vil bruge de næste 90 dage på at evaluere og videreudvikle OpenAI's processer og sikkerhedsforanstaltninger.

Anbefalingerne vil blive forelagt OpenAI's bestyrelse til godkendelse, og virksomheden har forpligtet sig til at offentliggøre de vedtagne sikkerhedsanbefalinger.

Dette pres for yderligere sikkerhedsforanstaltninger kommer, da OpenAI siger, at de er begyndt at træne deres næste grænsemodel, som de siger vil "bringe os til det næste niveau af muligheder på vores vej mod AGI."

Der blev ikke oplyst nogen forventet udgivelsesdato for den nye model, men alene træningen vil sandsynligvis tage uger, hvis ikke måneder.

I en opdatering om sin tilgang til sikkerhed, der blev offentliggjort efter AI Seoul Summit, sagde OpenAI: "Vi frigiver ikke en ny model, hvis den krydser en "medium" risikotærskel fra vores beredskabsramme, før vi implementerer tilstrækkelige sikkerhedsinterventioner til at bringe scoren efter afhjælpning tilbage til "medium"."

Den sagde, at mere end 70 eksterne eksperter var involveret i red teaming GPT-4o før udgivelsen.

Der er 90 dage til, at udvalget præsenterer sine resultater for bestyrelsen, træningen er først begyndt for nylig, og der er en forpligtelse til omfattende red teaming, så det ser ud til, at vi skal vente længe, før vi endelig får GPT-5.

Eller mener de, at de lige er begyndt at træne GPT-6?

 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser