Senatet undersøger OpenAI's sikkerhed og ledelse efter whistleblower-krav

23. juli 2024

  • Amerikanske senatorer afhørte OpenAI efter beskyldninger om whistleblowing-restriktioner
  • De satte også spørgsmålstegn ved "integriteten af virksomhedens ledelsesstruktur".
  • OpenAI skal formelt svare på en række spørgsmål inden 13. august
OpenAI-senatorer

OpenAI er havnet i centrum for en senatsundersøgelse efter beskyldninger om forhastede sikkerhedstests.

Fem senatorer, anført af Brian Schatz (D-Hawaii), krævede, at virksomheden skulle give detaljerede oplysninger om sin sikkerhedspraksis og sine medarbejderaftaler.

Undersøgelsen kommer i kølvandet på en Rapport fra Washington Post hvilket tyder på, at OpenAI måske er gået på kompromis med sikkerhedsprotokollerne i deres hast med at frigive GPT-4 Omni, deres seneste AI-model.

I mellemtiden har whistleblowere, herunder højt profilerede forskere fra OpenAI's afviklet "superalignment team". har givet udtryk for bekymring over restriktive fortrolighedsaftaler (NDA'er) for medarbejdere.

Senatorernes brev til OpenAI

I et stærkt formuleret brev til OpenAI's CEO Sam Altman krævede fem senatorer detaljerede oplysninger om virksomhedens sikkerhedspraksis og behandling af medarbejderne.

Den brev giver anledning til bekymring over OpenAI's engagement i ansvarlig AI-udvikling og dets interne politikker.

"I betragtning af OpenAI's position som en førende AI-virksomhed er det vigtigt, at offentligheden kan stole på sikkerheden i dens systemer", skriver senatorerne.

De fortsætter med at sætte spørgsmålstegn ved "integriteten af virksomhedens ledelsesstruktur og sikkerhedstest, dens ansættelsespraksis, dens trofasthed over for dens offentlige løfter og mission og dens cybersikkerhedspolitikker."

Senatorerne, der ledes af Brian Schatz (D-Hawaii), har sat en frist til den 13. august, hvor OpenAI skal svare på en række skarpe spørgsmål. De omfatter, om virksomheden vil overholde sin forpligtelse til at afsætte 20% computerressourcer til forskning i AI-sikkerhed, og om den vil tillade uafhængige eksperter at teste sine systemer, før de frigives.

Med hensyn til restriktive medarbejderaftaler beder brevet OpenAI om at bekræfte, at de "ikke vil håndhæve permanente aftaler om ikke-diskrimination for nuværende og tidligere medarbejdere" og om at forpligte sig til at "fjerne alle andre bestemmelser fra ansættelsesaftaler, der kan bruges til at straffe medarbejdere, der offentligt giver udtryk for bekymring over virksomhedens praksis."

OpenAI tog senere til X for at forsikre offentligheden om sit engagement i sikkerhed.

"At sikre, at AI kan være til gavn for alle, starter med at bygge AI, der er hjælpsom og sikker. Vi vil gerne dele nogle opdateringer om, hvordan vi prioriterer sikkerhed i vores arbejde," skrev virksomheden for nylig i et indlæg.

OpenAI fremhævede sin Preparedness Framework, der er designet til at evaluere og beskytte mod risici, som stadig stærkere AI-modeller udgør.

"Vi frigiver ikke en ny model, hvis den krydser en 'medium' risikotærskel, før vi er sikre på, at vi kan gøre det sikkert", forsikrede virksomheden.

Som svar på påstandene om restriktive medarbejderaftaler sagde OpenAI: "Vores whistleblower-politik beskytter medarbejdernes ret til at komme med beskyttede afsløringer. Vi mener også, at en grundig debat om denne teknologi er vigtig, og vi har foretaget ændringer i vores afgangsproces for at fjerne vilkår om ikke-forringelse."

Virksomheden nævnte også de seneste skridt til at styrke sine sikkerhedsforanstaltninger.

I maj lancerede OpenAI's bestyrelse et nyt sikkerhedsudvalg, som omfatter pensioneret US Hærens general Paul Nakasone, en førende cybersikkerhedsekspert.

OpenAI fastholder sin holdning til fordelene ved AI. "Vi mener, at avancerede AI-modeller i høj grad kan gavne samfundet," siger virksomheden og anerkender samtidig behovet for fortsat årvågenhed og sikkerhedsforanstaltninger.

På trods af visse fremskridt er chancerne for at få vedtaget en omfattende AI-lovgivning i år små, da opmærksomheden rettes mod valget i 2024.

I mangel af nye love fra Kongressen har Det Hvide Hus i vid udstrækning sat sin lid til frivillige forpligtelser fra AI-virksomheder for at sikre, at de skaber sikre og pålidelige AI-systemer.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser