OpenAI har hamnat i centrum för en senatsutredning efter anklagelser om förhastade säkerhetstester.
Fem senatorer, under ledning av Brian Schatz (D-Hawaii), krävde att företaget skulle lämna detaljerad information om sina säkerhetsrutiner och anställningsavtal.
Utredningen kommer i kölvattnet av en Rapport från Washington Post vilket tyder på att OpenAI kan ha kompromissat med säkerhetsprotokoll i sin brådska att släppa GPT-4 Omni, sin senaste AI-modell.
Under tiden har visselblåsare, inklusive högprofilerade forskare från OpenAI:s nedmonterade "superalignment team" har väckt frågor om restriktiva sekretessavtal för anställda.
Senatorernas brev till OpenAI
I ett skarpt formulerat brev till OpenAI:s VD Sam Altman krävde fem senatorer detaljerad information om företagets säkerhetsrutiner och hur de anställda behandlas.
Den brev väcker frågor om OpenAI:s engagemang för ansvarsfull AI-utveckling och dess interna policyer.
"Med tanke på OpenAI:s position som ett ledande AI-företag är det viktigt att allmänheten kan lita på säkerheten och tryggheten i dess system", skriver senatorerna.
De fortsätter med att ifrågasätta "integriteten i bolagets styrningsstruktur och säkerhetstester, dess anställningsförfaranden, dess trohet mot sina offentliga löften och uppdrag samt dess cybersäkerhetspolicy".
Senatorerna, under ledning av Brian Schatz (D-Hawaii), har satt en tidsfrist till den 13 augusti för OpenAI att svara på en rad spetsiga frågor. Dessa inkluderar om företaget kommer att uppfylla sitt åtagande att ägna 20% av datorresurser till AI-säkerhetsforskning och om det kommer att tillåta oberoende experter att testa sina system innan de släpps.
När det gäller restriktiva anställningsavtal ber brevet OpenAI att bekräfta att man "inte kommer att tillämpa permanenta avtal om icke-diskriminering för nuvarande och tidigare anställda" och att åta sig att "ta bort alla andra bestämmelser från anställningsavtal som kan användas för att straffa anställda som offentligt uttrycker oro över företagets praxis".
OpenAI gick senare ut på X för att försäkra allmänheten om sitt engagemang för säkerhet.
"Att se till att AI kan gynna alla börjar med att bygga AI som är hjälpsam och säker. Vi vill dela med oss av några uppdateringar om hur vi prioriterar säkerhet i vårt arbete", skrev företaget nyligen i ett inlägg.
OpenAI lyfte fram sitt Preparedness Framework, som är utformat för att utvärdera och skydda mot risker med allt kraftfullare AI-modeller.
"Vi kommer inte att släppa en ny modell om den passerar en tröskel för 'medelhög' risk förrän vi är säkra på att vi kan göra det på ett säkert sätt", försäkrade företaget.
OpenAI bemötte anklagelserna om restriktiva anställningsavtal med följande uttalande: "Vår visselblåsarpolicy skyddar anställdas rätt att göra skyddade avslöjanden. Vi anser också att det är viktigt med en rigorös debatt om denna teknik och har gjort ändringar i vår avgångsprocess för att ta bort villkor om icke-diskriminering."
Företaget nämnde också de senaste åtgärderna för att stärka sina säkerhetsåtgärder.
I maj lanserade OpenAI:s styrelse en ny kommitté för säkerhet och trygghet, som består av pensionerad US Armégeneral Paul Nakasone, en ledande expert på cybersäkerhet.
OpenAI vidhåller sin inställning till AI:s fördelar. "Vi tror att avancerade AI-modeller kan vara till stor nytta för samhället", säger OpenAI, som samtidigt påpekar att det finns ett behov av fortsatt vaksamhet och säkerhetsåtgärder.
Trots vissa framsteg är chanserna att få igenom en omfattande AI-lagstiftning i år små, eftersom uppmärksamheten riktas mot valet 2024.
I avsaknad av nya lagar från kongressen har Vita huset i stor utsträckning förlitat sig på frivilliga åtaganden från AI-företag för att säkerställa att de skapar säkra och pålitliga AI-system.