OpenAI har havnet i sentrum for en senatsgranskning etter påstander om forhastede sikkerhetstester.
Fem senatorer, med Brian Schatz (D-Hawaii) i spissen, krevde at selskapet skulle gi detaljert informasjon om sikkerhetspraksisen og de ansattes avtaler.
Undersøkelsen kommer i kjølvannet av en Rapport fra Washington Post noe som tyder på at OpenAI kan ha gått på akkord med sikkerhetsprotokollene i sitt hastverk med å lansere GPT-4 Omni, den nyeste AI-modellen.
I mellomtiden har varslere, inkludert høyt profilerte forskere fra OpenAIs nedlagte "superalignment-teamet", og har uttrykt bekymring for restriktive taushetserklæringer (NDA-er).
Senatorenes brev til OpenAI
I et skarpt formulert brev til OpenAIs administrerende direktør Sam Altman krevde fem senatorer detaljert informasjon om selskapets sikkerhetspraksis og behandling av de ansatte.
Den brev reiser spørsmål om OpenAIs forpliktelse til ansvarlig AI-utvikling og selskapets interne retningslinjer.
"Gitt OpenAIs posisjon som et ledende AI-selskap, er det viktig at offentligheten kan stole på sikkerheten og tryggheten til systemene deres", skriver senatorene.
De stiller videre spørsmål ved "integriteten til selskapets styringsstruktur og sikkerhetstesting, dets ansettelsespraksis, dets troskap til sine offentlige løfter og oppdrag, og dets retningslinjer for cybersikkerhet".
Senatorene, ledet av Brian Schatz (D-Hawaii), har satt en frist til 13. august for OpenAI til å svare på en rekke spissformulerte spørsmål. Blant annet om selskapet vil innfri sin forpliktelse om å bruke 20% dataressurser til forskning på AI-sikkerhet, og om det vil tillate uavhengige eksperter å teste systemene før de lanseres.
Når det gjelder restriktive ansettelsesavtaler, ber brevet OpenAI om å bekrefte at de "ikke vil håndheve permanente avtaler om ikke-diskriminering for nåværende og tidligere ansatte", og om å forplikte seg til å "fjerne alle andre bestemmelser fra ansettelsesavtaler som kan brukes til å straffe ansatte som offentlig tar opp bekymringer om selskapets praksis".
OpenAI gikk senere ut på X for å berolige offentligheten om sitt engasjement for sikkerhet.
"Å sørge for at AI kan være til nytte for alle, starter med å bygge AI som er nyttig og trygg. Vi ønsker å dele noen oppdateringer om hvordan vi prioriterer sikkerhet i arbeidet vårt", uttalte selskapet nylig i et innlegg.
OpenAI la vekt på sitt Preparedness Framework, som er utviklet for å evaluere og beskytte mot risikoer som stadig kraftigere AI-modeller utgjør.
"Vi kommer ikke til å lansere en ny modell hvis den krysser en "middels" risikogrense før vi er sikre på at vi kan gjøre det på en trygg måte", forsikrer selskapet.
OpenAI svarer på påstandene om restriktive avtaler: "Våre retningslinjer for varsling beskytter ansattes rett til å komme med beskyttede avsløringer. Vi mener også at det er viktig med en grundig debatt om denne teknologien, og vi har gjort endringer i avgangsprosessen vår for å fjerne vilkår om ikke-diskriminering."
Selskapet nevnte også de siste tiltakene for å styrke sikkerhetstiltakene.
I mai lanserte OpenAIs styre en ny Safety and Security-komité, som blant annet består av pensjonert US Hærgeneral Paul Nakasone, en ledende ekspert på cybersikkerhet.
OpenAI opprettholder sin holdning til fordelene med AI. "Vi tror at banebrytende AI-modeller kan være til stor nytte for samfunnet", uttalte selskapet, samtidig som det anerkjente behovet for fortsatt årvåkenhet og sikkerhetstiltak.
Til tross for en viss fremgang er sjansene for å få vedtatt en omfattende AI-lovgivning i år små, ettersom oppmerksomheten flyttes mot valget i 2024.
I mangel av nye lover fra Kongressen har Det hvite hus i stor grad basert seg på frivillige forpliktelser fra AI-selskaper for å sikre at de skaper trygge og pålitelige AI-systemer.