Senaat onderzoekt veiligheid en bestuur van OpenAI na klokkenluidersclaims

23 juli 2024

  • Amerikaanse senatoren stelden vragen aan OpenAI na beschuldigingen van klokkenluidersbeperkingen
  • Ze zetten ook vraagtekens bij de "integriteit van de bestuursstructuur van het bedrijf".
  • OpenAI moet voor 13 augustus formeel reageren op een lijst met vragen
OpenAI senatoren

OpenAI staat in het middelpunt van een Senaatsonderzoek na beschuldigingen van overhaaste veiligheidstesten.

Vijf senatoren, onder leiding van Brian Schatz (D-Hawaii), eisten dat het bedrijf gedetailleerde informatie zou geven over zijn veiligheidspraktijken en werknemersovereenkomsten.

Het onderzoek komt in de nasleep van een Verslag Washington Post wat suggereert dat OpenAI de veiligheidsprotocollen in gevaar heeft gebracht in de haast om GPT-4 Omni, het nieuwste AI-model, uit te brengen.

Ondertussen hebben klokkenluiders, waaronder vooraanstaande onderzoekers van OpenAI's ontmanteld "superalignment team," hebben hun bezorgdheid geuit over beperkende geheimhoudingsovereenkomsten (NDA's) voor werknemers.

Brief van senatoren aan OpenAI

In een sterk geformuleerde brief aan OpenAI CEO Sam Altman, eisten vijf senatoren gedetailleerde informatie over de veiligheidspraktijken van het bedrijf en de behandeling van werknemers.

De brief geeft aanleiding tot bezorgdheid over de inzet van OpenAI voor verantwoorde AI-ontwikkeling en haar interne beleid.

"Gezien OpenAI's positie als toonaangevend AI-bedrijf is het belangrijk dat het publiek kan vertrouwen op de veiligheid en beveiliging van zijn systemen," schrijven de senatoren.

Verder zetten ze vraagtekens bij de "integriteit van de bestuursstructuur en veiligheidstests van het bedrijf, de tewerkstellingspraktijken, de trouw aan de publieke beloften en missie, en het cyberbeveiligingsbeleid".

De senatoren, onder leiding van Brian Schatz (D-Hawaii), hebben een deadline van 13 augustus gesteld voor OpenAI om te antwoorden op een reeks gerichte vragen. Deze vragen gaan onder andere over de vraag of het bedrijf zijn belofte zal nakomen om 20% aan rekenkracht te wijden aan AI-veiligheidsonderzoek en of het onafhankelijke experts zal toestaan om zijn systemen te testen voordat ze worden vrijgegeven.

Over het onderwerp van beperkende overeenkomsten met werknemers vraagt de brief aan OpenAI om te bevestigen dat het "geen permanente niet-afscheidende overeenkomsten zal afdwingen voor huidige en voormalige werknemers" en om zich ertoe te verbinden om "alle andere bepalingen uit arbeidsovereenkomsten te verwijderen die gebruikt kunnen worden om werknemers te straffen die publiekelijk hun bezorgdheid uiten over bedrijfspraktijken".

OpenAI ging later naar X om het publiek gerust te stellen over zijn toewijding aan veiligheid.

"Zorgen dat iedereen kan profiteren van AI begint met het bouwen van AI die behulpzaam en veilig is. We willen een aantal updates delen over hoe we prioriteit geven aan veiligheid in ons werk", aldus het bedrijf in een recent bericht.

OpenAI benadrukte zijn Preparedness Framework, ontworpen om de risico's van steeds krachtigere AI-modellen te evalueren en er bescherming tegen te bieden.

"We zullen geen nieuw model uitbrengen als het een 'medium' risicodrempel overschrijdt totdat we er zeker van zijn dat we dit veilig kunnen doen," verzekerde het bedrijf.

In antwoord op de beschuldigingen van beperkende overeenkomsten met werknemers verklaarde OpenAI: "Ons klokkenluidersbeleid beschermt het recht van werknemers om beschermde onthullingen te doen. We geloven ook dat een rigoureus debat over deze technologie belangrijk is en hebben veranderingen aangebracht in ons vertrekproces om niet-afscheidende voorwaarden te verwijderen."

Het bedrijf noemde ook recente stappen om de veiligheidsmaatregelen te versterken.

In mei lanceerde de Raad van Bestuur van OpenAI een nieuw Veiligheids- en Beveiligingscomité, dat bestaat uit gepensioneerd US Generaal van het leger Paul Nakasone, een vooraanstaand expert op het gebied van cyberbeveiliging.

OpenAI blijft bij zijn standpunt over de voordelen van AI. "Wij geloven dat geavanceerde AI-modellen de maatschappij veel goeds kunnen brengen", aldus het bedrijf, dat tegelijkertijd erkent dat voortdurende waakzaamheid en veiligheidsmaatregelen nodig zijn.

Ondanks enige vooruitgang is de kans klein dat er dit jaar uitgebreide AI-wetgeving wordt aangenomen nu de aandacht verschuift naar de verkiezingen van 2024.

Bij gebrek aan nieuwe wetten van het Congres heeft het Witte Huis grotendeels vertrouwd op vrijwillige verbintenissen van AI-bedrijven om ervoor te zorgen dat ze veilige en betrouwbare AI-systemen maken.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden