OpenAI staat in het middelpunt van een Senaatsonderzoek na beschuldigingen van overhaaste veiligheidstesten.
Vijf senatoren, onder leiding van Brian Schatz (D-Hawaii), eisten dat het bedrijf gedetailleerde informatie zou geven over zijn veiligheidspraktijken en werknemersovereenkomsten.
Het onderzoek komt in de nasleep van een Verslag Washington Post wat suggereert dat OpenAI de veiligheidsprotocollen in gevaar heeft gebracht in de haast om GPT-4 Omni, het nieuwste AI-model, uit te brengen.
Ondertussen hebben klokkenluiders, waaronder vooraanstaande onderzoekers van OpenAI's ontmanteld "superalignment team," hebben hun bezorgdheid geuit over beperkende geheimhoudingsovereenkomsten (NDA's) voor werknemers.
Brief van senatoren aan OpenAI
In een sterk geformuleerde brief aan OpenAI CEO Sam Altman, eisten vijf senatoren gedetailleerde informatie over de veiligheidspraktijken van het bedrijf en de behandeling van werknemers.
De brief geeft aanleiding tot bezorgdheid over de inzet van OpenAI voor verantwoorde AI-ontwikkeling en haar interne beleid.
"Gezien OpenAI's positie als toonaangevend AI-bedrijf is het belangrijk dat het publiek kan vertrouwen op de veiligheid en beveiliging van zijn systemen," schrijven de senatoren.
Verder zetten ze vraagtekens bij de "integriteit van de bestuursstructuur en veiligheidstests van het bedrijf, de tewerkstellingspraktijken, de trouw aan de publieke beloften en missie, en het cyberbeveiligingsbeleid".
De senatoren, onder leiding van Brian Schatz (D-Hawaii), hebben een deadline van 13 augustus gesteld voor OpenAI om te antwoorden op een reeks gerichte vragen. Deze vragen gaan onder andere over de vraag of het bedrijf zijn belofte zal nakomen om 20% aan rekenkracht te wijden aan AI-veiligheidsonderzoek en of het onafhankelijke experts zal toestaan om zijn systemen te testen voordat ze worden vrijgegeven.
Over het onderwerp van beperkende overeenkomsten met werknemers vraagt de brief aan OpenAI om te bevestigen dat het "geen permanente niet-afscheidende overeenkomsten zal afdwingen voor huidige en voormalige werknemers" en om zich ertoe te verbinden om "alle andere bepalingen uit arbeidsovereenkomsten te verwijderen die gebruikt kunnen worden om werknemers te straffen die publiekelijk hun bezorgdheid uiten over bedrijfspraktijken".
OpenAI ging later naar X om het publiek gerust te stellen over zijn toewijding aan veiligheid.
"Zorgen dat iedereen kan profiteren van AI begint met het bouwen van AI die behulpzaam en veilig is. We willen een aantal updates delen over hoe we prioriteit geven aan veiligheid in ons werk", aldus het bedrijf in een recent bericht.
OpenAI benadrukte zijn Preparedness Framework, ontworpen om de risico's van steeds krachtigere AI-modellen te evalueren en er bescherming tegen te bieden.
"We zullen geen nieuw model uitbrengen als het een 'medium' risicodrempel overschrijdt totdat we er zeker van zijn dat we dit veilig kunnen doen," verzekerde het bedrijf.
In antwoord op de beschuldigingen van beperkende overeenkomsten met werknemers verklaarde OpenAI: "Ons klokkenluidersbeleid beschermt het recht van werknemers om beschermde onthullingen te doen. We geloven ook dat een rigoureus debat over deze technologie belangrijk is en hebben veranderingen aangebracht in ons vertrekproces om niet-afscheidende voorwaarden te verwijderen."
Het bedrijf noemde ook recente stappen om de veiligheidsmaatregelen te versterken.
In mei lanceerde de Raad van Bestuur van OpenAI een nieuw Veiligheids- en Beveiligingscomité, dat bestaat uit gepensioneerd US Generaal van het leger Paul Nakasone, een vooraanstaand expert op het gebied van cyberbeveiliging.
OpenAI blijft bij zijn standpunt over de voordelen van AI. "Wij geloven dat geavanceerde AI-modellen de maatschappij veel goeds kunnen brengen", aldus het bedrijf, dat tegelijkertijd erkent dat voortdurende waakzaamheid en veiligheidsmaatregelen nodig zijn.
Ondanks enige vooruitgang is de kans klein dat er dit jaar uitgebreide AI-wetgeving wordt aangenomen nu de aandacht verschuift naar de verkiezingen van 2024.
Bij gebrek aan nieuwe wetten van het Congres heeft het Witte Huis grotendeels vertrouwd op vrijwillige verbintenissen van AI-bedrijven om ervoor te zorgen dat ze veilige en betrouwbare AI-systemen maken.