Een groep voormalige en huidige werknemers van OpenAI en Google spreekt AI-bedrijven aan op wat volgens hen een gevaarlijke cultuur van geheimzinnigheid rondom AI-risico's is.
De brief met de titel "Een recht om te waarschuwen voor geavanceerde kunstmatige intelligentie" stelt dat AI-bedrijven sterke financiële prikkels hebben om effectief toezicht op potentiële AI-risico's te vermijden.
Naast het feit dat bedrijven roekeloos zijn door zich te richten op financiële doelstellingen in plaats van op veiligheid, staat in de brief dat ze strafrechtelijke geheimhoudingsovereenkomsten gebruiken om werknemers actief te ontmoedigen om hun zorgen kenbaar te maken.
De ondertekenaars zijn allemaal voormalige werknemers van OpenAI en Google, met Neel Nanda als enige die nog steeds bij Google werkt. De brief werd ook onderschreven door vooraanstaande AI-denkers Yoshua Bengio, Geoffrey Hinton en Stuart Russell.
Als bewijs van de bezorgdheid over het uitschelden van hun voormalige werkgevers, waren 6 van de ondertekenaars niet bereid om hun namen in de brief bekend te maken.
Voormalig OpenAI onderzoekers Daniel Kokotajlo en William Saunders, die de brief ook ondertekenden, verlieten het bedrijf eerder dit jaar.
Kokotajlo zat in het governance team en Saunders werkte in OpenAI's Superalignment team dat vorige maand werd opgeheven toen Ilya Sutskever en Jan Leike vertrokken ook uit veiligheidsoverwegingen.
Kokotajlo legde zijn reden van vertrek uit op een forum door te zeggen dat hij denkt dat OpenAI zich niet "verantwoordelijk zal gedragen rond de tijd van AGI".
Een oproep tot actie
De brief roept op tot een grotere betrokkenheid van AI-bedrijven bij het ontbreken van regelgeving voor AI-risico's waar het publiek geen weet van heeft.
In de brief staat: "Gewone klokkenluiderbeschermingen zijn onvoldoende omdat ze gericht zijn op illegale activiteiten, terwijl veel van de risico's waarover we ons zorgen maken nog niet gereguleerd zijn."
In de brief worden AI-bedrijven opgeroepen zich te committeren aan vier principes. Kort gezegd willen ze dat bedrijven
- Geen overeenkomsten aangaan of afdwingen die kritiek op het bedrijf verbieden met betrekking tot veiligheidskwesties of financiële voordelen voor de werknemer tegenhouden. (ahem, OpenAI)
- Faciliteer een anoniem proces voor werknemers om risicogerelateerde zorgen te melden aan de raad van bestuur van het bedrijf of andere regelgevende organisaties.
- Een cultuur van open kritiek ondersteunen waardoor werknemers risicogerelateerde zorgen openbaar kunnen maken zonder intellectueel eigendom te onthullen.
- Geen represailles nemen tegen huidige en voormalige werknemers die publiekelijk risicogerelateerde vertrouwelijke informatie delen nadat andere processen hebben gefaald.
Verschillende namen op de lijst van ondertekenaars beschouwen zichzelf als effectieve altruïsten. Uit hun berichten en commentaren blijkt duidelijk dat mensen als Daniel Kokotajlo (Less Wrong) en William Saunders (AI Alignment Forum) geloven dat het heel slecht kan aflopen als AI-risico's niet worden beheerst.
Maar dit zijn geen doemdenkende trollen op een forum die roepen vanaf de zijlijn. Dit zijn vooraanstaande intellectuelen die bedrijven als OpenAI en Google in dienst hebben genomen om de technologie te creëren waar ze nu bang voor zijn.
En nu zeggen ze: "We hebben dingen gezien die ons bang maken. We willen mensen waarschuwen, maar dat mogen we niet.
U kunt de brief hier.