Tidligere OpenAI-medarbejdere udgiver åbent brev om 'retten til at advare'

5. juni 2024

  • I et åbent brev opfordrer nuværende og tidligere OpenAI- og Google-medarbejdere til frihed til at rapportere AI-risici
  • Brevet har titlen "En ret til at advare om avanceret kunstig intelligens".
  • I brevet står der, at AI-virksomheder ikke har incitament til at rapportere risici, og at medarbejdere straffes, når de gør det.

En gruppe tidligere og nuværende OpenAI- og Google-medarbejdere kritiserer AI-virksomhederne for, hvad de mener, er en farlig hemmeligholdelseskultur omkring AI-risici.

I brevet med titlen "En ret til at advare om avanceret kunstig intelligens" står der, at AI-virksomheder har stærke økonomiske incitamenter til at undgå effektivt tilsyn med potentielle AI-risici.

Ud over at være hensynsløse ved at fokusere på økonomiske mål i stedet for sikkerhed, siger brevet, at virksomheder bruger straffende fortrolighedsaftaler til aktivt at afskrække medarbejdere fra at give udtryk for bekymringer.

Underskriverne er alle tidligere OpenAI- og Google-medarbejdere, med Neel Nanda som den eneste, der stadig arbejder hos Google. Brevet blev også støttet af de førende AI-forskere Yoshua Bengio, Geoffrey Hinton og Stuart Russell.

Som bevis på bekymringen for at hænge deres tidligere arbejdsgivere ud, var 6 af underskriverne ikke villige til at oplyse deres navne i brevet.

De tidligere OpenAI-forskere Daniel Kokotajlo og William Saunders, som også underskrev brevet, forlod virksomheden tidligere i år.

Kokotajlo var med i governance-teamet, og Saunders arbejdede i OpenAI's Superalignment-team, som blev opløst i sidste måned, da Ilya Sutskever og Jan Leike forlod også stedet på grund af sikkerhedsproblemer.

Kokotajlo forklarede årsagen til sin afgang på et forum, hvor han sagde, at han ikke tror, at OpenAI vil "opføre sig ansvarligt omkring AGI-tidspunktet".

En opfordring til handling

Brevet opfordrer til et større engagement fra AI-virksomheder i mangel af regulering af AI-risici, som offentligheden ikke kender til.

I brevet står der: "Almindelig whistleblower-beskyttelse er utilstrækkelig, fordi den fokuserer på ulovlig aktivitet, mens mange af de risici, vi er bekymrede for, endnu ikke er reguleret."

Brevet opfordrer AI-virksomheder til at forpligte sig til fire principper. Kort sagt ønsker de, at virksomhederne:

  • Ikke indgå eller håndhæve aftaler, der forbyder kritik af virksomheden på grund af sikkerhedsproblemer eller tilbageholder økonomiske fordele, som medarbejderen har krav på. (ahem, OpenAI)
  • Facilitér en anonym proces, hvor medarbejderne kan rejse risikorelaterede bekymringer over for virksomhedens bestyrelse eller andre regulerende organisationer.
  • At understøtte en kultur med åben kritik, der giver medarbejderne mulighed for at offentliggøre risikorelaterede bekymringer uden at afsløre intellektuel ejendom.
  • Ikke at udøve repressalier mod nuværende og tidligere medarbejdere, der offentligt deler risikorelaterede fortrolige oplysninger, efter at andre processer har slået fejl.

Flere af navnene på listen over underskrivere betragter sig selv som effektive altruister. Af deres indlæg og kommentarer fremgår det tydeligt, at folk som Daniel Kokotajlo (Less Wrong) og William Saunders (AI Alignment Forum) mener, at tingene kan ende meget galt, hvis AI-risici ikke håndteres.

Men det er ikke dommedagstrolde på et forum, der råber op fra sidelinjen. Det er førende intellekter, som virksomheder som OpenAI og Google fandt det passende at ansætte for at skabe den teknologi, de nu frygter.

Og nu siger de: "Vi har set ting, der skræmmer os. Vi vil gerne advare folk, men det må vi ikke.

Du kan læse brev her.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser