OpenAIs superalignment-sammenbrudd: Kan tilliten reddes?

18. mai 2024

  • OpenAI tiltrekker seg kontroverser når sikkerhetsteamene faller fra hverandre
  • Dette inkluderer avgangen til Jan Leike og Ilya Sutskever
  • Konsernsjef Sam Altman kan få problemer med å kontrollere selskapets tillit og moral
AI-nyheter

Ilya Sutskever og Jan Leike fra OpenAI's "superalignment"-team trakk seg denne uken, noe som kaster en skygge over selskapets forpliktelse til ansvarlig AI-utvikling under administrerende direktør Sam Altman.

Spesielt Leike la ikke fingrene imellom. "I løpet av de siste årene har sikkerhetskultur og -prosesser blitt nedprioritert til fordel for skinnende produkter", sa han i en avskjedsreplikk, og bekreftet dermed uroen blant dem som observerte OpenAI's jakt på avansert kunstig intelligens.

Sutskever og Leike er de siste i en stadig lengre liste av høyprofilerte omrokkeringer i OpenAI.

Siden november 2023, da Altman med nød og neppe overlevde et kuppforsøk i styrerommet, har minst fem andre sentrale medlemmer av superallianseteamet enten sluttet eller blitt tvunget ut:

  • Daniel Kokotajlo, som begynte i OpenAI i 2022 i håp om å styre selskapet mot en ansvarlig utvikling av kunstig generell intelligens (AGI) - høykompetent kunstig intelligens som oppfyller eller overgår vår egen kognisjon - sluttet i april 2024 etter å ha mistet troen på ledelsens evne til å "håndtere AGI på en ansvarlig måte".
  • Leopold Aschenbrenner og Pavel Izmailov, medlemmer av superalignment-teamet, ble angivelig sparket i forrige måned for å ha "lekket" informasjon, men OpenAI har ikke lagt frem noen bevis for ugjerninger. Innsidere spekulerer i at de ble angrepet fordi de var Sutskevers allierte.
  • Cullen O'Keefe, en annen sikkerhetsforsker, sluttet i april.
  • William Saunders gikk av i februar men er tilsynelatende bundet av en avtale om ikke å diskutere sine grunner. 

Amid these developments, OpenAI skal ha truet med å fjerne de ansattes aksjerettigheter dersom de kritiserer selskapet eller Altman seg selv, ifølge Vox

Det har gjort det vanskelig å virkelig forstå problemstillingen OpenAI, but Mye tyder på at sikkerhets- og tilpasningsinitiativene er i ferd med å mislykkes, hvis de i det hele tatt var oppriktige i utgangspunktet.

OpenAI's kontroversielle plot tykner til

OpenAIgrunnlagt i 2015 av Elon Musk og Sam Altmanvar svært opptatt av forskning med åpen kildekode og ansvarlig utvikling av kunstig intelligens.

Men i takt med at selskapets visjon har utvidet seg de siste årene, har det trukket seg tilbake bak lukkede dører. I 2019, OpenAI offisielt gått over fra å være en non-profit forskningslaboratorium til en "capped-profit"-enhetog gir næring til bekymringene om et skifte mot kommersialisering fremfor åpenhet.

Siden da, OpenAI har beskyttet forskningen og modellene sine med vanntette taushetserklæringer og trusler om rettslige skritt mot ansatte som våger å uttale seg. 

Andre viktige kontroverser i oppstartsbedriftens korte historie inkluderer

  • I 2019, OpenAI forbløffet AI-miljøet ved å gå fra å være et non-profit forskningslaboratorium til å bli et selskap med begrenset profitt, noe som markerte et positivt brudd med selskapets grunnprinsipper. 
  • I fjor ble det rapportert om lukkede møter mellom OpenAI og militære og forsvarsorganisasjoner.
  • Altmanhar hevet øyenbrynene, fra tanker om AI-drevet global styring til å innrømme eksistensiell risiko på en måte som fremstiller ham selv som pilot på et skip han allerede ikke kan styre.
  • I det alvorligste slaget mot AltmanSutskever selv var en del av en gruppe som ledet mislykket kupp i styrerommet i november 2023, som hadde som mål å avsette konsernsjefen. Altman Han har klart å klamre seg til makten, og har vist at han er knyttet til selskapet på en måte som er vanskelig å bryte opp, selv for styret selv. 

Dramaer i styrerommene og kriser blant grunnleggerne er ikke uvanlig i Silicon Valley, OpenAI's arbeid, ifølge dem selv, kan være avgjørende for det globale samfunnet.

Offentligheten, tilsynsmyndigheter og myndigheter ønsker en konsekvent og ukontroversiell styring på OpenAImen oppstartsbedriftens korte, turbulente historie tyder på alt annet.

OpenAI er i ferd med å bli antihelten innen generativ AI

Mens lenestolsdiagnoser og karakterdrap på Altman er uansvarlige, og hans rapporterte historie med manipulasjon og forfølgelse av personlige visjoner på bekostning av samarbeidspartnere og offentlig tillit reiser ubehagelige spørsmål.

I tråd med dette har samtaler rundt Altman og selskapet hans har blitt stadig mer ondskapsfulle på X, Reddit og Y Combinator-forumet.

Selv om teknologisjefer ofte er polariserende, vinner de som regel tilhengere, noe Elon Musk er et eksempel på blant de mer provoserende typene. Andre, som Microsoft CEO Satya Nadella, vinner respekt for sin bedriftsstrategi og kontrollerte, modne lederstil.

La oss også anerkjenne hvordan andre AI-startups, som Anthropicklarer å holde en ganske lav profil til tross for sine store prestasjoner i den generative AI-bransjen. OpenAIPå den annen side opprettholder den en intens, kontroversiell tyngde som holder den i offentlighetens søkelys, uten at det er til fordel for verken dens image eller bildet av generativ AI som helhet. 

Til syvende og sist bør vi si det som det er. OpenAIhar bidratt til en følelse av at selskapet ikke lenger er en aktør i god tro innen kunstig intelligens.

IDet får offentligheten til å lure på om generativ KI kan undergrave samfunnet i stedet for å hjelpe det. Det sender et budskap om at AGI er en lukket affære, et spill som spilles av teknologieliten uten tanke på de videre konsekvensene.

Den moralske lisensieringen av teknologibransjen

Moralsk lisensiering har lenge plaget teknologibransjen, der bedriftens nåværende oppdrag blir brukt til å rettferdiggjøre etiske kompromisser. 

Fra Facebooks "move fast and break things"-mantra til Googles "don't be evil"-slagord, har teknologigiganter gjentatte ganger påberopt seg fremskritt og samfunnsnytte, samtidig som de har engasjert seg i tvilsomme praksiser.

OpenAIs oppdrag om å forske på og utvikle AGI "til fordel for hele menneskeheten" inviterer kanskje til den ultimate formen for moralsk lisensiering.

Løftet om en teknologi som kan løse verdens største utfordringer og innlede en æra med velstand uten sidestykke, er forførende. Det appellerer til våre dypeste håp og drømmer, og appellerer til ønsket om å sette varige, positive spor etter oss i verden.

Men det er nettopp der faren ligger. Når det står så mye på spill og den potensielle gevinsten er så stor, blir det altfor lett å rettferdiggjøre at man tar snarveier, omgår etiske grenser og avviser kritikk i navnet til et "større gode" som ingen enkeltperson eller liten gruppe kan definere, ikke engang med all verdens finansiering og forskning.

Dette er fellen som OpenAI risikerer å havne i. Ved å posisjonere seg som skaperen av en teknologi som vil komme hele menneskeheten til gode, har selskapet i realiteten gitt seg selv en blankosjekk til å forfølge sin visjon med alle nødvendige midler.

Så hva kan vi gjøre med alt dette? Vel, snakk er billig. Robust styring, kontinuerlig progressiv dialog og vedvarende press for å forbedre bransjens praksis er nøkkelen. 

Når det gjelder OpenAI seg selv, ettersom offentlig press og mediekritikk av OpenAI vokse, Altman's posisjon kan bli mindre holdbar. 

Hvis han skulle gå av eller bli avsatt, må vi håpe at noe positivt fyller det enorme tomrommet han etterlater seg. 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser