OpenAIs administrerende direktør setter rammer for regulering av superintelligent AI

24. mai 2023

OpenAI-forordningen

Sam Altman, administrerende direktør i OpenAI, trapper opp diskusjonen om AI-regulering i påvente av "superintelligens".

I en ny artikkel publisert på OpenAI-bloggdiskuterer selskapets administrerende direktør Sam Altman og kollegene Ilya Sutskever og Greg Brockman AIs utvikling mot "superintelligens", også kjent som kunstig generell intelligens (AGI)

Dette kommer mindre enn en uke etter at Sam Altman vitnet for Kongressen, og uttalte at kunstig intelligens krever "presserende" regulering for å beskytte samfunnet og samtidig bevare fordelene. 

Superintelligens beskriver kunstig intelligens som overgår menneskets kognitive evner, en milepæl som Altman, Sutskever og Brockman mener kan oppnås i løpet av de neste ti årene. 

Slik kunstig intelligens vil kunne oppnå en produktivitet som tilsvarer noen av verdens største selskaper, og omforme samfunnet i både positiv og negativ retning. 

Artikkelen foreslår tre mulige måter å redusere risikoen ved superintelligens på: 

1: Koordinering

Altman, Sutskever og Brockman etterlyser et tett samarbeid mellom AI-ledere for å opprettholde sikkerheten og gjøre integreringen av superintelligens i samfunnet smidigere. 

Dette kan gjennomføres gjennom offentlige prosjekter eller gjensidige avtaler mellom selskaper, der AI-ledere blir enige om å begrense vekstraten i modellenes intelligens. 

2: Internasjonal overvåking 

For det andre foreslår de å opprette et internasjonalt byrå for superintelligens, i likhet med Det internasjonale atomenergibyrået (IAEA), som ble grunnlagt i 1957, for å redusere risikoen ved fremvoksende atomteknologi. 

Regelverket som byrået utarbeider, vil bli implementert på frivillig basis og gjennom nasjonale myndigheter. 

3: Offentlig tilsyn

For det tredje etterlyser OpenAI offentlig engasjement i reglene rundt superintelligens, og foreslår at offentligheten bør overvåke "grensene og standardene" for AI gjennom et demokratisk system. 

Altman, Sutskever og Brockman sier: "Vi vet ennå ikke hvordan vi skal utforme en slik mekanisme, men vi har planer om å eksperimentere med utviklingen av den." OpenAI hadde tidligere beskrevet standardinnstillinger som en AIs "out-of-the-box"-atferd, og grenser som de begrensninger som settes for dens evner. 

OpenAI argumenterer også for at åpen kildekode-prosjekter som utvikles under en viss "terskel", bør oppmuntres.

De sier: "Vi tror det ville være uintuitivt risikabelt og vanskelig å stoppe skapelsen av superintelligens." 

Med tanke på den eksponentielle veksten innen kunstig intelligens det siste tiåret, kan OpenAIs visjoner for et regulert AI-landskap vise seg å være forutseende.

AI-bransjen vil imidlertid garantert bli satt på prøve av selskapets oppfordring til samarbeid og vilje til å la seg regulere. Foreløpig er det lite som tyder på at AI-ledere samarbeider på tvers.

Det vil være utfordrende å fremme konkurransedyktige mål og samtidig beskytte offentligheten - og skal vi tro OpenAI, er det på tide å handle nå når det gjelder AI-superintelligens.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser