Sam Altman, administrerende direktør i OpenAI, trapper opp diskusjonen om AI-regulering i påvente av "superintelligens".
I en ny artikkel publisert på OpenAI-bloggdiskuterer selskapets administrerende direktør Sam Altman og kollegene Ilya Sutskever og Greg Brockman AIs utvikling mot "superintelligens", også kjent som kunstig generell intelligens (AGI).
Dette kommer mindre enn en uke etter at Sam Altman vitnet for Kongressen, og uttalte at kunstig intelligens krever "presserende" regulering for å beskytte samfunnet og samtidig bevare fordelene.
Superintelligens beskriver kunstig intelligens som overgår menneskets kognitive evner, en milepæl som Altman, Sutskever og Brockman mener kan oppnås i løpet av de neste ti årene.
Slik kunstig intelligens vil kunne oppnå en produktivitet som tilsvarer noen av verdens største selskaper, og omforme samfunnet i både positiv og negativ retning.
Artikkelen foreslår tre mulige måter å redusere risikoen ved superintelligens på:
1: Koordinering
Altman, Sutskever og Brockman etterlyser et tett samarbeid mellom AI-ledere for å opprettholde sikkerheten og gjøre integreringen av superintelligens i samfunnet smidigere.
Dette kan gjennomføres gjennom offentlige prosjekter eller gjensidige avtaler mellom selskaper, der AI-ledere blir enige om å begrense vekstraten i modellenes intelligens.
2: Internasjonal overvåking
For det andre foreslår de å opprette et internasjonalt byrå for superintelligens, i likhet med Det internasjonale atomenergibyrået (IAEA), som ble grunnlagt i 1957, for å redusere risikoen ved fremvoksende atomteknologi.
Regelverket som byrået utarbeider, vil bli implementert på frivillig basis og gjennom nasjonale myndigheter.
3: Offentlig tilsyn
For det tredje etterlyser OpenAI offentlig engasjement i reglene rundt superintelligens, og foreslår at offentligheten bør overvåke "grensene og standardene" for AI gjennom et demokratisk system.
Altman, Sutskever og Brockman sier: "Vi vet ennå ikke hvordan vi skal utforme en slik mekanisme, men vi har planer om å eksperimentere med utviklingen av den." OpenAI hadde tidligere beskrevet standardinnstillinger som en AIs "out-of-the-box"-atferd, og grenser som de begrensninger som settes for dens evner.
OpenAI argumenterer også for at åpen kildekode-prosjekter som utvikles under en viss "terskel", bør oppmuntres.
De sier: "Vi tror det ville være uintuitivt risikabelt og vanskelig å stoppe skapelsen av superintelligens."
Med tanke på den eksponentielle veksten innen kunstig intelligens det siste tiåret, kan OpenAIs visjoner for et regulert AI-landskap vise seg å være forutseende.
AI-bransjen vil imidlertid garantert bli satt på prøve av selskapets oppfordring til samarbeid og vilje til å la seg regulere. Foreløpig er det lite som tyder på at AI-ledere samarbeider på tvers.
Det vil være utfordrende å fremme konkurransedyktige mål og samtidig beskytte offentligheten - og skal vi tro OpenAI, er det på tide å handle nå når det gjelder AI-superintelligens.