OpenAI's CEO Sam Altman intensiverer diskussionen om AI-regulering i forventning om "superintelligens".
I en ny artikel udgivet på OpenAI-blogdiskuterer virksomhedens CEO Sam Altman og kollegerne Ilya Sutskever og Greg Brockman AI's udvikling i retning af "superintelligens", også kendt som kunstig generel intelligens (AGI).
Det sker mindre end en uge efter, at Sam Altman Vidnede for Kongressenog erklærede, at AI kræver "hurtig" regulering for at beskytte samfundet og samtidig bevare fordelene.
Superintelligens beskriver AI'er, der overgår menneskers kognitive evner, en milepæl, som Altman, Sutskever og Brockman mener kan opnås inden for de næste ti år.
Sådanne AI'er vil være i stand til at opnå en produktivitet, der svarer til nogle af verdens største virksomheder, og omforme samfundet i både positiv og negativ retning.
Artiklen foreslår tre mulige veje til at mindske risikoen ved superintelligens:
1: Koordinering
Altman, Sutskever og Brockman opfordrer til et tæt samarbejde mellem AI-ledere for at opretholde sikkerheden og udjævne integrationen af superintelligens i samfundet.
Det kan ske gennem regeringsprojekter eller gensidige aftaler mellem virksomheder, hvor AI-ledere bliver enige om at begrænse vækstraten for deres modellers intelligens.
2: International overvågning
For det andet foreslår de, at der oprettes et internationalt agentur for superintelligens, ligesom Det Internationale Atomenergiagentur (IAEA), der blev grundlagt i 1957, for at mindske risiciene ved ny atomteknologi.
De lovgivningsmæssige rammer, der skabes af agenturet, vil blive implementeret frivilligt og gennem de nationale regeringer.
3: Offentligt tilsyn
For det tredje opfordrer OpenAI til offentligt engagement i reglerne omkring superintelligens og foreslår, at offentligheden skal overvåge "grænserne og standarderne" for AI gennem et demokratisk system.
Altman, Sutskever og Brockman siger: "Vi ved endnu ikke, hvordan vi skal designe sådan en mekanisme, men vi planlægger at eksperimentere med udviklingen af den." OpenAI havde tidligere beskrevet standardindstillinger som en AI's "out-of-the-box"-adfærd og grænser som de begrænsninger, der er lagt på dens evner.
OpenAI argumenterer også for, at open source-projekter, der udvikles under en bestemt "tærskel", bør fremmes.
De siger: "Vi mener, at det ville være uintuitivt risikabelt og vanskeligt at stoppe skabelsen af superintelligens."
I betragtning af den eksponentielle vækst i AI i det seneste årti kan OpenAI's visioner for et reguleret AI-landskab vise sig at være fremsynede.
Men AI-industrien vil helt sikkert blive testet af virksomhedens opfordring til samarbejde og villighed til at blive reguleret. Indtil videre er der kun få tegn på samarbejde på tværs mellem AI-ledere.
Det bliver en udfordring at fremme konkurrencemæssige mål og samtidig beskytte offentligheden - og hvis man skal tro OpenAI, er det tid til at handle på AI-superintelligens nu.