OpenAI:s VD Sam Altman ökar diskussionen om reglering av AI i väntan på "superintelligens".
I en ny artikel som publicerats på OpenAI bloggdiskuterar bolagets VD Sam Altman och kollegorna Ilya Sutskever och Greg Brockman AI:s utveckling mot "superintelligens", även känt som artificiell allmän intelligens (AGI).
Detta kommer mindre än en vecka efter att Sam Altman vittnade inför kongressendär det konstateras att AI kräver "brådskande" reglering för att skydda samhället samtidigt som fördelarna med AI bevaras.
Superintelligens beskriver AI som överträffar människans kognitiva förmågor, en milstolpe som Altman, Sutskever och Brockman menar kan uppnås inom de närmaste tio åren.
Sådana AI:n skulle kunna uppnå en produktivitet som motsvarar några av världens största företag och omforma samhället i både positiv och negativ riktning.
I artikeln föreslås tre potentiella vägar för att minska riskerna med superintelligens:
1: Samordning
Altman, Sutskever och Brockman efterlyser ett nära samarbete mellan AI-ledare för att upprätthålla säkerheten och underlätta integrationen av superintelligens i samhället.
Detta skulle kunna genomföras genom statliga projekt eller ömsesidiga avtal mellan företag, där AI-ledare kommer överens om att begränsa tillväxttakten för sina modellers intelligens.
2: Internationell övervakning
För det andra föreslår de att en internationell byrå för superintelligens inrättas, i likhet med Internationella atomenergiorganet (IAEA) som grundades 1957, för att minska riskerna med ny kärnteknik.
Regelverk som skapas av byrån ska implementeras frivilligt och genom nationella regeringar.
3: Offentlig tillsyn
För det tredje uppmanar OpenAI allmänheten att engagera sig i reglerna kring superintelligens, och föreslår att allmänheten ska övervaka AI:s "gränser och standardvärden" genom ett demokratiskt system.
Altman, Sutskever och Brockman säger: "Vi vet ännu inte hur man utformar en sådan mekanism, men vi planerar att experimentera med dess utveckling." OpenAI hade tidigare beskrivit standardvärden som en AI:s "out-of-the-box"-beteende och gränser som de begränsningar som sätts för dess kapacitet.
OpenAI hävdar också att projekt med öppen källkod som utvecklas under en viss "tröskel" för kapacitet bör uppmuntras.
De säger: "Vi tror att det skulle vara ointuitivt riskabelt och svårt att stoppa skapandet av superintelligens."
Med tanke på den exponentiella tillväxten av AI under det senaste decenniet kan OpenAI:s visioner om ett reglerat AI-landskap visa sig vara förutseende.
AI-industrin kommer dock säkert att testas av bolagets uppmaning till samarbete och vilja att bli reglerad. Än så länge finns det få tecken på samarbete mellan AI-ledare.
Att främja konkurrenskraftiga mål samtidigt som allmänheten skyddas kommer att vara en utmaning - och om man ska tro OpenAI är det dags att agera på AI-superintelligens nu.