OpenAI CEO Sam Altman voert de discussie over AI-regulering op in afwachting van "superintelligentie".
In een nieuw artikel gepubliceerd op de OpenAI blogbespreken de CEO van het bedrijf, Sam Altman, en collega's Ilya Sutskever en Greg Brockman de ontwikkeling van AI in de richting van "superintelligentie", ook wel bekend als kunstmatige algemene intelligentie (AGI).
Dit komt minder dan een week nadat Sam Altman getuigde voor het Congreswaarin staat dat AI "dringend" moet worden gereguleerd om de samenleving te beschermen en tegelijkertijd de voordelen ervan te behouden.
Superintelligentie beschrijft AI's die de cognitieve capaciteiten van mensen overtreffen, een mijlpaal die volgens Altman, Sutskever en Brockman in de komende tien jaar haalbaar is.
Zulke AI's zouden in staat zijn om even productief te zijn als sommige van 's werelds grootste bedrijven en zouden de maatschappij zowel positief als negatief kunnen beïnvloeden.
Het artikel suggereert drie mogelijke manieren om de risico's van superintelligentie te beperken:
1: Coördinatie
Altman, Sutskever en Brockman roepen op tot nauwe samenwerking tussen AI-leiders om de veiligheid te handhaven en de integratie van superintelligentie in de maatschappij soepel te laten verlopen.
Dit kan worden geïmplementeerd via overheidsprojecten of onderlinge afspraken tussen bedrijven, waarbij AI-leiders afspreken om de groeisnelheid van de intelligentie van hun modellen te beperken.
2: Internationale monitoring
Ten tweede stellen ze voor om een internationaal agentschap voor superintelligentie op te richten, zoals de Internationale Organisatie voor Atoomenergie (IAEA), opgericht in 1957, om de risico's van opkomende nucleaire technologie te beperken.
Regelgevende kaders die door het agentschap worden gecreëerd, zouden vrijwillig en via nationale regeringen worden geïmplementeerd.
3: Publiek toezicht
Ten derde roept OpenAI op tot publieke betrokkenheid bij de regels rondom superintelligentie, door te suggereren dat het publiek toezicht moet houden op de "grenzen en standaardwaarden" van AI via een democratisch systeem.
Altman, Sutskever en Brockman zeggen: "We weten nog niet hoe we zo'n mechanisme moeten ontwerpen, maar we zijn van plan om te experimenteren met de ontwikkeling ervan." OpenAI had eerder beschreven defaults als het "out-of-the-box" gedrag van een AI en grenzen als de grenzen die gesteld worden aan de mogelijkheden van de AI.
OpenAI stelt ook dat open-source projecten die ontwikkeld worden onder een bepaalde capability "drempel" moeten worden aangemoedigd.
Ze stellen: "We geloven dat het onintuïtief riskant en moeilijk zou zijn om de creatie van superintelligentie te stoppen."
Gezien de exponentiële groei van AI in het afgelopen decennium zou OpenAI's visie op een gereguleerd AI-landschap wel eens vooruitziend kunnen blijken.
De AI-industrie zal echter zeker op de proef worden gesteld door de oproep van het bedrijf om samen te werken en zich te laten reguleren. Tot nu toe is er weinig bewijs van samenwerking tussen AI-leiders.
Het zal een uitdaging zijn om concurrerende doelen te bevorderen en tegelijkertijd het publiek te beschermen - en als we OpenAI mogen geloven, is het nu tijd om actie te ondernemen op het gebied van AI-superintelligentie.