OpenAI CEO stelt regelgeving op voor superintelligente AI's

24 mei 2023

OpenAI-regelgeving

OpenAI CEO Sam Altman voert de discussie over AI-regulering op in afwachting van "superintelligentie".

In een nieuw artikel gepubliceerd op de OpenAI blogbespreken de CEO van het bedrijf, Sam Altman, en collega's Ilya Sutskever en Greg Brockman de ontwikkeling van AI in de richting van "superintelligentie", ook wel bekend als kunstmatige algemene intelligentie (AGI)

Dit komt minder dan een week nadat Sam Altman getuigde voor het Congreswaarin staat dat AI "dringend" moet worden gereguleerd om de samenleving te beschermen en tegelijkertijd de voordelen ervan te behouden. 

Superintelligentie beschrijft AI's die de cognitieve capaciteiten van mensen overtreffen, een mijlpaal die volgens Altman, Sutskever en Brockman in de komende tien jaar haalbaar is. 

Zulke AI's zouden in staat zijn om even productief te zijn als sommige van 's werelds grootste bedrijven en zouden de maatschappij zowel positief als negatief kunnen beïnvloeden. 

Het artikel suggereert drie mogelijke manieren om de risico's van superintelligentie te beperken: 

1: Coördinatie

Altman, Sutskever en Brockman roepen op tot nauwe samenwerking tussen AI-leiders om de veiligheid te handhaven en de integratie van superintelligentie in de maatschappij soepel te laten verlopen. 

Dit kan worden geïmplementeerd via overheidsprojecten of onderlinge afspraken tussen bedrijven, waarbij AI-leiders afspreken om de groeisnelheid van de intelligentie van hun modellen te beperken. 

2: Internationale monitoring 

Ten tweede stellen ze voor om een internationaal agentschap voor superintelligentie op te richten, zoals de Internationale Organisatie voor Atoomenergie (IAEA), opgericht in 1957, om de risico's van opkomende nucleaire technologie te beperken. 

Regelgevende kaders die door het agentschap worden gecreëerd, zouden vrijwillig en via nationale regeringen worden geïmplementeerd. 

3: Publiek toezicht

Ten derde roept OpenAI op tot publieke betrokkenheid bij de regels rondom superintelligentie, door te suggereren dat het publiek toezicht moet houden op de "grenzen en standaardwaarden" van AI via een democratisch systeem. 

Altman, Sutskever en Brockman zeggen: "We weten nog niet hoe we zo'n mechanisme moeten ontwerpen, maar we zijn van plan om te experimenteren met de ontwikkeling ervan." OpenAI had eerder beschreven defaults als het "out-of-the-box" gedrag van een AI en grenzen als de grenzen die gesteld worden aan de mogelijkheden van de AI. 

OpenAI stelt ook dat open-source projecten die ontwikkeld worden onder een bepaalde capability "drempel" moeten worden aangemoedigd.

Ze stellen: "We geloven dat het onintuïtief riskant en moeilijk zou zijn om de creatie van superintelligentie te stoppen." 

Gezien de exponentiële groei van AI in het afgelopen decennium zou OpenAI's visie op een gereguleerd AI-landschap wel eens vooruitziend kunnen blijken.

De AI-industrie zal echter zeker op de proef worden gesteld door de oproep van het bedrijf om samen te werken en zich te laten reguleren. Tot nu toe is er weinig bewijs van samenwerking tussen AI-leiders.

Het zal een uitdaging zijn om concurrerende doelen te bevorderen en tegelijkertijd het publiek te beschermen - en als we OpenAI mogen geloven, is het nu tijd om actie te ondernemen op het gebied van AI-superintelligentie.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden