OpenAI bouwt nieuw "Preparedness" team om met AI's existentiële risico's om te gaan

29 oktober 2023

OpenAI AGI

OpenAI heeft een team van experts samengesteld onder de naam "Preparedness", met als doel de "catastrofale" risico's van AI te beperken.

Dit komt niet lang nadat OpenAI uitgebreid zichzelf omgedoopt tot een AGI-gericht bedrijf. Het nieuwe team houdt zich bezig met het evalueren van zowel huidige als toekomstige AI-modellen op risico's. 

Risico's gespecificeerd door OpenAI geïndividualiseerde overtuigingskracht (berichten precies afstemmen op wat de ontvanger wil horen), bedreigingen voor cyberveiligheid, autonome replicatie, aanpassing (AI die zichzelf zelfstandig verandert) en zelfs existentiële bedreigingen zoals chemische, biologische en nucleaire aanvallen.

Experts zijn het er grotendeels over eens of de existentiële risico's van AI door een hype zijn ingegeven of praktisch realistisch zijn, hoewel de meesten het erover eens zijn dat de huidige problemen, zoals AI-fraude, al enorm ontwrichtend zijn. 

OpenAI's verklaring hierover is duidelijk: "Wij geloven dat grensverleggende AI-modellen, die de capaciteiten van de meest geavanceerde bestaande modellen zullen overtreffen, het potentieel hebben om de hele mensheid ten goede te komen. Ze brengen echter ook steeds grotere risico's met zich mee." 

Kunstmatige algemene intelligentie - AGI - definieert AI-modellen die de menselijke cognitie in meerdere modaliteiten evenaren en overtreffen. 

OpenAI CEO Sam Altman heeft zijn voornemen om dergelijke modellen duidelijk te makenmaar het concept van AGI in reële termen blijft zeer speculatief. 

Altman onlangs toegegeven op de podcast van Joe Rogan dat AI zich niet had ontwikkeld zoals hij had verwacht. AGI zal misschien niet spontaan ontstaan als een 'singulariteit', maar langzaam in de loop van het komende decennium of zo. 

OpenAI op paraatheid

In een recente blogpostDe teams van OpenAI Safety & Alignment en Community benadrukten de voortdurende inzet van de organisatie om het volledige spectrum van veiligheidsrisico's in verband met AI aan te pakken.

Deze stap komt nadat OpenAI, samen met andere prominente AI-laboratoria, vrijwillig gepleegd voor het handhaven van veiligheid, beveiliging en vertrouwen in AI-ontwikkeling als onderdeel van een samenwerking met het Witte Huis. 

Het Preparedness-team wordt geleid door OpenAI-onderzoeker Aleksander Madry. Het team zal cruciaal zijn in het beoordelen van capaciteiten, het uitvoeren van evaluaties en het uitvoeren van interne red teaming voor grensverleggende modellen, variërend van ontwikkelingen in de nabije toekomst tot AGI-modellen. 

Daarnaast zal het team een "Risk-Informed Development Policy (RDP)" ontwikkelen en onderhouden, waarin een aanpak wordt beschreven voor het evalueren en bewaken van de capaciteiten van grensmodel, het implementeren van beschermende maatregelen en het opzetten van bestuursstructuren voor verantwoording en toezicht.

OpenAI lanceert ook de "AI Preparedness Challenge" om gebieden van AI-misbruik bloot te leggen. 

De uitdaging beloont de beste inzendingen met $25.000 aan API-credits, publiceert nieuwe ideeën en inzendingen en werft mogelijk kandidaten voor het Preparedness-team. 

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden