OpenAI bygger et nytt "Preparedness"-team for å håndtere AIs eksistensielle risikoer

29. oktober 2023

OpenAI AGI

OpenAI har satt sammen et team av eksperter med navnet "Preparedness", som har som mål å redusere de "katastrofale" risikoene forbundet med AI.

Dette kommer ikke lenge etter at OpenAI i en omfattende omprofilerte seg som et AGI-sentrert selskap. Det nye teamet skal evaluere både nåværende og fremtidige AI-modeller med tanke på risiko. 

Risikoer spesifisert av OpenAI individualisert overtalelse (skreddersøm av budskap til akkurat det mottakeren ønsker å høre), trusler mot cybersikkerheten, autonom replikasjon, tilpasning (AI som endrer seg selv på egen hånd) og til og med eksistensielle trusler som kjemiske, biologiske og kjernefysiske angrep.

Ekspertene er i stor grad uenige om hvorvidt AIs eksistensielle risikoer er drevet av hype eller er praktisk realistiske, selv om de fleste er enige om at dagens problemer, som for eksempel AI deep fakes, allerede er svært forstyrrende. 

OpenAIs uttalelse om saken er klar: "Vi mener at de fremste AI-modellene, som vil overgå kapasiteten til de mest avanserte eksisterende modellene, har potensial til å være til nytte for hele menneskeheten. Men de utgjør også en stadig større risiko." 

Kunstig generell intelligens - AGI - definerer AI-modeller som tilsvarer og overgår menneskelig kognisjon på tvers av flere modaliteter. 

OpenAIs administrerende direktør Sam Altman har gjort sin intensjon om å skape slike modeller tydeligmen begrepet AGI i reelle termer er fortsatt høyst spekulativt. 

Altman har nylig innrømmet på Joe Rogan-podcasten at AI ikke hadde utviklet seg som han hadde forventet. AGI vil kanskje ikke oppstå spontant som en "singularitet", men sakte i løpet av det kommende tiåret eller så. 

OpenAI om beredskap

I en nylig blogginnlegg, OpenAI Safety & Alignment og Community-teamene fremhevet organisasjonens pågående engasjement for å håndtere hele spekteret av sikkerhetsrisikoer knyttet til AI.

Dette trekket kommer etter at OpenAI, sammen med andre fremtredende AI-laboratorier, frivillig forpliktet for å opprettholde trygghet, sikkerhet og tillit i utviklingen av kunstig intelligens som en del av et samarbeid med Det hvite hus. 

Beredskapsteamet ledes av OpenAI-forsker Aleksander Madry. Teamet vil være avgjørende for å vurdere kapasiteter, gjennomføre evalueringer og utføre intern red teaming for frontier-modeller, alt fra nær fremtidsutvikling til AGI-modeller. 

I tillegg skal teamet utvikle og vedlikeholde en "policy for risikoinformert utvikling" (RDP), som beskriver en tilnærming til evaluering og overvåking av grensemodellenes kapasitet, implementering av beskyttelsestiltak og etablering av styringsstrukturer for ansvarlighet og tilsyn.

OpenAI lanserer også "AI Preparedness Challenge" for å avdekke områder der AI misbrukes. 

Utfordringen vil belønne de beste bidragene med $25 000 i API-kreditter, publisere nye ideer og bidrag, og potensielt rekruttere kandidater til beredskapsteamet. 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser