Sam Altman mener et internasjonalt byrå bør overvåke AI-modeller

13. mai 2024
  • OpenAI-sjef Sam Altman sier at et internasjonalt byrå bør overvåke de kraftigste AI-modellene
  • Altman sier at fremtidige AI-modeller kan være i stand til å forårsake betydelig global skade
  • Lovgivningen er kanskje ikke fleksibel nok til å ta høyde for AI-teknologier i rask endring

OpenAI Administrerende direktør, Sam Altman, sier at det bør opprettes et internasjonalt byrå som skal overvåke fremtidens kraftige AI-modeller for å sikre sikkerheten.

I et intervju på podcasten All-In, Altman sa at vi snart vil se nye AI-modeller som vil være betydelig kraftigere, og potensielt farligere.

Altman "Jeg tror det vil komme en tid i en ikke veldig fjern fremtid, som om vi ikke snakker om flere tiår fra nå, der avanserte AI-systemer er i stand til å forårsake betydelig global skade."

Den US og EU myndigheter har begge vedtatt lovgivning for å regulere kunstig intelligens, men Altman tror ikke at en rigid lovgivning kan holde tritt med den raske utviklingen innen kunstig intelligens. Han er også kritisk til individuelle US stater som forsøker å regulere AI på egen hånd.

Apropos forventede avanserte AI-systemer, Altman "Og for slike systemer har vi på samme måte som for atomvåpen eller syntetisk bioteknologi eller andre ting som virkelig kan ha en svært negativ innvirkning langt utover et enkelt lands grenser.

Jeg skulle gjerne sett et slags internasjonalt byrå som ser på de kraftigste systemene og sørger for en rimelig sikkerhetstesting."

Altman sa at denne typen internasjonalt tilsyn ville være nødvendig for å forhindre at en superintelligent AI kunne "unnslippe og rekursivt forbedre seg selv".

Altman erkjente at selv om det er nødvendig med tilsyn med kraftige AI-modeller, kan overregulering av AI kvele utviklingen.

Hans forslag til tilnærming ligner på internasjonal regulering av kjernekraft. Det internasjonale atomenergibyrået (IAEA) fører tilsyn med medlemsland som har tilgang til betydelige mengder kjernefysisk materiale.

"Hvis vi bare skal se på modeller som er trent på datamaskiner som koster mer enn 10 milliarder eller mer enn 100 milliarder dollar eller hva det nå måtte være, ville det vært greit for meg. Det ville være en linje som ville være bra. Og jeg tror ikke det legger noen regulatorisk byrde på oppstartsbedrifter", forklarte han.

Altman forklarte hvorfor han mente at byråtilnærmingen var bedre enn å forsøke å lovfeste AI.

"Grunnen til at jeg har presset på for en byråbasert tilnærming, er at vi skal se på helheten og ikke ... skrive det i lover, ... om 12 måneder vil alt være skrevet feil ... Og jeg tror ikke at selv om disse folkene var ekte verdenseksperter, så tror jeg ikke at de kunne få det til å stemme. Om 12 eller 24 måneder," sa han.

Når vil GPT-5 bli lansert?

På spørsmål om en lanseringsdato for GPT-5, Altman var som forventet lite imøtekommende, men antydet at det kanskje ikke vil skje slik vi tror.

"Vi tar oss god tid når vi lanserer store modeller... Jeg vet heller ikke om vi kommer til å kalle den GPT-5", sier han.

Altman pekte på de iterative forbedringene OpenAI har gjort på GPT-4 og sa at disse bedre indikerer hvordan selskapet vil rulle ut fremtidige forbedringer.

Så det virker som om det er mindre sannsynlig at vi får se en utgivelse av "GPT-5", og mer sannsynlig at vi får flere funksjoner lagt til i GPT-4.

Vi må vente på OpenAIoppdateringer senere i dag for å se om vi får noen flere ledetråder om hva ChatGPT endringer vi kan forvente å se.

Hvis du vil høre hele intervjuet, kan du Hør den her.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×
 
 

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI


 

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".



 
 

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser