MIT-professor fremhever risikoen ved intens AI-utvikling

25. september 2023

MIT AI

Max Tegmark, MIT-professor, fysiker og medstifter av Future of Life Institute, har uttrykt bekymring for det ubarmhjertige tempoet i utviklingen av kunstig intelligens. 

Han mener at den intense konkurransen mellom teknologibedriftene gjør det mindre sannsynlig med en robust selvregulering. 

I løpet av bare ett år har store aktører som OpenAI og Google lansert minst to generasjoner av AI-modeller. 

GPT-4 representerte en massiv forbedring i forhold til GPT-3.5, og slo parameterregnskapet med fem til ti ganger 

Tidligere i år gikk Tegmark i spissen for et åpent brev der han etterlyste en pause på seks måneder i utviklingen av avanserte AI-systemer.

Brevet fikk massiv støtte fra industriledere, politikere og ulike offentlige personer, med over 30 000 underskrivere, deriblant Elon Musk og Apples medgrunnlegger, Steve Wozniak.

Brevet beskrev på en levende måte de potensielle farene ved en uhemmet utvikling av kunstig intelligens. Det oppfordret myndighetene til å gripe inn hvis store AI-aktører, som Google, OpenAI, Meta og Microsoft, ikke kunne komme til enighet om hvordan man kan utnytte fordelene ved AI og samtidig redusere risikoen. 

Center for AI Safety (CAIS) sammenlignet risikoen ved kunstig intelligens med atomkrig

Etter det første brevet sendte CAIS ut en uttalelse som ble støttet av en rekke teknologiledere og akademikere, og som sammenlignet samfunnsrisikoen ved kunstig intelligens med risikoen ved pandemier og atomkrig. 

Den I en uttalelse fra CAIS heter det"Å redusere risikoen for utryddelse som følge av kunstig intelligens bør være en global prioritet på linje med andre samfunnsmessige risikoer som pandemier og atomkrig."

Men til tross for at man mener at selvregulering er nødvendig inntil reguleringen trer i kraft, har teknologibransjen stort sett fortsatt i samme tempo i utviklingen av AI. 

Tegmark reflekterte over brevets gjennomslagskraft og årsakene til at det i begrenset grad lyktes å stanse utviklingen av kunstig intelligens, og uttalte til The Guardian"Jeg følte at mange bedriftsledere jeg snakket med ønsket [en pause], men at de var fanget i et kappløp mot hverandre. Så ingen selskaper kan ta en pause alene."

Tegmark bemerket imidlertid at debattene rundt økt politisk bevissthet om AI-sikkerhet er i ferd med å ta seg opp, og pekte på høringer i det amerikanske senatet, Chuck Schumers første AI Insight Forum, og novembers globalt toppmøte om AI-sikkerhet i Storbritannia.

Tegmark advarte mot å se utviklingen av en "gudelignende generell intelligens" som en fjern trussel, og refererte til noen i AI-miljøet som mener at realiseringen av en slik intelligens kan være nærmere enn mange tror - nemlig OpenAI.

Tegmark avsluttet med å understreke viktigheten av sikkerhetsstandarder i AI-utviklingen og uttrykte bekymring over AI-modeller med åpen kildekode, som Metas Llama 2. 

Han trakk en parallell til andre potente teknologier, og advarte: "Farlig teknologi bør ikke være åpen kildekode, enten det dreier seg om biovåpen eller programvare."

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser