MIT-professor fremhæver risikoen ved intens AI-udvikling

25. september 2023

MIT AI

Max Tegmark, MIT-professor, fysiker og medstifter af Future of Life Institute, har udtrykt bekymring over det ubarmhjertige tempo i udviklingen af kunstig intelligens. 

Han mener, at den intense konkurrence mellem teknologivirksomheder gør robust selvregulering mindre sandsynlig. 

I løbet af bare et år har store aktører som OpenAI og Google udgivet mindst to generationer af AI-modeller. 

GPT-4 repræsenterede en massiv forbedring i forhold til GPT-3.5 og slog sin parameterkonto med omkring fem til 10 gange 

Tidligere på året stod Tegmark i spidsen for et åbent brev, der opfordrede til en seks måneders pause i udviklingen af avancerede AI-systemer.

Brevet fik massiv støtte fra industriledere, politikere og forskellige offentlige personer med over 30.000 underskrivere, herunder Elon Musk og Apples medstifter, Steve Wozniak.

Brevet beskrev levende de potentielle farer ved uhæmmet AI-udvikling. Det opfordrede regeringerne til at gribe ind, hvis store AI-aktører som Google, OpenAI, Meta og Microsoft ikke kunne nå til enighed om, hvordan man udnytter AI's fordele og samtidig mindsker dens risici. 

Center for AI Safety (CAIS) sammenlignede AI-risici med atomkrig

Efter det første brev udsendte CAIS en erklæring, der blev bakket op af adskillige teknologiledere og akademikere, og som sammenlignede de samfundsmæssige risici ved kunstig intelligens med pandemier og atomkrig. 

Den I CAIS' erklæring står der"At mindske risikoen for udryddelse på grund af kunstig intelligens bør være en global prioritet på linje med andre samfundsmæssige risici som pandemier og atomkrig."

Men på trods af holdningen om, at selvregulering er nødvendig, indtil regulering træder i kraft, fortsatte tech-industrien stort set i samme tempo med AI-udviklingen. 

Tegmark reflekterede over brevets virkning og årsagerne til dets begrænsede succes med at standse udviklingen af kunstig intelligens, med angivelse af The Guardian"Jeg følte, at mange af de virksomhedsledere, jeg talte med, privat gerne ville have [en pause], men de var fanget i dette kapløb mod bunden mod hinanden. Så ingen virksomhed kan holde pause alene."

Tegmark bemærkede dog, at debatterne om øget politisk bevidsthed om AI-sikkerhed er ved at tage fart, og pegede på høringer i det amerikanske senat, Chuck Schumers første AI-indsigtsforumog novembers globalt topmøde om AI-sikkerhed i Storbritannien.

Fremadrettet advarede Tegmark mod at se udviklingen af en "gudelignende generel intelligens" som en fjern trussel og henviste til nogle i AI-samfundet, der mener, at realiseringen kan være tættere på, end mange forventer - nemlig OpenAI.

Tegmark afsluttede med at understrege vigtigheden af sikkerhedsstandarder i AI-udvikling og udtrykte bekymring over open source AI-modeller som Metas Llama 2. 

Han trak en parallel til andre stærke teknologier og advarede: "Farlig teknologi bør ikke være open source, uanset om det er biovåben eller software."

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser