Max Tegmark, MIT-professor, fysiker og medstifter af Future of Life Institute, har udtrykt bekymring over det ubarmhjertige tempo i udviklingen af kunstig intelligens.
Han mener, at den intense konkurrence mellem teknologivirksomheder gør robust selvregulering mindre sandsynlig.
I løbet af bare et år har store aktører som OpenAI og Google udgivet mindst to generationer af AI-modeller.
GPT-4 repræsenterede en massiv forbedring i forhold til GPT-3.5 og slog sin parameterkonto med omkring fem til 10 gange
Tidligere på året stod Tegmark i spidsen for et åbent brev, der opfordrede til en seks måneders pause i udviklingen af avancerede AI-systemer.
Brevet fik massiv støtte fra industriledere, politikere og forskellige offentlige personer med over 30.000 underskrivere, herunder Elon Musk og Apples medstifter, Steve Wozniak.
Brevet beskrev levende de potentielle farer ved uhæmmet AI-udvikling. Det opfordrede regeringerne til at gribe ind, hvis store AI-aktører som Google, OpenAI, Meta og Microsoft ikke kunne nå til enighed om, hvordan man udnytter AI's fordele og samtidig mindsker dens risici.
Center for AI Safety (CAIS) sammenlignede AI-risici med atomkrig
Efter det første brev udsendte CAIS en erklæring, der blev bakket op af adskillige teknologiledere og akademikere, og som sammenlignede de samfundsmæssige risici ved kunstig intelligens med pandemier og atomkrig.
Den I CAIS' erklæring står der"At mindske risikoen for udryddelse på grund af kunstig intelligens bør være en global prioritet på linje med andre samfundsmæssige risici som pandemier og atomkrig."
Men på trods af holdningen om, at selvregulering er nødvendig, indtil regulering træder i kraft, fortsatte tech-industrien stort set i samme tempo med AI-udviklingen.
Tegmark reflekterede over brevets virkning og årsagerne til dets begrænsede succes med at standse udviklingen af kunstig intelligens, med angivelse af The Guardian"Jeg følte, at mange af de virksomhedsledere, jeg talte med, privat gerne ville have [en pause], men de var fanget i dette kapløb mod bunden mod hinanden. Så ingen virksomhed kan holde pause alene."
Tegmark bemærkede dog, at debatterne om øget politisk bevidsthed om AI-sikkerhed er ved at tage fart, og pegede på høringer i det amerikanske senat, Chuck Schumers første AI-indsigtsforumog novembers globalt topmøde om AI-sikkerhed i Storbritannien.
Fremadrettet advarede Tegmark mod at se udviklingen af en "gudelignende generel intelligens" som en fjern trussel og henviste til nogle i AI-samfundet, der mener, at realiseringen kan være tættere på, end mange forventer - nemlig OpenAI.
Tegmark afsluttede med at understrege vigtigheden af sikkerhedsstandarder i AI-udvikling og udtrykte bekymring over open source AI-modeller som Metas Llama 2.
Han trak en parallel til andre stærke teknologier og advarede: "Farlig teknologi bør ikke være open source, uanset om det er biovåben eller software."