Max Tegmark, MIT-professor, fysiker og medstifter av Future of Life Institute, har uttrykt bekymring for det ubarmhjertige tempoet i utviklingen av kunstig intelligens.
Han mener at den intense konkurransen mellom teknologibedriftene gjør det mindre sannsynlig med en robust selvregulering.
I løpet av bare ett år har store aktører som OpenAI og Google lansert minst to generasjoner av AI-modeller.
GPT-4 representerte en massiv forbedring i forhold til GPT-3.5, og slo parameterregnskapet med fem til ti ganger
Tidligere i år gikk Tegmark i spissen for et åpent brev der han etterlyste en pause på seks måneder i utviklingen av avanserte AI-systemer.
Brevet fikk massiv støtte fra industriledere, politikere og ulike offentlige personer, med over 30 000 underskrivere, deriblant Elon Musk og Apples medgrunnlegger, Steve Wozniak.
Brevet beskrev på en levende måte de potensielle farene ved en uhemmet utvikling av kunstig intelligens. Det oppfordret myndighetene til å gripe inn hvis store AI-aktører, som Google, OpenAI, Meta og Microsoft, ikke kunne komme til enighet om hvordan man kan utnytte fordelene ved AI og samtidig redusere risikoen.
Center for AI Safety (CAIS) sammenlignet risikoen ved kunstig intelligens med atomkrig
Etter det første brevet sendte CAIS ut en uttalelse som ble støttet av en rekke teknologiledere og akademikere, og som sammenlignet samfunnsrisikoen ved kunstig intelligens med risikoen ved pandemier og atomkrig.
Den I en uttalelse fra CAIS heter det"Å redusere risikoen for utryddelse som følge av kunstig intelligens bør være en global prioritet på linje med andre samfunnsmessige risikoer som pandemier og atomkrig."
Men til tross for at man mener at selvregulering er nødvendig inntil reguleringen trer i kraft, har teknologibransjen stort sett fortsatt i samme tempo i utviklingen av AI.
Tegmark reflekterte over brevets gjennomslagskraft og årsakene til at det i begrenset grad lyktes å stanse utviklingen av kunstig intelligens, og uttalte til The Guardian"Jeg følte at mange bedriftsledere jeg snakket med ønsket [en pause], men at de var fanget i et kappløp mot hverandre. Så ingen selskaper kan ta en pause alene."
Tegmark bemerket imidlertid at debattene rundt økt politisk bevissthet om AI-sikkerhet er i ferd med å ta seg opp, og pekte på høringer i det amerikanske senatet, Chuck Schumers første AI Insight Forum, og novembers globalt toppmøte om AI-sikkerhet i Storbritannia.
Tegmark advarte mot å se utviklingen av en "gudelignende generell intelligens" som en fjern trussel, og refererte til noen i AI-miljøet som mener at realiseringen av en slik intelligens kan være nærmere enn mange tror - nemlig OpenAI.
Tegmark avsluttet med å understreke viktigheten av sikkerhetsstandarder i AI-utviklingen og uttrykte bekymring over AI-modeller med åpen kildekode, som Metas Llama 2.
Han trakk en parallell til andre potente teknologier, og advarte: "Farlig teknologi bør ikke være åpen kildekode, enten det dreier seg om biovåpen eller programvare."