Max Tegmark, MIT-professor, fysiker och medgrundare av Future of Life Institute, har uttryckt oro över den obevekliga takten i AI-utvecklingen.
Han menar att den intensiva konkurrensen mellan teknikföretagen gör det mindre sannolikt med en robust självreglering.
Inom loppet av bara ett år har stora aktörer som OpenAI och Google lanserat minst två generationer av AI-modeller.
GPT-4 innebar en enorm förbättring jämfört med GPT-3.5 och överträffade dess parameterkonto med cirka fem till tio gånger
Tidigare i år gick Tegmark i spetsen för ett öppet brev där han efterlyste en sex månader lång paus i utvecklingen av avancerade AI-system.
Brevet fick ett massivt stöd från branschledare, politiker och olika offentliga personer, med över 30.000 undertecknare, däribland Elon Musk och Apples medgrundare Steve Wozniak.
Brevet beskrev på ett levande sätt de potentiella farorna med en ohämmad AI-utveckling. Det uppmanade regeringar att ingripa om stora AI-aktörer, som Google, OpenAI, Meta och Microsoft, inte kunde nå ett samförstånd om hur man kan utnyttja AI: s fördelar och samtidigt mildra dess risker.
Center for AI Safety (CAIS) jämförde AI-risker med kärnvapenkrig
Efter det första brevet utfärdade CAIS ett uttalande som stöddes av många teknikledare och akademiker, där man jämförde de samhällsrisker som AI medför med pandemier och kärnvapenkrig.
Den CAIS uttalande sade, "Att minska risken för utrotning på grund av AI bör vara en global prioritering vid sidan av andra samhällsrisker som pandemier och kärnvapenkrig."
Trots uppfattningen att självreglering är nödvändig tills reglering träder i kraft fortsatte dock teknikindustrin i stort sett i samma takt som AI-utvecklingen.
Tegmark reflekterade över brevets genomslagskraft och orsakerna till dess begränsade framgångar när det gäller att stoppa AI-utvecklingen, med hänvisning till The Guardian"Jag kände att många företagsledare som jag talade med privat ville ha [en paus], men de var fångade i denna kapplöpning mot botten mot varandra. Så inget företag kan ta en paus på egen hand."
Tegmark noterade dock att debatterna kring ökad politisk medvetenhet om AI-säkerhet ökar, och pekade på utfrågningar i den amerikanska senaten, Chuck Schumers första AI Insight Forum, och november månads globalt toppmöte om AI-säkerhet i Storbritannien.
När Tegmark blickade framåt varnade han för att se utvecklingen av en "gudaliknande allmän intelligens" som ett avlägset hot, och hänvisade till vissa i AI-samhället som tror att förverkligandet kan vara närmare än vad många förväntar sig - nämligen OpenAI.
Tegmark avslutade med att betona vikten av säkerhetsstandarder inom AI-utveckling och uttryckte oro över AI-modeller med öppen källkod, som Metas Llama 2.
Han drog en parallell till annan kraftfull teknik och varnade: "Farlig teknik bör inte ha öppen källkod, oavsett om det handlar om biologiska vapen eller programvara."