MIT-professor belyser riskerna med intensiv AI-utveckling

25 september 2023

MIT AI

Max Tegmark, MIT-professor, fysiker och medgrundare av Future of Life Institute, har uttryckt oro över den obevekliga takten i AI-utvecklingen. 

Han menar att den intensiva konkurrensen mellan teknikföretagen gör det mindre sannolikt med en robust självreglering. 

Inom loppet av bara ett år har stora aktörer som OpenAI och Google lanserat minst två generationer av AI-modeller. 

GPT-4 innebar en enorm förbättring jämfört med GPT-3.5 och överträffade dess parameterkonto med cirka fem till tio gånger 

Tidigare i år gick Tegmark i spetsen för ett öppet brev där han efterlyste en sex månader lång paus i utvecklingen av avancerade AI-system.

Brevet fick ett massivt stöd från branschledare, politiker och olika offentliga personer, med över 30.000 undertecknare, däribland Elon Musk och Apples medgrundare Steve Wozniak.

Brevet beskrev på ett levande sätt de potentiella farorna med en ohämmad AI-utveckling. Det uppmanade regeringar att ingripa om stora AI-aktörer, som Google, OpenAI, Meta och Microsoft, inte kunde nå ett samförstånd om hur man kan utnyttja AI: s fördelar och samtidigt mildra dess risker. 

Center for AI Safety (CAIS) jämförde AI-risker med kärnvapenkrig

Efter det första brevet utfärdade CAIS ett uttalande som stöddes av många teknikledare och akademiker, där man jämförde de samhällsrisker som AI medför med pandemier och kärnvapenkrig. 

Den CAIS uttalande sade, "Att minska risken för utrotning på grund av AI bör vara en global prioritering vid sidan av andra samhällsrisker som pandemier och kärnvapenkrig."

Trots uppfattningen att självreglering är nödvändig tills reglering träder i kraft fortsatte dock teknikindustrin i stort sett i samma takt som AI-utvecklingen. 

Tegmark reflekterade över brevets genomslagskraft och orsakerna till dess begränsade framgångar när det gäller att stoppa AI-utvecklingen, med hänvisning till The Guardian"Jag kände att många företagsledare som jag talade med privat ville ha [en paus], men de var fångade i denna kapplöpning mot botten mot varandra. Så inget företag kan ta en paus på egen hand."

Tegmark noterade dock att debatterna kring ökad politisk medvetenhet om AI-säkerhet ökar, och pekade på utfrågningar i den amerikanska senaten, Chuck Schumers första AI Insight Forum, och november månads globalt toppmöte om AI-säkerhet i Storbritannien.

När Tegmark blickade framåt varnade han för att se utvecklingen av en "gudaliknande allmän intelligens" som ett avlägset hot, och hänvisade till vissa i AI-samhället som tror att förverkligandet kan vara närmare än vad många förväntar sig - nämligen OpenAI.

Tegmark avslutade med att betona vikten av säkerhetsstandarder inom AI-utveckling och uttryckte oro över AI-modeller med öppen källkod, som Metas Llama 2. 

Han drog en parallell till annan kraftfull teknik och varnade: "Farlig teknik bör inte ha öppen källkod, oavsett om det handlar om biologiska vapen eller programvara."

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar