Kampen mellan "AI-gudfäderna" - är AI riskabelt eller inte?!

2 november 2023

Risker med AI

AI är riskabelt, eller hur? Det är vad vi alla har fått höra under det senaste året. Men alla håller inte med, inklusive några toppforskare. 

X har varit fylld av diskussioner om huruvida AI utgör verkliga existentiella risker. Vi talar inte om felaktig information eller djupa förfalskningar - även om dessa redan är dåliga - utan risker i nivå med kärnkraftskatastrofer och pandemier.

Den här debatten har letts av Yann LeCun, skeptiker till AI-risker och Metas AI-chef, som anses vara en av de så kallade "AI-gudfäderna" tillsammans med Yoshua Bengio och Geoffrey Hinton. 

I LeCuns skottlinje finns OpenAI:s VD Sam Altman, DeepMinds VD Demis Hassabis och Anthropics VD Dario Amode, som LeCun anklagade för "massiv lobbyverksamhet från företag".

LeCun är särskilt oroad över att stora teknikchefer ökar chatten kring AI-risk och missbruk för att få tillsynsmyndigheter att låsa branschen till deras fördel.

Big tech har tänderna för att hantera regleringar, medan mindre företag och utvecklare av öppen källkod inte har det. LeCun tvivlar också på den ofta omtalade visionen om en AI-"singularitet" där tekniken plötsligt blir mer intelligent än människan och därmed signalerar en ny era av superintelligent AI. 

Andra, däribland Altman, har nu sagt att de förväntar sig att AI-utvecklingen ska vara mer detaljerad och progressiv snarare än att den ska "ta fart" över en natt.

Enligt LeCuns argument kan big tech använda AI-risker till sin fördel, vilket gör det möjligt för dem att förstärka marknadsstrukturer och stänga ute konkurrens. Den verkliga risken, enligt LeCun, är att ett fåtal utvalda AI-utvecklare äger branschen och dikterar dess utveckling. 

Han betonade allvaret i situationen och konstaterade: "Om dessa ansträngningar lyckas skulle resultatet bli en katastrof eftersom ett litet antal företag kommer att kontrollera AI." Detta uttalande speglar den bredare enigheten i teknikvärlden om AI:s omvandlingspotential och jämställer dess betydelse med mikrochipet eller internet.

LeCuns kommentarer var ett svar på den kände fysikern Max Tegmark, som hade antytt att LeCun inte tog de existentiella riskerna med AI på tillräckligt stort allvar.

I ett offentligt inlägg erkände Tegmark de globala ledarnas ansträngningar för att erkänna de potentiella farorna med AI och sade att de "inte kan motbevisas med snark och företagslobbying ensam."

I takt med att AI:s inflytande ökat har personer som Altman och Hassabis blivit centrala i det offentliga samtalet om teknik. LeCun kritiserar dem dock för att underblåsa rädslan för AI samtidigt som de drar nytta av den.

I mars deltog över tusen teknikledare, däribland Elon Musk, Altman och Hassabis, förespråkade en paus i AI-utvecklingen, med hänvisning till betydande samhälleliga och humanitära risker.

LeCun hävdar dock att dessa dramatiska varningar är en rökridå som avleder uppmärksamheten från omedelbara frågor som utnyttjande av arbetstagare och datastöld.

LeCun efterlyser en ny inriktning på diskussionen om AI-utvecklingens nuvarande och omedelbara framtid. Han uttryckte sin oro över den potentiella utplåningen av AI-samhället med öppen källkod om AI-utvecklingen begränsas till privata, vinstdrivande enheter.

För LeCun är det mycket som står på spel: "Alternativet, som oundvikligen kommer att inträffa om AI med öppen källkod regleras bort, är att ett litet antal företag från USA:s västkust och Kina kommer att kontrollera AI-plattformen och därmed kontrollera människors hela digitala kost", varnade han och uppmanade till eftertanke kring konsekvenserna för demokrati och kulturell mångfald.

LeCuns stödjare

LeCuns argument är väl underbyggda i sociala medier och vinner gehör bland kommentatorer och branschexperter.

Andrew Ng, en central person inom AI-utvecklingen och medgrundare av Google Brain, uttryckte också oro över att stora teknikföretag kan manipulera diskussionen om AI för att få marknadsdominans.


I en intervju med The Australian Financial Review lyfte Ng fram en trend bland teknikjättar att förstärka rädslan för AI, särskilt tanken att det skulle kunna leda till att människan utrotas. Liksom LeCun och andra föreslår han att denna berättelse används strategiskt för att få till stånd strängare AI-reglering och därigenom hindra initiativ med öppen källkod och mindre konkurrenter.

"Det finns definitivt stora teknikföretag som helst inte vill behöva försöka konkurrera med öppen källkod, så de skapar rädsla för att AI ska leda till att människan utrotas", förklarade Ng. "Det har varit ett vapen för lobbyister för att argumentera för lagstiftning som skulle vara mycket skadlig för open source-communityn."

Tidigare under åretI ett läckt PM från Google verkar det som om Big Tech håller på att tappa mark till Open Source. 

I PM:et stod det: "Modeller med öppen källkod är snabbare, mer anpassningsbara, mer privata och mer kapabla. De gör saker med $100 och 13B params som vi kämpar med på $10M och 540B. Och de gör det på veckor, inte månader."

AI med öppen källkod är snabb, icke-monolitisk, privat och, framför allt, billig. Big tech är redan kämpar för att tjäna pengar på AISå på papperet är det logiskt: reglera AI-industrin för att hjälpa titanerna att segra. 

Distraktion från omedelbara hot

Det finns en annan dimension i denna debatt som går utöver pengar.

Många har upprepat att de risker som finns med AI, t.ex. extremt sofistikerade djupförfalskningar och felaktig information, redan är tillräckliga för att motivera en lång debatt och snabba åtgärder. 

Aidan Gomez, en framstående forskare inom AI och vd för Cohere, lyfte också fram risken med att fokusera för mycket på domedagsscenarier. 

I ett anförande inför veckans Toppmöte om AI-säkerhet, påpekade Gomez att omedelbara hot som felaktig information och urholkning av det sociala förtroendet överskuggas av diskussioner om långsiktiga existentiella risker.

"Jag tror att när det gäller existentiella risker och offentlig politik är det inte ett produktivt samtal att föra", sade Gomez och betonade behovet av att prioritera omedelbara risker.

"När det gäller den offentliga politiken och var vi bör ha den offentliga sektorns fokus - eller att försöka mildra risken för civilbefolkningen - tror jag att det utgör en distraktion, bort från risker som är mycket mer påtagliga och omedelbara."

Gomez lyfter fram AI:s genomgripande inflytande i produkter som används av miljarder människor och betonar det akuta behovet av att hantera risker som aktivt påverkar allmänheten. "Den här tekniken finns redan i en miljard användarprodukter, till exempel hos Google och andra. Det innebär en mängd nya risker att diskutera, men ingen av dem är existentiell, ingen av dem är domedagsscenarier", förklarade han. 

Han identifierar felaktig information som ett primärt problem, med tanke på AI-modellernas förmåga att skapa media som är "praktiskt taget omöjliga att skilja från text, bilder eller media som skapats av människor".

Felaktig information är verkligen samhällets fiende nummer ett när det gäller AI-risker, med tanke på att vi redan har sett exempel på att djupa förfalskningar används i framgångsrika bedrägerier.

Djupa förfalskningar utplacerade före posttid vid det slovakiska valet visade hur de på ett konkret sätt kan påverka demokratin. 

Yoshua Bengio, Geoffrey Hinton och Elon Musk deltar i debatten

"AI-gudfadern" Yoshua Bengio, tillsammans med en samling på över 200 teknikledare och forskare, ställde sig bakom ett öppet brev som lyfter fram det kritiska behovet av omedelbara och omfattande åtgärder.

Bengio står nu i spetsen för en internationell rapport som presenterades vid AI Safety Summit i Storbritannien. Han är i likhet med Geoffrey Hinton mycket övertygad om riskerna med AI, vilket innebär att 2/3 av "AI-gudfäderna" är oroliga på någon nivå. 


På hans hemsida, Bengio skrev"Jag skrev nyligen under ett öppet brev där jag bad om att bromsa utvecklingen av gigantiska AI-system som är mer kraftfulla än GPT-4 - de som för närvarande klarar Turing-testet och därmed kan lura en människa att tro att den pratar med en jämlike snarare än en maskin."

Geoffrey Hinton från AI-gudfaderns triumvirat hade lämnat Google för att "tala ut" om sin rädsla för AI. Han gick så långt som att säga att han ångrade sitt arbete på grund av hur AI kunde missbrukas och sa i en intervju: "Jag tröstar mig med den normala ursäkten: Om jag inte hade gjort det skulle någon annan ha gjort det."

Hinton, liksom Bengio, stöder uppfattningen att AI medför allvarliga risker på utrotningsnivå. Han tvivlar också på att modeller med öppen källkod skulle kunna stödja säkerhetsarbetet. 

Han framhöll nyligen att hans val att lämna Google inte stämde överens med LeCun et al.s kritiska hållning, och sade på X: "Andrew Ng hävdar att idén om att AI skulle kunna utplåna oss är en big-tech-konspiration. En datapunkt som inte passar in i denna konspirationsteori är att jag lämnade Google så att jag kunde tala fritt om det existentiella hotet."

Hinton, Bengio och andra framstående AI-forskare, däribland den inflytelserika kinesiska datavetaren Andrew Yao, har nyligen backade upp ett papper beskriva AI:s risker.

Hinton säger: "Företagen planerar att inom 18 månader träna modeller med 100 gånger mer databehandling än dagens toppmoderna modeller. Ingen vet hur kraftfulla de kommer att vara. Och det finns i princip ingen reglering av vad de kommer att kunna göra med dessa modeller."

Denna debatt går vidare och kommer att fortsätta att göra det.

En X-användare uttryckte sig på följande sätt:


LeCun har en annan antagonist i Elon Musk, som sällan är frånvarande från en X-debatt på hög nivå, särskilt inte en som sitter fast i hans styrhus (för att inte tala om hans plattform).

Musk har en väldokumenterad historia av att uttrycka sin oro över AI, men hans hållning har blivit mycket oförutsägbar.

På senare tid har Musk konsekvent pekat ut AI som ett potentiellt existentiellt hot mot mänskligheten och sagt att utvecklingen av komplex AI var som att "kalla på demonen". Vid AI Safety Summit sade han dock att han trodde att AI skulle ge positiva nettofördelar. 

Under de senaste månaderna har Musk kritiserat OpenAI och påpekat att organisationen avviker från sitt ursprungliga uppdrag och uttryckt oro över dess inriktning mot "sluten källkod", som är starkt influerad av Microsoft. 

Både Musk och LeCun är i stort sett överens i sin kritik av AI med sluten källkod, vilket visar att man inte alltid behöver fördöma öppen källkod för att framhålla riskerna med AI.

När det gäller öppen källkod, låt oss se vad Musk väljer att göra med alla produkter som hans AI-startupen xAI släpper.

Google DeepMind-chef slår tillbaka mot LeCuns "skrämselpropaganda"-påstående

Chefen för Google DeepMind, Demis Hassabis, svarade på anklagelserna från LeCun och anklagade bolaget för att bedriva omfattande lobbyverksamhet för att dominera AI-industrin. 

I en intervju med CNBCHassabis betonade att DeepMinds engagemang i AI-diskussioner inte är ett försök att uppnå "regulatory capture".

Som svar på dessa påståenden sade Hassabis: "Jag håller inte alls med om de flesta av dessa kommentarer från Yann." 

Han beskrev tre huvudkategorier av risker förknippade med AI och betonade vikten av att ta itu med omedelbara frågor som felaktig information, djupa förfalskningar och partiskhet, samtidigt som man också beaktar det potentiella missbruket av AI av illvilliga aktörer och långsiktiga risker förknippade med artificiell allmän intelligens (AGI). 

Han förespråkade att man skulle inleda samtal om reglering av superintelligent AI tidigare snarare än senare för att undvika allvarliga konsekvenser.

Hassabis framhöll AI-teknikens globala karaktär och betonade behovet av internationellt samarbete, bland annat med Kina, för att fastställa standarder för ansvarsfull utveckling och reglering. 

Både han och James Manyika, Googles senior vice president för forskning, teknik och samhälle, uttryckte en önskan om att se ett globalt samförstånd om AI. Hassabis deltog i Storbritanniens AI Safety Summit, där han anslöt sig till världsledarnas åsikt att betona AI-säkerhet och tillsyn. 

Trots de pågående tekniska spänningarna mellan USA och Kina och de amerikanska teknikjättarnas tvekan inför att bedriva kommersiellt arbete i Kina, betonade Hassabis nödvändigheten av kommunikation och sa: "Jag tror att vi måste prata med alla i det här skedet."

Finns det någon medelväg?

Diskussionerna om AI:s potentiella risker och de nödvändiga regleringsåtgärderna håller på att nå en kritisk punkt.

Under de senaste veckorna har de "officiella samtalen" om AI ökat lavinartat, men reglering är fortfarande på gång.

USA:s reglering och EU:s AI Act kommer att lägga den första hårda grunden för styrning av AI. 

LeCuns hörn gör ett övertygande argument kring AI-intäktsgenerering inför konkurrens med öppen källkod. Från Googles läckta memo till de sammanhängande existentiella riskerna som läggs fram av stora tekniska chefer i mainstream media, har han och hans stödjare gott om ammunition. 

Bristen på samsyn går dock djupare än till huvudena på de vinstdrivande AI-utvecklarna på Microsoft, DeepMind, Anthropic och så vidare.

Bengio och Hinton är i huvudsak partipolitiskt obundna, och den framlidne professor Stephen Hawking har t.ex. sagt att det "kan innebära slutet för mänskligheten" och kan visa sig vara den "värsta händelsen i vår civilisations historia". 

Forskare har visat att AI-system har förmåga att självständigt utveckla framväxande målvilket kan få katastrofala följder om det inte hanteras på rätt sätt. Andra experiment har visat att AI-system aktivt kan söka resurser, samla kraft och vidta åtgärder för att förhindra att de stängs av. 

Det finns starka bevis för AI-relaterade skador, men står de i proportion till de larmklockor som de stora teknikcheferna ringer i?

Och kanske ännu viktigare: kan man verkligen lita på att de hanterar branschen på ett etiskt sätt för alla, oavsett om det finns risker eller inte?

Vi kanske ska se big tech-bolagens agerande som den ultimata chansningen.

AI är sannolikt riskabelt, men ett fåtal utvalda företag vill äga den risken, driva den till dess yttersta gränser och forma den som de vill, på rätt eller fel sätt.

Big tech kan ladda spelet så att huset alltid vinner så länge det står kvar. 

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar