Det berömda talesättet: "Ju mer vi vet, desto mer vet vi inte", stämmer verkligen in på AI.
Ju mer vi lär oss om AI, desto mindre verkar vi veta säkert.
Experter och branschledare hamnar ofta i bittra meningsskiljaktigheter om var AI befinner sig nu och vart det är på väg. De lyckas inte enas om till synes elementära begrepp som maskinintelligens, medvetande och säkerhet.
Kommer maskinerna en dag att överträffa sina mänskliga skapares intellekt? Accelererar AI-utvecklingen mot en teknisk singularitet, eller står vi inför en AI-vinter?
Och kanske viktigast av allt: hur kan vi se till att AI-utvecklingen förblir säker och gynnsam när experterna inte kan enas om vad framtiden bär med sig?
AI är nedsänkt i en dimma av osäkerhet. Det bästa vi kan göra är att utforska olika perspektiv och komma fram till välgrundade, men ändå flytande åsikter om en bransch i ständig förändring.
Debatt ett: AI-intelligens
Med varje ny generation av generativa AI-modeller följer en förnyad debatt om maskinintelligens.
Elon Musk eldade nyligen på debatten om AI-intelligens när han sa: "AI kommer förmodligen att vara smartare än någon enskild människa nästa år. År 2029 är AI förmodligen smartare än alla människor tillsammans."
Nästa år kommer AI förmodligen att vara smartare än någon enskild människa. År 2029 är AI förmodligen smartare än alla människor tillsammans. https://t.co/RO3g2OCk9x
- Elon Musk (@elonmusk) 13 mars 2024
Musk ifrågasattes omedelbart av Metas chef AI-forskare och framstående AI-forskare, Yann LeCun, som sa: "Nej. Om det var fallet skulle vi ha AI-system som kunde lära sig att köra bil på 20 timmars övning, som alla 17-åringar. Men vi har fortfarande inte helt autonom, tillförlitlig självkörning, trots att vi (du) har miljontals timmar av *märkt* träningsdata."
Nej, det gör jag inte.
Om så vore fallet skulle vi ha AI-system som kunde lära sig att köra bil på 20 timmars övning, precis som vilken 17-åring som helst.Men vi har fortfarande inte helt autonom, tillförlitlig självkörning, trots att vi (du) har miljontals timmar med *märkt * träningsdata.
- Yann LeCun (@ylecun) 14 mars 2024
Denna konversation visar bara på ett mikrokosmos av ett tvetydigt tomrum i AI-experternas och ledarnas uppfattning.
Det är en konversation som leder till en oändlig spiral av tolkningar med liten samsyn, vilket framgår av de vilt kontrasterande åsikterna från inflytelserika teknologer under det senaste året eller så (information från Förbättra nyheterna):
- Geoffrey Hinton: "Digital intelligens" kan gå om oss inom "5 till 20 år".
- Yann LeCun: Det är mer sannolikt att samhället får AI på "kattnivå" eller "hundnivå" flera år innan AI på mänsklig nivå.
- Demis Hassabis: Vi kan uppnå "något som liknar AGI eller AGI-liknande under nästa årtionde."
- Gary Marcus: "[V]i kommer så småningom att nå AGI ... och mycket möjligt före slutet av detta århundrade."
- Geoffrey Hinton: "Nuvarande AI som GPT-4 "förmörkar en person" i allmän kunskap och kan snart göra det även i resonemang.
- Geoffrey Hinton: AI är "mycket nära nu" och kommer att vara "mycket mer intelligent än oss i framtiden".
- Elon Musk: "Vi kommer för första gången att ha något som är smartare än den smartaste människan."
- Elon Musk: "Jag skulle bli förvånad om vi inte har AGI senast [2029]."
- Sam Altman: "[V]i kan komma till verklig AGI under nästa årtionde."
- Yoshua Bengio: "Övermänsklig AI" kommer att uppnås "mellan några år och ett par decennier".
- Dario Amodei: AI på "mänsklig nivå" kan inträffa om "två eller tre år".
- Sam Altman: AI kan överträffa "expertkunskapsnivån" inom de flesta områden inom ett decennium.
- Gary Marcus: "Jag [tror] inte att vi är så nära maskiner som är mer intelligenta än oss."
De främsta AI-ledarna är starkt oeniga om när AI kommer att gå om mänsklig intelligens. 2 eller 100 år - vad tror *du*? @ylecun @GaryMarcus @geoffreyhinton @sama https://t.co/59t8cKw5p5
- Max Tegmark (@tegmark) 18 mars 2024
Ingen part har entydigt rätt eller fel i debatten om maskinintelligens. Det hänger på ens subjektiva tolkning av intelligens och hur AI-system mäts mot den definitionen.
Pessimister kan peka på AI:s potentiella risker och oavsiktliga konsekvenser, vilket understryker behovet av försiktighet. De menar att när AI-systemen blir mer autonoma och kraftfulla kan de utveckla mål och beteenden som inte stämmer överens med mänskliga värderingar, vilket kan leda till katastrofala följder.
Optimister kan däremot fokusera på AI:s transformativa potential och se framför sig en framtid där maskiner arbetar tillsammans med människor för att lösa komplexa problem och driva innovation. De kanske bagatelliserar riskerna och hävdar att farhågorna om superintelligent AI till stor del är hypotetiska och att fördelarna överväger riskerna.
Den springande punkten är att det är svårt att definiera och kvantifiera intelligens, särskilt när man jämför så olika enheter som människor och maskiner.
Till exempel kan även en flugan har avancerade nervkretsar och kan framgångsrikt undvika våra försök att slå eller fånga den, vilket gör den smartare än oss inom detta snäva område. Den här typen av jämförelser är potentiellt gränslösa.
Välj dina exempel på intelligens, och alla kan ha rätt eller fel.
Debatt två: accelererar eller bromsar AI?
Kommer AI-utvecklingen att accelerera eller stanna av och sakta ner?
Vissa hävdar att vi befinner oss mitt i en AI-revolution, där genombrotten sker i en rasande fart. Andra menar att utvecklingen har nått en platå och att området står inför stora utmaningar som kan bromsa innovationen under de kommande åren.
Generativ AI är kulmen på decennier av forskning och miljarder i finansiering. När ChatGPT landade 2022 hade tekniken redan nått en hög nivå i forskningsmiljöer, vilket gjorde att ribban sattes högt och samhället kastades in i den djupa änden.
Den hype som uppstod ledde också till en enorm finansiering av AI-startups, från Anthropic till Inflection och Stability AI till MidJourney.
Detta, i kombination med enorma interna satsningar från Silicon Valley-veteranerna Meta, Google, Amazon, Nvidia och Microsoft, resulterade i en snabb spridning av AI-verktyg. GPT-3 förvandlades snabbt till tungviktaren GPT-4. Under tiden, konkurrenter som LLMs som Claude 3 Opus, xAI:s Grok och Mistraloch Metas modeller med öppen källkod har också gjort sitt avtryck.
Vissa experter och teknologer, till exempel Sam Altman, Geoffrey Hinton, Yoshio Bengio, Demis Hassabis och Elon Musk, anser att AI-accelerationen bara har börjat.
Musk sa att generativ AI var som att "väcka demonen", medan Altman sa att AI-mind control var nära förestående (vilket Musk har bevisat med senaste framstegen inom Neuralink; se nedan för hur en man spelade ett parti schack enbart genom tankeverksamhet).
Å andra sidan anser experter som Gary Marcus och Yann LeCun att vi stöter på patrull och att den generativa AI:n står inför en introspektiv period eller "vinter".
Detta skulle bero på praktiska hinder, som stigande energikostnader, begränsningar i brute-force computing, regleringar och materialbrist.
Generativ AI är dyr att utveckla och underhålla, och intäktsgenerering är inte okomplicerad. Teknikföretagen måste hitta sätt att behålla trögheten så att pengarna fortsätter att strömma in i branschen.
Debatt tre: AI-säkerhet
Diskussioner om AI-intelligens och framsteg har också konsekvenser för AI-säkerheten. Om vi inte kan enas om vad som utgör intelligens eller hur den ska mätas, hur ska vi då kunna säkerställa att AI-system utformas och används på ett säkert sätt?
Avsaknaden av en gemensam förståelse av intelligens gör det svårt att fastställa lämpliga säkerhetsåtgärder och etiska riktlinjer för AI-utveckling.
Om man underskattar AI-intelligens underskattar man också behovet av säkerhetskontroller och reglering av AI.
Omvänt kan en överskattning eller överdrift av AI:s förmågor leda till en snedvriden uppfattning och riskera överreglering. Detta kan leda till att makten hamnar hos Big Tech, som har visat sig vara starka när det gäller lobbying och att utmanövrera lagstiftningen. Och när de gör ett misstag kan de betala böterna.
Förra året, utdragna X debatter mellan Yann LeCun, Geoffrey Hinton, Max Tegmark, Gary Marcus, Elon Musk och många andra framstående personer i AI-samhället belyste djupa klyftor i AI-säkerheten. Big Tech har arbetat hårt med självreglering och skapat "frivilliga riktlinjer" som är tveksamma i sin effektivitet.
Kritikerna hävdar vidare att regleringen gör det möjligt för Big Tech att förstärka marknadsstrukturernagöra sig av med störande aktörer och anpassa branschens spelregler till sin egen smak.
På den sidan av debatten hävdar LeCun att de existentiella riskerna med AI har överdrivits och används som en rökridå av Big Tech-företag för att driva på för regleringar som skulle kväva konkurrensen och konsolidera kontrollen.
LeCun och hans anhängare påpekar också att AI:s omedelbara risker, såsom felaktig information, "deep fakes" och partiskhet, redan skadar människor och kräver omedelbar uppmärksamhet.
AltmanHassabis och Amodei är de som bedriver massiv företagslobbying just nu.
Det är de som försöker genomföra en reglering av AI-industrin.
Du, Geoff och Yoshua ger ammunition till dem som lobbar för ett förbud mot öppen AI FoU.Om...
- Yann LeCun (@ylecun) 29 oktober 2023
Å andra sidan har Hinton, Bengio, Hassabis och Musk slagit larm om de potentiella existentiella riskerna med AI.
Bengio, LeCun och Hinton, som ofta kallas "AI:s gudfäder" för att ha utvecklat neurala nätverk, djupinlärning och andra AI-tekniker under 90-talet och början av 2000-talet, är fortfarande inflytelserika. Hinton och Bengio, som i allmänhet har samma åsikter, deltog nyligen i ett sällsynt möte mellan amerikanska och kinesiska forskare vid Internationell dialog om AI-säkerhet i Peking.
Mötet kulminerade i i ett uttalande: "Under det kalla krigets djup bidrog internationell vetenskaplig och statlig samordning till att avvärja en termonukleär katastrof. Mänskligheten behöver återigen samordna sig för att avvärja en katastrof som kan uppstå genom en aldrig tidigare skådad teknologi."
Det ska sägas att Bengio och Hinton inte har några uppenbara ekonomiska kopplingar till Big Tech och inte har någon anledning att ta för stora risker med AI.
Hinton tog själv upp denna punkt i en X-gräl med LeCun och den tidigare medgrundaren av Google Brain Andrew Ng, och betonade att han lämnade Google för att tala fritt om AI-risker.
Faktum är att många stora forskare har ifrågasatt AI-säkerheten genom åren, inklusive den framlidne professionen Stephen Hawking, som såg tekniken som en existentiell risk.
Andrew Ng hävdar att idén om att AI skulle kunna utplåna oss är en stor teknisk konspiration. En datapunkt som inte passar in i denna konspirationsteori är att jag lämnade Google så att jag kunde tala fritt om det existentiella hotet.
- Geoffrey Hinton (@geoffreyhinton) 31 oktober 2023
Denna virvlande blandning av polemiska utbyten lämnar lite utrymme för människor att inta mitten, vilket bidrar till bilden av generativ AI som en polariserande teknik.
Reglering av AI har under tiden bli en geopolitisk frågaUSA och Kina har börjat samarbeta om AI-säkerhet, trots eskalerande spänningar på andra områden.
Precis som experterna är oeniga om när och hur AI kommer att överträffa människans förmåga, skiljer de sig också åt i sina bedömningar av riskerna och utmaningarna med att utveckla säkra och fördelaktiga AI-system.
Debatterna kring AI-intelligens är inte bara principiella eller filosofiska till sin natur - De är också en fråga om styrning.
När experter är djupt oeniga om till och med de grundläggande aspekterna av AI-intelligens och säkerhet, kan reglering inte hoppas på att tjäna människors intressen.
För att skapa samsyn kommer det att krävas tuffa insikter från experter, AI-utvecklare, myndigheter och samhället i stort.
Men förutom många andra utmaningar kommer styrningen av AI in i framtiden att kräva att vissa tekniska ledare och experter erkänner att de hade fel. Och det kommer inte att bli lätt.