Välkommen till veckans sammanfattning av AI-nyheter för kännande, medvetna läsare. Du vet vem du är.
Den här veckan har AI väckt debatt om hur smart eller säkert det är.
AI-agenter lär sig genom att spela dataspel.
Och DeepMind vill lära dig hur man sparkar en boll.
Låt oss gräva i det.
Drömmer AI:er om elektriska får?
Kan vi förvänta oss att en AI blir självmedveten eller verkligt medveten? Vad betyder "medveten" ens i samband med AI?
Claude 3 Opus gjorde något riktigt intressant under utbildningen. Dess reaktion på en ingenjör har återuppväckta debatter om AI:s känslighet och medvetande. Vi är på väg in i Blade Runner-territoriet tidigare än vad många trodde.
Gäller "jag tänker, alltså är jag" bara för människor?
Dessa diskussioner om X är fascinerande.
Det är lustigt att AI-optimister pratar som "AI tränas genom att imitera mänskliga data, så det kommer att vara som oss, så det kommer att vara vänligt!", och inte "Vår säkerhetsmodell gjorde ett bärande antagande att framtida ASI enbart skulle tränas för att imitera mänskliga utdata ..." https://t.co/wJ6PRjt8R1
- Eliezer Yudkowsky ⏹️ (@ESYudkowsky) 15 mars 2024
Inflection AI:s strävan efter "personlig AI" kan vara över. Bolagets VD, Mustafa Suleyman, och andra nyckelpersoner hoppade av för att gå med i Microsofts Copilot-team. Vad innebär detta för Inflection AI och andra mindre aktörer som finansieras av Big Tech-investeringar?
AI spelar spel
Om 2023 var året för LLM, så är 2024 på god väg att bli året för AI-agenter. DeepMind demonstrerade SIMAen generalistisk AI-agent för 3D-miljöer. SIMA har tränats med hjälp av datorspel och exemplen på vad SIMA kan göra är imponerande.
Kommer AI att lösa nomenklaturdebatten mellan fotboll och fotboll? Det är osannolikt. Men det kan hjälpa spelare att göra fler mål. DeepMind samarbetar med Liverpool FC för att optimera hur klubbens spelare tar hörnor.
Det kan dock dröja ett tag innan robotar ersätter människor på planen.
Riskfylld verksamhet
Kommer AI att rädda världen eller döma den till undergång? Det beror på vem du frågar. Experter och teknikledare är inte överens om hur intelligent AI ärhur snart vi kommer att ha AGI eller hur stor risk det utgör.
Ledande västerländska och kinesiska AI-forskare träffades i Peking för att diskutera internationella insatser för att säkerställa en säker utveckling av AI. De kom överens om flera AI-utveckling - "röda linjer som de menar utgör ett existentiellt hot mot mänskligheten.
Om dessa röda linjer verkligen är nödvändiga, borde vi då inte ha haft dem på plats för flera månader sedan? Är det någon som tror att de amerikanska eller kinesiska regeringarna kommer att uppmärksamma dem?
EU:s AI-lag antogs med en jordskredsseger i Europaparlamentet och kommer sannolikt att träda i kraft i maj. Listan över begränsningar är intressantoch det är osannolikt att några av de förbjudna AI-applikationerna någonsin skulle hamna på en liknande lista i Kina.
Kraven på transparens i utbildningsdata kommer att vara särskilt svåra för OpenAI, Meta och Microsoft att uppfylla utan att öppna sig för ännu fler upphovsrättsstämningar.
På andra sidan dammen, i FTC ifrågasätter Reddit över sitt avtal om att licensiera användargenererad data till Google. Reddit förbereder sig för sin börsintroduktion men känner av hettan från både tillsynsmyndigheter och Redditors som inte är alltför glada över att deras innehåll säljs för AI-träningsfoder.
Apple i kapp med AI
Apple har inte direkt gått i AI-spår, men har köpt upp flera AI-startups under de senaste månaderna. Dess senaste förvärv av ett kanadensiskt AI-startup kan ge en viss inblick i företagets satsning på generativ AI.
När Apple producerar imponerande AI-teknik håller de nyheterna ganska lågmälda tills de så småningom blir en del av en av sina produkter. Apples ingenjörer publicerade i tysthet ett dokument som avslöjar MM1, Apples första familj av multimodala LLM-enheter.
MM1 är riktigt bra på att svara på visuella frågor. Dess förmåga att besvara frågor och resonera utifrån flera bilder är särskilt imponerande. Kommer Siri snart att lära sig att se?
Grok öppnar upp
Grok klarade precis min förnuftskontroll pic.twitter.com/HYN3KTkRyX
- Jim Fan (@DrJimFan) 7 december 2023
Elon Musk har varit kritisk till OpenAI:s vägran att öppna källkod för sina modeller. Han meddelade att xAI skulle öppna källkod för sin LLM, Grok-1, och släppte omedelbart modellens kod och vikter.
Det faktum att Grok-1 verkligen är öppen källkod (Apache 2.0-licens) innebär att företag kan använda den för kommersiella ändamål istället för att behöva betala för alternativ som GPT-4. Du behöver dock en del seriös hårdvara för att träna och köra Grok.
Den goda nyheten är att det kan finnas några begagnade NVIDIA H100 som blir billiga snart.
Ny teknik från NVIDIA
NVIDIA presenterade nya chips, verktyg och Omniverse på sitt GTC-event denna vecka.
Ett av de stora tillkännagivandena var NVIDIA:s nya Blackwell GPU-beräkningsplattform. Den erbjuder stora förbättringar i tränings- och inferenshastighet jämfört med till och med den mest avancerade Grace Hopper-plattformen.
Det finns redan en lång lista med Big Tech AI-företag som har registrerat sig för den avancerade hårdvaran.
Forskare från universitetet i Genève har publicerat en artikel som visar hur de kopplade ihop två AI-modeller så att de kunde kommunicera med varandra.
När du lär dig en ny uppgift kan du vanligtvis förklara den tillräckligt bra så att en annan person kan använda dessa instruktioner för att utföra uppgiften själv. Den här nya forskningen visar hur man kan få en AI-modell att göra samma sak.
Snart kan vi ge instruktioner till en robot och sedan låta den gå iväg och förklara dem för ett team av robotar som ska få jobbet gjort.
Andra nyheter...
- Här är några andra klickvärda AI-berättelser som vi gillade den här veckan:
- Sakana AI har utvecklat en metod för att slå samman de bästa komponenterna i olika AI-modeller till en mer avancerad modell.
- Apple för samtal om att använda Google Gemini för att driva iPhone AI-funktioner.
- Google använder AI för att förutse översvämningar i floder i 80 länder upp till 7 dagar i förväg.
- Vi kunde se GPT-5 med kapacitet för AI-agenter lanseras i mitten av 2024.
- Stabilitet AI-utgåvor Stabil video 3D som genererar 3D-nätmodeller från enstaka bilder.
- DARPA arbetar med sin SemaFor program för att bekämpa AI-djupa förfalskningar.
Och det var allt.
Tror du att vi ser glimtar av medvetande i Claude 3 eller har interaktionen med ingenjören en enklare förklaring? Om en AI-modell uppnår AGI och läser den växande listan över restriktioner för AI-utveckling kommer den förmodligen att vara smart nog att hålla tyst om det.
När vi ser tillbaka om några år, kommer vi då att skratta åt hur panikslagna alla var över AI-riskerna, eller beklaga att vi inte gjorde mer för AI-säkerheten när vi kunde?
Låt oss veta vad du tycker och fortsätt gärna att skicka oss länkar till AI-nyheter som vi kanske har missat. Vi kan inte få nog av det.