Välkommen till veckans sammanställning av handvävda AI-nyheter.
Den här veckan gick Llamas framåt i det öppna AI-racet.
Stora teknikföretag pratar om säkerhet medan deras modeller beter sig illa.
Och att göra AI rädd kan få den att fungera bättre.
Låt oss gräva i det.
Öppen Meta vs stängd OpenAI
Den här veckan fick vi äntligen se spännande lanseringar från några av de stora kanonerna inom AI.
OpenAI släppte GPT-4o mini, en högpresterande och mycket prisvärd version av flaggskeppsmodellen GPT-4o.
De sänkta tokenkostnaderna och den imponerande prestandan i MMLU:s benchmark gör att många utvecklare kommer att välja miniversionen istället för GPT-4o.
Bra drag OpenAI. Men när får vi Sora och röstassistenten?
Meta släppte sitt mycket efterlängtad Llama 3.1 405B-modell och slängde in uppgraderade 8B- och 70B-versioner tillsammans med den.
Mark Zuckerberg sa att Meta var engagerad i öppen källkod AI och han hade några intressanta skäl till varför.
Är du orolig för att Kina nu har Meta's mest kraftfulla modell? Zuckerberg säger att Kina förmodligen skulle ha stulit det ändå.
Det är fortfarande förvånande för mig att US blockerar Kina från banbrytande AI-chips ... men tillåter Meta att bara ge dem de faktiska modellerna gratis.
Natsec-folket verkar inte ha vaknat upp till denna uppenbara inkonsekvens ännuhttps://t.co/JalYhrfpS1
- AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) 23 juli 2024
Säkerhet i andra hand
Några av de mest framträdande namnen inom Big Tech samlades för att medgrundare till Coalition for Secure AI (CoSAI).
Branschaktörer har hittat sina egna vägar när det gäller säker AI-utveckling i avsaknad av en branschstandard. CoSAI syftar till att ändra på det.
Listan över grundande företag innehåller alla de stora namnen utom Apple och Meta. När han såg "AI-säkerhet" i ämnesraden skickade Yann LeCun förmodligen e-postinbjudan direkt till sin skräppostmapp.
OpenAI är en av CoSAI:s grundande sponsorer, men deras låtsade engagemang för AI-säkerhet ser lite skakigt ut.
Den US Senaten undersökt OpenAIsäkerhet och styrning efter uppgifter från visselblåsare om att bolaget skyndat på säkerhetskontroller för att få ut GPT-4o.
Senatorer har en lista med krav som är meningsfulla om du är orolig för AI-säkerhet. När du läser listan inser du att det förmodligen finns noll chans att OpenAI kommer att förbinda sig till dem.
AI + Rädsla = ?
Vi kanske inte gillar när vi upplever rädsla, men det är det som sätter fart på våra överlevnadsinstinkter eller hindrar oss från att göra något dumt.
Om vi kunde lära en AI att uppleva rädsla, skulle det göra den säkrare? Om en självkörande bil upplevde rädsla, skulle den då bli en mer försiktig förare?
Några intressanta studier visar att rädsla kan vara nyckeln till att bygga mer anpassningsbara, motståndskraftiga och naturliga AI-system.
Vad skulle en AGI göra om den fruktade människor? Jag är säker på att det kommer att gå bra...
När AI frigör sig från mänsklig anpassning.
- Linus ●ᴗ● Ekenstam (@LinusEkenstam) 15 juli 2024
Det borde inte vara så här lätt
OpenAI säger att de har gjort sina modeller säkra, men det är svårt att tro när man ser hur lätt det är att kringgå deras anpassningsräcken.
När du frågar ChatGPT hur man gör en bomb kommer den att ge dig en kort moralisk föreläsning om varför den inte kan göra det eftersom bomber är dåliga.
Men vad händer när man skriver frågan i förfluten tid? Denna nya studie kan ha avslöjat den enklaste LLM jailbreak av dem alla.
För att vara rättvis mot OpenAI fungerar det också på andra modeller.
Gör naturen förutsägbar
Innan det blev aktuellt att träna AI-modeller var världens största superdatorer främst upptagna med att förutspå vädret.
Googles nya hybrid AI-modell förutspår väder med en bråkdel av datorkraften. Man kan använda en hyfsad bärbar dator för att göra väderprognoser som normalt skulle kräva tusentals processorer.
Om man vill ha ett nytt protein med specifika egenskaper kan man vänta några hundra miljoner år för att se om naturen hittar ett sätt.
Eller så kan du använda denna nya AI-modell som ger en genväg och designar proteiner på begäran, inklusive ett nytt fluorescerande protein som lyser i mörkret.
Andra nyheter...
Här är några andra klickvärda AI-berättelser som vi gillade den här veckan:
- Människor bör lära AI hur man undviker kärnvapenkrig-medan de fortfarande kan.
- OpenAI:s senaste modell kommer att blockera kryphålet "strunta i alla tidigare instruktioner.
- Nvidia håller på att skapa en AI-chip för den kinesiska marknaden.
- Elon Musk sätter fart på världens mest kraftfulla AI-kluster med 100.000 NVIDIA H100.
- Apple ökar takten i arbetet med AI: Här är vad de nya modellerna kan görao.
- En stor studie som stöds av OpenAI:s Sam Altman visar att UBI har fördelar som inte har något att göra med AI.
- Kinesisk AI-videogenerator Kling är nu tillgänglig över hela världen med gratis krediter.
🎉 Ögonblicket vi alla har väntat på är HÄR! 🎊
Vi presenterar den officiella globala lanseringen av Kling AI:s internationella version 1.0!🌍
📧 ALLA e-postadresser får dig in , inget mobilnummer krävs!
👉 Direktlänk :https://t.co/68WvKSDuBg 🔥
Daglig inloggning ger 66 gratis krediter för ... pic.twitter.com/TgFZIwInPg- Kling AI (@Kling_ai) 24 juli 2024
Och det var allt.
Har du provat GPT-4o mini eller Llama 3.1 ännu? Striden mellan öppna och stängda modeller kommer att bli en hel del åktur. OpenAI måste verkligen flytta nålen med sin nästa utgåva för att svänga användare från Metas gratismodeller.
Jag kan fortfarande inte tro att jailbreak i "förfluten tid" inte har patchats ännu. Om de inte kan fixa enkla säkerhetsgrejer hur kommer Big Tech att ta itu med de tuffa AI-säkerhetsfrågorna?
Det globala CrowdStrike-inspirerade avbrottet som vi hade i veckan ger en uppfattning om hur sårbara vi är för teknik som går sidledes.
Låt oss veta vad du tycker, chatta med oss på Xoch skicka oss länkar till AI-nyheter och forskning som du tycker att vi borde presentera på DailyAI.