DAI#49 - Öppna lamor, AI-rädsla och alltför enkla jailbreaks

26 juli 2024

Välkommen till veckans sammanställning av handvävda AI-nyheter.

Den här veckan gick Llamas framåt i det öppna AI-racet.

Stora teknikföretag pratar om säkerhet medan deras modeller beter sig illa.

Och att göra AI rädd kan få den att fungera bättre.

Låt oss gräva i det.

Öppen Meta vs stängd OpenAI

Den här veckan fick vi äntligen se spännande lanseringar från några av de stora kanonerna inom AI.

OpenAI släppte GPT-4o mini, en högpresterande och mycket prisvärd version av flaggskeppsmodellen GPT-4o.

De sänkta tokenkostnaderna och den imponerande prestandan i MMLU:s benchmark gör att många utvecklare kommer att välja miniversionen istället för GPT-4o.

Bra drag OpenAI. Men när får vi Sora och röstassistenten?

Meta släppte sitt mycket efterlängtad Llama 3.1 405B-modell och slängde in uppgraderade 8B- och 70B-versioner tillsammans med den.

Mark Zuckerberg sa att Meta var engagerad i öppen källkod AI och han hade några intressanta skäl till varför.

Är du orolig för att Kina nu har Meta's mest kraftfulla modell? Zuckerberg säger att Kina förmodligen skulle ha stulit det ändå.

Säkerhet i andra hand

Några av de mest framträdande namnen inom Big Tech samlades för att medgrundare till Coalition for Secure AI (CoSAI).

Branschaktörer har hittat sina egna vägar när det gäller säker AI-utveckling i avsaknad av en branschstandard. CoSAI syftar till att ändra på det.

Listan över grundande företag innehåller alla de stora namnen utom Apple och Meta. När han såg "AI-säkerhet" i ämnesraden skickade Yann LeCun förmodligen e-postinbjudan direkt till sin skräppostmapp.

OpenAI är en av CoSAI:s grundande sponsorer, men deras låtsade engagemang för AI-säkerhet ser lite skakigt ut.

Den US Senaten undersökt OpenAIsäkerhet och styrning efter uppgifter från visselblåsare om att bolaget skyndat på säkerhetskontroller för att få ut GPT-4o.

Senatorer har en lista med krav som är meningsfulla om du är orolig för AI-säkerhet. När du läser listan inser du att det förmodligen finns noll chans att OpenAI kommer att förbinda sig till dem.

AI + Rädsla = ?

Vi kanske inte gillar när vi upplever rädsla, men det är det som sätter fart på våra överlevnadsinstinkter eller hindrar oss från att göra något dumt.

Om vi kunde lära en AI att uppleva rädsla, skulle det göra den säkrare? Om en självkörande bil upplevde rädsla, skulle den då bli en mer försiktig förare?

Några intressanta studier visar att rädsla kan vara nyckeln till att bygga mer anpassningsbara, motståndskraftiga och naturliga AI-system.

Vad skulle en AGI göra om den fruktade människor? Jag är säker på att det kommer att gå bra...

Det borde inte vara så här lätt

OpenAI säger att de har gjort sina modeller säkra, men det är svårt att tro när man ser hur lätt det är att kringgå deras anpassningsräcken.

När du frågar ChatGPT hur man gör en bomb kommer den att ge dig en kort moralisk föreläsning om varför den inte kan göra det eftersom bomber är dåliga.

Men vad händer när man skriver frågan i förfluten tid? Denna nya studie kan ha avslöjat den enklaste LLM jailbreak av dem alla.

För att vara rättvis mot OpenAI fungerar det också på andra modeller.

Gör naturen förutsägbar

Innan det blev aktuellt att träna AI-modeller var världens största superdatorer främst upptagna med att förutspå vädret.

Googles nya hybrid AI-modell förutspår väder med en bråkdel av datorkraften. Man kan använda en hyfsad bärbar dator för att göra väderprognoser som normalt skulle kräva tusentals processorer.

Om man vill ha ett nytt protein med specifika egenskaper kan man vänta några hundra miljoner år för att se om naturen hittar ett sätt.

Eller så kan du använda denna nya AI-modell som ger en genväg och designar proteiner på begäran, inklusive ett nytt fluorescerande protein som lyser i mörkret.

Andra nyheter...

Här är några andra klickvärda AI-berättelser som vi gillade den här veckan:

Och det var allt.

Har du provat GPT-4o mini eller Llama 3.1 ännu? Striden mellan öppna och stängda modeller kommer att bli en hel del åktur. OpenAI måste verkligen flytta nålen med sin nästa utgåva för att svänga användare från Metas gratismodeller.

Jag kan fortfarande inte tro att jailbreak i "förfluten tid" inte har patchats ännu. Om de inte kan fixa enkla säkerhetsgrejer hur kommer Big Tech att ta itu med de tuffa AI-säkerhetsfrågorna?

Det globala CrowdStrike-inspirerade avbrottet som vi hade i veckan ger en uppfattning om hur sårbara vi är för teknik som går sidledes.

Låt oss veta vad du tycker, chatta med oss på Xoch skicka oss länkar till AI-nyheter och forskning som du tycker att vi borde presentera på DailyAI.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar