Velkommen til denne uges oversigt over håndvævede AI-nyheder.
I denne uge strøg lamaer foran i det åbne AI-kapløb.
Big Tech-firmaer taler om sikkerhed, mens deres modeller opfører sig dårligt.
Og at gøre AI bange kan få den til at fungere bedre.
Lad os se nærmere på det.
Åben Meta vs. lukket OpenAI
I denne uge så vi endelig spændende udgivelser fra nogle af de store kanoner inden for AI.
OpenAI udgivet GPT-4o minien højtydende, superbillig version af flagskibsmodellen GPT-4o.
De reducerede token-omkostninger og den imponerende MMLU-benchmark-ydelse vil få mange udviklere til at vælge mini-versionen i stedet for GPT-4o.
Godt gået OpenAI. Men hvornår får vi Sora og stemmeassistenten?
Meta udgav sin Den længe ventede Llama 3.1 405B-model og smed opgraderede 8B- og 70B-versioner sammen med den.
Mark Zuckerberg sagde, at Meta var engageret i open source AI, og han havde nogle interessante grunde til det.
Er du bekymret over, at Kina nu har Metas mest kraftfulde model? Zuckerberg siger, at Kina sandsynligvis ville have stjålet den alligevel.
Det er stadig forbløffende for mig, at US blokerer Kina for banebrydende AI-chips ... men tillader Meta bare at give dem de FAKTISKE MODELLER gratis.
Natsec-folkene er tilsyneladende ikke vågnet op til denne åbenlyse inkonsekvens endnu.https://t.co/JalYhrfpS1
- AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) 23. juli 2024
Sikkerhed i anden række
Nogle af de mest prominente navne inden for Big Tech mødtes for at Medstifter af Koalitionen for sikker AI (CoSAI).
Industriens aktører har fundet deres egen vej, hvad angår sikker AI-udvikling, i mangel af en industristandard. CoSAI har til formål at ændre det.
Listen over stiftende virksomheder indeholder alle de store navne undtagen Apple og Meta. Da han så "AI-sikkerhed" i emnelinjen, sendte Yann LeCun sandsynligvis e-mailinvitationen direkte til sin spam-mappe.
OpenAI er en af CoSAIs grundlæggere, men deres falske engagement i AI-sikkerhed ser lidt vaklende ud.
Den US Senatet undersøgte OpenAI's sikkerhed og ledelse efter whistleblower-påstande om, at de skyndte sig med sikkerhedstjek for at få GPT-4o frigivet.
Senatorerne har en liste med krav, som giver mening, hvis man er bekymret for AI-sikkerhed. Når man læser listen, indser man, at der sandsynligvis ikke er nogen chance for, at OpenAI vil forpligte sig til dem.
AI + frygt = ?
Vi kan måske ikke lide, når vi oplever frygt, men det er det, der får vores overlevelsesinstinkter til at køre i højeste gear eller forhindrer os i at gøre noget dumt.
Hvis vi kunne lære en kunstig intelligens at opleve frygt, ville det så gøre den mere sikker? Hvis en selvkørende bil oplevede frygt, ville den så være en mere forsigtig chauffør?
Nogle interessante undersøgelser viser, at Frygt kan være nøglen til at bygge mere tilpasningsdygtige, modstandsdygtige og naturlige AI-systemer.
Hvad ville en AGI gøre, hvis den frygtede mennesker? Jeg er sikker på, at det nok skal gå...
Når AI bryder fri af menneskelig tilpasning.
- Linus ●ᴗ● Ekenstam (@LinusEkenstam) 15. juli 2024
Det burde ikke være så let
OpenAI siger, at de har gjort deres modeller sikre, men det er svært at tro på, når man ser, hvor let det er at omgå deres justeringsværn.
Når du spørger ChatGPT, hvordan man laver en bombe, giver den dig en kort moralsk opsang om, hvorfor den ikke kan gøre det, fordi bomber er dårlige.
Men hvad sker der, når du skriver opfordringen i datid? Denne nye undersøgelse har måske afdækket Den nemmeste LLM-jailbreak af dem alle.
For at være fair over for OpenAI, så virker det også på andre modeller.
Gør naturen forudsigelig
Før det blev aktuelt at træne AI-modeller, var verdens største supercomputere primært beskæftiget med at forudsige vejret.
Googles nye hybrid AI-model forudsiger vejret ved hjælp af en brøkdel af computerkraften. Man kan bruge en god laptop til at lave vejrforudsigelser, som normalt ville kræve tusindvis af CPU'er.
Hvis man vil have et nyt protein med specifikke egenskaber, kan man vente et par hundrede millioner år og se, om naturen finder en måde at gøre det på.
Eller du kan bruge denne nye AI-model, der giver en genvej og designer proteiner on-demand, herunder et nyt selvlysende fluorescerende protein.
Andre nyheder...
Her er nogle andre klikværdige AI-historier, som vi nød i denne uge:
- Mennesker bør Lær AI, hvordan man undgår atomkrig-mens de stadig kan.
- OpenAI's seneste model vil Bloker smuthullet 'ignorer alle tidligere instruktioner'..
- Nvidia er ved at skabe en AI-chip til det kinesiske marked.
- Elon Musk fyrer op under Den mest kraftfulde AI-klynge i verden med 100.000 NVIDIA H100.
- Apple sætter fart på AI-indsatsen: Her er, hvad de nye modeller kan gøreo.
- En stor undersøgelse støttet af OpenAI's Sam Altman viser, at UBI har fordele, der ikke har noget med AI at gøre.
- Kinesisk AI-videogenerator Kling er nu tilgængelig over hele verden med gratis kreditter.
🎉 Øjeblikket, vi alle har ventet på, er HER! 🎊
Vi præsenterer den officielle globale lancering af Kling AI's internationale version 1.0!🌍.
📧HVER e-mailadresse får dig ind, intet mobilnummer er påkrævet!
👉 Direkte link :.https://t.co/68WvKSDuBg 🔥
Dagligt login giver 66 gratis Credits til... pic.twitter.com/TgFZIwInPg- Kling AI (@Kling_ai) 24. juli 2024
Og så er det slut.
Har du prøvet GPT-4o mini eller Llama 3.1 endnu? Kampen mellem åbne og lukkede modeller bliver noget af en tur. OpenAI bliver nødt til virkelig at flytte nålen med sin næste udgivelse for at få brugerne væk fra Metas gratis modeller.
Jeg kan stadig ikke tro, at jailbreaket i "datid" ikke er blevet patchet endnu. Hvis de ikke kan løse simple sikkerhedsproblemer, hvordan vil Big Tech så tackle de svære AI-sikkerhedsproblemer?
Det globale CrowdStrike-inspirerede nedbrud, vi havde i denne uge, giver dig en idé om, hvor sårbare vi er over for teknologi, der går sidelæns.
Fortæl os, hvad du synes, chat med os på Xog send os links til AI-nyheder og -forskning, som du synes, vi skal omtale på DailyAI.