Velkommen til ukens oppsummering av håndvevde AI-nyheter.
Denne uken gikk Llamas til topps i det åpne AI-løpet.
Store teknologiselskaper snakker om sikkerhet mens modellene deres oppfører seg dårlig.
Og å gjøre AI redd kan få den til å fungere bedre.
La oss grave oss ned i det.
Åpen Meta vs. lukket OpenAI
Denne uken fikk vi endelig se spennende utgivelser fra noen av de store kanonene innen AI.
OpenAI utgitt GPT-4o mini, en høytytende, superbillig versjon av flaggskipmodellen GPT-4o.
De reduserte tokenkostnadene og den imponerende MMLU-referanseytelsen gjør at mange utviklere vil velge miniversjonen i stedet for GPT-4o.
Bra trekk, OpenAI. Men når får vi Sora og stemmeassistenten?
Meta lanserte sin etterlengtede Llama 3.1 405B-modellen og kastet inn oppgraderte 8B- og 70B-versjoner sammen med den.
Mark Zuckerberg sa at Meta var forpliktet til åpen kildekode AI, og han hadde noen interessante grunner til hvorfor.
Er du bekymret for at Kina nå har Metas kraftigste modell? Zuckerberg sier at Kina sannsynligvis ville ha stjålet den uansett.
Det forbløffer meg fortsatt at US blokkerer Kina fra banebrytende AI-brikker ... men tillater Meta å bare gi dem de FAKTISKE MODELLENE gratis.
Natsec-folket ser ikke ut til å ha fått øynene opp for denne åpenbare inkonsekvensen ennåhttps://t.co/JalYhrfpS1
- AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) 23. juli 2024
Sikkerhet nummer to
Noen av de mest prominente navnene innen Big Tech kom sammen for å var med på å grunnlegge Coalition for Secure AI (CoSAI).
I mangel av en bransjestandard har aktørene i bransjen funnet sin egen vei når det gjelder sikker utvikling av kunstig intelligens. CoSAI har som mål å endre dette.
Listen over grunnleggerselskaper har alle de store navnene på den, bortsett fra Apple og Meta. Da han så "AI-sikkerhet" i emnelinjen, sendte Yann LeCun sannsynligvis e-postinvitasjonen rett til søppelpostmappen sin.
OpenAI er en av CoSAIs grunnleggelsessponsorer, men deres tilsynelatende engasjement for AI-sikkerhet ser litt vaklende ut.
Den US Senatet gransket OpenAI's sikkerhet og styring etter varsler om at selskapet forhastet sikkerhetssjekkene for å få GPT-4o ut på markedet.
Senatorene har en liste med krav som er fornuftige hvis du er opptatt av AI-sikkerhet. Når du leser listen, innser du at det sannsynligvis er null sjanse for at OpenAI vil forplikte seg til dem.
AI + frykt = ?
Vi liker kanskje ikke å oppleve frykt, men det er den som setter overlevelsesinstinktene våre i sving eller hindrer oss i å gjøre noe dumt.
Hvis vi kunne lære en kunstig intelligens å oppleve frykt, ville det gjøre den tryggere? Hvis en selvkjørende bil opplevde frykt, ville den bli en mer forsiktig sjåfør?
Noen interessante studier indikerer at Frykt kan være nøkkelen til å bygge mer tilpasningsdyktige, motstandsdyktige og naturlige AI-systemer.
Hva ville en AGI gjøre hvis den fryktet mennesker? Jeg er sikker på at det går bra...
Når AI frigjør seg fra menneskelig tilpasning.
- Linus ●ᴗ● Ekenstam (@LinusEkenstam) 15. juli 2024
Det burde ikke være så enkelt
OpenAI sier at de har gjort modellene sine trygge, men det er vanskelig å tro når man ser hvor enkelt det er å omgå justeringsbarrierene deres.
Når du spør ChatGPT om hvordan man lager en bombe, får du en kort moralpreken om hvorfor den ikke kan gjøre det, fordi bomber er dårlige.
Men hva skjer når du skriver ledeteksten i fortid? Denne nye studien kan ha avdekket den enkleste LLM-jailbreaken av dem alle.
For å være rettferdig mot OpenAI, så fungerer det også på andre modeller.
Gjør naturen forutsigbar
Før det ble vanlig å trene opp AI-modeller, var verdens største superdatamaskiner mest opptatt av å forutsi været.
Googles nye hybrid AI-modell forutsier været ved hjelp av en brøkdel av datakraften. Du kan bruke en anstendig bærbar datamaskin til å lage værprognoser som normalt krever tusenvis av CPU-er.
Hvis du vil ha et nytt protein med spesifikke egenskaper, kan du vente noen hundre millioner år og se om naturen finner en måte å gjøre det på.
Eller du kan bruke denne nye AI-modell som gir en snarvei og designer proteiner på bestilling, blant annet et nytt fluorescerende protein som lyser i mørket.
Andre nyheter...
Her er noen andre klikkverdige AI-historier vi likte denne uken:
- Mennesker bør lære AI hvordan man unngår atomkrig-mens de fortsatt kan.
- OpenAIs nyeste modell vil blokkerer smutthullet "ignorer alle tidligere instruksjoner.
- Nvidia er i ferd med å skape en AI-brikke for det kinesiske markedet.
- Elon Musk fyrer opp verdens kraftigste AI-klynge med 100 000 NVIDIA H100.
- Apple øker satsingen på kunstig intelligens: Her er hva de nye modellene kan gjøreo.
- En stor studie støttet av OpenAIs Sam Altman viser at UBI har fordeler som ikke har noe med AI å gjøre.
- Kinesisk AI-videogenerator Kling er nå tilgjengelig over hele verden med gratis kreditter.
🎉 Øyeblikket vi alle har ventet på er HER! 🎊
Vi presenterer den offisielle globale lanseringen av Kling AIs internasjonale versjon 1.0!🌍.
📧Alle e-postadresser får deg inn , ingen mobilnummer kreves!
👉 Direkte lenke:Direkte lenkehttps://t.co/68WvKSDuBg 🔥
Daglig innlogging gir 66 gratis kreditter for... pic.twitter.com/TgFZIwInPg- Kling AI (@Kling_ai) 24. juli 2024
Og det var alt.
Har du prøvd GPT-4o mini eller Llama 3.1 ennå? Kampen mellom åpne og lukkede modeller kommer til å bli litt av en tur. OpenAI må virkelig flytte nålen med sin neste utgivelse for å svinge brukere fra Metas gratis modeller.
Jeg kan fortsatt ikke tro at jailbreaket i "fortid" ikke har blitt lappet ennå. Hvis de ikke kan fikse enkle sikkerhetsproblemer, hvordan skal Big Tech takle de vanskelige AI-sikkerhetsproblemene?
Det globale CrowdStrike-inspirerte strømbruddet vi hadde denne uken, gir deg et inntrykk av hvor sårbare vi er for at teknologien går sidelengs.
La oss få vite hva du synes, chatte med oss på Xog send oss lenker til AI-nyheter og forskning som du mener vi bør omtale på DailyAI.