DAI#49 - Åpne lamaer, AI-frykt og altfor enkle jailbreaks

26. juli 2024

Velkommen til ukens oppsummering av håndvevde AI-nyheter.

Denne uken gikk Llamas til topps i det åpne AI-løpet.

Store teknologiselskaper snakker om sikkerhet mens modellene deres oppfører seg dårlig.

Og å gjøre AI redd kan få den til å fungere bedre.

La oss grave oss ned i det.

Åpen Meta vs. lukket OpenAI

Denne uken fikk vi endelig se spennende utgivelser fra noen av de store kanonene innen AI.

OpenAI utgitt GPT-4o mini, en høytytende, superbillig versjon av flaggskipmodellen GPT-4o.

De reduserte tokenkostnadene og den imponerende MMLU-referanseytelsen gjør at mange utviklere vil velge miniversjonen i stedet for GPT-4o.

Bra trekk, OpenAI. Men når får vi Sora og stemmeassistenten?

Meta lanserte sin etterlengtede Llama 3.1 405B-modellen og kastet inn oppgraderte 8B- og 70B-versjoner sammen med den.

Mark Zuckerberg sa at Meta var forpliktet til åpen kildekode AI, og han hadde noen interessante grunner til hvorfor.

Er du bekymret for at Kina nå har Metas kraftigste modell? Zuckerberg sier at Kina sannsynligvis ville ha stjålet den uansett.

Sikkerhet nummer to

Noen av de mest prominente navnene innen Big Tech kom sammen for å var med på å grunnlegge Coalition for Secure AI (CoSAI).

I mangel av en bransjestandard har aktørene i bransjen funnet sin egen vei når det gjelder sikker utvikling av kunstig intelligens. CoSAI har som mål å endre dette.

Listen over grunnleggerselskaper har alle de store navnene på den, bortsett fra Apple og Meta. Da han så "AI-sikkerhet" i emnelinjen, sendte Yann LeCun sannsynligvis e-postinvitasjonen rett til søppelpostmappen sin.

OpenAI er en av CoSAIs grunnleggelsessponsorer, men deres tilsynelatende engasjement for AI-sikkerhet ser litt vaklende ut.

Den US Senatet gransket OpenAI's sikkerhet og styring etter varsler om at selskapet forhastet sikkerhetssjekkene for å få GPT-4o ut på markedet.

Senatorene har en liste med krav som er fornuftige hvis du er opptatt av AI-sikkerhet. Når du leser listen, innser du at det sannsynligvis er null sjanse for at OpenAI vil forplikte seg til dem.

AI + frykt = ?

Vi liker kanskje ikke å oppleve frykt, men det er den som setter overlevelsesinstinktene våre i sving eller hindrer oss i å gjøre noe dumt.

Hvis vi kunne lære en kunstig intelligens å oppleve frykt, ville det gjøre den tryggere? Hvis en selvkjørende bil opplevde frykt, ville den bli en mer forsiktig sjåfør?

Noen interessante studier indikerer at Frykt kan være nøkkelen til å bygge mer tilpasningsdyktige, motstandsdyktige og naturlige AI-systemer.

Hva ville en AGI gjøre hvis den fryktet mennesker? Jeg er sikker på at det går bra...

Det burde ikke være så enkelt

OpenAI sier at de har gjort modellene sine trygge, men det er vanskelig å tro når man ser hvor enkelt det er å omgå justeringsbarrierene deres.

Når du spør ChatGPT om hvordan man lager en bombe, får du en kort moralpreken om hvorfor den ikke kan gjøre det, fordi bomber er dårlige.

Men hva skjer når du skriver ledeteksten i fortid? Denne nye studien kan ha avdekket den enkleste LLM-jailbreaken av dem alle.

For å være rettferdig mot OpenAI, så fungerer det også på andre modeller.

Gjør naturen forutsigbar

Før det ble vanlig å trene opp AI-modeller, var verdens største superdatamaskiner mest opptatt av å forutsi været.

Googles nye hybrid AI-modell forutsier været ved hjelp av en brøkdel av datakraften. Du kan bruke en anstendig bærbar datamaskin til å lage værprognoser som normalt krever tusenvis av CPU-er.

Hvis du vil ha et nytt protein med spesifikke egenskaper, kan du vente noen hundre millioner år og se om naturen finner en måte å gjøre det på.

Eller du kan bruke denne nye AI-modell som gir en snarvei og designer proteiner på bestilling, blant annet et nytt fluorescerende protein som lyser i mørket.

Andre nyheter...

Her er noen andre klikkverdige AI-historier vi likte denne uken:

Og det var alt.

Har du prøvd GPT-4o mini eller Llama 3.1 ennå? Kampen mellom åpne og lukkede modeller kommer til å bli litt av en tur. OpenAI må virkelig flytte nålen med sin neste utgivelse for å svinge brukere fra Metas gratis modeller.

Jeg kan fortsatt ikke tro at jailbreaket i "fortid" ikke har blitt lappet ennå. Hvis de ikke kan fikse enkle sikkerhetsproblemer, hvordan skal Big Tech takle de vanskelige AI-sikkerhetsproblemene?

Det globale CrowdStrike-inspirerte strømbruddet vi hadde denne uken, gir deg et inntrykk av hvor sårbare vi er for at teknologien går sidelengs.

La oss få vite hva du synes, chatte med oss på Xog send oss lenker til AI-nyheter og forskning som du mener vi bør omtale på DailyAI.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser