DAI#49 - Åbne lamaer, AI-frygt og alt for nemme jailbreaks

26. juli 2024

Velkommen til denne uges oversigt over håndvævede AI-nyheder.

I denne uge strøg lamaer foran i det åbne AI-kapløb.

Big Tech-firmaer taler om sikkerhed, mens deres modeller opfører sig dårligt.

Og at gøre AI bange kan få den til at fungere bedre.

Lad os se nærmere på det.

Åben Meta vs. lukket OpenAI

I denne uge så vi endelig spændende udgivelser fra nogle af de store kanoner inden for AI.

OpenAI udgivet GPT-4o minien højtydende, superbillig version af flagskibsmodellen GPT-4o.

De reducerede token-omkostninger og den imponerende MMLU-benchmark-ydelse vil få mange udviklere til at vælge mini-versionen i stedet for GPT-4o.

Godt gået OpenAI. Men hvornår får vi Sora og stemmeassistenten?

Meta udgav sin Den længe ventede Llama 3.1 405B-model og smed opgraderede 8B- og 70B-versioner sammen med den.

Mark Zuckerberg sagde, at Meta var engageret i open source AI, og han havde nogle interessante grunde til det.

Er du bekymret over, at Kina nu har Metas mest kraftfulde model? Zuckerberg siger, at Kina sandsynligvis ville have stjålet den alligevel.

Sikkerhed i anden række

Nogle af de mest prominente navne inden for Big Tech mødtes for at Medstifter af Koalitionen for sikker AI (CoSAI).

Industriens aktører har fundet deres egen vej, hvad angår sikker AI-udvikling, i mangel af en industristandard. CoSAI har til formål at ændre det.

Listen over stiftende virksomheder indeholder alle de store navne undtagen Apple og Meta. Da han så "AI-sikkerhed" i emnelinjen, sendte Yann LeCun sandsynligvis e-mailinvitationen direkte til sin spam-mappe.

OpenAI er en af CoSAIs grundlæggere, men deres falske engagement i AI-sikkerhed ser lidt vaklende ud.

Den US Senatet undersøgte OpenAI's sikkerhed og ledelse efter whistleblower-påstande om, at de skyndte sig med sikkerhedstjek for at få GPT-4o frigivet.

Senatorerne har en liste med krav, som giver mening, hvis man er bekymret for AI-sikkerhed. Når man læser listen, indser man, at der sandsynligvis ikke er nogen chance for, at OpenAI vil forpligte sig til dem.

AI + frygt = ?

Vi kan måske ikke lide, når vi oplever frygt, men det er det, der får vores overlevelsesinstinkter til at køre i højeste gear eller forhindrer os i at gøre noget dumt.

Hvis vi kunne lære en kunstig intelligens at opleve frygt, ville det så gøre den mere sikker? Hvis en selvkørende bil oplevede frygt, ville den så være en mere forsigtig chauffør?

Nogle interessante undersøgelser viser, at Frygt kan være nøglen til at bygge mere tilpasningsdygtige, modstandsdygtige og naturlige AI-systemer.

Hvad ville en AGI gøre, hvis den frygtede mennesker? Jeg er sikker på, at det nok skal gå...

Det burde ikke være så let

OpenAI siger, at de har gjort deres modeller sikre, men det er svært at tro på, når man ser, hvor let det er at omgå deres justeringsværn.

Når du spørger ChatGPT, hvordan man laver en bombe, giver den dig en kort moralsk opsang om, hvorfor den ikke kan gøre det, fordi bomber er dårlige.

Men hvad sker der, når du skriver opfordringen i datid? Denne nye undersøgelse har måske afdækket Den nemmeste LLM-jailbreak af dem alle.

For at være fair over for OpenAI, så virker det også på andre modeller.

Gør naturen forudsigelig

Før det blev aktuelt at træne AI-modeller, var verdens største supercomputere primært beskæftiget med at forudsige vejret.

Googles nye hybrid AI-model forudsiger vejret ved hjælp af en brøkdel af computerkraften. Man kan bruge en god laptop til at lave vejrforudsigelser, som normalt ville kræve tusindvis af CPU'er.

Hvis man vil have et nyt protein med specifikke egenskaber, kan man vente et par hundrede millioner år og se, om naturen finder en måde at gøre det på.

Eller du kan bruge denne nye AI-model, der giver en genvej og designer proteiner on-demand, herunder et nyt selvlysende fluorescerende protein.

Andre nyheder...

Her er nogle andre klikværdige AI-historier, som vi nød i denne uge:

Og så er det slut.

Har du prøvet GPT-4o mini eller Llama 3.1 endnu? Kampen mellem åbne og lukkede modeller bliver noget af en tur. OpenAI bliver nødt til virkelig at flytte nålen med sin næste udgivelse for at få brugerne væk fra Metas gratis modeller.

Jeg kan stadig ikke tro, at jailbreaket i "datid" ikke er blevet patchet endnu. Hvis de ikke kan løse simple sikkerhedsproblemer, hvordan vil Big Tech så tackle de svære AI-sikkerhedsproblemer?

Det globale CrowdStrike-inspirerede nedbrud, vi havde i denne uge, giver dig en idé om, hvor sårbare vi er over for teknologi, der går sidelæns.

Fortæl os, hvad du synes, chat med os på Xog send os links til AI-nyheder og -forskning, som du synes, vi skal omtale på DailyAI.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser