Velkommen til ukens oppsummering av håndlagde, skreddersydde AI-nyheter.
Denne uken slo Anthropic OpenAI fra seg førsteplassen.
AI-lydgeneratorer møter musikken i retten.
Og de beste LLM-ene sliter med et puslespill som barna dine kan løse.
La oss grave oss ned i det.
Claude vs GPT-4o
Etter flere måneder med AI-modeller som hevder å være "nesten like gode som GPT-4", har vi endelig fått en modell som dytter OpenAI ned fra førsteplassen på topplistene.
Anthropic utgitt Claude Sonett 3.5, en oppgradert versjon av den mellomstore Claude-modellen. MMLUs referansetester viser at den slår GPT-4o og Googles Gemini 1.5 Pro i nesten alle tester.
Hva vil OpenAI svare på at Claude Opus 3.5 snart er ventet å bli enda kraftigere?
Claude 3.5 Sonnet er ikke som de andre LLM-ene 💁♀️
11 imponerende demonstrasjoner av den nye modellen: pic.twitter.com/2oHZdArz6J
- Proper (@ProperPrompter) 26. juni 2024
Etter at Meta avlyste lanseringen av Meta AI i EU, gjør Apple det samme på grunn av strenge lover i regionen.
Apple har forsinket lanseringen av sin Apple Etterretning der som teknologifans i EU ser på at resten av verden får førsteretten.
Høres kjent ut...
AI-selskaper blir saksøkt, og for en gangs skyld er det ikke OpenAI eller Meta.
Tekst-til-lyd-plattformene Suno og Udio genererer imponerende musikk, men hvordan har de blitt så gode?
The Recording Industry Association of America saksøker selskapeneDe sier at de "stjal opphavsrettsbeskyttede lydopptak" for å trene opp AI-en sin. Når dommeren hører på disse lydklippene, kan det bli en kort dag i retten.
Et AI-selskap som bruker opphavsrettsbeskyttet materiale til å trene opp modellene sine uten å betale opphavspersonene? Vi er like lite overrasket som deg.
Å gjenskape opphavsrettsbeskyttet musikk er imidlertid ikke det verste AI blir brukt til. En DeepMind-studie sier at den ledende formen for misbruk av AI er skurker som lager dype forfalskninger for å manipulere opinionen.
Resten av listen over AI-misbruk er interessant lesning.
Er du sikker på at det stemmer?
AI-modeller er veldig flinke til å generere svært plausibel, men helt feil informasjon.
AI-forskere sier at hallusinasjoner ikke kan fikses, men en studie fra University of Oxford identifiserte når det er mer sannsynlig at AI-hallusinasjoner oppstår.
"Semantisk entropi" sjekker AI-modellens konfidensnivå, og det er også min nye høflige måte å si at noen snakker tull.
Selv de mest avanserte LLM-ene finner på ting når de blir stilt overfor overraskende enkle gåter. Denne uken la brukere på X ut eksempler på hvordan selv de smarteste modellene klarer ikke å løse en enkel elvekryssing.
Er det et bevis på at LLM-er ikke er gode til å resonnere, eller er det noe annet som skjer her?
AI sliter kanskje med noen gåter, men den kjenner deg bedre enn du tror. En ny studie fant at en AI-system kan forutsi hvor engstelig du er fra hvordan du reagerer på bilder.
Disse modellenes evne til å utlede menneskelige følelser kan være til stor hjelp, men kan også være en kilde til angst hos mennesker.
AI åpner sesongen
Når AI-selskaper bruker ordet "åpen" for å beskrive modellene sine, betyr det sjelden det du tror det gjør.
Hvor "åpne" er disse AI-modellene? Sam tok en nærmere titt på hvilke AI-modeller som virkelig er åpne og hvorfor noen selskaper holder visse aspekter svært lukket.
Denne uken har det skjedd en spennende utvikling på området åpne modeller. EvolutionaryScales ESM3 er en generativ modell for biologi som forvandler spørsmål til proteiner.
Tidligere måtte forskere på jakt etter et nytt protein vente på at naturen skulle komme opp med det, eller prøve seg frem i laboratoriet.
Nå gjør ESM3 det mulig for forskere å programmere biologi og skape proteiner hinsides naturen.
AI-hendelser
Hvis du ønsker å øke markedsføringsinnsatsen din, kan du ta en titt på MarTech Summit Hong Kong 2024 som finner sted den 9. juli.
AI Accelerator Institute presenterer Generativ AI-toppmøte i Austin 2024 den 10. juli. På agendaen står bransjeledere som diskuterer de nyeste trendene innen generative AI-applikasjoner i den virkelige verden.
Andre nyheter...
Her er noen andre klikkverdige AI-historier vi likte denne uken:
- Meta er feilaktig merke ekte bilder som "Laget av AI.
- SoftBank-sjef sier at AI som er 10 000 ganger smartere enn mennesker vil komme ut om ti år.
- OpenAI utsetter lanseringen av GPT-4os stemmeassistent for å løse sikkerhetsproblemer.
- Antropiske debuter samarbeidsverktøy for sin Claude AI-assistent.
- Kinesiske AI-firmaer frir til OpenAI brukere ettersom det amerikanske selskapet planlegger API-restriksjoner.
- OpenAI kjøper verktøy for skjermdeling og samarbeid Multi.
- Toys "R" Us utløser en motreaksjon på nettet etter å ha sluppet en annonse opprettet med OpenAI's Sora.
denne toys r us-reklamen er laget utelukkende med kunstig intelligens, noe som betyr at ungen er motbydelig og uhyggelig, følelsen hul, og toys r us-merket er dødt for minst tredje gang pic.twitter.com/IRprWZKN8O
- Chris Alsikkan ™ (@AlsikkanTV) 25. juni 2024
Og det var alt.
Har du prøvd den oppgraderte Claude? Artifacts-vinduet er virkelig kult. Det er et sikkert veddemål at ChatGPT vil få en lignende funksjon veldig snart.
Jeg elsker å spille med Udio og Suno, men det kan ikke benektes at de stjeler opphavsrettslig beskyttet musikk. Er dette prisen for fremgang, eller er det en showstopper?
Jeg er fortsatt overrasket over at AI-modeller sliter med en enkel elvekryssing. Vi bør nok fikse det før vi lar AI kontrollere virkelig viktige ting som strømnett eller sykehus.
Fortell oss hva du synes, og fortsett å sende oss lenker til interessante AI-nyheter og forskning som vi kanskje har gått glipp av.