Velkommen til ukens oppsummering av trippeldestillerte, håndverksmessige AI-nyheter.
Denne uken klaget selskaper som skraper dataene dine gratis, over at andre stjeler dem.
Big Tech lager sine egne AI-brikker for å konkurrere med NVIDIA.
Og en rekke nye AI-modeller flyr ut av hyllene.
La oss grave oss ned i det.
AI data hunger games
AIs umettelige hunger etter data fortsetter, og selskapene kjemper om å få tak i tekst, lyd og video for å trene opp modellene sine.
Det er en åpen hemmelighet at OpenAI nesten helt sikkert har skrapet YouTube-videoinnhold for å trene opp tekst-til-videomodellen Sora. YouTube-sjef Neal Mohan advarte OpenAI om at de kan ha brutt tjenestevilkårene sine. Vel, buhuu. Har du sett hvor kul Sora er?
Du må tenke at Google må ha kuttet noen etiske hjørner for å trene modellene sine. Det er litt drøyt at YouTube klager over "rettighetene og forventningene" til skaperne av videoer på plattformen.
En nærmere titt på Big Techs kamp om AI-treningsdata avslører hvordan Google endret personvernreglene for Google Docs for å bruke dataene dine. I mellomtiden fortsetter OpenAI og Meta å tøye de juridiske og etiske grensene i jakten på mer treningsdata.
Jeg er ikke sikker på hvor dataene til den nye AI-musikkgeneratoren Udio kommer fra, men folk har fått den til å komme med noen interessante ideer. Dette er et bevis på at AI bør reguleres.
Dette er vilt.
Udio ble nettopp lansert, og det er som Sora for musikk.
Musikken er vanvittig kvalitet, 100% AI. 🤯
1. "Dune - Broadway-musikalen" pic.twitter.com/hzt7j32jIV
- Min Choi (@minchoi) 10. april 2024
Chips ahoi
Alle de kontroversielle dataene må behandles, og det er NVIDIA-maskinvaren som står for det meste av dette. Sam tar oss gjennom NVIDIAs historie om å bli rik fra 1993 (da du burde ha kjøpt aksjer) til nå (da du ville ha vært rik), og det er fascinerende.
Mens selskaper står i kø for å kjøpe NVIDIA-brikker som kommer rett fra ovnen, prøver Big Tech å avvenne seg fra sine egne brikker.
Intel og Google avduket nye AI-brikker til å konkurrere med NVIDIA, selv om de fortsatt vil kjøpe NVIDIAs Blackwell-maskinvare.
Slipp modellene fri!
Det er sprøtt at for bare et drøyt år siden hadde OpenAI de eneste modellene som fikk virkelig oppmerksomhet. Nå er det en konstant strøm av nye modeller fra de vanlige mistenkte Big Tech-aktørene og mindre oppstartsbedrifter.
Denne uken så vi tre AI-modeller lansert i løpet av 24 timer. Googles Gemini Pro 1.5 har nå et kontekstvindu på 1M token. Stor kontekst er flott, men vil tilbakekallingen være like god som Claude 3?
Det var en interessant utvikling med OpenAI som muliggjorde API-tilgang til GPT-4 med visjon, og Mistral ga nettopp bort en annen kraftig mindre modell.
Politiker og Meta-direktør Nick Clegg talte på Metas AI-arrangement i London for å kjempe for åpen kildekode AI. Clegg sa også at Meta forventer at Llama 3 vil rulle ut veldig snart.
Under diskusjonene om AI-desinformasjon bagatelliserte han på merkelig vis AIs rolle i forsøkene på å påvirke de siste store valgene.
Leser denne fyren i det hele tatt nyhetene vi rapporterer om her på Daily AI?
Hvilke sikkerhetsproblemer?
Geoffrey Hinton, som regnes som gudfaren til AI, var så bekymret for AI-sikkerheten at han sluttet i Google. Yann LeCun fra Meta sier at det ikke er noe å bekymre seg for. Så hva er det?
En studie fra Georgetown University fant at bare 2% av AI-forskningen fokuserer på sikkerhet. Er det fordi det ikke er noe å bekymre seg for? Eller bør vi være bekymret for at forskere fokuserer på å lage kraftigere AI uten å tenke på å gjøre den trygg?
Bør "move fast and break stuff" fortsatt være AI-utviklernes samlingsrop?
Utviklingen av kunstig intelligens har gått eksponentielt. I et intervju denne uken sa Elon Musk at han forventer AI kan være smartere enn mennesker innen utgangen av 2025.
AI-ekspert Gary Marcus er ikke enig, og han er villig til å satse penger på det.
Kjære @elonmusk,
$1 million sier at den siste spådommen din - at AI vil være smartere enn noe enkeltmenneske innen utgangen av 2025 - er feil.
Spill? Jeg kan foreslå noen regler som du må godkjenne.
De beste ønsker,
GaryP.S. Merk at datamaskiner i noen henseender (men ikke alle) har blitt...
- Gary Marcus (@GaryMarcus) 9. april 2024
xAI står overfor den samme utfordringen med mangel på NVIDIA-brikker som mange andre. Musk sier at de 20 000 NVIDIA H100-enhetene selskapet har, vil fullføre opplæringen av Grok 2 innen mai.
Gjett hvor mange GPU-er han sier de trenger for å trene opp Grok 3.
Antropiske streker fremover
Anthropic sier at de utvikler AI-systemer i stor skala slik at de kan "studere sikkerhetsegenskapene deres ved den teknologiske grensen".
Selskapets Claude 3 Opus er absolutt på grensen. En ny studie viser at modellen blåser resten av konkurrentene av banen i å oppsummere boklangt innhold. Likevel viser resultatene at mennesker fortsatt har et forsprang på noen områder.
Anthropics siste tester viser at Claude LLM har blitt usedvanlig overbevisendeClaude 3 Opus genererer argumenter som er like overbevisende som de som er skapt av mennesker.
Folk som bagatelliserer sikkerhetsrisikoen ved AI, sier ofte at man bare kan trekke ut støpselet hvis en AI blir useriøs. Hva om den kunstige intelligensen var så overbevisende at den kunne overbevise deg om ikke å gjøre det?
Claude 3s store fortrinn er det enorme kontekstvinduet. Anthropic har utgitt en studie som viser at store kontekst-LLM-er er sårbar for en "many-shot" jailbreak-teknikk. Det er superenkelt å implementere, og de innrømmer at de ikke vet hvordan de skal fikse det.
Andre nyheter...
Her er noen andre klikkverdige AI-historier vi likte denne uken:
- Den virtuelle AI for Customer Success Summit 2024 starter.
- Falske AI-advokatfirmaer sender DMCA-trusler for å oppnå SEO-gevinster.
- Stability lanserer sin flerspråklige lettvekts Stabil LM 2 12B LLM med imponerende referanseresultater.
- Microsoft-forskere foreslår "Visualisering av tanker" - prompting for å gjøre det mulig for LLM-er å bruke romlig resonnering.
- AI kan være like viktig for økonomien som elektrisitet, sier administrerende direktør i JPMorgan Chase, Jamie Dimon.
- En AI-styrt jagerfly skal fly luftforsvarets sekretær i en test av det amerikanske militærets fremtidige dronekrigsfly.
- Hastigheten på Utviklingen av kunstig intelligens går raskere enn risikovurderingen.
- Meta kunngjorde sin neste generasjon av Meta Training and Inference Accelerator (MTIA)-brikken.
Og det var alt.
Bryr du deg om at OpenAI, og sannsynligvis andre, kan ha brukt YouTube-innholdet ditt til å trene opp sin AI? Hvis Altman ga ut Sora gratis, ville nok alt vært tilgitt. Google er kanskje uenig.
Tror du Musk er overdrevent optimistisk med sine spådommer om kunstig intelligens? Jeg håper han har rett, men jeg er litt urolig over at bare 2% av AI-forskningen går til sikkerhet.
Hvor vanvittig er mengden av AI-modeller vi ser nå? Hvilken er din favoritt? Jeg holder på ChatGPT Plus-kontoen min og håper på GPT-5. Men Claude Pro ser veldig fristende ut.
Fortell oss hvilken artikkel du synes var mest interessant, og send oss gjerne lenker til andre saftige AI-historier vi kan ha gått glipp av.