DAI#34 - Datagrijpers, hete chips en grote modellen

12 april 2024

Welkom bij de samenvatting van deze week van driedubbel gedistilleerd ambachtelijk AI-nieuws.

Deze week klaagden bedrijven die gratis je gegevens scrapen dat anderen ze stelen.

Big Tech maakt zijn eigen AI-chips om te concurreren met NVIDIA.

En een heleboel nieuwe AI-modellen vliegen uit de schappen.

Laten we ons erin verdiepen.

AI-gegevens hongerspelen

De onverzadigbare honger van AI naar gegevens gaat door nu bedrijven tekst, audio en video verzamelen om hun modellen te trainen.

Het is een publiek geheim dat OpenAI vrijwel zeker YouTube-video's heeft gebruikt om zijn tekst-naar-videomodel Sora te trainen. YouTube CEO Neal Mohan waarschuwde OpenAI dat het mogelijk zijn servicevoorwaarden heeft geschonden. Nou, boohoo. Heb je gezien hoe cool Sora is?

Je moet wel denken dat Google wat ethische kantjes heeft afgesneden om zijn modellen te trainen. YouTube laten huilen over de "rechten en verwachtingen" van de makers van video's op zijn platform is een beetje vreemd.

Een kijkje in de keuken Big Tech's strijd om AI-trainingsgegevens onthult hoe Google zijn Google Docs privacybeleid heeft aangepast om jouw gegevens te kunnen gebruiken. Ondertussen blijven OpenAI en Meta de wettelijke en ethische grenzen opzoeken in hun zoektocht naar meer trainingsgegevens.

Ik weet niet zeker waar de gegevens vandaan komen voor de nieuwe AI-muziekgenerator Udio, maar mensen hebben er interessante ideeën aan ontleend. Dit bewijst dat AI gereguleerd moet worden.

Chips ahoy

Al die controversiële gegevens moeten worden verwerkt en de NVIDIA-hardware doet het grootste deel daarvan. Sam neemt ons mee door NVIDIA's verhaal van vodden naar rijkdom van 1993 (toen je aandelen had moeten kopen) tot nu (toen je rijk zou zijn geweest) en het is fascinerend.

Terwijl bedrijven in de rij blijven staan om NVIDIA-chips te kopen, probeert Big Tech af te kicken van haar chips.

Intel en Google onthullen nieuwe AI-chips om te concurreren met NVIDIA, ook al kopen ze nog steeds Blackwell hardware van NVIDIA.

Laat de modellen los!

Het is gek dat iets meer dan een jaar geleden OpenAI de enige modellen waren die echt aandacht kregen. Nu is er een constante stroom van nieuwe modellen van de Big Tech usual suspects en kleinere startups.

Deze week zagen we drie AI-modellen vrijgegeven binnen 24 uur. Google's Gemini Pro 1.5 heeft nu een contextvenster van 1M token. Grote context is geweldig, maar zal de recall net zo goed zijn als bij Claude 3?

Er waren interessante ontwikkelingen met OpenAI die API-toegang tot GPT-4 met vision mogelijk maakte, en Mistral gaf net nog een krachtig kleiner model weg.

Politicus die Meta-directeur is geworden Nick Clegg sprak op Meta's AI-evenement in Londen om open-source AI te promoten. Clegg zei ook dat Meta verwacht dat Llama 3 zeer binnenkort wordt uitgebracht.

Tijdens discussies over AI-desinformatie bagatelliseerde hij op bizarre wijze de rol van AI in pogingen om recente belangrijke verkiezingen te beïnvloeden.

Leest deze man wel het nieuws dat we hier bij Daily AI melden?

Welke veiligheidsproblemen?

Geoffrey Hinton, die beschouwd wordt als de peetvader van AI, was zo bezorgd over de veiligheid van AI dat hij ontslag nam bij Google. Yann LeCun van Meta zegt dat er niets is om je zorgen over te maken. Dus wat is het?

Uit een onderzoek van de Georgetown University bleek dat slechts 2% van het AI-onderzoek is gericht op veiligheid. Is dat omdat er niets is om ons zorgen over te maken? Of moeten we ons zorgen maken over het feit dat onderzoekers zich richten op het maken van krachtigere AI zonder na te denken over de veiligheid ervan?

Moet 'snel bewegen en dingen kapotmaken' nog steeds de slogan zijn voor AI-ontwikkelaars?

De ontwikkeling van AI verloopt exponentieel. In een interview deze week zei Elon Musk dat hij verwacht dat AI kan tegen het einde van 2025 slimmer zijn dan mensen.

AI-expert Gary Marcus is het daar niet mee eens en hij is bereid er geld op in te zetten.

xAI kampt met hetzelfde NVIDIA-chiptekort als vele anderen. Musk zegt dat de 20.000 NVIDIA H100's die het bedrijf heeft tegen mei klaar zullen zijn met de training van Grok 2.

Raad eens hoeveel GPU's hij zegt dat ze nodig hebben om Grok 3 te trainen.

Antropische strepen vooruit

Anthropic zegt dat het grootschalige AI-systemen ontwikkelt zodat ze "hun veiligheidseigenschappen aan de technologische grens kunnen bestuderen".

De Claude 3 Opus van het bedrijf is zeker een grensgeval. Een nieuwe studie toont aan dat het model blaast de rest van de concurrentie weg in het samenvatten van boeklengte inhoud. Toch laten de resultaten zien dat mensen in sommige opzichten nog steeds in het voordeel zijn.

Anthropic's laatste tests tonen aan dat Claude LLM's zijn uitzonderlijk overtuigend gewordenClaude 3 Opus genereert argumenten die net zo overtuigend zijn als die van mensen.

Mensen die de veiligheidsrisico's van AI's bagatelliseren, zeggen vaak dat je gewoon de stekker eruit kunt trekken als een AI de fout ingaat. Wat als de AI zo overtuigend was dat hij je kon overtuigen om dat niet te doen?

De grote claim van Claude 3 is zijn enorme contextvenster. Anthropic heeft een onderzoek uitgebracht waaruit blijkt dat grote context LLM's kwetsbaar voor een "many-shot" jailbreak techniek. Het is super eenvoudig te implementeren en ze geven toe dat ze niet weten hoe ze het moeten oplossen.

Ander nieuws...

Hier zijn enkele andere klikkende AI-verhalen die we deze week leuk vonden:

En dat is alles.

Vind je het erg dat OpenAI, en waarschijnlijk ook anderen, jouw YouTube-content hebben gebruikt om hun AI te trainen? Als Altman Sora gratis zou uitbrengen, dan denk ik dat alles vergeven zou zijn. Google is het daar misschien niet mee eens.

Denk je dat Musk te optimistisch is met zijn voorspellingen over AI-intelligentie? Ik hoop dat hij gelijk heeft, maar ik voel me een beetje ongemakkelijk dat slechts 2% aan AI-onderzoek naar veiligheid gaat.

Hoe gek is de hoeveelheid AI-modellen die we nu zien? Welke is jouw favoriet? Ik houd vast aan mijn ChatGPT Plus-account en hoop op GPT-5. Maar Claude Pro ziet er erg verleidelijk uit.

Laat ons weten welk artikel er voor jou uitsprong en blijf ons links sturen naar sappige AI-verhalen die we misschien hebben gemist.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Eugene van der Watt

Eugene heeft een achtergrond in elektrotechniek en houdt van alles wat met techniek te maken heeft. Als hij even pauzeert van het consumeren van AI-nieuws, kun je hem aan de snookertafel vinden.

Geen categorieën gevonden.
×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden