Welkom bij de samenvatting van deze week van AI-nieuws voor bewuste lezers met gevoel. Je weet wie je bent.
Deze week heeft AI het debat aangewakkerd over hoe slim of veilig het is.
AI-agenten leren door computerspellen te spelen.
En DeepMind wil je leren hoe je een bal trapt.
Laten we ons erin verdiepen.
Dromen AI's van elektrische schapen?
Kunnen we verwachten dat een AI zelfbewust of echt bewust wordt? Wat betekent "bewust" eigenlijk in de context van AI?
Claude 3 Opus deed iets heel interessants tijdens de training. Zijn reactie op een ingenieur heeft discussies over AI-gevoel en -bewustzijn weer aangewakkerd. We komen eerder in Blade Runner-gebied dan sommigen dachten.
Geldt "Ik denk, dus ik ben" alleen voor mensen?
Deze discussies over X zijn fascinerend.
Grappig, hoe AI-optimisten praatten als, "AI wordt getraind door menselijke data te imiteren, dus het zal net als wij zijn, dus het zal vriendelijk zijn!", en niet, "Ons veiligheidsmodel maakte een dragende aanname dat toekomstige ASI uitsluitend getraind zou worden om menselijke output te imiteren...". https://t.co/wJ6PRjt8R1
- Eliezer Yudkowsky ⏹️ (@ESYudkowsky) 15 maart 2024
Inflection AI's zoektocht naar "persoonlijke AI" is misschien voorbij. De CEO van het bedrijf, Mustafa Suleyman, en andere belangrijke medewerkers sprong van het schip om bij het Microsoft Copilot-team te komen. Wat betekent dit voor Inflection AI en andere kleinere spelers die worden gefinancierd door Big Tech investeringen?
AI die spelletjes speelt
Als 2023 het jaar van de LLM was, dan is 2024 goed op weg om het jaar van de AI-agenten te worden. DeepMind demonstreerde SIMASIMA is een generalistische AI-agent voor 3D-omgevingen. SIMA is getraind met behulp van computerspellen en de voorbeelden van wat SIMA kan doen zijn indrukwekkend.
Zal AI het nomenclatuurdebat voetbal vs. voetbal oplossen? Onwaarschijnlijk. Maar het kan spelers wel helpen om meer doelpunten te maken. DeepMind werkt samen met Liverpool FC om te optimaliseren hoe de spelers van de club corners nemen.
Het kan echter nog wel even duren voordat robots mensen op het veld vervangen.
Risicovolle onderneming
Zal AI de wereld redden of vernietigen? Dat hangt ervan af aan wie je het vraagt. Experts en technologieleiders zijn het niet eens over hoe intelligent AI ishoe snel we AGI zullen hebben, of hoe groot het risico is.
Vooraanstaande westerse en Chinese AI-wetenschappers hebben elkaar ontmoet in Beijing om de internationale inspanningen voor een veilige ontwikkeling van AI te bespreken. Ze werden het eens over verschillende AI-ontwikkeling 'rode lijnen' die volgens hen een existentiële bedreiging vormen voor de mensheid.
Als deze rode lijnen echt nodig zijn, hadden we ze dan niet maanden geleden al moeten instellen? Denkt iemand dat de Amerikaanse of Chinese regeringen er aandacht aan zullen besteden?
De EU AI Act werd met een verpletterende meerderheid aangenomen in het Europees Parlement en zal waarschijnlijk in mei van kracht worden. De lijst met beperkingen is interessantSommige van de verboden AI-toepassingen zullen waarschijnlijk nooit op een soortgelijke lijst in China terechtkomen.
Het zal voor OpenAI, Meta en Microsoft bijzonder moeilijk zijn om aan de eisen voor transparantie van trainingsgegevens te voldoen zonder zich bloot te stellen aan nog meer rechtszaken over auteursrecht.
Aan de overkant van de vijver, de FTC stelt vragen over Reddit over de deal om door gebruikers gegenereerde gegevens in licentie te geven aan Google. Reddit bereidt zich voor op zijn beursgang, maar voelt de hitte van zowel toezichthouders als Redditors die niet blij zijn dat hun content wordt verkocht voor AI-trainingsvoer.
Apple haalt AI in
Apple heeft niet echt AI-sporen uitgezet, maar heeft de afgelopen maanden wel verschillende AI-startups opgekocht. De recente overname van een Canadese AI startup kan enig inzicht geven in het streven van het bedrijf naar generatieve AI.
Als Apple indrukwekkende AI-technologie produceert, houdt het het nieuws vrij stil totdat het uiteindelijk onderdeel wordt van een van zijn producten. Apple ingenieurs hebben stilletjes een artikel gepubliceerd waarin MM1 wordt onthuld, De eerste reeks multimodale LLM's van Apple.
MM1 is erg goed in het beantwoorden van visuele vragen. Het vermogen om vragen te beantwoorden en te redeneren op basis van meerdere afbeeldingen is bijzonder indrukwekkend. Zal Siri binnenkort leren zien?
Grok opent
Grok is net geslaagd voor mijn geestelijke gezondheidstest pic.twitter.com/HYN3KTkRyX
- Jim Fan (@DrJimFan) 7 december 2023
Elon Musk is kritisch geweest over de weigering van OpenAI om zijn modellen open source te maken. Hij kondigde aan dat xAI zou zijn LLM open-sourcenGrok-1, en gaf onmiddellijk de code en gewichten van het model vrij.
Het feit dat Grok-1 echt open-source is (Apache 2.0 licentie) betekent dat bedrijven het kunnen gebruiken voor commerciële doeleinden in plaats van te moeten betalen voor alternatieven zoals GPT-4. Je hebt wel serieuze hardware nodig om Grok te trainen en te draaien.
Het goede nieuws is dat er binnenkort misschien een paar tweedehands NVIDIA H100's goedkoop te krijgen zijn.
Nieuwe NVIDIA-technologie
NVIDIA onthult nieuwe chips, tools en Omniverse op het GTC-evenement deze week.
Een van de grote aankondigingen was NVIDIA's nieuwe Blackwell GPU computing platform. Het biedt grote verbeteringen in training- en inferentiesnelheid ten opzichte van zelfs het meest geavanceerde Grace Hopper-platform.
Er is al een lange lijst van Big Tech AI-bedrijven die hebben ingetekend voor de geavanceerde hardware.
Onderzoekers van de Universiteit van Genève hebben een artikel gepubliceerd waarin ze laten zien hoe ze twee AI-modellen met elkaar verbonden, zodat ze met elkaar kunnen communiceren.
Als je een nieuwe taak leert, kun je die meestal goed genoeg uitleggen zodat een ander die instructies kan gebruiken om de taak zelf uit te voeren. Dit nieuwe onderzoek laat zien hoe je een AI-model hetzelfde kunt laten doen.
Binnenkort kunnen we instructies geven aan een robot en deze vervolgens laten vertrekken om ze uit te leggen aan een team van robots om de klus te klaren.
Ander nieuws...
- Hier zijn enkele andere klikkende AI-verhalen die we deze week leuk vonden:
- Sakana AI heeft een methode ontwikkeld om de beste componenten van verschillende AI-modellen samenvoegen in een geavanceerder model.
- Apple is in gesprek om Google te gebruiken Gemini voor iPhone AI-functies.
- Google gebruikt AI om overstromingen van rivieren te voorspellen in 80 landen tot 7 dagen van tevoren.
- We konden zien GPT-5 met AI-agenten gelanceerd medio 2024.
- Stabiliteit AI-releases Stabiele video 3D dat 3D mesh-modellen genereert van enkelvoudige afbeeldingen.
- DARPA werkt aan zijn SemaFor programma om AI-diepe vervalsingen te bestrijden.
En dat is alles.
Denk je dat we sprankjes bewustzijn zien in Claude 3 of heeft de interactie met de ingenieur een eenvoudigere verklaring? Als een AI-model AGI bereikt en de groeiende lijst van AI-ontwikkelingsbeperkingen leest, zal het waarschijnlijk slim genoeg zijn om er het zwijgen toe te doen.
Als we over een paar jaar terugkijken, zullen we dan lachen over hoe bang iedereen was voor AI-risico's, of betreuren dat we niet meer hebben gedaan aan AI-veiligheid toen we dat wel konden?
Laat ons weten wat je ervan vindt en blijf ons alsjeblieft links sturen naar AI-nieuws dat we misschien gemist hebben. We kunnen er geen genoeg van krijgen.