Welkom bij de samenvatting van deze week van handgemaakt AI-nieuws op maat.
Deze week stootte Anthropic OpenAI van de pole position.
AI-audiofabrikanten krijgen te maken met de muziek in de rechtbank.
En de beste LLM's worstelen met een puzzel die kinderen kunnen oplossen.
Laten we ons erin verdiepen.
Claude vs GPT-4o
Na maanden van AI-modellen die beweren 'bijna net zo goed te zijn als GPT-4', hebben we eindelijk een model dat OpenAI van zijn toppositie op de ranglijsten verdringt.
Anthropic vrijgegeven Claude Sonnet 3.5, een verbeterde versie van zijn middelgrote Claude-model. De MMLU benchmark tests laten zien dat het GPT-4o en Google's Gemini 1.5 Pro in bijna elke test verslaat.
Met een nog krachtigere Claude Opus 3.5 die binnenkort wordt verwacht, wat zal OpenAI's antwoord zijn?
Claude 3.5 Sonnet is niet zoals de andere LLM's šāāļø
11 indrukwekkende demo's van het nieuwe model: pic.twitter.com/2oHZdArz6J
- Proper (@ProperPrompter) 26 juni 2024
Nadat Meta de lancering van Meta AI in de EU had afgeblazen, doet Apple hetzelfde vanwege de strenge wetgeving in de regio.
Apple heeft de uitrol van zijn Apple Intelligentie daar als tech-fans uit de EU toekijken hoe de rest van de wereld het voor het zeggen krijgt.
Klinkt bekend...
AI-bedrijven worden aangeklaagd en voor de verandering is het niet OpenAI of Meta.
Tekst-naar-audio platforms Suno en Udio genereren indrukwekkende muziek, maar hoe zijn ze zo goed geworden?
De opname-industrievereniging van Amerika klaagt de bedrijven aanZe zeggen dat ze "auteursrechtelijk beschermde geluidsopnamen hebben gestolen" om hun AI te trainen. Als de rechter naar deze voorbeeldfragmenten luistert, wordt het misschien een kort dagje in de rechtszaal.
Een AI-bedrijf dat auteursrechtelijk beschermd materiaal gebruikt om zijn modellen te trainen zonder de makers te betalen? Wij zijn net zo min verbaasd als jij.
Het recreƫren van auteursrechtelijk beschermde muziek is echter niet het ergste waarvoor AI wordt gebruikt. Een onderzoek van DeepMind zegt dat de belangrijkste vorm van AI-misbruik zijn slechteriken die diepe vervalsingen creƫren voor opiniemanipulatie.
De rest van de AI-misbruiklijst is interessant om te lezen.
Weet je zeker dat dit klopt?
AI-modellen zijn erg goed in het genereren van zeer plausibele maar compleet verkeerde informatie.
AI-wetenschappers zeggen dat hallucinaties niet kunnen worden verholpen, maar een onderzoek van de Universiteit van Oxford heeft vastgesteld wanneer AI-hallucinaties waarschijnlijker zijn.
"Semantische entropie" controleert het betrouwbaarheidsniveau van het AI-model en het is ook mijn nieuwe beleefde manier om te zeggen dat iemand onzin uitkraamt.
Zelfs de meest geavanceerde LLM's verzinnen dingen als ze met verrassend eenvoudige puzzels worden geconfronteerd. Deze week plaatsten gebruikers op X voorbeelden van hoe de slimste modellen kunnen geen eenvoudige rivieroversteekpuzzel oplossen.
Is dit het bewijs dat LLM's niet goed zijn in redeneren, of is er hier iets anders aan de hand?
AI heeft misschien moeite met sommige raadsels, maar het kent je beter dan je denkt. Uit een nieuw onderzoek blijkt dat een AI-systeem kan voorspellen hoe angstig je bent van hoe je reageert op foto's.
Het vermogen van deze modellen om menselijke emoties af te leiden kan erg nuttig zijn, maar kan ook een bron van menselijke angst zijn.
AI open seizoen
Als AI-bedrijven het woord "open" gebruiken om hun modellen te beschrijven, betekent dat zelden wat je denkt dat het betekent.
Hoe "open" zijn deze AI-modellen? Sam nam een kijkje naar welke AI-modellen echt open zijn en waarom sommige bedrijven bepaalde aspecten heel erg gesloten houden.
Deze week vond er een spannende ontwikkeling plaats in de open modelruimte. ESM3 van EvolutionaryScale is een generatief model voor biologie dat aanwijzingen omzet in eiwitten.
Voorheen moesten wetenschappers die op zoek waren naar een nieuw eiwit wachten tot de natuur ermee kwam of een hit-or-miss benadering in het lab uitproberen.
Nu stelt ESM3 wetenschappers in staat om biologie te programmeren en eiwitten te maken die verder gaan dan de natuur.
AI-gebeurtenissen
Als je je marketinginspanningen wilt opvoeren, bekijk dan de MarTech Summit Hong Kong 2024 gebeurt op 9 juli.
Het AI Accelerator Institute presenteert de AI-generatietop Austin 2024 op 10 juli. Op de agenda staan industrieleiders die de nieuwste trends in real-world generatieve AI-toepassingen bespreken.
Ander nieuws...
Hier zijn enkele andere klikkende AI-verhalen die we deze week leuk vonden:
- Meta is onjuist echte foto's markeren als 'Gemaakt door AI.
- SoftBank CEO zegt dat AI 10.000 keer slimmer dan mensen komt over 10 jaar uit.
- OpenAI vertraagt de lancering van GPT-4o's stemassistent om veiligheidskwesties aan te pakken.
- Antropische debuten samenwerkingstools voor zijn Claude AI-assistent.
- Chinese AI-bedrijven maken het hof OpenAI gebruikers omdat het Amerikaanse bedrijf API-beperkingen plant.
- OpenAI neemt over Tool voor het samen delen van schermen maker Multi.
- Toys "R" Us ontketent een online reactie na het uitbrengen van een advertentie gemaakt met OpenAI's Sora.
deze toys r us commercial is volledig met AI gemaakt, wat betekent dat het kind walgelijk en goor is, het sentiment hol, en het merk toys r us voor minstens de derde keer dood is pic.twitter.com/IRprWZKN8O
- Chris Alsikkan ā¢ (@AlsikkanTV) 25 juni 2024
En dat is alles.
Heb je de verbeterde Claude geprobeerd? Het venster Artifacts is echt cool. Je kunt er zeker van zijn dat ChatGPT binnenkort een soortgelijke functie krijgt.
Ik speel graag met Udio en Suno, maar het valt niet te ontkennen dat ze auteursrechtelijk beschermde muziek kopiƫren. Is dit de prijs van vooruitgang of is het een showstopper?
Het verbaast me nog steeds dat AI-modellen moeite hebben met een eenvoudige rivieroversteekpuzzel. We moeten dat waarschijnlijk oplossen voordat we de AI echt belangrijke dingen laten besturen, zoals elektriciteitsnetten of ziekenhuizen.
Laat ons weten wat je ervan vindt en blijf ons links sturen naar interessant AI-nieuws en -onderzoek dat we misschien hebben gemist.