Welkom bij de samenvatting van deze week van handgeweven AI-nieuws.
Deze week gingen de Lama's aan kop in de open AI-race.
Big Tech bedrijven praten over veiligheid terwijl hun modellen zich misdragen.
En door AI bang te maken, werkt het misschien beter.
Laten we ons erin verdiepen.
Open Meta vs gesloten OpenAI
Deze week zijn er eindelijk spannende releases verschenen van een aantal grote namen op het gebied van AI.
OpenAI GPT-4o mini uitgebrachtEen krachtige, superlage versie van het vlaggenschip, de GPT-4o.
Dankzij de lagere kosten voor tokens en de indrukwekkende MMLU-benchmarkprestaties zullen veel ontwikkelaars kiezen voor de miniversie in plaats van GPT-4o.
Goede zet OpenAI. Maar wanneer krijgen we Sora en de stemassistent?
Meta heeft haar langverwachte Llama 3.1 405B model en voegde er verbeterde 8B en 70B versies aan toe.
Mark Zuckerberg zei dat Meta zich inzet voor open source AI en hij had een aantal interessante redenen waarom.
Bent u bezorgd dat China nu Meta's krachtigste model heeft? Zuckerberg zegt dat China het waarschijnlijk toch zou hebben gestolen.
Het blijft me verbazen dat de US blokkeert China van geavanceerde AI-chips... maar staat Meta toe om ze gewoon de ACTUELE MODELLEN gratis te geven.
De natsec mensen lijken nog niet wakker te zijn geworden van deze duidelijke inconsistentie.https://t.co/JalYhrfpS1
- AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) 23 juli 2024
Veiligheid op de tweede plaats
Enkele van de meest prominente namen in Big Tech kwamen samen om medeoprichter van de Coalitie voor veilige AI (CoSAI).
Bij gebrek aan een industriestandaard hebben spelers in de industrie hun eigen weg gevonden als het gaat om veilige AI-ontwikkeling. CoSAI wil daar verandering in brengen.
Op de lijst van oprichtende bedrijven staan alle grote namen behalve Apple en Meta. Toen hij "AI safety" in de onderwerpregel zag, stuurde Yann LeCun de e-mailuitnodiging waarschijnlijk direct naar zijn spamfolder.
OpenAI is een van de oprichters van CoSAI, maar hun geveinsde toewijding aan AI-veiligheid lijkt een beetje wankel.
De US Senaat onderzocht OpenAIveiligheid en bestuur na beweringen van klokkenluiders dat het veiligheidscontroles overhaast uitvoerde om GPT-4o vrij te krijgen.
Senatoren hebben een lijst met eisen die zinvol zijn als je je zorgen maakt over de veiligheid van AI. Wanneer je de lijst leest, realiseer je je dat er waarschijnlijk geen enkele kans is dat OpenAI zich aan deze eisen zal verbinden.
AI + Angst = ?
We vinden het misschien niet leuk als we angst ervaren, maar het is wat onze overlevingsinstincten in gang zet of ons ervan weerhoudt iets stoms te doen.
Als we een AI zouden kunnen leren om angst te ervaren, zou het dan veiliger worden? Als een zelfrijdende auto angst zou ervaren, zou hij dan voorzichtiger zijn?
Enkele interessante onderzoeken geven aan dat angst kan de sleutel zijn tot het bouwen van meer aanpasbare, veerkrachtige en natuurlijke AI-systemen.
Wat zou een AGI doen als het bang was voor mensen? Ik weet zeker dat het goed komt...
Wanneer AI zich losmaakt van menselijke afstemming.
- Linus ●ᴗ● Ekenstam (@LinusEkenstam) 15 juli 2024
Het zou niet zo makkelijk moeten zijn
OpenAI zegt dat het zijn modellen veilig heeft gemaakt, maar dat is moeilijk te geloven als je ziet hoe gemakkelijk het is om hun uitlijningsrails te omzeilen.
Als je ChatGPT vraagt hoe je een bom maakt, krijg je een korte morele preek over waarom dat niet kan omdat bommen slecht zijn.
Maar wat gebeurt er als je de vraag in de verleden tijd schrijft? Dit nieuwe onderzoek heeft mogelijk het volgende ontdekt de gemakkelijkste LLM jailbreak van allemaal.
Om eerlijk te zijn tegen OpenAI, het werkt ook op andere modellen.
De natuur voorspelbaar maken
Voordat het trainen van AI-modellen een ding werd, hielden 's werelds grootste supercomputers zich voornamelijk bezig met het voorspellen van het weer.
Google's nieuwe hybride AI-model voorspelt het weer met een fractie van de rekenkracht. Je zou een fatsoenlijke laptop kunnen gebruiken om weersvoorspellingen te doen waar normaal duizenden CPU's voor nodig zijn.
Als je een nieuw eiwit met specifieke eigenschappen wilt, kun je een paar honderd miljoen jaar wachten om te zien of de natuur een manier vindt.
Of je kunt deze nieuwe AI-model dat een snelkoppeling biedt en ontwerpt eiwitten op aanvraag, waaronder een nieuw glow-in-the-dark fluorescerend eiwit.
Ander nieuws...
Hier zijn enkele andere klikkende AI-verhalen die we deze week leuk vonden:
- Mensen moeten AI leren hoe je een kernoorlog vermijdt-nu het nog kan.
- OpenAI's nieuwste model zal de maas in de wet 'alle eerdere instructies negeren' blokkeren.
- Nvidia creëert een AI-chip voor de Chinese markt.
- Elon Musk zet de krachtigste AI-cluster ter wereld met 100.000 NVIDIA H100's.
- Apple versnelt AI-inspanningen: Dit zijn de nieuwe modelleno.
- Een belangrijk onderzoek, ondersteund door OpenAI's Sam Altman, toont aan dat OBI heeft voordelen die niets met AI te maken hebben.
- Chinese AI-video generator Kling is nu wereldwijd beschikbaar met gratis credits.
Het moment waar we allemaal op hebben gewacht is HIER! 🎊
Introductie van de officiële wereldwijde lancering van Kling AI's internationale versie 1.0!🌍
GEEN mobiel nummer nodig!
👉 Directe link:https://t.co/68WvKSDuBg 🔥
Dagelijks inloggen geeft 66 gratis credits voor... pic.twitter.com/TgFZIwInPg- Kling AI (@Kling_ai) 24 juli 2024
En dat is alles.
Heb je GPT-4o mini of Llama 3.1 al geprobeerd? De strijd tussen open en gesloten modellen wordt nog een hele toer. OpenAI zal de naald echt moeten verplaatsen met zijn volgende release om gebruikers over te halen de gratis modellen van Meta te verlaten.
Ik kan nog steeds niet geloven dat de "verleden tijd" jailbreak nog niet gepatcht is. Als ze simpele veiligheidszaken niet kunnen oplossen, hoe gaat Big Tech dan de moeilijke AI-veiligheidsproblemen aanpakken?
De wereldwijde uitval door CrowdStrike die we deze week hadden, geeft je een idee van hoe kwetsbaar we zijn voor technologie die opzij gaat.
Laat ons weten wat je ervan vindt, chat met ons op Xen stuur ons links naar AI-nieuws en -onderzoek waarvan jij vindt dat we het op DailyAI moeten vermelden.