DAI#49 - Open Lama's, AI-vrees en al te gemakkelijke jailbreaks

26 juli 2024

Welkom bij de samenvatting van deze week van handgeweven AI-nieuws.

Deze week gingen de Lama's aan kop in de open AI-race.

Big Tech bedrijven praten over veiligheid terwijl hun modellen zich misdragen.

En door AI bang te maken, werkt het misschien beter.

Laten we ons erin verdiepen.

Open Meta vs gesloten OpenAI

Deze week zijn er eindelijk spannende releases verschenen van een aantal grote namen op het gebied van AI.

OpenAI GPT-4o mini uitgebrachtEen krachtige, superlage versie van het vlaggenschip, de GPT-4o.

Dankzij de lagere kosten voor tokens en de indrukwekkende MMLU-benchmarkprestaties zullen veel ontwikkelaars kiezen voor de miniversie in plaats van GPT-4o.

Goede zet OpenAI. Maar wanneer krijgen we Sora en de stemassistent?

Meta heeft haar langverwachte Llama 3.1 405B model en voegde er verbeterde 8B en 70B versies aan toe.

Mark Zuckerberg zei dat Meta zich inzet voor open source AI en hij had een aantal interessante redenen waarom.

Bent u bezorgd dat China nu Meta's krachtigste model heeft? Zuckerberg zegt dat China het waarschijnlijk toch zou hebben gestolen.

Veiligheid op de tweede plaats

Enkele van de meest prominente namen in Big Tech kwamen samen om medeoprichter van de Coalitie voor veilige AI (CoSAI).

Bij gebrek aan een industriestandaard hebben spelers in de industrie hun eigen weg gevonden als het gaat om veilige AI-ontwikkeling. CoSAI wil daar verandering in brengen.

Op de lijst van oprichtende bedrijven staan alle grote namen behalve Apple en Meta. Toen hij "AI safety" in de onderwerpregel zag, stuurde Yann LeCun de e-mailuitnodiging waarschijnlijk direct naar zijn spamfolder.

OpenAI is een van de oprichters van CoSAI, maar hun geveinsde toewijding aan AI-veiligheid lijkt een beetje wankel.

De US Senaat onderzocht OpenAIveiligheid en bestuur na beweringen van klokkenluiders dat het veiligheidscontroles overhaast uitvoerde om GPT-4o vrij te krijgen.

Senatoren hebben een lijst met eisen die zinvol zijn als je je zorgen maakt over de veiligheid van AI. Wanneer je de lijst leest, realiseer je je dat er waarschijnlijk geen enkele kans is dat OpenAI zich aan deze eisen zal verbinden.

AI + Angst = ?

We vinden het misschien niet leuk als we angst ervaren, maar het is wat onze overlevingsinstincten in gang zet of ons ervan weerhoudt iets stoms te doen.

Als we een AI zouden kunnen leren om angst te ervaren, zou het dan veiliger worden? Als een zelfrijdende auto angst zou ervaren, zou hij dan voorzichtiger zijn?

Enkele interessante onderzoeken geven aan dat angst kan de sleutel zijn tot het bouwen van meer aanpasbare, veerkrachtige en natuurlijke AI-systemen.

Wat zou een AGI doen als het bang was voor mensen? Ik weet zeker dat het goed komt...

Het zou niet zo makkelijk moeten zijn

OpenAI zegt dat het zijn modellen veilig heeft gemaakt, maar dat is moeilijk te geloven als je ziet hoe gemakkelijk het is om hun uitlijningsrails te omzeilen.

Als je ChatGPT vraagt hoe je een bom maakt, krijg je een korte morele preek over waarom dat niet kan omdat bommen slecht zijn.

Maar wat gebeurt er als je de vraag in de verleden tijd schrijft? Dit nieuwe onderzoek heeft mogelijk het volgende ontdekt de gemakkelijkste LLM jailbreak van allemaal.

Om eerlijk te zijn tegen OpenAI, het werkt ook op andere modellen.

De natuur voorspelbaar maken

Voordat het trainen van AI-modellen een ding werd, hielden 's werelds grootste supercomputers zich voornamelijk bezig met het voorspellen van het weer.

Google's nieuwe hybride AI-model voorspelt het weer met een fractie van de rekenkracht. Je zou een fatsoenlijke laptop kunnen gebruiken om weersvoorspellingen te doen waar normaal duizenden CPU's voor nodig zijn.

Als je een nieuw eiwit met specifieke eigenschappen wilt, kun je een paar honderd miljoen jaar wachten om te zien of de natuur een manier vindt.

Of je kunt deze nieuwe AI-model dat een snelkoppeling biedt en ontwerpt eiwitten op aanvraag, waaronder een nieuw glow-in-the-dark fluorescerend eiwit.

Ander nieuws...

Hier zijn enkele andere klikkende AI-verhalen die we deze week leuk vonden:

En dat is alles.

Heb je GPT-4o mini of Llama 3.1 al geprobeerd? De strijd tussen open en gesloten modellen wordt nog een hele toer. OpenAI zal de naald echt moeten verplaatsen met zijn volgende release om gebruikers over te halen de gratis modellen van Meta te verlaten.

Ik kan nog steeds niet geloven dat de "verleden tijd" jailbreak nog niet gepatcht is. Als ze simpele veiligheidszaken niet kunnen oplossen, hoe gaat Big Tech dan de moeilijke AI-veiligheidsproblemen aanpakken?

De wereldwijde uitval door CrowdStrike die we deze week hadden, geeft je een idee van hoe kwetsbaar we zijn voor technologie die opzij gaat.

Laat ons weten wat je ervan vindt, chat met ons op Xen stuur ons links naar AI-nieuws en -onderzoek waarvan jij vindt dat we het op DailyAI moeten vermelden.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Eugene van der Watt

Eugene heeft een achtergrond in elektrotechniek en houdt van alles wat met techniek te maken heeft. Als hij even pauzeert van het consumeren van AI-nieuws, kun je hem aan de snookertafel vinden.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden