DAI#49 - Offene Llamas, KI-Angst und allzu einfache Jailbreaks

Juli 26, 2024

Willkommen zu unserer wöchentlichen Übersicht über handgewebte KI-Nachrichten.

Diese Woche haben die Llamas im offenen KI-Rennen die Nase vorn.

Große Technologieunternehmen preisen die Sicherheit an, während sich ihre Modelle daneben benehmen.

Und wenn man der KI Angst macht, funktioniert sie vielleicht besser.

Schauen wir genauer hin.

Offene Meta vs. geschlossene OpenAI

Diese Woche gab es endlich spannende Veröffentlichungen von einigen der großen KI-Hersteller.

OpenAI freigegeben GPT-4o minieine besonders leistungsstarke und preisgünstige Version des Flaggschiffs GPT-4o.

Aufgrund der geringeren Token-Kosten und der beeindruckenden MMLU-Benchmark-Leistung werden sich viele Entwickler für die Mini-Version anstelle von GPT-4o entscheiden.

Netter Schachzug von OpenAI. Aber wann bekommen wir Sora und den Sprachassistenten?

Meta veröffentlichte seine das mit Spannung erwartete Modell Llama 3.1 405B und fügte die aktualisierten Versionen 8B und 70B hinzu.

Mark Zuckerberg sagte, dass Meta sich für Open-Source-KI einsetzt, und er hatte einige interessante Gründe dafür.

Sind Sie besorgt darüber, dass China jetzt das leistungsstärkste Modell von Meta besitzt? Zuckerberg sagt, China hätte es wahrscheinlich sowieso gestohlen.

Sicherheit an zweiter Stelle

Einige der prominentesten Namen aus der Big-Tech-Branche kamen zusammen, um Mitbegründer der Koalition für sichere KI (CoSAI).

In Ermangelung eines Industriestandards haben die Akteure der Branche ihren eigenen Weg gefunden, was die sichere KI-Entwicklung angeht. Die CoSAI soll das ändern.

Auf der Liste der Gründungsunternehmen stehen alle großen Namen außer Apple und Meta. Als er "KI-Sicherheit" in der Betreffzeile sah, hat Yann LeCun die E-Mail-Einladung wahrscheinlich direkt in seinen Spam-Ordner geschickt.

OpenAI ist ein CoSAI-Gründungssponsor, aber ihr vorgetäuschtes Engagement für die KI-Sicherheit scheint ein wenig wackelig zu sein.

Die US Senat untersuchte OpenAISicherheit und Governance nachdem ein Whistleblower behauptet hatte, das Unternehmen habe die Sicherheitsprüfungen überstürzt, um die Freigabe von GPT-4o zu erreichen.

Die Senatoren haben eine Liste von Forderungen, die sinnvoll sind, wenn man sich um die Sicherheit von KI sorgt. Wenn man die Liste liest, wird einem klar, dass es wahrscheinlich keine Chance gibt, dass OpenAI sich auf sie einlassen wird.

KI + Angst = ?

Wir mögen es vielleicht nicht, wenn wir Angst empfinden, aber sie ist es, die unseren Überlebensinstinkt in Gang setzt oder uns davon abhält, etwas Dummes zu tun.

Wenn wir einer KI beibringen könnten, Angst zu empfinden, würde sie dadurch sicherer werden? Wäre ein selbstfahrendes Auto, das Angst empfindet, ein vorsichtigerer Fahrer?

Einige interessante Studien zeigen, dass Angst könnte der Schlüssel zum Aufbau anpassungsfähiger, widerstandsfähiger und natürlicher KI-Systeme sein.

Was würde eine AGI tun, wenn sie Angst vor Menschen hätte? Ich bin mir sicher, dass es ihr gut gehen wird...

Es sollte nicht so einfach sein

OpenAI sagt, es habe seine Modelle sicher gemacht, aber das ist schwer zu glauben, wenn man sieht, wie einfach es ist, ihre Ausrichtungsleitplanken zu umgehen.

Wenn du ChatGPT fragst, wie man eine Bombe herstellt, wird es dir eine kurze Moralpredigt halten, warum es das nicht tun kann, weil Bomben schlecht sind.

Aber was passiert, wenn man die Aufforderung in der Vergangenheitsform schreibt? Diese neue Studie könnte Folgendes aufgedeckt haben der einfachste LLM-Jailbreak von allen.

Um OpenAI gegenüber fair zu sein, es funktioniert auch bei anderen Modellen.

Die Natur vorhersehbar machen

Bevor das Training von KI-Modellen bekannt wurde, waren die größten Supercomputer der Welt hauptsächlich mit der Wettervorhersage beschäftigt.

Der neue Hybrid von Google KI-Modell sagt Wetter mit einem Bruchteil der Rechenleistung voraus. Man könnte einen anständigen Laptop verwenden, um Wettervorhersagen zu machen, für die normalerweise Tausende von CPUs benötigt würden.

Wenn man ein neues Protein mit bestimmten Eigenschaften will, kann man ein paar hundert Millionen Jahre warten, um zu sehen, ob die Natur einen Weg findet.

Oder Sie könnten diese neue AI-Modell, das eine Abkürzung bietet und entwirft auf Anfrage Proteine, darunter ein neues fluoreszierendes Protein, das im Dunkeln leuchtet.

Weitere Nachrichten...

Hier sind einige andere klickwürdige AI-Geschichten, die uns diese Woche gefallen haben:

Und das war's dann auch schon.

Haben Sie schon das GPT-4o mini oder das Llama 3.1 ausprobiert? Der Kampf zwischen offenen und geschlossenen Modellen wird ein spannender sein. OpenAI wird mit seiner nächsten Version wirklich etwas bewegen müssen, um die Nutzer von Metas kostenlosen Modellen zu überzeugen.

Ich kann immer noch nicht glauben, dass der "past tense"-Jailbreak noch nicht gepatcht wurde. Wenn sie nicht in der Lage sind, einfache Sicherheitsprobleme zu lösen, wie will Big Tech dann die schwierigen KI-Sicherheitsprobleme angehen?

Der von CrowdStrike ausgelöste weltweite Ausfall in dieser Woche gibt Ihnen einen Eindruck davon, wie anfällig wir für technische Fehlentwicklungen sind.

Lassen Sie uns wissen, was Sie denken, chatten Sie mit uns auf Xund senden Sie uns Links zu KI-Nachrichten und Forschungsergebnissen, die wir Ihrer Meinung nach auf DailyAI veröffentlichen sollten.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Eugene van der Watt

Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen