Willkommen zu den Neuigkeiten der Woche über dreifach destillierte, handwerklich hergestellte AI-Produkte.
In dieser Woche beschwerten sich Unternehmen, die Ihre Daten kostenlos auslesen, dass andere sie stehlen würden.
Big Tech entwickelt seine eigenen KI-Chips, um mit NVIDIA zu konkurrieren.
Und eine ganze Reihe neuer KI-Modelle sind in den Regalen zu finden.
Schauen wir genauer hin.
KI-Daten-Hungerspiele
Der unersättliche Hunger der KI nach Daten hält an, da Unternehmen nach Text-, Audio- und Videodaten suchen, um ihre Modelle zu trainieren.
Es ist ein offenes Geheimnis, dass OpenAI mit ziemlicher Sicherheit YouTube-Videoinhalte auswertet, um sein Text-in-Video-Modell Sora zu trainieren. YouTube-CEO Neal Mohan warnte OpenAI, dass es möglicherweise gegen seine Nutzungsbedingungen verstoßen hat. Nun, boohoo. Hast du gesehen, wie cool Sora ist?
Man muss annehmen, dass Google bei der Ausbildung seiner Modelle einige ethische Abstriche gemacht hat. Dass YouTube sich über die "Rechte und Erwartungen" der Urheber von Videos auf seiner Plattform beschwert, ist schon ein bisschen viel.
Ein genauerer Blick auf Das Gerangel um KI-Trainingsdaten bei Big Tech enthüllt, wie Google seine Datenschutzrichtlinien für Google Docs geändert hat, um Ihre Daten zu nutzen. In der Zwischenzeit gehen OpenAI und Meta auf der Suche nach mehr Trainingsdaten weiter an die rechtlichen und ethischen Grenzen.
Ich bin mir nicht sicher, woher die Daten für den neuen KI-Musikgenerator Udio stammen, aber die Leute haben ihn mit einigen interessanten Ideen angeregt. Das ist der Beweis, dass KI reguliert werden sollte.
Das ist verrückt.
Udio ist gerade erschienen und ist wie Sora für Musik.
Die Musik ist von wahnsinniger Qualität, 100% AI. 🤯
1. "Dune - das Broadway-Musical" pic.twitter.com/hzt7j32jIV
- Min Choi (@minchoi) April 10, 2024
Chips ahoi
All diese kontroversen Daten müssen verarbeitet werden, und die NVIDIA-Hardware übernimmt den Großteil dieser Aufgabe. Sam führt uns durch NVIDIAs Geschichte vom Tellerwäscher zum Millionär von 1993 (als Sie Aktien hätten kaufen sollen) bis heute (als Sie reich gewesen wären), und es ist faszinierend.
Während die Unternehmen weiterhin Schlange stehen, um NVIDIA-Chips zu kaufen, versucht Big Tech, sich von seinen Chips zu trennen.
Intel und Google stellen neue KI-Chips vor um mit NVIDIA zu konkurrieren, auch wenn sie weiterhin die Blackwell-Hardware von NVIDIA kaufen werden.
Lassen Sie die Modelle frei!
Es ist verrückt, dass vor etwas mehr als einem Jahr OpenAI die einzigen Modelle waren, die wirklich Beachtung fanden. Jetzt gibt es einen ständigen Strom neuer Modelle von den üblichen Verdächtigen der Big Tech und kleineren Start-ups.
Diese Woche sahen wir drei AI-Modelle innerhalb von 24 Stunden veröffentlicht. Googles Gemini Pro 1.5 hat jetzt ein Kontextfenster mit 1 Million Token. Großer Kontext ist großartig, aber wird der Rückruf so gut sein wie bei Claude 3?
Es gab interessante Entwicklungen mit OpenAI, die den API-Zugang zu GPT-4 mit Vision ermöglichten, und Mistral hat gerade ein weiteres leistungsstarkes kleineres Modell verschenkt.
Der Politiker und Meta-Manager Nick Clegg sprach auf der Meta's AI-Veranstaltung in London um sich für Open-Source-KI einzusetzen. Clegg sagte auch, dass Meta erwartet, dass Llama 3 sehr bald auf den Markt kommt.
Während der Diskussionen über KI-Desinformation spielte er die Rolle der KI bei den Versuchen, die letzten großen Wahlen zu beeinflussen, auf bizarre Weise herunter.
Liest dieser Typ überhaupt die Nachrichten, über die wir hier bei Daily AI berichten?
Welche Sicherheitsfragen?
Geoffrey Hinton, der als Pate der KI gilt, war so besorgt über die KI-Sicherheit, dass er bei Google kündigte. Yann LeCun von Meta sagt, dass es keinen Grund zur Sorge gibt. Was ist nun richtig?
Eine Studie der Georgetown University ergab, dass nur 2% der KI-Forschung sind auf die Sicherheit ausgerichtet. Ist das so, weil es keinen Grund zur Sorge gibt? Oder sollten wir uns Sorgen machen, dass sich die Forscher darauf konzentrieren, eine leistungsfähigere KI zu entwickeln, ohne sich Gedanken über deren Sicherheit zu machen?
Sollte die Devise der KI-Entwickler immer noch lauten: "Schnell sein und Dinge zerstören"?
Die Entwicklung der KI verläuft exponentiell. In einem Interview diese Woche sagte Elon Musk, er erwarte KI könnte bis Ende 2025 schlauer sein als der Mensch.
Der KI-Experte Gary Marcus ist da anderer Meinung, und er ist bereit, Geld darauf zu setzen.
Liebe @elonmusk,
$1 Million sagt, dass Ihre letzte Vorhersage - dass KI bis Ende 2025 schlauer sein wird als jeder einzelne Mensch - falsch ist.
Spiel? Ich kann Ihnen einige Regeln vorschlagen, die Sie genehmigen müssen.
Beste Wünsche,
GaryP.S. Beachten Sie, dass in mancher Hinsicht (aber nicht in allen) die Computer...
- Gary Marcus (@GaryMarcus) 9. April 2024
xAI steht vor der gleichen Herausforderung wie viele andere, nämlich dem Mangel an NVIDIA-Chips. Musk sagt, dass die 20.000 NVIDIA H100, über die das Unternehmen verfügt, bis Mai die Ausbildung von Grok 2 abschließen werden.
Raten Sie mal, wie viele Grafikprozessoren sie seiner Meinung nach für die Ausbildung von Grok 3 benötigen.
Anthropische Züge voraus
Anthropic entwickelt nach eigenen Angaben groß angelegte KI-Systeme, um "ihre Sicherheitseigenschaften an der technologischen Grenze zu untersuchen".
Das Claude 3 Opus des Unternehmens befindet sich sicherlich an der Grenze des Machbaren. Eine neue Studie zeigt das Modell bläst den Rest der Konkurrenz weg bei der Zusammenfassung von Inhalten in Buchlänge. Dennoch zeigen die Ergebnisse, dass der Mensch in mancher Hinsicht immer noch im Vorteil ist.
Die jüngsten Tests von Anthropic zeigen, dass Claude LLMs sind außergewöhnlich überzeugend gewordenClaude 3 Opus liefert Argumente, die genauso überzeugend sind wie die von Menschen geschaffenen.
Diejenigen, die die Sicherheitsrisiken der KI herunterspielen, sagen oft, dass man einfach den Stecker ziehen könnte, wenn eine KI abtrünnig wird. Was wäre, wenn die KI so überzeugend wäre, dass sie Sie davon überzeugen könnte, das nicht zu tun?
Die große Stärke von Claude 3 ist sein großes Kontextfenster. Anthropic veröffentlichte eine Studie, die zeigt, dass große Kontext-LLMs anfällig für eine "Many-Shot"-Gefängnisausbruchsmethode. Es ist super einfach zu implementieren, und sie geben zu, dass sie nicht wissen, wie sie das Problem lösen sollen.
Weitere Nachrichten...
Hier sind einige andere klickwürdige AI-Geschichten, die uns diese Woche gefallen haben:
- Die virtuelle AI for Customer Success Summit 2024 geht los.
- Gefälschte AI-Kanzleien senden DMCA-Drohungen, um SEO-Gewinne zu erzielen.
- Stability veröffentlicht sein mehrsprachiges Leichtgewicht Stabil LM 2 12B LLM mit beeindruckenden Benchmark-Ergebnissen.
- Microsoft-Forscher schlagen vor "Visualisierung der Gedanken" Aufforderung um LLM in die Lage zu versetzen, das räumliche Denken zu nutzen.
- AI könnte sein so wichtig für die Wirtschaft wie die Elektrizitätsagt der CEO von JPMorgan Chase, Jamie Dimon.
- Eine KI-gesteuerter Kampfjet wird den Luftwaffenminister fliegen in einem Test der zukünftigen Drohnen-Kampfflugzeuge des US-Militärs.
- Die Geschwindigkeit der Die KI-Entwicklung überholt die Risikobewertung.
- Meta kündigte seine nächste Generation des Meta Training and Inference Accelerator (MTIA)-Chips.
Und das war's dann auch schon.
Ist es Ihnen egal, dass OpenAI und wahrscheinlich auch andere Ihre YouTube-Inhalte zum Trainieren ihrer KI verwendet haben? Wenn Altman Sora kostenlos veröffentlichen würde, wäre wohl alles vergeben. Google mag da anderer Meinung sein.
Glauben Sie, dass Musk mit seinen Vorhersagen zur KI-Intelligenz übertrieben optimistisch ist? Ich hoffe, dass er Recht hat, aber ich bin ein wenig beunruhigt, dass nur 2% der KI-Forschung in die Sicherheit fließen.
Wie verrückt ist die Anzahl der KI-Modelle, die wir jetzt sehen? Welches ist Ihr Favorit? Ich halte an meinem ChatGPT Plus-Konto fest und hoffe auf die GPT-5. Aber Claude Pro sieht sehr verlockend aus.
Lassen Sie uns wissen, welcher Artikel Ihnen besonders gut gefallen hat, und schicken Sie uns weiterhin Links zu interessanten KI-Geschichten, die wir vielleicht verpasst haben.