Google, OpenAI und Mistral haben innerhalb von nur 12 Stunden neue Versionen ihrer hochmodernen KI-Modelle veröffentlicht.
Auch Meta wird mit seinem kommenden Modell Llama 3 mit von der Partie sein, und das mit Spannung erwartete GPT-5 von OpenAI ist in Vorbereitung.
Was als eine von ChatGPT dominierte Nischenkategorie begann, wird nun von Alternativen überschwemmt, die Big Tech und die Kluft zwischen Open und Closed Source überwinden.
Google Gemini Pro 1.5
Googles Gemini Pro 1.5 machte den Anfang, indem es Fortschritte beim Verstehen langer Kontexte einführte, die Claude 3 Opus herausfordern, der die Trümpfe in der Hand hält in dieser Kategorie.
Unser KI-Modell der nächsten Generation, Gemini 1.5 Pro, ist jetzt in der öffentlichen Vorschau verfügbar auf @GoogleCloud's #VertexAI Plattform.
Das Long-Context-Fenster hilft Unternehmen bereits bei der Analyse großer Datenmengen, beim Aufbau von KI-gestützten Kundendienstmitarbeitern und vielem mehr. → https://t.co/CLMN3wNmeP pic.twitter.com/RpRVUul3eg
- Google DeepMind (@GoogleDeepMind) 9. April 2024
Mit der Fähigkeit, bis zu 1 Million Token zu verarbeiten, kann Gemini Pro 1.5 große Mengen an Informationen gleichzeitig verarbeiten, darunter 700.000 Wörter, eine Stunde Video oder 11 Stunden Audio.
Die Mixture-of-Experts (MoE)-Architektur steigert die Effizienz und Leistung durch die Verwendung von spezialisierten Modellen für bestimmte Aufgaben.
Die Liste der Gemini-Modelle von Google ist ziemlich komplex, aber dieses Modell ist das leistungsfähigste für typische Aufgaben.
Google erlaubt es Entwicklern außerdem, täglich 50 kostenlose Anfragen an die API zu stellen, was nach Schätzungen einer Person auf X bis zu $1.400 kosten würde.
Derzeit ist Gemini 1.5 Pro in 180 Ländern erhältlich.
Neue Version von GPT-4 Turbo
OpenAI veröffentlichte dann eine neue Version, GPT-4 Turbo, mit besserer Mathematik und Bildverarbeitung.
In einem X-Post heißt es: "GPT-4 Turbo mit Vision ist jetzt allgemein in der API verfügbar. Vision-Anfragen können jetzt auch den JSON-Modus und Funktionsaufrufe verwenden."
GPT-4 Turbo mit Vision ist jetzt allgemein in der API verfügbar. Vision-Anfragen können nun auch den JSON-Modus und Funktionsaufrufe verwenden.https://t.co/cbvJjij3uL
Im Folgenden finden Sie einige großartige Möglichkeiten, wie Entwickler mit Visionen bauen. Schreiben Sie uns eine Antwort 🧵.
- OpenAI-Entwickler (@OpenAIDevs) 9. April 2024
OpenAI plant die baldige Veröffentlichung von GPT -5 sowie seines Text-zu-Video-Modells Sora, das derzeit noch keine nennenswerten Konkurrenten hat (was sich jedoch ändern wird).
Mixtral 8x22B
Die vielleicht größte Überraschung kam jedoch von Mistraldie ihr Modell Mixtral 8x22B als frei herunterladbare 281-GB-Datei über Torrent veröffentlicht haben.
magnet:?xt=urn:btih:9238b09245d0d8cd915be09927769d5f7584c1c9&dn=mixtral-8x22b&tr=udp%3A%2F%https://t.co/2UepcMGLGd%3A1337%2Fannounce&tr=http%3A%2F%https://t.co/OdtBUsbeV5%3A1337%2Fannounce
- Mistral AI (@MistralAI) April 10, 2024
Mit beeindruckenden 176 Milliarden Parametern und einer Kontextlänge von 65.000 Token wird erwartet, dass dieses Open-Source-Modell unter der Apache 2.0-Lizenz das vorherige Mixtral 8x7B-Modell von Mistral übertrifft, das in verschiedenen Benchmarks bereits Konkurrenten wie Llama 2 70B übertroffen hatte.
Die fortschrittliche MoE-Architektur des Mixtral 8x22B ermöglicht effiziente Berechnungen und eine verbesserte Leistung im Vergleich zu früheren Iterationen.
Meta Llama 3 ist im Anmarsch
Um nicht zurückzubleiben, könnte Meta Berichten zufolge bereits nächste Woche eine kleine Version des mit Spannung erwarteten Modells Llama 3 auf den Markt bringen, wobei das vollständige Open-Source-Modell noch für Juli geplant ist.
Es wird erwartet, dass Llama 3 in verschiedenen Größen erhältlich sein wird, von sehr kleinen Modellen, die mit Claude Haiku oder Gemini Nano konkurrieren, bis hin zu größeren, voll reaktionsfähigen und logisch denkenden Modellen, die es mit GPT-4 oder Claude 3 Opus aufnehmen können.
Modell-Multiplikation
Ein generatives KI-Ökosystem, das einst von ChatGPT dominiert wurde, wird nun von Alternativen überschwemmt.
Praktisch jedes große Technologieunternehmen ist entweder direkt oder durch umfangreiche Investitionen beteiligt. Und mit jedem neuen Akteur schwindet die Hoffnung, dass eine Fraktion den Markt beherrschen könnte.
Wir sehen jetzt auch, wie sich die Lücke zwischen den Closed-Source-Modellen von OpenAI, Anthropic, Google usw. und den Closed-Source-Alternativen von Mistral, Meta und anderen schließt.
Open-Source-Modelle sind für die breite Bevölkerung noch recht unzugänglich, aber auch das wird sich wahrscheinlich ändern.
Stellen diese Modelle also einen echten Fortschritt im Bereich des maschinellen Lernens dar oder sind sie einfach nur besser als das Gleiche? Das hängt davon ab, wen Sie fragen.
Einige, wie Elon Musk, sagen voraus, dass KI die menschliche Intelligenz übertreffen wird innerhalb eines Jahres.
Andere, wie Meta Chief Scientist Yann LeCun, argumentieren, dass die KI bei allen robusten Maßstäben für Intelligenz meilenweit hinter uns liegt.
LeCun im Februar erklärt über die derzeitigen LLMs: "Im Grunde können sie also nichts Neues erfinden. Sie werden ungefähr das wiederkäuen, worauf sie in öffentlichen Daten geschult wurden, was bedeutet, dass man es von Google bekommen kann. Die Leute haben gesagt: 'Oh mein Gott, wir müssen die LLMs regulieren, weil sie so gefährlich sein werden. Das ist einfach nicht wahr."
Meta zielt darauf ab, eine "objektgesteuerte" KI zu schaffen, die die Welt besser versteht und versucht, in ihr zu planen und zu denken.
"Wir arbeiten hart daran, herauszufinden, wie wir diese Modelle dazu bringen können, nicht nur zu reden, sondern tatsächlich zu denken, zu planen... ein Gedächtnis zu haben," erklärte Joelle Pineau, der Vizepräsident für KI-Forschung bei Meta.
Der Chief Operating Officer von OpenAI, Brad Lightcap, sagte außerdem, dass sich sein Unternehmen darauf konzentriert, die Fähigkeit der KI zu verbessern, zu denken und komplexere Aufgaben zu bewältigen.
"Wir werden KI sehen, die komplexere Aufgaben auf anspruchsvollere Weise übernehmen kann", sagte er kürzlich auf einer Veranstaltung, "ich denke, mit der Zeit werden wir sehen, dass die Modelle längere, komplexere Aufgaben übernehmen, und das erfordert implizit eine Verbesserung ihrer Denkfähigkeit."
Auf dem Weg zum Sommer 2024 werden die KI-Gemeinschaft und die Gesellschaft im Allgemeinen genau beobachten, welche bahnbrechenden Entwicklungen aus den Labors dieser Tech-Giganten hervorgehen werden.
Bis zum Ende des Jahres wird es eine ziemlich bunte Auswahl sein.