Google, OpenAI et Mistral ont publié de nouvelles versions de leurs modèles d'IA de pointe en l'espace de 12 heures seulement.
Meta devrait également se joindre à la fête avec son prochain modèle Llama 3, et le très attendu GPT-5 d'OpenAI est en cours d'élaboration.
Ce qui a commencé comme une catégorie de niche dominée par ChatGPT est aujourd'hui inondé d'alternatives qui transcendent les Big Tech et le fossé entre les sources ouvertes et fermées.
Google Gemini Pro 1.5
La version 1.5 de Gemini Pro de Google a été la première à faire parler d'elle, en introduisant des avancées dans la compréhension des contextes longs qui défient Claude 3 Opus, qui détient les as dans cette catégorie.
Notre modèle d'IA de nouvelle génération, Gemini 1.5 Pro, est désormais disponible en avant-première sur les sites suivants @GoogleCloud's #VertexAI plate-forme.
Sa fenêtre à contexte long aide déjà les entreprises à analyser de grandes quantités de données, à créer des agents de service client alimentés par l'IA, etc. → https://t.co/CLMN3wNmeP pic.twitter.com/RpRVUul3eg
- Google DeepMind (@GoogleDeepMind) 9 avril 2024
Capable de traiter jusqu'à 1 million de jetons, Gemini Pro 1.5 peut traiter simultanément de grandes quantités d'informations, notamment 700 000 mots, une heure de vidéo ou 11 heures d'audio.
Son architecture de mélange d'experts (MoE) améliore l'efficacité et les performances en utilisant des modèles spécialisés pour des tâches spécifiques.
La liste des modèles Gemini de Google est assez complexe, mais il s'agit du modèle le plus performant pour les tâches courantes.
Google permet également aux développeurs d'effectuer 50 requêtes gratuites à l'API par jour, ce qui, selon une personne sur X, coûterait jusqu'à $1 400.
Actuellement, Gemini 1.5 Pro est disponible dans 180 pays.
Nouvelle version de GPT-4 Turbo
OpenAI a ensuite publié une nouvelle version, GPT-4 Turbo, avec un traitement mathématique et visuel supérieur.
Selon un post X, "GPT-4 Turbo with Vision is now generally available in the API. Les requêtes Vision peuvent désormais utiliser le mode JSON et l'appel de fonction."
GPT-4 Turbo avec Vision est maintenant disponible dans l'API. Les requêtes Vision peuvent désormais utiliser le mode JSON et l'appel de fonction.https://t.co/cbvJjij3uL
Voici quelques exemples de la façon dont les développeurs construisent avec la vision. Faites-nous part des vôtres dans une réponse 🧵
- Développeurs OpenAI (@OpenAIDevs) 9 avril 2024
OpenAI prévoit de publier bientôt GPT -5, ainsi que son modèle de conversion de texte en vidéo Sora, qui n'a pas de concurrents notables à l'heure actuelle (mais cela va changer).
Mixtral 8x22B
Cependant, la plus grande surprise est peut-être venue de Mistralqui a audacieusement publié son modèle Mixtral 8x22B sous la forme d'un fichier de 281 Go librement téléchargeable via torrent.
magnet:?xt=urn:btih:9238b09245d0d8cd915be09927769d5f7584c1c9&dn=mixtral-8x22b&tr=udp%3A%2F%https://t.co/2UepcMGLGd%3A1337%2Fannounce&tr=http%3A%2F%https://t.co/OdtBUsbeV5%3A1337%2Fannounce
- Mistral AI (@MistralAI) 10 avril 2024
Avec un nombre impressionnant de 176 milliards de paramètres et une longueur de contexte de 65 000 jetons, ce modèle open-source sous licence Apache 2.0 devrait surpasser le précédent modèle Mixtral 8x7B de Mistral, qui avait déjà surpassé des concurrents tels que Llama 2 70B dans divers benchmarks.
L'architecture MoE avancée de Mixtral 8x22B permet des calculs efficaces et des performances améliorées par rapport aux itérations précédentes.
Meta Llama 3 arrive
Pour ne pas être en reste, des rapports suggèrent que Meta pourrait lancer une petite version de son très attendu modèle Llama 3 dès la semaine prochaine, le modèle complet à code source ouvert étant toujours prévu pour juillet.
Le Llama 3 devrait être disponible en différentes tailles, des très petits modèles rivalisant avec Claude Haiku ou Gemini Nano aux modèles plus grands, entièrement réactifs et capables de raisonner, rivalisant avec GPT-4 ou Claude 3 Opus.
Modéliser la multiplication
L'écosystème de l'IA générative, autrefois dominé par ChatGPT, est aujourd'hui inondé d'alternatives.
Pratiquement toutes les grandes entreprises technologiques sont impliquées, soit directement, soit par le biais d'investissements importants. Et avec l'arrivée de chaque acteur, l'espoir de voir une seule faction dominer le marché s'amenuise.
Nous constatons également que l'écart se réduit entre les modèles à code source fermé d'OpenAI, d'Anthropic, de Google, etc. et les alternatives à code source fermé de Mistral, Meta et d'autres.
Les modèles à code source ouvert sont encore peu accessibles au grand public, mais cela aussi devrait changer.
L'un ou l'autre de ces modèles représente-t-il un véritable progrès dans le domaine de l'apprentissage automatique, ou s'agit-il simplement de la même chose, mais en mieux ? Tout dépend de la personne à qui l'on pose la question.
Certains, comme Elon Musk, prédisent que l'IA dépassera l'intelligence humaine. dans un délai d'un an.
D'autres, comme le chef scientifique de Meta Yann LeCun, affirment que l'IA est à des kilomètres de nous en ce qui concerne les mesures robustes de l'intelligence.
LeCun expliqué en février à propos des LLM actuels : "En gros, ils ne peuvent pas inventer de nouvelles choses. Ils vont régurgiter à peu près tout ce sur quoi ils ont été formés à partir de données publiques, ce qui signifie que vous pouvez les trouver sur Google. Les gens disent : "Oh mon Dieu, nous devons réglementer les LLM parce qu'ils vont être si dangereux", mais ce n'est pas vrai. Ce n'est tout simplement pas vrai.
Meta vise à créer une IA "orientée objet" qui comprend mieux le monde et tente de le planifier et de raisonner autour de lui.
"Nous travaillons d'arrache-pied pour trouver le moyen de faire en sorte que ces modèles ne se contentent pas de parler, mais qu'ils raisonnent et planifient..d'avoir de la mémoire". a expliqué Joelle Pineau, vice-président de la recherche sur l'IA chez Meta.
Brad Lightcap, directeur général d'OpenAI, a également déclaré que son entreprise se concentrait sur l'amélioration de la capacité de l'IA à raisonner et à gérer des tâches plus complexes.
"Nous allons commencer à voir des IA capables d'accomplir des tâches plus complexes de manière plus sophistiquée", a-t-il déclaré lors d'un récent événement. "Je pense qu'avec le temps, nous verrons les modèles s'orienter vers des tâches plus longues et plus complexes, ce qui nécessite implicitement l'amélioration de leur capacité de raisonnement".
À l'approche de l'été 2024, la communauté de l'IA et la société dans son ensemble suivront de près les développements révolutionnaires qui sortiront des laboratoires de ces géants de la technologie.
La sélection sera très colorée d'ici la fin de l'année.