Bienvenue dans le tour d'horizon de l'actualité de l'IA tissée à la main de cette semaine.
Cette semaine, les lamas ont pris de l'avance dans la course à l'IA ouverte.
Les grandes entreprises technologiques parlent de sécurité alors que leurs modèles se comportent mal.
Et faire peur à l'IA pourrait lui permettre de mieux fonctionner.
Voyons ce qu'il en est.
Open Meta contre OpenAI fermé
Cette semaine, les grands noms de l'IA ont enfin présenté des nouveautés intéressantes.
OpenAI a publié le GPT-4o miniLe GPT-4o est une version performante et très économique de son modèle phare, le GPT-4o.
Les coûts réduits des jetons et les performances impressionnantes du benchmark MMLU inciteront de nombreux développeurs à opter pour la version mini plutôt que pour la GPT-4o.
Bien joué OpenAI. Mais quand aurons-nous Sora et l'assistant vocal ?
Meta a publié son le très attendu modèle Llama 3.1 405B et a ajouté des versions 8B et 70B mises à jour.
Mark Zuckerberg a déclaré que Meta s'engageait en faveur de l'IA open source et il a quelques raisons intéressantes de le faire.
Êtes-vous inquiet que la Chine possède désormais le modèle le plus puissant de Meta ? Zuckerberg affirme que la Chine l'aurait probablement volé de toute façon.
Je m'étonne toujours que la US empêche la Chine de se procurer des puces d'intelligence artificielle de pointe, mais autorise Meta à lui fournir gratuitement les modèles réels.
Les responsables de natsec semblent ne pas s'être encore aperçus de cette incohérence évidente.https://t.co/JalYhrfpS1
- AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) 23 juillet 2024
La sécurité en second lieu
Certains des plus grands noms de la Big Tech se sont réunis pour cofondateur de la Coalition pour une IA sûre (CoSAI).
En l'absence d'une norme industrielle, les acteurs du secteur ont trouvé leur propre voie en ce qui concerne le développement d'une IA sûre. Le CoSAI vise à changer cette situation.
La liste des entreprises fondatrices comporte tous les grands noms, à l'exception d'Apple et de Meta. Lorsqu'il a vu "AI safety" dans l'objet du message, Yann LeCun a probablement envoyé l'invitation directement dans son dossier de courrier indésirable.
OpenAI est l'un des sponsors fondateurs du CoSAI, mais son engagement feint en faveur de la sécurité de l'IA semble un peu bancal.
Les US Le Sénat est mis à l'épreuve OpenAILa sécurité et la gouvernance de l'UE après les affirmations d'un dénonciateur selon lesquelles elle aurait précipité les contrôles de sécurité pour obtenir la mise en circulation du GPT-4o.
Les sénateurs ont dressé une liste de demandes qui ont du sens si l'on se préoccupe de la sécurité de l'IA. En lisant la liste, on se rend compte qu'il n'y a probablement aucune chance qu'OpenAI s'engage à les respecter.
IA + peur = ?
Nous n'aimons peut-être pas avoir peur, mais c'est ce qui déclenche notre instinct de survie ou nous empêche de faire quelque chose de stupide.
Si nous pouvions apprendre à une IA à éprouver de la peur, serait-elle plus sûre ? Si une voiture autopilotée éprouvait de la peur, serait-elle plus prudente ?
Certaines études intéressantes indiquent que la peur pourrait être la clé de la construction de systèmes d'IA plus adaptables, plus résistants et plus naturels.
Que ferait une AGI si elle craignait les humains ? Je suis sûr que tout ira bien...
Quand l'IA s'affranchit de l'alignement humain.
- Linus ●ᴗ● Ekenstam (@LinusEkenstam) 15 juillet 2024
Cela ne devrait pas être aussi facile
OpenAI affirme avoir rendu ses modèles sûrs, mais c'est difficile à croire quand on voit à quel point il est facile de contourner les garde-fous de l'alignement.
Lorsque vous demandez à ChatGPT comment fabriquer une bombe, il vous donne un bref cours de morale sur les raisons pour lesquelles il ne peut pas le faire parce que les bombes sont mauvaises.
Mais que se passe-t-il lorsque le message est écrit au passé ? Cette nouvelle étude a peut-être permis de découvrir le jailbreak LLM le plus facile de tous.
Pour être honnête avec OpenAI, il faut savoir qu'elle fonctionne également sur d'autres modèles.
Rendre la nature prévisible
Avant que la formation de modèles d'IA ne devienne une réalité, les plus grands supercalculateurs du monde s'occupaient principalement de prédire le temps qu'il ferait.
Le nouvel hybride de Google Un modèle d'IA prédit le temps en utilisant une fraction de la puissance de calcul. Vous pourriez utiliser un ordinateur portable décent pour faire des prévisions météorologiques qui nécessiteraient normalement des milliers d'unités centrales.
Si vous voulez une nouvelle protéine avec des caractéristiques spécifiques, vous pouvez attendre quelques centaines de millions d'années pour voir si la nature trouve un moyen.
Ou vous pouvez utiliser ce nouveau Modèle d'IA qui fournit un raccourci et conçoit des protéines à la demande, y compris une nouvelle protéine fluorescente phosphorescente.
Dans d'autres domaines...
Voici d'autres histoires d'IA dignes de clics que nous avons appréciées cette semaine :
- Les humains devraient apprendre à l'IA comment éviter une guerre nucléaire-pendant qu'ils le peuvent encore.
- Le dernier modèle d'OpenAI bloquer l'échappatoire "ignorer toutes les instructions antérieures.
- Nvidia crée un Puce d'IA pour le marché chinois.
- Elon Musk met le feu aux poudres la grappe d'IA la plus puissante au monde avec 100 000 NVIDIA H100.
- Apple accélère ses efforts en matière d'IA : Voici ce que ses nouveaux modèles peuvent faireo.
- Une étude importante soutenue par Sam Altman, de l'OpenAI, montre que L'UBI présente des avantages qui n'ont rien à voir avec l'IA.
- Générateur chinois de vidéos d'IA Kling est désormais disponible dans le monde entier avec des crédits gratuits.
🎉 Le moment que nous attendions tous est ICI ! 🎊
Lancement officiel de la version internationale 1.0!🌍 de Kling AI
📧N'IMPORTE QUELLE adresse électronique vous permet d'entrer,aucun numéro de téléphone portable n'est requis !
👉 Lien direct:https://t.co/68WvKSDuBg 🔥
La connexion quotidienne permet d'obtenir 66 crédits gratuits pour... pic.twitter.com/TgFZIwInPg- Kling AI (@Kling_ai) 24 juillet 2024
Et c'est tout.
Avez-vous déjà essayé le GPT-4o mini ou le Llama 3.1 ? La bataille entre les modèles ouverts et les modèles fermés s'annonce passionnante. OpenAI devra vraiment faire bouger les choses avec sa prochaine version pour détourner les utilisateurs des modèles gratuits de Meta.
Je n'arrive toujours pas à croire que le jailbreak "au passé" n'a pas encore été corrigé. S'ils ne sont pas capables de résoudre des problèmes de sécurité simples, comment les grandes entreprises technologiques vont-elles s'attaquer aux problèmes de sécurité de l'IA ?
La panne mondiale inspirée par CrowdStrike que nous avons connue cette semaine vous donne une idée de notre vulnérabilité face à une technologie qui part à la dérive.
Dites-nous ce que vous en pensez, discutez avec nous sur Xet envoyez-nous des liens vers des nouvelles et des recherches sur l'IA que vous pensez que nous devrions présenter sur DailyAI.