DAI#49 - Open Llamas, la peur de l'IA et les jailbreaks trop faciles à réaliser

26 juillet 2024

Bienvenue dans le tour d'horizon de l'actualité de l'IA tissée à la main de cette semaine.

Cette semaine, les lamas ont pris de l'avance dans la course à l'IA ouverte.

Les grandes entreprises technologiques parlent de sécurité alors que leurs modèles se comportent mal.

Et faire peur à l'IA pourrait lui permettre de mieux fonctionner.

Voyons ce qu'il en est.

Open Meta contre OpenAI fermé

Cette semaine, les grands noms de l'IA ont enfin présenté des nouveautés intéressantes.

OpenAI a publié le GPT-4o miniLe GPT-4o est une version performante et très économique de son modèle phare, le GPT-4o.

Les coûts réduits des jetons et les performances impressionnantes du benchmark MMLU inciteront de nombreux développeurs à opter pour la version mini plutôt que pour la GPT-4o.

Bien joué OpenAI. Mais quand aurons-nous Sora et l'assistant vocal ?

Meta a publié son le très attendu modèle Llama 3.1 405B et a ajouté des versions 8B et 70B mises à jour.

Mark Zuckerberg a déclaré que Meta s'engageait en faveur de l'IA open source et il a quelques raisons intéressantes de le faire.

Êtes-vous inquiet que la Chine possède désormais le modèle le plus puissant de Meta ? Zuckerberg affirme que la Chine l'aurait probablement volé de toute façon.

La sécurité en second lieu

Certains des plus grands noms de la Big Tech se sont réunis pour cofondateur de la Coalition pour une IA sûre (CoSAI).

En l'absence d'une norme industrielle, les acteurs du secteur ont trouvé leur propre voie en ce qui concerne le développement d'une IA sûre. Le CoSAI vise à changer cette situation.

La liste des entreprises fondatrices comporte tous les grands noms, à l'exception d'Apple et de Meta. Lorsqu'il a vu "AI safety" dans l'objet du message, Yann LeCun a probablement envoyé l'invitation directement dans son dossier de courrier indésirable.

OpenAI est l'un des sponsors fondateurs du CoSAI, mais son engagement feint en faveur de la sécurité de l'IA semble un peu bancal.

Les US Le Sénat est mis à l'épreuve OpenAILa sécurité et la gouvernance de l'UE après les affirmations d'un dénonciateur selon lesquelles elle aurait précipité les contrôles de sécurité pour obtenir la mise en circulation du GPT-4o.

Les sénateurs ont dressé une liste de demandes qui ont du sens si l'on se préoccupe de la sécurité de l'IA. En lisant la liste, on se rend compte qu'il n'y a probablement aucune chance qu'OpenAI s'engage à les respecter.

IA + peur = ?

Nous n'aimons peut-être pas avoir peur, mais c'est ce qui déclenche notre instinct de survie ou nous empêche de faire quelque chose de stupide.

Si nous pouvions apprendre à une IA à éprouver de la peur, serait-elle plus sûre ? Si une voiture autopilotée éprouvait de la peur, serait-elle plus prudente ?

Certaines études intéressantes indiquent que la peur pourrait être la clé de la construction de systèmes d'IA plus adaptables, plus résistants et plus naturels.

Que ferait une AGI si elle craignait les humains ? Je suis sûr que tout ira bien...

Cela ne devrait pas être aussi facile

OpenAI affirme avoir rendu ses modèles sûrs, mais c'est difficile à croire quand on voit à quel point il est facile de contourner les garde-fous de l'alignement.

Lorsque vous demandez à ChatGPT comment fabriquer une bombe, il vous donne un bref cours de morale sur les raisons pour lesquelles il ne peut pas le faire parce que les bombes sont mauvaises.

Mais que se passe-t-il lorsque le message est écrit au passé ? Cette nouvelle étude a peut-être permis de découvrir le jailbreak LLM le plus facile de tous.

Pour être honnête avec OpenAI, il faut savoir qu'elle fonctionne également sur d'autres modèles.

Rendre la nature prévisible

Avant que la formation de modèles d'IA ne devienne une réalité, les plus grands supercalculateurs du monde s'occupaient principalement de prédire le temps qu'il ferait.

Le nouvel hybride de Google Un modèle d'IA prédit le temps en utilisant une fraction de la puissance de calcul. Vous pourriez utiliser un ordinateur portable décent pour faire des prévisions météorologiques qui nécessiteraient normalement des milliers d'unités centrales.

Si vous voulez une nouvelle protéine avec des caractéristiques spécifiques, vous pouvez attendre quelques centaines de millions d'années pour voir si la nature trouve un moyen.

Ou vous pouvez utiliser ce nouveau Modèle d'IA qui fournit un raccourci et conçoit des protéines à la demande, y compris une nouvelle protéine fluorescente phosphorescente.

Dans d'autres domaines...

Voici d'autres histoires d'IA dignes de clics que nous avons appréciées cette semaine :

Et c'est tout.

Avez-vous déjà essayé le GPT-4o mini ou le Llama 3.1 ? La bataille entre les modèles ouverts et les modèles fermés s'annonce passionnante. OpenAI devra vraiment faire bouger les choses avec sa prochaine version pour détourner les utilisateurs des modèles gratuits de Meta.

Je n'arrive toujours pas à croire que le jailbreak "au passé" n'a pas encore été corrigé. S'ils ne sont pas capables de résoudre des problèmes de sécurité simples, comment les grandes entreprises technologiques vont-elles s'attaquer aux problèmes de sécurité de l'IA ?

La panne mondiale inspirée par CrowdStrike que nous avons connue cette semaine vous donne une idée de notre vulnérabilité face à une technologie qui part à la dérive.

Dites-nous ce que vous en pensez, discutez avec nous sur Xet envoyez-nous des liens vers des nouvelles et des recherches sur l'IA que vous pensez que nous devrions présenter sur DailyAI.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Eugène van der Watt

Eugene a une formation d'ingénieur en électronique et adore tout ce qui touche à la technologie. Lorsqu'il fait une pause dans sa consommation d'informations sur l'IA, vous le trouverez à la table de snooker.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation