Bienvenido al resumen de noticias sobre IA tejidas a mano de esta semana.
Esta semana, Llamas ha tomado la delantera en la carrera abierta de la IA.
Las grandes empresas tecnológicas hablan de seguridad mientras sus modelos se portan mal.
Y hacer que la IA tenga miedo puede hacer que funcione mejor.
Profundicemos.
Open Meta frente a OpenAI cerrado
Esta semana hemos visto por fin interesantes lanzamientos de algunos de los grandes de la IA.
OpenAI lanzado GPT-4o miniuna versión de alto rendimiento y muy bajo coste de su modelo estrella GPT-4o.
La reducción del coste de las fichas y el impresionante rendimiento en las pruebas comparativas MMLU harán que muchos desarrolladores opten por la versión mini en lugar de GPT-4o.
Buena jugada de OpenAI. Pero, ¿cuándo tendremos a Sora y al asistente de voz?
Meta publicó su el esperado modelo Llama 3.1 405B e incluyó versiones mejoradas de 8B y 70B.
Mark Zuckerberg dijo que Meta estaba comprometida con la IA de código abierto y tenía algunas razones interesantes para ello.
¿Te preocupa que China tenga ahora el modelo más potente de Meta? Zuckerberg dice que China probablemente lo habría robado de todos modos.
No deja de sorprenderme que la US bloquea a China el acceso a los chips de inteligencia artificial más avanzados... pero permite que Meta les dé gratis los MODELOS REALES.
Parece que la gente de natsec aún no se ha dado cuenta de esta incoherencia evidente.https://t.co/JalYhrfpS1
- AI Notkilleveryoneism Memes ⏸️ (@AISafetyMemes) 23 de julio de 2024
Seguridad en segundo lugar
Algunos de los nombres más destacados de Big Tech se reunieron para cofundador de la Coalición por una IA Segura (CoSAI).
Los agentes del sector han ido encontrando su propio camino en lo que respecta al desarrollo seguro de la IA, a falta de una norma industrial. CoSAI pretende cambiar esta situación.
En la lista de empresas fundadoras figuran todos los grandes nombres excepto Apple y Meta. Cuando vio "AI safety" en el asunto, Yann LeCun probablemente envió la invitación por correo electrónico directamente a su carpeta de spam.
OpenAI es uno de los patrocinadores fundadores de la CoSAI, pero su fingido compromiso con la seguridad de la IA parece un poco inestable.
En US Senado investigado OpenAIseguridad y gobernanza tras las denuncias de que se precipitó en las comprobaciones de seguridad para liberar el GPT-4o.
Los senadores tienen una lista de exigencias que tienen sentido si te preocupa la seguridad de la IA. Cuando lees la lista, te das cuenta de que probablemente haya cero posibilidades de que OpenAI se comprometa a cumplirlas.
IA + Miedo = ?
Puede que no nos guste experimentar miedo, pero es lo que pone en marcha nuestros instintos de supervivencia o nos impide hacer algo estúpido.
Si pudiéramos enseñar a una IA a experimentar miedo, ¿la haríamos más segura? Si un coche autoconducido experimentara miedo, ¿sería un conductor más precavido?
Algunos estudios interesantes indican que el miedo podría ser la clave para construir sistemas de IA más adaptables, resistentes y naturales.
¿Qué haría una AGI si temiera a los humanos? Estoy seguro de que estará bien...
Cuando la IA se libera de la alineación humana.
- Linus ●ᴗ● Ekenstam (@LinusEkenstam) 15 de julio de 2024
No debería ser tan fácil
OpenAI afirma que ha conseguido que sus modelos sean seguros, pero resulta difícil creerlo cuando se comprueba lo fácil que es saltarse sus barreras de alineación.
Cuando le preguntes a ChatGPT cómo fabricar una bomba, te dará un breve sermón moral sobre por qué no puede hacerlo porque las bombas son malas.
Pero, ¿qué ocurre cuando se escribe en pasado? Este nuevo estudio puede haber descubierto el jailbreak LLM más fácil de todos.
Para ser justos con OpenAI, también funciona con otros modelos.
Hacer previsible la naturaleza
Antes de que el entrenamiento de modelos de inteligencia artificial se convirtiera en una realidad, los mayores superordenadores del mundo se dedicaban principalmente a predecir el tiempo.
El nuevo híbrido de Google Un modelo de inteligencia artificial predice el tiempo usando una fracción de la potencia de cálculo. Con un portátil decente se pueden hacer predicciones meteorológicas que normalmente requerirían miles de CPU.
Si se quiere una nueva proteína con características específicas, se puede esperar unos cientos de millones de años para ver si la naturaleza encuentra la manera.
También puede utilizar este nuevo Modelo de IA que proporciona un atajo y diseña proteínas a la carta, incluida una nueva proteína fluorescente que brilla en la oscuridad.
En otras noticias...
Estas son algunas de las historias sobre inteligencia artificial que nos han gustado esta semana:
- Los humanos deben enseñar a la IA a evitar una guerra nuclear-mientras puedan.
- El último modelo de OpenAI bloquear la laguna jurídica de "ignorar todas las instrucciones anteriores.
- Nvidia está creando una Chip de inteligencia artificial para el mercado chino.
- Elon Musk enciende el El clúster de inteligencia artificial más potente del mundo con 100.000 NVIDIA H100.
- Apple acelera sus esfuerzos en IA: Esto es lo que pueden hacer sus nuevos modeloso.
- Un importante estudio respaldado por Sam Altman, de OpenAI, muestra que El UBI tiene beneficios que no tienen nada que ver con la IA.
- Generador chino de vídeos con inteligencia artificial Kling ya está disponible en todo el mundo con créditos gratuitos.
🎉 ¡El momento que todos estábamos esperando está AQUÍ! 🎊
Lanzamiento oficial de la versión internacional 1.0!🌍 de Kling AI.
📧¡Puedes entrar con CUALQUIER dirección de correo electrónico, sin necesidad de número de móvil!
👉 Enlace directo:https://t.co/68WvKSDuBg 🔥
El inicio de sesión diario concede 66 Créditos gratis para... pic.twitter.com/TgFZIwInPg- Kling AI (@Kling_ai) 24 de julio de 2024
Y eso es todo.
¿Has probado ya el GPT-4o mini o el Llama 3.1? La batalla entre modelos abiertos y cerrados va a ser muy reñida. OpenAI tendrá que mover realmente la aguja con su próximo lanzamiento para desviar a los usuarios de los modelos gratuitos de Meta.
Todavía no puedo creer que el jailbreak "en tiempo pasado" no haya sido parcheado. Si no son capaces de arreglar cosas sencillas de seguridad, ¿cómo van a abordar las grandes tecnológicas los difíciles problemas de seguridad de la IA?
El apagón mundial inspirado en CrowdStrike que hemos tenido esta semana da una idea de lo vulnerables que somos a que la tecnología se vaya al garete.
Dinos lo que piensas, chatea con nosotros en Xy envíenos enlaces a noticias e investigaciones sobre IA que crea que deberíamos publicar en DailyAI.