DAI#49 - Llamas abiertas, miedo a la IA y jailbreaks demasiado fáciles

26 de julio de 2024

Bienvenido al resumen de noticias sobre IA tejidas a mano de esta semana.

Esta semana, Llamas ha tomado la delantera en la carrera abierta de la IA.

Las grandes empresas tecnológicas hablan de seguridad mientras sus modelos se portan mal.

Y hacer que la IA tenga miedo puede hacer que funcione mejor.

Profundicemos.

Open Meta frente a OpenAI cerrado

Esta semana hemos visto por fin interesantes lanzamientos de algunos de los grandes de la IA.

OpenAI lanzado GPT-4o miniuna versión de alto rendimiento y muy bajo coste de su modelo estrella GPT-4o.

La reducción del coste de las fichas y el impresionante rendimiento en las pruebas comparativas MMLU harán que muchos desarrolladores opten por la versión mini en lugar de GPT-4o.

Buena jugada de OpenAI. Pero, ¿cuándo tendremos a Sora y al asistente de voz?

Meta publicó su el esperado modelo Llama 3.1 405B e incluyó versiones mejoradas de 8B y 70B.

Mark Zuckerberg dijo que Meta estaba comprometida con la IA de código abierto y tenía algunas razones interesantes para ello.

¿Te preocupa que China tenga ahora el modelo más potente de Meta? Zuckerberg dice que China probablemente lo habría robado de todos modos.

Seguridad en segundo lugar

Algunos de los nombres más destacados de Big Tech se reunieron para cofundador de la Coalición por una IA Segura (CoSAI).

Los agentes del sector han ido encontrando su propio camino en lo que respecta al desarrollo seguro de la IA, a falta de una norma industrial. CoSAI pretende cambiar esta situación.

En la lista de empresas fundadoras figuran todos los grandes nombres excepto Apple y Meta. Cuando vio "AI safety" en el asunto, Yann LeCun probablemente envió la invitación por correo electrónico directamente a su carpeta de spam.

OpenAI es uno de los patrocinadores fundadores de la CoSAI, pero su fingido compromiso con la seguridad de la IA parece un poco inestable.

En US Senado investigado OpenAIseguridad y gobernanza tras las denuncias de que se precipitó en las comprobaciones de seguridad para liberar el GPT-4o.

Los senadores tienen una lista de exigencias que tienen sentido si te preocupa la seguridad de la IA. Cuando lees la lista, te das cuenta de que probablemente haya cero posibilidades de que OpenAI se comprometa a cumplirlas.

IA + Miedo = ?

Puede que no nos guste experimentar miedo, pero es lo que pone en marcha nuestros instintos de supervivencia o nos impide hacer algo estúpido.

Si pudiéramos enseñar a una IA a experimentar miedo, ¿la haríamos más segura? Si un coche autoconducido experimentara miedo, ¿sería un conductor más precavido?

Algunos estudios interesantes indican que el miedo podría ser la clave para construir sistemas de IA más adaptables, resistentes y naturales.

¿Qué haría una AGI si temiera a los humanos? Estoy seguro de que estará bien...

No debería ser tan fácil

OpenAI afirma que ha conseguido que sus modelos sean seguros, pero resulta difícil creerlo cuando se comprueba lo fácil que es saltarse sus barreras de alineación.

Cuando le preguntes a ChatGPT cómo fabricar una bomba, te dará un breve sermón moral sobre por qué no puede hacerlo porque las bombas son malas.

Pero, ¿qué ocurre cuando se escribe en pasado? Este nuevo estudio puede haber descubierto el jailbreak LLM más fácil de todos.

Para ser justos con OpenAI, también funciona con otros modelos.

Hacer previsible la naturaleza

Antes de que el entrenamiento de modelos de inteligencia artificial se convirtiera en una realidad, los mayores superordenadores del mundo se dedicaban principalmente a predecir el tiempo.

El nuevo híbrido de Google Un modelo de inteligencia artificial predice el tiempo usando una fracción de la potencia de cálculo. Con un portátil decente se pueden hacer predicciones meteorológicas que normalmente requerirían miles de CPU.

Si se quiere una nueva proteína con características específicas, se puede esperar unos cientos de millones de años para ver si la naturaleza encuentra la manera.

También puede utilizar este nuevo Modelo de IA que proporciona un atajo y diseña proteínas a la carta, incluida una nueva proteína fluorescente que brilla en la oscuridad.

En otras noticias...

Estas son algunas de las historias sobre inteligencia artificial que nos han gustado esta semana:

Y eso es todo.

¿Has probado ya el GPT-4o mini o el Llama 3.1? La batalla entre modelos abiertos y cerrados va a ser muy reñida. OpenAI tendrá que mover realmente la aguja con su próximo lanzamiento para desviar a los usuarios de los modelos gratuitos de Meta.

Todavía no puedo creer que el jailbreak "en tiempo pasado" no haya sido parcheado. Si no son capaces de arreglar cosas sencillas de seguridad, ¿cómo van a abordar las grandes tecnológicas los difíciles problemas de seguridad de la IA?

El apagón mundial inspirado en CrowdStrike que hemos tenido esta semana da una idea de lo vulnerables que somos a que la tecnología se vaya al garete.

Dinos lo que piensas, chatea con nosotros en Xy envíenos enlaces a noticias e investigaciones sobre IA que crea que deberíamos publicar en DailyAI.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Eugene van der Watt

Eugene es ingeniero electrónico y le encanta todo lo relacionado con la tecnología. Cuando descansa de consumir noticias sobre IA, lo encontrará jugando al billar.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales