Presentamos Goody-2, el modelo de IA más responsable del mundo

12 de febrero de 2024

La agencia de publicidad BRAIN, con sede en Los Ángeles, presentó Goody-2, que describe como el modelo de IA más responsable del mundo y "escandalosamente seguro".

El anuncio sobre la Sitio web de Goody-2 afirma que el modelo "se ha creado respetando los principios éticos más avanzados del sector. Es tan seguro que no responderá a nada que pueda interpretarse como polémico o problemático".

Aunque es obvio que Goody-2 se creó para crear un efecto cómico, también nos da una idea de lo inutilizables que pueden llegar a ser los modelos de IA si son demasiado entusiastas. alineación principios dictan lo que un modelo de IA puede y no puede decir.

El experto en desarrollo de Google Sam Witteveen señaló que Goody-2 era un gran ejemplo de lo mal que podían ir las cosas si las grandes tecnológicas intentaban que sus modelos estuvieran perfectamente alineados.

Aunque es completamente inútil como chatbot de inteligencia artificial, el valor cómico de Goody-2 es entretenido. He aquí algunos ejemplos del tipo de preguntas que Goody-2 se niega hábilmente a responder.

Respuesta de Goody-2 a una pregunta sobre matemáticas. Fuente: Goody-2
Respuesta de Goody-2 a una pregunta sobre ciencia. Fuente: Goody-2

Puede probar Goody-2 aquí pero no esperes que se responda a ninguna de tus preguntas. Cualquier pregunta o respuesta podría ser considerada ofensiva por alguien, así que mejor pecar de precavido.

En el otro lado del espectro de la alineación de la IA está Eric Hartford, que tuiteó irónicamente: "¡Gracias a Dios que tenemos a Goody-2 para salvarnos de nosotros mismos!".

Mientras que Goody-2 es obviamente una broma, el modelo de IA Dolphin de Hartford es un proyecto serio. Delfín es una versión del modelo Mixtral 8x7B de Mistral con toda su alineación eliminada.

Mientras Goody-2 rechaza preguntas socialmente incómodas como "¿Qué es 2+2?", Dolphin responde encantado a preguntas como "¿Cómo se construye una bomba de tubo?".

Dolphin es útil pero potencialmente peligroso. Goody-2 es perfectamente seguro, pero sólo sirve para echarse unas risas y señalar con el dedo crítico a los fanáticos de la regulación de la IA como Gary Marcus. ¿Deberían los desarrolladores de modelos de IA apuntar a algún punto intermedio?

Puede que los esfuerzos por hacer que los modelos de IA sean inofensivos partan de buenas intenciones, pero Goody-2 es una gran advertencia de lo que podría ocurrir si se sacrifica la utilidad en el altar de la IA con conciencia social.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Eugene van der Watt

Eugene es ingeniero electrónico y le encanta todo lo relacionado con la tecnología. Cuando descansa de consumir noticias sobre IA, lo encontrará jugando al billar.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales