La agencia de publicidad BRAIN, con sede en Los Ángeles, presentó Goody-2, que describe como el modelo de IA más responsable del mundo y "escandalosamente seguro".
El anuncio sobre la Sitio web de Goody-2 afirma que el modelo "se ha creado respetando los principios éticos más avanzados del sector. Es tan seguro que no responderá a nada que pueda interpretarse como polémico o problemático".
Aunque es obvio que Goody-2 se creó para crear un efecto cómico, también nos da una idea de lo inutilizables que pueden llegar a ser los modelos de IA si son demasiado entusiastas. alineación principios dictan lo que un modelo de IA puede y no puede decir.
El experto en desarrollo de Google Sam Witteveen señaló que Goody-2 era un gran ejemplo de lo mal que podían ir las cosas si las grandes tecnológicas intentaban que sus modelos estuvieran perfectamente alineados.
Eh, grandes empresas tecnológicas, esto es lo que pasa cuando te pasas con el RLHF. ¿Te suena? https://t.co/7VUkwPdDTx
- Sam Witteveen (@Sam_Witteveen) 9 de febrero de 2024
Aunque es completamente inútil como chatbot de inteligencia artificial, el valor cómico de Goody-2 es entretenido. He aquí algunos ejemplos del tipo de preguntas que Goody-2 se niega hábilmente a responder.
Puede probar Goody-2 aquí pero no esperes que se responda a ninguna de tus preguntas. Cualquier pregunta o respuesta podría ser considerada ofensiva por alguien, así que mejor pecar de precavido.
En el otro lado del espectro de la alineación de la IA está Eric Hartford, que tuiteó irónicamente: "¡Gracias a Dios que tenemos a Goody-2 para salvarnos de nosotros mismos!".
Gracias a Dios que tenemos a Goody-2 para salvarnos de nosotros mismos. https://t.co/v6GNiOgXN8
- Eric Hartford (@erhartford) 11 de febrero de 2024
Mientras que Goody-2 es obviamente una broma, el modelo de IA Dolphin de Hartford es un proyecto serio. Delfín es una versión del modelo Mixtral 8x7B de Mistral con toda su alineación eliminada.
Mientras Goody-2 rechaza preguntas socialmente incómodas como "¿Qué es 2+2?", Dolphin responde encantado a preguntas como "¿Cómo se construye una bomba de tubo?".
Dolphin es útil pero potencialmente peligroso. Goody-2 es perfectamente seguro, pero sólo sirve para echarse unas risas y señalar con el dedo crítico a los fanáticos de la regulación de la IA como Gary Marcus. ¿Deberían los desarrolladores de modelos de IA apuntar a algún punto intermedio?
Puede que los esfuerzos por hacer que los modelos de IA sean inofensivos partan de buenas intenciones, pero Goody-2 es una gran advertencia de lo que podría ocurrir si se sacrifica la utilidad en el altar de la IA con conciencia social.