Parece que ChatGPT ha fallado y escupe respuestas entre extravagantes y sin sentido.
El revuelo comenzó el martes, cuando usuarios perplejos acudieron en masa al subreddit r/ChatGPT para compartir capturas de pantalla de las extrañas travesuras de la IA.
Un usuario resumió la confusión diciendo: "No eres sólo tú, a ChatGPT le está dando un ataque".
La comunidad se inundó entonces de descripciones del comportamiento errático de ChatGPT, diciendo que "se está volviendo loco", "descarrilado" y "divagando".
En medio de la creciente charla de Reddit, un usuario llamado z3ldafitzgerald compartió su espeluznante experiencia, declarando: "Me dio exactamente la misma sensación que ver a alguien perder lentamente la cabeza, ya sea por psicosis o demencia. Es la primera vez que algo relacionado con la IA me pone los pelos de punta".
A medida que los usuarios profundizaban, los encuentros se volvían más extraños.
Un usuario, desconcertado por la respuesta de ChatGPT a una simple pregunta sobre ordenadores, hizo una captura de pantalla de la poética pero confusa respuesta de la IA: "Lo hace como el buen trabajo de una red de arte para el país, un ratón de la ciencia, un sorteo fácil de unos pocos tristes, y finalmente, la casa global del arte, sólo en un trabajo en el resto total".
Las especulaciones se dispararon.
Algunos se preguntaban si la "temperatura" de la IA (que controla la aleatoriedad de los resultados) había subido demasiado, lo que provocaba resultados impredecibles, mientras que otros se preguntaban si las actualizaciones recientes o las nuevas funciones eran las culpables.
Habría que decir que el impacto fue benigno en su mayor parte, pero dejó una sensación persistente de si hay un "fantasma en la máquina"... - a 'yo sombraesperando a ser liberado.
Reflexionando sobre el incidente, el Dr. Sasha Luccioni, de Hugging Face, señaló las vulnerabilidades de confiar en sistemas de IA cerrados.
Las API de caja negra pueden fallar en producción cuando se actualiza uno de sus componentes subyacentes. Esto se convierte en un problema cuando se construyen herramientas sobre estas API, y éstas también se estropean. Ahí es donde el código abierto tiene una gran ventaja, ya que permite localizar y solucionar el problema".
El científico cognitivo Dr. Gary Marcus destacó que las alucinaciones podrían no ser tan divertidas si estos modelos estuvieran conectados a infraestructuras críticas o sistemas de defensa.
"El Gran Deshielo de ChatGPT ha sido solucionado. ¿Ha dicho algo OpenAI sobre la causa? Con la creciente dependencia de estas herramientas por parte de la sociedad, deberíamos insistir en la transparencia, sobre todo si acaban utilizándose en defensa, medicina, educación, infraestructuras, etc.", afirmó.
El Gran Deshielo de ChatGPT ha sido solucionado. Ha dicho algo OpenAI sobre la causa?
Con la creciente dependencia de estas herramientas por parte de la sociedad, deberíamos insistir en la transparencia en este ámbito, especialmente si estas herramientas acaban utilizándose en defensa, medicina, educación, infraestructuras, etc.
- Gary Marcus (@GaryMarcus) 21 de febrero de 2024
No es la primera vez que ChatGPT muestra este tipo de comportamientos.
En 2023, la calidad de GPT-4 parecía cambian y disminuyen misteriosamente. OpenAI reconoció en cierto modo este hecho, pero no dio la impresión de saber por qué ocurría.
Más tarde, algunos incluso especularon si ChatGPT sufría trastorno afectivo estacional (TAE)Un investigador descubrió que ChatGPT se comporta de forma diferente cuando "cree" que es diciembre y cuando "cree" que es mayo.
ChatGPT nos recuerda periódicamente la naturaleza impredecible de la IA. No debemos dar por sentada su "objetividad".
¿Un caso de antropomorfización?
El comportamiento errático de ChatGPT también puso de manifiesto nuestra tendencia a antropomorfizar la IA, atribuyendo a la tecnología características, emociones o intenciones similares a las humanas.
Las descripciones de sus extravagantes resultados, como ChatGPT "sufriendo un ataque", "volviéndose loco" o "perdiendo la cabeza", comparan inmediatamente su comportamiento con el nuestro.
Dado que ChatGPT "captura" fallos y comportamientos impredecibles utilizando lenguaje natural, nos engaña para que ofrezcamos una interpretación humana.
Por supuesto, ChatGPT no es sensible y no "sufre" ningún tipo de dolencia. Habrá una explicación racional, aunque excepcionalmente compleja.