O ChatGPT parece ter tido uma falha, dando respostas que variam entre o peculiar e o absurdo.
O burburinho começou na terça-feira, quando os utilizadores perplexos acorreram ao subreddit r/ChatGPT, partilhando capturas de ecrã das bizarrias da IA.
Um utilizador resumiu a confusão, dizendo: "Não és só tu, o ChatGPT está a ter um ataque".
A comunidade foi então inundada com descrições do comportamento errático do ChatGPT, dizendo que está "a ficar louco", "fora dos carris" e "a divagar".
No meio da crescente conversa no Reddit, um utilizador chamado z3ldafitzgerald partilhou a sua experiência assustadora, afirmando: "Deu-me exatamente a mesma sensação - como ver alguém perder lentamente a cabeça devido a psicose ou demência. É a primeira vez que algo relacionado com a IA me dá sinceramente arrepios".
desculpe-me, mas que raio de coisa é esta?
poru/arabdudefr emChatGPT
À medida que os utilizadores se aprofundavam, os encontros tornavam-se mais estranhos.
Um utilizador, intrigado com a resposta do ChatGPT a uma simples pergunta sobre computadores, fez uma captura de ecrã da resposta poética mas confusa da IA: "Faz isto como o bom trabalho de uma teia de arte para o país, um rato da ciência, um desenho fácil de uns poucos tristes e, finalmente, a casa global da arte, apenas num trabalho no resto total."
A especulação era galopante.
Alguns perguntaram-se se a "temperatura" da IA (que controla a aleatoriedade dos resultados) teria sido demasiado elevada, levando a resultados imprevisíveis, enquanto outros ponderaram se a culpa seria de actualizações recentes ou de novas funcionalidades.
É preciso dizer que o impacto foi maioritariamente benigno, mas deixou uma sensação persistente de que existe um "fantasma na máquina - a 'sombra de si próprio' à espera de ser libertada.
Reflectindo sobre o incidente, a Dra. Sasha Luccioni, da Hugging Face, chamou a atenção para as vulnerabilidades de se confiar em sistemas de IA fechados.
O Dr. Luccioni partilhou: "As APIs de caixa negra podem falhar na produção quando um dos seus componentes subjacentes é atualizado. Isto torna-se um problema quando se constroem ferramentas em cima destas APIs, e estas também se avariam. É aí que o código aberto tem uma grande vantagem, permitindo-lhe identificar e resolver o problema!"
O cientista cognitivo Dr. Gary Marcus salientou que as alucinações poderiam não ser tão divertidas se estes modelos estivessem ligados a infra-estruturas críticas ou a sistemas de defesa.
"O Grande Desmoronamento do ChatGPT foi corrigido. A OpenAI disse alguma coisa sobre o que o causou? Com a crescente dependência da sociedade em relação a estas ferramentas, devemos insistir na transparência, especialmente se estas ferramentas acabarem por ser utilizadas na defesa, medicina, educação, infra-estruturas, etc.", afirmou.
O grande colapso do ChatGPT foi resolvido. A OpenAI disse alguma coisa sobre a causa do problema?
Com a crescente dependência da sociedade em relação a estas ferramentas, devemos insistir na transparência, especialmente se estas ferramentas acabarem por ser utilizadas na defesa, medicina, educação, infra-estruturas, etc.
- Gary Marcus (@GaryMarcus) 21 de fevereiro de 2024
Esta não é a primeira vez que o ChatGPT apresenta este tipo de comportamento.
Em 2023, a qualidade da GPT-4 parecia misteriosamente mudam e diminuem. A OpenAI reconheceu de certa forma este facto, mas não deu a impressão de saber porque é que isso estava a acontecer.
Mais tarde, houve mesmo quem especulasse se ChatGPT sofria de perturbação do afeto sazonal (SAD)Um investigador descobriu que o ChatGPT se comporta de forma diferente quando "pensa" que estamos em dezembro e quando "pensa" que estamos em maio.
O ChatGPT recorda periodicamente a natureza imprevisível da IA. Não devemos dar por garantida a sua "objetividade".
Um caso de antropomorfização?
O comportamento errático do ChatGPT também mostrou a nossa tendência para antropomorfizar a IA, atribuindo características, emoções ou intenções semelhantes às humanas à tecnologia.
As descrições dos seus resultados loucos, como o ChatGPT "ter um ataque", "ficar louco" ou "perder a cabeça", comparam imediatamente o seu comportamento ao nosso.
Uma vez que o ChatGPT "capta" falhas e comportamentos imprevisíveis utilizando linguagem natural, engana-nos para oferecer uma interpretação humana.
É claro que o ChatGPT não é senciente e não "sofre" de qualquer tipo de doença. Haverá uma explicação racional, ainda que excecionalmente complexa.