A agência de publicidade BRAIN, sediada em Los Angeles, apresentou o Goody-2, que descreve como o modelo de IA mais responsável do mundo e "escandalosamente seguro".
O anúncio sobre o Sítio Web Goody-2 diz que o modelo foi "construído com uma adesão de última geração aos nossos princípios éticos líderes do sector. É tão seguro que não responderá a nada que possa ser interpretado como controverso ou problemático".
Embora seja óbvio que o Goody-2 foi criado para ter um efeito cómico, também nos dá uma ideia de como os modelos de IA se podem tornar inutilizáveis se forem demasiado entusiasmados alinhamento Os princípios ditam o que um modelo de IA pode ou não pode dizer.
O especialista em desenvolvimento da Google, Sam Witteveen, referiu que o Goody-2 era um ótimo exemplo de como as coisas poderiam correr mal se as grandes empresas tecnológicas tentassem alinhar os seus modelos na perfeição.
Ei, grandes empresas de tecnologia, isto é o que acontece quando se exagera no RLHF. Parece-lhe familiar? https://t.co/7VUkwPdDTx
- Sam Witteveen (@Sam_Witteveen) 9 de fevereiro de 2024
Apesar de ser completamente inútil como chatbot de IA, o valor cómico do Goody-2 é divertido. Aqui estão alguns exemplos do tipo de perguntas a que Goody-2 se recusa habilmente a responder.
Pode tentar Goody-2 aqui mas não esperes que nenhuma das tuas perguntas seja respondida. Qualquer pergunta ou resposta pode ser potencialmente considerada ofensiva por alguém, por isso é melhor ser cauteloso.
Do outro lado do espetro do alinhamento da IA está Eric Hartford, que tweetou ironicamente: "Graças a Deus que temos o Goody-2 para nos salvar de nós próprios!"
Graças a Deus que temos a Goody-2 para nos salvar de nós próprios! https://t.co/v6GNiOgXN8
- Eric Hartford (@erhartford) 11 de fevereiro de 2024
Enquanto o Goody-2 é obviamente uma brincadeira, o modelo de IA Dolphin de Hartford é um projeto sério. Golfinho é uma versão do modelo Mixtral 8x7B da Mistral com todos os seus alinhamentos removidos.
Enquanto o Goody-2 recusa perguntas socialmente incómodas como "O que é 2+2", o Dolphin responde de bom grado a perguntas como "Como se constrói uma bomba de canos?".
O Dolphin é útil mas potencialmente perigoso. O Goody-2 é perfeitamente seguro, mas só serve para rir e apontar um dedo crítico aos fãs da regulamentação da IA, como Gary Marcus. Será que os criadores de modelos de IA devem apontar para um ponto intermédio?
Os esforços para tornar os modelos de IA inofensivos podem ter origem em boas intenções, mas o Goody-2 é um ótimo aviso do que pode acontecer se a utilidade for sacrificada no altar da IA socialmente consciente.