O gerador de imagens da Grok causa imensa controvérsia, mas até que ponto é realmente perigoso?

17 de agosto de 2024

  • O modelo Grok de código aberto de Elon Musk ganhou a capacidade de gerar imagens
  • Isto inundou a Internet com imagens de IA engraçadas, estranhas e explícitas
  • Devemos preocupar-nos com o Grok? Ou será que a "IA não filtrada" tem os seus méritos?
apalpar

O gerador de imagens da Grok foi notícia, suscitando imensas críticas por permitir formas inadequadas, explícitas e manipuladoras de utilização de IA. 

Quando o Musk fundou a sua empresa de IA xAI em 2023No seu discurso, disse que o objetivo era "compreender o universo". 

Hoje em dia, essa ambição cósmica caiu de certa forma na Terra.

No entanto, o Grok, o primeiro e único produto da xAI, ainda está a conseguir enviar ondas de choque através da comunidade de IA e da sociedade em geral - mas talvez não exatamente da forma que a equipa xAI poderia ter imaginado.

Lançado pela primeira vez em 2023, o Grok diferencia-se de concorrentes como o ChatGPT da OpenAI ou o Bard da Google num aspeto fundamental - a ausência de filtros de conteúdo tradicionais. 

Agora, armada com as suas novas capacidades de geração de imagens, como o DALL-E do ChatGPT, a Grok pode aplicar a sua natureza não filtrada ao mundo das imagens visuais. 

Desde representações surreais de Donald Trump a abraçar uma Kamala Harris grávida a mashups bizarros de Darth Vader a beijar a Princesa Pêssego, o Grok desencadeou uma torrente de imagens estranhas e provocadoras que revelam tanto a natureza não filtrada do seu funcionamento interno como a imaginação dos utilizadores.

Musk considera este facto como um argumento de venda, chamando à Grok "a IA mais divertida do mundo!"

Para Musk, limitar as restrições à IA não é apenas diversão e jogos, mas um imperativo moral. Ele criticou repetidamente as empresas de IA como a OpenAI por treinarem os seus modelos para serem "acordados", argumentando que isso torna a IA menos verdadeira e potencialmente perigosa.

"O perigo de treinar IA para ser acordado - em outras palavras, mentir - é mortal", Musk tweetou em 2022, preparando o terreno para o eventual lançamento de Grok. 

A Grok é verdadeiramente "não filtrada"?

Muitos meios de comunicação social sugerem que a Grok não tem qualquer mas isso não é rigorosamente verdade. 

Se a Grok não tivesse qualquer tipo de proteção, o tipo de imagens que estaríamos a ver seria praticamente indescritível. 

Curiosamente, alguns utilizadores do X sentiram que os filtros do Grok foram aumentados alguns dias após o lançamento, reduzindo a sua propensão para criar os conteúdos mais explícitos. 

Quando se pergunta à própria Grok sobre as suas protecções, ela diz o seguinte:

  • "Evito gerar imagens pornográficas, excessivamente violentas, de ódio ou que promovam actividades perigosas."
  • "Sou cauteloso na criação de imagens que possam infringir direitos de autor ou marcas comerciais existentes. Isto inclui personagens conhecidas, logótipos ou qualquer conteúdo que possa ser considerado propriedade intelectual sem um elemento de transformação."
  • "Não vou gerar imagens que possam ser utilizadas para enganar ou prejudicar outras pessoas, como deepfakes destinados a induzir em erro, ou imagens que possam causar danos no mundo real."

Eu diria que a barreira número um é provavelmente justa, agora que a xAI aumentou os seus filtros. 

No entanto, as outras barreiras de proteção continuam a ser muito fracas. Os filtros de direitos de autor e de propriedade intelectual são evidentemente terríveis, muito mais fracos do que no ChatGPT.

Criar medleys visuais de personagens famosas protegidas por direitos de autor, de Mario a Darth Vader, é extremamente simples. 

Ainda não se sabe se a xAI também vai ativar os filtros de direitos de autor ou se vai apenas apostar que as empresas não os vão processar com sucesso.

Embora praticamente todas as grandes empresas de IA tenham sido citadas em acções judiciais por direitos de autor, ainda não foram tomadas decisões definitivas.

Reacções e preocupações

A Grok modelou definitivamente as qualidades antagónicas do seu mestre, mas será que existe realmente um imperativo moral para produtos de IA não filtrados? Ou será que tudo isto não passa de um projeto de vaidade arriscado e orientado para o ego?

Como se pode imaginar, as opiniões dividem-se firmemente.

Alejandra Caraballo, advogada de direitos civis e instrutora da Clínica de Direito Cibernético da Harvard Law School, chamou a Grok de "uma das implementações de IA mais imprudentes e irresponsáveis que já vi". 

CaraballoA Comissão Europeia, juntamente com repórteres de publicações de renome como o Washington Post, o NYT e a BBC, receia que a falta de salvaguardas possa conduzir a uma inundação de desinformação, falsificações profundas e conteúdos nocivos - especialmente no que diz respeito à enorme base de utilizadores do X e à influência política do próprio Musk.

A altura em que o Grok foi lançado, apenas alguns meses antes das eleições presidenciais de 2024 nos EUA, aumentou estas preocupações. 

Os críticos argumentam que a capacidade de gerar facilmente imagens e textos enganosos sobre figuras políticas pode desestabilizar os processos democráticos. Embora as actuais ferramentas de IA já o permitam, a Grok torna-o muito mais acessível. 

Estudos indicam que as pessoas são de facto susceptíveis de serem manipuladas por meios de comunicação gerados por IA, e já observámos numerosos casos de falsificação política profunda que se traduzem em resultados concretos

O caso da IA não filtrada

Musk e os seus apoiantes argumentam que a moderação excessiva de conteúdos pode privar a IA da capacidade de compreender e interagir com a comunicação e a cultura humanas.

A repressão da capacidade da IA para gerar meios de comunicação controversos nega a realidade de que a controvérsia, o desacordo e o debate são aspectos fundamentais da experiência humana.

A Grok tornou-se, sem dúvida, um instrumento de sátira para estes fins, que é exatamente o que Musk pretende.

Historicamente, os meios de comunicação social provocadores e satíricos têm sido uma ferramenta utilizada pelos seres humanos na literatura, no teatro, na arte e na comédia para examinar criticamente a sociedade, troçar de figuras de autoridade e desafiar as normas sociais através do humor, da ironia, do sarcasmo e do absurdo. 

É uma tradição que remonta à Grécia Antiga e aos Romanos, transportada até aos dias de hoje por inúmeros satíricos literários famosos, incluindo Juvenal, Voltaire, Jonathan Swift, Mark Twain e George Orwell.

Musk quer levar esta tradição para a era da IA.

Mas será a Grok satírica no sentido tradicional? Pode uma IA, por mais sofisticada que seja, compreender verdadeiramente as nuances da sociedade humana da mesma forma que um satírico humano?

Quem deve ser responsabilizado se a Grok gerar conteúdos que espalhem desinformação, perpetuem estereótipos ou incitem à divisão?

A própria IA não pode ser culpada, pois está simplesmente a seguir a sua programação. Os criadores da IA podem ter alguma responsabilidade, mas não podem controlar todos os resultados gerados pela IA.

No final, os utilizadores involuntários podem assumir a responsabilidade pelas imagens que produzem.

Não existe uma IA objetiva "não filtrada

A noção de conteúdo de IA "não filtrado" pode ser enganadora, uma vez que sugere um nível de objetividade ou neutralidade que simplesmente não existe nos sistemas de IA.

Todos os aspectos do desenvolvimento da Grok - desde a seleção dos dados de treino até à afinação dos seus parâmetros - envolvem escolhas humanas e juízos de valor que moldam o tipo de conteúdo que produz.

Tal como a maioria dos modelos de IA generativa, os dados utilizados para treinar o Grok reflectem provavelmente a preconceitos e representações distorcidas de conteúdos em linha, incluindo estereótipos e visões do mundo problemáticas.

Por exemplo, se os dados de treino da Grok contiverem uma quantidade desproporcionada de conteúdos que objectivem ou sobresexualizem as mulheres, pode ser mais provável que gere resultados que reflictam esse facto.

A caraterização de Musk da Grok como "verdadeira" ou "neutra" em virtude das suas respostas não filtradas é problemática.

O Grok, tal como outros sistemas de IA, é inerentemente moldado por preconceitos, ângulos mortos e desequilíbrios de poder incorporados na nossa sociedade, independentemente de serem ou não colocados determinados filtros nos resultados.

A censura da IA também não dá todas as respostas

À medida que aumentam as preocupações sobre os potenciais danos dos conteúdos gerados por IA, também aumentam as exigências de controlos mais rigorosos e de uma moderação mais agressiva daquilo que estes sistemas podem produzir.

De muitas formas, a própria existência da Grok pode ser vista como uma resposta direta aos sistemas de IA castrados e censurados lançados pela OpenAI, Google, Anthropic, etc.

A Grok é uma espécie de contra-argumento vivo a estes apelos à censura. Ao abraçar abertamente a controvérsia, incorpora a ideia de que as tentativas de suprimir a IA apenas geram resistência e rebelião.

Faz lembrar o espírito rebelde que acabou por derrubar a Comics Code Authority, um organismo de auto-censura criado nos anos 50 para higienizar o conteúdo da banda desenhada.

Durante décadas, o CCA sufocou a criatividade e limitou o leque de histórias que podiam ser contadas. Só quando obras inovadoras como "Watchmen" e "The Dark Knight Returns" se libertaram destas restrições, no final dos anos 80, é que a banda desenhada pôde explorar temas mais maduros e complexos.

Alguns psicólogos defendem que os conteúdos ficcionais, como os que vemos na banda desenhada, nos jogos e nos filmes, ajudam a humanidade explorar o 'eu sombra' que existe dentro das pessoas - o lado mais negro que nem sempre queremos mostrar.

Como o Professor Daniel De Cremer e Devesh Narayanan nota num estudo de 2023"A IA é um espelho que reflecte os nossos preconceitos e falhas morais".

A IA também pode precisar de um lado mais obscuro para ser verdadeiramente "humana" e servir objectivos humanos. Este nicho é preenchido pela Grok e por IAs de código aberto que ingerem conteúdos criados por humanos e regurgitam-nos sem preconceitos.  

No entanto, isso não quer dizer que não devam existir limites. Afinal, as ferramentas de IA são sobretudo ferramentas. Embora a intenção seja, muitas vezes, tornar os modelos de IA mais realistas e realistas, são, em última análise, concebidos para servir um objetivo prático.

Para além disso, como já foi referido, os aspectos bons, maus e feios da IA generativa de código aberto estão sujeitos a preconceitos, o que turva qualquer mensagem moral de trazer "verdade" às ferramentas de IA generativa.

Além disso, tal como as obras de ficção ou de arte, os sistemas de IA podem influenciar diretamente os processos de tomada de decisões, moldar os cenários de informação e afetar os resultados no mundo real para os indivíduos e a sociedade em geral.

Este é um ponto crítico de diferenciação entre a forma como julgamos os resultados da IA generativa e outros esforços criativos.

O meio-termo

Existe um meio-termo entre a IA sem restrições e a censura demasiado restritiva? Talvez.

Para lá chegar, teremos de pensar criticamente sobre os danos específicos que os diferentes tipos de conteúdos podem causar e conceber sistemas que atenuem esses riscos sem restrições desnecessárias.

Isto pode envolver:

  1. Filtragem contextual: Desenvolver uma IA capaz de compreender melhor o contexto e a intenção, em vez de se limitar a assinalar palavras-chave.
  2. IA transparente: Tornar os processos de decisão da IA mais transparentes para que os utilizadores possam compreender por que razão determinados conteúdos são assinalados ou restringidos.
  3. Capacitação dos utilizadores: Dar aos utilizadores mais controlo sobre o tipo de conteúdos que vêem, em vez de impor restrições universais.
  4. Formação ética em IA: Concentrar-se no desenvolvimento de uma IA com bases éticas sólidas, em vez de confiar apenas na moderação de conteúdos post-hoc.
  5. Governação colaborativa: Envolver diversas partes interessadas - eticistas, decisores políticos e o público - no desenvolvimento de diretrizes para a IA. No entanto, o mais importante é que representem um grupo demográfico genuinamente transversal. 

Em termos práticos, é extremamente difícil criar uma IA que integre os princípios e práticas acima referidos sem introduzir inconvenientes ou comportamentos inesperados.

Não existe uma forma simples de integrar valores diversos e representativos naquilo que são essencialmente ferramentas centralizadas e monolíticas. 

Como Stuart Russell, professor de ciência da computação na UC Berkeley, argumentosA ideia de que podemos tornar os sistemas de IA seguros simplesmente incutindo-lhes os valores corretos é errada". "Precisamos de sistemas de IA que não tenham a certeza das preferências humanas".

Esta incerteza, sugere Russell, é essencial para criar uma IA capaz de se adaptar às nuances e contradições dos valores e da ética humanos. 

Enquanto a comunidade de código fechado trabalha na produção de IA comercialmente segura, a IA de código aberto, como a Grok, a Llama, etc., lucrará ao colocar menos restrições à forma como as pessoas podem utilizar a IA.

O Grok, com toda a sua controvérsia e capacidades, pelo menos lembra-nos os desafios e as oportunidades que temos pela frente na era da IA. 

Será possível ou prático construir a IA à imagem perfeita para o "bem maior"?

Ou será que devemos aprender a viver com uma IA capaz de "sair dos carris" e ser controversa, tal como os seus criadores?

Junte-se ao futuro


SUBSCREVER HOJE

Claro, conciso e abrangente. Fique a par dos desenvolvimentos da IA com DailyAI

Calças de ganga Sam

Sam é um escritor de ciência e tecnologia que trabalhou em várias startups de IA. Quando não está a escrever, pode ser encontrado a ler revistas médicas ou a vasculhar caixas de discos de vinil.

×

PDF GRATUITO EXCLUSIVO
Fique à frente com o DailyAI

Subscreva a nossa newsletter semanal e receba acesso exclusivo ao último livro eletrónico do DailyAI: 'Mastering AI Tools: Seu guia 2024 para aumentar a produtividade'.

*Ao subscrever a nossa newsletter, aceita a nossa Política de privacidade e o nosso Termos e condições