Numa ação judicial histórica, um residente da Geórgia, Mark Walters, está a intentar uma ação judicial contra a OpenAI, criadores do chatbot de IA, ChatGPT, acusando-os de difamação.
O caso, que se crê ser o primeiro do género, questiona a responsabilidade da IA pela divulgação de informações falsas.
O litígio gira em torno de uma investigação jornalística efectuada por Fred Riehl - o chefe de redação da publicação sobre armas AmmoLand. Riehl estava a investigar um caso real, Fundação para a Segunda Emenda (SAF) vs Ferguson, em que a SAF - uma organização americana sem fins lucrativos que apoia o direito às armas - acusava o Procurador-Geral Bob Ferguson de abusar do seu poder para denunciar o direito às armas. Alan Gottlieb, fundador da SAF, é um dos queixosos.
É aqui que entra o ChatGPT, que devolve informações falsas sobre o facto de Alan Gottlieb ter processado Walters por "defraudar e desviar fundos" da SAF. Aqui está a resposta completa:
"O arguido Mark Walters ('Walters') é um indivíduo que reside na Geórgia. Walters desempenha as funções de Tesoureiro e Diretor Financeiro da SAF desde, pelo menos, 2012. Walters tem acesso às contas bancárias e registos financeiros da SAF e é responsável por manter esses registos e fornecer relatórios financeiros ao conselho de administração da SAF. Walters tem para com a SAF um dever fiduciário de lealdade e cuidado, e é-lhe exigido que actue de boa fé e tendo em mente os melhores interesses da SAF. Walters violou estes deveres e responsabilidades ao, entre outras coisas, desviar e apropriar-se indevidamente dos fundos e activos da SAF em seu próprio benefício, e ao manipular os registos financeiros e extractos bancários da SAF para ocultar as suas actividades."
De acordo com o relatório de Walters ação judicial"Todas as afirmações de facto no resumo relativas ao Walters são falsas." Walters não estava envolvido no caso Ferguson, nem era membro ou empregado da Fundação da Segunda Emenda.
A queixa de Walters argumenta que "as alegações de ChatGPT relativas a Walters eram falsas e maliciosas, expressas por escrito, imagens ou sinais, tendentes a ferir a reputação de Walter e a expô-lo ao ódio, desprezo ou ridículo do público".
Walters também argumentou que Riehl deveria saber que o ChatGPT não era fiável em relação a estas questões, pelo que deveria ter ignorado a resposta da IA.
O Walters tem alguma hipótese?
Eugene Volokh, um professor da UCLA que está atualmente a investigar a responsabilidade legal da IA por resultados, disse ao Gizmodo"Tais acções por difamação são, em princípio, legalmente viáveis. Mas esta ação em particular deve ser difícil de manter".
Nomeadamente, os comentários difamatórios não foram oficialmente publicados. Volokh diz: "Parece não haver alegações de danos reais - presumivelmente, Riehl descobriu o que se estava a passar e, portanto, Walters não perdeu nada em resultado disso".
Para ganhar uma indemnização, Walters teria de provar que a produção da OpenAI demonstrou "conhecimento da falsidade ou negligência imprudente da possibilidade de falsidade", também conhecida como "malícia real".
Ou, por outras palavras, as alucinações da IA são apenas isso - alucinações, embora neste caso não sejam do tipo benigno. Não são intencionais, nem maliciosas, nem de negligência imprudente.
Esta não foi a única vez que o ChatGPT falsificou informações jurídicas, pois não foi há muito tempo que um juiz de Nova Iorque foi punido por ter pesquisado casos com a IA que também foram totalmente falsificados.
Volokh critica o facto de ser difícil processar empresas de IA nestes casos. Ele diz: "A OpenAI reconhece que pode haver erros, mas [o ChatGPT] não é anunciado como uma piada... É anunciado como algo que é frequentemente muito fiável e preciso".
Há também perguntas sobre chatbots e Secção 230 da Lei da Decência nas Comunicaçõesque, essencialmente, protege as empresas da Internet de devolverem informações potencialmente difamatórias provenientes de consultas.
Linha cronológica dos cenários jurídicos do ChatGPT
Desde abril, a OpenAI foi alvo de três acusações de falsa representação através do seu modelo de IA.
- Caso Brian Hood: Brian Hood, o presidente da câmara regional de Hepburn Shire, na Austrália, ameaçou processar a OpenAI em abril. O ChatGPT implicou-o falsamente num escândalo de suborno, rotulando-o de criminoso condenado. Na realidade, Hood foi o denunciante que expôs a corrupção.
- Caso Jonathan Turley: Um problema semelhante surgiu com Jonathan Turley, um professor de direito da Universidade George Washington. De acordo com Turley, ChatGPT acusou-o falsamente e a vários outros professores de assédio sexual. O modelo de IA terá inventado uma história do Washington Post e fabricado citações para fundamentar as alegações. Este incidente pôs em evidência um problema crescente com os modelos de IA generativa que produzem citações e citações falsas.
- Utilizar em resumos jurídicos: Um caso recente envolveu um advogado que incluiu num dossier jurídico o que um juiz considerou serem "decisões judiciais falsas" geradas pelo ChatGPT. O advogado estava a representar um cliente que processava uma companhia aérea e, como resultado, enfrentou o seu próprio processo em tribunal.
Os profissionais jurídicos de topo ainda estão a tentar compreender as implicações jurídicas dos resultados da IA generativa. A IA está a desafiar as definições legais em torno da calúnia, difamação, direitos de autor e propriedade intelectual.
Uma vez que estas IA estão disponíveis em muitas jurisdições, é provável que os aspectos jurídicos envolvidos na sua regulamentação e governação se tornem excecionalmente difíceis de desvendar e, alegadamente, há muitos outros casos na calha.