Em outubro de 2023, o Presidente da Câmara de Nova Iorque, Eric Adams, anunciou uma colaboração entre um chatbot alimentado por IA e a Microsoft para ajudar os proprietários de empresas a compreender os regulamentos governamentais.
Este projeto rapidamente se desviou do seu rumo e deu conselhos ilegais sobre questões sensíveis relacionadas com a habitação e os direitos dos consumidores.
Por exemplo, quando os senhorios perguntaram se aceitavam inquilinos com cupões da Secção 8, o chatbot aconselhou-os a recusar.
De acordo com as leis da cidade de Nova Iorque, a discriminação dos inquilinos com base na sua fonte de rendimento é ilegal, com excepções muito limitadas.
Ao examinar os resultados do chatbot, Rosalind Black, Directora de Habitação da Legal Services NYC, descobriu que o chatbot aconselhava que era permitido encerrar os inquilinos. O chatbot afirmouNão há restrições quanto ao montante da renda que se pode cobrar a um inquilino residencial.
Os conselhos errados do chatbot não se limitaram à habitação. "Sim, pode tornar o seu restaurante livre de dinheiro", aconselhava, contradizendo uma lei municipal de 2020 que obriga as empresas a aceitar dinheiro para evitar a discriminação de clientes sem contas bancárias.
Além disso, sugeriu erradamente que os empregadores podiam retirar as gorjetas dos seus trabalhadores e forneceu informações incorrectas sobre o regulamento relativo à notificação do pessoal sobre alterações de horários.
Black avisou: "Se este chatbot não estiver a ser feito de uma forma responsável e correcta, deve ser retirado".
Andrew Rigie, Diretor Executivo da NYC Hospitality Alliance, descreveu como qualquer pessoa que siga os conselhos do chatbot pode incorrer em pesadas responsabilidades legais. "A IA pode ser uma ferramenta poderosa para apoiar as pequenas empresas... mas também pode ser uma grande responsabilidade se estiver a fornecer as informações legais erradas", disse Rigie.
Em resposta às crescentes críticas, Leslie Brown, do Gabinete de Tecnologia e Inovação de Nova Iorque, enquadrou o chatbot como um trabalho em curso.
Castanho afirmadoA cidade deixou claro que o chatbot é um programa piloto e que será melhorado, mas já forneceu a milhares de pessoas respostas atempadas e exactas".
Será que implantar um "trabalho em curso" nesta área sensível foi, à partida, um bom plano?
As responsabilidades legais da IA afectam as empresas
Os chatbots com IA podem fazer muitas coisas, mas prestar aconselhamento jurídico ainda não é uma delas.
Em fevereiro, a Air Canada viu-se no centro de uma disputa legal devido a uma política de reembolso enganosa comunicada pelo seu chatbot de IA.
Jake Moffatt, que procurava esclarecimentos sobre a política de tarifas de luto da companhia aérea durante uma crise pessoal, foi erradamente informado pelo chatbot de que poderia garantir uma tarifa especial com desconto após a reserva. Isto contradiz a política da companhia aérea, que não permite o reembolso de viagens de luto após a reserva.
Este levou a uma batalha legalO resultado foi que a Air Canada foi obrigada a honrar a política incorrecta declarada pelo chatbot, o que fez com que Moffatt recebesse um reembolso.
A IA também tem colocado os próprios juízes em apuros. Talvez o mais notável seja o facto de o advogado nova-iorquino Steven A. Schwartz ter utilizado ChatGPT para investigação jurídica e, inadvertidamente, citou casos jurídicos fabricados num resumo.
Com tudo o que sabemos sobre as alucinações da IA, confiar em chatbots para aconselhamento jurídico não é aconselhável, por mais trivial que o assunto pareça ser.