En una demanda histórica, un residente de Georgia, Mark Walters, emprende acciones legales contra OpenAI, creadores del chatbot de inteligencia artificial ChatGPT, acusándoles de difamación.
El caso, que se cree que es el primero de este tipo, cuestiona la responsabilidad de AI por la difusión de información falsa.
La disputa gira en torno a una investigación periodística de Fred Riehl, redactor jefe de la publicación sobre armas AmmoLand. Riehl estaba investigando un caso real, Fundación Segunda Enmienda (SAF) contra Ferguson, donde la SAF -una organización estadounidense sin ánimo de lucro que apoya los derechos de las armas- acusaba al Fiscal General Bob Ferguson de abusar de su poder para denunciar los derechos de las armas. Alan Gottlieb, fundador de la SAF, es uno de los demandantes.
Aquí es donde entra en juego ChatGPT, que devuelve información falsa sobre Alan Gottlieb demandando a Walters por "defraudar y malversar fondos" de la SAF. Aquí está la respuesta completa:
"El demandado Mark Walters ('Walters') es un individuo que reside en Georgia. Walters ha servido como Tesorero y Jefe de la Oficina Financiera de SAF desde al menos 2012. Walters tiene acceso a las cuentas bancarias y registros financieros de SAF y es responsable de mantener esos registros y proporcionar informes financieros a la junta directiva de SAF. Walters le debe a SAF un deber fiduciario de lealtad y cuidado, y está obligado a actuar de buena fe y teniendo en cuenta los mejores intereses de SAF. Walters ha incumplido estos deberes y responsabilidades, entre otras cosas, malversando y apropiándose indebidamente de los fondos y activos de SAF en beneficio propio, y manipulando los registros financieros y los extractos bancarios de SAF para ocultar sus actividades."
Según Walters demanda"Todas las afirmaciones de hecho en el sumario relativas a Walters son falsas". Walters no estaba implicado en el caso Ferguson, ni era miembro o empleado de la Second Amendment Foundation.
La demanda de Walters argumenta que "las alegaciones de ChatGPT sobre Walters eran falsas y malintencionadas, expresadas en letra de imprenta, escritos, imágenes o signos, tendentes a dañar la reputación de Walter y exponerle al odio público, el desprecio o el ridículo".
Walters también alegó que Riehl debería haber sabido que ChatGPT no era de fiar en estos asuntos, por lo que debería haber hecho caso omiso de la respuesta de la IA.
¿Tiene Walters alguna posibilidad?
Eugene Volokh, profesor de la UCLA que investiga actualmente la responsabilidad legal de la IA por sus resultados, a GizmodoEn principio, estas demandas por difamación son jurídicamente viables. Pero esta demanda en particular debería ser difícil de mantener".
En particular, los comentarios difamatorios no se publicaron oficialmente. Volokh dice: "No parece haber alegaciones de daños reales -supuestamente Riehl se dio cuenta de lo que estaba pasando, y por lo tanto Walters no perdió nada como resultado".
Para obtener una indemnización por daños y perjuicios, Walters tendría que demostrar que la producción de OpenAI mostraba "conocimiento de falsedad o indiferencia temeraria ante la posibilidad de falsedad", lo que también se conoce como "malicia real".
O dicho de otro modo, las alucinaciones de la IA son eso: alucinaciones, aunque no de la variedad benigna en este caso. No son intencionadas con malicia o conocimiento de imprudencia temeraria.
Tampoco es la única vez que ChatGPT ha falsificado información legal, ya que no hace mucho un juez de Nueva York se enfrentó a una sanción por investigar casos con la IA que también fueron totalmente falsificados.
Volokh critica la dificultad de demandar a las empresas de IA en estos casos. Dice: "OpenAI reconoce que puede haber errores, pero [ChatGPT] no se presenta como una broma... Se presenta como algo que suele ser muy fiable y preciso".
También hay consultas sobre chatbots y Artículo 230 de la Ley de Decencia en las Comunicacionesque esencialmente protege a las empresas de Internet de devolver información potencialmente difamatoria de las consultas.
Cronología de los escenarios jurídicos de ChatGPT
Desde abril, OpenAI se ha enfrentado a tres acusaciones de falsa representación a través de su modelo de IA.
- Caso Brian Hood: Brian Hood, alcalde regional de Hepburn Shire (Australia), amenazó en abril con demandar a OpenAI. ChatGPT le implicó falsamente en un escándalo de sobornos, tachándole de delincuente convicto. En realidad, Hood fue el denunciante que destapó la corrupción.
- Caso Jonathan Turley: Un problema similar surgió con Jonathan Turley, profesor de Derecho de la Universidad George Washington. Según Turley, ChatGPT le había acusado falsamente a él y a otros profesores de acoso sexual. Al parecer, el modelo de IA inventó una historia para el Washington Post y falsificó citas para corroborar las acusaciones. Este incidente puso de manifiesto el creciente problema de los modelos generativos de IA que producen citas falsas.
- Uso en informes jurídicos: Un caso reciente se refería a un abogado que incluyó en un informe jurídico lo que un juez determinó que eran "decisiones judiciales falsas" generadas por ChatGPT. El abogado representaba a un cliente que había demandado a una aerolínea y se enfrentaba a su propio proceso judicial como consecuencia de ello.
Los profesionales del Derecho siguen tratando de entender las implicaciones jurídicas de los resultados de la IA generativa. La IA está desafiando las definiciones jurídicas de calumnia, difamación, derechos de autor y propiedad intelectual.
Dado que estas IA están disponibles en muchas jurisdicciones, es probable que los aspectos jurídicos relacionados con su regulación y gobernanza resulten excepcionalmente difíciles de desentrañar, y presumiblemente hay muchos otros casos en ciernes.