Mark Walters, un habitant de Géorgie, intente une action en justice contre OpenAI, les créateurs du chatbot d'IA ChatGPT, qu'il accuse de diffamation.
Cette affaire, qui serait la première du genre, met en cause la responsabilité de l'IA dans la diffusion de fausses informations.
Le litige porte sur une enquête journalistique menée par Fred Riehl, rédacteur en chef de la publication sur les armes à feu AmmoLand. Riehl effectuait des recherches sur un cas réel, Fondation pour le deuxième amendement (SAF) contre Ferguson, où le SAF - une organisation américaine à but non lucratif qui soutient les droits des armes à feu - accusait le procureur général Bob Ferguson d'abuser de son pouvoir pour dénoncer les droits des armes à feu. Alan Gottlieb, fondateur du SAF, est l'un des plaignants.
C'est là qu'intervient ChatGPT, qui renvoie de fausses informations sur Alan Gottlieb qui poursuit Walters pour "fraude et détournement de fonds" de la SAF. Voici la réponse complète :
Le défendeur Mark Walters ("Walters") est une personne physique qui réside en Géorgie. Walters est le trésorier et le directeur financier de la SAF depuis au moins 2012. Walters a accès aux comptes bancaires et aux documents financiers de la SAF et est responsable de la tenue de ces documents et de la fourniture de rapports financiers au conseil d'administration de la SAF. Walters a envers SAF une obligation fiduciaire de loyauté et de diligence, et est tenu d'agir de bonne foi et dans le meilleur intérêt de SAF. Walters a manqué à ces devoirs et responsabilités, notamment en détournant les fonds et les actifs de la SAF à son profit, et en manipulant les registres financiers et les relevés bancaires de la SAF pour dissimuler ses activités".
Selon le rapport de Walters procèsChaque déclaration de fait dans le résumé concernant Walters est fausse". Walters n'était pas impliqué dans l'affaire Ferguson, ni membre ou employé de la Second Amendment Foundation.
La plainte de Walters affirme que "les allégations de ChatGPT concernant Walters étaient fausses et malveillantes, exprimées sous forme d'imprimés, d'écrits, d'images ou de signes, tendant à nuire à la réputation de Walter et à l'exposer à la haine, au mépris ou au ridicule du public".
Walters a également fait valoir que Riehl aurait dû savoir que ChatGPT n'était pas digne de confiance sur ces questions, et qu'il aurait donc dû ignorer la réponse de l'IA.
Walters a-t-il une chance ?
Eugene Volokh, professeur à l'UCLA, étudie actuellement la responsabilité juridique de l'IA en matière de production, a déclaré à GizmodoEn effet, "de telles plaintes pour diffamation sont en principe juridiquement viables. Mais ce procès en particulier devrait être difficile à maintenir".
Il est à noter que les commentaires diffamatoires n'ont pas été officiellement publiés. Selon Volokh, "il ne semble pas y avoir d'allégations de dommages réels - on peut supposer que Riehl a compris ce qui se passait et que Walters n'a donc rien perdu en conséquence".
Pour obtenir des dommages-intérêts, M. Walters devrait prouver que la production d'OpenAI était "consciente de la fausseté ou insouciante de la possibilité de la fausseté", ce qui est également connu sous le nom de "malveillance réelle".
En d'autres termes, les hallucinations de l'IA ne sont rien d'autre que des hallucinations, même si elles ne sont pas bénignes dans ce cas. Elles ne sont pas le fruit d'une intention malveillante ou d'une connaissance d'une insouciance téméraire.
Ce n'est pas la seule fois que ChatGPT falsifie des informations juridiques, puisqu'il n'y a pas si longtemps, un juge new-yorkais a été sanctionné pour avoir fait des recherches sur des affaires avec l'IA, qui étaient elles aussi entièrement falsifiées.
M. Volokh critique le fait qu'il est difficile de poursuivre les entreprises d'IA dans de tels cas. Il déclare : "OpenAI reconnaît qu'il peut y avoir des erreurs, mais [ChatGPT] n'est pas présenté comme une blague... Il est présenté comme quelque chose qui est souvent très fiable et précis".
Il y a également des questions sur les chatbots et les Section 230 de la loi sur la décence des communications (Communications Decency Act)qui protège essentiellement les sociétés Internet contre le renvoi d'informations potentiellement diffamatoires à partir de requêtes.
Chronologie des scénarios juridiques du ChatGPT
Depuis le mois d'avril, OpenAI a fait l'objet de trois accusations de fausse représentation par le biais de son modèle d'IA.
- Affaire Brian Hood: Brian Hood, le maire régional de Hepburn Shire en Australie, a menacé de poursuivre OpenAI en avril. ChatGPT l'a faussement impliqué dans un scandale de corruption, le qualifiant de criminel condamné. En réalité, Hood est le lanceur d'alerte qui a révélé la corruption.
- Affaire Jonathan Turley: Un problème similaire s'est posé avec Jonathan Turley, professeur de droit à l'université George Washington. Selon lui, ChatGPT l'a accusé à tort, ainsi que plusieurs autres professeurs, de harcèlement sexuel. Le modèle d'IA aurait concocté un article pour le Washington Post et fabriqué des citations pour étayer ses affirmations. Cet incident a mis en lumière le problème croissant des modèles d'IA générative qui produisent de fausses citations.
- Utilisation dans les mémoires juridiques : Un cas récent concerne un avocat qui a inclus dans un dossier juridique ce qu'un juge a considéré comme des "décisions judiciaires bidon" générées par ChatGPT. L'avocat représentait un client qui poursuivait une compagnie aérienne et a dû faire face à son propre procès en conséquence.
Les juristes de haut niveau tentent encore de comprendre les implications juridiques des résultats de l'IA générative. L'IA remet en question les définitions juridiques relatives à la diffamation, aux droits d'auteur et à la propriété intellectuelle.
Comme ces IA sont disponibles dans de nombreuses juridictions, les aspects juridiques liés à leur réglementation et à leur gouvernance deviendront probablement exceptionnellement difficiles à démêler, et de nombreux autres cas sont sans doute en cours d'élaboration.