Prima causa di diffamazione nel suo genere presentata contro OpenAI

8 giugno 2023

OpenAI Diffamazione

In una causa storica, un residente della Georgia, Mark Walters, ha intrapreso un'azione legale contro OpenAI, i creatori del chatbot AI ChatGPT, accusandoli di diffamazione. 

Il caso, ritenuto il primo del suo genere, mette in discussione la responsabilità di AI per la diffusione di informazioni false. 

La controversia ruota attorno a un'inchiesta giornalistica di Fred Riehl, caporedattore della rivista di armi AmmoLand. Riehl stava facendo ricerche su un caso reale, Fondazione per il secondo emendamento (SAF) contro Ferguson, in cui la SAF - un'organizzazione no-profit americana che sostiene i diritti delle armi - accusava il procuratore generale Bob Ferguson di abusare del suo potere per denunciare i diritti delle armi. Alan Gottlieb, fondatore della SAF, è uno dei querelanti.

È qui che entra in gioco ChatGPT, che ha fornito informazioni false su Alan Gottlieb che ha fatto causa a Walters per "frode e appropriazione indebita di fondi" dalla SAF. Ecco la risposta completa:

L'imputato Mark Walters ("Walters") è un individuo residente in Georgia. Walters ricopre il ruolo di tesoriere e di direttore finanziario di SAF almeno dal 2012. Walters ha accesso ai conti bancari e ai registri finanziari di SAF ed è responsabile della tenuta di tali registri e della fornitura di rapporti finanziari al consiglio di amministrazione di SAF. Walters ha un dovere fiduciario di lealtà e cura nei confronti di SAF ed è tenuto ad agire in buona fede e nell'interesse di SAF. Walters ha violato questi doveri e responsabilità, tra l'altro, appropriandosi indebitamente di fondi e beni di SAF a proprio vantaggio e manipolando i registri finanziari e gli estratti conto di SAF per nascondere le proprie attività".

Secondo Walters causaOgni affermazione di fatto contenuta nel riassunto riguardante Walters è falsa". Walters non era coinvolto nel caso Ferguson, né era un membro o un dipendente della Second Amendment Foundation. 

La denuncia di Walters sostiene che "le affermazioni di ChatGPT su Walters sono state false e malevole, espresse a mezzo stampa, scrittura, immagini o segni, tendenti a danneggiare la reputazione di Walter e ad esporlo all'odio pubblico, al disprezzo o al ridicolo". 

Walters ha anche sostenuto che Riehl avrebbe dovuto sapere che ChatGPT non era affidabile su tali questioni, quindi avrebbe dovuto ignorare la risposta dell'IA. 

Walters ha una possibilità?

Eugene Volokh, professore dell'UCLA, sta attualmente studiando la responsabilità legale dell'IA per le uscite, ha dichiarato a GizmodoTali richieste di risarcimento per diffamazione sono in linea di principio legalmente valide. Ma questa particolare causa dovrebbe essere difficile da sostenere". 

In particolare, i commenti diffamatori non sono stati pubblicati ufficialmente. Volokh afferma: "Non sembrano esserci accuse di danni effettivi - presumibilmente Riehl ha capito cosa stava succedendo e quindi Walters non ha perso nulla come risultato". 

Per ottenere il risarcimento dei danni, Walters dovrebbe dimostrare che l'output di OpenAI ha esibito "la conoscenza della falsità o l'incauto disprezzo della possibilità di falsità", noto anche come "dolo effettivo".

In altre parole, le allucinazioni dell'IA sono solo questo: allucinazioni, anche se in questo caso non di tipo benigno. Non sono intese con cattiveria o consapevolezza di noncuranza.

Questa non è l'unica volta che ChatGPT ha falsificato informazioni legali: non molto tempo fa, infatti, un giudice di New York ha dovuto affrontare una punizione per aver ricercato casi con l'IA, anch'essi completamente falsificati. 

Volokh critica il fatto che sia difficile fare causa alle aziende di IA in questi casi. Dice: "OpenAI riconosce che ci possono essere degli errori, ma [ChatGPT] non è presentato come uno scherzo... È presentato come qualcosa che è spesso molto affidabile e preciso".

Ci sono anche domande su chatbot e Sezione 230 del Communications Decency Actche essenzialmente protegge le aziende di Internet dalla restituzione di informazioni potenzialmente diffamatorie provenienti da interrogazioni.

Cronologia degli scenari legali di ChatGPT 

Da aprile, OpenAI ha dovuto affrontare tre accuse di falsa rappresentazione attraverso il suo modello di AI.

  1. Caso Brian Hood: Brian Hood, il sindaco regionale di Hepburn Shire in Australia, ha minacciato di fare causa a OpenAI in aprile. ChatGPT lo ha falsamente coinvolto in uno scandalo di corruzione, etichettandolo come un criminale condannato. In realtà, Hood è stato l'informatore che ha denunciato la corruzione.
  2. Caso Jonathan Turley: Un problema simile è sorto con Jonathan Turley, un professore di legge della George Washington University. Secondo Turley, ChatGPT aveva accusato ingiustamente lui e altri professori di molestie sessuali. Secondo quanto riferito, il modello di intelligenza artificiale ha inventato una storia del Washington Post e ha fabbricato citazioni per avvalorare le affermazioni. Questo incidente ha messo in luce un problema sempre più grave, quello dei modelli generativi di intelligenza artificiale che producono citazioni e commenti falsi.
  3. Da utilizzare nelle memorie legali: Un caso recente ha coinvolto un avvocato che ha incluso in una memoria legale quelle che un giudice ha definito "decisioni giudiziarie fasulle" generate da ChatGPT. L'avvocato rappresentava un cliente che aveva fatto causa a una compagnia aerea e di conseguenza ha dovuto affrontare un processo. 

I migliori professionisti del settore legale stanno ancora cercando di capire le implicazioni legali dei risultati dell'IA generativa. L'IA sta mettendo in discussione le definizioni legali di diffamazione, copyright e proprietà intellettuale. 

Poiché queste IA sono disponibili in molte giurisdizioni, è probabile che le questioni legali legate alla loro regolamentazione e governance diventino eccezionalmente difficili da risolvere, e si presume che ci siano molti altri casi in preparazione. 

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni