L'ex avvocato di Donald Trump, Michael Cohen, ha usato l'AI per false citazioni legali

30 dicembre 2023

Legge sull'intelligenza artificiale

L'ex avvocato di Donald Trump, Michael Cohen, ha rivelato di aver inavvertitamente fornito al suo legale false citazioni di casi generati dall'intelligenza artificiale. 

Queste citazioni sono state erroneamente inserite in un documento ufficiale del tribunale. 

Cohen ha spiegato questa svista in una dichiarazione giurata a un tribunale federale di Manhattan, notando che Google Bard ha prodotto le citazioni.

Allora non era consapevole che l'IA generativa è suscettibile di generare disinformazione, inoltre chiamate allucinazioni

La questione è emersa quando il giudice distrettuale degli Stati Uniti Jesse Furman ha osservato che tre casi giuridici citati nella richiesta di Cohen di terminare anticipatamente la sua libertà vigilata erano, in realtà, inesistenti. 

La liberazione controllata è un periodo prestabilito dopo aver scontato una pena detentiva durante il quale una persona viene monitorata e deve rispettare le condizioni specifiche imposte dal tribunale. 

Il giudice Furman ha chiesto all'avvocato di Cohen, David Schwartz, perché non dovrebbe subire un'azione disciplinare per aver citato questi casi immaginari. 

Nella sua risposta, Cohen, che ha perso la licenza legale circa cinque anni fa in seguito alla sua condanna per varie frodi finanziarie ed elettorali, ha detto: "Mi dispiace profondamente per i problemi che il deposito del signor Schwartz può aver causato". 

Ha anche ammesso di non aver compreso i recenti sviluppi della tecnologia legale, in particolare la capacità di strumenti come Google Bard di generare citazioni legali plausibili ma inesistenti.

Non è la prima volta che un avvocato statunitense viene colto in fallo da false ricerche legali generate dall'intelligenza artificiale.

All'inizio dell'anno, Steven Schwartz (non imparentato con David Schwartz), un avvocato di New York, ha affrontato le ripercussioni per aver utilizzato ChatGPT per ricercare casi legali fasulli per la denuncia legale di un cliente. 

Schwartz e il suo collega Peter LoDuca sono comparsi in tribunale per spiegare l'uso di casi falsi generati dall'intelligenza artificiale. Hanno ammesso di aver fatto riferimento a questi casi inventati nel loro lavoro legale. 

Il giudice distrettuale degli Stati Uniti Kevin Castel ha dichiarato, a proposito della memoria legale contenente casi falsi: "Sei dei casi presentati sembrano essere decisioni giudiziarie fasulle con citazioni e citazioni interne fasulle". 

Sebbene gli utenti dell'IA dovrebbero ora avere una conoscenza più approfondita della capacità della tecnologia di produrre informazioni false e non veritiere, è altamente improbabile che questo tipo di situazioni sia finito.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni