Avvocati che stanno portando avanti una causa contro la compagnia aerea colombiana Avianca hanno presentato un documento contenente casi precedenti inventati dal chatbot ChatGPT, secondo quanto riportato oggi dal New York Times. Dopo che la parte avversa ha evidenziato l’inconsistenza dei casi citati, il giudice distrettuale degli Stati Uniti Kevin Castel ha confermato: “Sei dei casi presentati sembrano essere decisioni giudiziarie fasulle con citazioni e riferimenti interni inventati” e ha convocato un’udienza per valutare eventuali sanzioni nei confronti degli avvocati del querelante.
L’avvocato Steven A. Schwartz ha ammesso in un’affidavit di aver utilizzato il chatbot di OpenAI per le sue ricerche. Per verificare i casi, ha fatto l’unica cosa ragionevole: ha chiesto al chatbot se stesse mentendo.
Uno screenshot mostra l’avvocato che chiede se uno dei casi citati sia reale e il chatbot risponde di sì. L’avvocato chiede quindi “qual è la tua fonte?” L’andamento di questa causa non è incoraggiante. Immagine: SDNY Quando ha richiesto una fonte, ChatGPT ha continuato a scusarsi per la confusione precedente e ha insistito sul fatto che il caso fosse reale, affermando che poteva essere trovato su Westlaw e LexisNexis. Soddisfatto, l’avvocato ha chiesto se gli altri casi fossero falsi e ChatGPT ha mantenuto che fossero tutti reali.
La controparte ha portato all’attenzione del tribunale in modo dettagliato il problema, descrivendo come la presentazione degli avvocati dello studio legale Levidow, Levidow & Oberman fosse un documento pieno di menzogne. Ad esempio, in un caso inesistente chiamato Varghese v. China Southern Airlines Co., Ltd., il chatbot sembrava fare riferimento a un altro caso reale, Zicherman v. Korean Air Lines Co., Ltd., ma commetteva errori nella data (e in altri dettagli), affermando che la decisione era stata presa 12 anni dopo la sua effettiva decisione del 1996.
Schwartz ha dichiarato di non essere stato “consapevole della possibilità che i contenuti potessero essere falsi”. Ora “si rammarica molto di aver utilizzato l’intelligenza artificiale generativa per integrare la ricerca legale in questo caso e non lo farà mai più senza una verifica assoluta dell’autenticità”.
Schwartz non è autorizzato a esercitare la professione legale nel Distretto Meridionale di New York, ma ha presentato originariamente la causa prima che fosse trasferita in quel tribunale e sostiene di aver continuato a lavorarci. Un altro avvocato dello stesso studio legale, Peter LoDuca, è diventato l’avvocato ufficiale del caso e dovrà comparire davanti al giudice per spiegare quanto accaduto.