Fake IA: ChatGpt inventa casi legali

Sanzionati gli avvocati che si erano affidati a ChatGPT per preparare una causa in tribunale

Il pericolo di contenuti fuorvianti creati con l’IA è divenuto concreto per un avvocato americano

Se l’IA un giorno eliminerà vari posti di lavoro, il suo uso incontrollato è già oggi un problema per alcuni professionisti. Ed è il caso dell’avvocato Steven Schwartz dello studio legale Levidow, Levidow e Oberman che, come riporta il New York Times, si è recentemente rivolto a ChatGpt per ricevere assistenza nella stesura di un documento legale, con risultati prevedibilmente disastrosi. L’azienda di Schwartz ha citato in giudizio la compagnia aerea colombiana Avianca per conto di Roberto Mata, che afferma di essere stato ferito durante un volo per l’aeroporto internazionale John F. Kennedy di New York City. Quando la compagnia aerea ha recentemente chiesto a un giudice federale di archiviare il caso, gli avvocati di Mata hanno presentato una memoria di 10 pagine argomentando sul motivo per cui la causa dovrebbe procedere. Il documento citava più di una mezza dozzina di decisioni giudiziarie, tra cui “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines” e “Miller v. United Airlines”. 

Sfortunatamente per tutti i soggetti coinvolti, nessuno che abbia letto il brief è riuscito a trovare una sola delle decisioni del tribunale citate dagli avvocatita. Perché? Perché ChatGpt li ha inventati tutti di sana pianta. In una dichiarazione giurata depositata giovedì, Schwartz ha affermato di aver utilizzato il chatbot per “integrare” la sua ricerca per il caso. L’avvocato ha scritto che “non era a conoscenza della possibilità che il contenutopotesse essere falso”. Ha anche condiviso schermate che mostrano le sue domande a ChatGPT in merito ai casi citati, sulla loro concreta esistenza.Il programma ha risposto di sì, sostenendo che le decisioni potevano essere trovate in “database legali affidabili”, tra cui Westlaw e LexisNexis. Schwartz ha affermato di “essere molto dispiaciuto” di aver utilizzato ChatGpt e che “non lo farà mai in futuro senza una verifica assoluta della sua autenticità”. Il giudice che sovrintende al caso ha ordinato un’udienza dell’8 giugno per discutere potenziali sanzioni per la “circostanza senza precedenti” creata dalle azioni di Schwartz.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Leggi anche:  Adesso LinkedIn punta sul gaming