Gli avvocati Steven Schwartz e Peter LoDuca di New York hanno appreso a loro spese l’importanza di verificare le fonti dopo essere stati multati di 5.000 dollari per aver utilizzato precedenti legali falsi generati da ChatGPT, il modello di linguaggio di OpenAI, nel loro caso legale.
Avvocati multati per citare casi inventati da ChatGPT in tribunale
Utilizzo di ChatGPT in un caso legale
Schwartz e LoDuca stavano lavorando a un caso in cui rappresentavano un uomo che affermava di essere stato ferito durante un volo della compagnia aerea colombiana Avianca e stava facendo causa per danni. Gli avvocati si sono rivolti a ChatGPT per ottenere riepiloghi di altri casi che avrebbero potuto rafforzare il loro caso. Tuttavia, hanno preso per buone le opzioni fabbricate che ChatGPT ha restituito, senza verificarle. Il giudice li ha chiamati in causa per aver utilizzato precedenti inesistenti come “Miller v. United Airlines” e “Martinez v. Delta Airlines”.
Limitazioni di ChatGPT
ChatGPT è un motore di previsione del testo altamente avanzato che non ha conoscenza del contenuto che genera. Non sa se le informazioni siano vere o false e può creare dichiarazioni senza alcuna base nella realtà. Sebbene possa essere un ottimo punto di partenza per la ricerca e la generazione di idee, non è un arbitro della verità e non dovrebbe essere utilizzato come unica fonte di informazioni, specialmente in casi legali.
Implicazioni e responsabilità
Questo incidente sottolinea l’importanza della responsabilità e della diligenza nel verificare le informazioni, specialmente in un contesto legale. Gli avvocati e altri professionisti devono essere consapevoli delle limitazioni delle tecnologie AI come ChatGPT e devono esercitare la dovuta diligenza nel verificare le informazioni prima di utilizzarle in situazioni critiche. L’uso irresponsabile di ChatGPT da parte degli avvocati in un caso legale e la conseguente multa evidenziano la necessità di un approccio cauto e informato nell’utilizzo dell’intelligenza artificiale. È essenziale che gli utenti comprendano le limitazioni delle tecnologie AI e si impegnino in pratiche responsabili per garantire l’accuratezza e l’affidabilità delle informazioni utilizzate.