Categorie
Sicurezza Informatica

Avvocati multati per citare casi inventati da ChatGPT in tribunale

Tempo di lettura: 2 minuti. Due avvocati subiscono una multa di 5.000 dollari per aver citato sei casi giudiziari inesistenti, inventati dall’intelligenza artificiale ChatGPT, in un’azione legale presentata in tribunale federale.

Tempo di lettura: 2 minuti.

In un caso che ha attirato l’attenzione sulla responsabilità e l’uso etico dell’intelligenza artificiale, due avvocati sono stati multati da un giudice federale per aver citato casi giudiziari inventati dall’IA ChatGPT in un’azione legale. Questo incidente solleva interrogativi sulla necessità di una maggiore consapevolezza e comprensione dell’uso di strumenti basati sull’intelligenza artificiale nel campo legale.

Il caso e l’uso di ChatGPT

Gli avvocati Steven Schwartz e Peter LoDuca del studio legale Levidow, Levidow & Oberman hanno utilizzato ChatGPT per ricercare documenti giudiziari e hanno erroneamente citato sei casi inesistenti creati dall’IA nelle loro presentazioni legali. Il giudice distrettuale degli Stati Uniti, Kevin Castel, ha scritto che gli avvocati “hanno abbandonato le loro responsabilità” citando opinioni giudiziarie inesistenti e hanno continuato a difendere tali opinioni nonostante fossero state messe in discussione.

La reazione del tribunale

Il giudice Castel ha emesso una multa di 5.000 dollari che deve essere pagata congiuntamente dai due avvocati e dal loro studio legale. Inoltre, gli avvocati sono tenuti a inviare lettere a sei veri giudici che sono stati erroneamente identificati come autori delle false opinioni citate nelle loro presentazioni legali. Il giudice Castel ha descritto l’analisi legale in uno dei falsi casi come “sciocchezze”.

Le conseguenze dell’uso improprio dell’IA

Presentare opinioni false in tribunale danneggia il cliente degli avvocati, spreca il tempo del tribunale, costringe la parte avversa a sprecare tempo e denaro per smascherare l’inganno e causa un potenziale danno alla reputazione dei giudici e dei tribunali i cui nomi sono falsamente invocati. Questo incidente mette in luce l’importanza di utilizzare strumenti basati sull’intelligenza artificiale con responsabilità e comprensione delle loro capacità e limitazioni.

Riflessioni e responsabilità nell’uso dell’intelligenza artificiale

Questo caso sottolinea l’importanza di un uso responsabile e informato dell’intelligenza artificiale nel campo legale. Gli avvocati e i professionisti devono essere consapevoli delle potenziali insidie nell’utilizzo di strumenti IA e devonoverificare attentamente le informazioni ottenute attraverso tali strumenti prima di utilizzarle in contesti legali. Inoltre, evidenzia la necessità di formazione e consapevolezza sull’uso dell’IA, in particolare in settori come il diritto, dove l’accuratezza e l’affidabilità delle informazioni sono di fondamentale importanza.

Nota: L’uso improprio di ChatGPT da parte di avvocati in un’azione legale sottolinea l’importanza di un approccio responsabile e informato all’uso dell’intelligenza artificiale. Gli avvocati e altri professionisti devono essere adeguatamente formati sull’uso di strumenti basati sull’IA e devono esercitare la dovuta diligenza nella verifica delle informazioni prima di utilizzarle in contesti critici come i procedimenti giudiziari.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version