OpenAI causa per diffamazione per informazioni false generate da ChatGPT

da Redazione
0 commenti 1 minuti leggi

OpenAI, l’organizzazione di ricerca sull’intelligenza artificiale, è stata citata in giudizio per diffamazione a causa di informazioni false generate dal suo modello di linguaggio, ChatGPT. Mark Walters, un conduttore radiofonico della Georgia, ha intentato una causa contro l’azienda dopo che ChatGPT ha affermato che Walters era stato accusato di frode e appropriazione indebita di fondi da un’organizzazione senza scopo di lucro. Queste informazioni sono state generate in risposta a una richiesta di un terzo, un giornalista di nome Fred Riehl.

Le implicazioni della causa

La causa è significativa alla luce delle numerose lamentele riguardanti le informazioni false generate da ChatGPT e altri chatbot. Questi sistemi non hanno un modo affidabile per distinguere il vero dal falso e, quando vengono interrogati, spesso inventano date, fatti e cifre. Tuttavia, stanno iniziando a emergere casi in cui tali errori causano danni, come un professore che minaccia di bocciare la sua classe dopo che ChatGPT ha affermato che i suoi studenti hanno usato l’IA per scrivere i loro saggi.

Annunci

La risposta di OpenAI

OpenAI include un piccolo disclaimer sulla homepage di ChatGPT, avvertendo che il sistema “può occasionalmente generare informazioni non corrette”, ma l’azienda presenta anche ChatGPT come una fonte di dati affidabili, descrivendo il sistema come un modo per “ottenere risposte” e “imparare qualcosa di nuovo”. Non è chiaro se esista un precedente legale per ritenere un’azienda responsabile per le informazioni false o diffamatorie generate dai sistemi di intelligenza artificiale, o se questa particolare causa abbia un merito sostanziale.

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara