OpenAI, l’organizzazione di ricerca sull’intelligenza artificiale, è stata citata in giudizio per diffamazione a causa di informazioni false generate dal suo modello di linguaggio, ChatGPT. Mark Walters, un conduttore radiofonico della Georgia, ha intentato una causa contro l’azienda dopo che ChatGPT ha affermato che Walters era stato accusato di frode e appropriazione indebita di fondi da un’organizzazione senza scopo di lucro. Queste informazioni sono state generate in risposta a una richiesta di un terzo, un giornalista di nome Fred Riehl.
Le implicazioni della causa
La causa è significativa alla luce delle numerose lamentele riguardanti le informazioni false generate da ChatGPT e altri chatbot. Questi sistemi non hanno un modo affidabile per distinguere il vero dal falso e, quando vengono interrogati, spesso inventano date, fatti e cifre. Tuttavia, stanno iniziando a emergere casi in cui tali errori causano danni, come un professore che minaccia di bocciare la sua classe dopo che ChatGPT ha affermato che i suoi studenti hanno usato l’IA per scrivere i loro saggi.
La risposta di OpenAI
OpenAI include un piccolo disclaimer sulla homepage di ChatGPT, avvertendo che il sistema “può occasionalmente generare informazioni non corrette”, ma l’azienda presenta anche ChatGPT come una fonte di dati affidabili, descrivendo il sistema come un modo per “ottenere risposte” e “imparare qualcosa di nuovo”. Non è chiaro se esista un precedente legale per ritenere un’azienda responsabile per le informazioni false o diffamatorie generate dai sistemi di intelligenza artificiale, o se questa particolare causa abbia un merito sostanziale.