Categorie
L'Altra Bolla Sicurezza Informatica

Giornali preoccupati per ChatGPT che cita articoli mai pubblicati

Tempo di lettura: 2 minuti. Il chatbot AI di OpenAI sta diffondendo notizie false e disinformazione, creando problemi per il mondo del giornalismo.

Tempo di lettura: 2 minuti.

ChatGPT di OpenAI sta inondando il web con una marea di informazioni false e disinformazione, causando problemi sempre più gravi per l’industria del giornalismo.

ChatGPT inventa articoli e firme mai pubblicate

Testo: I giornalisti del Guardian hanno notato che il chatbot AI aveva creato articoli e firme mai effettivamente pubblicati, una preoccupante conseguenza della democratizzazione della tecnologia che non riesce a distinguere in modo affidabile la verità dalla finzione. Peggio ancora, permettere a questi chatbot di “allucinare” fonti potrebbe minare la credibilità delle fonti di notizie legittime.

L’invenzione di fonti e la perdita di fiducia nel giornalismo

Testo: Chris Moran, capo dell’innovazione editoriale del Guardian, sottolinea che l’invenzione di fonti da parte dell’intelligenza artificiale è particolarmente preoccupante per le organizzazioni di notizie affidabili e i giornalisti. Questo problema apre nuove questioni sulla affidabilità delle citazioni e potrebbe alimentare teorie del complotto riguardo alla rimozione misteriosa di articoli su argomenti sensibili che, in realtà, non sono mai esistiti.

Falsificazione di citazioni e studi di ricerca

Testo: Non sono solo i giornalisti del Guardian ad essere coinvolti. Molti altri scrittori hanno scoperto che i loro nomi erano stati associati a fonti inventate da ChatGPT. Kate Crawford, ricercatrice di intelligenza artificiale e autrice di “Atlas of AI”, è stata contattata da un giornalista di Insider che le attribuiva la critica al podcaster Lex Fridman, basandosi su collegamenti e citazioni completamente inventati dall’AI. Anche studi di ricerca inventati sono stati citati da ChatGPT, come dimostrato da un episodio che ha coinvolto USA Today.

Dilemma etico e responsabilità nell’uso dell’AI

Testo: Se da un lato alcuni giornalisti suonano l’allarme riguardo all’aumento di informazioni false create dall’intelligenza artificiale, dall’altro alcune pubblicazioni vedono l’AI come una grande opportunità. Tuttavia, l’uso diffuso di strumenti come ChatGPT porta a preoccupazioni riguardo alla correttezza delle fonti e all’attribuzione di nomi di giornalisti a informazioni completamente inventate. Non è chiaro chi sia da incolpare: OpenAI per aver creato uno strumento che può generare citazioni fasulle, o gli utenti umani che utilizzano queste informazioni per sostenere un punto di vista?

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version