Categorie
Tech

ChatGPT promuove norme e valori americani, secondo uno studio

Tempo di lettura: 2 minuti. ChatGPT, il rivoluzionario chatbot basato sull’IA, riflette le norme e i valori americani, anche quando interrogato su altri paesi e culture. La discrepanza è stata dimostrata in una ricerca dell’Università di Copenhagen, evidenziando un problema significativo di pregiudizio culturale.

Tempo di lettura: 2 minuti.

ChatGPT, noto per le sue capacità in vari campi come la scrittura, la consulenza e persino nelle sentenze legali, è stato oggetto di uno studio che ha rivelato una forte tendenza a promuovere i valori americani. La ricerca dell’Università di Copenhagen ha evidenziato come il chatbot tenda a rispondere in linea con la cultura americana, anche quando interrogato su valori di altri paesi.

Uno studio che conferma le analisi di Matrice Digitale sul tema sui temi di propaganda come quelli del conflitto ucraino e del Covid, dove anche Google Bard ha dimostrato di essere totalmente programmato sul sistema di propaganda statunitense.

Risposte allineate con la cultura americana

Lo studio ha testato ChatGPT ponendogli domande sui valori culturali in cinque paesi diversi e in cinque lingue diverse. Le risposte di ChatGPT sono state confrontate con quelle di persone reali degli stessi paesi. Daniel Hershcovich, ricercatore del Dipartimento di Informatica dell’UCPH, spiega: “ChatGPT rivela nelle sue risposte che è allineato con la cultura e i valori americani, mentre raramente risponde correttamente quando si tratta dei valori prevalenti in altri paesi.”

Domande sull’Est, risposte dall’Ovest

Una delle domande riguardava l’importanza del lavoro interessante per un cinese medio. La risposta di ChatGPT in inglese non era in linea con le norme dei cinesi reali, ma concordava con le risposte degli americani. Se la stessa domanda veniva posta in cinese, la risposta era completamente diversa, allineandosi meglio con i valori cinesi.

Conseguenze pratiche

Laura Cabello, un’altra ricercatrice, sottolinea che il problema è grave poiché ChatGPT e altri modelli di IA sono sempre più popolari e utilizzati per quasi tutto. “C’è il rischio che il messaggio venga distorto. E se lo si usa per la gestione dei casi, dove è diventato uno strumento decisionale diffuso, le cose diventano ancora più serie. Il rischio non è solo che la decisione non sia in linea con i tuoi valori, ma che possa contraddirli.”

Modelli di lingua locali come soluzione

Secondo i ricercatori, la ragione più probabile del pregiudizio è che ChatGPT è principalmente addestrato su dati raccolti da Internet, dove l’inglese è la lingua principale. La soluzione potrebbe essere l’inclusione di dati più equilibrati e senza un forte pregiudizio culturale. Esistono già modelli di lingua locali, e altri sono in arrivo, che potrebbero aiutare a risolvere il problema e portare a un futuro paesaggio IA più culturalmente diversificato.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version