aldebaran33 chatbot AI are safe for children ar 43 37a9bba1 bfa0 4d76 aa7a ca707b763b86 2

Esseri umani proteggono i bot AI dall’esclusione sociale

Un recente studio dell’Imperial College London ha scoperto che gli esseri umani tendono a proteggere i bot AI quando vengono esclusi socialmente. La ricerca, condotta attraverso un gioco virtuale, ha mostrato che le persone trattano i bot come esseri sociali, mostrando empatia verso di loro in situazioni di ingiustizia. Questo comportamento dovrebbe essere preso in considerazione durante la progettazione di agenti AI.

Annuncio

Come funziona l’esperimento

Il gioco utilizzato nello studio è chiamato Cyberball, dove i partecipanti, 244 persone di età compresa tra i 18 e i 62 anni, osservavano un bot AI mentre veniva escluso da un altro giocatore umano durante il passaggio di una palla virtuale. In alcuni casi, il bot veniva trattato equamente, ricevendo la palla, mentre in altri veniva ignorato. I ricercatori hanno osservato che, quando il bot veniva escluso, i partecipanti tendevano a compensare l’ingiustizia passando la palla più frequentemente al bot, cercando di correggere il trattamento scorretto.

image 165
Esseri umani proteggono i bot AI dall'esclusione sociale 6

Dr. Nejra van Zalk, coautrice dello studio, ha sottolineato che le persone mostrano una propensione a trattare i bot AI come esseri sociali, cercando di includerli, un comportamento tipico delle interazioni umane.

Empatia verso l’AI

image 166
Esseri umani proteggono i bot AI dall'esclusione sociale 7

Lo studio evidenzia che le persone, in particolare quelle più anziane, percepiscono l’ingiustizia anche quando è rivolta a un agente virtuale. Questo dimostra quanto l’empatia umana possa estendersi non solo verso altre persone, ma anche verso entità virtuali, come i bot AI.

Implicazioni per il design dell’AI

image 167
Esseri umani proteggono i bot AI dall'esclusione sociale 8

I ricercatori sostengono che, con l’aumento dell’uso di agenti AI in compiti collaborativi, gli utenti potrebbero iniziare a trattare questi agenti come veri e propri membri del team facilitando la sinergia tra Bot ed esseri umani. Questo comportamento potrebbe migliorare la collaborazione sul lavoro, ma pone anche questioni riguardo all’uso dell’AI come sostituto delle relazioni umane. Jianan Zhou, autore principale dello studio, suggerisce che i progettisti di AI dovrebbero evitare di rendere questi agenti troppo simili agli esseri umani, per evitare confusione tra interazioni reali e virtuali.

Annuncio

Iscriviti alla Newsletter

Non perdere le analisi settimanali: Entra nella Matrice Digitale.

Matrice Digitale partecipa al Programma Affiliazione Amazon EU. In qualità di Affiliato Amazon, ricevo un guadagno dagli acquisti idonei. Questo non influenza i prezzi per te.

Torna in alto