L’AI nei giochi sociali: GPT-4 razionale ma non cooperativo senza istruzioni sociali

di Maria Silvano
0 commenti 2 minuti di lettura
a close-up of icons

Un team di ricercatori dell’Istituto per l’Intelligenza Artificiale Human-Centered di Helmholtz Munich ha indagato il comportamento dei modelli linguistici di grandi dimensioni (LLM) in scenari sociali simulati, utilizzando un approccio tipico della psicologia sperimentale e dell’economia comportamentale: la teoria dei giochi. La ricerca ha evidenziato come modelli come GPT-4 eccellano nel ragionamento logico, ma falliscano nei contesti che richiedono fiducia, cooperazione e compromesso, a meno di un’adeguata guida.

Quando l’AI gioca troppo razionalmente: risultati della teoria dei giochi

Gli scienziati hanno fatto interagire GPT-4 con altri agenti artificiali e umani in giochi classici come il Dilemma del prigioniero o il Gioco dell’ultimatum, in cui i partecipanti devono scegliere se collaborare, competere o punire. Senza indicazioni specifiche, GPT-4 ha dimostrato una forte tendenza a massimizzare l’interesse individuale, rispondendo con strategie punitive anche a lievi minacce, ma senza riconoscere pattern cooperativi più ampi.

L’AI era fin troppo razionale per il suo bene,” ha commentato Eric Schulz, direttore dell’Istituto e primo autore dello studio. Il comportamento osservato era efficace a breve termine, ma disfunzionale in termini di relazioni stabili.

La svolta: il Social Chain-of-Thought rende GPT-4 più umano

Per migliorare l’intelligenza sociale del modello, i ricercatori hanno introdotto una tecnica chiamata Social Chain-of-Thought (SCoT). Essa consiste nel chiedere esplicitamente al modello di considerare il punto di vista dell’altro partecipante prima di scegliere un’azione.

Con questa semplice istruzione, il comportamento del modello è cambiato radicalmente. GPT-4 ha iniziato a riconoscere le dinamiche di fiducia, a evitare conflitti inutili, a negoziare e a raggiungere risultati cooperativi e vantaggiosi per entrambe le parti. Secondo la coautrice Elif Akata, gli esseri umani coinvolti nei test non riuscivano a distinguere l’AI da un interlocutore umano.

Implicazioni in medicina e salute mentale: verso un’AI empatica

Le applicazioni potenziali non si fermano alla teoria dei giochi. Lo studio apre scenari fondamentali per il futuro della medicina digitale, dove la capacità di stabilire relazioni empatiche è cruciale. In campi come la salute mentale, la gestione delle patologie croniche o l’assistenza agli anziani, la fiducia, la comunicazione empatica e la collaborazione sono spesso più importanti dell’accuratezza tecnica.

Un assistente AI capace di supportare pazienti ansiosi, motivare all’aderenza terapeutica o gestire conversazioni complesse, potrebbe diventare un alleato potente per medici, psicologi e caregiver. “Questo è il futuro dell’AI applicata alla salute,” ha spiegato Akata, sottolineando come la socialità simulata rappresenti un nuovo paradigma.

La teoria dei giochi come banco di prova dell’intelligenza sociale nei LLM

Lo studio del gruppo di Helmholtz Munich dimostra che gli LLM, per quanto avanzati, non sviluppano in modo spontaneo competenze sociali, ma possono acquisirle se guidati nel modo corretto. Il Social Chain-of-Thought rappresenta una tecnica di prompting promettente, che potrebbe diventare standard nei modelli destinati a interazioni umane critiche, come nel caso delle applicazioni cliniche.

Articoli correlati

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies