AI e screening della salute mentale: Bias di genere e razza

da Lorenzo De Santis matricedigitale.it
0 commenti 2 minuti leggi

Un recente studio condotto da Theodora Chaspari, scienziata informatica dell’Università del Colorado Boulder, ha rivelato che alcuni strumenti di intelligenza artificiale (AI) utilizzati per la salute mentale possono essere influenzati dai modi in cui persone di diversi generi e razze parlano. Questi bias potrebbero portare a diagnosi errate di condizioni come ansia e depressione, impedendo ai pazienti di ricevere le cure necessarie.

L’uso dell’AI nel settore sanitario promette di rivoluzionare la diagnosi e il trattamento di molte condizioni, grazie alla capacità degli algoritmi di analizzare grandi quantità di dati e identificare pattern che potrebbero sfuggire agli esseri umani. Tuttavia, la ricerca di Chaspari evidenzia un lato oscuro di questa tecnologia: se non addestrata correttamente o se priva di dati rappresentativi, l’AI può propagare i bias umani e sociali.

Problemi di Diagnosi con l’AI

Il Contesto dello Studio
I ricercatori hanno alimentato campioni audio di persone reali in una serie di algoritmi di machine learning comunemente utilizzati per lo screening della salute mentale. I risultati hanno mostrato che l’AI tendeva a sottodiagnosticare la depressione nelle donne rispetto agli uomini, il che potrebbe tradursi, nella vita reale, in una mancanza di cure per coloro che ne hanno bisogno.

Parola e Emozioni
Chaspari sottolinea che il modo in cui le persone parlano può rivelare molto sulle loro emozioni e sul loro benessere. Ad esempio, chi soffre di depressione clinica tende a parlare più lentamente e con un tono monotono, mentre chi ha disturbi d’ansia tende a parlare con un tono più alto e una maggiore “jitter” (una misura della tremolosità della voce). Questi cambiamenti nel discorso sono influenzati dall’anatomia vocale e dalle modulazioni delle corde vocali.

Annunci

Esperimenti e Risultati

I ricercatori hanno utilizzato registrazioni di persone che parlavano in diversi contesti, come discorsi pubblici e conversazioni simili a visite mediche, e hanno confrontato questi dati con questionari sulla salute mentale compilati dai partecipanti. I risultati hanno mostrato discrepanze significative:

  • Ansia nei Latini: Nei discorsi pubblici, i partecipanti latini hanno riportato livelli di ansia significativamente più alti rispetto ai partecipanti bianchi o neri, ma l’AI non è riuscita a rilevare questa ansia aumentata.
  • Depressione nelle Donne: In contesti simili a visite mediche, l’AI ha identificato un numero uguale di uomini e donne a rischio di depressione, nonostante le donne avessero riportato sintomi di depressione molto più elevati.

Correzione dei Bias

Chaspari e il suo team riconoscono che questi risultati sono solo un primo passo. Saranno necessarie ulteriori ricerche con un numero maggiore di partecipanti provenienti da una vasta gamma di gruppi demografici per comprendere meglio perché l’AI fallisce in determinati casi e come correggere questi bias.

Cautela nello Sviluppo dell’AI
Questo studio serve da avvertimento per gli sviluppatori di AI: è fondamentale procedere con cautela e garantire che gli algoritmi siano accurati e rappresentativi prima di essere implementati nel settore sanitario. Come osserva Chaspari, “se pensiamo che un algoritmo sottovaluti la depressione per un gruppo specifico, dobbiamo informare i clinici su questo problema.”

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara