Categorie
Tech

Palestina, WhatsApp AI bias con sticker vergognosi

Tempo di lettura: < 1 minuto. Meta affronta il bias nell’AI di WhatsApp: sticker di “Palestina” generano immagini di bambini armati, mentre “Israele” no.

Tempo di lettura: < 1 minuto.

WhatsApp di Meta ha introdotto una funzione che permette agli utenti di creare sticker tramite prompt AI, ma questa novità ha sollevato questioni delicate. Un report di The Guardian ha evidenziato come il modello AI, rispondendo a prompt come “Palestina”, generi immagini inquietanti di bambini con armi, mentre prompt correlati a “Israele” non producono immagini simili. Questa discrepanza ha portato alla luce problemi di bias nei modelli di AI di Meta, un tema già noto per precedenti incidenti, come la funzione di auto-traduzione di Instagram che ha inserito la parola “terrorista” in biografie utente scritte in arabo.

Bias nell’AI e la risposta di Whatsapp sulla Palestina

Un mese fa, il generatore di sticker AI di Meta ha iniziato a diffondere immagini inopportune, tra cui quelle di bambini soldato. Alcuni lavoratori di Meta hanno segnalato la questione, che è stata poi presa in esame dall’azienda. Kevin McAlister, portavoce di Meta, ha comunicato che l’azienda sta affrontando il problema e che continuerà a migliorare queste funzionalità sulla base del feedback ricevuto.

Impatto e miglioramenti futuri

La situazione solleva preoccupazioni riguardo l’impatto sociale e politico dell’intelligenza artificiale e la necessità di un suo sviluppo responsabile. Meta si impegna a rafforzare i controlli per prevenire la generazione di contenuti inappropriati e a correggere i bias nei suoi sistemi AI, un passo cruciale per mantenere la fiducia degli utenti e l’integrità della piattaforma.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version