Categorie
Tech

Xbox e intelligenza artificiale: alleati nella moderazione

Tempo di lettura: 2 minuti. xbox, moderazione, intelligenza artificiale, community sift, turing bletchley v3, contenuto volgare, account inautentici

Tempo di lettura: 2 minuti.

Nel settore dei videogiochi online, la moderazione dei contenuti rappresenta una sfida di grande rilievo, specialmente per piattaforme che contano milioni di utenti attivi ogni giorno. Microsoft ha adottato un approccio innovativo, utilizzando l’intelligenza artificiale per rafforzare la moderazione su Xbox. Questa tecnologia permette di automatizzare la segnalazione dei contenuti che necessitano di revisione umana, senza attendere la segnalazione da parte dei giocatori.

Strumenti Xbox con intelligenza artificiale per una community sicura

L’incremento di contenuti inappropriati e la necessità di una moderazione efficace hanno spinto Microsoft a implementare strumenti come Community Sift, sviluppato dalla sussidiaria TwoHat. Questo sistema ha elaborato “oltre 36 milioni” di segnalazioni dei giocatori Xbox in 22 lingue, filtrando miliardi di interazioni umane. Nonostante l’introduzione di questi nuovi strumenti, il numero di azioni di enforcement reattive è leggermente diminuito, indicando un miglioramento nell’efficacia della moderazione proattiva.

Efficienza migliorata con Turing Bletchley v3

Il modello AI Turing Bletchley v3 rappresenta un altro forte sostegno nella lotta ai contenuti inadeguati, analizzando automaticamente tutte le immagini generate dagli utenti sulla piattaforma Xbox. Questo modello “vision-language” valuta le immagini con l’intelligenza artificiale per stabilire la loro conformità agli standard comunitari di Xbox, dirigendo i contenuti sospetti verso la moderazione umana. Tale sistema ha contribuito al blocco di 4,7 milioni di immagini nel primo semestre del 2023, registrando un aumento del 39% rispetto al semestre precedente.

Lotta agli account ‘inautentici’

Le azioni contro gli account “inautentici” sono state intensificate da Microsoft, includendo account utilizzati per trucchi, spam e manipolazione di amicizie/follower, con un incremento del 276% rispetto al primo semestre del 2022. La maggior parte di questi account viene eliminata prima che possano danneggiare la piattaforma o l’esperienza dei giocatori.

Nuove definizioni contro la volgarità

L’ampliamento della definizione di contenuto volgare da parte di Microsoft ha portato a un aumento delle azioni di enforcement. La nuova politica include gesti offensivi, contenuti sessualizzati e umorismo crudo, con 328.000 azioni nel primo semestre del 2022, un aumento considerevole rispetto al periodo precedente.

Revisione delle sospensioni

Le probabilità di revocare una sospensione o un ban restano limitate, con solo il 4,1% dei casi rivisti che hanno avuto esito positivo nei primi sei mesi del 2023, segnando una diminuzione rispetto al semestre precedente.

Con l’introduzione di un nuovo sistema di penalità basato su “otto colpi” per le infrazioni, si attendono i report futuri per osservare l’effetto di queste nuove regolamentazioni.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version