Categorie
L'Altra Bolla

Discord riforma la moderazione per la riabilitazione degli utenti

Tempo di lettura: 2 minuti. Discord introduce un nuovo sistema di moderazione che punta sulla riabilitazione degli utenti e offre strumenti per garantire la sicurezza

Tempo di lettura: 2 minuti.

Discord, la popolare piattaforma di chat, sta rivoluzionando il suo sistema di moderazione. L’obiettivo è passare da una semplice penalizzazione degli utenti che violano le regole a un approccio più educativo e riabilitativo.

Il contesto di Discord

Discord, originariamente creato come strumento di chat per i giocatori, ha visto una rapida crescita e diversificazione degli utenti. Oltre ai gamer, la piattaforma ospita ora discussioni su musica, educazione, scienza e arte AI. Tuttavia, con la crescita, sono emersi anche problemi legati a contenuti inappropriati e comportamenti dannosi.

Il nuovo sistema di avvertimenti

Discord ha annunciato un nuovo sistema di avvertimenti. Gli utenti che infrangono le regole riceveranno un messaggio direttamente da Discord, che fornirà dettagli sulla violazione e sulle azioni intraprese. Queste informazioni saranno visibili nella nuova scheda “Stato dell’account” nelle impostazioni. Discord ha anche introdotto limitazioni comportamentali basate sulla natura della violazione. Ad esempio, chi pubblica immagini inappropriati potrebbe vedersi limitata temporaneamente la capacità di caricare media.

Riabilitazione piuttosto che ban permanente

Invece di bandire gli utenti in modo permanente, Discord punta a bandirli per un anno. Questo rappresenta un cambiamento significativo rispetto alla norma dell’industria, dove i ban a vita sono comuni. L’obiettivo è dare agli utenti la possibilità di riflettere e cambiare.

Assistenza per la sicurezza dei giovani

Considerando che metà degli utenti di Discord ha un’età compresa tra 13 e 24 anni, la piattaforma ha introdotto una funzione chiamata “Teen Safety Assist”. Questa funzione, attivata di default per gli utenti più giovani, analizza i messaggi in arrivo alla ricerca di contenuti inappropriati e sfoca le immagini potenzialmente sensibili nei messaggi diretti.

Verso una moderazione basata sulla comunità

Oltre alla moderazione individuale, Discord sta esplorando come adattare il sistema di avvertimenti alle intere comunità o server. La sfida è determinare chi è responsabile quando un server infrange le regole e come affrontare i server creati con l’intento di danneggiare.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version