Categorie
L'Altra Bolla

Meta nasconde Contenuti Sensibili per tutelare i giovani

Tempo di lettura: 2 minuti.

Meta ha annunciato misure significative per proteggere i giovani utenti sulle sue piattaforme, Facebook e Instagram. In risposta alla crescente pressione governativa, la società limiterà l’accesso dei teenager a contenuti che trattano argomenti come suicidio, autolesionismo e disturbi alimentari.

Restrizioni sui Contenuti Sensibili

I contenuti che potrebbero non essere “adatti all’età” per i giovani non saranno visibili, anche se condivisi da qualcuno che un adolescente segue. Se un adolescente cerca questo tipo di contenuti su Facebook e Instagram, verrà indirizzato verso “risorse di esperti per l’aiuto”, come la National Alliance on Mental Illness. Questo cambiamento sarà implementato per gli utenti sotto i 18 anni nei prossimi mesi.

Impostazioni di filtraggio restrittive per gli account dei Giovani

Gli account dei giovani saranno impostati di default su impostazioni di filtraggio restrittive che influenzano il tipo di contenuti visualizzati su Facebook e Instagram. Questo cambiamento riguarda i post consigliati in Ricerca ed Esplora che potrebbero essere “sensibili” o di “bassa qualità”. Meta imposterà automaticamente tutti gli account dei giovani sulle impostazioni più stringenti, anche se gli utenti possono modificarle.

Sotto la lente di Ingrandimento del Governo

Questi aggiornamenti arrivano mentre Meta e altre aziende tecnologiche sono sotto un’attenta osservazione governativa per come gestiscono i bambini sulle loro piattaforme. Negli Stati Uniti, il CEO di Meta, Mark Zuckerberg, testimonierà davanti al Senato il 31 gennaio sulla sicurezza dei bambini. Questa udienza segue una serie di legislazioni che tentano di limitare l’accesso dei bambini a contenuti per adulti.

Impatto delle Leggi sulla Sicurezza Online

Oltre alla pornografia, i legislatori hanno segnalato la volontà di limitare l’accesso a una vasta gamma di contenuti internet nel nome della protezione dei bambini da contenuti legali, come quelli che trattano di suicidio o disturbi alimentari. Nel frattempo, nell’UE, il Digital Services Act tiene responsabili le grandi aziende tecnologiche, inclusa Meta, per i contenuti condivisi sulle loro piattaforme, con regole sulla trasparenza algoritmica e il targeting pubblicitario. E l’Online Safety Act del Regno Unito, diventato legge nell’ottobre 2023, ora richiede alle piattaforme online di conformarsi alle regole di sicurezza dei bambini o rischiare multe.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version