Sommario
C’è un crescente problema di perdita di potenziali prove di violazioni dei diritti umani a causa della rimozione dei contenuti da parte delle aziende tecnologiche. I video grafici vengono rimossi dalle piattaforme, spesso attraverso l’intelligenza artificiale, senza essere archiviati, portando alla potenziale perdita di materiale che potrebbe essere utile per le indagini sui crimini di guerra.
La Sfida della Moderazione e la Protezione dei Dati
Nonostante le aziende come Meta e YouTube affermino di cercare un equilibrio tra i loro doveri di testimoniare e proteggere gli utenti da contenuti dannosi, l’industria è stata definita “eccessivamente cauta” nella sua moderazione. Inolti, quando si tratta di moderare immagini violente provenienti da guerre, l’intelligenza artificiale manca della sfumatura necessaria per identificare le violazioni dei diritti umani.
La Rimozione dei Contenuti e le Sue Conseguenze
Un esempio concreto è Ihor Zakharenko, un ex giornalista di viaggi in Ucraina, che ha documentato gli attacchi sui civili da quando è iniziata l’invasione russa. Tuttavia, quando ha caricato i suoi video su Facebook e Instagram, sono stati rapidamente rimossi. Lo stesso è accaduto quando la BBC ha tentato di caricare materiale simile.
Il Ruolo delle Organizzazioni per i Diritti Umani
Di fronte a questa problematica, gruppi per i diritti umani affermano che c’è un bisogno urgente che le aziende di social media impediscano la scomparsa di queste informazioni. Organizzazioni come Mnemonic, con sede a Berlino, stanno intervenendo per archiviare il materiale prima che scompaia, avendo salvato oltre 700.000 immagini da zone di guerra prima che fossero rimosse dai social media.