Aumento dei contenuti di abuso sessuale infantile online

di Redazione
0 commenti

Un recente rapporto di Thorn, un’organizzazione no-profit tecnologica focalizzata sulla difesa dei bambini dall’abuso sessuale, ha evidenziato un aumento preoccupante dei minori che condividono immagini sessuali di se stessi online. Questa attività può avvenire sia consensualmente sia sotto coercizione, poiché i giovani segnalano anche un aumento delle interazioni online rischiose con gli adulti.

John Starr, Vicepresidente dell’Impatto Strategico presso Thorn, ha dichiarato: “Nel nostro mondo digitalmente connesso, il materiale di abuso sessuale infantile viene facilmente e sempre più condiviso sulle piattaforme che utilizziamo quotidianamente. Le interazioni dannose tra giovani e adulti non sono isolate agli angoli oscuri del web. Non appena la comunità digitale crea piattaforme innovative, i predatori le sfruttano per sfruttare i bambini e condividere questo contenuto oltraggioso.”

Il National Center for Missing and Exploited Children (NCMEC) ha registrato un aumento del 329% nei file di materiale di abuso sessuale infantile (CSAM) segnalati negli ultimi cinque anni. Solo nel 2022, il NCMEC ha ricevuto oltre 88,3 milioni di file CSAM.

Cause dell’aumento delle segnalazioni:

  1. Sempre più piattaforme stanno implementando strumenti, come il prodotto Safer di Thorn, per rilevare CSAM noti utilizzando tecniche di hashing e matching.
  2. I predatori online sono sempre più audaci e utilizzano nuove tecnologie, come i chatbot, per ampliare il loro inganno. Dal 2021 al 2022, il NCMEC ha registrato un aumento dell’82% nelle segnalazioni di adescamento online di minori per atti sessuali.
  3. Il CSAM autogenerato (SG-CSAM) è in aumento. Solo dal 2021 al 2022, l’Internet Watch Foundation ha registrato un aumento del 9% nel SG-CSAM.

Tecnologia contro il problema:

L’hashing e il matching sono tra le tecnologie più importanti che le aziende tecnologiche possono utilizzare per proteggere gli utenti e le piattaforme dai rischi associati a questo tipo di contenuti. Queste tecniche permettono di identificare, bloccare o rimuovere questi contenuti illeciti dalle piattaforme.

Safer, uno strumento creato da Thorn per la rilevazione proattiva del CSAM, offre l’accesso a un vasto database che aggrega oltre 29 milioni di valori hash CSAM noti. Safer consente anche alle aziende tecnologiche di condividere tra loro le liste hash, espandendo ulteriormente il corpus di CSAM noti.

Per eliminare il CSAM da Internet, sia le aziende tecnologiche che le ONG hanno un ruolo da svolgere. “Le piattaforme che ospitano contenuti sono partner chiave, e Thorn è impegnata a fornire all’industria tecnologica gli strumenti e le risorse necessarie per combattere l’abuso sessuale infantile su larga scala,” ha aggiunto Starr. “Si tratta di proteggere i nostri bambini. Con gli strumenti giusti, Internet può essere più sicuro.”