Tempo di lettura: 2 minuti. Coalizione di piattaforme social, governi e ONG si impegna a combattere i contenuti abusivi generati dall’IA e al CSAM
Tag: abuso sessuale
Tempo di lettura: < 1 minuto. Il rispetto della privacy e della dignità delle vittime di violenza è fondamentale. Il Garante interviene con fermezza contro chi trasgredisce queste regole, ribadendo l’importanza di una comunicazione responsabile.
Tempo di lettura: < 1 minuto. Un’indagine ha rivelato una preoccupante presenza di materiale di abuso sessuale su minori sulla piattaforma social Mastodon, sollevando questioni sulla sua natura aperta e decentralizzata.
Tempo di lettura: 2 minuti. Un gruppo di senatori statunitensi chiede a Meta di spiegare come Instagram gestisce il materiale di abuso sessuale su minori (CSAM) e il ruolo degli algoritmi nella condivisione di tale contenuto.
Tempo di lettura: 2 minuti. La BBC scopre che i pedofili stanno utilizzando la tecnologia di intelligenza artificiale per creare e vendere materiale di abuso sessuale su minori estremamente realistico.
Tempo di lettura: 2 minuti. Esperti di sicurezza infantile segnalano l’incapacità di fermare la creazione e la condivisione di migliaia di “immagini di abusi sessuali su minori generate da IA” su forum pedofili del dark web.
Tempo di lettura: 2 minuti. La presidenza svedese del Consiglio dell’UE ha proposto una completa riscrittura del testo legislativo per combattere il materiale di abuso sessuale sui minori (CSAM) online, apportando modifiche significative a tutto il testo.
Tempo di lettura: < 1 minuto. Twitter non è riuscito a rimuovere immagini di abuso sessuale sui minori negli ultimi mesi, nonostante fossero segnalate come tali, afferma un nuovo rapporto dello Stanford Internet Observatory
Tempo di lettura: 2 minuti. Un riassunto completo degli eventi chiave che hanno coinvolto Elon Musk e Twitter, dalla sua acquisizione di azioni alla sua recente nomina nel consiglio di amministrazione.
Tempo di lettura: < 1 minuto. Aumentano le minacce che coinvolgono anche i minori