L'Altra Bolla
Omegle chiude: fine di un’epoca per le Chat Anonime
Tempo di lettura: 2 minuti. Omegle, la piattaforma di chat anonima, annuncia la chiusura dopo anni di connessioni globali. Scopri le ragioni dietro questa decisione e le sue implicazioni per la sicurezza e la comunicazione online
Dopo oltre un decennio di servizio, Omegle, la piattaforma di chat che ha connesso milioni di sconosciuti in tutto il mondo, annuncia la sua chiusura. La decisione arriva in un clima di crescente preoccupazione per la sicurezza online e la diffusione di contenuti illeciti, che ha messo sotto pressione il fondatore Leif K-Brooks e il suo team. Questo articolo esplora le ragioni dietro la chiusura di Omegle e le implicazioni per il futuro della comunicazione su internet.
Omegle e la battaglia contro l’Abuso Online
Omegle è stata lanciata nel 2009 come un esperimento sociale, un luogo dove le persone potevano incontrarsi e comunicare anonimamente. Con il passare degli anni, la piattaforma è diventata un fenomeno culturale, ma anche un terreno fertile per attività illegali, come evidenziato dai 600.000 casi di abuso sessuale sui minori segnalati nel solo 2022. La pandemia ha amplificato l’uso di Omegle, portando a un aumento esponenziale degli utenti e, di conseguenza, dei rischi associati.
La solitudine del fondatore e la decisione di chiudere
Leif K-Brooks ha gestito Omegle quasi da solo per anni, finanziando la piattaforma con le sue risorse e affrontando personalmente le sfide tecniche e legali. La pressione di mantenere un ambiente sicuro per gli utenti e la lotta contro l’uso improprio hanno portato a un carico di stress insostenibile, sia finanziario che emotivo. Nel suo post di addio, K-Brooks esprime rammarico per come l’internet si sia evoluto, diventando un luogo meno sicuro e più orientato al consumo passivo piuttosto che all’interazione umana.
Riflessioni sul futuro della comunicazione online
Il caso di Omegle solleva questioni importanti sul futuro della comunicazione su internet. La chiusura di una piattaforma così radicata nella cultura web segnala un momento di riflessione sull’equilibrio tra libertà di espressione e sicurezza online. Mentre alcuni vedono nella chiusura di Omegle un passo indietro per la connessione umana, altri la considerano una necessaria evoluzione verso un internet più responsabile.
La chiusura di Omegle non è solo la fine di un servizio, ma anche un campanello d’allarme per la comunità online globale. Mentre il mondo si interroga su come regolamentare meglio gli spazi digitali, la lezione di Omegle rimane chiara: la tecnologia che connette può anche dividere, e la responsabilità di navigare in queste acque turbolente ricade su tutti noi.
L'Altra Bolla
Discord: giù traffico WebSocket e crittografia per audio e video
Tempo di lettura: 3 minuti. Discord riduce il traffico WebSocket del 40% e introduce la crittografia end-to-end per migliorare le chiamate audio e video, rafforzando sicurezza e privacy.
Negli ultimi aggiornamenti, Discord ha fatto due importanti annunci: una significativa riduzione del traffico WebSocket e l’introduzione della crittografia end-to-end (E2EE) per proteggere le chiamate audio e video degli utenti. Questi miglioramenti mirano a ottimizzare le prestazioni della piattaforma e rafforzare la sicurezza e la privacy degli utenti.
Riduzione del traffico WebSocket del 40%
Discord ha implementato una serie di miglioramenti tecnici, riducendo il traffico WebSocket del 40% grazie all’uso di tecniche avanzate di compressione. Utilizzando il protocollo zstandard e ottimizzando parametri come il chainlog, hashlog e windowlog, Discord è riuscito a comprimere efficacemente i dati scambiati sulla piattaforma senza compromettere le prestazioni.
La società ha condotto una serie di esperimenti per migliorare la compressione, anche considerando l’uso di dizionari zstandard preaddestrati. Sebbene questi abbiano portato a miglioramenti per i payload di dimensioni ridotte, come le notifiche di typing, i guadagni complessivi non giustificavano la complessità aggiuntiva. Di conseguenza, Discord ha deciso di non proseguire con l’implementazione dei dizionari, concentrandosi invece su altre ottimizzazioni, come l’uso dinamico delle risorse durante le ore di minor traffico.
Cos’è il traffico websocket?
Il traffico WebSocket si riferisce alla comunicazione bidirezionale tra un client (come un browser web) e un server tramite il protocollo WebSocket. È diverso dal tradizionale modello HTTP, che è basato su richieste e risposte, in quanto consente una connessione aperta e persistente tra le due parti, permettendo lo scambio continuo di dati in tempo reale.
Ecco alcuni punti chiave sul traffico WebSocket:
- Connessione persistente: una volta stabilita la connessione WebSocket, rimane aperta, il che consente sia al client che al server di inviare messaggi in qualsiasi momento senza la necessità di richieste ripetute.
- Bidirezionalità: sia il client che il server possono inviare dati l’uno all’altro in tempo reale, senza dover aspettare che l’altra parte lo richieda.
- Efficienza: rispetto a HTTP, il protocollo WebSocket riduce l’overhead della trasmissione dei dati, poiché evita la necessità di inviare richieste e risposte per ogni scambio di informazioni. Questo è particolarmente utile in applicazioni come le chat, i giochi online, o le applicazioni di monitoraggio in tempo reale.
- Uso tipico: viene utilizzato in scenari in cui è necessaria una comunicazione in tempo reale, come chat, trading di criptovalute, sistemi di notifiche push, dashboard di monitoraggio e molto altro.
Il traffico WebSocket può essere visualizzato e analizzato utilizzando strumenti di sviluppo come le schede di Network nei browser o strumenti di rete più avanzati per monitorare i dati scambiati.
Crittografia end-to-end (E2EE) per chiamate audio e video
Discord ha introdotto il protocollo personalizzato DAVE per la crittografia end-to-end, progettato per proteggere le chiamate audio e video da accessi non autorizzati. Questo nuovo sistema è stato sviluppato in collaborazione con esperti di sicurezza di Trail of Bits, che hanno anche condotto una revisione del codice del sistema E2EE.
DAVE è destinato a proteggere le comunicazioni in DM privati, chat di gruppo, canali vocali nei server e streaming in tempo reale. Gli utenti potranno verificare se le loro chiamate sono protette da crittografia E2EE grazie a un indicatore presente nell’interfaccia. Inoltre, Discord ha reso open-source il protocollo e le librerie di supporto, permettendo a ricercatori di sicurezza di esaminarlo e garantendo la massima trasparenza.
Il sistema utilizza il protocollo MLS (Messaging Layer Security) per la gestione delle chiavi di gruppo, garantendo che ogni partecipante abbia una chiave di crittografia media simmetrica per l’invio. Un elemento chiave di DAVE è la capacità di resistere al tracciamento persistente grazie all’uso di chiavi identità effimere.
Discord prevede una migrazione graduale del sistema DAVE su tutte le piattaforme, con il supporto completo per desktop, mobile e successivamente per i client web: la crittografia End-to-End contribuirà alla sicurezza delle connessioni WebSocket.
Intelligenza Artificiale
Meta: post Facebook e Instagram addestrano l’AI e WhatsApp menziona nello stato
Tempo di lettura: 3 minuti. Meta addestra l’intelligenza artificiale usando i post pubblici di Facebook e Instagram nel Regno Unito, mentre WhatsApp introduce la funzione di menzione negli stati.
Meta sta portando avanti il suo piano di addestrare modelli di intelligenza artificiale utilizzando i post pubblici di Facebook e Instagram nel Regno Unito, sollevando preoccupazioni sulla privacy degli utenti. Parallelamente, WhatsApp, un’altra piattaforma di Meta, ha introdotto una nuova funzione di menzione nei suoi aggiornamenti di stato. Questi sviluppi riflettono come Meta stia integrando tecnologie AI e migliorando la connettività sociale attraverso le sue app principali, puntando a migliorare l’esperienza utente e l’efficacia dei suoi servizi.
Meta inizia l’addestramento AI con i dati pubblici su Facebook e Instagram
Meta ha ottenuto l’autorizzazione per utilizzare i post pubblici condivisi su Facebook e Instagram nel Regno Unito per addestrare i propri modelli di intelligenza artificiale. Questa decisione segna un passo importante per l’azienda, dopo che la sua iniziale sospensione di queste operazioni ha sollevato preoccupazioni riguardanti la privacy dei dati. Con il permesso dell’Information Commissioner’s Office (ICO), Meta ha ora il via libera per procedere con l’addestramento dei suoi modelli, ma dovrà consentire agli utenti di optare per l’esclusione dei propri dati dall’addestramento tramite un’apposita funzionalità.
Meta si è difesa, affermando che l’utilizzo di dati pubblici rifletterà la cultura e l’idioma britannico nei suoi modelli AI, permettendo alle aziende locali di sfruttare le ultime tecnologie. Tuttavia, l’idea che i post pubblici possano essere utilizzati per addestrare l’intelligenza artificiale ha sollevato perplessità tra gli utenti riguardo alla protezione dei dati personali. In particolare, l’ICO ha chiarito che non ha fornito una “approvazione regolamentare” definitiva per l’uso dei dati, ma monitorerà l’implementazione di queste pratiche.
L’addestramento AI da parte di Meta si inserisce in una più ampia strategia di sviluppo della tecnologia AI, che include la presenza dell’intelligenza artificiale in vari servizi Meta come WhatsApp e nuovi progetti, come gli occhiali AR smart alimentati dall’AI. Anche se molte aziende stanno investendo in AI, l’uso dei dati personali per scopi di addestramento continua a rimanere una questione controversa, soprattutto a causa delle implicazioni etiche e legali.
WhatsApp introduce la funzione di menzione negli aggiornamenti di stato
Nel frattempo, WhatsApp ha annunciato una nuova funzionalità che permette agli utenti di menzionare i propri contatti negli aggiornamenti di stato. Questa funzionalità, simile a quella già presente su piattaforme come Instagram, consente agli utenti di taggare altre persone nei loro aggiornamenti di stato, avvisandoli tramite una notifica. Gli utenti potranno ora citare amici o colleghi nelle foto o nei video condivisi negli stati, offrendo nuove opportunità di interazione.
Attualmente in fase di test su versioni beta di Android, questa nuova funzione sarà presto disponibile globalmente, migliorando le modalità di condivisione su WhatsApp. Un aspetto interessante della funzione di menzione è che, quando un utente viene taggato, ha la possibilità di ricondividere il contenuto con la propria rete di contatti. Questo potrebbe incrementare la visibilità di post specifici, facilitando una condivisione più ampia dei contenuti all’interno della piattaforma.
Un altro punto di forza di questa funzione è la privacy: anche se un utente viene menzionato in uno stato, il suo nome non sarà visibile agli altri spettatori, garantendo così un livello di riservatezza per chi ha creato il post. Questa aggiunta si unisce ad altre funzionalità recenti introdotte da WhatsApp, migliorando ulteriormente l’interattività e la personalizzazione dell’esperienza d’uso per gli utenti.
Meta continua a investire pesantemente nell’intelligenza artificiale, integrando dati pubblici da Facebook e Instagram per addestrare i suoi modelli AI, mentre WhatsApp introduce nuove funzionalità che migliorano l’interazione tra gli utenti. Questi sviluppi riflettono la strategia di Meta di sfruttare sia l’AI sia le piattaforme social per offrire un’esperienza utente più ricca, ma al contempo sollevano questioni sulla privacy e sull’utilizzo dei dati personali. Con il continuo avanzamento della tecnologia AI, è probabile che vedremo ulteriori innovazioni, ma anche un aumento delle preoccupazioni legate alla gestione e alla protezione dei dati.
L'Altra Bolla
Meta Thrive contro i suicidi, ma usa foto di minori per l’IA
Tempo di lettura: 2 minuti. Meta lancia il programma “Thrive” contro i contenuti suicidi e affronta critiche per la raccolta di foto di bambini australiani per l’addestramento dell’IA senza consenso.
Recentemente, Meta ha lanciato iniziative legate alla gestione dei dati che hanno sollevato discussioni globali nel bene e nel male: da un lato ha introdotto Thrive, un programma per condividere dati relativi a contenuti suicidi e di autolesionismo tra piattaforme social, mentre dall’altro è stata criticata per l’uso di foto pubbliche di minori australiani per l’addestramento dei propri modelli di intelligenza artificiale senza un’opzione di consenso esplicito.
Meta lancia il programma “Thrive” per affrontare i contenuti suicidi
Meta ha collaborato con la Mental Health Coalition per lanciare Thrive, un programma che consente alle piattaforme social, tra cui Snap e TikTok, di condividere segnali relativi a contenuti che violano le norme sui suicidi e l’autolesionismo. L’iniziativa mira a impedire la diffusione di contenuti pericolosi tra piattaforme diverse, utilizzando un sistema di condivisione di “hash”, ovvero codici numerici che rappresentano immagini o video violenti, senza rivelare informazioni personali sugli utenti.
Tra aprile e giugno 2024, Meta ha rimosso più di 12 milioni di contenuti relativi a suicidi o autolesionismo su Facebook e Instagram. Questo programma rappresenta un passo avanti nella prevenzione della diffusione di contenuti dannosi attraverso una collaborazione tra diverse piattaforme tecnologiche.
Meta utilizza foto di bambini australiani per l’addestramento dell’IA
Parallelamente, Meta è stata al centro di una controversia in Australia, dove è emerso che l’azienda sta raccogliendo foto e post pubblici dagli account di utenti australiani per addestrare i propri modelli di intelligenza artificiale. Diversamente dall’Unione Europea, gli australiani non hanno la possibilità di rifiutare esplicitamente questo utilizzo dei loro dati. Durante un’inchiesta, è stato confermato che Meta raccoglie foto di bambini dalle pagine pubbliche dei profili dei genitori per addestrare le sue IA, suscitando preoccupazioni in merito alla privacy.
Questa pratica ha sollevato interrogativi sull’uso di immagini di minori, in particolare per quegli utenti che hanno creato i propri account prima dei 18 anni. Sebbene Meta affermi di non raccogliere i dati di chi è attualmente minorenne, le immagini di coloro che lo erano all’epoca della creazione del loro account sono potenzialmente soggette a questa raccolta.
Mentre Meta si impegna a combattere contenuti dannosi come quelli legati ai suicidi, le sue pratiche di raccolta dati per l’addestramento dell’intelligenza artificiale sollevano gravi questioni sulla privacy. L’introduzione di strumenti come Thrive rappresenta un progresso nella protezione degli utenti, ma le critiche sulle politiche di raccolta dei dati pubblici richiedono maggiore attenzione, specialmente per quanto riguarda i minori.
- Intelligenza Artificiale1 settimana fa
Scoperta rivoluzionaria: molecole trasformano il futuro del calcolo
- Sicurezza Informatica6 giorni fa
Esplosioni di cercapersone in Libano: è guerra cibernetica?
- Inchieste1 settimana fa
Apple sempre più in basso: crisi annunciata e pubblico deluso
- Inchieste2 giorni fa
Hezbollah, guerra elettronica o cibernetica? Quando accadrà a noi?
- Economia1 settimana fa
GFI Software si affida a CoreTech per il canale in UK
- Sicurezza Informatica4 giorni fa
Iran spia il comitato di Trump e mobilita l’APT UNC1860
- Sicurezza Informatica3 giorni fa
Lazarus continua con offerte di lavoro
- Sicurezza Informatica3 giorni fa
FTC denuncia i social media: adolescenti spiati come adulti