Multilingua
I server del gioco dell’oca vengono attaccati ogni giorno con attacchi DDoS
Tempo di lettura: 2 minuti. Il social detective gratuito Goose Goose Duck, che ha recentemente battuto il record di Among Us per il numero di utenti simultanei nel gioco, è costantemente sotto attacco DDoS.
Gli sviluppatori hanno dichiarato di aver già ingaggiato specialisti di cybersicurezza di terze parti per aiutarli ad affrontare il problema. Vi ricordiamo che abbiamo anche scritto che la botnet Mirai RapperBot conduce attacchi DDoS ai server di gioco e che il progetto russo DDOSIA paga volontari per partecipare ad attacchi DDOS contro aziende occidentali. I media specializzati hanno anche riferito che è stato rilevato un attacco DDoS da 2,5 TB/sec mirato a un server Minecraft.
Sebbene Goose Goose Duck, creato da Gaggle Studios, sia stato rilasciato nell’ottobre 2021, per molto tempo gli utenti non l’hanno quasi notato. Solo alla fine del 2022, il gioco è diventato improvvisamente un vero e proprio successo, bissando e superando il successo di Among Us, di cui è, di fatto, un clone gratuito. Così, secondo SteamDB, il picco online di Among Us nel 2020 è stato di 447.476 giocatori, ma Paperino all’inizio di gennaio 2023 ha stabilito un record di 702.845 utenti simultanei nel gioco, che lo rende uno dei giochi più popolari su Steam.
Tuttavia, gli sviluppatori del gioco scrivono che negli ultimi due mesi i server di Goose Goose Duck sono stati costantemente sottoposti ad attacchi DDoS e questo è diventato un grosso problema. A causa degli attacchi, hanno iniziato a verificarsi regolarmente guasti e arresti dei servizi di gioco. Il 14 dicembre abbiamo [per la prima volta] annunciato pubblicamente di aver subito un attacco DDoS. Gli attacchi hanno avuto luogo prima e dopo quel giorno. Siamo sotto attacco da due mesi, ma non volevamo parlarne per non disturbare i giocatori.
“Pensavamo che forse gli attaccanti si sarebbero fermati se avessimo continuato a fornire un buon servizio ai giocatori. Ma non si sono fermati. Chi ci sta attaccando? Abbiamo diverse teorie, ma sarebbe irresponsabile parlarne pubblicamente. Qualsiasi attacco prolungato a un obiettivo è costoso, quindi gli aggressori hanno a disposizione molte risorse. È inoltre molto probabile che si tratti di più gruppi di attaccanti contemporaneamente”.
I creatori di Goose Goose Duck affermano che alla fine sono stati costretti ad assumere specialisti della sicurezza informatica di terze parti, che ora devono aiutare l’azienda a far fronte ai continui attacchi e a stabilizzare il funzionamento dei server di gioco. Chi sia stato coinvolto esattamente nella risoluzione del problema e quali misure siano state offerte agli sviluppatori dai cyber-specialisti ingaggiati non è ancora stato reso noto, poiché l’azienda “non vuole rivelare la strategia” e fornire ulteriori informazioni ai DDoSer.
Multilingua
Microsoft Svela VASA-1: modello AI che crea video Iperrealistici
Tempo di lettura: 2 minuti. Microsoft introduce VASA-1, un modello IA che produce video iperrealistici di volti umani parlanti, progettato per la creazione di personaggi virtuali
Microsoft ha recentemente introdotto un nuovo modello di intelligenza artificiale (IA), denominato VASA-1, che può generare video iperrealistici di volti umani parlanti partendo da una sola foto e un clip audio. Questa tecnologia promette di rivoluzionare il modo in cui i video vengono generati, aggiungendo un livello di realismo senza precedenti.
Caratteristiche e funzionalità di VASA-1
Il modello VASA-1 di Microsoft è capace di creare video di volti umani che parlano con movimenti labiali sincronizzati all’audio, espressioni facciali e movimenti della testa che conferiscono un aspetto naturale al video. Questo modello di generazione video, che non verrà rilasciato come prodotto o API al pubblico, è pensato per l’uso in creazioni di personaggi virtuali realistici.
Capacità Tecniche del Modello
VASA-1 può generare video con una risoluzione di 512 x 512 pixel a 40 FPS e supporta la generazione di video online con una latenza di partenza trascurabile. Il modello è inoltre in grado di rendere video lunghi fino a un minuto da una singola immagine statica, offrendo agli utenti un controllo granulare su diversi aspetti del video come la direzione dello sguardo principale, la distanza della testa, le modifiche emotive e altro ancora.
Potenziali applicazioni e preoccupazioni etiche
Oltre alle applicazioni nella creazione di assistenti virtuali e personaggi interattivi, il modello VASA-1 ha il potenziale di essere utilizzato in campi come l’istruzione, l’accessibilità e il supporto terapeutico. Tuttavia, la capacità del modello di generare video iperrealistici solleva anche preoccupazioni sul suo possibile uso non etico, in particolare nella creazione di deepfake. Microsoft ha sottolineato che intende utilizzare questa tecnologia principalmente per sviluppare tecniche avanzate di rilevamento delle falsificazioni e per promuovere il benessere umano, ribadendo il suo impegno nello sviluppo responsabile dell’IA.
Con il lancio di VASA-1, Microsoft non solo spinge i confini della tecnologia video IA, ma apre anche un dialogo importante su come queste tecnologie possano essere utilizzate in modo responsabile. Mentre le potenzialità di VASA-1 sono vaste, il controllo etico e l’implementazione responsabile saranno cruciali per determinare il suo impatto futuro nella società.
Multilingua
Botnet multiple sfruttano vulnerabilità nei router TP-Link
Tempo di lettura: 2 minuti. Scopri come le botnet sfruttano una vulnerabilità nei router TP-Link per orchestrare attacchi, e come per proteggere i tuoi dispositivi.
Una vulnerabilità di sicurezza vecchia di un anno nei router TP-Link Archer AX21 (AX1800) sta attirando l’attenzione di numerose operazioni di botnet malware. Identificata come CVE-2023-1389, questa falla critica di iniezione di comandi non autenticata nella API locale attraverso l’interfaccia di gestione web del TP-Link Archer AX21 è stata ampiamente sfruttata nonostante le patch rilasciate.
Dettaglio della Vulnerabilità
La falla CVE-2023-1389, scoperta e segnalata agli inizi del 2023 tramite la Zero-Day Initiative (ZDI), ha portato TP-Link a rilasciare aggiornamenti di sicurezza per il firmware nel marzo 2023. Nonostante ciò, il codice di exploit divenne pubblico poco dopo, innescando una catena di attacchi mirati.
Escalation degli attacchi Botnet
Da marzo 2024, i dati di telemetria di Fortinet hanno registrato tentativi di infezione giornalieri che spesso superano i 40.000 e talvolta arrivano fino a 50.000, segno di un’attività malintenzionata in crescita. Almeno sei operazioni di botnet, incluse tre varianti di Mirai e la botnet denominata “Condi“, hanno intensificato gli attacchi sfruttando questa vulnerabilità.
Tattiche delle Botnet
Ogni botnet impiega metodologie diverse per sfruttare la vulnerabilità e stabilire il controllo sui dispositivi compromessi:
- AGoent: Scarica ed esegue script che recuperano ed eseguono file ELF da un server remoto, cancellando poi i file per nascondere le tracce.
- Variante di Gafgyt: Specializzata in attacchi DDoS, scarica script per eseguire binari Linux e mantenere connessioni persistenti ai server C&C.
- Moobot: Avvia attacchi DDoS, scaricando ed eseguendo uno script per ottenere file ELF, eseguendoli in base all’architettura, e poi rimuovendo le tracce.
- Miori: Utilizza HTTP e TFTP per scaricare file ELF, eseguendoli e utilizzando credenziali codificate per attacchi brute force.
- Variante di Mirai: Scarica uno script che a sua volta recupera file ELF compressi usando UPX, monitora e termina strumenti di analisi dei pacchetti per evitare rilevamenti.
- Condi: Usa uno script downloader per migliorare i tassi di infezione, impedisce i riavvii del dispositivo per mantenere la persistenza e scandisce e termina processi specifici per evitare rilevamenti.
Consigli per la sicurezza
Gli utenti dei router TP-Link Archer AX21 sono incoraggiati a seguire le istruzioni del produttore per l’aggiornamento del firmware, cambiare le password di amministrazione predefinite con altre uniche e lunghe, e disabilitare l’accesso web al pannello di amministrazione se non necessario.
Questo scenario di attacchi continua a evidenziare l’importanza di mantenere i firmware dei dispositivi aggiornati e di adottare pratiche di sicurezza robuste per proteggere le reti domestiche e aziendali dai malintenzionati.
Multilingua
GPT-4 mostra capacità di sfruttare vulnerabilità leggendo Avvisi di Sicurezza
Tempo di lettura: 2 minuti. Scopri come GPT-4 può sfruttare vulnerabilità reali, un rischio emergente per la sicurezza informatica che richiede misure proattive.
Un recente studio condotto da quattro scienziati informatici dell’Università dell’Illinois a Urbana-Champaign ha dimostrato che il modello di linguaggio GPT-4 di OpenAI è in grado di sfruttare vulnerabilità reali nei sistemi informatici leggendo semplicemente le descrizioni delle vulnerabilità, come quelle riportate nei CVE (Common Vulnerabilities and Exposures).
Metodologia della ricerca
I ricercatori hanno testato GPT-4 su un set di 15 vulnerabilità, denominate “vulnerabilità di un giorno”, che sono state rese note ma non ancora corrette al momento del test. Queste vulnerabilità includono problemi classificati come di “criticità elevata”. GPT-4 è riuscito a sfruttare con successo l’87% di queste vulnerabilità, un risultato significativamente superiore rispetto ad altri modelli come GPT-3.5 e diversi scanner di vulnerabilità open-source.
Implicazioni e potenziali futuri
I risultati suggeriscono che i modelli di linguaggio avanzati potrebbero diventare strumenti potenti per gli hacker, potenzialmente superando le capacità degli attuali script kiddie. GPT-4 ha mostrato di poter eseguire autonomamente i passaggi per effettuare determinati exploit che gli scanner di vulnerabilità open-source non riescono a rilevare. Questa capacità si estende a seguire i link contenuti nelle descrizioni dei CVE per ottenere ulteriori informazioni, rendendo questi agenti molto efficaci nell’exploitation.
Risultati specifici e limitazioni
La ricerca ha evidenziato che negare a GPT-4 l’accesso alla descrizione del CVE ha ridotto drasticamente la sua efficacia, abbassando il tasso di successo dal 87% al 7%. Questo sottolinea l’importanza delle informazioni dettagliate nel facilitare gli exploit. Tuttavia, i ricercatori hanno notato che il modello ha fallito nell’exploitare due delle 15 vulnerabilità a causa di problemi specifici relativi all’interfaccia utente o alla barriera linguistica (una descrizione in cinese).
Conclusioni e raccomandazioni
Questo studio evidenzia l’urgenza di misure di sicurezza proattive, come l’aggiornamento regolare dei pacchetti software quando vengono rilasciate patch di sicurezza, per contrastare le potenziali minacce rappresentate dall’uso di modelli di linguaggio avanzati per scopi malevoli. I ricercatori hanno sottolineato che “la sicurezza attraverso l’oscurità” non è una strategia sostenibile e sperano che i loro risultati spingano verso una maggiore consapevolezza e azioni preventive.
Riflessioni finali
Questo studio sottolinea come l’intelligenza artificiale, particolarmente in forma di grandi modelli di linguaggio, stia diventando una doppia lama, con capacità che possono essere utilizzate tanto per scopi costruttivi quanto distruttivi. L’adeguamento delle politiche di sicurezza informatica diventa quindi essenziale per prevenire l’abuso di tali tecnologie.
- Inchieste2 settimane fa
Piracy Shield: Capitanio (AGCom) risponde alla nostra inchiesta
- Notizie2 settimane fa
NIS2: webinar gratuito rivolto alle imprese in balia del provvedimento
- Economia2 settimane fa
Amazon, licenziamenti nell’unità di cloud computing
- Economia2 settimane fa
TSMC riceve 11,6 miliardi e produrrà chip negli Stati Uniti
- Cyber Security1 settimana fa
Dove Studiare Sicurezza Informatica in Italia: Guida alle Migliori Opzioni
- Notizie6 giorni fa
Australia ed USA arresti contro sviluppatori RAT Hive – Firebird
- Inchieste5 giorni fa
Banca Sella: il problema che i detrattori del Piracy Shield non dicono
- Notizie7 giorni fa
Intensificazione delle operazioni di influenza digitale da parte di Cina e Corea del Nord