Trend Micro analizza le minacce agli LLM: da prompt injection a data poisoning, malware embedded e attacchi zero-click, con strategie …
Latest in LLM
-
-
Malware
SentinelOne scopre malware abilitati da LLM con chiavi API incorporate
di Redazionedi Redazione 4 minuti di letturaSentinelOne rivela malware abilitati da LLM con chiavi API hardcoded, logica runtime e nuove sfide per detection e difesa cyber.
-
Phishing
RevengeHotels usa AI e VenomRAT: attacco agli hotel latinoamericani
di Redazionedi Redazione 10 minuti di letturaRevengeHotels usa LLM e VenomRAT contro hotel LATAM: catena d’infezione, TTP, IOC e difese per SOC e CISO.
-
Malware
Hexstrike-AI: LLM e zero-day cambiano il ritmo degli attacchi
di Redazionedi Redazione 7 minuti di letturaHexstrike-AI unisce LLM e orchestrazione MCP: zero-day sfruttati in minuti, difese basate su AI e patch rapide diventano imprescindibili.
-
Vulnerabilità
HTTP/2 MadeYouReset e chatbot LLM: nuove falle e patch urgenti Citrix
di Redazionedi Redazione 6 minuti di letturaHTTP/2 MadeYouReset, FortiWeb, LLM, Citrix e Plex: nuove vulnerabilità e patch urgenti con impatti su aziende e difese.
-
Intelligenza Artificiale
LLM falliscono in etica medica e puzzle laterali, richiedono valutazioni rigorose per usi sanitari
di Maria Silvano 6 minuti di letturaI LLM falliscono nei dilemmi etici medici e puzzle logici, evidenziando rigidità e rischi per la sanità.
-
Guerra Cibernetica
APT28 usa malware AI LameHug per spionaggio contro enti governativi ucraini
di Livio Varriale 6 minuti di letturaAPT28 sfrutta LameHug e LLM di Alibaba per attacchi phishing contro enti ucraini. CERT-UA pubblica IOC e rafforza difese governative.
-
Intelligenza Artificiale
Modelli linguistici di grandi dimensioni LLM ed emergenza: una prospettiva da sistemi complessi
di Redazionedi Redazione 5 minuti di letturaModelli linguistici di grandi dimensioni, emergenza nei sistemi complessi, capacità emergenti, intelligenza, compressione e scaling.
-
Cybercrime
Evasione AI, prompt injection e abuso dei Large Language Model: nuove frontiere del cybercrime
di Livio Varriale 5 minuti di letturaPrompt injection, evasione AI e abuso dei LLM: Check Point e Cisco Talos analizzano le nuove strategie cybercriminali, rischi e …
-
Vulnerabilità
Echo chamber, context poisoning e jailbreak AI: nuove minacce nella sicurezza LLM
di Livio Varriale 2 minuti di letturaNeuralTrust: echo chamber, context poisoning e jailbreak sono nuove minacce per i modelli AI, con rischi su sicurezza, bias e …
Approfondimenti sui Large Language Models (LLM): AI generativa, applicazioni e impatti sull’innovazione