Iniezione prompt in OpenAI Atlas Omnibox trasforma URL malformati in jailbreakVulnerabilità / Redazione / 27 Ottobre 2025
Jailbreak di GPT-5: echo chamber e storytelling per aggirare le protezioni AIVulnerabilità / Redazione / 11 Agosto 2025
Echo chamber, context poisoning e jailbreak AI: nuove minacce nella sicurezza LLMVulnerabilità / Livio Varriale / 23 Giugno 2025