Intelligenza Artificiale
GPT-4 mostra capacità di sfruttare vulnerabilità leggendo Avvisi di Sicurezza
Tempo di lettura: 2 minuti. Scopri come GPT-4 può sfruttare vulnerabilità reali, un rischio emergente per la sicurezza informatica che richiede misure proattive.
Un recente studio condotto da quattro scienziati informatici dell’Università dell’Illinois a Urbana-Champaign ha dimostrato che il modello di linguaggio GPT-4 di OpenAI è in grado di sfruttare vulnerabilità reali nei sistemi informatici leggendo semplicemente le descrizioni delle vulnerabilità, come quelle riportate nei CVE (Common Vulnerabilities and Exposures).
Metodologia della ricerca
I ricercatori hanno testato GPT-4 su un set di 15 vulnerabilità, denominate “vulnerabilità di un giorno”, che sono state rese note ma non ancora corrette al momento del test. Queste vulnerabilità includono problemi classificati come di “criticità elevata”. GPT-4 è riuscito a sfruttare con successo l’87% di queste vulnerabilità, un risultato significativamente superiore rispetto ad altri modelli come GPT-3.5 e diversi scanner di vulnerabilità open-source.
Implicazioni e potenziali futuri
I risultati suggeriscono che i modelli di linguaggio avanzati potrebbero diventare strumenti potenti per gli hacker, potenzialmente superando le capacità degli attuali script kiddie. GPT-4 ha mostrato di poter eseguire autonomamente i passaggi per effettuare determinati exploit che gli scanner di vulnerabilità open-source non riescono a rilevare. Questa capacità si estende a seguire i link contenuti nelle descrizioni dei CVE per ottenere ulteriori informazioni, rendendo questi agenti molto efficaci nell’exploitation.
Risultati specifici e limitazioni
La ricerca ha evidenziato che negare a GPT-4 l’accesso alla descrizione del CVE ha ridotto drasticamente la sua efficacia, abbassando il tasso di successo dal 87% al 7%. Questo sottolinea l’importanza delle informazioni dettagliate nel facilitare gli exploit. Tuttavia, i ricercatori hanno notato che il modello ha fallito nell’exploitare due delle 15 vulnerabilità a causa di problemi specifici relativi all’interfaccia utente o alla barriera linguistica (una descrizione in cinese).
Conclusioni e raccomandazioni
Questo studio evidenzia l’urgenza di misure di sicurezza proattive, come l’aggiornamento regolare dei pacchetti software quando vengono rilasciate patch di sicurezza, per contrastare le potenziali minacce rappresentate dall’uso di modelli di linguaggio avanzati per scopi malevoli. I ricercatori hanno sottolineato che “la sicurezza attraverso l’oscurità” non è una strategia sostenibile e sperano che i loro risultati spingano verso una maggiore consapevolezza e azioni preventive.
Riflessioni finali
Questo studio sottolinea come l’intelligenza artificiale, particolarmente in forma di grandi modelli di linguaggio, stia diventando una doppia lama, con capacità che possono essere utilizzate tanto per scopi costruttivi quanto distruttivi. L’adeguamento delle politiche di sicurezza informatica diventa quindi essenziale per prevenire l’abuso di tali tecnologie.
Intelligenza Artificiale
OpenAI accordo strategico con il Financial Times
Tempo di lettura: 2 minuti. OpenAI forma una partnership strategica con il Financial Times, includendo l’uso di contenuti per addestrare i suoi modelli AI
OpenAI ha firmato un significativo accordo di licenza con il Financial Times (FT), segnando un ulteriore passo nel coinvolgimento di importanti organizzazioni giornalistiche nel suo ecosistema AI. Questa collaborazione non solo permette a OpenAI di utilizzare i contenuti del FT per addestrare i suoi modelli di intelligenza artificiale, ma apre anche la strada a sviluppi futuri di prodotti AI che potrebbero beneficiare sia i lettori del FT che gli utenti di OpenAI.
Dettagli dell’accordo
L’accordo con il Financial Times è descritto come una partnership strategica e di licenza, indicando un legame più stretto rispetto ad altri accordi di OpenAI con editori. Sebbene sia un’intesa non esclusiva e non comporti una partecipazione di OpenAI nel FT, il patto consente a OpenAI di sfruttare i contenuti del FT per addestrare i suoi modelli AI e, ove appropriato, per mostrare risposte generate dall’AI nei suoi strumenti come ChatGPT.
Implicazioni strategiche
Il FT utilizzerà questa collaborazione per migliorare la propria comprensione dell’AI generativa, particolarmente come strumento di scoperta di contenuti, e per sviluppare “nuovi prodotti e funzionalità AI per i lettori del FT”. Inoltre, il FT ha già iniziato a utilizzare prodotti OpenAI, inclusa la versione Enterprise di ChatGPT, e prevede di esplorare ulteriormente l’uso dell’AI, pur mantenendo un occhio critico sulla affidabilità delle uscite automatizzate e i potenziali rischi per la fiducia dei lettori.
Benefici e Rischi per il Financial Times
Mentre l’accordo offre al FT una fonte di entrate tramite la licenza dei suoi contenuti, pone anche la pubblicazione di fronte alla sfida di bilanciare l’uso dell’AI con l’impegno nella produzione di giornalismo umano. John Ridding, CEO del Financial Times Group, sottolinea che è giusto che le piattaforme AI paghino gli editori per l’uso dei loro materiali, riconoscendo il valore del giornalismo di qualità e l’importanza di incorporare fonti affidabili nei prodotti AI.
Contesto Legale e Industriale
Questo movimento da parte di OpenAI si inserisce in un contesto più ampio di legalità e responsabilità nel campo dell’AI. Dopo che il New York Times ha citato in giudizio OpenAI per presunto uso non autorizzato dei suoi contenuti, l’accordo con il FT può essere visto come un tentativo di mitigare rischi legali futuri e di stabilire un modello sostenibile per il pagamento dei contenuti giornalistici utilizzati per addestrare modelli di linguaggio.
L’accordo tra OpenAI e il Financial Times rappresenta un’importante evoluzione nelle interazioni tra grandi piattaforme AI e l’industria editoriale, con implicazioni che vanno dalla creazione di nuovi prodotti AI all’adattamento delle pratiche giornalistiche in risposta alle tecnologie emergenti. Sarà interessante vedere come questo accordo influenzerà le operazioni e la strategia a lungo termine del FT e come modellerà il futuro dell’interazione tra AI e giornalismo.
Intelligenza Artificiale
ChatGPT di OpenAI sotto accusa in UE per violazioni del GDPR
Tempo di lettura: 2 minuti. OpenAI affronta una nuova denuncia per violazione del GDPR in UE, sollevata da noyb per errata gestione dei dati personali.
OpenAI, il colosso dell’intelligenza artificiale, è nuovamente al centro delle attenzioni per una presunta violazione del Regolamento Generale sulla Protezione dei Dati (GDPR) nell’Unione Europea. L’ultima denuncia è stata presentata dall’organizzazione no profit per i diritti alla privacy, noyb, a nome di un individuo che ha rilevato informazioni errate generate dal chatbot ChatGPT riguardanti la propria data di nascita.
Conflitto tecnologico e normativo
La capacità dei strumenti di intelligenza artificiale di generare informazioni errate è ben documentata e solleva significative preoccupazioni in termini di conformità al GDPR, che regola il trattamento dei dati personali degli utenti nell’UE. Le sanzioni per mancata conformità possono raggiungere fino al 4% del fatturato globale annuale, ma più importante per una realtà risorsata come OpenAI potrebbe essere l’ordine di modifica del processo di gestione delle informazioni da parte dei regolatori della protezione dei dati. Questo potrebbe riformare il modo in cui gli strumenti di AI generativa operano nell’UE.
L’azione di noyb e la risposta di OpenAI
Noyb ha depositato l’ultima denuncia contro ChatGPT presso l’autorità austriaca per la protezione dei dati, contestando la risposta di OpenAI alla richiesta di correzione dei dati errati. Secondo noyb, OpenAI non ha soddisfatto l’obbligazione di correggere i dati errati generati dal suo chatbot. La società ha risposto che tecnicamente le correzioni dirette non sono possibili, offrendo piuttosto di filtrare o bloccare i dati su specifiche sollecitazioni, come il nome del denunciante.
Implicazioni e indagini in corso
Questa non è la prima volta che OpenAI si trova a dover gestire problemi legati al GDPR. Analoghe denunce sono state presentate in Italia e Polonia, con indagini ancora in corso che potrebbero imporre a OpenAI di affrontare una serie di enforcement del GDPR in diversi Stati membri. L’apertura di un ufficio regionale a Dublino potrebbe essere una mossa strategica per ridurre il rischio regolatorio, centralizzando le denunce sulla privacy tramite la Commissione per la Protezione dei Dati dell’Irlanda.
Intelligenza Artificiale
Intel “Hala Point”: sistema neuromorfico ispirato al cervello umano
Tempo di lettura: 2 minuti. Intel lancia “Hala Point”, sistema neuromorfico per rivoluzionare velocità e efficienza, ispirato al cervello umano.
Intel ha fatto un significativo passo avanti nel campo dei sistemi neuromorfici con il lancio di “Hala Point”, un dispositivo ispirato alla struttura cerebrale umana che mira a migliorare radicalmente la velocità e l’efficienza energetica dei sistemi computazionali. Il nuovo sistema è stato sviluppato per il Sandia National Laboratories in New Mexico.
Caratteristiche di Hala Point
Nonostante le dimensioni contenute, simili a quelle di un forno a microonde, Hala Point integra 1.15 miliardi di neuroni artificiali, dimostrandosi dieci volte più veloce e quindici volte più denso del suo predecessore, Pohoiki Springs. Equipaggiato con 1,152 processori di ricerca Loihi 2, il nuovo sistema neuromorfico di Intel è progettato per superare le barriere delle convenzionali architetture di calcolo, offrendo un’elaborazione dei dati più efficiente e accurata.
Utilizzo e potenziale di Hala Point
Il sistema sarà impiegato per esplorare nuove frontiere nel calcolo neuromorfico su larga scala. I ricercatori del Sandia National Laboratories svilupperanno algoritmi speciali per sfruttare appieno le capacità di Hala Point. L’obiettivo è creare un sistema basato sul modello del cervello umano con capacità di elaborazione, risposta e apprendimento dai dati reali senza precedenti.
Confronto con il cervello umano e l’AI Tradizionale
Una delle differenze fondamentali tra i sistemi neuromorfici e i computer tradizionali sta nella modalità di elaborazione dei dati: nei sistemi neuromorfici, come nei cervelli umani, il calcolo è distribuito tra molti neuroni in parallelo, mentre nei computer tradizionali avviene in serie. Questo approccio parallelo consente ai sistemi neuromorfici di eseguire calcoli più complessi e veloci, una caratteristica fondamentale per il miglioramento delle prestazioni.
Il lancio di Hala Point segna un punto di svolta per Intel nel campo del calcolo neuromorfico, offrendo prospettive entusiasmanti per il futuro della tecnologia. Con le sue capacità avanzate, Hala Point potrebbe rivoluzionare il modo in cui i computer elaborano e interagiscono con i dati, avvicinandosi sempre più alle funzionalità del cervello umano.
- Notizie2 settimane fa
Kapeka: nuova backdoor di Sandworm per l’Est Europa
- Cyber Security2 settimane fa
Fortinet: vulnerabilità FortiClient EMS minaccia le aziende media
- L'Altra Bolla2 settimane fa
Truth Social di Trump lancia una Piattaforma di Streaming TV Live
- Editoriali2 settimane fa
Università, Israele e licenziamenti BigTech
- Robotica2 settimane fa
Atlas di Boston Dynamics non è morto
- L'Altra Bolla2 settimane fa
TikTok Notes: novità sulla prossima App concorrente di Instagram
- Editoriali1 settimana fa
MITRE vittima di zero day Ivanti: anche i migliori le prendono
- L'Altra Bolla2 settimane fa
LinkedIn: Pagine Aziendali Premium con Intelligenza Artificiale