Tech
Garante privacy francese ha in programma protezione contro lo scraping dei dati: cosa cambia per l’AI?
Tempo di lettura: 2 minuti. La CNIL, l’ente di controllo sulla privacy in Francia, ha recentemente pubblicato un piano d’azione per l’IA che pone un accento particolare sulla protezione dei dati e su come potrebbe influenzare lo sviluppo delle tecnologie AI.
Il garante della privacy francese, la CNIL, ha delineato il suo piano d’azione per l’Intelligenza Artificiale (AI), mettendo in luce le aree di maggiore interesse, tra cui le tecnologie generative AI come ChatGPT di OpenAI. Un’attenzione particolare è rivolta all’uso dell’AI nel rispetto della privacy e dei dati personali.
L’impegno della CNIL: un IA che rispetta i dati personali
Uno degli obiettivi principali dell’ente regolatore è guidare lo sviluppo di un’IA che rispetti i dati personali. Per raggiungere tale obiettivo, la CNIL sta lavorando per sviluppare metodi per audire e controllare i sistemi di IA allo scopo di proteggere gli individui. L’ente regolatore francese intende stabilire regole chiare per proteggere i dati personali dei cittadini europei e contribuire allo sviluppo di sistemi di AI rispettosi della privacy.
Lo scraping dei dati e l’IA generativa
Tra i punti su cui la CNIL intende concentrarsi maggiormente, vi è la pratica dello scraping dei dati da parte di alcuni produttori di modelli di IA per la creazione di set di dati utilizzati per l’addestramento dei sistemi di IA, come i grandi modelli di linguaggio (LLM). Questa è un’area di particolare interesse per i produttori di LLM come ChatGPT, che hanno basato il loro lavoro sulla raccolta di enormi quantità di dati web per utilizzarli come materiale di addestramento.
Le sfide legali per gli strumenti come ChatGPT
La creazione di set di dati di addestramento tramite scraping di informazioni personali da internet pone specifiche sfide legali in Europa. Infatti, il Regolamento Generale sulla Protezione dei Dati (GDPR), applicabile dal maggio 2018, richiede che si disponga di una base legale per tale elaborazione. Gli strumenti come ChatGPT devono quindi evitare di infrangere la legge per quanto riguarda l’elaborazione dei dati personali.
Pianificazione della CNIL e possibili implicazioni
Il piano d’azione della CNIL pone l’accento sulla “correttezza e trasparenza dell’elaborazione dei dati sottostante al funzionamento degli strumenti [di AI]” e si prefigge come priorità la protezione dei dati trasmessi dagli utenti quando utilizzano questi strumenti, la tutela contro i bias e la discriminazione che possono verificarsi, e le sfide di sicurezza senza precedenti nel contesto dell’intelligenza artificiale.
Pianificazione della CNIL e possibili implicazioni
L’agenda della CNIL pone un forte enfasi sulla “correttezza e trasparenza dell’elaborazione dei dati” utilizzati per far funzionare gli strumenti di intelligenza artificiale. Questo pone in primo piano la protezione dei dati personali degli utenti che utilizzano questi strumenti, la lotta contro i bias e la discriminazione che possono emergere nell’uso dell’AI, nonché le sfide di sicurezza uniche e senza precedenti che sorgono nel contesto dell’IA.
Protezione dei dati personali e lotta contro i bias
La CNIL è particolarmente attenta alla protezione dei dati personali. L’obiettivo è assicurarsi che gli strumenti di intelligenza artificiale rispettino la privacy e la sicurezza dei dati degli utenti, minimizzando così il rischio di violazioni dei dati. Allo stesso tempo, la CNIL intende affrontare il problema dei bias e delle discriminazioni. Questi possono derivare da algoritmi di intelligenza artificiale mal progettati o da dati di addestramento distorti, portando a decisioni ingiuste o inique.
Nuove sfide di sicurezza nell’era dell’intelligenza artificiale
L’intelligenza artificiale presenta sfide di sicurezza uniche e senza precedenti. Gli algoritmi di apprendimento automatico, ad esempio, possono essere vulnerabili a una serie di attacchi, come quelli che cercano di manipolare i risultati o di rubare dati sensibili. La CNIL è quindi impegnata a individuare e a prevenire tali minacce, assicurando al contempo che gli strumenti di intelligenza artificiale siano sviluppati e utilizzati in modo sicuro e responsabile.
Tech
Vulnerabilità WallEscape in Linux: vecchia di un decennio, ma ancora pericolosa
Tempo di lettura: 2 minuti. Scopri i dettagli della vulnerabilità WallEscape in Linux, che permette di creare falsi prompt sudo e rubare password, e come proteggersi.
Una vulnerabilità nel comando wall del pacchetto util-linux, parte integrante del sistema operativo Linux, è stata scoperta potenzialmente in grado di permettere ad un attaccante non privilegiato di rubare password o alterare gli appunti (clipboard) della vittima. Questo bug, noto come WallEscape e tracciato come CVE-2024-28085, è stato presente in ogni versione del pacchetto negli ultimi 11 anni, fino alla recente release 2.40.
WallEscape colpisce il comando ‘wall’, comunemente utilizzato nei sistemi Linux per trasmettere messaggi ai terminali di tutti gli utenti connessi allo stesso sistema, come un server. L’insufficiente filtraggio delle sequenze di escape durante l’elaborazione dell’input attraverso gli argomenti della riga di comando consente a un utente non privilegiato di sfruttare la vulnerabilità usando caratteri di controllo di escape per creare un falso prompt SUDO sui terminali di altri utenti e indurli a digitare la propria password di amministratore.
Condizioni per l’esposizione
L’exploit di questa vulnerabilità richiede condizioni specifiche: l’utilità mesg deve essere attiva e il comando wall deve avere i permessi setgid. Queste condizioni sono soddisfatte su sistemi come Ubuntu 22.04 LTS (Jammy Jellyfish) e Debian 12.5 (Bookworm), ma non su CentOS.
Scenari di attacco
Uno scenario di attacco include la creazione di un falso prompt sudo per il terminale Gnome, ingannando l’utente affinché digiti la propria password. Questo può essere realizzato inviando tramite il comando wall uno script che modifica l’input nel terminale dell’obiettivo, nascondendo la digitazione e cambiando il colore di primo piano, in modo che il falso prompt per la password appaia come una richiesta legittima.
Un altro metodo di attacco potrebbe mirare a cambiare gli appunti di un utente target attraverso sequenze di escape, sebbene questo metodo non funzioni con tutti gli emulatori di terminali, inclusi quelli di Gnome.
Misure di mitigazione
Gli amministratori di sistema possono mitigare immediatamente CVE-2024-28085 rimuovendo i permessi setgid dal comando ‘wall’ o disabilitando la funzionalità di trasmissione dei messaggi usando il comando ‘mesg’ per impostare la sua flag su ‘n’.
Gli utenti sono invitati ad aggiornare alla versione 2.40 di linux-utils per correggere la vulnerabilità, normalmente disponibile tramite il canale di aggiornamento standard della distribuzione Linux nel gestore di pacchetti, sebbene possano verificarsi dei ritardi.
L’exploit di WallEscape dipende dall’accesso locale (fisico o remoto tramite SSH), limitandone la gravità, ma il rischio persiste per utenti non privilegiati con accesso allo stesso sistema della vittima in contesti multi-utente come i server di un’organizzazione.
Tech
Grok si aggiorna alla versione 1.5: risultati eccezionali in vista?
Tempo di lettura: < 1 minuto. Scopri Grok 1.5, l’ultimo modello AI di X.ai, con avanzamenti significativi in programmazione e matematica e una capacità di contesto estesa.
L’avviamento di Elon Musk, X.ai, è in procinto di introdurre un significativo aggiornamento per il suo chatbot Grok, elevandolo alla versione 1.5. Questo nuovo modello promette avanzamenti notevoli in termini di capacità di ragionamento, soprattutto in ambiti quali la programmazione e la matematica. Grok 1.5 ha infatti ottenuto risultati eccezionali, superando di gran lunga il predecessore nei benchmark matematici MATH e migliorando sensibilmente nelle competenze di generazione del linguaggio di programmazione e risoluzione di problemi, come evidenziato dal test HumanEval.
Contesto ampliato e prestazioni superiori
Una delle migliorie più rilevanti di Grok 1.5 è la sua capacità di gestire un contesto significativamente più ampio, con una finestra di 128.000 token.
Benchmark | Grok-1 | Grok-1.5 | Mistral Large | Claude 2 | Claude 3 Sonnet | Gemini Pro 1.5 | GPT-4 | Claude 3 Opus |
---|---|---|---|---|---|---|---|---|
MMLU | 73% 5-shot | 81.3% 5-shot | 81.2% 5-shot | 75% 5-shot | 79% 5-shot | 83.7% 5-shot | 86.4% 5-shot | 86.8 5-shot |
MATH | 23.9% 4-shot | 50.6% 4-shot | — | — | 40.5% 4-shot | 58.5% 4-shot | 52.9% 4-shot | 61% 4-shot |
GSM8K | 62.9 8-shot | 90% 8-shot | 81% 5-shot | 88% 0-shot CoT | 92.3% 0-shot CoT | 91.7% 11-shot | 92% 5-shot | 95% 0-shot CoT |
HumanEval | 63.2% 0-shot | 74.1% 0-shot | 45.1% 0-shot | 70% 0-shot | 73% 0-shot | 71.9% 0-shot | 67% 0-shot | 84.9% 0-shot |
Questo ampliamento consente al modello di analizzare e utilizzare informazioni estratte da documenti molto più estesi, affrontando prompt più complessi senza perdere di vista le istruzioni ricevute.
Svolta nel dialogo AI
Grok si distingue per la sua tendenza a trattare argomenti spesso evitati da altri modelli AI, inclusi quelli di natura controversa o politica. Questa caratteristica, unita alla capacità di esprimersi con un “tono ribelle” descritto da Musk, rende Grok un modello unico nel suo genere. Non sono ancora chiare le specifiche novità che Grok 1.5 apporterà in questo ambito.
Prossimi passi e accessibilità
Grok 1.5 verrà presto reso disponibile ai tester anticipati sulla piattaforma social X, arricchito da nuove funzionalità che Musk ha lasciato intendere potrebbero includere la sintesi di discussioni e la proposta di contenuti per i post. L’annuncio di Grok 1.5 segue la recente decisione di X.ai di rendere open source il modello base di Grok-1, sebbene senza il codice per il suo ulteriore sviluppo.
Tech
Nuovi iPad Pro e iPad Air in arrivo a maggio: rivoluzione OLED da Apple
Tempo di lettura: 2 minuti. Scopri i dettagli sui prossimi iPad Pro e iPad Air di Apple, con schermi OLED e innovazioni all’avanguardia, previsti per il lancio a maggio.
Le attese novità in casa Apple stanno per diventare realtà: i nuovi modelli di iPad Pro e iPad Air sono previsti per l’inizio di maggio. Questa generazione di iPad Pro sarà caratterizzata da schermi OLED, una feature che ha alimentato il tam tam delle anticipazioni. Per la prima volta, l’iPad Air si presenterà non più come un singolo dispositivo, ma come una serie, disponibile in due dimensioni, seguendo l’esempio della linea iPad Pro.
Dopo oltre un anno dall’ultimo rilascio degli iPad Pro, Apple si appresta a interrompere il più lungo intervallo di tempo mai trascorso senza nuovi lanci nella storia dei suoi tablet. Gli schermi OLED promettono di rendere i nuovi dispositivi estremamente sottili, alzando ulteriormente l’asticella della qualità costruttiva.
Un’Innovazione che vale l’attesa
La produzione dei nuovi iPad è stata intensificata in vista del lancio, con Apple che punta a rinvigorire le vendite dei suoi tablet, in calo negli ultimi anni. In particolare, durante l’ultima stagione natalizia si è registrato un ulteriore decremento del 25%, periodo in cui tradizionalmente gli iPad riscuotevano grande successo come regali.
Caratteristiche all’avanguardia
Gli iPad Pro saranno dotati del nuovo chip M3 e presenteranno versioni aggiornate della Magic Keyboard e dell’Apple Pencil. Quest’ultima potrebbe addirittura essere compatibile con il Vision Pro headset, stando a recenti indiscrezioni. L’iPad Air, dal canto suo, vedrà l’introduzione di un nuovo processore e sarà disponibile anche nella versione da 12.9 pollici, offrendo così un’alternativa più accessibile a chi desidera un dispositivo di dimensioni maggiori senza optare per la versione Pro.
Lancio posticipato per perfezionamenti
Inizialmente previsti per la fine di marzo, i nuovi tablet sono stati posticipati per permettere ad Apple di ultimare lo sviluppo del software. Anche la produzione degli schermi OLED, che richiede tecniche di fabbricazione avanzate, potrebbe aver contribuito al ritardo.L’imminente lancio dei nuovi iPad Pro e iPad Air di maggio segna un momento cruciale per Apple, promettendo di portare innovazione e freschezza nella sua gamma di tablet.
- L'Altra Bolla1 settimana fa
Meta riduce costo abbonamento
- Inchieste7 giorni fa
Elezioni: Google finanzia il Ministero della Verità, Meta alle prese con i Watermark AI
- Notizie6 giorni fa
Sicurezza full-optional: garanzia di un Cloud di qualità
- Economia1 settimana fa
Svolta IA in Microsoft e Google Deep Mind: entrano Mustafa Suleyman e Liz Reid
- Economia4 giorni fa
Apple, Meta e Google nel mirino dell’UE per non conformità al DMA
- Economia4 giorni fa
Chi è Jay Graber? CEO del social decentralizzato BlueSky
- Economia4 giorni fa
Cina ban semiconduttori USA dai PC governativi
- Economia3 giorni fa
Sanzioni USA colpiscono settore crypto per presunti legami con banche russe