Categorie
Sicurezza Informatica

ChatGPT: un’intelligenza artificiale espone email e dati degli utenti

Tempo di lettura: 2 minuti. Scopri come una vulnerabilità ha messo a rischio le informazioni personali degli utenti di ChatGPT e come OpenAI ha affrontato il problema

Tempo di lettura: 2 minuti.

Un bug recentemente scoperto in ChatGPT ha esposto le email e altre informazioni degli utenti, causando preoccupazioni riguardo alla sicurezza dei dati personali. Scopriamo come è stato risolto il problema e quali sono le implicazioni per gli utenti.

La vulnerabilità di ChatGPT e la risposta di OpenAI

Il 20 marzo, utenti su Twitter e Reddit hanno segnalato che domande fatte da altri utenti apparivano nel loro storico delle ricerche, a volte in lingue diverse. OpenAI ha sospeso il servizio ChatGPT per risolvere il problema e, successivamente, lo ha ripristinato.

In alcuni casi, le email di altri utenti sono apparse anche nella pagina di pagamento di ChatGPT Plus. OpenAI ha spiegato che il problema ha interessato l’1,2% dei clienti attivi di ChatGPT Plus e che le informazioni esposte comprendevano le ultime quattro cifre delle carte di credito, ma mai il numero completo. OpenAI ha contattato gli utenti interessati e ha dichiarato che i dati personali non sono più a rischio.

La causa del problema e altre vulnerabilità

OpenAI ha confermato che la vulnerabilità è stata causata da un bug nel client della libreria open source Redis. Il team di OpenAI ha inviato una patch al team di manutenzione di Redis, che ha risolto il problema. È stata segnalata anche un’altra vulnerabilità che consentiva attacchi di spoofing della cache web, che è stata anch’essa risolta.

ChatGPT e gli attacchi informatici

Il team di ricerca ESET ha segnalato vari tentativi di truffa e frode che sfruttano il successo di ChatGPT. Ad esempio, è stata scoperta un’estensione fasulla di Google Chrome chiamata “Quick Access to Chat GPT”, utilizzata dai criminali informatici per rubare account Facebook. Altre estensioni dannose sono state scoperte dai ricercatori di Guardio.

Camilo Gutierrez Amaya, responsabile del laboratorio di ricerca ESET America Latina, afferma che “ChatGPT è attraente per gli attori malintenzionati, sia per utilizzare lo strumento a fini illeciti sia per impersonare e ingannare le persone. Questa tendenza continuerà probabilmente e vedremo altri casi in cui le vulnerabilità vengono sfruttate o tentate per commettere frodi”.

Di Livio Varriale

Giornalista e scrittore: le sue specializzazioni sono in Politica, Crimine Informatico, Comunicazione Istituzionale, Cultura e Trasformazione digitale. Autore del saggio sul Dark Web e il futuro della società digitale “La prigione dell’umanità” e di “Cultura digitale”. Appassionato di Osint e autore di diverse ricerche pubblicate da testate Nazionali. Attivista contro l’abuso dei minori, il suo motto è “Coerenza, Costanza, CoScienza”.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version