Categorie
Sicurezza Informatica

ChatGPT a rischio: 225.000 account compromessi nel dark web

Tempo di lettura: 2 minuti. Oltre 225.000 credenziali di ChatGPT compromesse da malware, con un aumento del 36% degli incidenti le aziende devono rafforzare la sicurezza

Tempo di lettura: 2 minuti.

Una recente indagine condotta dai ricercatori di Group-IB ha portato alla luce un inquietante scenario nel quale almeno 225.000 credenziali di OpenAI, utilizzabili per accedere a ChatGPT, sono state messe in vendita nel dark web. Queste credenziali, compromesse da malware infostealer tra gennaio e ottobre 2023, provengono da dispositivi infettati da varianti di malware come LummaC2, Raccoon e RedLine, specializzati nel raccogliere dettagli sensibili quali credenziali di accesso e informazioni finanziarie.

Crescita degli incidenti e metodi di compromissione

L’indagine ha rivelato un incremento del 36% nel numero di credenziali di ChatGPT trapelate tra i primi cinque e gli ultimi cinque mesi del periodo di studio, con un picco di 33.080 credenziali sottratte nell’ultimo mese. LummaC2 è emerso come la fonte principale di queste credenziali tra giugno e ottobre 2023, seguito da Raccoon e RedLine.

Implicazioni per le Aziende

La compromissione delle credenziali di ChatGPT solleva preoccupazioni significative, soprattutto perché molte aziende stanno integrando ChatGPT nei loro flussi operativi. I dipendenti che inseriscono corrispondenze riservate o utilizzano il bot per ottimizzare il codice proprietario potrebbero involontariamente esporre informazioni sensibili agli attori minacciosi in caso di compromissione delle credenziali dell’account.

Uso rischioso dell’IA Generativa

Studi paralleli hanno evidenziato l’uso rischioso dell’IA generativa da parte dei dipendenti aziendali, con una percentuale significativa che incolla dati sensibili in applicazioni di IA generativa. Questo comportamento aumenta il rischio di perdite di dati riservati, inclusi dati aziendali interni, codice sorgente e informazioni personalmente identificabili (PII).

Raccomandazioni di Sicurezza

Per prevenire la fuga di informazioni sensibili attraverso l’uso dell’IA generativa, le organizzazioni sono invitate a implementare controlli di copia e incolla che impediscono l’inserimento di grandi quantità di testo o codice proprietario noto nei campi di input e ad applicare controlli di sicurezza a livello di gruppo per l’IA generativa anziché bloccare i siti di IA generativa su base dominio per dominio.

Il furto di credenziali di ChatGPT e la relativa vendita nel Dark Web su vasta scala sottolinea la necessità di una maggiore consapevolezza e di misure di sicurezza robuste per proteggere le informazioni sensibili in un’epoca in cui l’IA generativa diventa sempre più integrata nei processi aziendali.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version