Categorie
Sicurezza Informatica

OpenAI, “Soluzione Imperfetta” per fuga dati di ChatGPT

Tempo di lettura: 2 minuti.

OpenAI ha mitigato un bug di esfiltrazione dati in ChatGPT che potrebbe potenzialmente far trapelare dettagli delle conversazioni a un URL esterno. Secondo il ricercatore che ha scoperto la falla, la mitigazione non è perfetta, quindi gli aggressori possono ancora sfruttarla in determinate condizioni. Inoltre, i controlli di sicurezza devono ancora essere implementati nell’app mobile iOS per ChatGPT, quindi il rischio su quella piattaforma rimane irrisolto.

Problema della Fuga di Dati

Il ricercatore di sicurezza Johann Rehberger ha scoperto una tecnica per esfiltrare dati da ChatGPT e l’ha segnalata a OpenAI nell’aprile 2023. Il ricercatore ha poi condiviso nel novembre 2023 ulteriori informazioni su come creare GPT dannosi che sfruttano la falla per ingannare gli utenti. Dopo la mancanza di risposta da parte del fornitore del chatbot, il ricercatore ha deciso di divulgare pubblicamente le sue scoperte il 12 dicembre 2023.

Funzionamento dell’Attacco

L’attacco coinvolge il rendering di markdown di immagini e l’iniezione di prompt, quindi richiede che la vittima invii un prompt dannoso fornito direttamente dall’attaccante o pubblicato da qualche parte perché le vittime lo scoprono e lo utilizzino. In alternativa, può essere utilizzato un GPT dannoso, come dimostrato da Rehberger, e gli utenti che utilizzano quel GPT non si renderebbero conto che i dettagli delle loro conversazioni, insieme a metadati e dati tecnici, vengono esfiltrati a terzi.

Soluzione Incompleta di OpenAI

Dopo che Rehberger ha pubblicizzato i dettagli della falla sul suo blog, OpenAI ha risposto alla situazione e ha implementato controlli lato client eseguiti tramite una chiamata a un’API di convalida per impedire il rendering di immagini da URL non sicuri. Tuttavia, in alcuni casi, ChatGPT continua a rendere richieste a domini arbitrari, quindi l’attacco potrebbe ancora funzionare a volte. È anche da notare che la chiamata di convalida lato client deve ancora essere implementata sull’app mobile iOS, quindi l’attacco rimane completamente non mitigato lì.

La mitigazione del bug di esfiltrazione dati in ChatGPT da parte di OpenAI rappresenta un passo importante nella protezione delle informazioni degli utenti, ma rimangono delle lacune che necessitano di ulteriori miglioramenti per garantire una sicurezza completa.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version