Categorie
Economia

PrivateGPT di PrivateAI affronta le preoccupazioni sulla privacy di ChatGPT

Tempo di lettura: 2 minuti. Nuovi strumenti per proteggere i dati sensibili e garantire la privacy degli utenti nelle interazioni con i modelli di linguaggio.

Tempo di lettura: 2 minuti.

PrivateAI, un fornitore di servizi per la privacy dei dati, ha annunciato il lancio di PrivateGPT, uno strato di privacy per i modelli di linguaggio di grandi dimensioni come ChatGPT di OpenAI. L’obiettivo è quello di proteggere le informazioni sensibili e i dati personali degli utenti durante l’interazione con questi sistemi.

Un “strato di privacy” per modelli di linguaggio come ChatGPT

PrivateGPT è stato progettato per oscurare automaticamente le informazioni sensibili e i dati personali identificabili (PII) nei prompt degli utenti. PrivateAI utilizza il suo sistema di intelligenza artificiale proprietario per rimuovere oltre 50 tipi di PII dai prompt degli utenti prima che vengano inviati a ChatGPT, sostituendo i dati con segnaposti per consentire agli utenti di interrogare il modello di linguaggio senza esporre informazioni sensibili a OpenAI.

Aumento delle preoccupazioni sulla protezione dei dati di ChatGPT

Il lancio di PrivateGPT avviene in un momento in cui le preoccupazioni sulla protezione dei dati di OpenAI stanno aumentando. L’Italia ha temporaneamente vietato ChatGPT per motivi di privacy, mentre il commissario federale per la privacy del Canada ha avviato un’indagine separata sull’organizzazione in seguito a una denuncia relativa alla “raccolta, uso e divulgazione di informazioni personali senza consenso”.

La necessità di rendere sicuro l’uso dell’intelligenza artificiale generativa

Secondo Patricia Thaine, co-fondatrice e CEO di Private AI, “l’intelligenza artificiale generativa avrà spazio nelle nostre organizzazioni e società solo se esisteranno gli strumenti giusti per renderla sicura da utilizzare”. ChatGPT non è escluso dalle leggi sulla protezione dei dati come il GDPR, l’HIPAA, il PCI DSS o il CPPA, e la condivisione di informazioni personali con organizzazioni terze comporta la perdita di controllo su come tali dati vengono conservati e utilizzati, mettendo a rischio la conformità.

Altre soluzioni per rafforzare la protezione dei dati di OpenAI

PrivateAI non è l’unica organizzazione ad aver sviluppato una soluzione per migliorare la protezione dei dati di OpenAI. A marzo, il provider di sicurezza cloud Cado Security ha annunciato il rilascio di Masked-AI, uno strumento open source per mascherare i dati sensibili inviati a GPT-4. Come PrivateGPT, anche Masked-AI maschera i dati sensibili sostituendoli con segnaposto prima di inviare una richiesta oscurata all’API di OpenAI.

L’importanza delle tecniche di anonimizzazione dei dati

Le iniziative di PrivateAI e Cado Security dimostrano che le tecniche di anonimizzazione dei dati saranno fondamentali per le organizzazioni che desiderano utilizzare soluzioni come ChatGPT, riducendo al contempo la loro esposizione a terze parti. Questi strumenti aggiuntivi di privacy mettono in evidenza l’esigenza di garantire la sicurezza e la conformità normativa quando si utilizzano modelli di linguaggio di grandi dimensioni.

La crescente importanza della privacy nell’era dell’intelligenza artificiale

Mentre l’intelligenza artificiale e i modelli di linguaggio diventano sempre più diffusi, la privacy e la protezione dei dati degli utenti diventano una priorità cruciale per le aziende e le organizzazioni. Gli strumenti come PrivateGPT e Masked-AI evidenziano l’importanza di sviluppare soluzioni che garantiscano la sicurezza dei dati e rispettino le normative sulla privacy, assicurando al contempo l’efficacia e la funzionalità delle tecnologie basate sull’intelligenza artificiale.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version