Categorie
Economia

Preoccupazioni sulla sicurezza di ChatGPT: molti consumatori scettici

Tempo di lettura: 2 minuti. Un sondaggio rivela che l’81% dei consumatori è preoccupato per i rischi di sicurezza legati a ChatGPT, il modello di linguaggio di OpenAI, e il 63% non si fida delle informazioni che fornisce.

Tempo di lettura: 2 minuti.

ChatGPT, il noto modello di linguaggio di grandi dimensioni sviluppato da OpenAI, sta suscitando preoccupazioni tra i consumatori riguardo alla sua accuratezza e sicurezza. Secondo un sondaggio condotto da Malwarebytes, un fornitore di antivirus, l’81% dei consumatori è preoccupato per i rischi di sicurezza che ChatGPT potrebbe comportare, mentre il 63% non si fida delle informazioni fornite dal modello.

Perché la preoccupazione?

Mark Stockley, evangelista della cybersecurity presso Malwarebytes, ha affermato che l’incertezza su come ChatGPT possa cambiare le nostre vite è aggravata dai modi misteriosi in cui funziona. Inoltre, ci sono preoccupazioni riguardo al fatto che le aziende che utilizzano ChatGPT possano alimentare il modello con dati sensibili dell’azienda o dei clienti. Samsung, ad esempio, ha imparato a sue spese quando i dipendenti hanno inserito informazioni aziendali confidenziali in ChatGPT. Samsung ha ora vietato l’uso di ChatGPT ai suoi dipendenti, sebbene abbia una versione contenuta che conserva i dati internamente.

Integrità testuale e conformità GDPR

Il professor Uri Gal della University of Sydney Business School sostiene che ChatGPT violi il principio legale dell’integrità testuale riguardo alla grande quantità di dati che utilizza per addestrare i suoi modelli. Inoltre, sottolinea che potrebbe non essere conforme al GDPR, poiché non esiste un modo chiaro per verificare se i dati personali degli utenti siano memorizzati da OpenAI o per richiederne l’eliminazione. Questo è uno dei motivi per cui l’Italia ha vietato il chatbot a livello nazionale.

Reazioni dell’industria

La dichiarazione sul rischio dell’IA del Center of AI Safety, firmata da figure importanti dell’industria, tra cui il CEO di OpenAI, Sam Altman, avverte che l’IA minaccia l’esistenza stessa dell’umanità. Molti esperti nei campi dell’IA, della sicurezza e della privacy esprimono preoccupazioni simili, sebbene in modi meno drammatici. Le preoccupazioni riguardo alla sicurezza e all’accuratezza di ChatGPT evidenziano l’importanza della trasparenza e della responsabilità nell’uso dei modelli di linguaggio AI. È essenziale che le aziende e gli sviluppatori prendano sul serio queste preoccupazioni e lavorino per garantire che l’IA sia utilizzata in modo responsabile esicuro, proteggendo i dati sensibili e mantenendo la fiducia dei consumatori.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version