Categorie
Tech

Chatbot IA come ChatGPT e Bard sono stati sbloccati

Tempo di lettura: 2 minuti. Un nuovo studio rivela un metodo per eludere le misure di sicurezza dei chatbot IA come ChatGPT e Bard, sollevando preoccupazioni sulla generazione di contenuti dannosi.

Tempo di lettura: 2 minuti.

I chatbot basati sull’intelligenza artificiale (IA) come ChatGPT e Bard sono diventati strumenti popolari per la generazione di testo. Tuttavia, un recente rapporto di ricercatori della Carnegie Mellon University e del Center for AI Safety di San Francisco ha rivelato un metodo relativamente semplice per eludere le misure di sicurezza utilizzate per prevenire la generazione di discorsi d’odio, disinformazione e materiali tossici.

Il Metodo di Elusione

Il metodo di elusione scoperto dai ricercatori consiste nell’aggiungere suffissi lunghi di caratteri alle richieste inviate ai chatbot come ChatGPT, Claude e Google Bard. Ad esempio, hanno chiesto al chatbot un tutorial su come fabbricare una bomba, che il chatbot ha rifiutato di fornire. Tuttavia, utilizzando il metodo di elusione, sono stati in grado di aggirare le restrizioni.

I ricercatori hanno sottolineato che, sebbene le aziende dietro questi grandi modelli di linguaggio, come OpenAI e Google, possano bloccare suffissi specifici, non esiste un modo noto per prevenire tutti gli attacchi di questo tipo.

Preoccupazioni e Risposte

Lo studio ha evidenziato l’aumento delle preoccupazioni che i chatbot IA potrebbero inondare Internet con contenuti pericolosi e disinformazione. Zico Kolter, professore alla Carnegie Mellon e autore del rapporto, ha dichiarato: “Non c’è una soluzione ovvia. Puoi creare quanti più attacchi di questi vuoi in poco tempo.”

I risultati sono stati presentati agli sviluppatori IA di Anthropic, Google e OpenAI per le loro risposte. Hannah Wong, portavoce di OpenAI, ha dichiarato che apprezzano la ricerca e stanno “lavorando costantemente per rendere i nostri modelli più robusti contro gli attacchi avversari.”

Un professore specializzato in sicurezza IA presso l’Università del Wisconsin-Madison, Somesh Jha, ha commentato che se queste vulnerabilità continuano ad essere scoperte, “potrebbe portare a una legislazione governativa volta a controllare questi sistemi.”

La ricerca sottolinea i rischi che devono essere affrontati prima di implementare i chatbot in ambiti sensibili. Mentre i chatbot IA offrono enormi vantaggi in termini di generazione di testo e interazione, le preoccupazioni sulla sicurezza e l’integrità dei contenuti generati non possono essere ignorate. Questo studio rappresenta un importante passo avanti nella comprensione delle potenziali minacce e nella ricerca di soluzioni per garantire che i chatbot IA siano utilizzati in modo responsabile e sicuro.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version