Categorie
L'Altra Bolla

CounterCloud: macchina disinformazione AI anti-Russia costruita con soli $400

Tempo di lettura: 2 minuti. Un progetto chiamato CounterCloud utilizza l’AI per generare contenuti che contrattaccano le critiche russe verso gli USA, evidenziando il potenziale pericolo della disinformazione AI.

Tempo di lettura: 2 minuti.

Un recente progetto ha svelato come sia possibile utilizzare l’intelligenza artificiale per creare campagne di disinformazione sofisticate. Attraverso un account chiamato CounterCloud, sono stati generati contenuti che contrattaccavano le critiche russe verso gli Stati Uniti, utilizzando algoritmi AI.

Il progetto CounterCloud

Nel maggio scorso, Sputnik International, un media di proprietà statale russo, ha pubblicato una serie di tweet critici verso la politica estera degli Stati Uniti e l’amministrazione Biden. Questi tweet hanno ricevuto risposte rapide e ben formulate da CounterCloud. Sorprendentemente, sia i tweet che gli articoli collegati erano generati interamente da algoritmi di intelligenza artificiale. L’ideatore del progetto, che si fa chiamare Nea Paw, ha rivelato che l’obiettivo era evidenziare il pericolo della disinformazione AI prodotta in massa.

Tecnologia dietro CounterCloud

Paw ha utilizzato la tecnologia di generazione di testo di OpenAI, simile a quella dietro ChatGPT, e altri strumenti AI facilmente accessibili per generare fotografie e illustrazioni. Il costo totale del progetto è stato di circa $400. Paw sottolinea come gli strumenti generativi AI disponibili al pubblico rendano molto più semplice creare campagne informative sofisticate che promuovono propaganda sostenuta dallo stato.

Implicazioni e rischi

Renee DiResta, responsabile della ricerca tecnica presso lo Stanford Internet Observatory, ha affermato che i contenuti generati come parte del progetto CounterCloud sono piuttosto convincenti. La diffusione di contenuti falsi su larga scala è una sfida, ma può essere facilitata pagando utenti influenti per condividerli. Inoltre, ci sono state segnalazioni di campagne di disinformazione online alimentate da AI. Ad esempio, una botnet incentrata sulla criptovaluta sembra essere stata alimentata da ChatGPT.

Reazione di OpenAI

Sam Altman, CEO di OpenAI, ha espresso preoccupazione per l’uso potenziale dell’intelligenza artificiale della sua azienda nella creazione di disinformazione automatizzata su larga scala. Anche se OpenAI aveva inizialmente vietato qualsiasi uso politico della sua tecnologia di generazione di testo, ha recentemente aggiornato la sua politica per proibire l’uso mirato alla produzione di massa di messaggi per particolari demografie.

Con una miriade di strumenti AI simili ora ampiamente disponibili, compresi modelli open source che possono essere sviluppati con poche restrizioni, è essenziale che gli elettori diventino consapevoli dell’uso dell’AI in politica il prima possibile.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version