OpenAI ha recentemente identificato e disattivato una serie di account ChatGPT utilizzati in un’operazione di influenza covert iraniana, nota come “Storm-2035”, che mirava a manipolare l’opinione pubblica e influenzare i risultati politici, con particolare enfasi sulle elezioni presidenziali statunitensi del 2024. Questa scoperta sottolinea l’importanza del monitoraggio continuo e dell’intervento proattivo per prevenire l’abuso delle tecnologie AI in contesti politici e sociali sensibili.
L’operazione “Storm-2035” utilizzava ChatGPT per generare una vasta gamma di contenuti, inclusi articoli di lunga durata e commenti brevi destinati ai social media. Questi contenuti coprivano una serie di argomenti sensibili, come il conflitto in Gaza, la presenza di Israele ai Giochi Olimpici, e le elezioni presidenziali statunitensi. Inoltre, l’operazione toccava temi legati alla politica venezuelana, ai diritti delle comunità Latinx negli Stati Uniti (in inglese e spagnolo), e all’indipendenza scozzese. Gli operatori intercalavano questi contenuti politici con post su moda e bellezza, nel tentativo di apparire più autentici e costruire un seguito online.
Sebbene l’operazione non abbia raggiunto un significativo coinvolgimento del pubblico—con la maggior parte dei post sui social media che non hanno ricevuto interazioni—OpenAI ha preso sul serio questi tentativi di utilizzare la sua tecnologia per scopi di influenza straniera. Dopo aver identificato e disabilitato gli account coinvolti, OpenAI ha condiviso informazioni cruciali con governi, campagne e partner industriali per supportare la comunità nella lotta contro queste attività.
Questa operazione segue una tendenza simile a quella segnalata da OpenAI in precedenza, dove le operazioni di influenza covert non hanno avuto un impatto significativo sull’opinione pubblica, ma rappresentano comunque un rischio che non può essere ignorato. Utilizzando i suoi modelli AI, OpenAI è stata in grado di rilevare e comprendere meglio questi abusi, rafforzando il suo impegno a combattere l’uso malintenzionato dell’AI su larga scala.