Categorie
Sicurezza Informatica

La polizia cinese sventa un’operazione di video falsi creati con ChatGPT

Tempo di lettura: < 1 minuto. La polizia cinese ha smantellato una banda che utilizzava ChatGPT per creare video falsi, evidenziando la necessità di regolamentare l’uso della tecnologia AI.

Tempo di lettura: < 1 minuto.

La polizia in Cina ha recentemente sgominato una banda che utilizzava ChatGPT, un chatbot AI sviluppato da OpenAI, per creare video falsi. Questo caso mette in evidenza le sfide e i rischi associati all’uso della tecnologia AI e sottolinea l’importanza di una regolamentazione efficace.

Il divieto di ChatGPT in Cina

I regolatori cinesi hanno imposto restrizioni sull’accesso a ChatGPT. Tuttavia, molte persone in Cina accedevano a ChatGPT tramite VPN e programmi di terze parti. La Cina vede la capacità di ChatGPT di generare testo come una minaccia al suo controllo sull’informazione.

Il caso della frode video ChatGPT

Dopo un’indagine, la polizia di Shaoxing ha scoperto che la banda aveva acquistato illegalmente un gruppo di account video per utilizzare ChatGPT nella creazione di video falsi. La polizia non ha fornito dettagli sul contenuto dei video falsi. Questo non è il primo caso in cui ChatGPT è stato utilizzato per creare notizie false in Cina.

Misure di mitigazione e consapevolezza della sicurezza

GitHub è a conoscenza del problema e ha dichiarato di avere piani per affrontarlo. Nel frattempo, il ricercatore di sicurezza Felix Pankratz ha reso disponibile uno script Python che può essere utilizzato per testare le discrepanze nei moduli npm. Il caso di frode video ChatGPT rivela la necessità di regolamentazione e controllo della tecnologia AI in Cina. La repressione della banda che ha utilizzato ChatGPT per creare video falsi è un passo nella giusta direzione per garantire che la tecnologia AI venga utilizzata in modo responsabile ed etico.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version