Sommario
Europol ha emesso un severo monito riguardo ai pericoli derivanti dai modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT. In un rapporto, l’agenzia mette in evidenza come questi strumenti possano essere facilmente utilizzati per scopi illeciti, come frodi, ingegneria sociale, crimini informatici e disinformazione, delineando prospettive “cupe” per l’applicazione della legge.
ChatGPT e il rischio di frodi e phishing
La capacità di ChatGPT di generare testi estremamente realistici lo rende uno strumento utile per scopi di phishing, afferma Europol. I modelli di linguaggio di grandi dimensioni sono in grado di riprodurre schemi linguistici, permettendo loro di imitare lo stile di discorso di individui o gruppi specifici. Tale capacità può essere facilmente abusata su larga scala per indurre le vittime a riporre fiducia nelle mani di attori criminali.
Propaganda e disinformazione
La stessa abilità di generare testi realistici consente agli LLM di essere utilizzati per scopi di propaganda e disinformazione, creando messaggi con poco sforzo. Inoltre, la capacità di generare codice rende possibile per i criminali con conoscenze tecniche limitate produrre codici dannosi.
Le misure di sicurezza di GPT-4 non sono sufficienti
Nonostante il creatore di ChatGPT, OpenAI, affermi di aver incluso maggiori misure di sicurezza nella versione più recente, GPT-4, Europol sostiene che queste non siano sufficienti. In alcuni casi, le risposte potenzialmente dannose di GPT-4 sono risultate essere ancora più avanzate.
Raccomandazioni di Europol
Il rapporto di Europol suggerisce diverse raccomandazioni, tra cui: aumentare la consapevolezza riguardo ai problemi legati agli LLM, coinvolgere il settore tecnologico per introdurre controlli, riconoscere che gli LLM possono essere utilizzati per molti tipi di reati oltre ai crimini online e migliorare la competenza interna delle forze dell’ordine, sviluppando eventualmente i propri LLM.