Categorie
Sicurezza Informatica

ChatGpt esperta di hacking? La leggenda è durata poco

ANY.RUN, un’azienda specializzata nella sicurezza informatica, ha testato ChatGPT, un chatbot creato da OpenAI, per verificare se può aiutare ad analizzare i malware. Durante i test, ChatGPT è stato alimentato con codice malevolo di varia complessità e gli è stato chiesto di spiegare il suo scopo.

Annunci

Il chatbot è stato in grado di riconoscere e spiegare il codice malevolo semplice, ma ha mostrato difficoltà con codice più complesso, che è più simile a quello che ci si potrebbe aspettare di trovare nella realtà così come è stato anticipato da Matrice Digitale nella sua prova.

ChatGPT disattiva l’accesso a Internet: la prova è disastrosa. E già dice bugie …

Sebbene le prestazioni di ChatGPT siano state impressionanti finora, l’AI ha difficoltà ad affrontare situazioni reali con codice più complesso.

Di Livio Varriale

Giornalista e scrittore: le sue specializzazioni sono in Politica, Crimine Informatico, Comunicazione Istituzionale, Cultura e Trasformazione digitale. Autore del saggio sul Dark Web e il futuro della società digitale “La prigione dell’umanità” e di “Cultura digitale”. Appassionato di Osint e autore di diverse ricerche pubblicate da testate Nazionali. Attivista contro l’abuso dei minori, il suo motto è “Coerenza, Costanza, CoScienza”.

Exit mobile version