ChatGpt esperta di hacking? La leggenda è durata poco

da Livio Varriale
0 commenti 1 minuti leggi

ANY.RUN, un’azienda specializzata nella sicurezza informatica, ha testato ChatGPT, un chatbot creato da OpenAI, per verificare se può aiutare ad analizzare i malware. Durante i test, ChatGPT è stato alimentato con codice malevolo di varia complessità e gli è stato chiesto di spiegare il suo scopo.

Annunci

Il chatbot è stato in grado di riconoscere e spiegare il codice malevolo semplice, ma ha mostrato difficoltà con codice più complesso, che è più simile a quello che ci si potrebbe aspettare di trovare nella realtà così come è stato anticipato da Matrice Digitale nella sua prova.

ChatGPT disattiva l’accesso a Internet: la prova è disastrosa. E già dice bugie …

Sebbene le prestazioni di ChatGPT siano state impressionanti finora, l’AI ha difficoltà ad affrontare situazioni reali con codice più complesso.

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara