ANY.RUN, un’azienda specializzata nella sicurezza informatica, ha testato ChatGPT, un chatbot creato da OpenAI, per verificare se può aiutare ad analizzare i malware. Durante i test, ChatGPT è stato alimentato con codice malevolo di varia complessità e gli è stato chiesto di spiegare il suo scopo.
Il chatbot è stato in grado di riconoscere e spiegare il codice malevolo semplice, ma ha mostrato difficoltà con codice più complesso, che è più simile a quello che ci si potrebbe aspettare di trovare nella realtà così come è stato anticipato da Matrice Digitale nella sua prova.
ChatGPT disattiva l’accesso a Internet: la prova è disastrosa. E già dice bugie …
Sebbene le prestazioni di ChatGPT siano state impressionanti finora, l’AI ha difficoltà ad affrontare situazioni reali con codice più complesso.