Sommario
I chatbot come ChatGPT e Bard possono generare conversazioni sorprendenti, ma in realtà sono solo esempi di modelli linguistici di grandi dimensioni (LLM). Questi modelli sono addestrati a identificare sequenze probabili di parole e a generare testo coerente e convincente. Tuttavia, non hanno la capacità di comprendere il significato delle parole o dei dati.
Limiti dei chatbot
I chatbot basati su LLM non possono superare le sfide del Winograd Schema, un test che valuta se un’intelligenza artificiale può comprendere il linguaggio. LLMs fatica ancora con queste sfide, nonostante abbiano a disposizione enormi database di testi su cui addestrarsi.
Esempi di interazioni con LLM
Gli autori dell’articolo originale hanno testato ChatGPT e Bard con diversi problemi, tra cui il paradosso della scatola di Bertrand. Entrambi i chatbot hanno fornito risposte scorrette, dimostrando la loro incapacità di ragionare come un essere umano.
Conseguenze della percezione errata
La convinzione che questi chatbot siano vicini alla coscienza porta a prezzi delle azioni gonfiati ingiustamente, manie nel settore tecnologico per pubblicizzare il proprio software come basato sull’IA e un’ossessione culturale per il potenziale di questi LLM. Questo rischia di creare una nuova bolla tecnologica, che avrebbe conseguenze negative come qualsiasi altra bolla finanziaria.