ChatGPT e simili sono ancora “finte” intelligenze

da Redazione
0 commenti 1 minuti leggi

I chatbot come ChatGPT e Bard possono generare conversazioni sorprendenti, ma in realtà sono solo esempi di modelli linguistici di grandi dimensioni (LLM). Questi modelli sono addestrati a identificare sequenze probabili di parole e a generare testo coerente e convincente. Tuttavia, non hanno la capacità di comprendere il significato delle parole o dei dati.

Limiti dei chatbot

I chatbot basati su LLM non possono superare le sfide del Winograd Schema, un test che valuta se un’intelligenza artificiale può comprendere il linguaggio. LLMs fatica ancora con queste sfide, nonostante abbiano a disposizione enormi database di testi su cui addestrarsi.

Esempi di interazioni con LLM

Gli autori dell’articolo originale hanno testato ChatGPT e Bard con diversi problemi, tra cui il paradosso della scatola di Bertrand. Entrambi i chatbot hanno fornito risposte scorrette, dimostrando la loro incapacità di ragionare come un essere umano.

Annunci

Conseguenze della percezione errata

La convinzione che questi chatbot siano vicini alla coscienza porta a prezzi delle azioni gonfiati ingiustamente, manie nel settore tecnologico per pubblicizzare il proprio software come basato sull’IA e un’ossessione culturale per il potenziale di questi LLM. Questo rischia di creare una nuova bolla tecnologica, che avrebbe conseguenze negative come qualsiasi altra bolla finanziaria.

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara