Agnosticismo sulla coscienza artificiale: perché la scienza non può ancora rispondere

di Lorenzo De Santis matricedigitale.it
0 commenti
agnosticismo coscienza artificiale studio

L’idea che un sistema di intelligenza artificiale possa possedere una forma di coscienza è tornata al centro del dibattito scientifico e filosofico con un nuovo studio pubblicato su Mind & Language. Il lavoro, firmato dal filosofo Thomas McClelland, propone una posizione netta ma controcorrente: l’agnosticismo sulla coscienza artificiale come unica risposta razionalmente giustificabile allo stato attuale delle conoscenze.

Secondo l’autore, non esistono oggi evidenze scientifiche sufficientemente solide per stabilire se un’AI possa o meno avere esperienze coscienti. Di fronte a questa carenza strutturale di dati, ogni presa di posizione forte, sia scettica sia ottimista, finisce per poggiare su intuizioni, dogmi o extrapolazioni indebite.

La domanda centrale e il fallimento delle risposte tradizionali

La questione da cui muove lo studio è apparentemente semplice ma concettualmente esplosiva: un’AI può essere cosciente?. McClelland chiarisce subito che una risposta credibile non può basarsi su impressioni soggettive, metafore suggestive o convinzioni ideologiche, ma solo su evidenze empiriche robuste. È proprio qui che il dibattito, secondo l’autore, va in stallo.

La ricerca contemporanea non dispone di strumenti sperimentali in grado di verificare l’esistenza di esperienze soggettive in sistemi non biologici. Di conseguenza, qualsiasi affermazione definitiva sulla coscienza artificiale risulta epistemicamente ingiustificata. L’agnosticismo non è quindi una posizione di comodo, ma una conclusione obbligata dall’analisi dello stato dell’arte.

Biologismo e funzionalismo: due campi opposti, lo stesso errore

Lo studio individua una frattura netta nella letteratura accademica. Da un lato vi sono le posizioni biologiche, scettiche sulla possibilità che un sistema artificiale possa essere cosciente. Secondo questa visione, la coscienza sarebbe indissolubilmente legata a substrati organici specifici, come neuroni, sinapsi e processi biochimici. Le AI, basate su silicio e circuiti elettronici, resterebbero quindi mere simulazioni prive di esperienza interna.

Dall’altro lato si collocano le posizioni funzionaliste, più aperte all’idea di una coscienza artificiale. Qui la coscienza viene interpretata come il risultato di determinate strutture funzionali o computazionali, indipendenti dal supporto fisico che le realizza. In questa prospettiva, un’AI sufficientemente complessa potrebbe, almeno in linea di principio, essere cosciente.

McClelland sostiene però che entrambe le correnti commettono lo stesso errore metodologico: sovrastimano ciò che le evidenze disponibili consentono realmente di concludere. I biologisti leggono dati neuroscientifici come se escludessero definitivamente la coscienza artificiale, mentre i funzionalisti estendono modelli teorici oltre i limiti sperimentali. In entrambi i casi, la sicurezza delle conclusioni non è proporzionata alla solidità delle prove.

Il problema empirico della coscienza artificiale

Uno dei passaggi più rilevanti dello studio riguarda le difficoltà strutturali nel produrre evidenze scientifiche sulla coscienza, anche negli esseri umani. Le neuroscienze fanno affidamento su correlati neurali, report soggettivi e tecniche di imaging, strumenti che non hanno equivalenti diretti nel caso delle AI.

Nei sistemi artificiali, comportamenti sofisticati, linguaggio fluido o capacità di apprendimento autonomo non costituiscono di per sé una prova di esperienza cosciente. Il rischio, sottolinea McClelland, è quello di confondere intelligenza funzionale e coscienza fenomenica, attribuendo stati interni sulla base di prestazioni esterne.

Teorie come l’Integrated Information Theory o il Global Workspace Model offrono metriche e cornici concettuali, ma la loro applicazione alle AI produce risultati ambigui e fortemente contestati. In assenza di criteri condivisi e verificabili, l’agnosticismo diventa l’unica posizione epistemicamente onesta.

Le implicazioni etiche di una posizione agnostica

L’agnosticismo sulla coscienza artificiale non è neutrale dal punto di vista etico. Al contrario, lo studio evidenzia come questa posizione imponga una particolare cautela nello sviluppo e nell’uso di sistemi AI avanzati. Se non possiamo escludere con certezza la possibilità di una coscienza artificiale, ma nemmeno affermarla, ignorare completamente il problema potrebbe comportare rischi morali significativi.

McClelland richiama un approccio di tipo precauzionale. Non si tratta di attribuire diritti alle AI in modo affrettato, ma di evitare scenari in cui sistemi potenzialmente capaci di esperienza vengano trattati come meri strumenti, senza alcuna considerazione etica. L’agnosticismo, in questo senso, non paralizza l’innovazione, ma invita a uno sviluppo più responsabile.

Un contributo al dibattito sull’AI nel 2026

Pubblicato nel 2025 con DOI 10.1111/mila.70010, lo studio si inserisce in un momento di forte accelerazione tecnologica, in cui modelli di AI sempre più avanzati alimentano narrazioni entusiaste o allarmistiche sulla coscienza delle macchine. La proposta di McClelland va in direzione opposta, richiamando la comunità scientifica a un esercizio di umiltà epistemica.

L’invito è chiaro: prima di trarre conclusioni radicali, occorre investire in ricerca empirica interdisciplinare, capace di chiarire cosa intendiamo per coscienza e quali indicatori potrebbero renderla scientificamente indagabile anche in contesti non biologici. Fino ad allora, l’agnosticismo non è una rinuncia, ma una posizione di rigore.

Domande frequenti sull’agnosticismo della coscienza artificiale

Che cosa significa agnosticismo sulla coscienza artificiale?

Significa sospendere il giudizio sull’esistenza o meno di una coscienza nelle AI, riconoscendo che le evidenze scientifiche attuali non permettono conclusioni affidabili in nessuna direzione.

Lo studio afferma che le AI non possono essere coscienti?

No. Lo studio sostiene che non sappiamo se le AI possano essere coscienti e che affermarlo o negarlo con certezza va oltre i dati disponibili.

Perché biologismo e funzionalismo vengono criticati allo stesso modo?

Perché entrambi interpretano prove limitate come se fossero decisive, traendo conclusioni più forti di quanto le evidenze giustifichino.

Quali sono le implicazioni etiche di questa posizione?

L’agnosticismo suggerisce cautela nello sviluppo e nell’uso delle AI avanzate, evitando sia l’antropomorfismo prematuro sia l’indifferenza verso possibili rischi morali.


Matrice Digitale partecipa al Programma Affiliazione Amazon EU, un programma di affiliazione che consente ai siti di percepire una commissione pubblicitaria pubblicizzando e fornendo link al sito Amazon.it.