15eb87ab df5f 456a 844e 4cb189fd4875
Pubblicato in
|
27 Nov 2025
-
4 min
27 Nov 2025
-
4 min

Con l’emergere di modelli linguistici di grandi dimensioni (LLM), come GPT, Claude o Gemini, si è riacceso il dibattito su cosa significhi per un sistema artificiale comprendere un contenuto. I modelli transformer mostrano prestazioni notevoli nel generare linguaggio naturale, rispondere a domande, tradurre testi e assistere in compiti complessi. Ma possono davvero pensare? Oppure la loro capacità è solo il risultato di una sofisticata simulazione?

L’esperimento della stanza cinese di Searle

Un punto di partenza classico per analizzare questa domanda è l’esperimento mentale della stanza cinese di John Searle (1980). L’idea è semplice: una persona chiusa in una stanza riceve input scritti in cinese, che non conosce, e restituisce output in cinese utilizzando un set di regole sintattiche (cioè regole per mettere insieme le parole in frasi di senso compiuto) descritte in un manuale posizionato all’interno della stanza.

Ad un osservatore esterno, sembra che la persona capisca la lingua. Ma, secondo Searle, non vi è alcuna comprensione: si tratta solo di manipolazione formale di simboli.

Applicare questa metafora ai moderni modelli linguistici, come GPT, BERT, Claude, è immediato. Questi sistemi sono in grado di generare testi coerenti, di rispondere a domande, di imitare stili linguistici e persino di sostenere dialoghi convincenti. Ma lo fanno tramite operazioni puramente sintattiche: manipolano simboli secondo pattern appresi da enormi quantità di dati, senza alcuna comprensione semantica nel senso umano del termine. Come nella stanza cinese, il comportamento simula la comprensione, ma non lo sostanzia (non lo rendo reale).

Per costruire il loro “manuale interno” infatti, al contrario degli esseri umani, i LLM hanno bisogno di una enorme quantità di testo che vada a costruire tutte le regole. Una volta creato il manuale delle regole l’operazione di traduzione o generazione di testo è pura applicazione delle regole.

Negli anni ci sono state repliche e controrepliche all’argomento della stanza cinese (se siete curiosi potete iniziare da qui), riporteremo solo una delle tesi alternative proposte.

La comprensione come proprietà emergente

Alcuni studiosi, ispirati dalla teoria dei sistemi dinamici, suggeriscono che la comprensione non debba essere pensata come proprietà interiore, cioè come processo che avviene unicamente all'interno di un sistema, ma come una proprietà che emerge dall’interazione di un sistema con il suo ambiente. In questa prospettiva, anche un sistema artificiale sufficientemente articolato potrebbe dare luogo a forme di comprensione, superando la barriera tra sintassi e semantica su cui insiste Searle.

Questo approccio si collega, in alcuni casi, a visioni filosofiche più radicali, come quelle panpsichiste, secondo cui la coscienza (e quindi anche la capacità di comprendere), in forme rudimentali, è una proprietà fondamentale della realtà, una sorta di qualità intrinseca di tutti i sistemi fisici, anche artificiali. Questa proprietà sarebbe più evidente in sistemi più complessi e meno sviluppata in sistemi semplici. Da questa prospettiva, la distinzione rigida tra mente e macchina si sfuma: se ogni sistema dinamico ha almeno un grado minimo di esperienza, allora anche un modello di IA potrebbe possedere una forma elementare di comprensione. Rimane però un punto cruciale a cui rispondere: come si misura la “complessità” di un sistema che ne determina il grado di coscienza? E’ una domanda aperta, in quanto diverse misure non si adattano alle nostre intuizioni di coscienza: ad esempio l’atmosfera terrestre è un sistema alquanto “complicato” (in termini di descrizione fisica), ma non presenta le proprietà di altri sistemi più “semplici” (ad esempio alcune specie di insetti, con poche migliaia di neuroni) che si avvicinano di più alla nostra intuizione di coscienza. 

Una visione di questo tipo ha anche un altro problema: se la comprensione passa dalla complessità come mai sembra essere una proprietà unica dei sistemi biologici? 

Il nostro cervello è molto fragile agli urti e danni fisici, pur mantenendo la sua “complessità” può perdere le sue funzionalità, come mai sembra essere una proprietà così fragile?

Queste domande evidenziano un punto cruciale: la nostra difficoltà a definire cosa sia la comprensione. È un processo interno e non conoscibile? È un comportamento osservabile? È una relazione tra un sistema e il suo ambiente? A seconda della risposta, cambia anche il modo in cui giudichiamo le capacità cognitive delle macchine.

In definitiva, l’esperimento della stanza cinese conserva un valore fondamentale. Ci invita a distinguere tra funzionamento e comprensione. E, allo stesso tempo, apre la porta a nuove domande: è possibile che la comprensione emerga unicamente da architetture sufficientemente complesse? Dobbiamo rivedere le nostre categorizzazioni per includere nuove forme di mente?