Nella storia delle scienze, alcune rivoluzioni cambiano tutto senza che quasi nessuno se ne accorga. La teoria della relatività e la meccanica quantistica hanno trasformato la fisica nel primo Novecento, e il loro impatto culturale – benché lento – è diventato parte dell’immaginario collettivo. Qualcosa di comparabile, per profondità teorica e implicazioni, è accaduto nelle scienze psicologiche e, in seguito, nelle neuroscienze a partire dalla metà degli anni Settanta: la scoperta che la nostra mente non è uno strumento di conoscenza, di sopravvivenza, e che queste due funzioni non coincidono. Qualcuno ci aveva già pensato, ma a nessuno aveva portato le prove sperimentali. A differenza della relatività, questa rivoluzione non ha suscitato molta attenzione pubblica, al di là degli aspetti di intrattenimento o della funzione di formazione di docenti o dirigenti. Non ha cambiato il linguaggio comune, non ha prodotto icone culturali riconoscibili e non è neppure entrata nei programmi scolastici. Nei corsi di economia o di filosofia, ormai, queste scoperte si insegnano; ma, tragicamente, non nei corsi di medicina, dove gli errori cognitivi dovuti alla struttura della mente umana causano almeno il 30% (quando va bene) degli errori medici. Anche nella maggior parte degli incidenti aerei è stata dimostrata l’interferenza dei bias cognitivi. Insomma, queste scoperte riguardano il modo in cui prendiamo decisioni, formiamo credenze, valutiamo rischi e ci raccontiamo chi siamo.

Il volume di Francesco Orzi, Il cervello non è fatto per capire (Edizioni Dedalo, 2026), apre una delle finestre più ampie e accessibili su quella rivoluzione. In poco più di centoventi pagine, il neurologo, ex primario di neurologia dell’Ospedale Sant’Andrea e direttore scientifico del Festival della Scienza di Castro dei Volsci, accompagna il lettore attraverso sei quiz – raggruppabili in problemi logici, paradossi probabilistici, esperimenti classici delle scienze cognitive – che funzionano come sonde.  Come i bisturi chirurgici, dissezionano con precisione i punti in cui il ragionamento umano si inceppa in modo sistematico. Non per stupidità, non per distrazione, ma per come il cervello è stato costruito, senza un progetto, dalla selezione naturale.

Il test che apre la sequenza del libro è il problema di Monty Hall, un esperimento mentale che prende il nome da un conduttore televisivo americano degli anni Sessanta. Di fronte a te ci sono tre porte. Dietro una si trova un’automobile; dietro le altre due, una capra. Scegli una porta – diciamo la porta A. Il conduttore, che sa dove si trova il premio, apre una delle altre due porte mostrando una capra – diciamo la porta B. Ora ti chiede: vuoi restare con la porta A o passare alla porta C?

La risposta intuitiva di quasi tutti è: non cambia nulla, sono rimaste due porte; quindi, la probabilità è cinquanta e cinquanta. Questa risposta è sbagliata. Conviene cambiare e la probabilità di vincere passando alla porta C è di due terzi, contro un terzo restando con la scelta iniziale. Il ragionamento è che al momento della scelta iniziale, la tua porta aveva una probabilità su tre di nascondere il premio. Le altre due porte, insieme, due terzi. Quando il conduttore elimina una porta sbagliata – e lo fa sempre intenzionalmente, usando un’informazione che tu non hai – quei due terzi si concentrano sulla porta rimasta. Cambiare porta raddoppia le probabilità di vincere.

La difficoltà del problema non sta nella matematica, che è elementare. Sta nel fatto che il conduttore non apre una porta a caso: usa informazioni nascoste, e questa asimmetria è esattamente ciò che l’intuizione ignora. Il cervello registra “due porte rimaste” e conclude “cinquanta e cinquanta”, saltando il passaggio cruciale: chi ha aperto quella porta, come lo ha scelto e cosa sa.

I programmi televisivi basati su meccaniche simili, come Affari tuoi, evocano superficialmente questa struttura ma non la replicano. In quel formato, l’eliminazione delle opzioni avviene in modo casuale, senza che il conduttore disponga di informazioni strategiche sul contenuto delle scatole. Manca quindi la condizione che rende il Monty Hall ciò che è: l’asimmetria informativa deliberata. La matematica cambia e, con essa, il ragionamento corretto.

Si stima che il Monty Hall sia il test, tra i 250 circa usati dagli scienziati cognitivi, con il tasso di errore più alto: tra l’ottanta e il novanta per cento dei partecipanti risponde in modo errato. Ciò che lo rende ancora più interessante è che l’errore persiste anche dopo la spiegazione: molte persone, anche di fronte a una dimostrazione formale, faticano a convincersi e a modificare la propria intuizione. Non è un dato secondario, ma il cuore del problema. Non si tratta di non capire la soluzione: si tratta di non riuscire a sentirla come vera.

Orzi inserisce il test in una progressione di 6 quiz che copre diversi livelli del funzionamento mentale. Il Wason Selection Task presenta quattro carte (E, K, 2, 7) e chiede di verificare una regola logica semplice: “se c’è una vocale su un lato, c’è un numero pari sull’altro”. Fallisce quasi la stessa percentuale del Monty Hall: si tende a cercare conferme anziché falsificazioni, attivando quello che la letteratura chiama il bias di conferma. Il bias più dannoso in assoluto, tra quelli che la selezione naturale ci ha imposto. Il Bat-and-Ball Problem, parte del Cognitive Reflection Test di Shane Frederick, chiede quanto costa una pallina se una mazza e una pallina insieme costano 1,10 euro e la mazza costa un euro in più della pallina. La risposta immediata è di dieci centesimi; quella corretta è di cinque. Circa il 70% sbaglia. Il Linda Problem di Amos Tversky e Daniel Kahneman chiede di valutare se è più probabile che Linda, descritta come filosofa femminista, sia cassiera di banca, oppure sia cassiera di banca e militante femminista. La seconda opzione è logicamente meno probabile della prima, eppure il 70-80% la sceglie. Il Base Rate Neglect mostra che le persone ignorano sistematicamente le probabilità di base quando dispongono di informazioni descrittive salienti, anche se tali informazioni sono irrilevanti o fuorvianti. Gli esperimenti sull’introspezione di Nisbett e Wilson dimostrano che le persone scelgono tra oggetti identici – calzini, automobili – in base a fattori del tutto inconsapevoli, e poi costruiscono spiegazioni plausibili ma false per giustificare la propria scelta.

Perché Orzi ha scelto proprio questi test? Perché ciascuno illumina un livello diverso del sistema cognitivo e, insieme, documentano qualcosa di più grave di una serie di errori isolati: che i limiti non sono locali ma stratificati. Il Monty Hall mostra il fallimento dell’intuizione probabilistica. Il Wason mostra il fallimento del ragionamento deduttivo. Il Linda Problem mostra il fallimento della logica della congiunzione. Il Base Rate Neglect evidenzia il fallimento nella gestione dell’incertezza. Gli esperimenti sull’introspezione mostrano che il fallimento arriva fino a farci dimenticare le ragioni delle nostre stesse scelte. La sequenza è deliberatamente costruita: dal sé al mondo, dalla percezione alla decisione, dalla decisione alla logica pura. L’errore non è un’anomalia: è una proprietà costitutiva della mente, che emerge a tutti i livelli.

L’originalità più rilevante del libro rispetto alla divulgazione corrente sui bias cognitivi, che si è diffusa ampiamente seppur più come curiosità e con scarsi effetti sulla scia di Kahneman e dei suoi epigoni, sta in un passo ulteriore: la riconduzione di questi errori non soltanto a processi psicologici, ma anche a meccanismi neurali. Orzi non si limita a descrivere cosa sbagliamo e in quale direzione. Riconduce gli errori alle strutture neurali che li generano.  In particolare, all’attivazione di circuiti di valutazione emotiva che precedono. e spesso condizionano, l’elaborazione prefrontale più lenta e deliberativa. L’ancoraggio cognitivo, la loss aversion, il bias di conferma non sono “difetti” sovrapposti a una razionalità altrimenti funzionante: sono il prodotto di architetture neurali selezionate per rispondere rapidamente in contesti di incertezza, non per calcolare probabilità condizionate o verificare sillogismi.

Questo raccordo tra la psicologia cognitiva e le neuroscienze si aggancia alla rivoluzione che la cosiddetta opinione pubblica, che cita i paradossi della relatività o il gatto di Schrödinger, non ha ancora notato.  A partire dagli anni Settanta, con il lavoro di Tversky e Kahneman, di Nisbett e Gigerenzer sulla razionalità limitata, e con la neuropsicologia di Damasio, di LeDoux, di Edelman, si è consolidata una visione radicalmente diversa della mente: non un elaboratore di informazioni imparziale che funziona male, ma un sistema adattivo che funziona bene per gli scopi per cui è stato selezionato – sopravvivere, cooperare, reagire rapidamente – e male per gli scopi che gli chiediamo oggi: calcolo astratto, probabilità, valutazione di rischi a lungo termine, coerenza logica.

Il cervello non è fatto per capire. È fatto per andare avanti. Capire questo, con la chiarezza che Orzi porta nel piccolo spazio di un libro agile, è già un primo passo verso qualcosa di più vicino alla lucidità.