L’intelligenza artificiale interessa questo spazio non come tema tecnologico aggiuntivo, né come omaggio obbligato allo spirito del tempo. Mi interessa perché mette sotto pressione alcune domande di fondo:
Che cosa basta a farci parlare di comprensione?
Che cosa autorizza ad attribuire mente?
Quando una risposta è solo una prestazione, e quando invece rinvia a una presenza?
Non è un caso che oggi, anche nelle neuroscienze, si parli sempre più esplicitamente di NeuroAI, cioè di un’area in cui intelligenza artificiale e studio del cervello si interrogano a vicenda.
Il primo punto, per me, è semplice ma decisivo: produrre linguaggio non equivale automaticamente a comprendere. I grandi modelli linguistici vengono addestrati innanzitutto a prevedere il token successivo in una sequenza; da qui derivano una notevole fluidità espressiva e una sorprendente capacità di generare testo coerente. Ma proprio su ciò che questa competenza autorizzi a concludere si apre il nodo filosofico. Un influente contributo dell’ACL ha sostenuto che un sistema addestrato soltanto sulla forma non acquisisce per ciò stesso significato; parallelamente, il dibattito nella comunità scientifica e filosofica resta aperto e acceso, non liquidabile né con il trionfalismo del “capisce” né con la sufficienza del “fa solo autocomplete”.
Questo va detto con precisione, senza caricature. Le survey recenti mostrano che i language models esibiscono capacità non banali in sintassi, semantica, pragmatica, conoscenza del mondo e alcune forme di ragionamento, ma anche che tali capacità restano spesso fragili, sensibili al prompt, al contesto locale e a piccole variazioni superficiali dell’input. Dunque il punto non è negare che ci sia competenza; il punto è rifiutare l’inferenza troppo rapida che dalla buona performance linguistica passa direttamente a comprensione piena, intenzionalità o addirittura soggettività. La fluidità è un indizio; non è una prova ontologica.
Si può pensare a un caso molto semplice. Un sistema di intelligenza artificiale impiegato per simulare un colloquio di supporto può rispondere a un familiare con frasi perfettamente adeguate: può riconoscere il lessico del dolore, modulare il tono, usare formule di apparente vicinanza, persino produrre l’impressione di una sensibilità fine al contesto. Ma da questa pertinenza linguistica non segue, per ciò stesso, un’esperienza vissuta. Il sistema può sembrare partecipe senza sentire nulla. Può produrre parole appropriate al lutto, alla paura, all’incertezza, senza che vi sia dolore, attesa, angoscia o coinvolgimento nel senso in cui li attribuiamo a un soggetto umano.
Nelle gravi cerebrolesioni può darsi, almeno in alcuni casi, il paradosso opposto. Un paziente con dissociazione cognitivo-motoria può non mostrare alcuna risposta affidabile al letto del malato, e tuttavia conservare una forma di coscienza non accessibile attraverso il comportamento spontaneo. In questa situazione non abbiamo una voce convincente senza soggetto garantito, ma, al contrario, un possibile soggetto senza voce, o senza mezzi sufficienti per trasformare ciò che comprende in risposta osservabile. È anche per questo che il comportamento resta indispensabile, ma non sempre conclusivo: talvolta ci induce ad attribuire troppo, talvolta a riconoscere troppo poco.
Qui, per chi lavora con le gravi cerebrolesioni, il confronto diventa improvvisamente concreto. Nella clinica dei disturbi della coscienza ci muoviamo dentro tassonomie costruite in larga parte sul comportamento osservabile: coma, unresponsive wakefulness syndrome o stato vegetativo, stato di minima coscienza, emersione dallo stato di minima coscienza. La gestione clinica è resa ancora più difficile dal fatto che sedazione, analgesia, deficit motori, disturbi sensoriali e altri fattori possono oscurare ciò che il paziente sarebbe in grado di mostrare. Per questo la letteratura più recente insiste sul limite delle sole osservazioni bedside e sulla necessità di prendere sul serio il problema della covert consciousness, cioè di una consapevolezza residua che sfugge alla rilevazione comportamentale ordinaria.
Il dato qui non è filosoficamente ornamentale: è clinicamente duro. In uno studio multicentrico pubblicato nel 2024 sul New England Journal of Medicine, tra 241 pazienti senza risposta osservabile ai comandi, il 25% mostrava invece, su fMRI e/o EEG task-based, segni di command-following compatibili con cognitive motor dissociation. Nello stesso lavoro, la CMD risultava associata a età più giovane, maggior tempo trascorso dalla lesione ed eziologia traumatica. Non significa che ogni paziente non responsivo sia cosciente. Significa qualcosa di più sobrio e più impegnativo: l’assenza di risposta osservabile non autorizza automaticamente a concludere assenza di mente o di esperienza.
Ed è qui che l’intelligenza artificiale e i temi neuroscientifici si toccano davvero. L’AI ci mette davanti a qualcosa come linguaggio senza soggetto garantito: una produzione verbale capace di coerenza, adattamento contestuale, talvolta persino di simulare sensibilità interpersonale, senza che da ciò segua in modo lineare la presenza di esperienza vissuta. Le gravi cerebrolesioni, l’afasia severa, la dissociazione tra consapevolezza e output motorio ci espongono invece anche al caso opposto: soggetto senza voce sufficiente, o senza comportamento abbastanza leggibile. I due errori sono speculari, anche se non simmetrici nelle conseguenze: con l’AI rischiamo di attribuire troppo; in clinica rischiamo di togliere troppo. In entrambi i casi, il comportamento resta cruciale, ma non esaurisce da solo la questione della persona.
Questo non vuol dire che il confronto tra AI e cervello sia finto o puramente metaforico. Al contrario: oggi i modelli di linguaggio vengono usati seriamente per studiare l’elaborazione linguistica umana. Un lavoro del 2025 su Nature Communications ha mostrato, combinando modelli NLP pre-addestrati e registrazioni intracraniche, segnali neurali distribuiti nelle aree frontotemporali che riflettono produzione, comprensione e transizioni conversazionali, sensibili al contesto e all’ordine specifico delle parole. Un altro studio del 2025 ha sostenuto che la gerarchia dei layer degli LLM corrisponde alla dinamica temporale con cui il cervello passa dai suoni ai concetti nella comprensione del linguaggio. Sono risultati importanti. Ma il loro significato va tenuto al guinzaglio: mostrano che i modelli possono essere strumenti utili per descrivere o approssimare alcune dinamiche computazionali del linguaggio; non dimostrano che un modello linguistico sia, per questo, un soggetto o una mente nel senso pieno.
A questo punto entra in gioco l’etica, ma non come decorazione finale. Se sbagliamo attribuzione, non sbagliamo soltanto teoria: sbagliamo cura, prognosi, comunicazione con le famiglie, statuto del paziente, responsabilità clinica. Non a caso la Recommendation on the Ethics of Neurotechnology adottata dall’UNESCO nel novembre 2025 insiste sul fatto che le neurotecnologie devono promuovere salute e benessere senza causare danni evitabili, e che il principio del do no harm deve orientarne l’intero ciclo di vita. Sul versante dell’AI, l’Unione Europea ha ormai una cornice risk-based con l’AI Act, entrato in vigore il 1° agosto 2024 e applicato progressivamente. Nello specifico delle professioni della comunicazione e della deglutizione, ASHA ricorda che l’AI non sostituisce il professionista e che il clinico ha la responsabilità etica di valutarne uso e limiti; un tutorial del 2025 chiede inoltre di sottoporre l’AI clinica a vaglio di validità, affidabilità, uso etico ed equità.
Per questo, in un sito che si occupa di coscienza, linguaggio, identità e neuroriabilitazione, l’intelligenza artificiale non dovrebbe comparire come appendice alla moda. Dovrebbe comparire come caso-limite. Non perché ci dica finalmente che cosa sia la coscienza, ma perché ci obbliga a formulare meglio le domande. Che cosa stiamo riconoscendo quando diciamo che qualcuno capisce? Che rapporto c’è tra linguaggio e presenza? Quando stiamo leggendo un segno, e quando invece stiamo proiettando un soggetto? E, all’opposto, quante volte smettiamo di riconoscere il soggetto solo perché la sua espressione si è incrinata? Tra performance e presenza non c’è coincidenza garantita. È proprio in quello scarto che, per me, diventano più nitidi sia il problema filosofico sia la responsabilità clinica.
Bibliografia essenziale
Bender, E. M., & Koller, A. (2020). Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (pp. 5185–5198). Association for Computational Linguistics.
Golden, K., Bodien, Y. G., & Giacino, J. T. (2024). Disorders of Consciousness: Classification and Taxonomy. Physical Medicine and Rehabilitation Clinics of North America, 35(1), 15–33.
Young, M. J., Edlow, B. L., & Bodien, Y. G. (2024). Covert consciousness. NeuroRehabilitation, 54(1), 23–42.
Bodien, Y. G., Allanson, J., Cardone, P., et al. (2024). Cognitive Motor Dissociation in Disorders of Consciousness. New England Journal of Medicine, 391(7), 598–608.
Fins, J. J., & Shulman, K. S. (2024). Neuroethics, Covert Consciousness, and Disability Rights: What Happens When Artificial Intelligence Meets Cognitive Motor Dissociation? Journal of Cognitive Neuroscience, 36(8), 1667–1674.

Lascia un commento