Nel cuore del linguaggio pulsa un mistero antico quanto l’umanità stessa: come trasformiamo il pensiero in parole? Come, in pochi istanti, traduciamo il tumulto dell’esperienza in fonemi e simboli che altri comprendono? La psicolinguistica, disciplina nata dall’abbraccio tra psicologia e linguistica, si occupa proprio di questo: comprendere i processi mentali che stanno dietro alla produzione e comprensione del linguaggio (Traxler, 2011). Ma oggi, a rendere il panorama ancora più intricato, si affaccia una nuova creatura: l’intelligenza artificiale. Il dialogo tra queste due sfere – la scienza della mente umana e quella delle menti artificiali – non è solo una curiosità accademica: è una sfida filosofica, tecnica e, forse, esistenziale.
Il linguaggio come finestra sulla mente
Nel Novecento, la psicolinguistica prende forma anche grazie all’influenza della linguistica chomskyana. Noam Chomsky, filosofo e linguista, pose il linguaggio come una struttura innata, frutto di un organo mentale specifico: il Language Acquisition Device (Chomsky, 1965). La sua idea di una grammatica universale – una struttura comune a tutte le lingue umane – ebbe un impatto profondo, ma fu anche contestata. Tuttavia, fu proprio Chomsky ad aprire la strada a un’indagine sul linguaggio come espressione di processi mentali computabili.
“Una grammatica generativa è un dispositivo per produrre le strutture del linguaggio umano”, scriveva Chomsky nel 1957 (Chomsky, 1957). Questa visione computazionale anticipa, in un certo senso, il modo in cui oggi si pensa all’intelligenza artificiale: anche i modelli di linguaggio come i transformer sono “dispositivi” che generano frasi, basandosi su dati statistici e architetture sofisticate (Vaswani et al., 2017). Ma se per Chomsky la mente è una macchina razionale capace di generare infinite frasi da regole limitate, i modelli attuali non seguono regole innate: apprendono dai dati. Qui si apre uno scarto importante.

La mente simbolica e la mente neurale
Negli anni Ottanta, l’IA simbolica dominava la scena. Era basata su regole esplicite, simili a quelle della logica formale: proposizioni, deduzioni, alberi decisionali. Ma la psicolinguistica dimostrava che gli esseri umani non sempre seguono logiche lineari. Daniel Kahneman e Amos Tversky mostrarono che la mente umana è spesso guidata da euristiche, scorciatoie cognitive che funzionano, ma non sono razionali in senso classico (Kahneman & Tversky, 1979). La comprensione linguistica, per esempio, è spesso influenzata dal contesto, dall’aspettativa, dalla memoria a breve termine (Just & Carpenter, 1992).
Con l’avvento delle reti neurali e dell’apprendimento automatico, l’intelligenza artificiale ha cominciato a riflettere meglio questi aspetti della cognizione umana. Le architetture neurali non comprendono nel senso umano, ma apprendono associazioni, correlazioni, tendenze – esattamente come molti processi psicolinguistici. Il modello “connectionist” di Rumelhart e McClelland, sviluppato negli anni ’80, fu una sorta di ponte tra IA e psicolinguistica: mostrava come reti semplici potessero apprendere strutture linguistiche complesse, simulando l’acquisizione del passato verbale in inglese nei bambini (Rumelhart & McClelland, 1986).
L’illusione della comprensione
Ma qui emerge la questione filosofica: questi modelli capiscono il linguaggio? O semplicemente lo simulano? John Searle, con il suo famoso esperimento mentale della “stanza cinese”, sfidò proprio questa idea (Searle, 1980). Immagina – dice Searle – una persona chiusa in una stanza, che riceve simboli in una lingua sconosciuta (ad esempio, il cinese) e, seguendo un manuale, risponde con altri simboli che sembrano corretti a un parlante cinese. La persona non capisce il cinese, ma il sistema nel suo insieme sembra farlo. Così, dice Searle, funzionano i computer: manipolano simboli, ma non ne comprendono il significato.
Questo argomento ha implicazioni profonde per il rapporto tra psicolinguistica e IA. Se la psicolinguistica cerca di spiegare come la mente umana comprenda, allora una IA che non comprende davvero può solo imitare, non spiegare. Ma se accettiamo una visione più pragmatica – come quella proposta da filosofi come Wittgenstein – allora “comprendere” non è un atto interno, ma una pratica sociale (Wittgenstein, 1953). “Il significato di una parola è il suo uso nel linguaggio”, scrive Wittgenstein nelle Ricerche filosofiche. E se è così, forse un modello che sa usare bene le parole, sa anche – in un certo senso – cosa significano.
Apprendere come i bambini?
Uno degli ambiti più fertili del dialogo tra IA e psicolinguistica è lo studio dell’apprendimento linguistico. I bambini apprendono la lingua in modo sorprendente: da input rumorosi e ambigui, costruiscono un sistema robusto di significati. Jean Piaget parlava di “costruzione attiva del sapere” (Piaget, 1952), Lev Vygotskij enfatizzava il ruolo del contesto sociale e della mediazione linguistica (Vygotsky, 1978).
Oggi, i modelli di IA imparano anch’essi da grandi quantità di dati. Ma c’è una differenza cruciale: non hanno un corpo, né un mondo da esplorare. Non hanno emozioni, intenzioni, affetti. I bambini apprendono le parole perché vogliono qualcosa, perché comunicano con qualcuno. La psicolinguistica moderna, come quella di Michael Tomasello, sottolinea il ruolo dell’intenzionalità condivisa: i bambini apprendono il linguaggio come strumento per coordinare attenzione e azione (Tomasello, 2003). Le IA attuali, invece, apprendono il linguaggio in assenza di uno scopo comunicativo.
Verso una coevoluzione?
Ciononostante, i modelli di intelligenza artificiale possono offrire nuove ipotesi sulla mente. Come scriveva Andy Clark, filosofo della mente estesa, “la cognizione non è solo nel cervello, ma si distribuisce tra strumenti, ambiente e corpo” (Clark, 2008). Forse, allora, gli strumenti linguistici che oggi costruiamo – i modelli di linguaggio, gli assistenti virtuali – non sono solo imitazioni della mente, ma sue estensioni. Collaborano con noi, completano i nostri pensieri, espandono la nostra memoria.

Non si tratta più, forse, di chiedersi se le macchine possano pensare, come fece Alan Turing (1950), ma se possiamo convivere con macchine che parlano, ascoltano e apprendono. La psicolinguistica, in questo scenario, diventa una bussola per orientarci: ci ricorda che il linguaggio è un gesto incarnato, che dietro ogni parola c’è un’intenzione, e che capire non è solo manipolare simboli, ma entrare in relazione.
Riferimenti bibliografici:
- Chomsky, N. (1957). Syntactic Structures. Mouton.
- Chomsky, N. (1965). Aspects of the Theory of Syntax. MIT Press.
- Clark, A. (2008). Supersizing the Mind: Embodiment, Action, and Cognitive Extension. Oxford University Press.
- Just, M. A., & Carpenter, P. A. (1992). A capacity theory of comprehension: Individual differences in working memory. Psychological Review, 99(1), 122–149.
- Kahneman, D., & Tversky, A. (1979). Prospect theory: An analysis of decision under risk. Econometrica, 47(2), 263–292.
- Piaget, J. (1952). The Origins of Intelligence in Children. International Universities Press.
- Rumelhart, D. E., & McClelland, J. L. (1986). Parallel Distributed Processing: Explorations in the Microstructure of Cognition. MIT Press.
- Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–424.
- Tomasello, M. (2003). Constructing a Language: A Usage-Based Theory of Language Acquisition. Harvard University Press.
- Traxler, M. J. (2011). Introduction to Psycholinguistics: Understanding Language Science. Wiley-Blackwell.
- Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460.
- Vaswani, A., Shazeer, N., Parmar, N., et al. (2017). Attention is all you need. Advances in Neural Information Processing Systems, 30.
- Vygotsky, L. S. (1978). Mind in Society: The Development of Higher Psychological Processes. Harvard University Press.
- Wittgenstein, L. (1953). Philosophical Investigations. Blackwell.
Immagini generate tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (2025).

