Scene universali dell'esperienza e l'emergere della grammatica

Nel mio post precedente, La malleabilità di "Universali" nella Grammatica Universale, ho discusso contro la tesi secondo cui gli universali del linguaggio, così come sono, risiedono in una pre-specifica biologica, una dotazione genetica umana. Ma, mentre le lingue esibiscono una diversità spesso sconcertante, tuttavia sembra che vi siano dei punti in comune che li attraversano. In questo post mi occupo di ciò che guida questa comunanza, prima di affrontare una domanda correlata: come potrebbe essere emersa la grammatica?

Diversità linguistica: un (brevissimo) tour di fischietto

Oggi ci sono tra le 6.000 e le 8.000 lingue parlate nel mondo, a seconda, tra l'altro, del modo in cui si distingue un "dialetto" da un "linguaggio": spesso si interviene su considerazioni sociali e politiche. Di queste lingue esistenti, circa l'82% è parlato da popolazioni di meno di 100.000 persone, il 39% è parlato da meno di 10.000 persone e l'8% delle lingue del mondo sono considerate in pericolo, con una lingua che si spegne ogni 10 giorni o così, su alcune stime. Prima del 1492, con il primo viaggio di Cristoforo Colombo nelle Americhe che segna l'inizio dell'imperialismo occidentale da parte dei regni europei, probabilmente c'erano il doppio delle lingue quante sono oggi. E proiettando indietro nel tempo, potrebbe esistere un totale di mezzo milione di lingue in totale, dall'avvento dell'Homo sapiens , circa 200.000 anni fa.

I sistemi audio utilizzati dalle lingue del mondo variano da 11 a 144 suoni distintivi. E, naturalmente, le circa 130 lingue dei segni riconosciute – probabilmente una sottostima radicale del numero vero – non usano affatto i suoni. Alcune lingue, come l'inglese, hanno un ordine delle parole abbastanza ristretto, almeno nelle frasi canoniche – in questa frase, la top model bacia il lavavetri , sappiamo che il soggetto è la top model che precede il verbo. Inoltre, gli ordini di parole esibiti dalle lingue possono essere estremamente diversi. Alcune lingue hanno persino un ordine apparentemente libero, almeno in apparenza; le lingue indigene australiane, come Jiwarli e Thalanyji, sono esempi. Tali lingue permetterebbero la frase inglese: questa donna ha baciato quel lavavetri calvo per essere trasportato come segue: Che questo lavavetri dalla donna calva e baciata .

Inoltre, mentre una lingua come l'inglese può aggiungere prefissi e suffissi alle parole – per esempio, la parola interessante può essere negata usando un- , rendendo poco interessante – alcune lingue, come il mandarino, generalmente non hanno la capacità di costruire parole da unità più piccole del tutto. Altri ancora costruiscono intere frasi non da singole parole, ma da prefissi e suffissi, creando parole giganti. Un tale esempio è la lingua Inuit Inuktitut, parlata nel Canada orientale. La parola-frase Inuktitut tawakiqutiqarpiit si traduce approssimativamente in inglese come la seguente frase: Avete del tabacco in vendita?

La grammatica di una lingua consiste di parti del discorso (conosciute anche come classi lessicali), inclusi i quattro grandi: nomi, verbi, aggettivi e avverbi. Tuttavia, molte lingue mancano di avverbi, mentre alcune, come Lao, mancano di aggettivi. Inoltre, alcuni linguisti hanno persino affermato che nomi e verbi potrebbero non essere evidenti in tutte le lingue.

Nuove parole possono essere create dai processi derivazionali e flessivi – per morfologia – come quando aggiungiamo al verbo inglese teach , o la terza persona singolare inflessione -s al verbo cantare , per segnalare l'accordo della persona e il tempo presente. Ma molte lingue mancano del tutto di morfologia. Mandarino e vietnamita sono due di questi linguaggi. Mancano di processi morfologici sistematici che consentono la creazione di nuove parole. Inoltre, queste lingue mancano di affissi flessivi che segnalano persona, numero e tempo. Ciò non significa, naturalmente, che tali linguaggi non possano essere usati per comunicare l'equivalente del significato del passato o il significato plurale inglese. In mandarino, queste nozioni sono dedotte dal contesto o segnalate da parole indipendenti, non da apposizione. Le lingue divergono nei loro sistemi morfologici, spesso in modi abbastanza sorprendenti.

Scene universali dell'esperienza

Tuttavia, mentre le lingue spesso ci sorprendono nella loro diversità, tutte le lingue e le culture sembrano avere i mezzi per trasmettere le scene fondamentali dell'esperienza umana. Ogni giorno, indipendentemente dal fatto che tu sia un oratore di inglese, malese, parlato in Brunei, Malesia e Indonesia, Wolof, parlato in Africa occidentale o Guugu Yimithirr, una lingua indigena australiana, muovi oggetti da una posizione all'altra, dai qualcuno a qualcuno qualcosa, ed eseguire innumerevoli altri tipi di compiti banali.

Inoltre, queste scene quotidiane vengono eseguite più volte al giorno, indipendentemente da dove vieni o in quale cultura sei incorporato. Questi tipi di scene quotidiane sono comuni a tutti noi: sono universali. E sembra che queste scene quotidiane dell'esperienza umana siano indiscutibilmente codificate in tutte le lingue del mondo. Ciò non significa che le lingue codifichino scene universali allo stesso modo, significa semplicemente che se stiamo cercando "universali" linguistici, allora il punto da cui partire dovrebbe essere quello di considerare se le lingue divergenti hanno le risorse linguistiche convenzionali per farlo.

Per esempio, la cosiddetta "costruzione ditransitiva", studiata dal linguista Adele Goldberg, tra gli altri, codifica lo schema semantico schematico: X induce Y a ricevere Z, come in: La supermodella ha dato alla finestra il suo fazzoletto . Questa costruzione a livello di frase esemplifica una tale scena universale di esperienza. Innumerevoli volte al giorno diamo qualcosa a qualcuno: passo un biscotto a un bambino, prendo in prestito denaro ad un amico, do un libro a uno studente, pago il negoziante e così via. E l'inglese codifica convenientemente i componenti essenziali di queste scene di trasferimento di oggetti con una costruzione a livello di frase. Mentre i dettagli variano, come ad esempio chi trasferisce, la natura dell'evento di trasferimento e cosa viene trasferito ea chi, l'inglese ci fornisce un modello già pronto che ci consente di trasmettere qualsiasi cosa, dal trasferimento concreto, a qualcosa di più astratto scene di trasferimento: la supermodella ha dato al lavavetri un pezzo della sua mente.

Mentre le scene di trasferimento sono relativamente complesse, ci sono altri tipi di scene relazionali di natura più semplice, ma che sembrano anche universali. Ad esempio, gli esseri umani in tutto il mondo sembrano concettualizzare certe entità come appartenenti ad altri. Questa nozione di possesso sembra anche essere un universale, una relazione che è centrale per l'esperienza umana. Le lingue differiscono, spesso in modo marcato, nel modo in cui esprimono questo. Il possesso può essere segnalato da un caso genitivo, indicato da -s, come nelle scarpe di John ; dalle preposizioni, ad esempio di Queen of England ; da marcatori possessivi dedicati; o in una serie di altri modi. Ma, per quanto ne so, tutte le lingue finora scoperte codificano il possesso in un modo o nell'altro.

Altri tipi di universali riguardano domini di esperienza, come il tempo e lo spazio. Qui non sto pensando alle idee relativamente astratte su cosa siano lo spazio e il tempo. Dopo tutto, molto inchiostro filosofico è stato versato sul fatto che il tempo sia reale o un fantasma creato dalla mente umana. Indipendentemente dallo status ontologico di questi domini, nella vita di tutti i giorni siamo molte creature che abitano il qui e ora: spazio e tempo. Dobbiamo tutti essere in grado di distinguere tra qui e là, e di tanto in tanto. E i sistemi grammaticali delle lingue del mondo forniscono una serie di risorse lessicali e grammaticali che ci permettono di distinguere tra presente e passato e la nostra posizione relativa nello spazio rispetto ad altri aspetti del nostro ambiente fisico. Che abbia un sistema grammaticale per il tempo o l'aspetto o segnali distinzioni temporali in altri modi, ogni lingua offre ai suoi utenti le risorse per parlare e riflettere sulle loro esperienze egocentriche nella matrice spazio-temporale dell'esperienza incorporata.

Persino le società preindustriali, come Amondawa – una tribù remota di circa 150 indiani amazzonici – che mancano di calendario indigeno e sistemi di calcolo del tempo, hanno tuttavia complesse risorse lessicali e grammaticali per concettualizzare eventi, sequenze e cicli di eventi, e la loro relazione con il ciclo agrario che incombe nella loro vita.

In ultima analisi, qualsiasi ricercatore obiettivo sarebbe difficile identificare l'universale linguistico oltre il banale. E questo perché gli universali umani non risiedono nel linguaggio. Gli universali, così come sono, derivano dal tipo di esperienze che condividiamo, una conseguenza dell'ambiente fisico sostanzialmente equivalente a tutte le esperienze umane e le strutture neuroanatomiche comuni che tutti abbiamo: il nostro cervello e il nostro corpo sono sostanzialmente simili, indipendentemente dalla lingua (s) parliamo. Ciò porta all'aspettativa che potrebbero esserci alcuni punti in comune che tutte le lingue devono, probabilmente, essere in grado di esprimere, indipendentemente dalla lingua e dalle strategie specifiche della cultura per farlo.

L'emergere della grammatica

Ma se gli "universali" non risiedono nella grammatica, come potrebbero emergere in primo luogo i sistemi grammaticali? Un sistema comunicativo – una lingua – potrebbe, in linea di principio, funzionare efficacemente senza grammatica; e questa era probabilmente la strada che il linguaggio umano ha preso. Gli umani ancestrali molto probabilmente iniziarono con un inventario di segni (parole), ma senza grammatica, che si sviluppò solo più tardi. La grammatica fornisce una sorta di impalcatura attraverso cui possono essere drappeggiate parole ricche e significative. Ma con un sistema grammaticale, una gamma più ampia di complessità e sottigliezza viene aggiunta alla gamma di significati che possono essere espressi.

In un linguaggio semplice o proto-linguistico, l'unica strategia di riferimento potrebbe essere stata quella di usare i segni per riferirsi a entità esterne al sistema, nel mondo – questo è ciò che io definisco una strategia referenziale simbolica "da parole a mondo" – che dirò di più in un post successivo. E questa strategia è riservata ai sistemi di comunicazione degli animali, così come alle lingue umane. In questa strategia, il significato del segno deriva interamente dall'idea a cui punta. Ad esempio, il significato della parola cane deriva dall'idea o entità a cui punta.

Ma il passaggio dal riferirsi alle entità al di fuori del sistema linguistico – dalle parole al mondo – per fare riferimento al suo interno – quello che definisco una strategia di riferimento simbolica "da parole a parola" – molto probabilmente non è accaduto come un singolo salto, ma piuttosto in fasi incrementali. E la prima fase del processo era probabilmente associata all'emergenza iniziale della grammatica.

Il primo stadio nello sviluppo della grammatica, un passaggio da un semplice inventario di segni senza differenziazione grammaticale, ad un sistema grammaticale rudimentale sarebbe stato l'emergere di categorie lessicali: categorie come, sostantivo, verbo, aggettivo e avverbio. Il significato di questo sviluppo fu che, per la prima volta, le parole arrivarono ad avere un significato in aggiunta ai referenti esterni che indicavano. I segni venivano a riferirsi simbolicamente ad altre parole. E in una strategia di riferimento parola-per-parola, i segni si riferiscono simultaneamente anche in una direzione da parole a mondo.

Un altro modo di pensare a questo è che, in virtù del fatto che esiste una convenzione che associa i suoni che formano la parola cane all'entità a quattro zampe nel mondo, si stabilisce una connessione naturale: la forma della parola indica anche l'entità, in virtù del fatto che la parola è legata simbolicamente, nella nostra mente, all'idea dei cani dalla nostra interazione con loro nel mondo.

La divisione in categorie lessicali, ad esempio un nome contro un verbo, sarebbe sorto in virtù di uno spostamento tale che mentre il riferimento simbolico veniva mantenuto nella direzione da parole a mondo, il riferimento indicale era stabilito nella direzione da parola a parola . Per illustrare questo, considera la distinzione tra rossore (un sostantivo) e rosso (un aggettivo). Entrambe le parole si riferiscono a un'entità al di fuori del linguaggio: quella parte dello spettro di colori che ha la frequenza associata all'intervallo di tonalità associato alla designazione "rosso"; questo copre quella parte del continuum dello spettro di colori che va da tutte le sfumature dall'arancione scuro, al rosso brillante, al viola chiaro. Ma in aggiunta, le parole arrossamento e rosso si riferiscono anche ad altri segni, all'interno del sistema, e in un modo piuttosto speciale. Queste parole ci permettono di combinarle con altre parole, perché parte del loro significato è interno al sistema.

Esaminiamo l'aggettivo rosso in modo un po 'più dettagliato. Parte del significato di questa parola è quella parte dello spettro cromatico a cui si riferisce simbolicamente. Ma parte del significato riguarda ciò che la parola trasmette all'interno del sistema linguistico – ciò a cui mi riferisco come il suo significato "parametrico", una dimensione schematica del significato, piuttosto che il ricco dettaglio visivo del "rossore" in tutto il suo splendore – il rosso si riferisce a una proprietà di un'entità simile a una cosa. È per questo motivo che il rosso può essere usato per modificare i nomi: i nomi designano entità simili alle cose che, in linea di principio, hanno proprietà. Di conseguenza, è per questo motivo che il rosso può essere combinato con una vasta gamma di nomi, in inglese, che vanno dal rossetto , allo scoiattolo e al maglione , al rossetto rosso , allo scoiattolo rosso e al maglione rosso , dove il rosso indica una proprietà saliente di l'entità che modifica.

Al contrario, poiché il rosso è un sostantivo, può essere combinato con parole che parlano di altre proprietà dei nomi, ad esempio la loro capacità di subire cambiamenti nel tempo, codificati dai verbi. Ad esempio, il rossore può combinarsi con verbi come colare e filtrare , come in espressioni del tipo: rossore oozed (sotto la porta) ; Il rossore è filtrato (dalla ferita) . Un altro modo di pensare a questo è che entrambi gli aggettivi, come il rosso , e i verbi come la melma e il filtraggio hanno degli slot che possono essere elaborati. Parte del significato, di un aggettivo, quindi, è che richiede un'entità simile a una cosa per completare il suo significato: una proprietà è, per necessità, una proprietà di qualcosa. E così, un aggettivo specifica un "sito di elaborazione", nel senso della Grammatica Cognitiva di Ronald Langacker: quella parte del suo significato che si riferisce a una cosa di cui designa la proprietà.

Quello che sto dicendo, in sostanza, è che una grammatica implica la nostra capacità di combinare le parole, al fine di produrre complesse combinazioni di parole. Ma il potere combinatorio della grammatica è una conseguenza di diverse categorie lessicali che completano il significato di altre categorie lessicali. La prova di ciò viene dal contributo semantico piuttosto diverso delle diverse categorie lessicali, per esempio un sostantivo contro un aggettivo, quando si riferiscono, simbolicamente, a idee ed entità al di fuori del sistema linguistico. Considera i seguenti esempi, per illustrare questa idea:

Trattare l'arrossamento con la crema d'urgenza Clinique.
Trattare la pelle rossa con la crema d'urgenza Clinique.

Entrambe le parole, rosso e rosso , che ho sottolineato, si riferiscono allo stesso stato percettivo: quella parte di spazio concettuale corrispondente allo spettro dei colori solitamente identificato come "rosso". Ma le parole – rosso e rosso – impacchettano il contenuto in un modo diverso. Nel primo esempio, il rossore porta a un'interpretazione relativa a una "condizione" della pelle. Nel secondo, il rosso si riferisce più direttamente a una proprietà indesiderata della pelle. Le diverse interpretazioni che derivano da queste frasi non sono dovute all'attivazione di una tonalità diversa – la tonalità è presumibilmente la stessa in entrambi gli esempi. Piuttosto, le parole-sostantivo contro aggettivo-sfumatura sono la nostra interpretazione della tonalità percettiva: danno origine a letture distinte: un'interpretazione della "condizione della pelle" da un lato, rispetto allo "scoloramento della pelle", dall'altro.

Nel caso del rosso , questa parola, un aggettivo, ci dice che qualunque cosa si riferisca simbolicamente al rosso, deve essere interpretata come una "proprietà" di qualche entità. Al contrario, il rossore ci dice che qualunque cosa punti all'esterno del sistema linguistico, deve essere interpretata come una "cosa"; e nel caso del colore, una proprietà reificata come una qualità distinta dalle entità di cui potrebbe essere altrimenti una proprietà. La conseguenza è che il rosso contro il rossore porta a interpretazioni diverse. Nel caso del rosso , l'interpretazione della seconda frase è che si tratta di una proprietà presumibilmente indesiderata della pelle, una colorazione insolita che viene percepita come una pelle rossa . Al contrario, nel primo esempio, l'uso del rossore ci dice che la colorazione simbolicamente riferita è un'entità a sé stante: questo suggerisce un'interpretazione in cui si tratta di qualcosa di più che un semplice scolorimento della pelle, ma in realtà una pelle condizione Mentre la differenza nelle interpretazioni tra le due frasi è sottile, c'è tuttavia una distinzione: un'interpretazione della condizione della pelle (nel primo esempio) e uno scolorimento della pelle (nel secondo). E questo è direttamente attribuibile all'uso del rossore rispetto al rosso . In breve, l'evidenza di una distinzione nel carattere semantico dei nomi contro i verbi è illustrata da questi esempi.

Questo illustra anche un'ulteriore proprietà delle categorie lessicali, come nomi, verbi e aggettivi. In virtù del riferimento ad altre parole all'interno del sistema linguistico, esse codificano anche il significato schematico: la conoscenza parametrica che ho menzionato prima. Come abbiamo appena visto, usando il rosso contro le sfumature rosse l'interpretazione generale di una frase. L'aggettivo rosso ci dice di interpretare "rosso " come una proprietà di qualcos'altro, mentre il rosso ci dice di interpretare "rosso" come un'entità indipendente dalle entità di cui è una proprietà. Dopotutto, il rossore è un sostantivo; quindi, il rossore reifica il colore "rosso" come se fosse un'entità astratta, divorziata, almeno concettualmente, da tutte le cose rosse.

Questa capacità semantica delle categorie lessicali rivela due caratteristiche progettuali della grammatica che sono piuttosto notevoli. Primo, il significato associato alle categorie lessicali, come i nomi e gli aggettivi, è parametrico – non fornisce un riferimento ricco, in un modo da parole a mondo. Dopotutto, il significato delle categorie lessicali rosso (aggettivo) e rossore (sostantivo) non dipende da ciò che le parole stesse indicano simbolicamente al di fuori del sistema linguistico. Lì, il significato simbolico ha a che fare con il rosso in tutta la sua gloria. Ma all'interno del sistema linguistico, il significato non si riferisce ai dettagli di come percepiamo o ricordiamo il rosso. È molto più abbozzato, delineando se abbiamo a che fare con una proprietà (di una cosa) o una cosa.

Secondo, in quanto altamente schematico, questo tipo di significato è qualitativamente distinto dal tipo di riferimento simbolico raggiunto dalle parole quando si richiamano alla mente entità nel mondo reale o nella nostra mente. La relazione è referenziale non nel senso che si riferisce a un'idea nella mente o un'entità nel mondo. Piuttosto, seleziona una classe specifica di categoria lessicale. Per esempio, l'aggettivo rosso può, in linea di principio, scegliere praticamente qualsiasi nome in inglese. Detto questo, alcune categorie lessicali sono più restrittive. Per esempio, l'articolo indefinito, a , individua una sottoclasse del sostantivo di categoria lessicale, i cosiddetti nomi di conteggio dell'inglese: i nomi di conteggio sono quei nomi che possono essere pluralizzati – e quindi contati come tabella, uomo o amore e un sottoinsieme di questa classe: solo quelli contano i nomi che sono singolari: un uomo , ma non * un uomo (i linguisti usano un asterisco prima di un'espressione per mostrare che la frase o l'espressione è sgrammaticata).

E ciò che rivela è qualcosa di piuttosto speciale nelle categorie lessicali: la relazione tra le diverse categorie lessicali è motivata. Un aggettivo, in virtù della designazione di una proprietà, porta uno slot schematico per una cosa, la cosa di cui è designata la proprietà. Il potenziale combinatorio dell'aggettivo e del sostantivo deriva da questa relazione: un aggettivo viene elaborato da una cosa, che completa quindi il suo potenziale di significato schematico. Quindi, questo tipo di significato, in virtù dell'essere motivato, è qualitativamente distinto dalla relazione che tiene tra i segni in una direzione da parola a mondo.

In ultima analisi, ciò che questo suggerisce è che una volta che gli umani ancestrali hanno varcato la soglia simbolica, una volta che hanno iniziato a usare i simboli in un modo da parole a mondo, sarebbe stata solo una questione di tempo prima che i simboli iniziassero ad essere utilizzati in un modo astratto: adottare una strategia referenziale parole-parole. È probabile che un ampio vocabolario di segni, o proto-parole, parole non ancora assegnate a un inventario di categorie lessicali si sarebbe sviluppato prima che emergesse una distinzione nelle categorie lessicali. E potrebbe essere che lo sviluppo di un complesso corpus di proto-parole, basato su riferimenti simbolici tra parole e mondo, fosse un pre-requisito prima che una grammatica, basata su categorie lessicali, potesse cominciare ad emergere, con strategie grammaticali più complesse, come come ricorsione – la capacità di combinare unità grammaticali l'una nell'altra – emergendo solo più tardi. In breve, la complessità grammaticale, inclusa la sintassi, era probabilmente una caratteristica emergente – una conseguenza a valle – del passaggio incrementale da una strategia di riferimento simbolica da parole a mondo a una parola-per-parole.

L'emergere della complessità grammaticale

Abbiamo visto che la caratteristica di definizione della grammatica è che codifica i concetti parametrici: i significati grammaticali sono di natura schematica e ci permettono di modellare le nostre rappresentazioni concettuali – i concetti ricchi e multimodali che popolano il sistema concettuale umano – per produrre complessi e significato sofisticato. Questa è, naturalmente, la logica interna essenziale della capacità di produzione di significato umano. Il linguaggio si è evoluto come mezzo per usare la conoscenza parametrica per accedere, sfumare ed esternalizzare queste ricche rappresentazioni 'analogiche' nei nostri sistemi concettuali per scopi di comunicazione. Quindi, una volta che le lezioni lessicali cominciarono ad emergere, come discusso sopra, come avrebbe potuto procedere lo sviluppo della prima grammatica umana? In termini leggermente diversi, quali sono stati gli stadi nell'emergere del nostro repository di concetti parametrici?

Anche se, naturalmente, non possiamo saperlo con certezza, la recente comparsa della "grammaticalizzazione" – lo studio del modo in cui la grammatica si sviluppa e si evolve – offre spunti convincenti su come potrebbe essere stato il processo. Ci possono essere pochi dubbi sul fatto che le lingue evolvano. E non solo in termini di vocabolario; la loro struttura cambia, spesso al di là del riconoscimento, in modo sorprendentemente rapido. Ad esempio, l'inglese parlato in Inghilterra circa 1.000 anni fa è, a tutti gli effetti, una lingua straniera – i parlanti contemporanei inglesi oggi non lo riconoscono come inglese, e sono ancora meno in grado di capirlo. Considera il seguente frammento di poesia di Il pescatore di Aelfric scritto intorno al 1000 d.C.

Hwelcne cræft canst þu?
Ic eom fiscere.
Hu gefehst þu þa fiscas?
Ic ga su minne bat, e rowe ut su þa ea .

Ecco la traduzione inglese moderna:

Che mestiere conosci?
Sono un pescatore
Come prendi il pesce?
Vado nella mia barca e mi lancio in mare.

Ciò che colpisce è quanto fosse diverso l'inglese antico. E infatti, un millennio è stato sufficiente per l'inglese per sottoporsi a una riconfigurazione del suo sistema grammaticale all'ingrosso, molte volte più veloce dell'evoluzione biologica. Quindi, che cosa spiega il drammatico cambiamento della composizione grammaticale dell'inglese? La risposta è il processo naturale di grammaticalizzazione. La grammaticalizzazione riguarda tutte le lingue del mondo e, a questo proposito, l'inglese non è speciale. Il passaggio dal latino alle moderne lingue romanze di francese, spagnolo, italiano e così via, anche nell'arco di circa 1.000 anni, è anche giustificato da questo processo.

La grammaticalizzazione implica tre aspetti. Innanzitutto, c'è un cambiamento nel significato dell'unità linguistica che sta attraversando il processo. Il cambiamento semantico implica un allontanamento da un significato più concreto a uno più schematico. In breve, implica un passaggio dalla conoscenza analogica alla conoscenza parametrica. Considera il verbo inglese antico willan . Circa 1.000 anni fa, willan era un verbo lessicale completo, che significava "volere" o "desiderare" qualcosa. Ma nel corso della sua storia, è venuto per essere usato come un marcatore prima di intenzione, e da ultimo come un indicatore di futilità, come incarnato nella moderna volontà inglese, come in: Pioverà domani . Questo rivela che il significato più ricco associato a willan ha lasciato il posto a un significato schematico e parametrico.

Inoltre, willan ha subito un secondo cambiamento simultaneo: ha spostato la sua classe lessicale. Mentre Old English willan era un verbo lessicale completo, uno che poteva prendere vari affissi del passato, la volontà moderna viene indicata dai linguisti come un marcatore 'modale'. Viene usato insieme ai verbi lessicali, come in caso di pioggia : modali come deve , dovrebbe , potrebbe , potrebbe , e così via, tutti anch'essi evoluti dai verbi completi, designano necessità o possibilità. Ma ora appartengono a una diversa classe lessicale: non sono più verbi lessicali. E questo è un modello comune di grammaticalizzazione che si trova in tutte le lingue del mondo: i verbi completi si evolvono in marcatori modali.

E infine, willan ha subito un processo grazie al quale il suo contenuto fonologico è diventato sempre più compatto. Nel medio inglese willan si è evoluto nella volontà della forma più corta. E nell'inglese moderno, si è verificato un ulteriore cambiamento in modo tale che ora si verifica in genere, nella lingua parlata, come un allegato al verbo principale: pioverà domani , con la forma completa ora riservata esclusivamente all'enfasi.

Una conseguenza di questi tre tipi di cambiamenti associati al processo di grammaticalizzazione, e ampiamente attestata nelle circa 7.000 lingue del mondo, è che una grammatica emerge da voci di vocabolario in piena regola. E come conseguenza della nostra relativamente recente comprensione del processo di grammaticalizzazione, è ora possibile ricostruire il modo in cui la grammatica si è evoluta dal primo linguaggio umano. Dopo tutto, se i marcatori modali si sono costantemente evoluti dai verbi, allora è ovvio che i verbi devono aver preceduto i marcatori modali in termini di evoluzione grammaticale. E risultati simili relativi ad altri elementi lessicali possono essere usati per ricostruire la genesi della grammatica.

I linguisti Bernd Heine e Tania Kuteva hanno argomentato, basandosi sul tipo di modifiche al linguaggio che ho appena delineato, che la grammatica umana si è sviluppata in una serie di fasi. Il primo stadio molto probabilmente riguardava l'emergere di nomi comuni: in termini evolutivi, i nostri primitivi elementi grammaticali. I nomi sono prototipicamente, sebbene non indichino esclusivamente le entità tangibili e / o visibili che possono essere identificate nel mondo reale. Il secondo stadio potrebbe aver coinvolto l'emergere di verbi, che potrebbero essersi evoluti dai nomi. Le prove della grammaticalizzazione, nelle lingue moderne, rivelano che i verbi spesso si evolvono dai nomi, come evidenziato dall'inglese, ad esempio, in cui nomi storicamente precedenti, come l' editore , hanno dato origine a nuovi verbi come quelli di modifica .

E con l'emergere di una seconda distinta classe lessicale, nacque la grammatica: la distinzione tra nomi contro verbi avrebbe fornito, per la prima volta, una distinzione nella conoscenza parametrica non apparente con una singola classe lessicale. Semanticamente, i sostantivi codificano un parametro relativo ad una regione in qualche dominio, mentre i verbi codificano un processo che si evolve nel tempo. E con l'avvento di una distinzione in classe lessicale, sarebbe stato possibile combinare parole di diverse classi lessicali, fornendo un ordine di parole rudimentale o una sintassi. E col tempo, questo ordine di parole avrebbe sviluppato un significato schematico. Ma questo, naturalmente, pone molte altre domande. Nel mio prossimo post rivisiterò la questione del putativo passaggio dalle strategie di riferimento simbolico da parole a mondo a parole-a-parole. E questo aiuterà anche a far luce sul modo in cui, come sostengo, i sistemi di comunicazione animale formano un punto su un continuum con il linguaggio umano, pur riconoscendo la complessità e la complessità squisitamente maggiore del linguaggio umano.