4. I L RUOLO DEI SEGNALI UDITIVI NELLE RAPPRESENTAZIONI MENTALI
4.3. Natura e meccanismi della percezione linguistica
Come sostiene il linguista americano N. Chomsky (1975), gli individui umani nascono con una predisposizione innata per la grammatica del linguaggio, per cui in qualche modo la conoscono già alla nascita. Chomsky parla infatti di una grammatica universale innata (1986) codificata nel nostro corredo genetico e in un certo senso localizzata nel cervello al pari di un organo (LAD, Language acquisition device). Egli ritiene che tutte le lingue condividono dei principi generali, delle strutture logiche profonde, le quali evidenziano l’innatezza delle nostre capacità linguistiche (crf. Chomsky, 1975). Tuttavia, come si è appena detto nel paragrafo precedente, sebbene i fattori biologici abbiano in sé un inestimabile valore, essi si intrecciano e si incontrano continuamente con i fattori ambientali. Il linguaggio quindi si fonda sul funzionamento di strutture periferiche e centrali deputate al suo controllo, ed è altresì basata su meccanismi biologici innati.
Dal momento poi che il linguaggio è una modalità privilegiata di rappresentazione per il sapiens è necessario capire quali sono i meccanismi che stanno attorno ai processi linguistici. A questo proposito facciamo un breve accenno alle teorie principali che si sono occupate di illustrare tali meccanismi:
1. La motor theory è una teoria secondo la quale durante la comprensione linguistica bisogna tenere sempre in considerazione le proprietà articolatorie (Lieberman
et al., 1967). Secondo questa posizione la percezione del parlato infatti consiste sì
nell’identificare e nell’interpretare i diversi fonemi di una lingua ma anche nell’individuare i “gesti” articolatori utilizzati per pronunciare le parole (Lieberman & Mattingly, 1985; Mattingly & Studdert Kennedy, 1991). Gli “oggetti linguistici” sarebbero sia suoni sia movimenti, e tali movimenti sarebbero costituiti da un set di specifiche configurazioni codificate visivamente sulla base di una serie di conoscenze implicite. In questo tipo di riconoscimento fonemico la vista si rivela il sistema di senso più adatto, capace di discriminare suoni simili come /di/ e /du/ che implicano determinate articolazioni della bocca e della lingua, e sono difficilmente riconoscibili uditivamente. Allo stesso modo, ci sono coppie consonantiche analoghe che non possono essere colte immediatamente mediante l’organo visivo, ma comprese facilmente dall’orecchio, come ad esempio /ba/ e /pa/, due coppie di fonemi in cui i gesti articolatori prodotti sono quasi gli stessi.
2. Secondo il single channel model, invece, benché gli input verbali vengono inviati a entrambi gli organi di senso, gli stimoli ricevuti vengano processati da un canale alla volta. Per cui ad agire sarebbe un meccanismo di attenzione selettiva in cui i dati percepiti vengono accolti dalla modalità dominante.
3. Diversi studi ritengono che il modello più rappresentativo per spiegare come avviene la percezione linguistica è il fuzzy logical model of Perception (Massaro, 2004), secondo cui i segnali visivi e acustici non vengono elaborati insieme (fig. 13). Esiste innanzitutto una cosiddetta fase di “valutazione” in cui ogni elemento viene esaminato indipendentemente. In seguito a questa fase, gli stimoli sensoriali vengono elaborati e integrati per produrre delle specifiche risposte interpretative e poi, a lungo andare, con l’esperienza, queste risposte diventano sempre più congrue con quello che realmente è stato percepito. Sicché gli input separati in una prima fase vengono successivamente integrati e combinati, per poi essere individuati e interpretati.
In accordo alle teorie appena esposte e nell’ambito degli studi sull’integrazione multisensoriale, la percezione linguistica viene spesso trattata come un esempio specifico di elaborazione e di integrazione bimodale (Massaro, 1987, 1998a, b, 2004; Massaro & Stork, 1998, Massaro & Light, 2003) o più nello specifico come un caso di integrazione audio-visiva (Robert-Ribes et al., 1995) in cui informazioni uditive e visive si combinano insieme. Pertanto, contrariamente a quanto si crede, nei processi di apprendimento e di
produzione verbale non sono solo gli elementi acustici a essere coinvolti ma altresì la modalità visiva, specie per quei fonemi eseguiti tramite movimenti delle labbra ben distinguibili (b, g, m, f, v) (Kuhl & Meltzoff, 1982). In questi ultimi casi, perciò, “vedere” i suoni rende più precisa la loro imitazione.
A tal proposito si possono menzionare alcuni studi molto affascinanti sullo sviluppo fonologico nei bambini non vedenti (Mills, 1983; Mulford, 1988) grazie ai quali possiamo notare come in assenza di feedback visivi, gli errori di articolazione (almeno per quanto riguarda la fase iniziale), sono maggiori rispetto al gruppo dei vedenti. Le difficoltà principali sono nella discriminazione e nella produzione di quelle consonanti con un’articolazione visivamente percettibile, contrariamente a quelle la cui fonetica è facilmente interpretabile per via uditiva, per esempio le dentali (t, d,), le palatali (c, g) o le velari (k, g). Per cui, l’evidente ritardo fonologico sembra rimanere confinato solo alla riproduzione di certi suoni (Pérez-Pereira & Ramsden, 2002, p. 68), e comunque i problemi di discriminazione iniziali non intaccano lo sviluppo linguistico successivo. Quando i bambini non vedenti crescono, si riscontra una produzione fonetica normale e una adeguata pronuncia.
Figura 13. Rappresentazione schematica dei processi coinvolti nel riconoscimento
percettivo. Gli input uditivi sono rappresentati da Af e quelli visivi da Vf.
Fonte: (Massaro, 2004)
I ciechi poi sviluppano un super udito: imparano a “vedere” attraverso le orecchie e sviluppano una predisposizione maggiore verso stimoli di tipo non visivo. Dunque, seppur
essi siano impossibilitati a vedere il viso di chi parla, si focalizzano sugli stimoli uditivi, soprattutto su quelli verbali. Memorizzano e riproducono esattamente le proprietà formali di una lingua, modulano rigorosamente il tono e il volume di voce, affidandosi continuamente ai suoni percepiti e avvalendosi delle descrizioni verbali altrui come mezzo tramite cui entrare in sintonia con il mondo dei vedenti.
Vari studi riguardanti la plasticità cerebrale hanno dimostrato che il cervello, in assenza di input visivi, è in grado di riadattarsi e riorganizzarsi per vicariare il deficit. I neuroni della corteccia cerebrale uditiva sviluppano una maggiore capacità selettiva e di discriminazione delle frequenze e dell’intensità dei suoni. Alcuni ricercatori dell’Università del Maryland e della Johns Hopkins University diretti da Hey-Kyoung Lee hanno scoperto che le connessioni acustiche aumentano per compensare la perdita degli stimoli visivi. La maggiore sensibilità uditiva infatti consente di percepire anche le variazioni più fini. Lo stesso accade dal punto di vista della sensibilità tattile, la quale risulta superiore proprio nei non vedenti rispetto ai normodotati, e ciò spiega la loro capacità di leggere abilmente il braille. In questo processo il talamo (centro di smistamento delle informazioni che devono essere inviate alle aree corticali primarie) svolge un’azione cruciale poiché è come se mettesse su una bilancia gli stimoli sopraggiunti ancor prima di inviarli alla corteccia. Valuta attentamente quali input sopraggiungono e nel caso in cui mancano quelli visivi cerca di catturare altre informazioni, ad esempio quelle che derivano dal canale uditivo, e poi le invia alla corteccia uditiva. Questo accade per assicurarsi almeno una fonte di stimoli adeguata per sopravvivere.
Le ricerche sopramenzionate quindi si rivelano preziose per chiarire alcuni aspetti della percezione linguistica, e danno un’ulteriore prova del fatto che il nostro cervello ha una straordinaria capacità di “organizzarsi” (e riorganizzarsi) anche in seguito a una deprivazione sensoriale.