• Non ci sono risultati.

Multisensorialità e “cross-modal language”

4. I L RUOLO DEI SEGNALI UDITIVI NELLE RAPPRESENTAZIONI MENTALI

4.5. Multisensorialità e “cross-modal language”

Le vaste ricerche sulla multisensorialità, affrontate per un buona parte nell’ambito di deprivazioni sensoriali, ci guidano nella scoperta dei complessi meccanismi dedicati alla comprensione e all’apprendimento linguistico. Esaminando poi le situazioni più comuni di vita quotidiana si nota che i meccanismi di sostituzione e di integrazione sensoriale sono sempre attivi, soprattutto durante gli scambi comunicativi. Tuttavia si nota che gli input acustici, ad esempio, sono sufficienti nel rendere chiara la comprensione verbale, e questo sembra essere confermato dal fatto che la maggior parte degli individui è capace di comunicare senza problemi attraverso una cornetta telefonica (sfruttando solo il canale uditivo). Perché allora molte delle informazioni ricevute coinvolgono anche altre modalità, visto che (in relazione al compito da svolgere) a volte è sufficiente solo una di loro? Parte della risposta potrebbe trovare la sua radice nella nostra ontogenesi. Nonostante i dati provenienti da un unico canale potrebbero bastare, l’integrazione appare una cosa del tutto naturale e, in un certo senso, sembra seguire il flusso della vita poiché molte informazioni nel corso dello sviluppo si vanno a perdere a causa di un indebolimento graduale dei sensi.

Le considerazioni esposte ci fanno capire inoltre che la percezione multisensoriale non si manifesta solo a un livello immediatamente legato con la sopravvivenza (quale aggiramento di ostacoli, evitamento di pericoli o di condizioni dannose, ecc.) ma anche e soprattutto a livello linguistico.

L’homo sapiens sfrutta in natura modalità diverse di espressione, comunicando simultaneamente o in modo alternato attraverso mezzi verbali e non verbali: utilizza la voce articolata ma anche i gesti, le espressioni del viso o del corpo. Nella fattispecie, le parole vengono affiancate e integrate con i gesti co-verbali così da completare ed enfatizzare il messaggio orale. Nel fare ciò si ricorre spesso anche a un’alterazione delle modalità prosodiche, ossia del ritmo, dell’intonazione e dell’intensità con cui i contenuti dei discorsi vengono espressi oralmente. L’attività del parlare però si può manifestare anche da sola rivelando un’incredibile flessibilità, dovuta alle illimitate possibilità di comunicazione verbale. Il linguaggio verbale infatti rappresenta il più potente e sofisticato sistema semiotico umano (Cavalieri, 2016, p. 205), sebbene appunto non sia l’unica

modalità attraverso cui si possono incarnare pensieri, idee, concetti o formare rappresentazioni.

Come si è osservato dall’analisi dei dati statistici ricavati sulle stereotipie (vedi capitolo due), le routine comportamentali (presenti in modo prevalente nelle fasi iniziali dello sviluppo) costituiscono anch’esse un mezzo di espressione, mediante cui i ciechi comunicano ed esprimono i propri stati mentali. Non appena poi il pensiero comincia a organizzarsi e a strutturarsi attorno al sistema linguistico, le stereotipie tendono a scomparire per lasciare il posto a un mezzo di comunicazione più efficace. Il linguaggio orale, infatti, seppur come abbiamo detto non costituisca l’unico sistema di comunicazione umana, in realtà porta con sé degli inevitabili vantaggi: basti pensare alla sua capacità di imporsi a prescindere dal nostro livello di attenzione; al suo propagarsi anche al buio, a una certa distanza, in presenza di ostacoli (ad esempio da una stanza all’altra). E altro fattore fondamentale: la possibilità di comunicare lasciando le mani libere di svolgere altre attività. Diciamo quindi che la lingua vocale risulta la modalità di produzione più efficace e il veicolo principale tramite cui avviene una complessa elaborazione simbolica e una piena rappresentazione delle conoscenze. Tuttavia, le ricerche effettuate sulle stereotipie comportamentali dei non vedenti ci portano a riflettere sul fatto che ogni atto linguistico è espressione di una varietà di sistemi, capaci di interagire dinamicamente fra di loro costituendo delle unità globali in cui alla fine: sistema linguistico e non linguistico concorrono in modo complementare.

Pertanto, sebbene generalmente pensiamo alla comunicazione come un’attività meramente verbale, il comunicare non coincide comunque e necessariamente solo con il parlare. La comunicazione in senso stretto implica uno scambio reciproco di conoscenze, di emozioni, di esperienze e una trasmissione di informazioni intenzionale (Castelfranchi & Parisi, 1980) che può realizzarsi con codici diversi dalla lingua verbale. Quando parliamo genericamente di “linguaggio” quindi non possiamo limitarci a pensare solo alla modalità orale poiché quest’espressione chiama in causa un gran numero di codici corporei e non corporei (Fontana, 2009). In un’accezione più ristretta il termine linguaggio si riferisce al linguaggio verbale specificamente umano, ma può assumere diverse forme: oggi, infatti, accanto alle lingue parlate e alle lingue scritte vanno incluse anche quelle segnate create e usate nella comunità dei sordi. Queste ultime ci fanno comprendere meglio come la mente (in circostanze straordinarie come questa), laddove è impedita la facoltà specie-specifica di parlare, provvede comunque a elaborare un sistema extraverbale altrettanto efficace sia sul piano linguistico sia sul piano cognitivo. La lingua

dei segni però si manifesta attraverso una modalità diversa da quella acustico-vocale, nella fattispecie si tratta di una lingua visivo-gestuale in cui le mani, il viso e una parte del corpo “parlano”, mentre gli occhi “ascoltano” (Cavalieri, 2015, p. 75), perciò gli input visivi diventano il veicolo principale tramite cui apprendere una lingua per comunicare qualsiasi pensiero.

Abbiamo menzionato il caso dei sordi e delle lingue visivo-gestuali per illustrare le diverse forme che può assumere il linguaggio umano, sia in condizioni normali sia in casi di deprivazione sensoriale. Risulta interessante notare infatti che la lingua utilizzata dai sordi, fa un uso combinato di componenti manuali e di componenti non manuali (espressioni del volto, movimenti del capo, del tronco e delle spalle, gesti labiali, ecc.) con precise funzioni linguistiche (fonologiche, morfologiche e sintattiche), così come la lingua sfrutta la multimodalità. I sordi segnanti inoltre fanno ricorso anche ai gesti-coverbali non linguistici, ovvero ai cosiddetti “gesti-cosegnici”, i quali supportano e accompagnano il sistema segnico-linguistico. E se ciò non bastasse, tali gesti nelle prime fasi dello sviluppo (in cui il sistema linguistico-segnico ancora non è ben strutturato) contribuiscono primariamente nell’espressione del pensiero. Un po’ come accade con i soggetti ciechi nella fase preverbale in cui la possibilità di esprimere idee e pensieri è affidata alla comunicazione corporea-gestuale.

Alla luce di queste importanti riflessioni sul linguaggio umano, quindi, come ci mostra anche la neurolinguistica dei segni, si ritiene che la facoltà del linguaggio non dipenda dalle modalità di percezione e di produzione coinvolte, e oltretutto l’esposizione a una lingua parlata non sarebbe indispensabile per lo sviluppo della specializzazione emisferica. Gli studi linguistici sul cervello dei segnanti sostengono l’ipotesi di una predisposizione genetica dell’emisfero sinistro per il linguaggio che prescinde dalla modalità in cui si incarna, cosicché sia nel caso di una perdita di informazioni visive sia nel caso di un’assenza di input uditivi, il linguaggio sarebbe comunque in grado di svilupparsi. Tuttavia, nonostante ci sia tale predisposizione, la corteccia è pur sempre plasmabile dall’esperienza, specie da quella precoce (Nicolai, 2003, pp. 111). Su questo punto ritorneremo nel paragrafo che segue.

Le indagini intraprese sulle stereotipie dei ciechi e gli studi sulla comunicazione visivo-gestuale dei sordi, passati brevemente in rassegna, ci rivelano oltretutto l’esistenza di uno stretto legame tra linguaggio e movimento. In particolare in entrambe le situazioni si nota come la gestualità non verbale, presente fin dai primi stadi dello sviluppo, rappresenti un precursore del linguaggio indipendente dalla modalità. Infatti nella

selezione dei movimenti di braccia e di mani così come della, muscolatura orale, si riscontrerebbe un’attivazione delle aree linguistiche classiche (Fontana, 2009, pp. 51, Kimura, 1981), il che andrebbe a confermare l’ipotesi più importante secondo cui l’attività motorio-gestuale rappresenti un importante start point per lo sviluppo verbale successivo. Questo ci suggerisce che le persone cieche se sviluppano ottime abilità linguistiche non è solo perché focalizzano gran parte dell’attenzione sugli stimoli verbali, ma soprattutto perché nella prima infanzia fanno un uso continuo e ridondante di comportamenti motorio-gestuali. Di conseguenza si pensa che la precoce e continua attivazione dell’area di Broca (quando si compie o si pianifica un’azione) porti poi a una sua specializzazione in ambito linguistico.

Se i sordi dunque sono prevalentemente “visivi”, inclini ad ascoltare, a comprendere e a rappresentarsi la realtà attraverso gli occhi, con una forte attitudine naturale per i segni (una forma di comunicazione visivo-gestuali); i ciechi al contrario mostrano una forte propensione verso gli stimoli acustici e, come abbiamo visto, si affidano primariamente ad essi per acquisire conoscenze e apprendere il linguaggio verbale. Come ci indicano gli studi sulla cecità e sulla sordità, perciò, il linguaggio non è solo un esempio di integrazione multimodale ma anche di cross-modalità. Ciò vuol dire che laddove una delle modalità coinvolte nella percezione linguistica risulti deficitaria o totalmente assente è comunque possibile effettuare un’efficiente “sostituzione” sensoriale.

Ad avvalorare ancora la tesi della natura plastica del nostro cervello sono anche i dati ricavati da situazioni di vita quotidiana, in cui si può intravedere come la multisensorialità e la cross-modalità sono costantemente in gioco, specialmente quando le condizioni esterne al soggetto impediscono di elaborare e integrare correttamente entrambi gli input. Nello specifico, si possono distinguere due casi di percezione ambigua in cui, nonostante gli elementi esterni inficino i normali processi interattivi, i meccanismi di vicariamento intervengono per mediare e supportare le attività di ricostruzione dei significati.

1° CASO:

Ad esempio quando le condizioni di scarsa illuminazione impediscono di visualizzare i movimenti prodotti dal cavo orale, gli input sonori possono compensare parte delle informazioni impossibili da cogliere per via visuale.

2° CASO:

Nel caso in cui rumori di sottofondo disturbano la percezione acustica, la vista può intervenire nel supportare i processi di analisi e di discriminazione dei suoni articolati.

Se ne deduce perciò che le esperienze multisensoriali, oltre a favorire l’adattamento in situazioni di deprivazione sensoriale, permettono di avere una percezione della realtà più completa e globale.