• Non ci sono risultati.

Vie uditive primarie del cervello

Neuroscienze della musica

2.3 Vie uditive primarie del cervello

Come già anticipato, è il cervello il vero protagonista della percezione e soprattutto della comprensione dei rumori, delle parole e della musica; nondimeno ancora sono molteplici le questioni irrisolte che lo riguardano: in realtà, non è del tutto chiaro lo stesso scopo di un apparato acustico tanto articolato quanto quello umano. In passato, il trattamento per contrastare i sintomi della sindrome di Ménière28, consisteva in un intervento chirurgico finalizzato alla rescissione di una notevole porzione del nervo acustico; dalle osservazioni postoperatorie sui pazienti fu scoperto che la compromissione dell’udito fosse minima sebbene il nervo in questione fosse stato interrotto per circa la metà della sua sezione. In aggiunta, numerose ricerche hanno portato alla luce che l’asportazione della corteccia uditiva non inficia la rilevazione dei toni semplici (Rosenzweig, 1946). Inoltre, le ricerche di condizionamento psicologico del medico cileno Paul Hernandez Peón e del medico statunitense Robert Galambos hanno rilevato che i sistemi uditivi di pesci ed uccelli non siano significativamente diversi da quello umano per quanto concerne localizzazione ed analisi tonale29, benché siano comunque di dimensioni nettamente inferiori e strutturalmente più grezzi: basti pensare all’assenza della coclea.

Le orecchie sono collegate al cervello mediante una rete di molti neuroni paralleli, i cui assoni costituiscono fasci di fibre, ovvero i nervi; queste vie di comunicazione arrivano direttamente al tronco encefalico, ove terminano in nuclei cocleari, delle masse concentrate di cellule, che a loro volta trasmettono informazioni binaurali – cioè che provengono da entrambe le orecchie – ai nuclei olivari superiori all’interno dei quali ha luogo una elaborazione primaria dell’input (Watson & Breedlove, 2018). Dai nuclei olivari superiori, le informazioni vengono trasmesse ai collicoli inferiori – centri uditivi del mesencefalo – e, di lì, ai nuclei del genicolato mediale all’interno del talamo, per raggiungere, infine, le due cortecce

28 Patologia idiopatica dell’orecchio interno, descritta per la prima volta nel 1961 da medico francese Prosper Ménière, che provoca acufene, nonché vertigini, nistagmo, nausea, ipoacusia ed altri sintomi invalidanti.

29 I pesci in particolare, ma anche alcuni anfibi, non sono provvisti soltanto di orecchio ma pure di linea

laterale, ossia un organo molto simile ad una sorta di lungo solco nella pelle, infondo al quale sono

presenti raggruppamenti di cellule cigliate a contatto con fibre nervose. Tale apparato serve a percepire le onde di pressione subacquee al fine di avvertire la presenza di una preda o di una minaccia. In tal senso, dunque, è probabile che i pesci percepiscano i toni più tattilmente – alla stregua di compressioni – che acusticamente. Ciò, ad ogni modo, non altera il fatto che il meccanismo di funzionamento della linea laterale sia pressappoco identico a quello dell’orecchio umano.

66

uditive. Le onde di pressione attraversano le orecchie e vengono scomposte in impulsi elettrochimici che, per la maggior parte, sono condotti verso la corteccia sul lato opposto del cervello. In linea di massima, le vie del sistema uditivo presentano una disposizione abbastanza simmetrica dovuta ad un’organizzazione tonotopica, ossia spazialmente ordinata dalle frequenze più basse a quelle più alte. Sembrano esistere anche altre vie uditive che probabilmente rielaborano i suoni in modo alternativo: essi sono circuiti posti fra corteccia uditiva e coclea (Van Bergeijk, Pierce, & David, 1961). Tale contingenza lascia suppore che non solo la coclea possa fornire informazioni al cervello ma pure che il cervello possa comunicare attivamente con la coclea: le fibre spirali interne della coclea potrebbero essere i terminali di questo circuito di reazione. Nelle cortecce uditive, i neuroni non vengono soltanto eccitati da determinate afferenze ma pure inibiti da simili trasmissioni: ciò permette al cervello di distinguere con notevole precisione le dissimilitudini fra le altezze dei toni30.

Per l’appunto, nel 1933, un articolo pubblicato dal Journal of the Acoustical Society of America, dal titolo “Loudness, its definition, measurement and calculation”

e redatto dai fisici statunitensi Harvey Fletcher e Wilden Munson, illustrava una teoria – elaborata a seguito di osservazioni laboratoriali – intorno al campo di intensità dell’orecchio, sulla base delle proprietà relative ai neuroni del sistema uditivo, partecipi di valori di soglia31 differenti e molteplici ramificazioni. Partendo

dal – corretto – presupposto che l’orecchio umano potesse percepire frequenze comprese all’incirca fra 20 Hz e 20.000 Hz32, i due scienziati effettuarono un esperimento su un gruppo eterogeneo di volontari a cui, mediante delle cuffie, vennero fatte sentire delle note pure da raffrontare con un suono di riferimento a

30 Effettivamente, è possibile – con una certa facilità anche per le persone sprovviste di approfondita educazione musicale – comprendere e apprezzare la musica microtonale, ossia suddivisa per intervalli inferiori a quella occidentale standard. Nella musica microtonale, ogni semitono è suddiviso ulteriormente in due microtoni, tant’è che, oltre al tono naturale e al relativo diesis, possono essere suonati pure il monesis – il microtono precedente al diesis – ed il triesis – il microtono successivo al diesis. In altre parole, avendo per ogni nota a disposizione quattro microtoni – naturale, monesis, diesis, triesis –, nella musica microtonale esistono il doppio delle note rispetto al sistema occidentale standard.

31 Il valore di soglia di un neurone equivale ai millivolt necessari (comunemente -55 mV) per la depolarizzazione che provoca l’apertura dei canali sodio-potassio voltaggio-dipendenti necessari per l’innesco del ciclo di Hodgkin. In sostanza, si tratta di una manovra imprescindibile per il potenziale

d’azione di un neurone, ovvero per la propagazione di uno stimolo a livello nervoso.

32 Numerosi studi comparati hanno rilevato che, in giovane età, gli esseri umani tendano a udire meglio suoni acuti, diversamente, in età avanzata, sovente si verifica una riduzione della sensibilità verso le frequenze più alte e un miglioramento relativamente a quelle più basse (Robinson & Sutton, 1979).

67

1000 Hz. Il volume del suono di riferimento veniva aumentato o diminuito fintantoché il volontario non lo avesse percepito di intensità identica alla nota pura. Con l’ausilio dei dati raccolti, gli studiosi furono in grado di tracciare un diagramma

di uguale intensità sonora, conosciuto anche come curva di Fletcher-Munson33.

L’esito della ricerca indicò, dunque, che la variazione della frequenza sonora alterasse la percezione psicoacustica dell’intensità, benché fisicamente essa restasse costante. Cionondimeno, non soltanto i suoni, ma pure altri fattori possono stimolare le cortecce uditive, segno del fatto che la corteccia in questione assimili pure dati provenienti da vie alternative: alcuni studi dimostrano, exempli gratia, che solo provando a leggere le labbra si attivano aree del cervello squisitamente preposte all’elaborazione delle informazioni sonore (Bernstein, et al., 2002).

Il cervello riceve input relativi all’altezza dei toni dalla coclea: essa decodifica le onde di pressione sia spazialmente, sia temporalmente. A livello spaziale, come esposto in precedenza, l’altezza viene rilevata dalle cellule cigliate poste sulla membrana basilare; a livello temporale, differentemente, decifra la reiterazione dei segnali in base ai tempi di attivazione dei neuroni uditivi. La codificazione temporale è, in aggiunta, cruciale per la sopravvivenza dei mammiferi: la capacità di individuare una sorgente sonora deriva proprio dalla latenza che si verifica durante il fenomeno fisico di ricezione dell’onda di pressione da parte delle due orecchie; in pratica, il cervello riesce celermente a definire, in senso ambientale, l’origine di un input acustico grazie all’analisi della divergenza di tempo che intercorre fra la stimolazione di una coclea e la stimolazione dell’altra, dipendente dal posizionamento delle orecchie in relazione al posizionamento della fonte del suono, al momento dell’impulso34. Ad ogni modo, i due processi descritti hanno funzione complementare, basti pensare all’importanza, in musica, di tonalità e ritmo, quantunque essi siano elaborati separatamente (Peretz, et al., 2008). Non sarebbe

33 Si tratta, invero, di una definizione imprecisa dal momento che le curve a cui attualmente viene fatto riferimento, per via della loro precisione notevolmente superiore, sono state elaborate nel 2003 dalla

International Organization for Standardization.

34 Pure le differenze di intensità sono rilevanti per la localizzazione di una fonte sonora: esse si verificano se un orecchio è più esposto dell’altro alla sorgente dell’onda di pressione, infatti, in questo caso, la testa getta una cosiddetta ombra sonora – ergo una diffrazione delle onde di pressione – su uno dei due orecchi. In aggiunta, le depressioni e le protuberanze dell’orecchio esterno svolgono un ruolo fondamentale nella localizzazione esaltando o riducendo specificamente alcune frequenze di un suono complesso. Questo fenomeno è noto come filtraggio spettrale e cambia relativamente all’angolazione dalla quale il suono raggiunge le orecchie: grazie a tali informazioni il cervello può individuare verticalmente l’origine del segnale.

68

così inusuale che il cervello umano avesse sviluppato molteplici meccanismi di analisi uditiva che si integrano fra loro in base alla natura dell’input ricevuto, onde ottimizzare sforzo e risultati.

La finalità essenziale della corteccia uditiva sembrerebbe corrispondere al riconoscimento di suoni biologicamente rilevanti, cioè di quei suoni che possono essere uditi quotidianamente, contenenti dati complessi nonché plurime frequenze (Almli, Finger, LeVere, & Stein, 1988). Intorno alla fine degli anni Trenta, il neuroscienziato Wade Marshall, a seguito di una serie di esperimenti finalizzati allo studio dei ricettori tattili su alcuni animali, scoprì che il lobo temporale è dotato di una mappatura sensoriale delle frequenze sonore, in cui le diverse tonalità sono rappresentate in modo sistematico. Non è un caso, giustappunto, che bambini posseggano un udito perfettamente operativo che tende a raffinarsi grazie all’ascolto e all’esercizio – quantunque spontaneo. Alcune indagini mediche sostengono che l’orecchio assoluto35 sia una dotazione comune a tutti i neonati, la quale tende a svanire a favore dell’orecchio relativo36 entro i primi quattro anni di vita circa, salvo che non subentrino circostanze per le quali esso sussista, quali esercizi mirati al consolidamento del medesimo, un linguaggio fortemente musicale, lo studio della musica o anche una crescita in un ambiente artisticamente e acusticamente vivace (Sacks, Musicofilia, 2008). L’idea alla base della supposizione è che i primi esemplari di ominidi dovessero apprendere fin da fanciulli quali suoni indicassero il pericolo e quali indicassero la casa, indi un luogo sicuro dove rifugiarsi: la possibilità di distinguere perfettamente le varie altezze sonore – così da introiettarle e potersene servire – è sicuramente un vantaggio per la sopravvivenza in un ambiente ostile, tuttavia tale capacità, evidentemente, può svilupparsi in un arco di tempo piuttosto limitato, come una manciata di anni37. Effettivamente,

35 La capacità di identificare l’altezza assoluta – ergo la frequenza – di un suono, senza l’ausilio di uno strumento di riferimento. Le persone dotate di orecchio assoluto riconoscono le note con la stessa spontaneità con la quale gli individui privi di patologie visive riconoscono i colori.

36 La capacità di riconoscere la distanza di semitoni tra le note solo relazionando esse tra loro. 37 Tradizionalmente, l’orecchio assoluto è reputato un attributo benefico, nondimeno viene da interrogarsi sul perché in tanti secoli di evoluzione esso non sia diventato più comune fra gli individui, anziché restare peculiarità di una ristrettissima cerchia – si calcola che solo un musicista su diecimila possegga l’orecchio assoluto (Marvin & Newport, 2008). Teoricamente, un potenziamento della specie dovrebbe col tempo estendersi a tutti gli esemplari però l’orecchio assoluto non è pensabile come beneficio per l’essere umano (e sovente nemmeno per i musicisti) dacché le operazioni dovute alla grammatica musicale, commiste alle facoltà dovute all’orecchio assoluto, generano frequentemente problematiche quasi patologiche per chi lo possiede: uno strumento leggermente scordato o un’intera orchestra che suona con un’accordatura lievemente più alta o più bassa della frequenza standard – siccome è all’oboe, partecipe di ancia doppia e dunque tonalmente piuttosto preciso ma non infallibile,

69

rielaborando in chiave acustica un esperimento classico atto allo studio delle performance matematiche dei neonati, gli psicologi Ranka Bijeljac-Babic e Jaques Mehler e la logopedista Josiane Bertoncini hanno rivelato che, già dopo quattro giorni dalla nascita, i bambini sono in grado di scomporre le parole in insiemi di fonemi (Dehaene, The number sense, 2011). Gli scienziati hanno fatto abituare i neonati ad una sequenza di tre suoni reiterata ad intervalli regolari, salvo costatare successivamente che modificare la tonalità dei suoni o rimuoverne uno dei tre, rinnovasse nettamente l’attenzione dei soggetti. Forse ancora più stupefacente è l’osservazione dei medici spagnoli Marisa López-Teijón, Alex Garìa-Faura e Alberto Prats-Galino, i quali, nel 2015, in rapporto alla trasmissione intravaginale di musica classica, natalizia o etnica a trecento donne gravide, hanno stimato una risposta da parte di circa il 79% dei feti sopra la sedicesima settimana di gestazione. Non a caso, la reattività alle note del cervello di un musicista sembra che sia inversamente proporzionale all’età alla quale questi abbia principiato lo studio: non si spiegherebbe altrimenti il fatto che il giro di Heschl38 dei musicisti risulti ampio più del doppio rispetto a quello di chi non abbia ricevuto un’educazione musicale nel corso dell’infanzia (Schneider, et al., 2002). Il confronto delle immagini del cervello di violinisti e violoncellisti professionisti con le immagini del cervello di individui privi di educazione musicale, ha mostrato che gli strumentisti in questione – i quali, se destrorsi, modulano le note con le dita della mano sinistra, pollice escluso, e muovono l’archetto per mettere in vibrazione le corde con la mano destra – presentano una mappatura cerebrale delle dita della mano sinistra assai più grande – fino a cinque volte superiore – rispetto a quella dei non musicisti; le stesse differenze non sono emerse, invece, nel caso della mano destra. I casi più eclatanti, coerentemente con le aspettative, corrispondevano ai cervelli delle persone che avevano incominciato a suonare prima dei tredici anni (Ebert, Pantev, Wienbruch, Rockstroh, & Taub, 1995).

che fanno riferimento gli altri strumenti per l’accordatura – possono risultare letteralmente strazianti per l’individuo dotato di orecchio assoluto. Un brano composto in una tonalità e digitalmente o esecutivamente trasposto in un’altra, potrebbe parere inconsueto ad una persona che ne conoscesse la versione originale, che tuttavia non incontrerebbe certamente difficoltà nel riconoscerlo; al contrario, facilmente un soggetto dotato di orecchio assoluto non sarebbe capace di identificare il brano ma anzi, lo potrebbe credere totalmente diverso da quello di partenza.

38 Area della corteccia uditiva primaria dell’adulto ove la musica subisce una prima elaborazione sensoriale.

70

Esercitarsi col violino per diverse ore ogni giorno sin dall'infanzia potrebbe, dunque, alterare significativamente le reti neuronali di un giovane musicista, la loro estensione e, forse, la loro morfologia (Dehaene, The number sense, 2011).

Cionondimeno, l’esperienza uditiva nel complesso – estetico-musicale, linguistica, ambientale, ecc. – è veicolata pure da altre aree cerebrali. Per esempio, due esperimenti condotti nel 2015 dal neuroscienziato svizzero Sascha Frühholz et al. hanno evidenziato la rilevanza dell’azione dell’amigdala39 nel processo di comprensione dei suoni. Partendo dal presupposto che l’amigdala sia determinante per il rilevamento di indizi emozionali nella voce di un individuo che parla (Frühholz, et al., 2015), l’equipe di ricercatori, dopo una serie di esami su individui privi di patologie alle aree interessate, volti a stabilire valori di riferimento adeguati, ha sottoposto ad alcune prove un gruppo di persone la cui amigdala avesse subito una resezione unilaterale per motivi clinici. I volontari degli esperimenti hanno ascoltato voci e rumori – entrambi binaurali – con il preciso compito di rilevare un segnale piuttosto che un altro, in base alla richiesta degli scienziati. La maggior parte degli individui con amigdala compromessa ha mostrato una ridotta attivazione della corteccia uditiva stessa durante l’ascolto di voci umane dall’intonazione neutra rispetto al gruppo di controllo. Oltre ciò, tuttavia, durante l’ascolto di voci umane enfatizzate da toni emotivi piuttosto marcati, si è verificato un divario di risposta fra i partecipanti in relazione all’area del cervello asportata; in altre parole, la risposta a voci partecipi di indizi emotivi è stata relativamente vivace nei soggetti danneggiati nell’emisfero destro, però molto meno vigorosa in quelli danneggiati a sinistra. Tali osservazioni hanno indotto gli studiosi a concludere che lesioni unilaterali dell'amigdala destra risultino in una ridotta elaborazione neurologica della voce a livello globale, diversamente dai danni all’amigdala sinistra che sono sufficienti ad annullare quasi totalmente la capacità di elaborazione corticale uditiva delle emozioni veicolate dal linguaggio parlato. L’amigdala, invero, riceve – come accade per molte altre tipologie di stimolo – input di natura sonora dal talamo40 anch’esso

39 Gruppo di circa dodici nuclei distinti da una propria serie di collegamenti, situato nella parte mediale anteriore dei due lobi temporali. Primariamente, l’amigdala è coinvolta nell’elaborazione della paura e nella reazione spontanea conseguente.

40 Il talamo è un ammasso di sostanza grigia e sostanza bianca appartenente al sistema nervoso centrale, ubicato nel diencefalo. Il talamo funziona come una specie di “centralina” che orienta le informazioni sensoriali verso specifiche aree encefaliche.

71

implicato, giustappunto, nel processo uditivo (Kandel, Alla ricerca della memoria, 2017). I neuroni del talamo si dividono in due canali: uno diretto al nucleo laterale dell’amigdala e uno collegato alla corteccia uditiva e, solo secondariamente, di nuovo al nucleo laterale dell’amigdala; questi collegamenti adibiti alla trasmissione di afferenze sonore terminano nei neuroni piramidali41 con i quali si connettono mediante sinapsi. I segnali acustici possono essere trasmessi all’amigdala tramite proiezioni dirette dal corpo genicolato mediale e dal nucleo posteriore del talamo (Tull, Li, Tsvetkov, & Bolshakov, 2007).

Figura 2 – Collocazione di alcune delle aree cerebrali coinvolte nei processi in questione.

L’insula è un lobo ubicato nella scissura di Silvio42, fra lobo temporale e lobo frontale, da cui dipendono innumerevoli funzioni vitali, fra cui la consapevolezza enterocettiva, il dolore, le emozioni e – parzialmente – l’equilibrio. Invero, l’insula è

41 Le cellule piramidali sono dei particolari neuroni multipolari eccitatori situati nella corteccia cerebrale. Sono coinvolti soprattutto nei processi cognitivi.

42 Scissura laterale che separa il lobo frontale e il lobo parietale, rispettivamente avanti e indietro, dal lobo temporale.

72

coinvolta importantemente anche nei processi uditivi, infatti, sovente i danni a quel particolare lobo hanno originato deficit piuttosto severi dell’ascolto e della comprensione di stimoli sonori. I soggetti con un’insula compromessa, in effetti, hanno presentato agnosia uditiva a suoni ambientali, alle parole, alla musica o, addirittura, a tutti questi input contemporaneamente (Bamiou, Musiek, & Luxon, 2003). Perfettamente esemplificativa è la vicenda di un sessantacinquenne, vittima di incidente cerebrovascolare che interessò l’emisfero destro – in particolare, lobo parietale, scissura di Silvio ed insula –, il quale, pur non mostrando segni di afasia a nessun livello, non era in grado di distinguere significative discrepanze sonore fra impulsi nettamente dissimili (Spreen, Benton, & Fincham, 1965). In sostanza, l’insula viene stimolata dall’ascolto passivo sia di suoni non verbali, sia da suoni fonologici ma in aree differenti (Bamiou, Musiek, & Luxon, 2003). Infine, esiste l’ipotesi che la corteccia insulare elabori, almeno parzialmente, le inferenze ritmiche della musica. La PET43 di alcuni soggetti sani durante l’ascolto di musica ha evidenziato che l’apprezzamento del timbro sonoro ha luogo nell’emisfero destro, mentre l’elaborazione dell’accordatura, della eventuale familiarità del componimento e del ritmo ha luogo in quello sinistro; in particolare, la comprensione del ritmo – ossia il riconoscimento di regolarità o irregolarità fra gli intervalli e le note nella sequenza musicale – pare avvenire nella parte sinistra dell’insula e nella parte sinistra dell’area di Broca44 (Platel, et al., 1997).

Un altro aspetto fondamentale della musica è l’armonia, ossia la riproduzione simultanea di più suoni da parte del medesimo strumento – come in un accordo – o di più strumenti – come in un’armonizzazione, giustappunto. In pratica, l’armonia è uno schema sonoro verticale – se osservata nel pentagramma – così come la sinfonia – l’avvicendarsi di frequenze diverse ad intervalli diversi – è uno schema sonoro orizzontale. La comprensione dell’armonia è messa in atto da entrambi gli emisferi cerebrali ma, in generale, è sostenuta maggiormente da parte dell’emisfero destro (Koelsch, Kilches, Steinbeis, & Schelinski, 2008), eccetto che – come sarà discusso nelle prossime pagine – nel caso dei musicisti, per tutta la musica in generale.

43 Tomografia ad emissione di positroni (Positron Emission Tomography).

73