• Non ci sono risultati.

Externality claim e arousal theory a confronto

Musica ed emozion

3.2 Externality claim e arousal theory a confronto

Che musica ed emozioni siano fra loro collegate è riconosciuto da, praticamente, tutti gli studiosi di questo argomento. Ciononostante, le dinamiche della relazione fra musica ed emozioni sono fortemente dibattute; in altre parole, non è stato determinato come possa la musica trasmettere oppure provocare stati d’animo negli ascoltatori. Principalmente, sono due le teorie maggiormente accreditate dalla comunità degli estetologi analitici: la externality claim e la arousal theory.

La prima delle due teorie, di stampo sostanzialmente cognitivista, afferma che le emozioni si trovino nella struttura musicale stessa, alla stregua di una proprietà musicale; la seconda teoria, sostanzialmente disposizionale, sostiene invece che le emozioni provocate dall’ascolto della musica dipendano dalle esperienze pregresse del fruitore (Lentini, 2010).

Il principale esponente della externality claim è Peter Kivy, il cui pensiero può essere sintetizzato in una concezione della musica partecipe intrinsecamente di emozioni sottoforma di qualità percettive. In breve, Kivy afferma che le emozioni attraverso cui possono essere descritte le strutture musicali – una melodia mesta, una melodia allegra, una melodia energica, ecc. – sono difatti una proprietà acustica della struttura medesima. Questa ipotesi nasce sia dal presupposto che l’esperienza

118

estetico-musicale non possa essere assimilata alle varie esperienze ordinarie della vita quotidiana, sia dal presupposto che le persone si trovino d’accordo intorno alle emozioni relative alla musica, ai colori e così via; effettivamente, le scale musicali stesse vengono formalmente definite maggiori o minori, per esempio, in base all’emozione a cui si collegano: maggiori in caso di emozioni ascrivibili alla letizia, minori in caso di emozioni ascrivibili alla tristezza.

Prototipi di arousal theory, differentemente, possono essere riscontrati anche molto indietro nel tempo: Platone stesso, ad esempio, ha descritto l’azione eccitatoria della musica esercitata sugli individui. Hanslick potrebbe essere considerato uno dei maggiori portavoce della teoria in questione, ciononostante è Derek Matavers che, alla fine del XX secolo, ha operato una rivalutazione della medesima. Secondo Matavers, in sostanza, la musica non provoca una emozione, bensì una sensazione e, pertanto, è possibile descrivere certi brani come felici oppure malinconici in virtù del fatto che possono causare una sensazione rispettivamente di felicità oppure di malinconia. In altre parole, la musica suscita nell’individuo delle sensazioni che possono essere ricondotte propriamente alla sfera delle emozioni che vengono provate empiricamente, richiamandone quindi i tratti essenziali, senza però determinarne una fattuale esperienza.

La principale divergenza fra externality claim e arousal theory, dunque, corrisponde alla risposta che le due concezioni hanno formulato rispetto alle dinamiche che relazionano direttamente musica ed emozioni: la musica suscita emozioni in quanto esse sono una sorta di proprietà intrinseca delle relative strutture formali? Ergo è inevitabile che ad un determinato codice musicale corrisponda una precisa emozione, come sostiene la externality claim? Oppure la musica suscita emozioni siccome evoca sensazioni che sono riconducibili ad emozioni vere e proprie, come sostiene la arousal theroy?

Le principali obiezioni al modello eccitazionistico mosse da Kivy sono tre. La prima obiezione viene detta argomento del comportamento. Kivy sostiene che la arousal theory non possa essere cogente poiché per quanto un brano possa apparire capace di descrivere uno stato d’animo, il medesimo non viene comunque percepito tout-court dal fruitore e dunque quel brano non evoca l’emozione vera e propria nell’ascoltatore. In sostanza, afferma Kivy, per quanto un componimento possa risultare iracondo, vera e propria ira non sarà mai scatenata nelle persone in ascolto

119

del medesimo; vale lo stesso per le altre emozioni. La seconda obiezione di Kivy viene detta argomento delle emozioni negative. Con questa obiezione, il filosofo evidenzia il fatto che qualora certe composizioni musicali provocassero reali stati di tristezza o di dolore nell’ascoltatore, allora soltanto i masochisti vorrebbero ascoltare opere considerate, comunemente, tristi. L’ultima obiezione di Kivy riguarda la limitatezza della arousal theory: se, infatti, la musica riesce ad evocare sensazioni in relazione a vissuti precedenti e non per intrinseche proprietà, allora possono essere spiegate soltanto idiosincrasie occasionali ma non la tendenza generale della musica a risultare allegra o triste, pacata o incalzante e così via.

Invero, entrambe queste teorie presentano svariati problemi. Innanzitutto, l’idea di Kivy che le strutture musicali siano, in qualche modo, veicolo di emozioni, come se queste ultime fossero, giustappunto, proprietà intrinseche di tali strutture pare piuttosto azzardata. Per spiegare i diversi stati d’animo che talora gli stessi brani comunicano a più persone, infatti, Kivy ha postulato il cosiddetto fenomeno della nostra canzone. In breve, questo fenomeno fa riferimento a quei brani che sono mnemonicamente legati a particolari periodi della vita dell’ascoltatore per cui, a prescindere dalla struttura musicale e dalle relative proprietà emotive, sostiene Kivy, essi assumono un valore del tutto singolare proprio in virtù dell’esperienza a cui sono collegati. Per quanto sia condivisibile questa rilevazione, sembra piuttosto improbabile che possa essere estesa ad ogni caso di divergenze fra gli ascoltatori: succede sovente, infatti, che lo stesso componimento ascoltato per la prima volta da più fruitori contemporaneamente venga interpretato anche in maniera molto differente; in verità, lavorando in studi di registrazione, questa può essere definita come una situazione abbastanza comune.

In breve, l’idea che la musica veicoli emozioni universalmente – o quasi – riconoscibili può risultare valida, semmai, per le scale maggiori e per quelle minori ma nel caso di musica atonale, microtonale, dodecafonica o dissonante le opinioni dei fruitori generalmente si trovano in disaccordo. Facciamo un passo indietro. Insegnando musica a bambini e bambine di età inferiore ai sei anni, è facile rendersi conto di quanto sia difficile, talvolta, comunicare concetti apparentemente palesi: non è insolito, effettivamente, che composizioni basate su scale maggiori non siano percepite dai bambini come allegre, così come accade l’esatto opposto, cioè che composizioni basate su scale minori non siano percepite dai bambini come tristi.

120

Sembra quasi che, questi bambini – quantomeno la maggior parte, soprattutto se non hanno genitori melomani – non siano ancora in grado di comprendere quella tristezza o quella allegrezza che Kivy sostiene essere intrinseca a certe strutture musicali. Ciò, tendenzialmente, non accade invece con studenti e studentesse di età superiore.

Se la musica, dunque, in base alla struttura che assume è partecipe di proprietà emotive che possono essere decodificate dagli esseri umani, come è possibile che palesi brani tristi o felici non vengano riconosciuti da quegli individui – come bambini – che non hanno quasi alcuna esperienza in quanto a musica? Il discorso, allora, può essere esteso anche a quegli adulti che si trovano in netto disaccordo circa le emozioni trasmesse da quelle forme musicali succitate poco comuni e radicali: probabilmente si trovano in disaccordo poiché, non possiedono estese esperienze relative a quegli stilemi. La spiegazione più semplice, pertanto, prendendo in prestito i concetti della filosofia del linguaggio, sembra essere la seguente: una certa esperienza di talune strutture musicali forma nel cervello, come accade per il linguaggio semantico, delle regole grammaticali di decodifica di quelle medesime strutture che, dunque, assumono determinati valori emozionali riscontrabili ogniqualvolta esse vengono percepite o, comunque, vengono percepite strutture formalmente simili. In altre parole, la cosiddetta externality claim potrebbe assumere maggiore stabilità se, anziché sostenere che la musica per sua stessa natura – cadendo dunque in una sorta di assioma – sia partecipe di proprietà emotive, generando una ampia mole di dubbi difficilmente superabili, sostenesse che essa è partecipe di determinate strutture che possono comunicare, fintanto che mantengono inalterati taluni aspetti, degli stati d’animo sulla base di un apprendimento pregresso determinato da canoni sociali, esperienze personali e varie forme di associazione spontanea, la quale, come ricorda Dehaene, è la più efficiente dinamica computazionale che il cervello umano ha sviluppato nei secoli.

Insomma, le due teorie non sembrano, infine, poi così inconciliabili, anzi, pare proprio che entrambe siano partecipi di elementi fra loro integrabili per il concepimento di una nuova teoria trasversale.

La arousal theory, per come è stata presentata, sembra comunque problematica benché le prime due obiezioni di Kivy possano essere superate riformulando parzialmente la teoria in questione. L’argomento del comportamento e l’argomento delle emozioni negative perdono di efficacia se si riflette sul fatto che un componimento

121

caratterizzato da una specifica disposizione emotiva non provoca necessariamente il medesimo stato d’animo nell’ascoltatore. Osservare un individuo furioso non è motivo sufficiente per infuriarsi alla stessa maniera: tale situazione può, senz’altro, mettere a disagio, preoccupare o anche incuriosire, ma difficilmente causerà lo stesso furor negli altri. Altri stati d’animo possono favorire dinamiche differenti, tant’è che una persona particolarmente empatica potrebbe rallegrarsi tanto quanto la persona che vede felice, o rattristarsi tanto quanto la persona che vede malinconica, nondimeno si tratta di un fenomeno piuttosto singolare giacché non tutti sono empatici allo stesso modo. Le composizioni, quindi, sebbene possano esprimere rabbia, gioia, paura, tristezza o vigore e sebbene queste emozioni possano essere riconosciute praticamente da tutte quelle persone con sufficiente esperienza di ascolto musicale, non necessariamente causano i medesimi stati d’animo nei fruitori. Di nuovo: riconoscere lo stato d’animo di una persona non è sufficiente affinché si possa provare il medesimo stato d’animo. In altre parole, basterebbe riformulare la arousal theory sostenendo che la musica può descrivere emozioni che vengono riconosciute – ma non necessariamente provate – da ascoltatore ad ascoltatore in base alle relative esperienze, per scansare le due obiezioni succitate. La terza critica di Kivy alla arousal theory, invece, sembrerebbe mettere in evidenza una problematica pressoché insormontabile. In effetti, ammettere che solamente esperienze individuali connotino la qualità emotiva della musica corrisponde ad affermare che il comune accordo intorno alla qualità emotiva delle scale minori e alla qualità emotiva di quelle maggiori sia nient’altro che una coincidenza.

Infine, una ulteriore problematica condivisa da entrambe le teorie, sicuramente molto familiare a chi studia uno strumento musicale, riguarda i rapidi cambiamenti di comprensione di nuovi pattern. Studiare nuovi pattern, generalmente, significa eseguire un certo numero di misure, mai ascoltate in precedenza, – che siano un esercizio, che siano un componimento – per la prima volta. Questo processo, in breve, è costituito da alcune fasi distinte che possono susseguirsi fra loro più o meno rapidamente in base a fattori significativi, quali: la preparazione pregressa del musicista, la conoscenza di pattern simili e così via. La prima fase corrisponde all’approccio più elementare al pattern, ossia ad un’esecuzione tendenzialmente lenta e attuata meccanicamente in modo tale da rispettare lo spartito. In questa fase, generalmente, il musicista non comprende pienamente il pattern ma si affida

122

puntualmente alle informazioni dello spartito. Nella seconda fase, invece, il pattern appare chiaro e regolare, pertanto lo spartito diviene un semplice punto di riferimento. Nella terza fase, quindi, il musicista, non soltanto ha compreso la struttura e la dinamica del pattern, ma ha pure appreso, a livello di memoria muscolare, il metodo più efficiente di esecuzione del medesimo, perciò non necessita più dello spartito. Questo fenomeno mette in evidenza due fatti in particolare, cioè che la musica non è partecipe immediatamente di informazioni di natura emozionale, altrimenti la prima fase non dovrebbe, in pratica, verificarsi, così come non sono sufficienti fattori empirici pregressi affinché la musica susciti emozioni, altrimenti, anche in questo caso, la prima fase non dovrebbe verificarsi.

In definitiva, cercando di rivedere le due teorie perché possano spiegare quei fenomeni che altrimenti le indebolirebbero, si può notare una sorta di avvicinamento: l’idea che la musica possa comunicare, indicativamente, le stesse emozioni a più ascoltatori e l’idea che esistano una serie di correlativi di natura empirica e – aggiungo – sociale, storica, associativa capaci di intervenire attivamente nella caratterizzazione emotiva dell’ascolto musicale non sembrano, dunque, così distanti fra loro.

L’integrazione delle due teorie prevede, in primis, una certa esperienza da parte del soggetto circa le strutture musicali. Il soggetto, in altre parole, non deve avere studiato musica e non deve conoscere formalmente taluni brani ma, semplicemente, deve aver ascoltato un certo numero di volte opere simili fra loro, opere basate, perciò, sulle medesime scale, sui medesimi modi e, magari, suonati con gli stessi strumenti a velocità simili e secondo ritmi affini. Si tratta di una frequentazione dell’oggetto, cioè della musica, che mette il cervello umano nella condizione di acquisire delle regole grammaticali adeguate alla decodificazione dell’oggetto medesimo. Non parrebbe una coincidenza, dunque, che il gradimento di un’opera d’arte sia direttamente proporzionale al tempo di fruizione della medesima (Ritossa & Rickard, 2004). La frequentazione dell’oggetto genera grammatica a prescindere dall’azione volitiva del soggetto: plausibilmente cambiano solo le tempistiche di elaborazione. In altre parole, il cervello – relativamente agli input musicali che riceve – formula delle regole che sistemano le note e i ritmi secondo precise gerarchie (Lerdahl & Jackendoff, A generative theory of tonal music, 1996), acciocché l’ascoltatore possa rilevare errori tonali o ritmici, nonché prevedere quali altezze siano coerenti con la melodia e quali costrutti siano coerenti con l’armonia. Le

123

grammatiche, tuttavia, non concernono soltanto gli stretti dettami del pentagramma, ma pure le fattuali sonorità degli strumenti musicali, i rumori e i difetti di esecuzione o incisione, i reverberi, le sperimentazioni e così via: un po’ come godere della rumorosità d’immagine di alcuni film di Lars Von Trier. In effetti, non tutti riescono a percepire le linee di basso delle composizioni musicali – quantunque erette su figurazioni piuttosto semplici – e solo un assiduo ascolto, infine, ne permette l’individuazione, così come non tutti tollerano, fin da subito, l’atipico suono dei sintetizzatori usati nella musica sperimentale, come quella del complesso Area – International Popular Group, i quali, via via, paiono quasi uno strumento a fiato alquanto acre. La grammatica è un elemento necessario dacché senza di essa non sarebbe possibile decodificare la sequenza musicale e, quindi, ogni sintagma sonoro verrebbe percepito come se fosse incoerente rispetto agli altri o, addirittura, disgiunto dagli altri, analogamente a chi soffre di disturbi associabili all’amusia.

3.3 Frequentazione

La frequentazione può essere definita come la fruizione reiterata e prolungata di un oggetto; in questo caso specifico, può essere dunque definita come l’ascolto ricorsivo di una composizione musicale. Tale processo è funzionale all’acquisizione di regole grammaticali – analoghe a quelle concepite da Chomsky per il linguaggio (Chomsky, 1998) – che consentano al soggetto di decodificare la musica.

Nel 2008, venti studentesse e studenti non musicisti93 dell’Università di Lipsia si sono offerti volontari per un esperimento – già citato nel secondo capitolo – finalizzato a rilevare le risposte cerebrali verso soluzioni melodiche ed armoniche inaspettate, in rapporto al contesto sonoro delineato. Ai volontari – sottoposti ad elettroencefalogramma, elettrocardiogramma e a misurazione della risposta galvanica della pelle – sono stati fatti ascoltare dei file MIDI94 realizzati precedentemente da musicisti professionisti, contenenti alcuni estratti – della durata di pochi secondi – di venticinque sonate per pianoforte di Beethoven, Haydn, Mozart o Schubert, partecipi o di un accordo finale consonante, o leggermente dissonante, oppure nettamente

93 Agli studenti, invero, era stata impartita una canonica educazione musicale scolastica, cionondimeno non avevano proseguito studi musicali in altri termini, né erano in grado di suonare alcuno strumento musicale.

94 Musical Instrument Digital Interface: un protocollo standard di connessione degli strumenti musicali digitali a computer o centraline, mediante un particolare cavo partecipe di cinque pin disposti a mezzaluna.

124

dissonante. Gli esiti dell’esperimento hanno mostrato che, in circa il 96% degli ascolti di finali dissonanti, si sono verificate decise risposte bioelettriche associate alla codifica sintattica della musica, nonché intense risposte di natura emotiva (Koelsch, Kilches, Steinbeis, & Schelinski, 2008). Questi risultati, nondimeno, implicitamente denotano pure la presenza di una grammatica acquisita a priori, dal momento che, affinché sia rilevato come dissonante un particolare sintagma musicale, è necessario che esista un qualche pregresso metro di giudizio – indi la grammatica – che strida con l’unità sonora “illegittima”. Diversamente, qualunque nota posta in qualunque contesto armonico potrebbe esser reputata coerente o di identico valore semantico a tutte le altre alternative.

In effetti, durante le mie lezioni di percussioni, ho più volte avuto modo di constatare che il rilevamento degli errori – in verità piuttosto grossolani – ritmici o tonali, da parte di allievi ed allieve, varia in base all’età, o meglio, alla presumibile esposizione alla musica a cui sono stati soggetti. In altre parole, figli e figlie di musicisti, di melomani o di artisti – in linea di massima – presentano una maggiore propensione alla comprensione delle grammatiche musicali rispetto ai coetanei e alle coetanee, i cui genitori non abbiano particolari interessi culturali. Superata una certa età, che si potrebbe individuare attorno ai dodici anni, comunque, tutte le persone sono in grado di riconoscere tali errori dozzinali. Per esempio, ho provato nel corso delle lezioni a compiere qualche breve test su dieci studenti e studentesse sotto i dodici anni. Uno di questi test è consistito nell’esecuzione da parte mia, della – scontatissima – canzoncina Happy Birthday to you95, servendomi di una marimba o di un vibrafono. Dapprima ho chiesto al soggetto – siccome ho eseguito la prova con un solo individuo alla volta – se conoscesse il motivetto e di cantarmelo, potendo constatare che tutti quanti, più o meno precisamente, fossero in grado di riprodurlo vocalmente, successivamente ho suonato il brano in modo corretto – servendomi di differenti tonalità, pure diverse da quelle canticchiate dal soggetto – o in modo scorretto, inserendo taluni errori ritmici – quali tempi dispari, rallentamenti oppure velocizzazioni – o tonali – alcuni più leggeri, scambiando il semitono giusto con un altro semitono appartenente alla scala scelta, altri più marcati, inserendo un semitono dissonante al posto di quello giusto. Ad ogni riproduzione di Happy Birthday to You, ho poi domandato al soggetto se ci fossero stati degli errori di qualche tipo e,

125

eventualmente, di descrivermeli. In caso di risposta giusta, ho proceduto con un’altra ripetizione modificando i parametri, in caso di risposta errata, ho eseguito nuovamente il componimento alla maniera precedente, domandando preventivamente di fare attenzione a possibili sbagli, nonché di interrompermi non appena ne fosse stato rilevato uno. Fermo restando che sarebbe opportuno ripetere questi esami facendo riferimento a parametri meglio definiti, ho notato che un piccolo gruppo – ossia 1/3 circa – dei bambini e delle bambine – specialmente se i relativi genitori non coltivano particolari interessi artistici – tendono a ignorare evidenti incoerenze tonali o ritmiche anche dopo alcuni ascolti ripetuti, benché la loro interpretazione del motivetto si regga su una sufficiente coerenza musicale. Per tutti gli altri, diversamente, è stato piuttosto facile riconoscere la dissonanza al primo o al secondo tentativo. Nettamente più difficile è stato accorgersi delle variazioni di semitoni afferenti alla medesima scala al primo ascolto, tant’è che solo pochi allievi e poche allieve – e, nella fattispecie, solo figli e figlie di musicisti in attività – vi sono riusciti – circa 1/5 del totale. Al secondo ascolto, la percentuale di riscontri positivi è salita in modo considerevole, raggiungendo più della metà dei soggetti – ossia coloro che hanno ricevuto puntualmente stimoli musicali e artistici. Tendenzialmente, tutti quanti hanno saputo riconoscere una corretta esecuzione di Happy Birthday to You – con un solo caso di errore, poi corretto alla seconda ripetizione -, cionondimeno nessuno ha messo in discussione il fatto che la canzone venisse suonata, via via, in una tonalità differente da quella originale.

Ben diversa è la questione relativa al ritmo. Essenzialmente, l’individuazione di difetti sul piano della cadenza si è rivelata piuttosto ostica benché i soggetti studiassero batteria e percussioni, perciò possedessero discrete nozioni di tempi e scansioni musicali sia teoriche, sia pratiche. A meno che non abbia raccomandato esplicitamente di contare le semiminime – dopo aver appurato la presenza di difficoltà nel compito – battendo il piede o le mani durante l’esecuzione, essendo essa slegata da altri strumenti di riferimento o da un metronomo, variazioni in tempi dispari –