La valutazione delle performance musicali `e comune a molte pratiche musicali educative, per`o la ricerca che chiarisce l’insieme di fattori che influenzano tali va-lutazioni `e ancora relativamente scarsa.
Si presentano i principali problemi che vanno ad influenzare le valutazioni sulle performance. In Shubert et al. (2014a) e Canazza et al. (2013) sono svolti due esperimenti, effettuati durante due workshops dedicati, per iniziare a capire la maniera in cui `e eseguita una valutazione dell’intera performance. Gli individui sono diversi tra loro e di conseguenza reagiscono in maniera diversa a parit`a dello stimolo a cui sono sottoposti. Gli ascoltatori si possono classificare come
music-empathizers (ME), che pongono la loro attenzione sulla parte affettiva del pezzo
musicale, e come music-systemizers (MS), interessati alla struttura e organizzazio-ne del pezzo musicale. Si evidenzia che le persoorganizzazio-ne che forniscono una valutazioorganizzazio-ne pi`u alta a performance automatiche appartengono al secondo gruppo (MS). La prima domanda, a cui sono tenuti a rispondere i presenti alla fase finale di Rencon-SMC116, `e atta a verificare l’aspettazione che ha un ascoltatore nei con-fronti di una esecuzione automatica. La maggioranza dei partecipanti (58.3%) si aspetta di ascoltare la performance come se fosse eseguita da uno studente. Viene chiesto, inoltre, di esprimere quali siano i fattori che pi`u influenzano sulla valu-tazione, in modo da far riflettere i partecipanti sulla maniera in cui valutano la performance. Si possono vedere in Figura 1.10 i fattori che maggiormente
in-6Rencon (Performance Rendering Contest) `e un progetto di ricerca a livello mondiale nel-l’ambito dell’informatica musicale, il quale organizza delle gare (contest) per sistemi computa-zionali automatici che generano performance musicali espressive, in modo autonomo o in modo interattivo. Lo scopo `e quello di selezionare il miglior sistema in grado non solo di riprodurre un brano musicale, ma soprattutto di eseguirlo aggiungendoci personalit`a, emotivit`a, ed espressivit`a.
Figura 1.10: Fattori che influenzano maggiormente la valutazione
fluenzano la valutazione. Si osserva che fattori di carattere tecnico, comunicativo e interpretativo predominano, fattori di tipo stilistico sono meno frequentemente considerati. Non si registrano correlazioni importanti tra la risposta a questa do-manda e esperienza musicale, et`a o sesso. I fattori che meglio differenziano le valutazioni sono b1,b2 e b3; non si pu`o dire la stessa cosa per b6 e b7 le quali presentano delle sovrapposizioni visibili al biplot delle analisi delle corrisponden-ze ( Figura 1.11 )anche se rappresentano due diversi punti di vista dell’esecu-zione: tecnico vs emozionale; sono tuttavia considerati dagli ascoltatori generici come caratteristiche equamente importanti e quindi non discriminano un’esecu-zione dall’altra. Il pubblico di analisti esperti, presenti al secondo esperimento, considerano gli stessi come elementi distinti tra loro e quindi idonei alla valutazio-ne di una performance automatica. Il pubblico presente all’esperimento GATM, il secondo analizzato, `e composto da musicologi italiani esperti in analisi della musica, gli spettatori risultano essere tutti music-systemizers (MS) e i pi`u giovani tendono ad avere una meno negativa valutazione del valore ME. La popolazione presente ad esperimenti di questo genere dovrebbe essere mista in termini di et`a,
Figura 1.11: Biplot dell’analisi delle corrispondenze sui fattori che influenzano
la valutazione dei partecipanti al Recon-SMC11
sesso, esperienza in ambito musicale, in modo da poter studiare le preferenze delle varie tipologie di ascoltatore. Si `e visto precedentemente, ed `e di nuovo sottolinea-to in Shubert et al. (2014b), come ascoltasottolinea-tori classificati come music-systemizers
(MS) valutino la performance in modo diverso dagli music-empathizers (ME), se
la popolazione `e uniforme si tende ad avere una valutazione che considera solo un punto di vista. La valutazione di una performance dipende fortemente dal livello di concentrazione dell’ascoltatore,come evidenziato in Shubert et al. (2014b), li-vello che risulta essere maggiore nella categoria dei music-systemizers (MS). La valutazione degli stimoli `e influenzata dalla durata e dal numero di pezzi musicali e compiti richiesti. Si nota che lo stesso pezzo musicale `e valutato in maniera differente se presentato pi`u volte. Si evidenzia, pertanto, che il giudizio sulle performance `e sensibile anche al grado di stanchezza posseduta dall’ascoltatore; la valutazione di un’esecuzione non `e un’operazione facile in quanto influenza-ta da fattori non deterministici e difficili da individuare. Emergono un numero importante di conclusioni dagli studi appena presentati. Per primo `e che sareb-be necessario un approccio pi`u globale e interdisciplinare, che cerchi di chiarire non solo gli strumenti di misura e i contesti musicali nei quali possono avvenire le performance, ma anche altri fattori come la personalit`a, e i pregiudizi
socia-li e culturasocia-li che influenzano la valutazione del giudice. Inoltre la conoscenza da parte del performer dei criteri utilizzati per la valutazione, pu`o portare ad un miglioramento della performance. Restano ancora irrisolte alcune questioni:
• fino a che punto un giudice sia abile a fornire una valutazione affidabile sotto
contesti e scopi diversi (esame di musica, audizione, competizione ecc.);
• in quali situazioni e in che modo il training pu`o aiutare ad alleviare alcuni
dei problemi che minano l’affidabilit`a dei giudici.
Dal un punto di vista del progresso tecnologico, questi giudizi sono utili, non soltanto per valutare i sistemi, ma anche per fornire indicazioni ai sviluppatori e ricercatori su quale sia la direzione per un miglioramento futuro. Specifiche misurazioni delle performance possono rivelare punti di debolezza sotto il profilo tecnico, questo `e solo un primo miglioramento che si pu`o apportare. Gli studi in questione aiutano a capire la correlazione che sussiste tra arte e tecnologia.