CONSIDERAZIONI CRITICHE, SFIDE EMERGENTI E RIFLESSI SULL’ACCOUNTABILITY INTERNA
5.4. Il contributo della misurazione e valutazione delle perfor- perfor-mance scientifiche al rafforzamento dell’accountability
in-terna ed esin-terna
Il sistema di valutazione della ricerca scientifica in Italia (VQR), nono-stante le critiche da più parti avanzate e precedentemente riassunte e la scarsa incentivazione finanziaria, ha comunque consentito di supportare meccani-smi di accountability esterna ed interna.
In particolare, per quanto concerne quella esterna, la VQR attraverso la pubblicazione dei risultati e di un ranking dei singoli Atenei, ha, da un lato, evidenziato ai diversi stakeholders (studenti, gruppi di interesse, sistema delle imprese e società in generale) come le risorse pubbliche siano state usate responsabilmente al fine di raggiungere le proprie finalità istituzionali, con particolare riferimento alle performance scientifiche ottenute. Al tempo stesso, ciò ha determinato una sostanziale competizione tra gli Atenei, in considerazione dell’effetto prodotto in termini di capacità reputazionale e di legittimazione, attivando processi di miglioramento interni volti a progredire nella classifica in vista dei successivi esercizi di valutazione.
3 In effetti, sulla base di una nostra elaborazione su dati MIUR, considerando il modello di ripartizione per le annualità del Fondo di Finanziamento Ordinario (FFO) dal 2013 al 2019 è stato rilevato che la quota premiale rispetto all’ammontare complessivamente assegnato è stata piuttosto limitata, collocandosi mediamente al 20%, passando però progressivamente dal 13,5% nel 2013 al 26% nel 2019, così come il relativo impatto della VQR, decisamente ri-dotto, attestandosi ad un valore medio di circa il 13%, anche se in crescita negli ultimi anni (dall’8% nel 2013 al 15,6% nel 2019).
Inoltre, la trasparenza e la pubblicazione di una classifica degli Atenei, ha consentito di far conoscere all’esterno le sue complessive performance, ri-spetto ad un passato che ha visto le Università come un sistema sostanzial-mente chiuso ed autoreferenziale, resistente a qualsiasi processo valutativo.
Da ultimo, i diversi stakeholders baseranno sui ranking dei singoli Atenei, non solo con riferimento alle attività di ricerca scientifica, le proprie deci-sioni (es. in merito all’affidamento di un progetto, per attivare una collabo-razione da parte delle imprese, per la scelta dell’Università e dei corsi di stu-dio da parte degli studenti e delle famiglie, ecc.). A questo riguardo, però, i media e gli altri mezzi di diffusione non sono stati particolarmente utili nel disseminare i risultati della valutazione, assistendo, pertanto, ad una signifi-cativa discrepanza tra le informazioni analitiche prodotte dalla VQR e il li-mitato focus dei media sui ranking dei Dipartimenti e delle Università (Blasi et al., 2017).
La valutazione ha posto le basi per supportare anche meccanismi di ac-countability interna consentendo alle medesime Università di comprendere maggiormente il proprio funzionamento interno e relative performance rag-giunte (Capano, 2010) nel suo complesso ed a livello di singole unità (es.
Dipartimenti). Difatti, gli effetti di apprendimento generati dalla VQR sulle performance individuali e dei Dipartimenti hanno reso possibile attivare all’interno delle Università processi continui di miglioramento, sostenuti an-che attraverso l’utilizzo della VQR per diverse finalità istituzionali interne.
Ad es. a livello di Dipartimento, consultando la documentazione disponi-bile presso i Presidi Qualità e Nuclei di valutazione delle diverse Università si evidenzia come la VQR venga presa in considerazione, pesandola oppor-tunamente, nell’ambito dei diversi modelli adottati dai singoli Atenei per l’allocazione interna delle risorse (es. punti organico4) ai singoli Diparti-menti5. Questo introduce, da un lato, virtuosi e proficui meccanismi di com-petizione interna tra i Dipartimenti nell’ambito delle diverse aree e settori disciplinari, e, dall’altro, permette di supportare con criteri meno soggettivi e più strutturati le principali scelte di reclutamento (le quali sono valutate anche a livello macro di sistema) e le progressioni di carriera. Inoltre, ciò
4 Si rammenta che per “Punto Organico” (PO) si intende il valore medio a livello di sistema del costo attribuito al Professore di I Fascia (Professore Ordinario) come parametro di riferi-mento per definire le altre qualifiche (Professori Associati, Ricercatori, Ricercatori a Tempo Determinato di tipo A e B). Tale meccanismo e relativi parametri sono utilizzati per definire e attribuire le facoltà assunzionali delle singole Università.
5 A supporto di quanto descritto, non è possibile riportare i singoli modelli di allocazione finanziaria elaborati dalle singole Università in quanto strettamente differenziati e difficil-mente sintetizzabili. Nei diversi modelli esaminati comunque, vi è il costante riferimento alla VQR come variabile allocativa.
consentirà, nel tempo, di meglio evidenziare i margini e le aree di migliora-mento possibili attraverso un monitoraggio costante e periodico delle attività dei docenti e ricercatori afferenti.
Si pensi, anche, al recente intervento governativo, previsto dalla L.
232/2016, volto alla individuazione dei Dipartimenti di Eccellenza, ai quali riconoscere un forte sostegno finanziario, attraverso la formazione di una graduatoria tramite il calcolo di un indicatore standardizzato di performance dipartimentale (ISPD) basato sui risultati della VQR.
A livello individuale, la VQR viene di fatto utilizzata anche per l’asse-gnazione dei fondi di ricerca ex 60% (Fondi Ricerca di Ateneo – FRA) ri-spetto a quanto avveniva in passato con criteri che erano slegati dalle perfor-mance scientifiche o comunque basati su altri elementi di valutazione. Si consideri, ancora, l’assegnazione del Fondo di Finanziamento per le attività base di ricerca (FFABR), istituito con la medesima L. 232/2016, diretto a contribuire alla ricerca di base di ricercatori e professori di II fascia (profes-sori associati), il cui algoritmo di ripartizione è stato basato, in particolare, sui lavori scientifici top class. Ciò ha permesso, da parte del singolo docente e ricercatore, di ulteriormente incrementare e rafforzare la propria produ-zione scientifica e la sua qualità anche sotto la spinta di meccanismi interni di tipo reputazionale e di contribuzione alla qualità scientifica del proprio settore scientifico disciplinare.
Per quanto concerne, ad esempio, le discipline aziendali, e con particolare riferimento al SSD: Economia Aziendale, come si può notare dalla Fig. 1 alcune Università sono riuscite a migliorare il proprio posizionamento met-tendo in atto tutte le azioni necessarie a seguito della valutazione ottenuta nel precedente esercizio; allo stesso modo, si riviene un downgrading di altre, ma grazie alla pubblicazione dei risultati, ed alla competizione generata tra gli Atenei, avranno assunto tutte le politiche richieste per il loro migliora-mento e per presumibilmente risalire nelle relative posizioni della classifica al prossimo esercizio VQR 2015-2019. Naturalmente, gli effetti di tali poli-tiche saranno molto limitati se non pianificate in precedenza, in quanto i ri-sultati della VQR saranno disponibili in un tempo molto distante (media-mente due anni) rispetto all’inizio della procedura valutativa.
Fig. 1 – Ranking Discipline Aziendali e SSD – SECS-P/07(Economia Aziendale)
ATENEO
AREA AZIENDALE SSD: SECS-P/07 VQR 2004-2010
(/60) VQR 2011-2014
(/72) ∆ VQR 2004-2010
(/53) VQR 2011-2014 (/59) ∆
Aosta 50 58 32 54
Bari 56 61 50 58
Bergamo 27 12 26 7
Bologna 5 8 9 24
Bolzano 4 2 n.d n.d n.v.
Brescia 53 56 43 48
Cagliari 31 31 15 13
Calabria 40 29 46 19
Casamassima LUM 26 38 40 29
Cassino 41 44 39 28
Castellanza LIUC 14 66 6 55
Catania 11 13 21 36
Catanzaro n.d. 8 n.v. n.d. n.d n.v.
Chieti e Pescara 24 21 34 27
Enna Kore n.d 11 n.v. n.d 14 n.v.
Ferrara 7 7 5 2
Firenze 19 10 33 10
Foggia 32 39 19 46
Genova 51 50 27 35
Insubria 28 54 8 32
L’Aquila 18 60 n.d 56 n.v.
Macerata 39 54 38 39
Marche 49 25 28 9
Messina 20 15 49 50
Milano 17 13 n.d. 8 n.v.
Milano Bicocca 25 59 29 42
Milano Bocconi 2 5 2 4
Milano Cattolica 22 23 11 17
Milano IULM 9 3 3 1 Modena e Reggio
E. 15 45 20 33
Molise 35 63 51 56
Napoli Federico II 42 15 30 20
Napoli II 47 26 31 22
Napoli Parthenope 23 33 14 40
Napoli Pegaso n.d. 69 n.v. n.d. n.d. n.v.
e-Campus n.d. 72 n.v. n.d. n.d. n.v.
Padova 3 4 1 3
Palermo 54 49 12 51
Parma 46 52 35 29
Pavia 16 42 37 41
Perugia 43 42 42 38
Perugia Stranieri n.d. 65 n.v. n.d. n.d. n.v.
Piemonte Orientale 21 36 13 34
Pisa 45 47 22 26
Pisa S.Anna 1 1 n.d. n.d. n.v.
Roma Mercatorum n.d. 35 n.v. n.d. n.d. n.v.
Roma Europea n.d. 20 n.v. n.d. n.d. n.v.
Roma LUISS 8 5 53 15
Roma LUMSA n.d. 17 n.v. n.d. n.d. n.v.
Roma La Sapienza 48 50 52 47
Roma Link
Campus n.d. 57 n.v. n.d. 59 n.v.
Roma Marconi 55 68 n.d. n.d. n.v.
Roma San Raffaele n.d. 70 n.v. n.d. n.d. n.v.
Roma Tor Vergata 34 31 24 23
Roma Tre 38 27 45 31
Roma
UNICUSANO n.d. 19 n.v. n.d. 12 n.v.
Roma
UNINETTUNO n.d. 53 n.v. n.d. n.d. n.v.
Roma UNITELMA n.d. 71 n.v. n.d. n.d. n.v.
Salento 60 62 48 52
Salerno 44 46 25 25
Sannio 29 37 36 53
Sassari 35 41 23 36
Siena 6 18 4 5
Teramo 33 27 18 18
Torino 58 67 44 49
Trento 13 29 n.d. 6 n.v.
Trieste 57 64 47 43
Tuscia 52 39 41 43
Udine 12 24 10 11
Urbino Carlo Bo 37 47 17 43
Venezia Cà Foscari 10 22 7 21
Verona 30 34 16 16
Fonte: nostra elaborazione su dati report VQR 2004-2010; VQR 2011-2014
Da ultimo, la medesima VQR è stata utilizzata, sebbene con qualche re-cente riserva e diverso orientamento6, anche per la valutazione della qualità del collegio docenti dei dottorati di ricerca, unitamente agli altri parametri, contribuendo, quindi, al relativo processo di accreditamento.