• Non ci sono risultati.

Il contributo della misurazione e valutazione delle perfor- perfor-mance scientifiche al rafforzamento dell’accountability

CONSIDERAZIONI CRITICHE, SFIDE EMERGENTI E RIFLESSI SULL’ACCOUNTABILITY INTERNA

5.4. Il contributo della misurazione e valutazione delle perfor- perfor-mance scientifiche al rafforzamento dell’accountability

in-terna ed esin-terna

Il sistema di valutazione della ricerca scientifica in Italia (VQR), nono-stante le critiche da più parti avanzate e precedentemente riassunte e la scarsa incentivazione finanziaria, ha comunque consentito di supportare meccani-smi di accountability esterna ed interna.

In particolare, per quanto concerne quella esterna, la VQR attraverso la pubblicazione dei risultati e di un ranking dei singoli Atenei, ha, da un lato, evidenziato ai diversi stakeholders (studenti, gruppi di interesse, sistema delle imprese e società in generale) come le risorse pubbliche siano state usate responsabilmente al fine di raggiungere le proprie finalità istituzionali, con particolare riferimento alle performance scientifiche ottenute. Al tempo stesso, ciò ha determinato una sostanziale competizione tra gli Atenei, in considerazione dell’effetto prodotto in termini di capacità reputazionale e di legittimazione, attivando processi di miglioramento interni volti a progredire nella classifica in vista dei successivi esercizi di valutazione.

3 In effetti, sulla base di una nostra elaborazione su dati MIUR, considerando il modello di ripartizione per le annualità del Fondo di Finanziamento Ordinario (FFO) dal 2013 al 2019 è stato rilevato che la quota premiale rispetto all’ammontare complessivamente assegnato è stata piuttosto limitata, collocandosi mediamente al 20%, passando però progressivamente dal 13,5% nel 2013 al 26% nel 2019, così come il relativo impatto della VQR, decisamente ri-dotto, attestandosi ad un valore medio di circa il 13%, anche se in crescita negli ultimi anni (dall’8% nel 2013 al 15,6% nel 2019).

Inoltre, la trasparenza e la pubblicazione di una classifica degli Atenei, ha consentito di far conoscere all’esterno le sue complessive performance, ri-spetto ad un passato che ha visto le Università come un sistema sostanzial-mente chiuso ed autoreferenziale, resistente a qualsiasi processo valutativo.

Da ultimo, i diversi stakeholders baseranno sui ranking dei singoli Atenei, non solo con riferimento alle attività di ricerca scientifica, le proprie deci-sioni (es. in merito all’affidamento di un progetto, per attivare una collabo-razione da parte delle imprese, per la scelta dell’Università e dei corsi di stu-dio da parte degli studenti e delle famiglie, ecc.). A questo riguardo, però, i media e gli altri mezzi di diffusione non sono stati particolarmente utili nel disseminare i risultati della valutazione, assistendo, pertanto, ad una signifi-cativa discrepanza tra le informazioni analitiche prodotte dalla VQR e il li-mitato focus dei media sui ranking dei Dipartimenti e delle Università (Blasi et al., 2017).

La valutazione ha posto le basi per supportare anche meccanismi di ac-countability interna consentendo alle medesime Università di comprendere maggiormente il proprio funzionamento interno e relative performance rag-giunte (Capano, 2010) nel suo complesso ed a livello di singole unità (es.

Dipartimenti). Difatti, gli effetti di apprendimento generati dalla VQR sulle performance individuali e dei Dipartimenti hanno reso possibile attivare all’interno delle Università processi continui di miglioramento, sostenuti an-che attraverso l’utilizzo della VQR per diverse finalità istituzionali interne.

Ad es. a livello di Dipartimento, consultando la documentazione disponi-bile presso i Presidi Qualità e Nuclei di valutazione delle diverse Università si evidenzia come la VQR venga presa in considerazione, pesandola oppor-tunamente, nell’ambito dei diversi modelli adottati dai singoli Atenei per l’allocazione interna delle risorse (es. punti organico4) ai singoli Diparti-menti5. Questo introduce, da un lato, virtuosi e proficui meccanismi di com-petizione interna tra i Dipartimenti nell’ambito delle diverse aree e settori disciplinari, e, dall’altro, permette di supportare con criteri meno soggettivi e più strutturati le principali scelte di reclutamento (le quali sono valutate anche a livello macro di sistema) e le progressioni di carriera. Inoltre, ciò

4 Si rammenta che per “Punto Organico” (PO) si intende il valore medio a livello di sistema del costo attribuito al Professore di I Fascia (Professore Ordinario) come parametro di riferi-mento per definire le altre qualifiche (Professori Associati, Ricercatori, Ricercatori a Tempo Determinato di tipo A e B). Tale meccanismo e relativi parametri sono utilizzati per definire e attribuire le facoltà assunzionali delle singole Università.

5 A supporto di quanto descritto, non è possibile riportare i singoli modelli di allocazione finanziaria elaborati dalle singole Università in quanto strettamente differenziati e difficil-mente sintetizzabili. Nei diversi modelli esaminati comunque, vi è il costante riferimento alla VQR come variabile allocativa.

consentirà, nel tempo, di meglio evidenziare i margini e le aree di migliora-mento possibili attraverso un monitoraggio costante e periodico delle attività dei docenti e ricercatori afferenti.

Si pensi, anche, al recente intervento governativo, previsto dalla L.

232/2016, volto alla individuazione dei Dipartimenti di Eccellenza, ai quali riconoscere un forte sostegno finanziario, attraverso la formazione di una graduatoria tramite il calcolo di un indicatore standardizzato di performance dipartimentale (ISPD) basato sui risultati della VQR.

A livello individuale, la VQR viene di fatto utilizzata anche per l’asse-gnazione dei fondi di ricerca ex 60% (Fondi Ricerca di Ateneo – FRA) ri-spetto a quanto avveniva in passato con criteri che erano slegati dalle perfor-mance scientifiche o comunque basati su altri elementi di valutazione. Si consideri, ancora, l’assegnazione del Fondo di Finanziamento per le attività base di ricerca (FFABR), istituito con la medesima L. 232/2016, diretto a contribuire alla ricerca di base di ricercatori e professori di II fascia (profes-sori associati), il cui algoritmo di ripartizione è stato basato, in particolare, sui lavori scientifici top class. Ciò ha permesso, da parte del singolo docente e ricercatore, di ulteriormente incrementare e rafforzare la propria produ-zione scientifica e la sua qualità anche sotto la spinta di meccanismi interni di tipo reputazionale e di contribuzione alla qualità scientifica del proprio settore scientifico disciplinare.

Per quanto concerne, ad esempio, le discipline aziendali, e con particolare riferimento al SSD: Economia Aziendale, come si può notare dalla Fig. 1 alcune Università sono riuscite a migliorare il proprio posizionamento met-tendo in atto tutte le azioni necessarie a seguito della valutazione ottenuta nel precedente esercizio; allo stesso modo, si riviene un downgrading di altre, ma grazie alla pubblicazione dei risultati, ed alla competizione generata tra gli Atenei, avranno assunto tutte le politiche richieste per il loro migliora-mento e per presumibilmente risalire nelle relative posizioni della classifica al prossimo esercizio VQR 2015-2019. Naturalmente, gli effetti di tali poli-tiche saranno molto limitati se non pianificate in precedenza, in quanto i ri-sultati della VQR saranno disponibili in un tempo molto distante (media-mente due anni) rispetto all’inizio della procedura valutativa.

Fig. 1 – Ranking Discipline Aziendali e SSD – SECS-P/07(Economia Aziendale)

ATENEO

AREA AZIENDALE SSD: SECS-P/07 VQR 2004-2010

(/60) VQR 2011-2014

(/72) VQR 2004-2010

(/53) VQR 2011-2014 (/59)

Aosta 50 58 32 54

Bari 56 61 50 58

Bergamo 27 12 26 7

Bologna 5 8 9 24

Bolzano 4 2 n.d n.d n.v.

Brescia 53 56 43 48

Cagliari 31 31 15 13

Calabria 40 29 46 19

Casamassima LUM 26 38 40 29

Cassino 41 44 39 28

Castellanza LIUC 14 66 6 55

Catania 11 13 21 36

Catanzaro n.d. 8 n.v. n.d. n.d n.v.

Chieti e Pescara 24 21 34 27

Enna Kore n.d 11 n.v. n.d 14 n.v.

Ferrara 7 7 5 2

Firenze 19 10 33 10

Foggia 32 39 19 46

Genova 51 50 27 35

Insubria 28 54 8 32

L’Aquila 18 60 n.d 56 n.v.

Macerata 39 54 38 39

Marche 49 25 28 9

Messina 20 15 49 50

Milano 17 13 n.d. 8 n.v.

Milano Bicocca 25 59 29 42

Milano Bocconi 2 5 2 4

Milano Cattolica 22 23 11 17

Milano IULM 9 3 3 1 Modena e Reggio

E. 15 45 20 33

Molise 35 63 51 56

Napoli Federico II 42 15 30 20

Napoli II 47 26 31 22

Napoli Parthenope 23 33 14 40

Napoli Pegaso n.d. 69 n.v. n.d. n.d. n.v.

e-Campus n.d. 72 n.v. n.d. n.d. n.v.

Padova 3 4 1 3

Palermo 54 49 12 51

Parma 46 52 35 29

Pavia 16 42 37 41

Perugia 43 42 42 38

Perugia Stranieri n.d. 65 n.v. n.d. n.d. n.v.

Piemonte Orientale 21 36 13 34

Pisa 45 47 22 26

Pisa S.Anna 1 1 n.d. n.d. n.v.

Roma Mercatorum n.d. 35 n.v. n.d. n.d. n.v.

Roma Europea n.d. 20 n.v. n.d. n.d. n.v.

Roma LUISS 8 5 53 15

Roma LUMSA n.d. 17 n.v. n.d. n.d. n.v.

Roma La Sapienza 48 50 52 47

Roma Link

Campus n.d. 57 n.v. n.d. 59 n.v.

Roma Marconi 55 68 n.d. n.d. n.v.

Roma San Raffaele n.d. 70 n.v. n.d. n.d. n.v.

Roma Tor Vergata 34 31 24 23

Roma Tre 38 27 45 31

Roma

UNICUSANO n.d. 19 n.v. n.d. 12 n.v.

Roma

UNINETTUNO n.d. 53 n.v. n.d. n.d. n.v.

Roma UNITELMA n.d. 71 n.v. n.d. n.d. n.v.

Salento 60 62 48 52

Salerno 44 46 25 25

Sannio 29 37 36 53

Sassari 35 41 23 36

Siena 6 18 4 5

Teramo 33 27 18 18

Torino 58 67 44 49

Trento 13 29 n.d. 6 n.v.

Trieste 57 64 47 43

Tuscia 52 39 41 43

Udine 12 24 10 11

Urbino Carlo Bo 37 47 17 43

Venezia Cà Foscari 10 22 7 21

Verona 30 34 16 16

Fonte: nostra elaborazione su dati report VQR 2004-2010; VQR 2011-2014

Da ultimo, la medesima VQR è stata utilizzata, sebbene con qualche re-cente riserva e diverso orientamento6, anche per la valutazione della qualità del collegio docenti dei dottorati di ricerca, unitamente agli altri parametri, contribuendo, quindi, al relativo processo di accreditamento.

Documenti correlati