• Non ci sono risultati.

UN’ANALISI EMPIRICA

4.2. Contesto italiano

L’attuale organizzazione ed assetto del settore universitario italiano è la risultante di numerose ondate di riforme che fin dagli anni Novanta dello scorso secolo hanno interessato molteplici paesi tra cui l’Italia. Ripercorrere, pur sinteticamente, le principali tappe di queste modifiche richiederebbe un lavoro a sé stante; pertanto, ai fini del presente contributo, ci limitiamo a richiamare le ultime modifiche, e solo per gli ambiti di specifico interesse, ossia la valutazione della didattica, rimandando ad altri capitoli di questo volume per analisi più ampie ed approfondite.

Lo snodo normativo fondamentale che ha dato origine alle ultime modi-fiche può senza dubbio essere identificato nella Legge n. 240/2010, nota come Riforma Gelmini. Finalizzata all’incremento della qualità e dell’effi-cienza del sistema universitario, tale norma ne ha mutato profondamente gli assetti di governance, i meccanismi di finanziamento e di reclutamento del personale. In particolare, il rafforzamento dei sistemi di valutazione di ri-cerca e didattica ha consentito di provare a collegare i risultati ottenuti dai

singoli Atenei con le risorse assegnate, entro una logica di crescente compe-tizione tra Atenei (Capano, 2011). La costituzione di un’agenzia per la valu-tazione dell’Università e della ricerca (ANVUR) e la predisposizione di linee guida e indicatori hanno costituito l’infrastruttura della valutazione (Rebora et al., 2011).

Il settore universitario italiano è attualmente formato da 67 Università statali, con una popolazione di oltre 1,5 milioni di studenti distribuiti in oltre 4mila corsi di laurea. L’intero sistema è finanziato per circa 7 miliardi di euro pari a poco oltre l’1% del PIL nazionale, un valore largamente inferiore alle medie dei paesi membri dell’OECD. A seguito dell’introduzione della valu-tazione, una parte crescente di risorse (fino al 30%, secondo la Legge 69/2013, art. 60) vengono distribuite agli Atenei sulla base dei risultati di performance di ricerca e didattica conseguiti, mentre il finanziamento ordi-nario avviene sulla base della numerosità degli studenti in corso (e al primo anno fuori corso) iscritti nei diversi corsi di laurea.

Tra le novità più rilevanti del corpus normativo in oggetto vi è l’introdu-zione di un sistema di valutal’introdu-zione ed accreditamento di corsi di studio e Ate-nei, denominato AVA. Esso si basa su tre pilastri fondamentali:

1) sistema di accreditamento iniziale e periodico di corsi di laurea e sedi universitarie, necessario per iniziare ad operare;

2) sistema di valutazione e assicurazione della qualità sia per la didattica che per la ricerca universitaria

3) sistema di autovalutazione di didattica e ricerca con il quale i singoli Atenei possono analizzare ed identificare le proprie criticità e prospet-tive di miglioramento.

Tali sistemi si basano su una serie di criteri e indicatori che sono oggetto di costante adattamento, il cui l’ultimo set risale a gennaio 2019 (D.M. n.

6/2019).

Con riferimento alla didattica, che costituisce il nostro ambito specifico di interesse, il sistema AVA richiede, nella fase di costituzione di un corso di studio, il possesso di determinati requisiti di trasparenza, di docenza, di risorse strutturali, la presenza di requisiti per l’assicurazione di qualità, non-ché dei limiti alla parcellizzazione delle attività didattiche. Similmente, in prospettiva di valutazione periodica degli stessi corsi di studio, la normativa ministeriale prevede un nutrito set di indicatori connessi a: didattica (ulte-riormente suddivisi in indicatori sulla regolarità degli studi, sull’attrattività del corso, sulla sostenibilità, sull’efficacia e sulla docenza), internazionaliz-zazione (ulteriormente suddivisi in mobilità in uscita e attrattività internazio-nale) e ulteriori indicatori per la valutazione della didattica (ulteriormente suddivisi in regolarità degli studi, efficacia e qualità della docenza). Pur

senza scendere in ulteriori dettagli – che sono comunque reperibili negli al-legati al D.M. n. 6/2019 menzionato in precedenza – non può sfuggire la complessità del sistema, la numerosità degli indicatori, nonché la necessità di un costante monitoraggio degli stessi sia da parte degli organi di ogni corso di studio, sia da parte del Nucleo di Valutazione dell’Ateneo. A ciò va ag-giunto l’accreditamento periodico dei corsi di studio, a base triennale, che si basa su un set di requisiti ulteriori, che costituiscono l’allegato 8 delle linee Guida AVA 2.2 attualmente in vigore, e in particolare sul cosiddetto requi-sito R3 (https://www.anvur.it/attivita/ava/accreditamento-periodico/linee-guida-per-laccreditamento-periodico/). Tale requisito si articola in quattro obiettivi, ognuno dei quali è ulteriormente suddiviso in punti di attenzione che vengono rendicontati in una specifica sezione della Scheda Unica An-nuale del corso di studio o in altra documentazione ufficiale che il corso deve produrre. Per rispondere alle esigenze di autovalutazione, infatti, i corsi sono obbligati a predisporre, discutere e approvare periodicamente un insieme di report atti a monitorare l’andamento delle principali variabili qualitative e quantitative relative al corso, a rilevare eventuali criticità e a mostrare gli interventi implementati al fine di risolvere tali criticità.

La sintetica panoramica appena fornita mostra come la normativa abbia disegnato un sistema di valutazione e monitoraggio estremamente ricco di informazioni, capace (potenzialmente) di fornire un variegato set di dati per la gestione e per il controllo, ma anche altrettanto complesso e impegnativo dal punto di vista degli obblighi documentali.

4.3. Metodologia

Il presente lavoro adotta un approccio di tipo “esplorativo” (Yin, 2003) perché il principale obiettivo è quello di approfondire gli elementi di novità introdotti dalla normativa nazionale. Proprio il carattere di novità è stato l’aspetto attorno al quale sono state costruite le interviste (17) realizzate in due diversi Atenei e che hanno coinvolto gli attori interni maggiormente coinvolti dalla riforma. In particolare, sono stati intervistati 12 coordina-tori/presidenti di corso e 5 responsabili dell’attività amministrativa dei corsi di studio (“managers didattici”). L’analisi è stata svolta con riferimento all’offerta didattica e gli Atenei scelti sono quelli di provenienza degli autori.

Ciò ha consentito di ottenere almeno tre vantaggi principali: il primo, racco-gliere le evidenze empiriche in un breve lasso di tempo in modo che la nor-mativa nel frattempo non mutasse; il secondo, e forse più importante, otte-nere un livello di fiducia tra intervistato ed intervistatore dovuto

all’appartenenza alla stessa istituzione che difficilmente si sarebbe potuto ot-tenere altrimenti; il terzo, la possibilità di fare riferimento ad eventi ed epi-sodi conosciuti da entrambi con riferimento alle proprie istituzioni, consen-tendo quindi all’intervistatore di approfondire alcuni aspetti di particolare interesse con maggior efficacia. 8 intervistati provengono dal primo Ateneo e 9 dal secondo; le interviste hanno avuto una durata compresa tra 24 e 78 minuti e sono state svolte tra aprile e giugno 2017. I due Atenei, geografica-mente distanti, hanno implementato la governance dei corsi di studio in modo differente. Ad esempio nell’Ateneo A il coordinatore/presidente del corso, oltre che dal consiglio di corso è supportato da una giunta di cui fanno parte alcuni docenti ed i rappresentanti degli studenti, mentre nell’Ateneo B tutti i docenti sono a supporto del coordinatore/presidente assieme al mana-ger didattico che nell’Ateneo A non fa parte né del consiglio né della giunta.

Sono stati scelti coordinatori/presidenti e manager responsabili di corsi diversi, che spaziano dalle scienze sperimentali a quelle umanistiche, sia triennali che magistrali; tutti avevano vissuto l’esperienza nei rispettivi ruoli durante la riforma, così da poter comparare la situazione antecedente e suc-cessiva all’introduzione del sistema di misurazione della performance. I ri-sultati che verranno mostrati nei paragrafi successivi mostrano chiare speci-ficazioni dei diversi pacchetti di controllo ed evidenziano interessanti rifles-sioni rispetto alla letteratura esistente. Nel disegno di ricerca scelto, tuttavia, questa variabilità nelle caratteristiche dei soggetti intervistati non aveva l’obiettivo di costruire un campione statisticamente significativo rispetto ad una predefinita popolazione di riferimento.

Per le interviste è stata utilizzata una lista di domande aperte per incorag-giare i rispondenti a condividere le loro esperienze in merito l’adozione dei sistemi di misurazione delle performance nei loro corsi di studio. Le intervi-ste hanno preso in considerazione alcuni temi centrali quali l’utilizzo dei si-stemi di misurazione delle performance antecedenti, concomitanti e susse-guenti al corso, l’evoluzione delle relazioni tra coordinatori, studenti e ma-nager didattici, le difficoltà del processo di misurazione e valutazione, i punti di forza e di debolezza dei sistemi ecc. La scelta di tali argomenti è stata fatta partendo dagli obiettivi del dettato normativo per chiedere agli intervistati come le richieste normative fossero state declinate all’interno dei corsi di studio. Dopo due interviste pilota, necessarie alla messa a punto della lista di domande, si è proceduto a intervistare e a registrare ove possibile gli intervi-stati. Le trascrizioni successive sono state analizzate con il software Atlas.ti 8.2; i due ricercatori separatamente hanno proceduto all’analisi e codifica delle stesse. Per ragioni di spazio non inseriremo citazioni puntuali, ma nel

paragrafo successivo sistematizzeremo i risultati dell’analisi empirica se-condo i 5 pacchetti di controllo del framework teorico.

Documenti correlati