Tania Parisi
Nella primavera del 2011 è stata svolta un’indagine presso tutti gli studenti dell’ultimo anno di quattro province piemontesi diversamente dotate dal punto di vista della economia della conoscenza. L’obiettivo era individuare similarità e differenze nella carriera scolastica e nelle aspettative professionali legate non solo alla scuola frequentata, ma anche alla capacità di acquisire competenze – curriculari ed extracurriculari – utili per raccogliere le sfide di una sempre più knowledge-based society.
Nella primavera del 2013 gli stessi studenti sono stati ricontattati ed è stato chiesto loro di compilare un breve questionario. Questa volta le domande riguardavano che cosa in prevalenza facessero a due anni dal diploma, quanto stessero utilizzando le competenze acquisite sui banchi di scuola e quanto fossero soddisfatti dei primi traguardi raggiunti.
Prima di proseguire è opportuno chiarire che questa seconda indagine, benché coinvolga gli stessi intervistati della prima, non ha l’ambizione di collocarsi tra gli studi longitudinali, sempre più diffusi per studiare il com- plesso tema della transizione tra scuola e lavoro (Brzinsky-Fay 2014, Raffe, 2014, Wolbers, 2014).
Le specifiche di un disegno di ricerca longitudinale richiedono infatti par- ticolari accorgimenti metodologici volti a controllare le distorsioni causate dal fisiologico abbassamento della numerosità campionaria nel passaggio da un’ondata di rilevazione all’altra. I soggetti usciti dal campione, infatti, non possono essere sostituiti e di questo si deve tenere conto nella specifica della numerosità iniziale o, in alternativa, prevedendo complessi piani di campio- namento1. L’abbassamento della numerosità campionaria, detto “attrito”, ha almeno due conseguenze piuttosto serie se non viene adeguatamente tenuto sotto controllo. La prima conseguenza è che compromette la robustezza delle stime effettuate da un’indagine all’altra. La seconda conseguenza, forse
1 Ad esempio, l’ISTAT utilizza nelle sue indagini longitudinali i cosiddetti disegni “a rotazione”, in cui una parte del campione viene ciclicamente dismessa e sostituita da nuovi soggetti.
più grave, è che chi accetta di partecipare a tutte le ondate di interviste non è assimilabile a chi a un certo punto decide di abbandonare l’indagine. La propensione a partecipare a indagini ripetute nel tempo, infatti, non è distri- buita in modo casuale nella popolazione ed è anzi abbastanza prevedibile chi resterà nel campione fino alla fine e chi non lo farà. Le donne, ad esempio, sono spesso sovra rappresentate, mentre lo sono meno i membri delle classi superiori. La perdita differenziale dei soggetti mina la possibilità di genera- lizzare i risultati all’insieme della popolazione da cui il campione era stato inizialmente estratto (Urigh, 2008).
Poiché l’indagine del 2011 non era stata concepita in partenza con intenti longitudinali, le interviste condotte successivamente non hanno la finalità di descrivere in modo esaustivo e generalizzabile le traiettorie dei giovani diplo- mati nella transizione tra scuola, università e lavoro2. Inoltre, in un mercato del lavoro segmentato, e con ingressi resi ancora più problematici dalla con- comitante crisi economica, due anni sono forse troppo pochi per congetturare circa i destini o azzardare conclusioni sui percorsi appena intrapresi3. Ritornare dagli stessi studenti a due anni dal diploma, però, ha senz’altro il pregio di farci guardare da vicino alcune delle sfide che l’economia della conoscenza pone ai giovani in due momenti cruciali della loro esistenza: la fine di un ciclo e l’inizio di un altro.
Questo capitolo, e i due che seguono, sono dedicati all’analisi delle risposte degli studenti al questionario del 2013, corredate delle informazioni rilevate nel 20114.
In particolare, in questo primo capitolo si cercherà di capire se e quanto gli studenti che hanno preso parte al follow-up nel 2013 siano assimilabili all’in- sieme degli studenti intervistati nel 2011, o se le differenze siano tali e tante da dover considerare questa sottopopolazione come un gruppo a sé stante.
Nelle pagine che seguono, si procederà pertanto a un confronto sistematico di alcune informazioni rilevate presso gli intervistati nel 2011 (da ora in poi “C-2011”) con:
1. il sottogruppo degli intervistati che nel 2011 non si erano resi disponibili a farsi ricontattare, non fornendo l’indirizzo e-mail nel corso dell’intervi- sta e che, adottando la terminologia di Gobo (2001, p. 173), chiameremo
irreperibili (“I-2011”);
2. gli intervistati che all’epoca dell’intervista si erano dichiarati disponibili a farsi re-intervistare ma che, una volta ricontattati nel 2013, non hanno più risposto, che Gobo (2001, p. 173) definirebbe renitenti5 (“R-2011”); 2 Per queste finalità sono a disposizione, tra le altre, le indagini condotte specificamente sulle transizioni scuola lavoro di AlmaLaurea e AlmaDiploma, oltre che alcune indagini ad hoc condotte dall’ISTAT.
3 AlmaLaurea, ad esempio, intervista i diplomati a uno, a tre e a cinque anni dal diploma. 4 I risultati dell’indagine condotta nel 2011 sono diffusamente esposti in Olagnero, 2013. 5 È possibile che una parte di questi non sia stata raggiunta dall’invito a partecipare al follow- up – ad esempio per la dismissione dell’indirizzo e-mail comunicato al momento della prima intervista o per la presenza di dispositivi anti-spam – ma stando alle informazioni ottenute dall’i- stituto che si è occupato della rilevazione si tratta di una quota non significativa.
3. gli intervistati del 2011 che sono stati re-intervistati nel corso del follow-up condotto nel 2013 (“RI-2013”).
1. Le due indagini: caratteristiche dei campioni intervistati
Nell’ambito dell’indagine del 2011 sono stati intervistati oltre 7.000 diplo- mandi di quattro province piemontesi: Alessandria, Cuneo, Novara e Torino. Due anni dopo, gli stessi studenti sono stati ricontattati all’indirizzo e-mail che avevano comunicato all’epoca della prima intervista e invitati a rispondere a un breve questionario.
Benché in entrambi i casi il questionario fosse accessibile su una piattaforma web dedicata, vale la pena mettere in luce alcune prime importanti differenze tra le due rilevazioni, anzitutto sul reperimento degli intervistati.
Per la rilevazione del 2011 sono state contattate preliminarmente le dirigenze scolastiche, che si sono incaricate di individuare gli insegnanti disponibili a far compilare agli allievi il questionario in orario scolastico. Poiché ambiva a coinvolgere tutta la popolazione di riferimento, la rilevazione del 2011 si configurava come un’indagine “totale”. La seconda indagine, condotta nel 2013, ha riguardato invece solo il sottocampione di studenti che nel 2011 ha fornito un indirizzo e-mail.
Dall’incrocio di queste informazioni – disponibilità/indisponibilità di un indirizzo e-mail e partecipazione/non partecipazione al follow-up 2013 – è possibile costruire la tassonomia in figura 1. Si parte dal totale degli intervistati del 2011 (C2011), che si divide tra chi non ha lasciato alcun indirizzo e-mail (gli irreperibili, I-2011) e chi invece lo ha fatto. Questi ultimi, i disponibili, si suddividono a propria volta tra renitenti (R-2011), che non hanno rispo- sto all’invito a compilare il secondo questionario nel 2013 e re-intervistati (RI-2013), che sono quanti hanno partecipato anche alla seconda ondata di interviste nel 2013 (figura 1).
Sia nel 2011 che nel 2013 i questionari sono stati somministrati elettronica- mente sfruttando una piattaforma online. Le indagini di tipo CAWI, Computer
Assisted Web Interviewing, sono una diretta filiazione delle interviste CAPI
e CASI6 introdotte nella ricerca sociale già alla fine degli anni Sessanta, dalle quali si differenziano solo per il fatto di appoggiarsi alla rete per la diffusione del questionario (Hayslett et al., 2004). Le interviste somministrate via web assomigliano, per certi aspetti, alle classiche interviste PAPI7 tanto che, se- condo alcuni, esse rappresentano un semplice cambiamento di dispositivo, “dalla penna al pixel” per così dire. In effetti, le interviste CAWI condividono con le interviste “tradizionali” non solo i pregi ma anche i difetti. Anche in questo caso l’assenza dell’intervistatore garantisce una minor distorsione dovuta ad acquiescenza o a desiderabilità sociale8, e la possibilità di leggere le domande consente all’intervistato di concentrarsi maggiormente (Fricker
et al., 2005). Allo stesso tempo però l’autocompilazione fa aumentare i casi
di risposte incomplete, response set e abbandoni dell’intervista prima del termine (Leece et al., 2004; Ritter et al., 2004).
Sotto la denominazione CAWI, si raccoglie in realtà una grande varietà di metodi di somministrazione, riconducibili al modo in cui gli intervistati raggiungono il questionario (Couper, 2000). I più diffusi sono due: i son- daggi “liberi”, ai quali partecipano volontariamente le persone interessate e i sondaggi “a invito”, che coinvolgono bacini di potenziali intervistati precedentemente selezionati. Una seconda grossa differenza tra le interviste del 2011 e quelle del 2013 è che, sebbene in entrambi i casi si sia trattato di somministrazione di tipo CAWI, nel primo caso la compilazione è avvenuta in classe mentre nel secondo è stato spedito un invito via e-mail.
La storia delle tecniche di data collection è sempre stata profondamente interconnessa con le dotazioni tecnologiche via via disponibili ed è ormai molto corposa la letteratura che sottolinea che il canale con cui si raggiunge l’intervistato ha effetti anche molto rilevanti sulla validità delle informazioni rilevate Bowling (2005). Tra i vari canali disponibili, a godere della fama peggiore – secondo alcuni immeritatamente (Vehovar et al., 2002) – è pro- prio quello che si appoggia per la somministrazione alla rete. Infatti, anche se consente di raggiungere molte persone in poco tempo (Weible et al., 1998; Schaefer et al., 1998), e di abbattere i costi delle interviste (Mehta
et al., 1995; Schuldt et al., 1997, 1999), è estremamente esposto all’errore
di copertura (Bethlehem, 2010), soprattutto per quanto riguarda anziani e persone poco istruite.
6 Rispettivamente: Computer Assisted Personal Interviewing e Computer Assisted Self Interviewing. 7 Paper and Pencil Interviewing.
8 Acquiescenza e desiderabilità sociale sono fattori distorcenti alla base dei cosiddetti errori di misurazione, ossia di quanto si discosta la risposta fornita dall’intervistato dalla risposta”vera” che avrebbe dato in assenza di distorsioni. Sulla forzatura insita nell’ipotizzare l’esistenza di una risposta “vera” dei soggetti chiamati ad esprimere un’opinione, presupponendo quindi l’esistenza di uno “stato effettivo” dei soggetti sulla proprietà rilevata, si rimanda a Marradi (1990).
A ben vedere, nessuna indagine campionaria è esente dal rischio dell’errore di copertura – si pensi alle interviste telefoniche condotte sfruttando solo le linee fisse – ma per le interviste via web questo è ancora più rischioso. La popolazione non raggiungibile è infatti spesso molto diversa da quella raggiungibile e, in più, se ne sa ancora troppo poco per tentare aggiustamenti
ex post del campione al fine di aumentarne la rappresentatività (Schonlau
et al., 2004; Bandilla et al., 2003).
Nel caso delle interviste del 2011 l’errore di copertura è potenzialmente molto distorcente. Partendo da un’indagine “totale”, si è riusciti infatti a raggiungere appena il 30% della popolazione di interesse, senza che i ri- cercatori avessero il completo controllo sui soggetti inclusi nel campione, legati alla iniziativa e alla intenzione di collaborare di orientatori e dirigenti scolastici. Nella seconda indagine, cui si accedeva “su invito”, l’errore di copertura è sempre potenzialmente rilevante: parte degli studenti erano irre- peribili, parte pur essendo reperibile via e-mail non ha poi dato seguito alla disponibilità iniziale e ha ignorato l’invito a partecipare alla seconda wave.
Ma quanto sono diversi questi sottocampioni derivabili dal primo, dal punto di vista socio-demografico (tabella 1)?
I risultati di questo primo confronto – per genere, provincia di residenza, tipo di scuola frequentata e origine sociale – sono abbastanza rassicuranti: il campione di partenza (C-2011) e quello di arrivo (RI-2013) sono composti in maniera simile per genere, provincia e tipo di scuola superiore. Le uniche differenze si trovano in corrispondenza dell’origine sociale: in accordo con quanto già noto in letteratura, gli appartenenti alla classe superiore mostrano già a vent’anni una propensione minore a partecipare ai sondaggi rispetto agli altri (Urigh, 2008).
2. I motivi della partecipazione (e del rifiuto)
Nel paragrafo precedente si è accennato al basso tasso di risposte otte- nuto nell’indagine del 2011 e alle potenziali distorsioni legate all’errore di copertura. In realtà, come mostreremo a breve, è abbastanza ragionevole escludere forme di autoselezione dei soggetti per questa prima indagine, nonostante che sia stato possibile raggiungere solo il 30% della popolazione di riferimento.
Per spiegare come è stata formulata questa ipotesi, e in che modo si è provato a testarla, è necessario fare un passo indietro e ricordare brevemente in che modo erano stati coinvolti gli studenti. Come già descritto, all’avvio dell’indagine i ricercatori avevano contattato le direzioni scolastiche che si erano incaricate di individuare alcuni referenti all’interno di ciascun istituto. A indagine avviata e poi verso la fine della raccolta dei dati, dirigenti e orien- tatori delle scuole che non avevano ancora risposto erano stati ricontattati e sollecitati a partecipare alla ricerca. La decisione ultima se partecipare o meno all’indagine era stata quindi demandata agli insegnanti e non alla volontà dei singoli studenti. Tra questi ultimi, è ragionevole quindi supporre che la propensione a partecipare o meno all’intervista fosse distribuita casualmente.
In che modo è possibile controllare questa ipotesi? La considerazione da cui si può partire è che un intervistato, specie se giovane, ritiene di non aver nulla da guadagnare nel rispondere a una intervista e quindi lo farà più volentieri se la ricerca gli sembra interessante, seria e rilevante e, inoltre, se ha una buona opinione di chi l’ha commissionata. Poiché nel caso in esame la decisione di partecipare, e quindi l’interesse, non era del singolo studen- te ma del suo insegnante, giusta la nostra ipotesi dovremmo trovare classi composte in modo simile di studenti interessati e studenti non interessati. In altre parole, per escludere forme di autoselezione, non si dovrebbero trovare associazioni tra il grado di interesse per l’indagine e l’istituto frequentato.
Tab. 1. Caratteristiche socio demografiche degli intervistati per campione (% di colonna)
C-2011 I-2011 R-2011 RI-2013 Genere Maschi 42,2% 42,8% 40,1% 42,2% Femmine 57,8% 57,2% 59,9% 57,8% Provincia Alessandria 13,5% 15,0% 11,6% 9,6% Cuneo 18,3% 19,4% 16,0% 18,1% Novara 10,1% 10,3% 9,6% 10,9% Torino 58,1% 55,4% 62,8% 61,4% Tipo di scuola Liceo 43,2% 37,8% 38,8% 34,1% Altro liceo 24,2% 18,9% 18,3% 18,7% Istituto tecnico 23,9% 29,6% 28,9% 33,0% Istituto professionale 8,7% 13,6% 14,0% 14,1% Origine sociale* Classe superiore 9,8% 9,9% 10,1% 7,9%
Classe media impiegatizia 25,4% 25,3% 23,7% 31,7%
Classe media autonoma 20,6% 21,3% 20,0% 18,2%
Classe inferiore 44,2% 43,5% 46,2% 42,2%
N 6.901 4.320 1.995 586
* L’origine sociale degli intervistati è stata ricostruita utilizzando il titolo di studio di entrambi genitori e la loro professione. Le classi sociali individuate sono quattro: classe superiore, classe media impiegatizia, classe media autonoma e classe inferiore. Poiché è nota la forte associazione tra origine sociale e tipo di scuola frequenta, presentiamo i dati disaggregati per filiera. Trattandosi di una variabile ricostruita, le numerosità di riferimento sono: per C-2011 N = 5.927; per I-2011 N = 3.574; per R-2011 N = 1.808; per RI-2011 N = 545.
Uno degli indicatori di interesse più utilizzato è il cosiddetto item response
rate9 (Uhrig, 2008), che misura il grado di completezze delle risposte fornite a un questionario. La ratio che sta alla base di questo indicatore è che un compilatore riottoso o svogliato tralascerà più spesso di altri di rispondere ad alcune domande. L’associazione tra questo indicatore di interesse e l’istituto frequentato è talmente debole che è ragionevole escludere un’autoselezione degli studenti legata alla diversa propensione a farsi intervistare10.
Nella tabella 2 si mostra come l’indicatore appena introdotto si comporta nei tre gruppi di studenti (I-2011, R-2011 ed RI-2013) che si possono costituire sulla base dell’insieme degli intervistati del 2011. L’interesse per l’indagine aumenta in R-2011 e ancor più in RI-2013 rispetto sia all’intero C-2011 che al sottocampione degli Irreperibili (I-2011), al punto che tra gli intervistati del 2013 non ci sono più le differenze di livello tra le filiere che si osservano in precedenza (tabella 2).
Tabella 2. Indicatore di interesse per l’indagine 2011 per filiera (percentuale di risposte complete sopra la mediana)
C-2011 I-2011 R-2011 RI-2013
Liceo 68,9% 65,8% 74,5% 74,8%
Altro liceo 72,5% 70,6% 75,5% 75,4%
Istituto tecnico 70,2% 66,9% 75,5% 75,6%
Istituto professionale 64,7% 58,9% 75,2% 75,2%
Una seconda spinta alla partecipazione a un sondaggio è il grado di legitti- mazione di cui gode il committente. Entrambe le indagini sono state commis- sionate dall’Università di Torino, ma il fatto che la prima intervista si sia svolta tra le mura scolastiche fa ragionevolmente supporre che anche i professori e l’istituto possano essere stati percepiti dagli studenti come un committente “simbolico”, affiancato al committente “reale” rappresentato dall’Università. Prima di passare a descrivere gli indicatori che abbiamo selezionato per valutare il grado di legittimazione dell’istituzione scolastica e degli insegnanti, si sottolinea che il prestigio di entrambi, come rilevato anche in una recente 9 Il grado di completezza dei questionari dipende in generale dalla presenza o meno dell’inter- vistatore, dal tipo di domande poste (sensibili o meno) e anche dal canale. Nelle interviste faccia a faccia, in generale, si ottengono questionari più completi, così come in assenza di domande sensibili. Tra i questionari autosomministrati, quelli elettronici presentano rispetto ai tradizionali “carta e penna” un minor tasso di mancate risposte (Tourangeau et al., 1997). Inoltre, Lozar et al. (2008) hanno mostrato che nelle somministrazioni via web la differenza tra soggetti contattati e rispondenti effettivi è in media superiore dell’11% rispetto agli altri canali.
10 Risultati ottenuti con un modello di analisi della varianza fattoriale, controllando per genere, filiera e provincia. A margine notiamo che nella medesima analisi condotta sui partecipanti al follow-up, l’effetto dell’istituto frequentato, parso piuttosto modesto nella precedente ricerca, attorno al 13%, sale al 22%, segno di quanto abbia potuto contare l’iniziativa di dirigenti e orientatori per indurre gli studenti a rispondere al questionario.
indagine svolta sempre in Piemonte11 (Albano, 2014; Bertolini, 2014; Bertolini et al., 2014), continua a diminuire, fatto di cui il corpo insegnanti è sempre
più spesso amaramente consapevole (Cavalli et al., 2010). La sensazione di far parte gruppo sociale in declino si riflette sulla motivazione al lavoro non solo dei professori, ma anche sugli studenti che si trovano talvolta ad avere a che fare con insegnanti frustrati, sempre più spesso precari e poco pagati (D’Agati, 2014).
Tuttavia, nonostante che l’immagine dell’insegnante di scuola superiore appaia così appannata che la decisione di seguirne le orme è ormai assai poco diffusa anche nelle scuole tradizionalmente votate a tale scopo (Cavaletto et
al., 2013), una (buona) valutazione della scuola e degli insegnanti mostra di
aver ancora effetto a due anni dall’uscita, e aumenta la propensione a parte- cipare a un’indagine che ha preso le mosse sui banchi di scuola (tabella 3).
Tab. 3. Effetto dell’opinione dell’istituto frequentato e dei professori sulla propensione a partecipare all’indagine (% rispondenti sopra il punteggio mediano per filiera)
C-2011 I-2011 R-2011 RI-2013
Opinione positiva dell’istituto frequentato*
Liceo 49,0% 48,7% 47,6% 54,9%
Altro liceo 50,0% 48,7% 52,0% 51,4%
Istituto tecnico 52,9% 51,8% 53,4% 60,0%
Istituto professionale 49,9% 49,5% 51,4% 47,1%
Opinione positiva dei professori dell’istituto frequentato**
Liceo 49,9% 47,9% 53,0% 54,9%
Altro liceo 50,0% 47,5% 52,8% 57,0%
Istituto tecnico 49,0% 49,6% 47,2% 52,1%
Istituto professionale 50,2% 48,3% 55,0% 45,1%
* L’opinione sull’istituto frequentato è desunta a partire da una batteria di domande con le quali vengono valutati alcuni aspetti della propria scuola. L’analisi in componenti principali ha fatto emergere un solo fattore, che spiega il 44% della varianza totale.
** L’opinione sui professori della scuola è desunta a partire da una batteria di domande con le quali vengono valutati alcuni aspetti degli insegnanti. L’analisi in componenti principali ha fatto emergere un solo fattore, che spiega il 49,2% della varianza totale.
Anche se il vero committente dell’indagine era l’Università, nel primo questionario non erano presenti domande dirette circa la sua valutazione da parte degli intervistati. È possibile inferire un atteggiamento (forse) non 11 I dati sono tratti da una delle ricerche del progetto ERICA dal titolo “Governance locale delle istituzioni formative ed educative e loro legittimazione” coordinata da Loredana Sciolla. I risultati sono ora raccolti nel volume a cura di Bertolini (2014).
negativo nel confronti di questa istituzione osservando la quota di quanti han dichiarato di voler proseguire gli studi dopo il diploma. Anche in questo caso – prendendo come debole riflesso di una buona opinione dell’univer- sità la decisione di frequentarla dopo il diploma – pare che una valutazione positiva del committente abbia esercitato un qualche effetto nel convincere alcuni studenti a partecipare anche al follow-up (tabella 4).
Tab. 4. Decisione se proseguire o meno gli studi universitari dopo il diploma (percentuali di sì per filiera) C-2011 I-2011 R-2011 RI-2013 Liceo 90,3% 89,7% 90,2% 94,1% Altro liceo 77,4% 73,5% 82,0% 85,9% Istituto tecnico 43,1% 39,8% 47,3% 51,4% Istituto professionale 31,5% 26,8% 37,9% 47,1%
In definitiva cosa ha contato di più? Un genuino interesse per l’indagine o una buona opinione di chi l’ha commissionata? La risposta a questa do- manda è riassunta nella tavola che segue, che presenta i risultati di un’analisi di regressione multinomiale nella quale si confrontano le probabilità di far parte di uno dei tre gruppi: Irreperibili (I-2011), Renitenti (R-2011) e Re-
intervistati (RI-2011). A parità di altre caratteristiche, l’interesse per l’indagine
e la valutazione della committenza hanno svolto un ruolo significativo nel prevedere la propensione a partecipare alle indagini successive alla prima. In particolare, parte della decisione di lasciare il proprio indirizzo e-mail per farsi eventualmente ricontattare anche senza poi partecipare davvero al follow-up è riconducibile a un elevato interesse per l’indagine e al grado di legittimazione attribuito alla committenza, in questo caso rappresentata dai professori della scuola che avevano acconsentito alla somministrazione del questionario alla classe. Gli effetti dell’interesse per la ricerca e della valuta-