5. L‟analisi della regolazione degli strumenti
5.1 Una metodologia per l’analisi dei paradigmi
In letteratura è possibile individuare diverse metodologie ai fini dello studio e dell‟analisi dei paradigmi.
Un primo filone predilige l'analisi qualitativa, focalizzandosi sui testi prodotti in ambito formale o informale e lavorando sull‟aspetto linguistico dei testi. Si tratta di approcci utilizzati tradizionalmente nei campi dello studio e dell'analisi delle politiche pubbliche (Leeuw 2003).
Un primo approccio è stato definito policy-scientific (Leeuw 2003) e prevede l'identificazione in sede preliminare di una serie di espressioni chiave che sono considerate “i motori” argomentativi delle politiche; dall'analisi di queste sarà possibile derivare gli elementi cognitivi che consentono di giustificare alcune determinate scelte ed orientamenti. Tale approccio fa riferimento direttamente alla tradizione storica dell‟analisi argomentativa (Toulmin 1958) e presenta il forte limite di focalizzarsi solo sulle retoriche degli attori senza interessarsi all'implementazione concreta degli strumenti da questi messi in campo. Si tratta pertanto di un metodo che consente di raggiungere obiettivi che divergono da quelli del presente lavoro di ricerca.
E‟ presente, inoltre, anche un ulteriore approccio, il quale si discosta in realtà solo leggermente dal precedente metodo, che prevede il ricorso all'analisi del
contenuto di fonti legislative e documenti ufficiali (Losito 1996, Gianturco 2005).
Tale metodologia consente di riscontrare micro-unità di analisi con particolare rilevanza simbolica di natura linguistica all'interno del testo; l'analisi, pertanto, non si limita a concentrarsi solo sulle retoriche giustificative degli attori ma si propone di individuare più in generale gli elementi che sono ritenuti cardine all'interno delle policy . L'analisi della ricorrenza di tali micro unità dovrebbe contribuire a delineare il contesto complessivo all'interno del quale è stato implementato e orientato lo strumento, identificandone obiettivi, strategie, strumenti prediletti ed articolazione di questi. Questo approccio, per quanto già utilizzato all‟interno di precedenti analisi finalizzate al test dei paradigmi (Rainaldi 2010), è stato ritenuto non soddisfacente per le esigenze di analisi del presente lavoro in quanto atto a generare un'evidenza complessiva dell'orientamento dei dispositivi troppo generale; tale metodo, inoltre, non è idoneo a misurare in modo puntuale la regolazione concreta di ogni strumento. Un secondo filone di studi, invece, ha un approccio diametralmente opposto e si focalizza maggiormente sull‟aspetto più operativo dell‟implementazione degli strumenti, analizzando anche la spesa a questi collegata. Un approccio interessante e prolifico è stato ispirato al lavoro condotto da Bradshaw (2006) e al suo “model families matrix”, istituito allo scopo di favorire una comparazione sistematica delle differenti politiche sociali. Il metodo prevede in primo luogo un'identificazione di alcuni modelli standard di famiglie (famiglia con figli, famiglia monoparentale e relative variazioni sulla base della numerosità dei bambini presenti) e procede successivamente con il calcolo dell'insieme dei benefici da questi potenzialmente usufruibili sulla base degli strumenti
disponibili in un determinato momento storico. I risultati così emersi costituiscono un punto di partenza di un'analisi finalizzata ad esplorare le correlazioni esistenti tra i vari “pacchetti”. I vantaggi offerti da questo metodo risiedono nella elevata concretezza e nella possibilità di misurare in modo puntuale l'impatto dell'insieme di misure presenti; gli svantaggi possono essere derivati dalla tipizzazione delle famiglie, che può rilevarsi in alcuni casi troppo restrittiva, e dal fatto di non andare a toccare in modo esplicito la questione dei valori sussunti nei vari tipi di regolazione.
Esiste infine, un terzo filone di analisi volto a garantire un test degli idealtipi attraverso una misurazione dei diversi aspetti della regolazione degli strumenti; in particolare, questo metodo consente di misurare in termini numerici l‟aderenza ai vari modelli e quindi è in grado di garantire un‟ottima comparabilità dei risultati. La Qualitative Comparative Analysis, infatti, nasce proprio nell'ambito degli studi comparativi di welfare all'interno dei quali, per problemi di scarsa numerosità dei casi studiati o indisponibilità di dati, era impossibile utilizzare tradizionali metodi statistici o campionari (Kvist 2006); in misura più limitata ma crescente, questa metodologia è stata applicata anche al campo del childcare e dei sistemi di congedo (Szelewa e Polakowski 2008, Ciccia e Verloo 2011).
Il metodo fu creato da Ragin nel 1987 come una sorta di “terza via” tra metodi qualitativi e quantitativi; rispetto ai primi, è accomunato dal desiderio di restituire la complessità dei casi studiati e con i secondi condivide l'attitudine ad utilizzare variabili misurate numericamente (Wagemann Schneider 2010a). Inoltre, la QCA può essere considerata tra le più adeguate metodologie per investigare delle ipotesi fortemente ancorate alla letteratura (Wagemann Schneider 2010a).
L'elemento connotativo più forte della QCA è che i casi sono visti come gli esiti di particolari configurazioni di condizioni multiple (Ragin e Sonnet 2004) e fortemente ancorate alla teoria (Hudson e Kuhner 2009), per cui le differenze tra gli oggetti possono essere indagate non tanto come determinate dalla differente gradazione di una medesima proprietà quanto come frutto di diverse combinazioni di proprietà. Questa metodologia, quindi, si pone come sostitutiva di quell'insieme di tecniche le quali, per fornire una descrizione sintetica dei valori espressi in varie dimensioni, fanno ricorso ai valori medi o indici additivi, i quali possono tuttavia occultare importanti elementi di diversità (Hudson Kuhner 2009). L'approccio sembra coerente con quanto affermato da Weber (1905) rispetto alle relazioni di causazione dei fenomeni sociali.
“(..)A concrete result cannot be viewed as the product of a struggle of certain causes favoring it and others opposing it. The situation must, instead, be seen as follows: the totality of all the conditions back to which causal chain from the effect leads had to act jointly in a certain way and in no other for the concrete effect to be realized” (Weber 1905, 187) in Ragin e Sonnet (2004)
Il fuzzy set QCA costituisce una variante della Qualitative Comparative Analisys così come formulata in origine e prevede che ciascun elemento considerato possa avere un diverso grado di appartenenza ad un dato insieme, passando dall‟appartenenza totale (full mebership) all'esclusione totale (full non-membership) in una scala composta da diversi livelli di appartenenza (Wagemann e Schneider 2010b). La possibilità di graduare l'appartenenza dei casi alle diverse proprietà consente di superare la rigidità binaria dei tradizionali metodi quantitativi che usualmente procedono attraverso una dicotomia radicale di tutte le variabili la quale, tuttavia, difficilmente è riscontrabile nella realtà e quindi poco adatta a descriverla in modo accurato. La possibilità fornita da questo metodo di attribuire ad ogni caso un punteggio di appartenenza ad una data configurazione di dimensioni rende la fuzzy set QCA ideale al fine dello studio e del test degli idealtipi. I modelli di idealtipo, infatti, possono essere costruiti come una combinazione di proprietà “creata a tavolino” sulla base delle indicazioni presenti in letteratura. Il nostro metodo ci consentirà quindi in seguito di valutare il livello di appartenenza di ogni caso riscontrato in realtà rispetto a ciascuno degli idealtipi identificati in sede teorica.
Al fine di illustrare sinteticamente il funzionamento di questo metodo, andremo a descrivere le principali fasi operative previste.
Individuazione delle dimensioni
La specificazione delle dimensioni focus dell'indagine costituisce il primo passo per la realizzazione dell'analisi. Le dimensioni ritenute più significative vengono identificate dai ricercatori sulla base dei differenti interessi di ricerca e delle indicazioni racchiuse nella letteratura. Viene raccomandato, in genere, di non utilizzare un numero di variabili molto elevato (Wagemann e Schneider 2010a), nonostante una discreta numerosità di queste possono dare l'impressione di aumentare il livello di esaustività complessiva dell'analisi; analogamente a quanto accade nell'analisi quantitativa, un numero elevato di dimensioni può comprometterne la qualità complessiva riducendone al contempo l'interpretabilità dei risultati (Wagemann e Schneider 2010b).
Costruzione della truth table
Le dimensioni individuate nella prima fase vengono successivamente articolate e legate tra di loro attraverso due diversi operatori logici: l‟operatore logico NOT ( ̴), principio di negazione, e l‟operatore logico AND, principio di intersezione (*) (Kvist 2006). Vengono così a costituirsi dei modelli che si differenziano tra di loro per la diversa declinazione delle medesime proprietà al loro interno.
La truth table di Lazarsfeld (1937) illustra tutte le combinazioni possibili delle dimensioni identificate (Kvist 2007, Ragin e Sonnet 2004). Questa tabella
rappresenta la base delle analisi successive ed è importante che sia sempre pubblicata all'interno degli studi (Wagemann Schneider 2010b).
Ad esempio; date le generiche dimensioni A e B, la truth table che verrà a delinearsi sarà così composta:
Modello 1: A * B Modello 2: A ̴ B Modello 3: ̴ A * B
Modello 4: ̴ A ̴ B
In alternativa, è stato proposto di utilizzare la lettera maiuscola (ad esempio, A) per indicare la dimensione nella sua accezione “positiva” e la lettera minuscola (ad esempio, a) per indicarne la negazione.
Il numero delle combinazioni ottenute è, naturalmente, strettamente legato al numero di dimensioni individuate; la numerosità delle combinazioni è stimabile attraverso la funzione 2K dove K è il numero delle dimensioni (Ragin e Sonnet 2004).
Non tutte le possibili combinazioni logiche presentate, tuttavia, hanno poi un effettivo riscontro nella realtà e in letteratura si consiglia di considerare come significative solo quelle per le quali vi è una forte aspettativa teorica (Ragin e Sonnet 2004) e che quindi vanno a costituire gli idealtipi effettivamente testati.
Operativizzazione
Ogni dimensione deve essere successivamente tradotta in indicatori empirici, i quali dovranno essere successivamente calibrati; quest'operazione può essere condotta sulla base di informazioni sia teoriche sia empiriche (Kvist 2006, 2007). L'operazione di calibrazione viene così realizzata: in primo luogo si stabilisce in relazione a quali valori dell'indicatore empirico il caso studiato è da considerare
fully out, fully in e quale sia il punto di indifferenza (cross over point). In
corrispondenza del valore settato come fully in verrà attribuito un punteggio pari a uno, in corrispondenza del fully out zero mentre in relazione al cross over point 0,5. Successivamente, vengono determinati anche gli altri gradi di appartenenza intermedi. All'interno del presente lavoro di ricerca, si intende utilizzare una scala a sette punti creata attraverso l'impiego di cinque ancore qualitative così come osservata nello studio realizzato da Szelewa e Polakowski (2008) (Tabella 1).
Tabella 1– Gradazione del punteggio per ancore qualitative
Fully out 0
Mostly but not fully out 0,01 -0,24 More o less out 0,25 – 0,49
Neither in nor out 0,50
More or less in 0,51 – 0,74 Mostly but not fully in 0,75 – 0,99
Fully in 1
All'interno del passaggio di operativizzazione è possibile cogliere la natura “ibrida”, a cavallo tra metodo qualitativo e quantitativo del fuzzy set QCA; da un lato, infatti, le ancore sono determinate da elementi qualitativi di letteratura. Al tempo stesso, a ogni valore dell'indicatore è possibile far corrispondere un punteggio fuzzy che aiuterà ad esprimere in termini numerici l'attrazione o repulsione di ogni strumento verso gli idealtipi considerati.
Attribuzione del punteggio
Per quanto concerne l'attribuzione del punteggio, sono fissate due regole principali:
Intersection rule: il valore del caso K rispetto all‟idealtipo composto dalle
dimensioni X*Y*Z è dato dal valore minimo tra i punteggi rilevati per ogni dimensione (minimum principle) (Kvist 2007);
Principle of negation: il valore a del caso K in corrispondenza della
dimensione ̴ X è dato da 1- a. L‟appartenenza di K al set X*Y* ̴ Z è data, come nel caso precedente, dal valore minimo tra quelli corrispondenti alle singole dimensioni (Kvist 2006).