• Non ci sono risultati.

La domanda a cui ora cerco di rispondere è: come si diversifica la routine di vita dei SFD a seconda delle tre categorie temporali finora considerate? Che caratteristiche rendono simili o differenziano i tre gruppi? Capire le somiglianze e differenze nel modo di trascorrere la giornata dei SFD a seconda di quanto tempo sono sulla strada dà la possibilità caratterizzare meglio la loro condizione e i loro stili di vita.

Per trovare risposta a questo quesito ho preso nuovamente in considerazione la domanda del questionario:

B.1. Ci può dire come vive? Cioè, dove mangia, dove va, cosa fa durante il giorno? Lavora?

Essendo impossibile trovare una codifica standardizzata alle risposte ottenute dall’indagine, ho ritenuto opportuno effettuare un’analisi lessico- testuale delle risposte al quesito, proiettando in un piano cartesiano le parole più significative utilizzate dai rispondenti assieme alle tre categorie di SFD.

L’analisi lessico-testuale è considerata uno dei metodi statistici che meglio trova un compromesso tra analisi qualitativa e analisi quantitativa, e proprio per la sua capacità di sintesi tra queste due sfere non è esente da dubbi, perplessità e critiche di molti studiosi.

L’oggetto di studio dell’analisi del contenuto è innegabilmente qualitativo, perché si lavora con una raccolta di testi, ma le tecniche di analisi statistica hanno quasi sempre bisogno di un supporto di natura quantitativa (Tuzzi, 2003).

L’intento ora è applicare questo tipo di analisi ai dati dell’indagine sulle povertà estreme, per dare un supporto statistico a conclusioni che derivano da uno studio di dati qualitativi.

L’analisi lessico-testuale del contenuto è una tecnica statistica che ha lo scopo di restituire informazioni contenute in una raccolta di testi, e non di numeri come avviene per tutte le altre tecniche statistiche. Per permettere un utilizzo ottimale delle informazioni è necessario cercare di equilibrare sintesi statistica, sensibilità del ricercatore e approfondimento del contesto (Tuzzi, 2003).

Le fasi del processo di analisi del contenuto sono essenzialmente tre:

1) la prima consiste nell’acquisizione del materiale, ossia leggere e inserire su supporto informatico le informazioni disponibili;

2) la seconda fase prevede l’organizzazione delle informazioni raccolte, la loro elaborazione statistica ed infine la loro sintesi;

3) l’ultima fase si concretizza nella restituzione delle informazioni elaborate dall’analisi dei testi, in maniera chiara e sintetica, spesso attraverso grafici.

Prima di iniziare una qualsiasi elaborazione statistica del testo, la seconda delle fasi del processo prevede la cosiddetta “costruzione del dato” o codifica, che serve a trasformare le informazioni presenti nei testi in una forma elaborabile al computer, ossia in codici. Nell’analisi testuale l’unità statistica di analisi è la forma grafica, ossia una sequenza di caratteri dell’alfabeto delimitata da due separatori. Si tratta di parole singole, o gruppi di parole inscindibili che hanno un determinato senso se prese insieme.

Quando le forme grafiche sono intese come unità statistiche vengono chiamate word token, ossia sono tutte le occorrenze, tutte le parole che compaiono nel testo, anche se ripetute. Il loro insieme dà N, cioè la dimensione del corpus, e rappresenta il numero di forme grafiche presenti nel testo. Invece si definiscono word type quando ci si riferisce alle modalità della variabile statistica, ossia alle parole distinte che compaiono nel corpus.

La dimensione V(N) del vocabolario ottenuto da un corpus di dimensione N è il numero di word type riconosciuti dalla scansione operata per mezzo di un software dedicato e rappresenta il numero di modalità della variabile statistica associata all’unità di analisi (Tuzzi, 2003).

Si devono considerare le frequenze dei word type stabilendo una soglia di frequenza che discrimini le forme più frequenti dalle meno presenti nel corpus. L’analisi poi utilizzerà solo le forme grafiche al di sopra di questa soglia di frequenza.

Il passo successivo è la normalizzazione che può consistere, ad esempio, in una fase di controllo su errori ortografici, compatibilità del formato del file per il software che si utilizza per l’analisi, presenza di caratteri speciali, seguita da una seconda fase in cui viene deciso come suddividere il corpus in forme grafiche.

Normalizzati i testi, si passa all’uso di un software dedicato che genera il vocabolario per forme grafiche e viene quindi scelto un insieme delle stesse. Si procederà dunque a semplificare tali forme al fine di agevolare l’analisi statistica che su di esse verrà effettuata. Il software restituisce anche una serie di misure lessicometriche19, utili a conoscere le caratteristiche del

corpus in esame.

A questo punto si passa all’analisi delle corrispondenze20 in forma semplice,

dal momento che le variabili considerate sono di fatto due: la prima ha come modalità le forme grafiche, la seconda i gruppi formati (che nel nostro caso saranno 3).

Il punto di partenza è quindi una matrice di frequenze come tabella a doppia entrata le cui righe corrispondono alle modalità della prima variabile (X) e le colonne alle modalità della seconda variabile (Y). Ogni cella rappresenta la frequenza congiunta, i totali di riga rappresentano le frequenze marginali della X ed i totali di colonna, per analogia, sono le frequenze marginali della Y. La sintesi ottenuta permette di ricostruire il sistema di relazioni tra

19 La lessicometria è lo studio rivolto alla quantificazione di fatti e fenomeni all’interno del lessico di una

lingua o di un autore (Devoto e Oli, 1990).

parole e autori21. Sul grafico le posizioni assunte nello spazio tra forme

grafiche e autori sono fondamentali per l’interpretazione in quanto le parole maggiormente rappresentative di un autore si collocano in posizioni vicine all’autore stesso (Bernardi e Tuzzi, 2003).

6.3. Codifica automatica delle risposte e misure