• Non ci sono risultati.

Capitolo 2 Metodo di ricerca

2.6 Analisi dei dati

2.6.2 Come analizzare i dati

Con “analisi dei dati” si intende un’analisi delle variabili e delle loro relazioni (Corbetta, 2003 pag. 53-55). Sono infatti le caratteristiche logico-matematiche delle variabili che definiscono le procedure da seguire nella fase di analisi dei dati. La distinzione tra variabili nominali, ordinali e cardinali, è il fondamento sul quale si poggia la scelta degli strumenti statistici da utilizzare per la loro analisi.

Questi tre tipi di variabili, infatti, differiscono fra loro per le operazioni alle quali possono essere sottoposti i loro valori: per quanto riguarda le variabili nominali, i numeri assegnati alle modalità non hanno un significato numerico ma sono dei puri “nomi” e quindi le sole relazioni possibili tra le modalità di tale variabile sono le relazioni di uguaglianza e di disuguaglianza; le variabili ordinali, invece, nascono da un ordinamento degli stati della proprietà e fra le modalità di tale variabile è possibile instaurare, oltre a relazioni di uguaglianza e di disuguaglianza, anche le relazioni d’ordine ovvero di maggiore o di minore ma non possiamo tuttavia affermare la distanza esistente tra i valori e quindi su quanto un

valore sia maggiore di un altro; infine le variabili cardinali si ottengono dalle proprietà mediante un’operazione di misurazione o di conteggio e quindi in questo caso i valori delle variabili fruiscono di un pieno significato numerico.

L’obiettivo primario dell’analisi dei dati è lo studio delle relazioni tra variabili. Nel momento in cui ci inoltriamo nell’analisi delle relazioni fra variabili, diventa importante fare una distinzione tra quest’ultime, ovvero una distinzione tra variabili dipendenti e variabili

indipendenti. La relazione tra queste due variabili si interpreta in termini di nesso casuale,

nel quale una delle due variabili è causa e l’altra effetto, una è la variabile influenzante e l’altra è la variabile influenzata. Questa distinzione rappresenta un’operazione di grande importanza sia ai fini dell’analisi e sia per la definizione degli strumenti statistici da utilizzare.

L’analisi della varianza detta anche ANOVA (Analysis Of Variance) è utilizzata per analizzare i dati. Questa consiste in un insieme di tecniche statistiche, appartenenti alla statistica inferenziale, che consente di verificare l’ipotesi di uguaglianza di più medie. L’analisi della varianza è un’estensione del t-test. Si ricorre al t-test quando si confrontano solo due gruppi di dati. Inoltre, esistono due diverse tipologie di quest’ultimo e quello che si utilizza dipende dal fatto che la variabile indipendente sia stata manipolata utilizzando gli stessi partecipanti oppure partecipanti diversi:

• indipendent-samples t-test, questo test viene utilizzato quando due condizioni sperimentali vengono assegnate ciascuna a partecipanti diversi;

• paired-samples t-test, si ricorre a questo test quando ci sono sempre due condizioni sperimentali ma, in questo caso, gli stessi partecipanti prendono parte a ciascuna delle due condizioni dell’esperimento.

Quando invece si hanno più gruppi di dati, si ricorre all’analisi della varianza (ANOVA). Il teorema fondamentale della varianza è il seguente:

La quantità non è altro che il numeratore della varianza, ovvero la devianza (o somma dei quadrati). In questo caso la devianza è scomposta in due componenti:

• la somma dei quadrati degli scarti dei singoli valori dalla rispettiva media di gruppo (somma interna dei quadrati, interna in quanto è interna al gruppo);

• la somma dei quadrati degli scarti delle medie di gruppo della media generale (somma esterna dei quadrati).

La prima somma è una misura della variabilità del fenomeno entro i gruppi (within) mentre la seconda una misura della variabilità del fenomeno studiato fra i gruppi (between). Inoltre, la somma interna dei quadrati viene chiamata anche devianza non spiegata mentre quella esterna devianza spiegata ovvero spiegata da quella parte di variabilità della variabile dipendente che è attribuita alla variabile indipendente. Quando la somma dei quadranti interna è uguale a zero, si ha una relazione perfetta mentre quando la somma dei quadrati esterna è uguale a zero si ha un’assenza di relazione.

Il software SPSS utilizza la procedura One Way ANOVA per l’analisi della varianza di una variabile dipendente in base a una singola variabile indipendente.

Inoltre, ANOVA, per analizzare la significatività, produce F-statistics o F-ratio, ovvero il rapporto tra il modello e il suo errore. Questo viene quindi utilizzato per testare l’adattamento generale di un modello di regressione a un insieme di dati osservati. In altre parole, è il rapporto tra quanto è buono il modello rispetto a quanto è cattivo (il suo errore).

Inoltre, la probabilità che la manipolazione abbia avuto effetto dipende dal valore di F: • se il valore di F è minore di uno, l’effetto di disturbo provocato con l’esperimento

non è significativo e quindi non si può respingere l’ipotesi nulla;

• se il valore di F è maggiore di uno, la manipolazione ha avuto un qualche effetto e quindi si respinge l’ipotesi nulla.

Per analizzare invece la forza della relazione, occorre eseguire una verifica sul p-value indicato con il termine “Sign” (significatività) nel software SPSS. Questo, esprime la

possibilità che i dati sperimentali siano casuali, ovvero la probabilità che l’ipotesi nulla sia vera.

In questo caso possiamo definire tre situazioni differenti:

• se la significatività è inferiore a 0.05 significa che i dati osservati sono

statisticamente significativi. Esiste infatti una probabilità inferiore al 5% che i dati

siano casuali e vi è una sicurezza del 95% che esista una relazione fra le due variabili. Pertanto, i risultati sono significativi e statisticamente accettabili e la relazione fra le due variabili è dimostrata in maniera soddisfacente, ovvero, la relazione esiste davvero (significatività ideale). L’evidenza empirica è quindi fortemente contraria all’ipotesi nulla che viene rifiutata;

• se la significatività è maggiore di 0.05 significa che i dati osservati non sono

significativi. L’evidenza empirica non è sufficientemente contraria all’ipotesi nulla

che quindi non può essere rifiutata. I risultati vengono perciò considerati come dovuti al caso e non alla variabile presa in considerazione;

• se la significatività è maggiore di 0.05 ma inferiore a 0.10, la relazione tra le variabili si dice che è marginalmente significativa.

Infine, quando in un esperimento è presente una variabile dipendente correlata ad una variabile indipendente, è necessario procedere con un’analisi della covarianza (ANCOVA) per tenere sotto controllo le differenze inter-gruppo. Lo scopo di questa è quello di eliminare o controllare l’effetto di alcune variabili che potrebbero confondere i risultati sulla variabile dipendente.

Vi sono pertanto due motivi per includere le covariate in ANCOVA:

• per ridurre la varianza degli errori all’interno del gruppo, ovvero, ANOVA e t-test consentono di suddividere la varianza in una parte spiegata e una parte non spiegata (errore), la variabile covariata consente invece di spiegare una parte di questo errore riducendo così la varianza di quest’ultimo e permettendoci di valutare più accuratamente l’effetto della variabile indipendente;

• eliminazione dei confondenti, in qualsiasi esperimento possono esserci variabili che confondono i risultati, cioè variabili che variano sistematicamente con la manipolazione sperimentale. Pertanto, l’ANCOVA consente di rimuovere l’influenza di queste variabili. Una volta identificata una possibile variabile confondente, questa può essere misurata e inserita nell’analisi come covariata.

Capitolo 3