MODELLI NON
PARAMETRICI
Uso dei Modelli in Statistica
• Modelli come generalizzazione delle procedure
* Modello Lineare Generale (GLM)
* Regressione Logistica
• Modelli come descrizione di realtà sperimentali complesse
* Analisi Fattoriale
* MDS
* Analisi delle corrispondenze
* Modello di Rasch
Analisi dei Modelli
1. Definizione del modello 2. Stima dei parametri
3. Valutazione della bontà del modello 4. (**Calcolo della significatività**)
Modelli a struttura PREDETERMINATA
• Definizione della struttura del modello sulla base di ipotesi a priori
• Stima del valore dei parametri
• Calcolo dei limiti di confidenza dei parametri
• Calcolo della significatività
* Ipotesi nulla: parametri = 0
* Possibile inferenza
Modelli a struttura STIMATA
• Stima della struttura del modello sulla base dei dati sperimentali
• Stima del valore dei parametri
• *Calcolo dei limiti di confidenza dei parametri
• *Calcolo della significatività (su nuovi dati sperimentali)
* opzionale: calcolato solo in alcune situazioni
* Ipotesi nulla: valori sperimentali = valori del modello
Ipotesi nulla
• Test statistici creati per la falsificazione dell’ipotesi nulla
• Asimmetria delle zone di falsificazione e non-falsificazione dell’ipotesi nulla
• Inadeguatezza dei test per la conferma dell’ipotesi nulla
Analisi della Regressione Lineare
Analisi della Regressione Polinomiale
20 30 40 50 60 70 80 90 100
0 5 10 15 20 25 30 35 40
potenza 1 potenza 3 potenza 5
Materiali e metodi
• 116 studenti divisi in modo random in due sottogruppi
• Questionario sulle modalità di utilizzo di Internet a cinque sottoscale con
punteggi da -4 a +4
• Analisi Fattoriale e Analisi della Regressione
Analisi Fattoriale
Gruppo 1
Componenti
Sottoscale 1 2
A 0.792 -0.015
B 0.002 0.804
C 0.001 0.825
D 0.608 0.109
E 0.743 -0.109
Gruppo 2 Componenti
Sottoscale 1 2 3
A 0.761 -0.239 0.051 B 0.083 0.884 0.247 C -0.066 0.197 0.925 D 0.823 0.310 -0.073 E 0.461 -0.569 0.514
Gruppo 1 Unstandardized CoefficientsStandardized Coefficientst Sig. 95% Confidence Interval for B
Model B Std. Error Beta Lower BoundUpper Bound
1 (Constant) 0.971 0.443 2.191 0.033 0.082 1.860
B 0.018 0.117 0.020 0.154 0.878 -0.217 0.254
C -0.014 0.121 -0.015 -0.116 0.908 -0.257 0.229
D 0.176 0.118 0.189 1.489 0.142 -0.061 0.412
E 0.402 0.147 0.346 2.730 0.009 0.107 0.698
Gruppo 2 Unstandardized CoefficientsStandardized Coefficientst Sig. 95% Confidence Interval for B
Model B Std. Error Beta Lower BoundUpper Bound
1 (Constant) 1.388 0.528 2.626 0.011 0.328 2.448
B -0.033 0.109 -0.044 -0.307 0.760 -0.252 0.185
C -0.043 0.115 -0.051 -0.374 0.710 -0.274 0.188
D 0.217 0.109 0.263 1.985 0.052 -0.002 0.435
Regressione Multipla
Conclusione
Nei modelli a struttura PREDETERMINATA l’affidabilità dei parametri viene misurata
dalla loro variabilità, dai limiti di confidenza che delimitano la regione entro cui potrebbe trovarsi la ‘vera’ relazione, se le ipotesi sul modello sono corrette
Nei modelli a struttura STIMATA, la struttura del modello viene determinata sui dati
sperimentali ma la variabilità del numero dei parametri non viene fornita. Viene fornita
una misura della loro capacità di
rappresentare in modo ‘ADEGUATO’ i dati sperimentali
Conclusione
CONFRONTO FRA
MODELLI PARAMETRICI E NON PARAMETRICI
“Accuracy and certainty are competitors:
The surer we want to be, the less we must demand”
Basic Ideas of Scientific Sampling di Alan Stuart, Griffin, London 1968
Variabili Qualitative
• In alcuni casi il fenomeno in esame può essere valutato solo da variabili qualitative (Es.
dipendenza o non dipendenza da droga)
• VANTAGGI: corrispondono a situazioni più definite (presenza o assenza di una patologia)
• SVANTAGGI: minor precisione nella misura
TEST NON PARAMETRICI
Una serie di dati - Binomiale
- Chi quadrato
Due serie di dati correlati - McNemar (proporzioni)
- Segno (distribuzione dei valori) - Wilcoxon
Più serie di dati correlati - Friedman
Due serie di dati indipendenti - Mann-Whitney
- Kolmogorov-Smirnov
Più serie di dati indipendenti - Kruskall-Wallis
MODELLI NON PARAMETRICI
Misure di associazione
• Tavole di contingenza: associazione fra due variabili qualitative
• Modelli Log-Lineari: associazione fra più variabili qualitative
Modelli Regressivi
• Regressione Logistica: modello generale in cui è possibile esprimere una variabile qualitativa (dicotomica) come
funzione di una o più variabili sia qualitative che quantitative.
Regressione Logistica
• Modello a struttura PREDETERMINATA per variabili qualitative dicotomiche
• Tecnica non parametrica
Procedura
1. La variabile è trasformata in logit ovvero legata ai fattori che la influenzano da una funzione logaritmica
logit (variabile)= b0 + b1 x1 + b2 x2 …
Regressione Logistica
Regressione Logistica
Regressione Logistica Regressione Logistica
Trasforma la variabile qualitativa dicotomica (evento, non evento) in una variabile quantitativa utilizzando il
parametro odds
• 1.Variabile 0,1
• 2.Probabilità 0 1
• 3.Odds 0
) (
) (
evento non
p
evento odds p
Per poter utilizzare una equazione nel campo dei numeri reali si esegue una ulteriore trasformazione
logarimica che prende il nome di logit
Odds logit (valore - --- 0 --- +)
) (
) log (
logit
nonevento p
evento
p
Regressione Logistica
Regressione Logistica
Regressione Logistica Regressione Logistica
• Logaritmo: funzione inversa dell’esponente
• Logaritmo naturale (Ln) di x è l’esponente da dare a e (numero naturale e = 2.718) per ottenere x
• Ln 5 = 1.6 perché 2.718
1.6= 5
Regressione Logistica Regressione Logistica
Proprietà dei logaritmi
• Ln 1 = 0
• Ln 0 = -
• Ln + = +
La variabile può essere vista come funzione dei fattori in un modello regressivo:
logit (variabile)= b0 + b1 x1 + b2 x2 + b3 x3
0 1 1(var) e
be
b xodds
Regressione Logistica
Regressione Logistica
2. Procedura: VALUTAZIONE della Bontà del modello - stima dei
parametri b
Diversi metodi di approssimazione
– A blocchi: valuta tutti i parametri assieme tramite il criterio di tolleranza (esclude le variabili che apportano poca informazione al modello)
– Per passi o per esclusione: toglie o aggiunge i parametri a seconda dell’apporto di questi alla
significatività del modello
Regressione Logistica
Regressione Logistica
Procedura
2. Stima dei Parametri (b)
viene fatta con metodo a successive approssimazioni.
Il loro significato si può dedurre dall’odds ratio:
Regressione Logistica Regressione Logistica
1 0
1 0
1 1
1
0
. 1
. b b
b b
x
x e
e e e
odds R odds
O
• Nella regressione logistica il modello non è lineare ma esponenziale e i parametri vengono scelti
attraverso il principio del massimo likelyhood
• Il likelyhood ratio, utilizzato anche per il modello Log lineare, è la probabilità che i dati sperimentali siano stati generati dal modello
Regressione Logistica
Regressione Logistica
3. Valutazione della bontà del modello
Statistica Wald 2
SE Wald b
Regressione Logistica Regressione Logistica
Tuttavia, la statistica Wald non può esser usata da sola poiché quando il valore assoluto di b diventa molto grande, l’errore
standard sarà anche esso grande e la statistica Wald assumerà valori molto piccoli che facilmente falsificheranno l’ipotesi nulla anche quando non sarebbe da falsificare.
Significatività
La significatività dei parametri relativi ai fattori si può anche verificare
attraverso l’intervallo di confidenza
attorno all’esponenziale di b per ciascun fattore
Regressione Logistica
Regressione Logistica
La regressione logistica fornisce le significatività per:
il modello globale
i singoli parametri, togliendo gli effetti dei parametri già considerati
Regressione Logistica
Regressione Logistica
Il contributo di ciascun fattore e il senso della sua influenza sulla variabile
dipendente è stimato attraverso l’esponenziale di b (odds ratio)
10 1 0
0 1 0
0 1
1 1
0 1 1
b b
b b
b b b
b b b
b e
e e e
e e odds
odds odds
b odds
Exp
Regressione Logistica
Regressione Logistica
Esempio
logit (risposta aggressiva)= b0 + b1 x1 + b2 x2+ b3 x3
Dove il logit della probabilità di rispondere in modo aggressivo è visto in funzione di una costante b0 sommata al contributo dato da
ciascun fattore al quale il modello ha attribuito il valore 1 moltiplicato per il suo coefficiente bn
Attraverso la regressione logistica tutte le variabili categoriche vengono trasformate in variabili dicotomiche (con valori 0,1) B1 è il parametro relativo all’essere maschi
B2 è il parametro relativo all’età
B3 è il parametro relativo alla professione di dipendente
Regressione Logistica
Regressione Logistica
Regressione Logistica Regressione Logistica
Categorical Variables Codings
18 1.000
19 .000
16 1.000
21 .000
1.00 2.00 professione
maschio femmina genere
Frequency (1) Paramete
r coding
Regressione Logistica Regressione Logistica
Variables in the Equation
1.410 .724 3.800 1 .051 4.098 .992 16.921
.000 .034 .000 1 .993 1.000 .936 1.068
-.093 .725 .017 1 .898 .911 .220 3.769
-.856 1.121 .582 1 .445 .425
genere(1) eta
professione(1) Constant Step
1a
B S.E. Wald df Sig. Exp(B) Lower Upper
95.0% C.I.for EXP(B)
Variable(s) entered on step 1: genere, eta, professione.
a.
Exp(b)
L’esponenziale di b relativo al genere è dato dal rapporto fra l’odds di
rispondere con un comportamento aggressivo essendo femmina diviso l’odds di rispondere con un
comportamento aggressivo essendo maschi.
Regressione Logistica
Regressione Logistica
• SCOPO: studia la relazione fra più di due variabili qualitative categoriche
• TIPO DI PROCEDURA: modello logistico applicato a una tavola di contingenza multidimensionale
Analisi Log - lineare
Analisi Log lineare Analisi Log lineare
Tavola di contingenza multidimensionale:
ogni cella è vista come combinazione di due o più variabili
Esempio
120 46 38
14 7 11
28 64 147
Terapia
farmacologica integrata
Esito negativo
farmacologica Esito
A B C
Tipo di personalità
Analisi Log lineare Analisi Log lineare
• Applicare più test χ² per analizzare ciascuna combinazione sarebbe una procedura non corretta perché:
• Aumento dell’errore alpha
• Lettura dei risultati non comprensibile
Analisi Log lineare Analisi Log lineare
• Date le tre variabili da studiare nella loro relazione è possibile analizzare:
• Ogni confronto binario
• L’interazione fra tutte le variabili
Analisi Log lineare Analisi Log lineare
Modello Log lineare attraverso un’unica procedura di analisi rappresenta tutte le possibili combinazioni in modo
indipendente le une dalle altre.
1. Struttura modello
2. Stima dei parametri e valutazione della bontà del modello
Analisi Log lineare Analisi Log lineare
Struttura: logaritmo delle frequenze di ogni combinazione possibile in funzione dei valori delle varie componenti di classificazione
Tuttavia…
Scopo del modello è rappresentare
adeguatamente i dati sperimentali con il numero minore di relazioni fra le variabili.
Analisi Log lineare Analisi Log lineare
Tutte le variabili sono considerate come variabili indipendenti o fattori, la
variabile dipendente è il numero di casi in ogni cella, ovvero la frequenza
osservata, che è proprio l’indice
dell’interazione fra le variabili in studio.
Stima dei parametri:
1. Calcolo del logaritmo delle frequenze osservate in base al modello
2. Calcolo delle frequenze attese
3. Confronto frequenze attese con le frequenze osservate
4. Valutazione della bontà del modello
Analisi Log lineare
Analisi Log lineare
• Una volta calcolate le frequenze attese per ogni cella si calcolano i punti z dal rapporto di ciascun parametro e il suo errore standard.
• Per verificare se il modello rappresenta
sufficientemente i dati si può considerare il test sull’ipotesi nulla che λ sia uguale a zero attraverso i limiti di falsificazione della
distribuzione z.
Analisi Log lineare
Analisi Log lineare
Analisi Log lineare Analisi Log lineare
• I dati sperimentali possono produrre diversi modelli Log Lineari.
• Il modello è definito saturo quando rappresenta tutte le possibili
combinazioni fra le celle;
• non saturato quando solo alcune delle interazioni sono considerate.
• Nel modello gerarchico l’effetto
interazione (definito termine di ordine superiore in quanto comprende in sé più termini) è accostato a termini di ordine inferiore.
• Attraverso questo modello è possibile considerare solo gli effetti di ordine superiore o inferiore
Analisi Log lineare
Analisi Log lineare
Analisi Log lineare Analisi Log lineare
Il Goodness of fit test è basato sul Χ2 e testa la probabilità che quel particolare modello (Fij ) rappresenti bene i dati
sperimentali (Fij ). È calcolato tramite la formula:
F
ij F Fij
ˆ
ˆ
2
2Analisi Log lineare Analisi Log lineare
Il Likelyhood ratio test: la probabilità che raccolti quei dati sperimentali essi siano generati dal modello ed è dato dal logaritmo del rapporto fra valori
sperimentali e teorici per tutte le possibili condizioni.
i j ij
ij
F F F
L
22 ln ˆ
Tecniche descrittive
• Utilizzano modelli matematici per semplificare le relazioni fra le
variabili in studio
• Il fine è la descrizione semplificata del fenomeno attraverso il modello di riferimento
Tecniche descrittive
• Metodo: il modello è creato ad hoc sui dati sperimentali
• Diversi livelli di complessità del modello a seconda del fenomeno in studio
• Esempi: distribuzioni di probabilità,
analisi fattoriale, analisi discriminante, cluster analysis
Tecniche descrittive
Applicazioni:
• Indagini esplorative sui dati
sperimentali per la successiva formulazione di idee
• Verifica della validità interna e esterna di test psicometrici
Analisi Discriminante
Fine: suddividere il campione in gruppi
Metodo
1. Fase di addestramento 2. Fase di analisi
Analisi Discriminante Analisi Discriminante
Assunti:
• I fattori predittivi devono avere distribuzione gaussiana
• I fattori devono essere scarsamente correlati fra loro
• Le correlazioni devono essere costanti all’interno dei gruppi
• Le medie e deviazioni standard dei fattori non devono essere correlate fra loro
Analisi Discriminante Analisi Discriminante
La fase di addestramento utilizza un campione di soggetti, di cui si conosce l’appartenenza a uno dei gruppi considerati, per calcolare i parametri necessari alla
classificazione di un nuovo soggetto
Analisi Discriminante Analisi Discriminante
I valori prodotti dalla funzione
discriminante hanno media = zero, varianza = 1 e garantiscano la
massima differenza possibile fra le medie di gruppo
Analisi Discriminante Analisi Discriminante
La fase di analisi applica i parametri
calcolati per la classificazione di nuovi soggetti in una delle classi possibili
La classificazione si basa sul calcolo di una funzione in grado di fornire un valore soglia opportunamente
determinato che discrimini i gruppi
Analisi Discriminante Analisi Discriminante
Funzione ottenuta come combinazione lineare dei parametri misurati, cioè come somma dei parametri moltiplicati per opportuni coefficienti dik= b0k+bjkxi1+…bpkxip
dik è il valore della k funzione discrimante relativa al soggetto i
bjk è il valore del coefficiente j per la funzione k
p è il numero dei fattori predittivi
xij è il valore dovuto al fattore j per il
Analisi Discriminante Analisi Discriminante
Parametri determinati in modo che:
1. i valori prodotti dalla funzione
discriminante abbiano media zero, varianza unitaria
2. garantiscano la massima differenza possibile fra le medie di gruppo
Analisi Discriminante Analisi Discriminante
Per ogni soggetto viene calcolata la probabilità di appartenere a
ciascun gruppo e si procede
all’assegnazione del soggetto al gruppo per cui è maggiore la
probabilità di appartenenza
Analisi Discriminante Analisi Discriminante
2 gruppi: la soglia che divide i due
gruppi è situata nel punto di mezzo delle due medie di gruppo
Più di 2 gruppi: le funzioni utilizzate sono tante quante il numero dei gruppi meno uno (non è possibile usare una sola
soglia ma occorre calcolare la probabilità di appartenenza del soggetto al gruppo)
Analisi Discriminante Analisi Discriminante
• Al termine della fase di apprendimento è possibile riassegnare i soggetti ai
gruppi di appartenenza utilizzando le funzioni discriminanti calcolate
• Questa operazione permette di valutare l’efficienza del sistema di classificazione
Analisi Discriminante Analisi Discriminante
Successo dipende:
• dall’efficienza con cui abbiamo
creato le funzioni di classificazione
• dalle ipotesi che abbiamo formulato
• dai parametri che abbiamo
conseguentemente considerato
Analisi Discriminante Analisi Discriminante
Utilizzo:
• Sistema di classificazione in grado di classificare ogni nuovo soggetto senza conoscere realmente a quale gruppo appartiene
• Individuare quali fattori incidono
maggiormente nella discriminazione fra più gruppi
Cluster Analysis
Scopo: individuare la miglior
suddivisione in gruppi del campione in esame
Cluster: addensamento attorno a un valore centrale in uno spazio a n dimensioni
Cluster Analysis
Assunti:
• Variabili che determinano la suddivisione devono essere a distribuzione gaussiana
• Individua i gruppi in modo che
siano massimamente omogenei al loro interno e eterogenei fra loro
Cluster Analysis
La distanza fra i gruppi viene calcolata sulle medie dei gruppi che devono essere il più diverse possibili
Metodo per creare la distanza:
Distanza euclidea: la somma dei quadrati delle differenze di tutte le variabili utilizzate (trsformate in variabili z)
Cluster Analysis
Il numero dei gruppi è stabilito dal ricercatore in base alle
considerazioni teoriche sul fenomeno in studio
Cluster Analysis
La funzione dell’analisi dei cluster è quella di classificare i casi in un certo numero di gruppi senza che venga richiesta una preliminare identificazione dei gruppi.
Questi gruppi possono essere utilizzati in ulteriori analisi statistiche per la verifica di ipotesi riguardanti nuove variabili non utilizzate nella classificazione
ANALISI FATTORIALE
Tecnica esplorativa che indaga la relazione fra più variabili al fine di individuare un modello in grado di sintetizzare l’informazione
Il modello di riferimento ha puro valore descrittivo in quanto
determinato dalla procedura matematica con cui è stimato
Cos’è l’analisi fattoriale?
Statistica descrittiva Rappresentazione delle variabili in studio.
Aumentare la quantità di informazioni relative ai dati raccolti ed alle
variabili considerate.
Rappresentazione più efficace ed utile possibile dei dati.
Semplificazione dei dati per migliorare la loro interpretazione.
Statistica inferenziale vs Confermare, dimostrare
un’ipotesi di partenza.
- H di partenza
- Variabili dipendenti - Fattori
- Strumenti di raccolta dati
- Analisi dei dati
- Eventuale falsificazione dell’H0
Nasce in ambito medico-psicologico:
Utilizzata soprattutto per validare i questionari
perché fornisce informazioni relative alla struttura dei dati.
E’ una procedura matematica.
Spesso viene sovrastimata da molti autori.
Non ci permette di arrivare alla conferma di un’H di partenza ma è una tecnica vantaggiosa, per
questo ampiamente usata, che ci fornisce informazioni difficili da ottenere in altro modo.
Cos’è l’analisi fattoriale?
Come lavora l’Analisi Fattoriale
Variabili di partenza
Operazioni matematiche
Quantitative, gaussiane, correlate fra loro che vengono analizzate allo stesso livello.
Matrice di correlazione
Estrazione di fattori ortogonali Rotazione
Scopi principali
2. Trasformazione delle varabili in studio in variabili indipendenti fra loro*
1. Riduzione del numero di variabili in studio (ma non dell’informazione).
3. Individuazione delle sorgenti delle variabili**
4. Assegnazione di significato reale a tali variabili***
Trova variabili artificiali, aleatorie, è possibile rintracciarne un numero infinito.
Sono indipendenti tra loro, per questo non riflettono la realtà psicologica dove è difficile trovare fenomeni non correlati.
Validazione di questionari e riduzione del numero di variabili in studio, non correlate tra loro
- Riduzione delle variabili ma non dell’informazione utile.
- Creazione di fattori che rappresentano la stessa realtà ma che sono indipendenti fra loro.
- Non vengono considerate le differenze fra le diverse variabili.
Ruolo
indiscusso:
Vantaggi:
Critiche:
I OPERAZIONE: Creazione della Matrice di Correlazione
La prima matrice di correlazione estratta dall’analisi è la matrice di correlazione R.
Mostra tutte le relazioni possibili tra le variabili.
Le variabili vengono correlate a due a due.
Due variabili sono statisticamente correlate fra loro quando al variare di una anche l’altra varia.
Avremo un numero di nuove variabili, fattori, corrispondente al numero delle variabili iniziali, item.
Avremo una varianza complessiva uguale al numero delle variabili iniziali, perché ogni item ha varianza 1 e media 0.
II OPERAZIONE: Estrazione dei Fattori
Metodi di estrazione:
- Metodo delle componenti principali
- Metodo della massima verosimiglianza - Metodo dei minimi quadrati
- ….
I punteggi grezzi vengono trasformati in punti z, ovvero vengono standardizzati
Standardizzazione dei dati raccolti
x Una variabile gaussiana è detta variabile Z quando ha:
= 0 ; S = 1 (N = 0; 1)
Semplifica i conti.
Permette il confronto di punteggi appartenenti a diversi questionari.
Cos’è la varianza? Può essere vista come la quantità d’informazione trasportata da ogni parametro.
Maggiore è la variabilità e maggiore è l’informazione.
Metodo delle componenti principali
Tale metodo permette di creare variabili artificiali, dette fattori, fra loro ortogonali (correlazione = 0).
I fattori sono combinazioni lineari delle variabili sperimentali, si ottengono cioè dalla somma dei prodotti delle singole variabili sperimentali, o meglio dei loro valori z, per gli opportuni
coefficienti. Il valore e il segno di questi coefficienti indicano quanto e come il singolo fattore sia legato alle diverse variabili sperimentali.
I fattori non hanno più varianza = 1
Utilizza un processo a cascata per cui il primo fattore spiega il massimo della varianza, ed è il più importante.
Si avvale del calcolo degli AUTOVALORI e degli AUTOVETTORI dalla matrice di correlazione.
Cosa sono gli AUTOVALORI e gli AUTOVETTORI?
Vengono calcolati direttamente dalla matrice di correlazione R attraverso un processo
algebrico.
Autovalori = la quantità di varianza di un fattore, la comunalità.
Autovettori = sono i fattori o componenti.
R x AUTOVETTORE = AUTOVETTORE x AUTOVALORE
AUTOVETTORE x R dev’essere uguale a se stesso a meno di una costante che si chiama
Come decidere quanti fattori tenere?
1. Posso decidere un numero preciso da tenere (sottoscale).
2. Posso decidere la percentuale di informazione spiegata che voglio
tenere (60-65%).
3. Tengo solo i fattori con varianza maggiore o uguale ad 1.
A cosa mi servono le nuove variabili?
- Compattazione dei dati.
- Tengo un numero inferiore di dati, perdo una parte accettabile d’informazione ed ho una
interpretazione delle variabili in studio.
- Guardo il legame tra fattori e variabili di partenza.
- Osservando la matrice per colonna posso
indagare quanto i singoli fattori sono correlati alle variabili di partenza.
- Osservando la matrice per riga è possibile decidere quali sono gli item da scartare in
relazione alla loro correlazione con i fattori (quelli
E’ possibile calcolare il valore ad ogni fattore soggetto per soggetto.
Tali punteggi saranno variabili Z con media = 0 e varianza = 1.
Punteggio grezzo del soggetto 1
all’item 1
Coefficiente di correlazione tra item 1 e fattore 1
Faccio la stessa cosa con tutti gli item (1, 2, 3, …), sommo tutti i prodotti ed ottengo il punteggio del soggetto 1 al fattore 1.
X
Metodo dei minimi quadrati
Minimizza la somma dei quadrati degli scarti fra i dati osservati e la matrice di correlazione prodotta dal modello.
Metodo della Massima Verosimiglianza
Questa tecnica affronta la casualità in termini inversi rispetto alla probabilità:
Parte dai dati sperimentali e si chiede che probabilità c’è di avere una distribuzione del fenomeno di un certo tipo.
Lavora per approssimazioni successive e stima una matrice di correlazione e un’insieme di
varianze che rappresentano i dati sperimentali, eliminando la ridondanza con la minima
dispersione d’informazione.
Lo sopo principale è quello di rappresentare al meglio la realtà.
L’Analisi Fattoriale è utilizzata per studiare modelli che rappresentino al meglio la realtà, caratterizzati da legami tra item e fattori, in altre parole modelli a variabili artificiali, latenti.
La tecnica della Massima Verosimiglianza ci offre la miglior rappresentazione della realtà possibile e ci da anche la misura di quanto bene riesca a
rappresentarla!
Tale tecnica parte dall’estrazione dei fattori delle Componenti Principali.
Vengono modificati i fattori per rappresentare al meglio gli item sperimentali.
Aumenta e diminuisce la varianza dei fattori e
contemporaneamente vengono modificati anche gli altri fattori finchè non trova la combinazione di fattori, varianze, che
rappresentano al meglio la realtà.
Quando fermarsi?
Ogni volta che si fa una modifica viene applicato il test del Chi2 per misurare la bontà dell’adattamento dei dati. La significatività indica che la modifica apportata è
significativamente migliore rispetto ai fattori delle Componenti Principali (e della modifica precedente).
Il valore reale (dati grezzi) è differente dal valore dei
fattori (calcolato), così il Chi2 confronta le due situazioni relative agli stessi dati e ci dice quanto è reale la
rappresentazione attuale.
Ottengo anche in questo caso delle variabili ortogonali ma non avrò il primo fattore con la
maggior quantità d’informazione spiegata e i fattori successivi con varianza man mano sempre minore.
C’è una distribuzione equa, più simile possibile alla realtà dell’informazione.
Per creare fattori non ridondanti non è necessario creare un fattore principale con effetto a cascata sulla quantità di varianza degli altri, anzi la maggior parte dei questionari distribuisce in modo equo
Componenti Principali
Massima
Verosimiglianza
• Calcola i fattori attraverso una formula diretta.
• Offre la miglior condensazione di varianza,con la minima
dispersione d’informazione;
questo non significa che rappresenta la realtà nel miglior modo.
• Al variare del numero di fattori da tenere l’ analisi non cambia
• Usa la tecnica delle
approssimazioni successive.
• Trova i fattori che meglio rappresentano la realtà.
• Non lavora con troppe o troppo poche variabili.
• Se vario il numero di fattori che sono interessato a tenere devo rifare l’analisi.
Maggiore sarà il numero delle variabili di partenza e maggiore sarà la differenza dei risultati delle due analisi.
Modifica la relazione esistente tra item e fattori attraverso una rotazione dei fattori.
Con la rotazione operiamo una combinazione lineare dei fattori di partenza in modo da modificare la loro relazione con gli item.
Tali fattori possono rimanere fra loro ortogonali oppure divenire non ortogonali.
III Operazione: Rotazione dei fattori
Nasce principalmente da due critiche:
1. Vengono scoperte variabili latenti indipendenti.
2. Vengono dati dei nomi ai fattori.
La rotazione rende i fattori maggiormente interpretabili.
Una diversa interpretazione dei fattori, e del loro legame con gli item, modifica l’interpretazione, il significato della ricerca!
Mentre la rotazione ORTOGONALE mantiene l’indipendenza dei fattori, la rotazione OBLIQUA rende i fattori correlati fra loro.
Con la rotazione ORTOGONALE ruoto rigidamente gli assi
cartesiani ed essi rimangono ortogonali e la somma totale delle varianze rimane uguale al totale della variabili di partenza.
Con la rotazione OBLIQUA gli assi cartesiani non sono più
perpendicolari fra loro ma obliqui, quindi non sono più indipendenti ma correlati e la somma totale delle varianze non corrisponderà più al numero totale delle variabili di partenza.
Le rotazioni sono meglio interpretabili attraverso un grafico
cartesiano dove gli assi rappresentano i fattori e le coordinate sono date dalle correlazioni della matrice R.
La rotazione può essere ORTOGONALE oppure OBLIQUA.
Varimax Method. Effettua una rotazione ortogonale che minimizza il numero di variabili che sono fortemente correlate con ogni fattore. Il peso dei fattori è così distribuito più uniformemente e l’interpretazione dei fattori è semplificata.
Tecniche di rotazione:
Quartimax Method. Ha un funzionamento opposto a quello della
Varimax. Minimizza il numero di fattori necessari a spiegare ciascuna variabile. Semplifica la spiegazione delle variabili osservate.
Equamax Method. È una combinazione fra il varimax e il quartimax.
Oblimin Rotation: Rotazione obliqua che cerca di adattare i fattori agli item e li correla.
Promax Rotation. Rotazione obliqua. E’ un metodo più diretto che cerca la rotazione che meglio si adatta a rappresentare i fattori con un
MISURA della MISURA della
CORRELAZIONE
CORRELAZIONE
Correlazione fra più variabili di uno stesso
campione
• Analisi della correlazione
• Analisi della regressione
• Analisi della covarianza
• Analisi della correlazione parziale
Analisi della Correlazione
Scopo: analizzare la relazione fra variabili quantitative (a
distribuzione gaussiana o non gaussiana)
Fornisce sia il senso della relazione che la significatività
Analisi della Correlazione
Correlazioni parametriche:
• r di Pearson
Correlazioni non parametriche:
• Tau di Kendall
• Rho di Spearman
Analisi della Correlazione
r di Pearson
• Misura dell’associazione lineare fa due variabili. I valori del coefficiente vanno da -1 a 1. Il segno del coefficiente
indica una relazione positiva o
negativa. Il suo valore assoluto indica la forza della relazione.
• Dipende dalla numerosità campionaria quindi va associato alla significatività
Analisi della Correlazione
• Tau di Kendall
• Rho di Spearman
Entrambi misura dell’associazione non
parametrica basata su dati o ordinali o a ranghi.
• I valori di entrambi i coefficienti vanno da -1 a 1.
Il segno del coefficiente indica una relazione
positiva o negativa. Il suo valore assoluto indica la forza della relazione.
• Dipendono dalla numerosità campionaria quindi va associato alla significatività
Analisi della Correlazione
Utilizzi
• Misura dell’associazione fra variabili
• Verifica dell’attendibilità e della validità di questionari
Relazione fra risultati prodotti da diverse
ricerche
• Misura dell’effect-size
• Meta analisi
• Review
Effect size o forza dell’effetto
• Grado con cui il fenomeno è presente nella popolazione
• Intensità della relazione fra fattore e variabile dipendente
• Confronto fra variabilità dovuta ai fattori e la variabilità totale
• Variabilità misurata come varianza spiegata
• Diversi indici a seconda dei dati e dei test utilizzati
Meta Analisi
Scopo: permette di confrontare i risultati di diverse ricerche riguardanti uno
stesso argomento nonostante siano basate su numerosità campionaria
diverse e diversi test statistici utilizzati Finalità: comprendere il funzionamento del fenomeno da studi diversi a volte discordanti
Meta Analisi
Per evitare di fare confronti inutili occorre
specificare ovvero delimitare l’ambito di analisi in modo da semplificare il problema e quindi l’interpretazione dei risultati
Limitare le variabili in studio e eventualmente applicare più di una metanalisi
ES. Studio dell’effetto dell’ansia sulle prestazioni cognitive: quali indici di ansia considerare?
Meta Analisi
Procedimento:
1. Raccolta e codifica degli studi
2. Calcolo degli indici di confronto
3. Sintesi: calcolo dell’effetto medio 4. Interpretazione dei
Meta Analisi: 1. Raccolta e codifica
• Gli studi raccolti devono essere
adeguati e di ampia numerosità per
evitare l’errore dovuto alle pubblicazioni (pubblication bias) e all’errore di
campionamento
• Definire l’ipotesi di riferimento che
specifica le variabili da utilizzare (fattori o predittori, covariate o moderatori)
• Pesare gli studi in base alla correttezza metodologica (es attraverso intention to treat analysis)
Valutazione delle differenze fra le medie rapportate alla deviazione standard casuale
Tale valutazione, nel caso di due gruppi indipendenti, può essere calcolata dalla formula
effect size x x
1
2Meta Analisi:
2. Calcolo degli indici di
confronto
Nel caso conosciamo solo la numerosità dei gruppi e il valore del parametro t possiamo ottenere lo stesso indice dalla formula
effect size t n n
n n
1 2
1 2
Meta Analisi:
2. Calcolo degli indici di
confronto
Effetto medio: media degli effetti nelle diverse ricerche effettuate
Permette di ottenere una valutazione complessiva dei risultati
Meta Analisi:
3. Calcolo dell’effetto medio
Permette di trasformare le descrizioni delle ricerche effettuate su un particolare argomento in una valutazione obiettiva dei risultati ottenuti
Tuttavia necessitano di una interpretazione dettagliata e motivata dell’analisi
Inoltre considera solo le ricerche pubblicate