• Non ci sono risultati.

Elementi di Psicometria (con laboratorio software 1) 11-Correlazione (v. 1.2, 11 aprile 2021) Germano Rossi

N/A
N/A
Protected

Academic year: 2021

Condividi "Elementi di Psicometria (con laboratorio software 1) 11-Correlazione (v. 1.2, 11 aprile 2021) Germano Rossi"

Copied!
76
0
0

Testo completo

(1)

(v. 1.2, 11 aprile 2021)

Germano Rossi1 germano.rossi@unimib.it

1Dipartimento di Psicologia, Università di Milano-Bicocca

a.a. 2020-21

(2)

1 Concetto di correlazione

2 Correlazioni di Pearson

3 Correlazione: verifica d’ipotesi

4 Correlazione in SPSS

5 Correlazione di Spearman

6 Altre misure di correlazione

(3)

Rispondere a domande tipo:

C’è un legame fra Intelligenza e dizionario linguistico?

Una persona più intelligente ha un dizionario più ampio?

C’è una relazione fra abilità matematica e abilità musicale?

chi è più bravo in matematica è anche più bravo in musica?

Studiare più tempo è associato a maggior conoscenza?

Portare gli occhiali, avere la fronte ampia, essere anziani fa pensare che siamo saggi?

(4)

È un indice statistico che misura l’associazione (relazione) fra due variabili

Misura come le due variabili si muovono assieme, ossia come co-relano.

Viene espresso come un valore che oscilla fra -1 e 1

Per ora vedremo la correlazione lineare prodotto-momento di

Bravais-Pearson, più conosciuta comecorrelazione di Pearsone a cui ci si riferisce per antonomasia quando si parla di “correlazione”

è generalmente indicata con il simbolo r (𝜌 nella popolazione) Lacorrelazione di Pearsonsi usa a livello intervallo/rapporto

Poi vedremo la correlazione di Spearmana livello ordinale (con molte categorie)

Nel cap. 13, la 𝜑 per l’associazione fra categorie

(5)

Riassunto numerico della forza della relazione fra due variabili

Permette di sostituire un diagramma a dispersione con un semplice indice

È costituito da due parti:

Unsegnoche indica la direzione della relazione

Unnumerofra 0.00 e 1.00 che indica la forza della relazione 1.00 indica una relazione perfetta, esprimibile tramite una formula matematica precisa

0.00 indica la mancanza di qualunque relazione fra le due variabili fra i due estremi (da 0 < |r| < 1) la relazione è sempre più sfumata

(6)

Usando EsempioCorr0.sav (variabili X e Y)

● ●

−2 −1 0 1 2

−2−1012

x

y

r = 0.91

2 4 6 8 10 12

46810121416

r= 0.92

X

Y

All’aumentare di X aumenta anche Y, ciascuna variabile a modo suo. E viceversa. È una relazione lineare proporzionale.

(7)

Usando EsempioCorr0.sav (variabili Z e W)

● ●

●●

−2 −1 0 1 2

−2−1012

x

y

r = −0.91

8 10 12 14 16

4681012

r= −0.85

Z

W

All’aumentare di Z diminuisce W, ciascuna variabile a modo suo. E viceversa. È una relazione lineare inversamente proporzionale.

(8)

Usando EsempioCorrNulla.sav(variabili X e Y)

●●

−2 −1 0 1 2

−2−1012

x

y

r = 0

2 4 6 8 10 12 14 16

46810121416

r= 0.07

X

Y

Non c’è alcun legame lineare fra X e Y. Ciascuna varia indipendentemente dall’altra (linearmente parlando).

(9)

chiamato anche

“Grafico XY”, “Grafico a punti”

Rappresenta graficamente una variabile sull’ascissa associata ad un’altra sull’ordinata

In SPSS, Grafici | Finestre di dialogo Legacy | Dispersione/Punti

(10)

Per 2 variabili I/R Selezionare “A dispersione semplice”

Premere Definisci

Matrice dispersione usa più di 2 variabili

A dispersione sovrapposta usa una variabile categoriale per identificare i casi

(11)

Inserire una variabile su Asse X

Inserire una seconda variabile su Asse Y Eventualmente una variabile categoriale in Etichetta i casi in base a: (ad es. il codice dei casi)

(12)

Il grafico a dispersione è fondamentale per capire se la relazione sia lineare (tende verso una linea?) oppure no (tendono a un ovale o a un cerchio?)

(13)

Il coefficiente di correlazioneè un indice che esprime la quantità di co-varianza dei dati

rispetto al grafico a dispersione, è un indice di quanto i dati sono dispersi attorno ad una ipotetica retta che venga sovrapposta al grafico

lacovarianza è un indice che esprime la quantità di varianza che due variabili anno in comune

la formula deriva da quella della varianza

la correlazione è la versione standardizzata della covarianza

(14)

Vediamo come arrivare alla correlazione: usando EsempioCor.sav

X Y Z W

a 1 5 13 7

b 3 7 11 13

c 5 9 9 9

d 7 11 7 5

e 9 13 5 11

M 5 9 9 9

s 2.828 2.828 2.828 2.828

La relazione fra X e Y è lineare crescente (Y = X + 4)

La relazione fra X e Z è lineare decrescente (Z = −X + 14 ovvero Z = 14 − X )

La relazione fra X e W non è riconducibile ad una regola lineare (sinusoidale?) Vedi il grafico sulla slide successiva.

(15)

Vediamo come arrivare alla correlazione: usando EsempioCor.sav

X Y Z W

a 1 5 13 7

b 3 7 11 13

c 5 9 9 9

d 7 11 7 5

e 9 13 5 11

M 5 9 9 9

s 2.828 2.828 2.828 2.828

La relazione fraX e Y è lineare crescente (Y = X + 4)

La relazione fra X e Z è lineare decrescente (Z = −X + 14 ovvero Z = 14 − X )

La relazione fra X e W non è riconducibile ad una regola lineare (sinusoidale?) Vedi il grafico sulla slide successiva.

(16)

Vediamo come arrivare alla correlazione: usando EsempioCor.sav

X Y Z W

a 1 5 13 7

b 3 7 11 13

c 5 9 9 9

d 7 11 7 5

e 9 13 5 11

M 5 9 9 9

s 2.828 2.828 2.828 2.828

La relazione fra X e Y è lineare crescente (Y = X + 4)

La relazione fraX e Z è lineare decrescente (Z = −X + 14 ovvero Z = 14 − X)

La relazione fra X e W non è riconducibile ad una regola lineare (sinusoidale?) Vedi il grafico sulla slide successiva.

(17)

Vediamo come arrivare alla correlazione: usando EsempioCor.sav

X Y Z W

a 1 5 13 7

b 3 7 11 13

c 5 9 9 9

d 7 11 7 5

e 9 13 5 11

M 5 9 9 9

s 2.828 2.828 2.828 2.828

La relazione fra X e Y è lineare crescente (Y = X + 4)

La relazione fra X e Z è lineare decrescente (Z = −X + 14 ovvero Z = 14 − X )

La relazione fraX e Wnon è riconducibile ad una regola lineare (sinusoidale?) Vedi il grafico sulla slide successiva.

(18)

X con Zè una relazione negativa (decrescente)

X con Wnon sembra avere legami (cioè, nessuna relazione lineare)

X con Yè una relazione positiva (crescente)

(19)

X = 5 Scarti da Y = Z = W = 9

X * Y * Z * W *

1 -4 5 -4 13 4 7 -2

3 -2 7 -2 11 2 13 4

5 0 9 0 9 0 9 0

7 2 11 2 7 -2 5 -4

9 4 13 4 5 -4 11 2

*=(ki− ¯k) con k=X, Y, Z, W

Trasformiamo tutti i dati grezzi in scarti dalla media Per ciascuna variabile (X, Y, Z e W), a ciascun punteggio sottraiamo5o 9 e lo

trascriviamo nella vicina colonna indicata con *

(20)

X = 5 Scarti daY = Z = W = 9

X * Y * Z * W *

1 -4 5 -4 13 4 7 -2

3 -2 7 -2 11 2 13 4

5 0 9 0 9 0 9 0

7 2 11 2 7 -2 5 -4

9 4 13 4 5 -4 11 2

*=(ki− ¯k) con k=X, Y, Z, W

Trasformiamo tutti i dati grezzi in scarti dalla media Per ciascuna variabile (X,Y, Ze W), a ciascun punteggio sottraiamo 5 o9 e lo

trascriviamo nella vicina colonna indicata con *

(21)

X = 5 Scarti da Y = Z = W = 9

X * Y * Z * W *

1 -4 5 -4 13 4 7 -2

3 -2 7 -2 11 2 13 4

5 0 9 0 9 0 9 0

7 2 11 2 7 -2 5 -4

9 4 13 4 5 -4 11 2

*=(ki− ¯k) con k=X, Y, Z, W

Trasformiamo tutti i dati grezzi in scarti dalla media Per ciascuna variabile (X, Y, Z e W), a ciascun punteggio sottraiamo 5 o 9 e lo

trascriviamo nella vicina colonna indicata con*

(22)

X = 5 Scarti da Y = Z = W = 9

X * Y * Z * W *

1 -4 5 -4 13 4 7 -2

3 -2 7 -2 11 2 13 4

5 0 9 0 9 0 9 0

7 2 11 2 7 -2 5 -4

9 4 13 4 5 -4 11 2

*=(k − ¯k) con k=Y, Z, W

(X − ¯X )(k − ¯k) (1)

∑︁(X − X )(k − k) (2)

∑︀(X − X )(k − k)

N (3)

(X − X )(k − k)

XY XZ XW

16 -16 8

4 -4 -8

0 0 0 (1)

4 -4 -8

16 -16 8

40 -40 0 (2)

8 -8 0 (3)

1 Moltiplichiamo gli scarti fra loro

2 3

(23)

X = 5 Scarti da Y = Z = W = 9

X * Y * Z * W *

1 -4 5 -4 13 4 7 -2

3 -2 7 -2 11 2 13 4

5 0 9 0 9 0 9 0

7 2 11 2 7 -2 5 -4

9 4 13 4 5 -4 11 2

*=(k − ¯k) con k=Y, Z, W

(X − ¯X )(k − ¯k) (1)

∑︁(X − X )(k − k) (2)

∑︀(X − X )(k − k)

N (3)

(X − X )(k − k)

XY XZ XW

16 -16 8

4 -4 -8

0 0 0 (1)

4 -4 -8

16 -16 8

40 -40 0 (2)

8 -8 0 (3)

1 Moltiplichiamo gli scarti fra loro

2 li sommiamo tutti

3

(24)

X = 5 Scarti da Y = Z = W = 9

X * Y * Z * W *

1 -4 5 -4 13 4 7 -2

3 -2 7 -2 11 2 13 4

5 0 9 0 9 0 9 0

7 2 11 2 7 -2 5 -4

9 4 13 4 5 -4 11 2

*=(k − ¯k) con k=Y, Z, W

(X − ¯X )(k − ¯k) (1)

∑︁(X − X )(k − k) (2)

∑︀(X − X )(k − k)

N (3)

(X − X )(k − k)

XY XZ XW

16 -16 8

4 -4 -8

0 0 0 (1)

4 -4 -8

16 -16 8

40 -40 0 (2)

8 -8 0 (3)

1 Moltiplichiamo gli scarti fra loro

2 li sommiamo tutti

3 li dividiamo per la numerosità

(25)

XY XZ XW

16 -16 8

4 -4 -8

0 0 0

4 -4 -8

16 -16 8

Se i co-prodotti (XY) sono in prevalenza positivi, la covarianza sarà positiva

Se sono in prevalenza negativi, la covarianza sarà negativa

se sono più o meno in parti uguali, sarà vicina a 0

La covarianza è:

covxy =

∑︀(X − X )(Y − Y ) N

Mentre la varianza è:

varx =

∑︀(X − X )(X − X ) N

Notate la somiglianza fra le due formule

(26)

XY XZ XW

16 -16 8

4 -4 -8

0 0 0

4 -4 -8

16 -16 8

Se i co-prodotti (XY) sono in prevalenza positivi, la covarianza sarà positiva

Se sono in prevalenza negativi, la covarianza sarà negativa

se sono più o meno in parti uguali, sarà vicina a 0

La covarianza è:

covxy =

∑︀(X − X )(Y − Y ) N

Mentre la varianza è:

varx =

∑︀(X − X )(X − X ) N

Notate la somiglianza fra le due formule

(27)

XY XZ XW

16 -16 8

4 -4 -8

0 0 0

4 -4 -8

16 -16 8

Se i co-prodotti (XY) sono in prevalenza positivi, la covarianza sarà positiva

Se sono in prevalenza negativi, la covarianza sarà negativa

se sono più o meno in parti uguali, sarà vicina a 0

La covarianza è:

covxy =

∑︀(X − X )(Y − Y ) N

Mentre la varianza è:

varx =

∑︀(X − X )(X − X ) N

Notate la somiglianza fra le due formule

(28)

La varianza è:

var (X ) =

∑︀(X − X )2

N =

∑︀(X − X )(X − X ) N

La covarianza è:

cov (X , Y ) =

∑︀(X − X )(Y − Y ) N

In entrambi i casi è la somma dei prodotti degli scarti dalla media Nella varianza sono gli scarti della singola variabile

Nella covarianza sono gli scarti delle due variabili

(29)

Standardizziamo, dividendo per entrambe le dev. st.

r = cov (X , Y ) sxsy

sxsy = 2.828 * 2.828 =

= 8

XY XZ XW

Cov 8 -8 0

sx 2.828 2.828 2.828 sy 2.828 2.828 2.828

sxsy 8 8 8

r 1 -1 0

Notate che una correlazione equivale ad una covarianza standardizzata sulla base delle variabili coinvolte

(30)

Standardizzando la co-varianza per entrambe le variabili r = cov (X , Y )

sxsy otteniamo la correlazione

Trasformando i punteggi grezzi in punti z di entrambe le variabili moltiplicando fra loro i punti z per ogni caso statistico

e facendo poi la media

r =

∑︀zxzy

N otteniamo la correlazione

(31)

r = cov (X , Y )

√︀var (X )var (Y ) = cov (X , Y ) sxsy

=

∑︀xy N − ¯X ¯Y

sxsy

r =

∑︀zxzy

N È quella che si ricorda più facilmente

r =

∑︀XY −

∑︀X∑︀Y N

√︃

(∑︀X2−(∑︀X )2

N )(∑︀Y2−(∑︀Y )2

N )

r = N∑︀XY −∑︀X∑︀Y

√︁

[N∑︀X2− (∑︀X )2][N∑︀Y2− (∑︀Y )2] 1

(32)

X Y X2 Y2 XY

a 1 5 1 25 5

b 3 7 9 49 21

c 5 9 25 81 45

d 7 11 49 121 77

e 9 13 81 169 117

∑︁ 25 45 165 445 265

Usando la formula indicata con 1 della slide precedente 5 · 265 − 25 · 45

√︁

[5 · 165 − 252] [5 · 445 − 452]

= 200

√200 · 200 = 1

(33)

L’interpretazione si applica al valore della correlazione indipendentemente dal segno (cioè .36 e -.36 hanno la stessa intensità di relazione)

La regola generale è: più è grande, più la correlazione è forte Valore di r Correlazione Relazione

0 Nulla Nessuna relazione

|0.00|-|0.20| Piccolissima / Piccola Molto poco intensa, quasi inesistente

|0.20|-|0.40| Bassa Più o meno apprezzabile

|0.40|-|0.60| Regolare Considerevole

|0.60|-|0.80| Alta Intensa

|0.80|-|1.00| Molto alta Molto intensa

N.B. 1 - Il segno indica solo la relazione proporzionale (+) o inversamente proporzionale (-)

N.B. 2 - 0.00 ̸= 0

(34)

Immaginate di aver raccolto un campione di 20 persone di aver misurato 2 variabili che abbiamo correlato e di aver trovato un valore di .56

In termini assoluti è una buona correlazione ma...

Siamo sicuri che il valore di .56 con un campione di 20 persone sia una buona stima della correlazione della popolazione?

Potrebbe essere un campione “balordo” con una correlazione eccessivamente alta (o bassa)

Usiamo la logica della distribuzione campionaria

(35)

Usiamo una popolazione finita di 2 variabili che correlano a 0.00365 Estraiamo dei campioni di ampiezza 20

Calcoliamo la correlazione per ciascuno dei campioni...

Facciamo la rappresentazione grafica per vedere come:

i valori vicini a 0 sono i più frequenti

valori (positivi e negativi) meno vicini a 0 sono leggermente meno frequenti di 0

man mano i valori si allontanano da 0, meno frequenti diventano In pratica i valori della distribuzione campionaria della correlazione dovrebbero distribuirsi approssimativamente come una normale.

In realtà non succede...

(36)

... ma è possibile trasformare r in t

t = r

√︁

(1 − r2)/(N − 2)

e t si distribuisce (per N < 30) in modo quasi normale e si avvicina sempre più alla normale quando N > 30

in ogni caso, t è una distribuzione di probabilità conosciuta a cui possiamo fare riferimento

in teoria, dovremmo trasformare r in t, usare le tavole di t (con N-2 gl) per trovare il valore critico, quindi interpretare

in pratica, esistono tavole che riportano i valori critici di r per determinati livelli 𝛼 e determinati gl

oppure, i software forniscono direttamente la probabilità

(37)

L’approssimazione alla normale è sempre migliore all’aumentare dell’ampiezza dei campioni (per N piccole si può aggiustare la distribuzione)

Se la correlazione (o la t) trovata nel nostro campione di partenza è compresa nel 95% attorno alla media di 0, allora la nostra

correlazione sarà non significativa ovvero casualmente estratta da una popolazione con correlazione 0

Se la correlazione trovata sarà compresa nel 5% delle due code della normale (o della t), allora sarà considerata significativa, cioè un valore poco probabile da ottenere casualmente.

(38)

Quello che abbiamo fatto è una verifica d’ipotesi

Abbiamo ipotizzato che nella popolazione da cui abbiamo estratto il campione, la correlazione fra le due variabili sia 0 (H0: 𝜌 = 0) leggi

“rho uguale a 0”.

Abbiamo pensato ad un’ipotesi di ricerca, alternativa all’ipotesi nulla (H1 : 𝜌 ̸= 0)

Abbiamo costruito una distribuzione campionaria della correlazione E abbiamo confrontato la correlazione calcolata con la distribuzione delle correlazioni

Se la probabilità associata alla nostra correlazione è ≤ 2.5% allora riteniamo che sia improbabile che il nostro campione sia stato estratto da quella popolazione (che ha 𝜌 = 0)

In tal caso, concludiamo che il campione viene da una popolazione diversa

(39)

Se i dati non sono “lineari” la correlazione di Pearson non è “buona”; la relazione potrebbe non essere affatto lineare. Per questo l’inferenza sulla correlazione verifica che sia estratta da una popolazione con correlazione nulla, cioè H0: 𝜌 = 0 (rho)

0 2 4 6 8 10 12

02468101214

r= 0.58

Var 1

Var 2

0 2 4 6 8 10 12 14

0123456

r= 0

Var 1

Var 2

(40)

Nel primo caso, la relazione non è lineare ma il campione che abbiamo estratto (quadrati) ce lo fa credere: r=.95

0 2 4 6 8 10 12

02468101214

Popolazione r= 0.58 Campione r= 0.95

X

Y

Nel secondo (cerchi) è il contrario: r=-.08

0 2 4 6 8 10 12

02468101214

Popolazione r= 0.58 Campione r= 0.33

X

Y

(41)

correlazione, H0è sempre uguale a 0 (H0: 𝜌 = 0), mentre le ipotesi alternative potrebbero essere:

H1: 𝜌 ̸= 0 H1: 𝜌 > 0 H1: 𝜌 < 0 sempre con gl = N − 2

In pratica ci chiediamo se il valore da noi trovato viene da una popolazione con correlazione nulla. Se accettiamo H0, la correlazione trovata (qualunque sia il suo valore) non deve neppure essere presa in considerazione (non va

interpretata).

(42)

Nel caso di un’ipotesi monodirezionale positiva H1 : 𝜌 > 0

(43)

Inferenza: uso delle tavole

La tavola dei valori critici riporta i valori (per i gradi di libertà, per diversi 𝛼 e per le due ipotesi, mono e bi-direzionali) sotto i quali accettare l’ipotesi nulla.

Tavole statistiche 475

Tabella C

Valori critici del coefficiente r di Pearson

Livello di significatività per il test a una coda

Livello di significatività per il test a due code

0,10 0,05 0,02 0,01

1 0,988 0,997 0,9995 0,9999

2 0,900 0,950 0,980 0,990

3 0,805 0,878 0,934 0,959

4 0,729 0,811 0,882 0,917

5 0,669 0,754 0,833 0,874

6 0,622 0,707 0,789 0,834

7 0,582 0,666 0,750 0,798

8 0,549 0,632 0,716 0,765

9 0,521 0,602 0,685 0,735

10 0,497 0,576 0,658 0,708

11 0,476 0,553 0,634 0,684

12 0,458 0,532 0,612 0,661

13 0,441 0,514 0,592 0,641

14 0,426 0,497 0,574 0,623

15 0,412 0,482 0,558 0,606

16 0,400 0,468 0,542 0,590

17 0,389 0,456 0,528 0,575

18 0,378 0,444 0,516 0,561

19 0,369 0,433 0,503 0,549

20 0,360 0,423 0,492 0,537

21 0,352 0,413 0,482 0,526

22 0,344 0,404 0,472 0,515

23 0,337 0,396 0,462 0,505

24 0,330 0,388 0,453 0,496

25 0,323 0,381 0,445 0,487

26 0,317 0,374 0,437 0,479

27 0,311 0,367 0,430 0,471

28 0,306 0,361 0,423 0,463

29 0,301 0,355 0,416 0,456

30 0,296 0,349 0,409 0,449

35 0,275 0,325 0,381 0,418

40 0,257 0,304 0,358 0,393

45 0,243 0,288 0,338 0,372

50 0,231 0,273 0,322 0,354

60 0,211 0,250 0,295 0,325

70 0,195 0,232 0,274 0,302

80 0,183 0,217 0,256 0,283

90 0,173 0,205 0,242 0,267

df

(= N- 2; 0,05 0,025 0,01 0,005

N = numero di coppie

di dati)

N = 7 𝛼 = .05(bi) rt = .65 ⇒ H0 rt= .79 ⇒ H1

G. Rossi (Dip. Psicologia) ElemPsico a.a. 2020-21 34 / 64

(44)

Usando EsempioCor2.sav

X Y X2 Y2 XY

46 126 2116 15876 5796 49 110 2401 12100 5390 48 103 2304 10609 4944 42 128 1764 16384 5376 46 111 2116 12321 5106 49 128 2401 16384 6272 43 104 1849 10816 4472 45 101 2025 10201 4545 49 111 2401 12321 5439 42 125 1764 15625 5250 40 113 1600 12769 4520 45 115 2025 13225 5175 48 100 2304 10000 4800 41 124 1681 15376 5084 43 101 1849 10201 4343

X Y X2 Y2 XY

40 102 1600 10404 4080

47 129 2209 16641 6063

48 112 2304 12544 5376

48 128 2304 16384 6144

46 123 2116 15129 5658

905 2294 41133 265310 103833

(45)

20 · 103833 − 905 · 2294

√︀(20 · 41133 − 9052)(20 · 265310 − 22942) = 2076660 − 2076070

√︀(822660 − 819025)(5306200 − 5262436) =

590

3635 · 43764 = 590

159082140 = 590

12612.7768524 = 0.0467

H1: 𝜌 ̸= 0 Gdl: 20 − 2 = 18

𝛼 .05 .01 rc .444 .561

Risultati in SPSS alla slide 43

(46)

La dimensione dell’effetto si esprime in due modi:

versione non standardizzata (da 0 in su) versione standardizzata (da 0 a 1)

La correlazione è una dimensione dell’effetto standardizzata Quindi tutti i tipi di correlazione (slide64) sono anche misure di dimensione degli effetti

L’effect size standardizzato si interpreta in modo simile (ma leggermente diverso):

Valore dell’effetto interpretazione

≃ .10 piccolo

≃ .30 medio

≃ .50 grande

(47)

Analizza | Correlazione | Bivariata Dal riquadro

“Coefficienti di correlazione” scegliere Pearson o Spearman

(48)

Il riquadro “Test di significatività” permette di scegliere fra “A due code” (preferibile) o “A una coda” (solo con una teoria)

Il riquadro “Evidenzia correlazioni significative”

permette di aggiungere degli asterischi di significatività

(49)

Opzioni

permette di scegliere le opzioni “Esclusioni a coppie”

(pairwise) o “Esclusione listwise” per i valori mancanti Lo stesso bottone permette di chiedere le statistiche descrittive (media e dev.st.) e la covarianza

(50)

Si applicano ai mancanti quando una formula usa 2 o più variabili metodo listwise: si “buttano” tutti i casi con valori mancanti Il campione potrebbe ridursi drasticamente!

COD ATG24 ATG25 ATG26 COD ATG24 ATG25 ATG26

504 2 4 1 504 2 4 1

505 4 4

506 2 2 4 506 2 2 4

507 1 1

508 4 1 1 508 4 1 1

509 4 4

510 4 4 1 510 4 4 1

511 4 4 3 511 4 4 3

514 3 5

N=9 N=5

(51)

metodo pairwise (esclusione casi test per test, a coppie, analisi per analisi...): si “ignorano” i casi con valori mancanti, limitatamente alle statistiche calcolate di volta in volta

con certe tecniche d’analisi, si perde la concomitanza delle risposte

COD ATG24 ATG25 ATG26 Usati

504 2 4 1 tutti

505 4 4 solo con 24 e 25

507 1 1 solo con 25 e 26

509 4 4 solo con 24 e 26

515 4 1 1 tutti

(52)

Usando EsempioCor2.sav La prima tabella riporta medie, deviazioni standard e numerosità (se richiesto) La seconda riporta le statistiche di correlazione:

Correlazione (1 con se stessa)

Significatività (cioè la p) il numeratore della

varianza o della covarianza varianza e covarianza Numerosità

(53)

Indicando più di 2 variabili, viene prodotta una matrice quadrata che riporta la correlazione di tutte le variabili fra loro.

(54)
(55)

Sia il t appaiato che r utilizzano le varianze (o le dev. st) Esiste una formula che permette di calcolare t usando r

t = X1− X2

√︁s12+s22

N2rsN1s2

Non è una formula molto utile, ma ci permette di vedere che una parte del t appaiato è legato a r

All’aumentare di r, t aumenta

Quanto r = 0, t appaiato diventa uguale a t per campioni indipendenti

(56)

La correlazione (o misure basate sulla correlazione) vengono usate per l’analisi delle scale che andranno a formare un test psicologico

Attendibilità o Affidabilità: quanto ci si può fidare che lo strumento misuri fedelmente ogni volta?

Test-retest: lo stesso strumento si somministra due volte a distanza di tempo, la correlazione fra le due dev’essere almeno .70

Split-half: lo strumento viene diviso in due parti (item pari e item dispari) e i punteggi delle due metà vengono confrontati fra loro Alfa di Cronbach: è un indice basato su tutte le correlazioni possibili fra gli item della scala. Deve essere almeno .70 (.60 con pochi item)

(57)

Validità: stiamo misurando veramente quello che pensiamo di misurare?

Dipende da cosa stiamo facendo

Nuova versione di uno strumento: deve avere una correlazione elevata con la vecchia versione

Nuovo strumento per un costrutto mai misurato prima: deve correlare abbastanza/molto con altre misure che si ipotizzano siano correlate al costrutto

(58)

Analizza | Scala | Analisi di affidabilità Split-half

Split-half N di item

Scala di ortodossia RFS ,740 9

Alfa di Cronbach

Alfa di Cronbach N di item

Scala di ortodossia RFS ,885 9

Per entrambe le procedure, gli item contro-tratto devono essere ribaltati

(59)

Validità con criterio esterno

Scala di fondamentalismo RF

Scala di ortodossia RFS r ,727

Sig. ,000

Il fondamentalismo include l’ortodossia

(60)

due variabili NON correlate

due variabili correlate

L’area in comune rappresenta la varianza che le due variabili condividono fra loro

In termini di contenuto è qualcosa che è misurato contemporaneamente da entrambe le variabili

(61)

La correlazione indica quanto sono associate le variabili

Il quadrato della correlazione indica esattamente quanta varianza hanno in comune le variabili

Se poi si moltiplica per 100 si ha la % di varianza comune r = .9 r2 = .81, 81% r = .7 r2= .49, 49%

r = .6 r2 = .36, 36% r = .4 r2= .16, 16%

r = .3 r2= .09, 9% r = .2 r2= .04, 4%

È anche chiamato “% di varianza spiegata”

(62)

È importante ricordare che se esiste una correlazione fra due variabili, che calcoliamo con r, questo indice non ci dà nessuna informazione sui legami di causa-effetto.

Le due variabili “si muovono assieme”. STOP!

È possibile che esista una terza variabile che ha influenza su entrambe e che la correlazione che abbiamo calcolato sia dovuta a questa influenza

Y X Z

(63)

Y

X È falsa una correlazione esistente che non ha senso logico ma che può portare ad una interpretazione apparentemente “accettabile”

X è il numero di pompieri mandato a spegnere un incendio Y è l’entità del danno prodotto dall’incendio

La loro correlazione vuol dire che più pompieri producono più danni?

Y X

Z

Nel momento in cui si identifica una variabile antecedente ad entrambe, la correlazione spuria acquista senso

Z è l’ampiezza dell’incendio

Più ampio l’incendio, più pompieri vengono inviati a spegnerlo

più ampio l’incendio, più danni prodotti

(64)

r = 0 2 correlano fra loro

correlano tutte 1 correla con le altre due

(65)

È la correlazione di una variabile con 2 o più variabili contemporaneamente

Oscilla fra −1 e +1 come la correlazione di Pearson (come tutti gli indici di correlazione)

r1.23=

√︃r122 + r132 − 2r12r13r23 1 − r232

dove r12è la correlazione fra le variabili 1 e 2; r13 fra la 1 e la 3... e r1.23è la correlazione multipla

In SPSS si ottiene solo come sottoprodotto della regressione lineare multipla (che studierete l’anno prossimo)

(66)

È la correlazione di due variabili a cui viene “tolta” l’influenza di una terza variabile. In pratica si cerca di scorporare l’influenza di una terza, quarta... variabile per trovare la relazione “vera” fra le prime due

Es. correlazione fra “numero di parole conosciute” da un bambino e

“intelligenza” parzializzata in base all’età (tolto il contributo dell’età).

Se l’età è correlata con una delle due o con entrambe, la correlazione diminuirà.

r12.3= r12− r13r23

√︁

(1 − r132 )(1 − r232 )

dove r12è la correlazione fra le variabili 1 e 2; r13 fra la 1 e la 3... e r12.3è la correlazione fra 1 e 2 parzializzata sulla 3

(67)

È la correlazione fra due variabili, ma solo ad una delle due è stato tolto il contributo di una terza.

Es. correlazione fra “numero di parole conosciute” e “intelligenza”. La parzializzazione in base all’età viene attuata solo con il numero di parole.

r1(2.3) = r12− r13r23

√︁

1 − r232

dove r12è la correlazione fra le variabile 1 e 2, r13 fra la prima e la terza e così via

In SPSS non è possibile ottenere la correlazione semi-parziale, se non come risultato opzionale di una regressione multipla (che studierete l’anno prossimo)

(68)

Analizza | Correlazione | Parziale Nel riquadro “Variabili”

inserire almeno due nomi di variabile

Nel riquadro “Controllo per” inserire le variabili di cui si vuole eliminare l’effetto [“controllo” è la stessa cosa di

parzializzare]

In “Test di

significatività” scegliere l’opzione di direzione (“A due code”, preferibile)

(69)

Correlazioni con Fondamentalismo Ordine zero Parziali

Orient. Polit. 0.281 0.107

Rel. Intrinseca 0.679 0.274

Rel. Estr. pers. 0.310 0.145

Rel. Estr. soc 0.510 0.026

Ortodossia 0.727 0.422

Attac. Sicuro 0.115 0.039

Attac. Preoccup. 0.089 0.024

Attac. Spavent. −0.037 0.035

Attac. Distanz. −0.209 −0.063

La correlazione di ordine zero è la normale correlazione

La correlazione parziale (in questo caso) è parzializzata su tutte le altre

(70)

È una formula per calcolare una correlazione che si usa quando:

la relazione fra le variabili non è propriamente lineare o almeno una delle variabili è ordinale

o ci sono campioni piccoli e non si è sicuri degli assunti di normalità (ad es. campioni patologici)

è chiamata correlazione rho di Spearman ma, più spesso, indicata con rs

utilizza una trasformazione in ranghi su cui applica una formula particolare

rs = 1 − 6∑︀d2 n(n2− 1)

(71)

Si ordinano i valori(in modo crescente) Si assegnano le posizioni (o ranghi) Si usano i ranghi al posto dei valori

A valori uguali deve essere assegnato lo stesso rango, assegnando la media dei ranghi

valori A A B B C D

pos. 1 2 3 4 5 6

rango 1.5 1.5 3.5 3.5 5 6

valori 1 2 2 3 3 3

pos. 1 2 3 4 5 6

rango 1 2.5 2.5 5 5 5

Ad A viene assegnato la media dei ranghi (1 + 2)/2 = 1.5

X Y

A 3

B 3

A 1

D 2

C 3

B 2

(72)

Si ordinano i valori (in modo crescente) Si assegnano leposizioni(o ranghi) Si usano i ranghi al posto dei valori

A valori uguali deve essere assegnato lo stesso rango, assegnando la media dei ranghi

valori A A B B C D

pos. 1 2 3 4 5 6

rango 1.5 1.5 3.5 3.5 5 6

valori 1 2 2 3 3 3

pos. 1 2 3 4 5 6

rango 1 2.5 2.5 5 5 5

Ad A viene assegnato la media dei ranghi (1 + 2)/2 = 1.5

X Y

A 3

B 3

A 1

D 2

C 3

B 2

(73)

Si ordinano i valori (in modo crescente) Si assegnano le posizioni (o ranghi) Si usano iranghi al posto dei valori

A valori uguali deve essere assegnato lo stesso rango, assegnando la media dei ranghi

valori A A B B C D

pos. 1 2 3 4 5 6

rango 1.5 1.5 3.5 3.5 5 6

valori 1 2 2 3 3 3

pos. 1 2 3 4 5 6

rango 1 2.5 2.5 5 5 5

Ad A viene assegnato la media dei ranghi (1 + 2)/2 = 1.5

X Y

A 3

B 3

A 1

D 2

C 3

B 2

(74)

Si ordinano i valori (in modo crescente) Si assegnano le posizioni (o ranghi) Si usano i ranghi al posto dei valori

Avalori ugualideve essere assegnato lo stesso rango, assegnando la media dei ranghi

valori A A B B C D

pos. 1 2 3 4 5 6

rango 1.5 1.5 3.5 3.5 5 6

valori 1 2 2 3 3 3

pos. 1 2 3 4 5 6

rango 1 2.5 2.5 5 5 5

AdA viene assegnato la media dei ranghi(1 + 2)/2 = 1.5

X Y

A 3

B 3

A 1

D 2

C 3

B 2

(75)

Ordinare i valori Indicare la posizione

Assegnare i ranghi La somma dei ranghi deve coincidere

X rango Y rango

X Y d d2

A 1.5 3 5 -4 12

B 3.5 3 5 -2 2,3

A 1.5 1 1 0,5 0,3

D 5 2 2.5 2,5 6,3

C 6 3 5 1 1

B 3.5 2 2.5 1 1

∑︁ 21 21 23

rs = 1 − 6 · 23

6(62− 1) = 1 − 138

6 · 35 = 1 −138

210 = 1 − 0.657143 = 0.343

(76)

Coefficiente di correlazione Livelli di misurazione Prodotto momento di Pearson Entrambe intervallo A ranghi di Spearman Almeno una ordinale

Tau di Kendall Entrambe ordinali

Phi, V di Cramer Entrambe nominali

Punto-biseriale Una intervallo e una dicotomica vera Biseriale* Una intervallo e una dicotomica artificiale Tetracorica* Entrambe dicotomiche artificiali

Poliseriale* Una intervallo e una ordinale Policorica* Entrambe ordinali artificiali In grassetto quelle ottenibili con SPSS

L’asterisco indica quelle ottenibili con macro SPSS scaricabili da internet

Riferimenti

Documenti correlati

“dal momento che la ricerca viene effettuata su un certo campione (di ampiezza N conosciuta) e usando un certo

1 Ho misurato una variabile su un campione e lo voglio confrontare con i risultati di una ricerca precedente per vedere se le popolazioni statistiche sono uguali o meno (T-Test

se la varianza è uguale potremmo semplicemente sommare le singole varianze (in particolare se le N dei due campioni fossero uguali) più spesso non possiamo ipotizzare che le

Modello teorico: una variabile qualitativa viene confrontata con un modello teorico per vedere se le categorie si distribuiscono in base a dei valori attesi indicati dalla

L’analisi della varianza ad un fattore (una via) lavora con 1 variabile quantitativa e con una variabile qualitativa che abbia più di 2 categorie (o più di 2 medie). L’analisi

2 Valori mancanti casuali (MAR): quando i mancanti non dipendono dalla variabile, ma dipendono da una o più delle altre variabili. 3 Non mancanti a caso (NMAR) ovvero valori

Chi non segue le esercitazioni (ma anche chi le segue) può usare una sorta di checklist per controllare cosa deve saper fare alla fine delle esercitazioni. Tutto quello che è

Per ogni punto z viene indicata l’area fra z=0 e il punto z stesso (area in grigio) La proporzione di area è indicata come percentuale (34,13) con due decimali Si può