• Non ci sono risultati.

Elementi di Psicometria (con laboratorio software 1) 04-Introduzione alla verifica delle ipotesi (v. 1.3, 17 aprile 2020) versione per stampa Germano Rossi

N/A
N/A
Protected

Academic year: 2021

Condividi "Elementi di Psicometria (con laboratorio software 1) 04-Introduzione alla verifica delle ipotesi (v. 1.3, 17 aprile 2020) versione per stampa Germano Rossi"

Copied!
44
0
0

Testo completo

(1)

Elementi di Psicometria (con laboratorio software 1)

04-Introduzione alla verifica delle ipotesi (v. 1.3, 17 aprile 2020) versione per stampa

Germano Rossi1 germano.rossi@unimib.it

1Dipartimento di Psicologia, Università di Milano-Bicocca

a.a. 2019-20

(2)

Sommario

1 Statistica inferenziale (3)

2 Distribuzione campionaria (8)

3 Verifica d’ipotesi (19)

(3)

Introduzione

Una ricerca scientifica si basa su un’ipotesi

Abbiamo visto che il campione estratto per una ricerca dev’essere rappresentativo ocasuale

Abbiamo detto che dalle statistiche su un campione possiamo trarre delle conclusioni sulla popolazione (date certe circostanze)

Questo processo passa attraverso un procedimento logico di inferenza basato su alcuni aspetti:

conseguenze teoriche dell’estrazione casuale distribuzione campionaria

verifica di un’ipotesi

probabilità associata all’ipotesi

(4)

Conseguenze dell’estrazione casuale

Ipotizziamo che il nostro campione sia stato estratto casualmente da un popolazione conosciuta

Se ècasuale, i singoli casi statistici avranno dei valori che sono spesso vicini alla media (qualche volta sopra, altre sotto)

valori più lontani dalla media saranno meno frequenti più sono lontani e più sono rari

La media di un campione estratto casualmente da una popolazione tenderà ad essere vicina alla media della popolazione

Ma non tutti i campioni estratti sono “rappresentativi”

(5)

Estrazione casuale

Immaginiamo di essere in una cittadina che ha un palazzetto dello sport dedicato alla pallacanestro Noi vorremmo studiare l’altezza (in cm) delle persone presenti nel palazzetto

Nella stessa cittadina, il giorno in cui facciamo la rilevazione, è presente un circo

Il giorno della rilevazione, i nani del circo (5) sono nel palazzetto per vedere la partita

Ipotizziamo che nel palazzetto ci siano 100 persone in totale (per semplicità di calcolo!) Abbiamo 5 nani, 10 giocatori e 85 altre persone

Se io estraggo 2 persone a caso fra quelle presenti nel palazzetto, qual è la probabilità di estrarre casualmente 2 nani o 2 giocatori di basket?

(6)

Estrazione casuale

L’altezza è una variabile fisica: tende a distribuirsi normalmente (persone basse o alte sono meno frequenti di persone di altezza media)

Se io estraggo 2 persone a caso (simultaneamente) fra quelle presenti nel palazzetto, qual è la probabilità di estrarre casualmente 2 nani oppure 2 giocatori di basket?

La probabilità di estrarre per caso 2 nani è circa 0.0004 (4 su 10 mila)

di 2 giocatori è circa 0.01 (1 su cento)

di 2 nani o 2 giocatori,

Ma la probabilità di estrarre 5 giocatori è ancora più piccola, circa 0.0000000032

E la probabilità di estrarre un campione di 5 nani e 10 giocatori è ancora più piccola

(7)

Conseguenze dell’estrazione casuale

In linea di massima, estraendo campioni casuali da una popolazione, la maggior parte dei campioni è un buon “rappresentante” della

popolazione

I campioni poco rappresentativi sono rari

Se estraiamo un campione da una popolazione e il campione è rappresentativo di quella popolazione, il campione dovrebbe avere gli stessi indici statistici (ad es. una media vicina a 𝜇)

All’aumentare dell’ampiezza dei campioni estratti, migliora la rappresentatività

Ovviamente non è sempre vero

(8)

Distribuzione campionaria (1)

La distribuzione campionaria è un procedimento logico (e teorico) che ci fornirà delle conoscenze utili e importanti per l’inferenza statistica Per questo useremo campioni estratti da una popolazione come se fossero “individui”

E ci concentreremo sulla media (ma potremmo rifare lo stesso discorso sulla mediana o altre statistiche)

Inizieremo con una “popolazione” conosciuta e finita

Usiamo una variabile (Fondamentalismo) proveniente da una ricerca effettuata su di 659 persone.

(9)

Distribuzione campionaria (2)

Ipotizziamo di estrarre un campione di 100 casi da questa popolazione e di calcolare la media della variabile

Se la “pensiamo come popolazione”, la sua media è𝜇 =90.3915 Da questa popolazione estraiamo un campione casuale di 100 persone e calcoliamo la media di questo campione: M=91.46

Questo campione differisce dalla popolazione di1.07(91.46-90.39) Estraiamo un altro campione e calcoliamo la sua media: M=90.63che differisce0.24 (90.63-90.39)

Il secondo campione ha una media più vicina a quella della

“popolazione”, ma... solo perché conosco 𝜇

(10)

Distribuzione campionaria (3)

Estraiamo altri campioni di ampiezza 100 dalla stessa popolazione e calcoliamo la media per ciascuno...

87.83, 90.63, 91.90, 91.99, 90.10, 90.80, 93.84, 90.80, 89.80, 90.12, 90.71, 88.56, 89.67, 90.76, 87.77, 90.51, 89.78, 90.68, 90.40, 89.27 Senza conoscere il parametro della popolazione, non possiamo sapere a priori se sarà o meno vicino a 𝜇

ma se estraiamo diversi campioni, le loro medie oscilleranno attorno alla media della popolazione

Vediamo tutti gli scarti...

(11)

Distribuzione campionaria (4)

Medie Scarto Medie Scarto 91,46 1,07

87,83 -2,56 90,71 0,32

90,63 0,24 88,56 -1,83

91,90 1,51 89,67 -0,72

91,99 1,60 90,76 0,37

90,10 -0,29 87,77 -2,62

90,80 0,41 90,51 0,12

93,84 3,45 max 89,78 -0,61

90,80 0,41 90,68 0,29

89,80 -0,59 90,40 0,01 min

90,12 -0,27 89,27 -1,12

Medie Scarto

90.39 Media popolazione

90.35 -0.04 Media delle medie dei campioni

Poiché vengono dalla stessa popolazione, la media di ogni campione estratto tenderà ad oscillare attorno alla media della popolazione Facciamo la media delle medie dei 21 campioni:

90.35

La media delle 21 medie, avrà un valoresicuramente più vicino alla media della popolazione: 90.3915

(12)

Distribuzione campionaria (5)

Anziché 20 campioni ne potremmo estrarre 10 mila, avremmo 10 mila medie e potremmo costruire una distribuzione di frequenza di quelle medie

L’importante è che ogni campione sia casuale, ovvero

ogni caso di un singolo campione abbia la stessa probabilità di essere estratto degli altri

ogni possibile campione estraibile dalla popolazione abbia la stessa probabilità degli altri

La distribuzione di frequenza che costruiremmo con le medie dei campioni si chiama distribuzione campionaria delle medie

Se il numero di campioni estratto è sufficientemente elevato, le medie dei campioni tenderanno a distribuirsi secondo la curva della normale

(13)

Distribuzione campionaria delle medie

Se effettivamente estraessimo un numero elevatissimo di campioni da una popolazione (metodo Monte Carlo), avremmo una distribuzione sperimentale, mentre quella su cui noi lavoreremo è una distribuzione teorica

La distribuzione campionaria delle medie si basa sul teorema del limite centrale che afferma che, all’aumentare dell’ampiezza dei campioni, la distribuzione campionaria della media si avvicinerà sempre più ad una distribuzione normale,indipendentemente dalla forma delle misurazioni individuali

Se una variabile si distribuisce normalmente, anche piccoli campioni produrrano una distribuzione campionaria normale

Con variabili non normali, la distribuzione campionaria deve avere numerosità (N) uguale almeno a 30 o maggiore

(14)

Teorema del limite centrale: esempio semplice

LaTavola di Galtonmostra come i valori estremi di una variabile sono sempre i meno frequenti.

con Size decidete l’ampiezza dei valori (se è pari, aggiunge 0, max 15)

Left/Right la probabilità Speed la velocità con cui cadono le palline (max 200) Restart fa ripartire la caduta delle palline

Data mostra i dati con cui sono state prese le decisioni

(15)

Distribuzione campionaria medie: var. NORMALE

0 200 600 1000

−4−2024

Media= 0.03

Popolazione normale Popolazione normale

Media= 0.03

−4 −2 0 2 4

0.00.10.20.30.4

100 campioni N=10

Media dei campioni= 0.01

−2 −1 0 1 2

0.00.40.81.2

100 campioni N=30

Media dei campioni= 0.03

−2 −1 0 1 2

0.01.02.0

A partire da una popolazione distribuita normalmente (1000 casi, valori -4; 4)

abbiamo il grafico dei valori [1]

l’istogramma delle frequenze [2]

l’istogramma con normale di 100 campioni di ampiezza 10[3]

l’istogramma con normale di 100 campioni di ampiezza 30[4]

(16)

Distribuzione campionaria medie: var UNIFORME

A partire da una popolazione uniformemente distribuita (1000 casi, valori 1-100)

abbiamo il grafico dei valori [1]

l’istogramma delle frequenze [2]

l’istogramma con normale di 100 campioni di ampiezza 10[3]

l’istogramma con normale di 100 campioni di ampiezza 30[4]

(17)

Distribuzione campionaria: parametri

La distribuzione campionaria è una distribuzione di probabilità e per una numerosità (N) del campione superiore o uguale a 30, tende verso una curva stabile (e “normale”) con

Mx = 𝜇 e 𝜎Mx = 𝜎

√ N

Mx è la media della distribuzione campionaria

𝜎Mx è la deviazione standard delle medie anche conosciuta come errore standard della media

indica quanto affidabile è ciascuna media campionaria

valori piccoli indicano che, estraendo più campioni, le medie sarebbero abbastanza vicine fra loro

valori grandi, che le medie campionarie sarebbero abbastanza disperse attorno a 𝜇

(18)

Errore standard della media

𝜎M = 𝜎

√ N

È più piccolo della deviazione standard della popolazione, perché Singoli “punteggi estremi” (anomali) sono più probabili di “medie estreme”, quindi la distribuzione delle medie sarà meno variabile rispetto alla popolazione

Al crescere di N, le medie campionarie sono più raggruppate e l’errore standard diventa sempre più piccolo

Più grande l’errore standard più è probabile che il campione non sia rappresentativo della popolazione

(19)

Verifica d’ipotesi (1)

Per verificare un’ipotesi, ne serve una

L’ipotesi che noi facciamo, implica che qualcosa influenzi, modifichi, cambi qualcos’altro: è un’ipotesi rivoluzionaria o di ricerca (indicata con H1)

Ma proprio per questo, di solito, è generica e “sconosciuta”

Allora si lavora su un’ipotesi contraria (di solito) chiamata “ipotesi nulla” e indicata con H0

che afferma che non ci sarà nessun cambiamento, nessuna diversità, che tutto resterà uguale a prima; è l’ipotesi conservativa

(20)

Verifica d’ipotesi (2)

Ad es. possiamo ipotizzare che bere bevande contenenti steroli vegetali, migliori la nostra salute perché diminuisce il colesterolo Per verificarla decidiamo di usare una misura del colesterolo nel sangue Cosa ci aspettiamo? che diminuisca!

Di quanto? Non lo sappiamo, ma potremmo dire “abbastanza per escludere una diminuzione casuale”

Perciò potremmo considerare il valore medio di colesterolo e ipotizzare che, dopo l’assunzione di steroli vegetali, il nostro colesterolo diminuisca in modo non casuale

(21)

Verifica d’ipotesi (3)

Un’ipotesi che ci permette di “lavorare” è: la media del colesterolo prima e dopo l’assunzione di steroli non cambia (ovvero

Mprima = Mdopo

Chiamiamo quest’ipotesi come nulla (o H0), mentre l’ipotesi da cui è scaturita la nostra ricerca sarà l’ipotesi alternativa (o H1)

Noi vorremmo che fosse vera l’alternativa, ma dobbiamo prima dimostrare che quella nulla è falsa!

Se la differenza fra prima e dopo è sufficientemente grande per escludere che sia casuale.... accetteremo l’ipotesi di ricerca Ma quanto dev’essere grande?

Ce lo dice la probabilità

(22)

Probabilità: moneta (1)

La moneta è truccata?

Evento p pcum

10T 0,00098 0,00098 9T 0,00977 0,01075 8T 0,04395 0,05470 7T 0,11719 0,17189 6T 0,20508 0,37697 5T 0,24609 0,62306 4T 0,20508 0,82814 3T 0,11719 0,94533 2T 0,04395 0,98928 1T 0,00977 0,99905 0T 0,00098 1,00003

Se lancio 10 volte una moneta e cade 10 volte sulla stessa faccia, è truccata? (H1)

Se non fosse truccata (H0), quante probabilità avrei di ottenere 10 volte una stessa faccia?

10 volte ->

p(10)=p(0)=0.00098*2=0.00196 la probabilità è così bassa che la moneta è quasi sicuramente truccata!

(23)

Probabilità: moneta (2)

La moneta è truccata?

Evento p pcum

10T 0,00098 0,00098 9T 0,00977 0,01075 8T 0,04395 0,05470 7T 0,11719 0,17189 6T 0,20508 0,37697 5T 0,24609 0,62306 4T 0,20508 0,82814 3T 0,11719 0,94533 2T 0,04395 0,98928 1T 0,00977 0,99905 0T 0,00098 1,00003

E se ottenessi 9 volte la stessa faccia?

9 volte -> p(9) = p(1) = 0.00977 ma se escono 9 facce avrebbero potuto essere anche 10, quindi sommiamo

almeno 9 volte ->

p(10)+p(9)=0.01075*2=0.0215 quindi una probabilità di 2 su 100 È sufficientemente piccola?

(24)

Probabilità: moneta (3)

La moneta è truccata?

Per rispondere, devo stabilire un limite di probabilità, sotto il quale decido che la moneta è truccata e sopra che non lo è!

Se la probabilità che accada quell’evento è alta, allora “non è truccata”

Se la probabilità è molto bassa (e l’evento accade) allora la moneta è truccata

0-1 teste

Truccata Non truccata 9-10 teste

Truccata

Come stabilisco il “limite di probabilità”? (lo vedremo alla slide34)

(25)

Probabilità: moneta (4)

Possibilità 1 (ipotesi nulla): la moneta NON Ètruccata p(t) = p(c) =0.5

Possibilità 2 (ipotesi alternativa): la moneta Ètruccata p(t) ̸= p(c) ̸=0.5

L’ipotesi nulla (indicata anche come H0) è tale, perché si basa su informazioni che abbiamo già e di cui siamo sicuri (una moneta non truccata ha probabilità 1/2)

L’ipotesi alternativa o di ricerca (indicata come H1) è l’ipotesi che contrapponiamo a quella nulla

(26)

Ipotesi nulla e alternativa

L’ipotesi nulla è l’unica su cui si può realmente fare calcoli L’ipotesi alternativa apre, invece, ad un insieme di possibilità (p(t) = 0.4; p(t) = 0.3; p(t) = .2 . . .) che non è possibile verificare tutte contemporaneamente

Se l’ipotesi nulla si dimostra probabile, la accetteremo per vera.

Se l’ipotesi nulla si dimostra improbabile, opteremo per quella alternativa

L’ipotesi alternativa la verifichiamo “per assurdo”, ovvero dimostrando probabilmente falsa l’ipotesi nulla

(27)

Procedimento di verifica

Calcoleremo la probabilità che la statistica calcolata sul nostro campione possa corrispondere a quella stimata della popolazione Non avremo mai una risposta sicura ma solo la probabilità di un errore!

Ovvero: qualunque decisione prenderemo (H0 o H1), ci sarà sempre la possibilità che la nostra scelta sia sbagliata.

(28)

Verifica d’ipotesi: esempio 1 (1)

Supponiamo di voler sapere se i bambini che sono cresciuti in famiglie che avevano animali domestici abbiano QI diversi da quelli dei bambini cresciuti senza animali domestici.

Nella popolazione generale, il QI èdistribuito normalmente con 𝜇 =100 e 𝜎 = 15

Raccogliamo un campionecasuale di 30 bambine/i che vivono con animali domestici e misuriamo il loro QI. Due possibili eventi:

a) La media del campione è

M1=102.0 b) La media del campione è

M2=106.5

Se la media della popolazione è 𝜇 = 100allora possiamo calcolare quanto Mi dista da 𝜇

(29)

Verifica d’ipotesi: esempio 1 (2)

Riassumendo abbiamo (evento a) Una media di riferimento della popolazione: 𝜇 =100 Una dev.st. di riferimento:

𝜎 =15

La media di un campione:

M =102) N =30

Sono 3 informazioni che ritroviamo anche nei punti z

Possiamo usare i punti z per trovare la posizione di un gruppo rispetto a tutti gli altri gruppi della stessa ampiezza?

Punteggio Media Dev. St.

Campione x M s

Distr. Camp. M 𝜇 𝜎

√n

Le ipotesi nulle e alternative sono:

H0: 𝜇 =100 e H1: 𝜇 >100

(30)

I punti z per le medie campionarie

Usiamo la distribuzione campionaria delle medie

Calcoliamo il punto z e poi troviamo l’area corrispondente (ovvero la probabilità)

z = M−𝜇M 𝜎M

= M − 𝜇

𝜎 N

In questo caso il punteggio grezzo è la media del campione, lamedia di riferimento è quella della popolazione e ladeviazione standardper cui dividiamo è l’errore standard della media campionaria

(31)

Verifica d’ipotesi 2: Esempio 1

Campione 1a: M1=102 z = 102 − 100

15/√

30 =0.73 M1 sta a 0.73 DS sopra la media

Campione 1b: M2=106.5 z = 106.5 − 100

15/√

30 =2.37 M2 sta a 2.37 DS sopra la media Possiamo anche chiederci: qual è la probabilità di ottenere quel punto z? È molto alta o molto bassa? Guardiamo le tavole della normale p(z =0.73) = 50% − 26.73%

=23.27%

p(z =2.37) = 50% − 49.11%

=0.89%

Se il parametro della popolazione è 𝜇=100, allora quella trovata è la probabilità di aver selezionato “casualmente” un campione “probabile”

(M1, 27.27%) o “un po’ balordo” (M2, 0.89%)

(32)

Verifica d’ipotesi: Esempio 1a

Cerchiamo il punto z nella tavola della normale e troviamo l’area corrispondente z(−∞ ↔0.73) = 50 + 26.73 = 76.73%

z(0.73 ↔ ∞) = 50 − 26.73 = 23.27%

z(−∞ ↔2.37) = 50 + 49.11 = 99.11%

z(2.37 ↔ ∞) = 50 − 49.11 = 0.89%

(33)

Verifica d’ipotesi: Esempio 1a

Ipotizziamo di aver trovato un punto z=2.37

avendo un’ipotesi H1 : 𝜇 >100

stabiliamo un punto z critico (z=1.65, 95.05%

accettazione H0, 4.95%

rifiuto)

p=.0495 è la probabilità associata all’errore Se la probabilità di z è inferiore al 5% possiamo ritenere che la media è sufficientemente poco probabile

(34)

Criterio di significatività 1

Ci sono due possibili percorsi:

a) Valore p: la probabilità associata al risultato (usata in particolare con i software) b) Valore critico: il punto z che separa l’area di accettazione da quella di rifiuto di H0 decidiamo di correre un rischio massimo del 5% sulla coda positiva, corrispondente a z=1.65

a) con p=.7673 (z=0.73) vs. p=.05

(35)

Criterio di significatività 2

In pratica, la probabilità associata allo z critico divide l’area in 2 parti

1 L’area di accettazione di H0, cioè quando il risultato ottenuto è sufficientemente probabile: M = 102 è uguale a 𝜇 = 100 (è fluttuazione casuale)

2 L’area di rifiuto di H0, cioè quando il risultato ottenuto NON è sufficientemente probabile: M = 106.5 non è casualmente uguale a 𝜇 =100

(36)

Criterio di significatività 3

L’area critica (rifiuto di H0) si basa su un valore arbitrario, indicato con 𝛼, che è la probabilità di rifiutare H0 quando, invece, è vera.

Ci sono 2 tipi di errore:

Errore di primo tipoo 𝛼: l’errore di accettare per vera H1che, invece, è falsa ovvero di rifiutare H0che è invece vera

Errore di secondo tipoo 𝛽: l’errore di accettare per vera H0che, invece, è falsa ovvero rifiutare H1 che invece è vera

Si chiamapotenza di un testla sua capacità di accettare H1quando è vera [1-𝛽]

Qualunque sia la decisione che prendiamo, corriamo un rischio calcolato Il rischio viene calcolato tramite l’uso delle distribuzioni di probabilità

(37)

Relazioni fra errori e ipotesi

Realtà

H0 - Vera H0 - Falsa H1 - Falsa H1 - Vera

Ipotesi

Accetto H0 Corretta Errore II tipo

Rifiuto H1 1 − 𝛼 𝛽

Rifiuto H0 Errore I tipo Corretta

Accetto H1 𝛼 1 − 𝛽

In Ψ si usano comunemente valori prefissati di 𝛼 (per diminuire la possibilità d’errore di I tipo):

𝛼 = .05 5% *

𝛼 = .01 1% **

𝛼 = .001 0.1% ***

Non ci sono valori predefiniti di 𝛽.

Mentre, il focus è su 1 − 𝛽 che è la potenzadi un test (cfr. cap. 6)

(38)

Verifica d’ipotesi: procedimento generale

La verifica d’ipotesi avviene sempre tramite

1 Identificazione di ipotesi nulla (H0) e ipotesi alternativa (H1) (che è generalmente connessa con il test statistico scelto)

2 Scelta di un test statistico e calcolo di unindice statistico (Is)

3 Scelto un determinato livello 𝛼, calcolo della probabilità associata(p) oppure identificazione del valore critico(vc)

4 Accettazione o rifiuto di H0, in base alla scelta:

Con p

Se p < 𝛼, rifiuto H0 Se p > 𝛼, accetto H0

Con vc (in genere) Se |vc| < |Is|, rifiuto H0 Se |vc| > |Is|, accetto H0

(39)

Procedimento generale in pratica

Applicato al campione di 30 ragazzi con M = 106.5 e confrontato con una popolazione con 𝜇 = 100 e 𝜎 = 15

Con p

Se p < 𝛼, rifiuto H0

Se p > 𝛼, accetto H0 p = .0089 (0.89%) 𝛼 = .05 (5%)

p = .0089 < 𝛼: rifiuto H0

Con vc (in genere) Se |vc| < |Is|, rifiuto H0 Se |vc| > |Is|, accetto H0 Is : z =2.37

nella tavola della normale, cerco il punto z corrispondente ad 𝛼 = .05 (5%*); pari a 1.64 (o 1.65)

vc =1.65 > Is =2.37: rifiuto H0

* 1.61=44.95%; 1.65=45.5%

(40)

Ipotesi mono- o bidirezionale

L’ipotesi alternativa può essere di due tipi:

mono-direzionale(H1: 𝜇 > 100) oppure (H1: 𝜇 < 100); usata quando ci sono delle conoscenze precedenti o una teoria “forte”

bi-direzionale (H1: 𝜇 ̸= 100);

quando non ci sono teorie o conoscenze precedenti e siamo aperti a qualunque possibilità; la più usata in assoluto

(41)

Assunti richiesti

Il test statistico per la Media di un campione estratto da una determinata popolazione richiede alcuni assunti fondamentali:

1 Gli individui nel campione sono stati selezionati in modo casuale e sono fra loro indipendenti rispetto alla popolazione

2 La variabile misurata si distribuisce normalmente nella popolazione (ma ricordiamo anche il Teorema del Limite Centrale)

(42)

Riportare i risultati dell’inferenza

In generale:

1 riportare il simbolo della statistica (ad es. z, t....) in corsivo

2 riportare gli eventuali gradi di libertà (tra parentesi)

3 riportare il valore della statistica

4 riportare la probabilità associata alla statistica

5 indicare se è statisticamente significativa (o no) e l’eventuale direzione della significatività (di solito indicata nel testo)

Esempi:

r (8) = −.90, p<.05 𝜒2(2) = 13.51, p=.001 rs(8) = −.89, p<.05 t(97) = 2.88, p<.001

(43)

Riportare la probabilità

Il valore della probabilità (spesso confuso con la significatività) si riporta in modi diversi in base al fatto che i risultati compaiano nel testo o in una tabella

La forma principale nel testo (secondo l’American Psychological Association), è “p = valore”, in cui il valore di probabilità è riportato con tre decimali senza zero iniziale (ad es. p = .723) tranne quando il valore di p è inferiore all’1 per mille.

In questo caso, risulterebbe p = .000 (che vorrebbe dire “evento impossibile”, ma è, invece, il modo in cui i computer visualizzano un numero con un valore diverso da zero oltre il terzo decimale), per cui si scrive invece p < .001

(44)

Riportare i risultati in tabella

Le tabelle hanno lo scopo di riassumere i risultati e, spesso, di permetterne il confronto

è possibile trovare l’uso di p < .05 e p < .01 spesso tramite l’uso di asterischi che vengono poi ripresi e spiegati nella “Legenda” della tabella stessa: ad es. “* = p < .05; ** = p < .01; *** = p < .001”

(sempre che servano tutti e tre i livelli).

Se una colonna contiene solo le probabilità, la colonna stessa può essere intestata “p” e contenere solo la parte delle probabilità

Riferimenti

Documenti correlati

“dal momento che la ricerca viene effettuata su un certo campione (di ampiezza N conosciuta) e usando un certo

1 Ho misurato una variabile su un campione e lo voglio confrontare con i risultati di una ricerca precedente per vedere se le popolazioni statistiche sono uguali o meno (T-Test

se la varianza è uguale potremmo semplicemente sommare le singole varianze (in particolare se le N dei due campioni fossero uguali) più spesso non possiamo ipotizzare che le

Abbiamo costruito una distribuzione campionaria della correlazione E abbiamo confrontato la correlazione calcolata con la distribuzione delle correlazioni. Se la probabilità

Modello teorico: una variabile qualitativa viene confrontata con un modello teorico per vedere se le categorie si distribuiscono in base a dei valori attesi indicati dalla

L’analisi della varianza ad un fattore (una via) lavora con 1 variabile quantitativa e con una variabile qualitativa che abbia più di 2 categorie (o più di 2 medie). L’analisi

2 Valori mancanti casuali (MAR): quando i mancanti non dipendono dalla variabile, ma dipendono da una o più delle altre variabili. 3 Non mancanti a caso (NMAR) ovvero valori

Chi non segue le esercitazioni (ma anche chi le segue) può usare una sorta di checklist per controllare cosa deve saper fare alla fine delle esercitazioni. Tutto quello che è