• Non ci sono risultati.

Matematiche Complementari

N/A
N/A
Protected

Academic year: 2021

Condividi "Matematiche Complementari"

Copied!
34
0
0

Testo completo

(1)

Matematiche Complementari Laurea Magistrale in Ecologia ed Evoluzione

prof. L. Triolo (triolo@mat.uniroma2.it)

Dipartimento di Matematica, Universit`a di Roma Tor Vergata

Programma del Corso per l’AA 2008-09

1. Elementi di calcolo differenziale e integrale per la comprensione ed illustrazione di semplici equazioni differenziali per la dinamica di una popolazione (Malthus, Verlhurst): sig- nificato e calcolo di derivate ed integrali per funzioni di una variabile.

2. Elementi di Probabilit`a e Statistica: probabilit`a in spazi finiti, probabilit`a condizionata (Teor. di Bayes); variabili aleatorie, distribuzioni binomiale e normale. Campioni ed indici (media, varianza). Stimatori in Statistica inferenziale.

Testi consigliati per consultazione, oltre alle presenti Note:

1. C. Cammarota: Elementi di Calcolo e di Statistica, L.S.D., Roma.

2. Per un’introduzione alle equazioni differenziali ordinarie, vedi L.Lamberti e C.Mascia:

http://www.mat.uniroma2.it/˜triolo/soloEdo.pdf

Per un corso di Calcolo online, c’`e il sito web: http://www.sosmath.com/

3. Collana Schaum: Probabilit`a e Statistica, McGraw-Hill, Milano

4. Corso on-line di Matematica per Biotecnologie, di D.Benedetto (La Sapienza):

http://brazil.mat.uniroma1.it/dario/biotec2007/appunti/appunti.pdf

1. Introduzione

Il programma originariamente scritto per il corso di Matematiche Complementari com- prendeva essenzialmente modelli di dinamica delle popolazioni, dal punto di vista determinis- tico e stocastico. Questi argomenti necessitano naturalmente di una preparazione di base sia sul calcolo differenziale ed integrale che sul Calcolo delle Probabilit`a. Ci`o `e risultato purtroppo difficile da trovare anche tra studenti diligenti e motivati, dopo l’incongrua riduzione per legge della didattica di base.

Si `e quindi rivelato necessario, almeno in quest’anno accademico 2007-08, dover fornire in questa sede, elementi di teoria delle equazioni differenziali ed elementi di Probabilit`a e Statistica. Il programma si `e quindi considerabilmente ridotto nella parte pi`u specificatamente

“ecologica”, prendendo in esame solo le prime equazioni d’evoluzione per una popolazione.

Si spera che miglioramenti apportati a livello di laurea triennale permetteranno in futuro di fornire in questo corso specialistico quelle nozioni matematiche un p`o pi`u avanzate, necessarie per muoversi con maggior facilit`a nell’attuale letteratura scientifica in Ecologia.

In Appendice `e riportato il testo (esteso) di una conferenza rivolta ad un uditorio di ricercatori biologi e medici, sulla modellizzazione matematica in biomedicina.

1

(2)

2. Calcolo Combinatorio

Si esaminano in questo capitolo le nozioni indispensabili di Disposizioni e Combinazioni, presenti sia nel Calcolo, attraverso l’uso dei coefficienti binomiali, che nei primi calcoli prob- abilistici.

2.1. Disposizioni. Dati n elementi diversi, diciamo i numeri {1, 2, 3, ..n}, ci si chiede in quanti modi differenti si possono “disporre” questi n elementi in gruppi di k ≤ n, ponendo cio`e attenzione all’ordine in cui si piazzano i diversi elementi; Dnk `e il numero di tali Disposizioni di n oggetti di classe k.

Ad esempio da un gruppo di ventuno lettere diverse, in quanti modi si possono formare delle “parole” di quattro lettere? Il calcolo di Dnk`e abbastanza rapido: il primo elemento si pu`o scegliere in n modi diversi, il secondo in n−1 modi, fino al k−esimo, in n−k +1 modi restanti, da cui Dkn= n(n−1)..(n−k+1). Quindi, per l’esempio proposto, D421= 21·20·19·18 = 143640.

In particolare, se k = n, le disposizioni di n oggetti di classe n si dicono Permutazioni di n elementi ed il loro numero risulta Pn ≡ Dnn = n(n − 1)..2 · 1; si usa per tale espressione piuttosto comune in matematica il simbolo n! (n fattoriale). Per convenzione si estender`a successivamente la definizione del fattoriale anche ad n = 0, ponendo 0! = 1.

In tal modo si pu`o scrivere l’identit`a Dkn= (n−k)!n! .

Il valore di n! cresce molto rapidamente con n: ad esempio le permutazioni di 52 carte sono circa 8 · 1067.

Un esempio ulteriore: in quanti modi diversi n oggetti diversi (molecole, o persone) pos- sono disporsi in cerchio? Se conta solo l’ordine relativo tra gli elementi, tale numero sar`a (n − 1)!, dato che una rotazione non cambia la posizione relativa degli elementi.

Si possono considerare anche le permutazioni con ripetizioni: consideriamo k elementi diversi, ad esempio lettere dell’alfabeto, vogliamo contare quante parole diverse, lunghe l = n1 + n2 + ..nk si possono formare con n1 copie del primo elemento, n2 copie del secondo elemento,..nk copie del k-esimo elemento; in generale questo numero Pn1,n2,..nk sar`a dato dalla formula

Pn1,n2,..nk = (n1+ n2+ ..nk)!

n1!n2! · ..nk!

Questa formula si ottiene pensando alle permutazioni di n1+ n2+ ..nk elementi diversi, e dividendo poi per le permutazioni corrispondenti alla presenza di n1, n2,..nkcopie del primo, del secondo,.. del k-esimo elemento.

Quindi se abbiamo 4 lettere diverse {a,b,c,d}, quante parole con due a, con tre b, con una c e due d si possono formare? La lunghezza `e quindi 2+3+1+2= 8 e il calcolo si fa dividendo il numero delle permutazioni di 8 elementi (8!) per il prodotto 2!3!2! ottenendo 1680.

2.2. Combinazioni. Dati n elementi diversi, diciamo i numeri {1, 2, 3, ..n}, ci si chiede ora di calcolare in quanti modi differenti si possono “estrarre” gruppi di k ≤ n elementi, senza quindi porre attenzione all’ordine in cui si piazzano i diversi elementi; Cnk `e il numero di tali Combinazioni di n oggetti di classe k.

Il calcolo di Cnk risulta derivabile senza particolari difficolt`a da Dkn:

Cnk= Dnk

k! = n!

(n − k)!k!

(3)

Infatti, fissati k elementi, le loro k! permutazioni corrispondono alla stessa combinazione. Un esempio concreto `e dato dal calcolo di quante combinazioni di 5 carte si possono formare con un mazzo di 52:

C525 = D525

5! = 2598960

In matematica si usa per Cnk il simbolo nk (coefficiente binomiale “n sopra k”) che appare in molte ed importanti formule, ad esempio nello sviluppo del binomio di Newton:

(a + b)n=

n

X

k=0

n k

 an−kbk Dalla definizione segue la propriet`a di simmetria

n k



=

 n

n − k

 e l’importante propriet`a ricorsiva:

n k

 +

 n k + 1



=n + 1 k + 1

 che d`a luogo al cosiddetto triangolo di Tartaglia-Pascal

0 0



1 0

 1

1



2 0

 2

1

 2

2



3 0

 3

1

 3

2

 3

3



4 0

 4

1

 4

2

 4

3

 4

4



. . . . .

= 1 1 1 1 2 1 1 3 3 1 1 4 6 4 1

. . . . .

2.3. Disposizioni con ripetizioni. Concludiamo questi brevi cenni di calcolo combi- natorio con la nozione di Disposizioni con ripetizioni. Supponiamo di dover assegnare targhe diverse ad 106 veicoli: una targa numerica sar`a composta da 6 caselle in ciascuna delle quali

`e presente una cifra da 0 a 9. In effetti se abbiamo n simboli da disporre ( l’ordine conta!) in k caselle, poich`e i simboli possono ripetersi, possiamo scegliere in n modi diversi il simbolo nella prima casella, sempre in n modi diversi quello nella seconda, etc, totalizzando quindi nk differenti disposizioni di n simboli, di classe k con ripetizioni.

Ci si pu`o allora chiedere quante caselle sono sufficienti per assegnare targhe alfabetiche (24 simboli) al milione di auto considerato prima: ora n = 24 e cerchiamo k in modo che 24k≥ 106: prendendo il logaritmo in base 10 si ha

k log 24 ≥ 6 ⇒ k ≥ 6

1.38.. = 4.34.. (244= 331776) Occorrono quindi almeno 5 caselle.

Se aggiungiamo le 10 cifre numeriche, si hanno 34 simboli e dunque il calcolo permette di dire che occorrono solo 4 caselle: infatti

k log 34 ≥ 6 ⇒ k ≥ 6

1.53.. = 3.91.. (344= 1336336)

In linea di principio, basterebbero due simboli {0, 1}, ma il numero di caselle cresce sino a 20:

k log 2 ≥ 6 ⇒ k ≥ 6

0.301.. = 19.93.. (220= 1048576)

(4)

Un altro esempio d’interesse biologico: in quanti modi diversi i quattro simboli A,T,G,C possono formare una stringa lunga 107 (esempio ispirato dal DNA del lievito)? La cifra astronomica 4107 ≈ 106·106 dice che la chimica fornisce vincoli molto forti per la formazione di sequenze “reali” di basi nucleotidiche.

Di particolare interesse `e il caso di n = 2, in cui i due simboli possono essere presi pari a 0 o ad 1.

Una disposizione con ripetizione degli elementi dell’insieme {0, 1}, di classe k, corrisponde ad un particolare sottoinsieme di un generico insieme E di k elementi. Tale corrispondenza si vede nel modo seguente: supponiamo che i k elementi dell’insieme siano individuati dai numeri 1, 2, ..k. Un sottoinsieme di E si determina con una stringa lunga k dei simboli 0 e 1, dove 0 nel posto i-esimo significa assenza dell’elemento i-esimo ed 1 significa presenza di quell’elemento: la stringa composta da tutti 1 corrisponde all’insieme E, quella composta da tutti 0 all’insieme vuoto. Esempio: la stringa di 6 cifre, {1, 0, 1, 0, 0, 0}, corrisponde al sottoinsieme formato dal primo e dal terzo elemento di un insieme di sei elementi.

Tutti i sottoinsiemi, compreso l’insieme vuoto, e l’intero insieme di k elementi saranno allora 2k: si dice in modo sintetico che l’insieme delle parti di un insieme di k elementi, ha 2k elementi. Verifichiamolo come esercizio a partire dalla formula del binomio prendendo a = b = 1: poich`e mk `e il numero di sottoinsiemi con m elementi estratti dall’insieme di k elementi, la loro somma dovr`a essere 2k, ed `e proprio quello che si ottiene dalla formula

(1 + 1)k= 2k=

k

X

m=0

 k m



3. Sistemi dinamici discreti

Lo studio dell’evoluzione di un sistema a tempi discreti, come la crescita di una popo- lazione batterica registrata ad intervalli di tempo di lunghezza costante, `e un argomento di chiaro interesse applicativo, ed `e anche stato alla base di sviluppi recenti nella teoria dei sistemi dinamici (caos deterministico). Formalmente si pu`o anche considerare come una dis- cretizzazione di evoluzioni a tempo continuo, legandosi quindi alle metodologie numeriche per la soluzione di equazioni differenziali. Si considerano qui di seguito gli elementi base della teoria, e qualche applicazione di carattere biologico.

3.1. Equazioni alle differenze del primo ordine. Supponiamo di voler misurare una grandezza y dipendente dal tempo ad intervalli di tempo fissi t1, t2, ..tk, .. (ad es. una popolazione batterica ad ogni ora) e di scoprire che yk≡ y(tk) soddisfa ad una relazione del tipo

yk+1 = αyk+ fk (3.1)

dove α `e un parametro reale ed {fk}; k = 1, 2, .. `e una successione data. `E naturale voler valutare il comportamento di tale grandezza al crescere di k.

Alla forma in (3.1) si arriva anche partendo da una discretizzazione dell‘equazione dif- ferenziale del primo ordine:

˙

y(t) = ay(t) + F (t)

(5)

Si ha infatti, approssimando la derivata con il rapporto incrementale corrispondente ad un

∆t = τ :

yk+1− yk

τ = ayk+ Fk⇔ (3.2)

yk+1= yk+ aτ yk+ τ Fk (3.3)

e si ottiene la forma semplificata (3.1) ponendo α = 1 + aτ, fk= τ Fk

Come nel caso dell’equazione differenziale occorre supplementare la legge d’evoluzione (3.1) con un dato iniziale per ottenere una soluzione unica che soddisfi appunto la condizione iniziale.

In tal caso infatti, dal valore iniziale y0 si ricava y1 = αy0 + f1 e cos`ı via; la legge d’evoluzione con il dato iniziale costituisce un sistema dinamico discreto e lineare.

Vogliamo vedere ora come si pu`o ricavare la soluzione della (3.1) in generale e poi in modo esplicito, nel caso in cui fk≡ f , vale a dire quando il “dato” {fk} si riduce ad una costante.

Come nel caso dei sistemi lineari di equazioni, consideriamo dapprima il sistema omogeneo associato e descriviamone le soluzioni; cerchiamo poi una soluzione particolare del sistema completo (non omogeneo), e naturalmente la somma delle soluzioni sar`a ancora soluzione di (3.1). Il problema sar`a quindi risolto completamente quando si determiner`a la soluzione che soddisfa il dato iniziale.

• Primo passo: cercare le soluzioni dell’equazione omogenea associata (in generale saranno infinite, dipendenti da un parametro reale)

uk+1 = αuk (3.4)

• Secondo passo: cercare una soluzione particolare dell’equazione non-omogenea di partenza

pk+1 = αpk+ fk (3.5)

La soluzione del problema con un dato iniziale specifico si otterr`a considerando la soluzione generale come somma della generica soluzione dell’equazione omogenea e della soluzione par- ticolare, calcolando poi il parametro libero mediante l’imposizione del dato iniziale.

Vediamo dunque che le soluzioni dell’omogenea si ottengono esplicitamente dalla relazione ricorsiva (3.4), dove c `e una costante arbitraria

uk+1= αuk= α(αuk−1) = ... = αk+1c (3.6) La successione soluzione dell’omogenea si pu`o discutere in funzione dei parametri: α = 0 o c = 0 d`a la soluzione identicamente nulla uk ≡ 0, mentre α = 1 d`a una soluzione costante uk ≡ c, k = 1, 2, .., c ha il significato di valore iniziale per la soluzione uk. Continuando nell’analisi, con c 6= 0, se α = −1, uk = (−1)kc, ovvero uk = ±c a seconda della parit`a di k; se α > 1 la soluzione diverge a sign (c)∞, (sign (c) = 1 se c > 0, e −1 se c < 0); mentre se α < −1, |uk| → ∞ per k → ∞, con un cambio di segno per uk ad ogni passo. Infine, se

|α| < 1, uk → 0 per k → ∞.

Di tali andamenti se ne pu`o dare anche una rappresentazione grafica nel piano.

Cerchiamo ora una soluzione particolare dell’equazione non-omogenea, supponendo che il dato fk sia costante: fk ≡ f 6= 0. Troviamo una soluzione anch’essa costante, pk ≡ p, ∀k, se α 6= 1: basta scrivere l’equazione lineare

(6)

p = αp + f (3.7) che ha come soluzione

¯ p = f

1 − α (3.8)

Se invece α = 1, si trova immediatamente una soluzione particolare non costante (pre- cisamente una per cui p1= f ):

pk+1= pk+ f = (pk−1+ f ) + f = pk−1+ 2f = .. = (k + 1)f La soluzione generale di (3.1) sar`a la somma di uk e pk:

per α 6= 1 : yk= αkc + ¯p = αkc +1−αf (3.9)

per α = 1 : yk= c + kf (3.10)

Infine imponendo il dato iniziale, ad esempio il valore y0, per k = 0, si ha la soluzione completa:

per α 6= 1 : yk = αk(y0− ¯p) + ¯p, k = 0, 1, 2, .. (3.11) per α = 1 : yk= y0+ kf, k = 0, 1, 2, .. (3.12) L’analisi si completa valutando l’andamento asintotico per k → ∞: il caso interessante `e quando |α| < 1, perch`e si vede subito che yk → ¯p; notare che il valore limite non dipende dal dato iniziale e costituisce un equilibrio asintoticamente stabile.

In effetti vediamo subito che per α 6= 1, se ponessimo il dato iniziale y0 pari a ¯p, la soluzione resterebbe sempre costante; per`o nel caso α < 1, un dato iniziale diverso porta asintoticamente verso ¯p, mentre per |α| > 1 la soluzione se ne allontana, dato che |yk| → ∞.

Quindi ¯p `e un equilibrio in ogni caso, ma `e stabile (di pi`u, `e globalmente attrattivo) per |α| < 1 ed instabile per |α| > 1.

Infine, per α = 1 non ci sono equilibri (abbiamo supposto f 6= 0).

3.2. Equazioni alle differenze del secondo ordine. Analogamente alle equazioni differenziali di ordine superiore, come ad esempio l’equazione di Newton della dinamica del punto materiale (del secondo ordine), si possono considerare equazioni “discrete” in cui sono coinvolti valori presi in pi`u di due istanti consecutivi.

Consideriamo infatti la discretizzazione dell‘equazione differenziale lineare non omogenea del secondo ordine:

¨

y(t) + a ˙y(t) + by(t) = F (t) Risulta

yk+2− 2yk+1+ yk

τ2 + ayk+1− yk

τ + byk= Fk⇔ (3.13)

yk+2+ (aτ − 2)yk+1+ (1 − aτ + bτ2)yk= τ2Fk (3.14) e si ottiene la forma semplificata

yk+2 = αyk+1+ βyk+ fk (3.15)

ponendo α = 2 − aτ, β = aτ − 1 − bτ2, fk= τ2Fk.

(7)

Procediamo come nel caso precedente, passando all’ omogenea associata e poi alla ricerca di una soluzione particolare della non-omogenea.

• Primo passo: cercare le soluzioni dell’equazione omogenea associata (in generale saranno infinite, dipendenti da due parametri reali)

uk+2= αuk+1+ βuk (3.16)

• Secondo passo: cercare una soluzione particolare dell’equazione non-omogenea di partenza

pk+2 = αpk+1+ βpk+ fk (3.17)

Per l’omogenea cerchiamo soluzioni simili a quelle trovate direttamente nel caso del primo ordine:

uk= rkc (3.18)

Sostituendo in (3.16), si trova per r un’equazione algebrica di secondo grado r2− αr − β = 0(equazione caratteristica)

le cui soluzioni dipendono dai parametri α e β:

• Se α2+ 4β > 0, ci sono due radici reali distinte r+ e r, date da r±= α ±p

α2+ 4β 2

e la soluzione sar`a una sovrapposizione lineare delle due soluzioni uk = c+r+k + crk

• Se α2+ 4β < 0, ci sono due radici distinte complesse coniugate s+ e s, date da s±= α ± ip|α2+ 4β|

2 = ρ exp(±iθ)

dove ρ = |s±| e θ = arg s+; la soluzione sar`a una sovrapposizione del tipo uk= ρk(c1cos(kθ) + c2sin(kθ))

• Se α2+ 4β = 0, ci sono due radici reali coincidenti pari a α/2 una soluzione sar`a del tipo costante per potenze di α/2 e si pu`o verificare che un’altra soluzione `e data da vk= k(α/2)k. La soluzione sar`a quindi una sovrapposizione del tipo

uk= (c1+ c2k)(α 2)k

Soluzioni particolari {pk}, per fk ≡ f le troviamo in modo simile a quello visto precedente- mente per il primo ordine:

• se α + β 6= 1, pk= ˜p =1−α−βf

• se α + β = 1, e α 6= 2, pk = 2−αf k

• se α = 2 e β = −1, pk= k2f /2

(8)

Esempio.

La successione di Fibonacci.

Si tratta di un sistema del secondo ordine definito nel modo seguente : Fk+2= Fk+1+ Fk, k = 0, 1, 2, .., e F0= F1 = 1

Si pu`o arrivare, seguendo lo schema visto prima per le equazioni omogenee alla formula esplicita

Fk= 1

5[(1 +√ 5

2 ])k+1− (1 −√ 5 2 ])k+1] Notare che il rapporto Fk+1/Fk tende per k → ∞, al numero 1+

5

2 = 1.6180.. (sezione aurea), e che malgrado la presenza del numero irrazionale √

5 ≈ 2.2361.. nella formula prece- dente, gli Fk sono tutti numeri naturali.

L’origine di questa successione sta nel Libro XII del Liber Abaci di Leonardo Pisano, detto il Fibonacci (1202): Fk rappresenta il numero di coppie di conigli adulti al k−esimo mese; si suppone che ogni coppia adulta produce ogni mese una coppia che diventa adulta in un mese, e cos`ı via; si parte con una coppia matura, e si suppone anche che ogni coppia rimane per sempre nella conigliera...In tal modo la successione `e data da 1, 1, 2, 3, 5, 8, 13, ...

Si pu`o anche osservare che il numero delle coppie immature corrisponde alla stessa suc- cessione spostata di un posto, 0, 1, 1, 2, 3, 5, 8, .., per cui la popolazione totale ad ogni tempo `e data ancora da una successione dello stesso tipo 1, 2, 3, 5, 8, 13, ... Il comportamento asintotico descritto sopra significa che per valori grandi di k l’evoluzione degli Fk `e bene approssimata da una crescita esponenziale (il rapporto tra le popolazioni successive `e vicino a 1.6 > 1).

4. Elementi di Probabilit`a e Statistica

Si inizia questa sezione conclusiva con alcune nozioni elementari di Statistica descrittiva, introducendo gli indici pi`u usati nell’analisi di dati, per poi passare ad esporre qualche ele- mento del Calcolo delle Probabilit`a, e concludendo con una breve esposizione preliminare di Statistica inferenziale.

4.1. Statistica descrittiva. La Statistica descrittiva consiste nella costruzione di op- portuni indici e/o di grafici per ordinare in modo razionale ed efficiente i dati raccolti. La raccolta dei dati si fa tramite un Campionamento. Poich`e l’acquisizione di dati da un’intera popolazione= classe di individui o unit`a potrebbe essere onerosa, se ne prende un sottoin- sieme (campione) cercando di non distorcerne la rappresentativit`a. Il numero n di individui selezionati forma un campione di ampiezza, o rango n, (Refs 1,3).

4.1.1. Indici di posizione. Il campione consista in n misure (o valori) {x1, x2, ..., xn}; si definiscono i seguenti indici:

• media (campionaria) x (`e la media aritmetica dei valori registrati):

x := 1 n

n

X

k=1

xk

(9)

• media geometrica xg(per dati, o valori, positivi):

xg := (

n

Y

k=1

xk)1n

Notare che la media geometrica `e l’esponenziale della media aritmetica dei logaritmi dei dati

xg= en1Pnk=1log xk = 10n1Pnk=1log10xk

• mediana med {x1, x2, .., xn}: ordiniamo i valori presi, vale a dire li numeriamo in modo tale che x1≤ x2 ≤ ... ≤ xn;

– se n `e dispari, med {x1, x2, .., xn} = x(n+1)/2, – se n `e pari, med {x1, x2, .., xn} = 12(xn/2+ x1+n/2)

Ad esempio, i 10 numeri qui elencati (gi`a ordinati) rappresentino dei voti presi nell’esame di Matematica da un campione di 10 studenti, {21, 21, 22, 24, 24, 25, 26, 27, 27, 30};

la loro media `e 24.7, mentre la mediana `e 24,5.

4.1.2. Indici di variabilit`a. Per valutare quantitativamente quanto i dati siano sparsi o raggruppati si possono introdurre:

• l’intervallo di variazione, o campo ∆ ( in inglese, range)

∆ = max{x1, x2, .., xn}−min{x1, x2, .., xn}, ovvero per dati ordinati, ∆ = xn−x1.

• Varianza campionaria S2: S2 ≡ 1

n

n

X

k=1

(xk− x)2 = 1 n

n

X

k=1

xk2− x2(dallo sviluppo dei quadrati)

Le differenze xk− x sono gli scarti dalla media, e vale per essi l’identit`a evidente

n

X

k=1

(xk− x) = 0

Talvolta, in alcuni testi la varianza campionaria S2`e definita con il fattore davanti alla somma dei quadrati degli scarti pari a 1/(n − 1) anzich`e 1/n. Con questa scelta il significato della varianza come stimatore delle caratteristiche della popolazione diventa pi`u preciso. La radice quadrata S della varianza campionaria si dice deviazione standard.

Esempi. Supponiamo per valutare la qualit`a di semi di un vivaio, si prendano 7 sacchetti da 100 semi e si contino quanti semi per ognuno di essi germinano correttamente; si trovi {82, 75, 60, 54, 91, 58, 63}.

Il range `e dato da 91 − 54 = 37.

La media risulta x = 17P7

k=1xk= 483/7 = 69.

Gli scarti dalla media sono {13, 6, −9, −15, 22, −11, −6}, per cui la varianza campionaria risulta S2= 17P7

k=1(xk− 69)2 = 164.5, e la deviazione standard `e S ≈ 12.8.

Naturalmente una media alta (vicino a 100), con una deviazione standard piccola (rispetto alla media) sono indici di buona qualit`a del prodotto. `E anche chiaro che una valutazione pi`u accurata si avrebbe con un campione pi`u numeroso.

Da questo esempio si capisce che compito essenziale della statistica `e quello di fare affer- mazioni globali (sull’intera popolazione), razionalmente basate sui dati disponibili a partire da un campione (inferenza).

(10)

4.1.3. Quantili ed istogrammi. Se ordiniamo i dati come `e stato visto in precedenza, si dice che costituiscono una statistica ordinata.

Data una statistica ordinata {x1, x2, .., xn}, dividiamo l’intervallo [x1, xn] in quattro parti tali che in ciascuna caschi lo stesso numero di valori: vale a dire, un quarto o il 25% del rango del campione, con opportune correzioni se n/4 non `e intero. Per scrivere l’argomento in modo preciso, occorre premettere la definizione di parte intera, [x], di un generico numero reale x.

Si tratta semplicemente del massimo tra i numeri interi che siano minori od eguali al numero stesso; pertanto, se il numero x `e intero, coincide con la sua parte intera [x]; se non `e intero,

“si va indietro” fino ad arrivare al primo intero (minore di x). Ovviamente, per un qualunque x, [x] ≤ x < [x] + 1. Esempi: [10/5] = [2] = 2, [10/4] = [2.5] = 2, [π] = 3, [−1.5] = −2...

Tornando alla definizione di quartile, se n/4 non `e intero, (ovvero n/4 > [n/4]), il primo quartile q25 `e dato dal valore di quell’x avente come indice il primo intero maggiore di n/4, (cio`e [n/4] + 1); se invece n/4 `e intero (n/4 = [n/4]), q25`e la media aritmetica tra l’x avente come indice proprio n/4 ed il successivo; analogamente per gli altri due quartili (q50 e q75).

Naturalmente q50 coincide con la mediana.

In formule:

q25=

 x[n

4]+1 se n/4 non `e intero

1 2(xn

4 + xn

4+1) se n/4 `e intero

Per i dati introdotti inizialmente {21, 21, 22, 24, 24, 25, 26, 27, 27, 30}, q25 = 22, q50 = 24.5, q75 = 27, che si legge nel modo seguente: il 25% dei voti sono tra il minimo (21) e 22, un altro 25% tra 22 e 24.5, ( e quindi 50% tra il minimo e 24.5), un altro 25% tra 24.5 e 27, ed infine l’ultimo quarto tra 27 ed il massimo 30.

Questo discorso pu`o farsi anche per diverse percentuali (quantili), e descrive in modo quantitativo la distribuzione dei dati.

Un’utile rappresentazione grafica della statistica si fa tramite l’istogramma. Partendo dalla statistica ordinata, si divide l’intervallo I = [x1, xn] in m parti non necessariamente eguali: I = ∪mk=1Ik, eseguendo questa partizione sull’asse delle ascisse.

Si costruiscono poi m rettangoli, il k-esimo con base Ik, detti classi,e con area pari al cor- rispondente numero nk di dati della statistica, (cio`e che capitano in Ik) (se le basi sono eguali, le altezze sono proporzionali alle aree, e quindi le ordinate corrispondono alle frequenze). Tal- volta, sopratutto quando il campione `e molto ampio, conviene normalizzare: invece di nk si considerano le frequenze fk := nk/n. Le relazioni corrispondenti sono

m

X

k=1

nk= n;

m

X

k=1

fk= 1

Se le classi hanno stessa ampiezza, quella con maggiore altezza si dice classe modale o moda; nel caso in figura, `e quella con estremi 20 e 28.

4.1.4. Correlazione e regressione. Quando si esaminano due grandezze diverse sullo stesso campione (es. per un campione di persone, peso e altezza, peso e consumo di grassi, etc) `e certamente interessante sapere se ci sia una qualche relazione tra le grandezze in esame e valutarla anche quantitativamente.

(11)

y

1215 25 20

4 12 20 28 36 44

× × × × × ×

−−

x 6

-

Figure 1. Un istogramma non normalizzato con m = 6, n = 84, x1 = 4, x84= 44

Siano {x1, x2, .., xn} e {y1, y2, .., yn} i valori registrati per le due grandezze X e Y, e x, y le corrispondenti medie. Si definisce covarianza (tra X e Y), la seguente quantit`a:

σXY ≡ 1 n

n

X

i=1

(xi− x)(yi− y) = 1 n

n

X

i=1

xiyi− xy

Ricordando la disuguaglianza di Cauchy-Schwartz (vedi alla fine della sezione), e la definizione di deviazione standard, si ha che

−σXσY ≤ σXY ≤ σXσY

Quindi il coefficiente di correlazione

ρXY = σXY

σXσY

`e compreso tra −1 ed 1: valori positivi (negativi) corrispondono ad una correlazione positiva (negativa), e un valore nullo corrisponde ad assenza di correlazione (lineare).

Esempio. Sia xi, per i = 1, 2, ..5 la quantit`a X di grassi assunti, in grammi al giorno, dalla persona i-esima, ed yi, per i = 1, 2, ..5 la quantit`a Y di calorie assunte al giorno dalla stessa persona. Precisamente per la X si registrano i valori {63, 64, 23, 128, 82} e per Y si registrano i valori {1800, 2000, 1100, 4100, 1900}. Sviluppando i calcoli, dopo aver normalizzato la Y con un fattore 100, si ha:

x = 72, σX ≈ 34; y = 21.80, σY ≈ 10.10; σXY ≈ 323

Da qui si ha per il coefficiente di correlazione ρXY = 0.94, mostrando quindi una correlazione fortemente positiva.

Questi concetti si applicano nel calcolo della retta di regressione. Supponiamo di associare alle coppie di valori (xi, yi), per i = 1, 2, ..n, i punti nel piano (X, Y ), di ascisse ed ordinate corrispondenti. In generale questi punti saranno “dispersi” nel piano (fig. 2), ma talvolta `e visibile un certo allineamento (fig. 3)

Il calcolo permette di determinare in ogni caso (non degenere) la retta nel piano (XY ) che minimizza lo scarto quadratico dei dati da essa ∆(a, b) ≡Pn

i=1(yi− axi− b)2(metodo dei

(12)

y

×

×

×

× ×

×

x 6

-

Figure 2. Dati molto dispersi y

×

×

×

×

×

×

x 6

-

Figure 3. Dati alquanto allineati

minimi quadrati): consiste nel cercare i parametri a e b della retta di equazione y = ax + b, in modo tale che ∆(a, b) sia minimo. Cerchiamo quindi a e b tali che

∂∆(a, b)

∂a = 0; ∂∆(a, b)

∂b = 0 vale a dire

 Pn

i=1(yi− axi− b) = n(y − ax − b) = 0 Pn

i=1xi(yi− axi− b) = n[σXY − aσX2+ x(y − ax − b)] = n[σXY − aσX2] = 0 (l’ultima eguaglianza si ottiene usando la relazione immediatamente precedente).

Si ha in definitiva

a = σXY

σ2X , b = y − ax = y − σXY σX2 x Per l’esempio precedente si ha che a ≈ 0.28, b ≈ 1.64

(13)

Cal × 10 13

×

××

×

×

Gras 6

-

Figure 4. Dati e retta di regressione (Calorie/Grassi)

Le nozioni di correlazione e regressione possono estendersi anche in un contesto nonlineare (vedi Ref.3).

La disuguaglianza di Cauchy-Schwartz ha un’utilizzazione assai frequente in Matematica, e conviene quindi vederla un p`o in dettaglio.

Per qualunque scelta dei numeri (a1, a2, ..an) e (b1, b2, ..bn), `e sempre vero che

(

n

X

i=1

aibi)2 ≤ (

n

X

i=1

a2i)(

n

X

i=1

b2i) ⇔ |

n

X

i=1

aibi| ≤ v u u t

n

X

i=1

a2i v u u t

n

X

i=1

b2i

La dimostrazione consiste nell’osservare che per ogni λ, 0 ≤

n

X

i=1

(ai+ λbi)2 =

n

X

i=1

a2i + 2λ

n

X

i=1

aibi+ λ2

n

X

i=1

b2i

Per cui il discriminante (Pn

i=1aibi)2− (Pn

i=1a2i)(Pn

i=1b2i) dev’essere nonpositivo.

4.2. Elementi di Probabilit`a. La nascita della teoria della Probabilit`a si pu`o collocare nel diciassettesimo secolo (Fermat, Pascal, Huyghens), per la valutazione delle corrette as- pettative nell’ambito del gioco d’azzardo e delle assicurazioni. Successivamente fu introdotto il Calcolo delle Probabilit`a per opera di Laplace (1774) e Bernoulli (1778). Rinviando ai manuali specifici per osservare lo sviluppo di questa disciplina, attualmente assai rilevante sia nelle applicazioni alle scienze fisiche, biologiche ed economiche, che negli sviluppi teorici, limi- tiamoci ai primi elementi indispensabili per ottenere un modello matematico dell’incertezza (e del rischio).

4.2.1. Definizioni di Probabilit`a. Risulta intuitivamente chiaro, quando si getta un dado a sei facce (numerate 1,2,..6), o una moneta (T o C), cosa significa ad es. che la probabilit`a che “esca” T sia di 1/2 = 50%; analogamente la probabilit`a che il dado mostri la faccia 1 sia di 1/6; ed egualmente la probabilit`a che il dado mostri un numero pari sia 1/2. In tutti questi casi l’evento aleatorio si manifesta in una sola modalit`a su due o su sei, nei primi due esempi, ed in tre modalit`a su sei nel terzo (infatti “faccia pari” significa che esca due, quattro o sei).

Formalizzando un p`o, se un evento E pu`o verificarsi in kE modalit`a egualmente probabili, su

(14)

un totale di n, la probabilit`a P (E) di E `e data da P (E) = kE

n

Questa definizione `e alquanto limitata e implica la conoscenza di “eguale probabilit`a” prima di aver definito la probabilit`a.

Conviene quindi passare ad una definizione “assiomatica”.

In analogia all’assegnazione delle masse ai corpi materiali, si associano dei numeri com- presi tra 0 ed 1 agli eventi aleatori in esame. Quest’assegnazione potrebbe essere speri- mentalmente verificata: se consideriamo la solita moneta, dove l’evento aleatorio consiste nel gettarla su di un piano avendole impresso un buon momento angolare, in un numero n di prove ripetute uscir`a T un numero kn(aleatorio) di volte. La legge dei grandi numeri, conseguenza dell’impostazione assiomatica del Calcolo delle Probabilit`a, dice che

n→∞lim kn

n = 1 2

Quindi la frequenza relativa knn dell’evento, in n prove indipendenti, tende alla probabilit`a ( questa propriet`a, nel cosiddetto approccio frequentistico, fornisce la definizione della proba- bilit`a di un evento).

Per sviluppare un p`o il calcolo occorre per`o dare qualche definizione generale.

Partiamo dallo spazio degli eventi S, i cui elementi sono gli eventi elementari (es. Smon.= {T, C}; Sdado = {1, 2, 3, 4, 5, 6}), ed i cui sottoinsiemi sono gli eventi generici (per il dado un evento non elementare, potrebbe essere {1} ∪ {2} da leggere, “uno o due”). `E opportuno considerare tra gli eventi anche l’insieme vuoto ∅. In generale quindi due sottoinsiemi A e B di S sono due eventi, e anche A ∪ B (A o B), o A ∩ B (A e B) sono altri due eventi, cos`ı come Ac(complementare di A) `e l’evento “non A”. Esempi.

• Per il dado l’evento P (“esce un numero pari”) si pu`o scrivere come P = {2, 4, 6} = {2}∪ {4}∪ {6} e l’evento complementare D (“esce un numero dispari”)si pu`o scrivere come D = Pc= {1, 3, 5} = {1} ∪ {3} ∪ {5}

• Sempre per il dado, l’evento P (“esce un numero pari”) e l’evento B (“esce un numero minore di 3”) hanno un’intersezione P ∩ B = {2, 4, 6} ∩ {1, 2} = {2} (= “esce un numero pari e minore di 3”); l’evento unione sar`a P ∪ B = {2, 4, 6} ∪ {1, 2} = {1, 2, 4, 6} (= “esce un numero pari o un numero minore di 3”).

Una volta definito uno spazio S = {x1, x2, ..xn} (qui considerato finito per semplicit`a), la probabilit`a consiste nell’assegnazione di un valore numerico compreso tra zero ed uno agli eventi elementari ( quindi `e una funzione p : S → [0, 1], definita sullo spazio degli eventi) con le propriet`a seguenti, che permettono di definirne il valore per tutti gli eventi:

p(∅) = 0; p(S) =

n

X

i=1

p(xi) = 1; p(A) = X

xi∈A

p(xi)

L’assegnazione della probabilit`a agli eventi di uno spazio di n eventi elementari `e del tutto simile ad assegnare le masse degli n punti materiali elementari (gli “atomi”), con la con- venzione che la massa totale sia uno, e valutando la massa dei corpi formati da pi`u punti semplicemente sommando le masse degli atomi costituenti.

Come conseguenza della definizione si ha dunque che per due eventi disgiunti (A ∩ B =

∅) vale la propriet`a additiva p(A ∪ B) = p(A) + p(B); questo significa che per due eventi mutuamente esclusivi, e cio`e che non possono mai verificarsi assieme, (per il dado, A = P e

(15)

B = {1}), la probabilit`a che si realizzi l’evento A o l’evento B `e la somma delle rispettive probabilit`a.

Si inoltre, dalla definizione, che p(Ac) = 1 − p(A) (la probabilit`a che piova o che non piova

`e uno..) e che se A ⊂ B, p(A) ≤ p(B).

Una probabilit`a p su di uno spazio finito S = {x1, x2, ..xn} si dice uniforme se p(xi) = 1/n, i = 1, 2, ..n. Questo `e il caso della moneta (n = 2) o del dado (n = 6).

La probabilit`a dell’intersezione di due eventi introduce una importante nozione tipica- mente probabilistica (dipendenza/indipendenza) che vedremo in seguito. Per ora calcoliamo in base alla definizione, nel caso del dado, p(P ∩B), dove P corrisponde a “uscita di un pari”, e B a “uscita di un numero minore di tre”: bisogna osservare che P ∩B = {2, 4, 6}∩{1, 2} = {2}, e quindi p(P ∩ B) = 1/6.

Esempi.

• Il gioco del lotto: fissata una ruota, si estraggono 5 numeri su di un totale di 90. Lo spazio S consiste quindi nelle combinazioni di 90 elementi di classe 5 (in totale sono

90

5 = 43949268); la probabilit`a uniforme `e dunque, per qualunque combinazione x, p(x) = 1/43949268 ≈ 2.3 · 10−8.

• Il DNA: sono presenti nel DNA umano i nucleotidi A (adenina), G (guanina), C (citosina) e T (timina) (primi due sono purine ed i secondi pirimidine), in percentuali tali da poter assegnare le seguenti probabilit`a

p(A) = 0.304; p(G) = 0.196; p(C) = 0.199; p(T ) = 0.301

La probabilit`a di estrarre a caso una purina sar`a quindi p(pur) = p(A) + p(G) = 0.304 + 0.196 = 0.5 e sar`a quindi eguale alla probabilit`a che venga una pirimidina.

• Esempio del compleanno in comune.

Supponendo che gli anni abbiano 365 giorni, che le nascite avvengano con la stessa probabilit`a, ed indipendentemente per diversi individui, calcolare la probabilit`a che almeno due persone in un gruppo di r ≥ 1, abbiano il compleanno in comune. Ad ogni giorno dell’anno corrisponde un numero tra 1 e 365, quindi lo spazio degli eventi

`

e costituito dalle disposizioni con ripetizione di classe r di 365 oggetti, quindi da 365r elementi. `E facile valutare la probabilit`a Pc dell’evento complementare, e cio`e che non ci sia alcun compleanno in comune: tutte le possibili date di compleanno delle r persone senza ripetizioni, sono tante quante le disposizioni di 365 oggetti di classe r (365(365 − 1)(365 − 2)...(365 − r + 1)), quindi

Pc= 365(365 − 1)(365 − 2)...(365 − r + 1)

365r = 1(1 − 1

365)(1 − 2

365)...(1 − r − 1 365 ) La probabilit`a cercata `e 1 − Pc e svolgendo i calcoli si vede mentre per r = 2, si ottiene 1 − 364/365 = 0.00273.., per r > 23, questo valore supera 0.5.

• La coppia di dadi.

Per una coppia di dadi lo spazio degli eventi `e il prodotto nel senso insiemistico degli spazi corrispondenti ai due dadi: per ogni uscita del primo dado sono possibili sei del secondo, quindi lo spazio ha 36 elementi (eventi elementari), ad ognuno dei quali si attribuisce la probabilit`a 1/36 (notare che risulta il prodotto delle probabilit`a relative agli eventi “fattori” 1/6 · 1/6). La domanda interessante (soprattutto per i giocatori) `e: qual’`e la probabilit`a di ottenere un dato punteggio (somma dei punti dei due dadi)? Basta valutare a quali eventi corrispondono i vari punteggi e calcolarne le probabilit`a.

(16)

Punteggio Eventi Probabilit`a

k = 2 (1, 1) 1/36

k = 3 (1, 2) ∪ (2, 1) 1/18

k = 4 (1, 3) ∪ (2, 2) ∪ (3, 1) 1/12

k = 5 (1, 4) ∪ (2, 3) ∪ (3, 2) ∪ (4, 1) 1/9 k = 6 (1, 5) ∪ (2, 4) ∪ (3, 3) ∪ (4, 2) ∪ (5, 1) 5/36 k = 7 (1, 6) ∪ (2, 5) ∪ (3, 4) ∪ (4, 3) ∪ (5, 2) ∪ (6, 1) 1/6 k = 8 (2, 6) ∪ (3, 5) ∪ (4, 4) ∪ (5, 3) ∪ (5, 2) 5/36 k = 9 (3, 6) ∪ (4, 5) ∪ (5, 4) ∪ (6, 3) 1/9

k = 10 (4, 6) ∪ (5, 5) ∪ (6, 4) 1/12

k = 11 (5, 6) ∪ (6, 5) 1/18

k = 12 (6, 6) 1/36

4.2.2. La distribuzione geometrica. Supponiamo di sapere che la probabilit`a di cogliere un bersaglio al tiro a segno sia pari a p, 0 < p < 1; consideriamo l’evento Bn≡{ i primi n-1 tiri non colpiscono, ma l’ennesimo s`ı}. Risulta dunque che P r{Bn} = qn−1p; q ≡ 1 − p; per le propriet`a delle progressioni geometriche

X

n=0

qn= 1

1 − q, pertanto

X

n=1

qn−1p = 1

Vedremo pi`u avanti altri aspetti di questa distribuzione, nella sezione riguardante le variabili aleatorie.

4.2.3. La distribuzione binomiale. Questa distribuzione fornisce la probabilit`a che un evento di probabilit`a 0 < p < 1 si ripeta (esattamente) 0 ≤ k ≤ n volte su n prove in- dipendenti. Ad esempio si pu`o pensare all’uscita di k = 3 volte del numero uno in n = 10 lanci di un dado (p = 1/6), o di k = 300 volte T in n = 500 lanci di una moneta (p = 1/2).

Il calcolo consiste nel considerare prima la probabilit`a di una particolare successione di prove in cui l’evento si ripete esattamente k volte, e quindi di probabilit`a pk(1 − p)n−k, e di contare poi quante sequenze lunghe n contengono lo stesso numero k di successi ( nk). `E cruciale qui l’indipendenza delle prove, che permette di calcolare, ad esempio la probabilit`a di A1 = {si verifica l’evento solo nella prima prova}: P (A1) = p(1 − p)n−1. Analogamente la probabilit`a di Ai, sar`a la stessa ∀i, e quella di Ai,j, dove Ai,j ={si verifica l’evento solo nelle prove i-esima e j-esima}, i 6= j, `e data da P (Ai,j) = p2(1 − p)n−2; il calcolo si generalizza a k successi in k prove diverse.

Analogamente al punteggio di un dado, associato al presentarsi della corrispondente faccia,

`e opportuno associare all’evento in esame ( verificarsi di k successi in n prove indipendenti),un numero X(n, p), definita dal numero di “successi” (vale a dire del verificarsi dell’evento di probabilit`a p) nelle n prove ripetute, ha lo stesso valore k per tutti questi nk eventi esclusivi, corrispondenti ciascuno a fissare su quali delle k prove si `e verificato l’evento; quindi per la propriet`a additiva, si ha P r(X(n, p) = k) = Pkn(p) = nkpk(1 − p)n−k.

Osserviamo che, come dev’essere per ogni distribuzione di probabilit`a, poich`e X(n, p) assume certamente un valore tra 0 ed n,

XP r(X(n, p) = k) =

n

X

k=0

n k



pk(1 − p)n−k = (p + 1 − p)n= 1

(17)

Prima di tornare su altri aspetti teorici assai rilevanti della distribuzione binomiale, vedi- amone una rappresentazione grafica in un caso particolare ed un paio di esempi.

k Pk100

10 20 30 40 50 60 80 100 0.02

0.04 0.06 0.08 0.1

6

-

Figure 5. Alcuni punti del grafico della distribuzione binomiale con p = 0.2, n = 100

Si vede abbastanza chiaramente un andamento “a campana” attorno al valor medio 20;

si torner`a pi`u avanti su questo punto di portata assai generale.

Vediamo ora un altro esempio che si colloca all’inizio (frivolo) del calcolo delle probabilit`a.

• Problema di S.Pepys (posto a Newton nel 1693): `e pi`u probabile che l’uno esca al- meno una volta in sei lanci di un dado (evento E1), o che esca almeno due volte in dodici lanci (evento E2)? La prima probabilit`a si calcola usando la distribuzione binomiale corrispondente a sei prove relativamente ad un evento elementare di prob- abilit`a 1/6: l’evento complementare ad E1, ovvero “uno non esce neppure una volta in sei prove” ha la probabilit`a corrispondente a zero successi, vale a dire P06(1/6) = (1 − 1/6)6 = (5/6)6 = 0.334898..; pertanto P (E1) = 1 − 0.3349.. = 0.6651... Anche per valutare P (E2) conviene passare al complementare, e si ottiene quindi: P (E2) = 1 − [P012(1/6) + P112(1/6)] = 1 − [(5/6)12+ 12/6(5/6)11] = 1 − 0.3813.. = 0.6187..

Concludiamo quindi che E1 ha una probabilit`a maggiore di E2.

4.2.4. La Probabilit`a condizionata. Vediamo un p`o pi`u in dettaglio la nozione di indipen- denza, poich`e talvolta la si assume per poi sviluppare i calcoli successivi. Ad esempio, nel lancio simultaneo di un dado e di una moneta, se le procedure di lancio si possono considerare non legate tra loro, gli eventi elementari congiunti si considerano indipendenti, in modo tale che, se ε denota T o C, e k un intero tra 1 e 6, P (ε, k) = P (ε)P (k) = 1/2 · 1/6 = 1/12. Se invece, per un misterioso dispositivo che accoppia i due lanci, quando la moneta d`a T, il dado mostra solo facce dispari (uniformemente), e quando esce C, il dado esce pari, non ci sar`a pi`u indipendenza: P (T, 1) = P (T, 3) = P (T, 5) = 1/6, e P (T, 2) = P (T, 4) = P (T, 6) = 0, e simmetricamente per P (C, k). Come si vede la probabilit`a che esca T senza guardare l’uscita del dado (probabilit`a marginale dell’evento T) `e sempre 1/2, e cos`ı anche le altre probabilit`a marginali, ma certamente non si verifica l’indipendenza tra gli eventi congiunti.

In generale, in uno spazio di probabilit`a {S, P }, non saranno mai indipendenti un evento A 6= S con 0 < P (A) < 1 ed il suo complementare Ac, dato che P (A ∩ Ac) = P (∅) = 0 6=

P (A)(1 − P (A)).

(18)

Anche per due eventi A e B tali che B ⊂ A, (A implica B), con P (B) < P (A) < 1, si ha che P (A ∩ B) = P (B) 6= P (A)P (B).

La nozione di dipendenza porta all’importante nozione di probabilit`a condizionata cos`ı definita.

Se P (B) > 0, la probabilit`a condizionata di A, dato B, (B `e l’evento condizionante, ed A quello condizionato), in simboli P (A|B), `e

P (A|B) := P (A ∩ B) P (B)

E facile verificare che, fissato B, la probabilit`` a condizionata, come funzione di A (generico evento di S), gode delle stesse propriet`a della probabilit`a, con l’ovvia relazione P (B|B) = 1.

Esprime quindi la variazione dell’assegnazione delle probabilit`a, quando si sa che l’evento B si `e verificato.

Naturalmente se i due eventi A e B sono indipendenti, P (A|B) = P (A ∩ B)

P (B) = P (A); P (B|A) = P (B ∩ A)

P (A) = P (B) mentre se sono identici (A = B), vale a dire estremamente dipendenti,

P (A|A) = P (A ∩ A)

P (A) = P (A) P (A) = 1 Esempio.

Nel lancio del dado, calcoliamo le P (k|D), dove k = 1, 2, .., 6 e D = {1, 3, 5} (quindi la condizione D, l’evento dato, `e l’uscita di un dispari). Si ha P (k|D) = 0 se k `e pari, e P (k|D) = 1/3 se k `e dispari.

E opportuno esaminare nel seguente esempio l’origine di un diffuso pregiudizio, le strategie` da seguire nel gioco del lotto basate sui cosiddetti ritardi. Consideriamo, senza perdere l’essenziale, ma con maggiore semplicit`a espositiva, che i lanci successivi di una moneta (T o C) siano indipendenti e che si sia verificata una (assai improbabile) successione di 100 T.

Il pregiudizio consiste nel pensare che nel centounesimo lancio, quasi che la moneta debba pareggiare i conti, ci si deve aspettare l’uscita di C con maggior fiducia: cio`e che la prob- abilit`a di C sia maggiore di 1/2. Ci`o `e naturalmente falso, per l’indipendenza delle prove ripetute; l’errore si avvalora talvolta di valutazioni numeriche, consistente in questo caso nell’uso scorretto della disuguaglianza (corretta) seguente:

P (X101(1/2) = 0) = (1

2)101 < P (X101(1/2) = 1) = 101(1 2)101

Qui l’evento di maggiore probabilit`a consiste nell’uscita di una (sola) C in 101 lanci, ma indipendentemente dal fatto che ci`o avvenga nella prima, nella seconda, o nell’ultima (la centounesima) prova, mentre l’evento in cui si `e interessati consiste nell’uscita di C al cen- tounesimo lancio, e la sua probabilit`a, sempre pari a 1/2, non dipende da cosa si `e verificato nelle prime cento prove.

Anzi, come si `e verificato nelle case da gioco, osservazioni prolungate di uscite di numeri al gioco della roulette possono dare indicazioni sul fatto che sia apprezzabile una piccola differenza tre le probabilit`a di uscita dei numeri stessi (utilizzabile per puntate ben studiate);

nel caso precedente, l’uscita di 100 T potrebbe suggerire che la moneta sia truccata (vedi il cap.

sull’inferenza statistica), e che quindi ci si potrebbe piuttosto attendere che al centounesimo lancio esca ancora T (perch`e con buona probabilit`a la moneta ha due T!).

(19)

Applicazioni assai importanti della nozione di condizionamento derivano dalla seguente formula, (qui in forma semplificata), che riguarda la valutazione dell’inversione del ruolo tra evento condizionante ed evento condizionato.

Formula di Bayes

Se P (A)P (B) > 0, vale l’identit`a P (B|A) = P (A|B)P (B)

P (A) = P (A|B)P (B)

P (A|B)P (B) + P (A|Bc)(1 − P (B))

La dimostrazione `e un semplice esercizio sulla definizione di probabilit`a condizionata, ed usa la decomposizione, del tutto generale, di un evento A nell’unione di due eventi tra loro complementari (usando E = B ∪ Bc, A = A ∩ E, e quindi A = (A ∩ B) ∪ (A ∩ Bc):

P (B|A) = P (A ∩ B)

P (A) = P (A|B)P (B)

P (A ∩ B) + P (A ∩ Bc) = P (A|B)P (B)

P (A|B)P (B) + P (A|Bc)(1 − P (B)) L’interesse di questa relazione si pu`o apprezzare in questo esempio (di uso corrente nella pratica epidemiologica e farmacologica), dove si vede in concreto il significato di probabilit`a condizionata.

Valutazione del falso positivo e del falso negativo.

In generale un test clinico non `e mai perfetto: per un individuo sottoposto a test, il risultato pu`o essere positivo T+, o negativo T sia se l’individuo `e malato (M ), o se sano (S := Mc); si definisce sensibilit`a del test la probabilit`a condizionata P (T+|M ), vale a dire la probabilit`a che il test sia positivo in presenza della malattia, e specificit`a del test, la probabilit`a condizionata P (T|S), vale a dire la probabilit`a che il test sia negativo in assenza della malattia. Un buon test dovrebbe avere entrambe vicino ad uno (ed infatti la loro somma definisce l’efficienza del test).

Supponendo di conoscere quanto l’infezione sia diffusa, in termini di P (M ) (probabilit`a che un individuo sia malato), vogliamo calcolare la probabilit`a f+ del falso positivo, vale a dire f+ = P (S|T+) = 1 − P (M |T+), ed anche quella del falso negativo f = P (M |T) = 1 − P (S|T).

Risulta (ripetendo la deduzione dell’identit`a di Bayes) P (M |T+) = P (M ∩ T+)

P (T+) = P (T+|M )P (M ) P (T+)

Il denominatore P (T+) lo calcoliamo mediante la decomposizione in parti disgiunte

P (T+) = P (T+∩ (M ∪ S)) = P (T+∩ M ) + P (T+∩ S) = (P (T+|M )P (M ) + P (T+|S)P (S) Le quantit`a P (T+|S) e P (S) sono note dai dati del problema, poich`e P (T+|S) = 1 − P (T|S) e P (S) = 1 − P (M ).

Vediamo ora un caso numerico: se P (T|S) = 0.80, P (T+|M ) = 0.90, P (M ) = 0.01, calcolare f+ ed f. Valutiamo prima P (T+):

P (T+) = P (T+|M )P (M ) + P (T+|S)P (S) = 0.90 · 0.01 + (1 − 0.80)(1 − 0.01) = 0.207 Completando

f+= 1 − P (M |T+) = 1 −0.90 · 0.01

0.207 = 1 − 0.0435 = 0.956 Risulta assai alto! Analogamente si trova f= 0.0013

Variando i valori numerici, si ottengono risultati assai differenti: se ad esempio fosse P (M ) = 0.10, ed il resto invariato, si avrebbe f+= 0.667 e f= 0.014.

(20)

Vediamo ora un altro esempio simile, ma in contesto studentesco: consideriamo aleatori l’esito e la preparazione di un esame.

Sia S l’evento { superare l’esame} (ed Sc { il non superarlo}); sia B l’evento {avere una buona preparazione}, (ed Bc {il non averla}).

Supponiamo che

P (S) = 0.8, P (B) = 0.6; P (S|B) = 0.95 Pu`o essere interessante valutare

P (S|Bc); P (B|S); P (Sc|B)

La prima probabilit`a condizionata potrebbe riguardare il ruolo della fortuna per chi non si prepara bene, la seconda valuta l’efficacia dell’esame, come garanzia di buona preparazione, e la terza il peso della sfortuna per chi si `e ben preparato. Con quei dati si ottiene

P (S|Bc) = 0.58; P (B|S) = 0.71; P (Sc|B) = 0.05

Cambiandoli, si apprezza cosa determina le differenze, anche notevoli, nei risultati.

4.3. Le variabili aleatorie, v.a. Come nel caso del dado, dove l’uscita di una faccia pu`o formularsi in termini numerici, dicendo che la variabile numerica punteggio ha proprio il valore corrispondente ai punti mostrati dalla faccia uscita, cos`ı pi`u in generale `e utile definire una variabile numerica associata ad eventi aleatori (questa funzione, definita sullo spazio degli eventi E, si chiama appunto variabile aleatoria, o casuale).

In tal modo i dati della precedente tabella relativa alle uscite di una coppia di dadi possono rappresentare la distribuzione della v.a. punteggio dei due dadi. In generale, se una v.a. Z assume valori discreti (in corrispondenza con un sottoinsieme dei numeri interi, quindi denotabili con ak, k = 1, 2, ...), la sua distribuzione `e assegnata dalle probabilit`a corrispondenti pk: P r{Z = ak} = pk, k = 1, 2, ...

Naturalmente sar`a pk ≥ 0,P

kpk = 1. Caratteristiche interessanti della distribuzione di probabilit`a sono il valore atteso (o medio) EZ ≡ P

kakpk e la varianza V ar Z ≡ P

k(ak− E Z)2pk (il simbolo E sta per Expectation, ed il valore atteso di una generica funzione φ(Z) non `e altro che E φ(Z) ≡P

kφ(ak)pk).Una variabile con un numero n, finito, di valori costitu- isce un caso particolare: in questo caso le probabilit`a pk sono positive solo in corrispondenza agli n valori possibili.

Talvolta, soprattutto in letteratura fisica, si usa hφ(Z)i in alternativa al simbolo Eφ(Z).

Sviluppando il quadrato, si vede che V ar Z =P

k(a2k− 2akEZ + (EZ)2)pk = EZ2− (EZ)2. Ritroviamo in questi termini i risultati sulle notevoli distribuzioni introdotte precedentemente:

per la distribuzione geometrica, consideriamo la v.a. Xp = n. d’ordine del primo colpo vincente: vale a dire l’evento {Xp = n} ≡ al verificarsi dell’evento Bn. Pertanto P r{Xp = n, n = 1, 2, ..} = qn−1p .

Considerando ora la distribuzione binomiale, vediamo innanzitutto che viene definita in modo naturale la variabile numerica (aleatoria) X(n, p) come numero di successi in n prove,e di cui possiamo ora valutare le caratteristiche sia in modo diretto, sia attraverso la rappre- sentazione di X(n, p) come somma di v.a. “elementari” Un calcolo diretto permette infatti di valutare il valore medio di X(n, p), e vedremo successivamente una giustificazione elementare del risultato, quando s’interpreta X(n, p) come somma di n variabili aleatorie:

EX(n, p) :=

n

X

k=0

kP r(Xn= k) =

n

X

k=0

kn k



pk(1 − p)n−k = np

(21)

ρ 21

−1 0 1 x

1

- ρt

ρu

Figure 6. Densit`a delle distribuzioni, uniforme e triangolare

Di qui vediamo che il rapporto tra il valore atteso del numero di volte in cui si verifica l’evento in n prove e il numero n, `e esattamente pari alla probabilit`a dell’evento stesso. Si potrebbe anche calcolare la varianza V arX(n, p), ottenendo con un calcolo diretto alquanto pi`u complesso, che

V arX(n, p) :=X

(k − np)2P r(Xn= k) = np(1 − p)

Consideriamo il caso di v.a. continue, vale a dire con valori possibili in sottoinsiemi di R, non escludendo l’intero insieme R.

Un caso molto semplice `e quello della v.a. Xu con distribuzione uniforme in un intervallo, ad esempio [−1, 1]. Questo significa che tutti i valori possibili di Xu sono i numeri reali compresi tra −1 ed 1, e che per ogni intervallo(a, b) ∈ [−1, 1], P r{Xu ∈ (a, b)} =Rb

a ρudx La costante ρu costituisce la densit`a della distribuzione uniforme ed `e calcolata imponendo che R1

−1ρudx = 1. Si ottiene quindi ρu= 12, e con questa informazione calcoleremo valor medio e varianza di Xu (il valore atteso EXu sar`a nullo per simmetria).

Definiamo ora la v.a. “triangolare” Xt, la cui distribuzione ha una densit`a ρt(x) cos`ı definita:

ρt(x) ≡ 0, per |x| > 1; ρt(x) = 1 + x, per − 1 ≤ x ≤ 0; ρt(x) = 1 − x, per 0 ≤ x ≤ 1 Per quanto riguarda EXt e V arXt, possiamo dire subito che per simmetria il valor medio risulter`a nullo, mentre, ad occhio, la varianza sar`a minore di quella della Xu, poich`e la dis- tribuzione di Xt `e certamente meno sparpagliata di quella di Xu attorno al comune valor medio 0.

Risulta infatti

V arXu = EXu2= 12R1

−1x2dx = 12[x33]1−1= 13 (4.1) V arXt= EXt2 =R1

−1ρt(x)x2dx =R0

−1(1 + x)x2dx +R1

0(1 − x)x2dx = 16 (4.2) Occorre ora estendere la nozione di dipendenza e indipendenza alle variabili casuali.

Caso discreto: se P r(X = ak) = pk, k = 1, 2, .. e P r(Y = bj) = rj, j = 1, 2, .., chiameremo P r{(X = ak) ∩ (Y = bj)} ≡ qkj, k = 1, 2, ..; j = 1, 2, .. la probabilit`a congiunta della coppia di v.a. X, Y .

Riferimenti

Documenti correlati

1.3.1 Richiamo teorico: Cambio di Variabile negli integrali definiti.. 2 Equazioni

[r]

INGEGNERIA MECCANICA COMPITO A CALCOLO DIFFERENZIALE E INTEGRALE IeII.. PROVA SCRITTA

[r]

Il capitolo delle equazione differenziali ordinarie d’ordine superiore al primo e vastissimo, ci limite- remo a dare alcune generalità sulle equazioni differenziali lineari e

Illustreremo qui il metodo della variazione delle costanti di Lagrange, che permette di risolvere qualsiasi equazione lineare a coefficienti costanti, tuttavia per risolvere

Siccome ogni sistemi di questo tipo può essere ricondotto a un sistema in cui compaiono solo equazioni lineari di primo ordine,dovendo magari però aumentare la dimensione del

Amniotic membrane transplantation for recontruction of corneal epithelial surface in cases of partial limbal stem cell deficiency. Sorsby A,