• Non ci sono risultati.

1.3.5 Esempi e paradossi sul condizionamento

N/A
N/A
Protected

Academic year: 2021

Condividi "1.3.5 Esempi e paradossi sul condizionamento"

Copied!
4
0
0

Testo completo

(1)

48 1 Spazi di probabilit`a discreti: teoria

1.3.5 Esempi e paradossi sul condizionamento

La probabilit`a condizionale `e una delle principali sorgenti di “paradossi” in teoria della probabilit`a, intendendo con questo termine risultati veri ma poco intuitivi. Al di l`a del loro interesse intrinseco, lo studio di questi problemi `e utile perch´e evi- denzia i punti delicati che si nascondono dietro la nozione di condizionamento e, soprattutto, dietro la sua interpretazione.

In questo paragrafo discutiamo con un certo dettaglio due problemi classici, noti come paradosso di Monty Hall (Esempio 1.22) e paradosso dei figli (Esempio 1.23).

Altri problemi si possono trovare tra gli esercizi. Chiudiamo quindi il paragrafo (e il capitolo) con due problemi liberamente ispirati a casi giudiziari reali (Esem- pi 1.24 e 1.25), che mostrano quanto la mancata comprensione della nozione di condizionamento possa condurre a conclusioni errate.

Esempio 1.22 (Paradosso di Monty Hall). Il presentatore di un gioco a premi vi propone di scegliere una di tre buste chiuse. Delle tre buste, una contiene un premio mentre le altre due sono vuote. Dopo che avete effettuato la scelta, il presentatore apre una delle due buste rimaste, mostrando che `e vuota, e vi propone di cambiare la busta che avete scelto con quella rimanente. Che cosa vi conviene fare?

A dispetto della formulazione elementare, questo problema nasconde diverse in- sidie, che sono per certi versi paradigmatiche dei problemi che coinvolgono la pro- babilit`a condizionale. Per cominciare, la strategia con cui il presentatore sceglie la busta da aprire non `e esplicitamente dichiarata nella formulazione del problema:

come vedremo, strategie diverse conducono a modelli probabilistici distinti, che determinano risposte diverse al problema.

Numeriamo le buste da 1 a 3 e consideriamo innanzitutto la seguente strategia:

il presentatore guarda di nascosto le due buste che gli sono rimaste in mano e ne apre sempre una vuota (nel caso in cui entrambe le buste siano vuote, diciamo che apre quella con numero pi`u basso). Allora la risposta `e che vi conviene cambiare busta, perch´e la probabilit`a di trovare il premio passa da13a23. Per convincersene, notiamo che l’esperimento aleatorio pu`o essere descritto dallo spazio campionario W = {1,2,3} ⇥ {1,2,3} = {w = (i, j) : 1  i, j  3}, dove w = (i, j) significa che il premio `e nella busta i e voi scegliete inizialmente la busta j. Definiamo gli eventi

Ak:= “il premio `e nella busta k” = {(i, j) 2 W : i = k},

B`:= “voi scegliete inizialmente la busta `” = {(i, j) 2 W : j = `}, dove k,` 2 {1,2,3}. Quale probabilit`a P `e sensato mettere su W? Innanzitutto `e ragionevole assumere che il premio sia in ciascuna busta con la stessa probabilit`a, ossia P(A1) =P(A2) =P(A3) =13. In secondo luogo, `e naturale supporre che la vostra scelta iniziale della busta sia indipendente da quale busta contenga il premio, ossia gli eventi Ake B`siano indipendenti per ogni k,` 2 {1,2,3}. Di conseguenza, una volta specificati i valori dir`:= P(B`)per k = 1,2,3 — per esempior1= r2=r3=13se scegliete inizialmente una busta “a caso” — risulta determinata la probabilit`a P suW, dato che P({(k`)}) = P(Ak\B`) =P(Ak)P(B`) =13r`. Possiamo

1.3 Probabilit`a condizionale e indipendenza 49

finalmente determinare la probabilit`a degli eventi a cui siamo interessati, ossia F := “tenendo la busta inizialmente scelta, trovate il premio”

G := “cambiando la busta, trovate il premio”. (1.55)

`E chiaro che possiamo riformulare

F = “il premio `e nella busta scelta inizialmente” = {(i, j) 2 W : i = j}, pertanto

P(F) = P({(1,1)}) + P({(2,2)}) + P({(3,3)}) =1

3(r1+r2+r3) =1 3. D’atro canto, con un momento di riflessione ci si convince che, cambiando busta, trovate il premio se e solo se esso non `e nella busta da voi scelta inizialmente: in tal caso infatti il premio `e in una delle due buste rimaste inizialmente in mano al presentatore, e lui provvede ad aprire quella vuota. Questo significa che G = Fce dunque

P(G) = P(Fc) =1 P(F) =2 3,

come annunciato. Si noti che il risultato non dipende dalle probabilit`arkcon cui effettuate la vostra scelta iniziale, come `e peraltro intuitivo.

Mentre `e intuitivamente chiaro che la probabilit`a di trovare il premio tenendo la busta inizialmente scelta vale13, il fatto che la probabilit`a diventi23se si cambia bu- sta pu`o apparire prima vista sorprendente. Per convincersi intuitivamente di questo fatto, suggeriamo di riflettere sull’osservazione sopra esposta: cambiando busta, si trova il premio ogniqualvolta esso non `e nella busta inizialmente scelta, dunque in media due volte su tre. Chi non fosse convinto, pu`o provare un esperimento concre- to ripetendo il gioco molte volte, eventualmente con l’ausilio di un computer. Per esercitare l’intuizione su problemi analoghi, suggeriamo gli esercizi 1.7 e 1.8.

Per concludere, mostriamo come la risposta cambia in funzione della strategia adottata dal presentatore. Supponiamo ad esempio che il presentatore apra una a caso delle due buste che gli sono rimaste in mano: se tale busta contiene il premio, il gioco finisce; se invece `e vuota, vi viene proposta la possibilit`a di cambiare la busta che avete scelto inizialmente con quella rimanente. Mostriamo che in questo caso

`e indifferente cambiare o non cambiare busta: in entrambi i casi, se il presentatore apre una busta vuota, la probabilit`a (condizionale) di trovare il premio vale12.

Per formalizzare il problema, conviene “arricchire” lo spazio campionarioW in- trodotto in precedenza, in modo che i suoi elementi descrivano, oltre alla busta che contiene il premio e a quella scelta inizialmente, anche la busta aperta dal presen- tatore. Una scelta naturale `e dunque ˜W := {w = (i, j,k) : i, j,k 2 {1,2,3}, k 6= j}.

Preferiamo tuttavia alleggerire le notazioni, immaginando che voi scegliate sempre la busta numero 1 (come abbiamo visto in precedenza, e come `e intuitivo, la strategia con cui viene scelta la carta iniziale risulta alla fine irrilevante). Poniamo dunque

(2)

50 1 Spazi di probabilit`a discreti: teoria W := {w = (i,k) : i 2 {1,2,3}, k 2 {2,3}},ˆ

dovew = (i,k) significa che il premio `e nella busta i, voi scegliete inizialmente la busta 1 e il presentatore apre la busta k (da cui la restrizione k 2 {2,3}). Per determinare la probabilit`a ˆP da mettere su ˆW, definiamo per ` 2 {1,2,3} l’evento

A`=“il premio `e nella busta `” = {(i,k) 2 ˆW : i = `},

e richiediamo, come in precedenza, che ˆP(A1) = ˆP(A2) = ˆP(A3) = 13. Inoltre, definendo per m 2 {2,3} l’evento

Cm:= “il presentatore sceglie la busta m” = {(i,k) 2 ˆW : k = m}, richiediamo che ˆP(Cm|A`) =12per ogni ` 2 {1,2,3} e m 2 {2,3}, perch´e il presen- tatore apre una busta “a caso”. Ci`o significa che per ogniw = (i,k) 2 ˆW

ˆP({w}) = ˆP({(i,k)}) = P(Ai\Ck) =P(Ai)P(Ck|Ai) =1 3 1 2=1

6, ossia ˆP `e la probabilit`a uniforme su ˆW. Introduciamo ora l’evento

D := “la busta aperta dal presentatore `e vuota” = {(i,k) 2 ˆW : k 6= i}

={(1,2),(1,3),(2,3),(3,2)},

che ha probabilit`a ˆP(D) =| ˆ|D|W|=46=23. Ricordando gli eventi F e G, definiti infor- malmente in (1.55), dobbiamo calcolare ˆP(F|D) e ˆP(G|D). Avendo assunto che voi scegliate inizialmente la busta numero 1, possiamo identificare

F = {(i,k) 2 ˆW : i = 1} = {(1,2),(1,3)},

da cui segue che, se il presentatore apre una busta vuota, la probabilit`a (condiziona- le) di trovare il premio mantenendo la busta scelta inizialmente vale

ˆP(F|D) = ˆP(F \D)

ˆP(D) =|F \ D|

|D| =2 4 =1

2. Per quanto riguarda l’evento G, possiamo scrivere

G = {(i,k) 2 ˆW : i 6= 1,k 6= i} = {(2,3),(3,2)}.

poich´e, cambiando busta, trovate il premio se e solo se il premio non `e nella busta numero 1 n´e nella busta aperta dal presentatore. Di conseguenza, se il presentatore apre una busta vuota, la probabilit`a (condizionale) di trovare il premio cambiando busta `e data da

ˆP(G|D) = ˆP(G\D)

ˆP(D) =|G \ D|

|D| =2 4=1

2.

1.3 Probabilit`a condizionale e indipendenza 51

come annunciato in precedenza.

Esempio 1.23 (Paradosso dei figli). Una coppia ha due figli(e). Assumendo che cia- scun figlio possa essere maschio o femmina con la stessa probabilit`a, indipendente- mente dal sesso dell’altro figlio, rispondiamo alle domande seguenti:

(1) Se il primogenito `e maschio, qual `e la probabilit`a che anche il secondogenito lo sia?

(2) Se il secondogenito `e maschio, qual `e la probabilit`a che anche il primogenito lo sia?

(3) Se almeno un figlio `e maschio, qual `e la probabilit`a che anche l’altro lo sia?

Per descrivere il sesso dei due figli, introduciamo lo spazio campionarioW = {mm, m f , f m, f f }, dove ab indica che il primogenito `e di sesso a e il secondoge- nito di sesso b. `E facile convincersi che le ipotesi di indipendenza e di equiproba- bilit`a del sesso dei figli corrispondono a munireW della probabilit`a uniforme, cio`e P({mm}) = P({m f }) = P({ f m}) = P({ f f }) =14. Introducendo gli eventi

A := “il primogenito `e maschio” = {mm,m f }, B := “il secondogenito `e maschio” = {mm, f m},

e interpretando le domande poste come probabilit`a condizionali, le risposte si ottengono con semplici calcoli: essendo A [ B = {mm,m f , f m} e A \ B = {mm},

(1) P(A \ B|A) =P(A\B)P(A) =|A\B||A| =12; (2) P(A \ B|B) =P(A\B)P(B) =|A\B||B| =12; (3) P(A \ B|A [ B) =P((A\B)\(A[B))

P(A[B) =P(A\B)P(A[B)=|A\B||A[B|=13.

Sebbene i calcoli siano del tutto elementari, la risposta all’ultima domanda `e a prima vista sorprendente e merita una discussione. Il punto chiave sta nel significato dell’espressione “se almeno un figlio `e maschio”. Ricordiamoci dell’interpretazione frequentistica della probabilit`a (condizionale e non): selezionando in modo indipen- dente un grande numero di famiglie con due figli, all’incirca un quarto di queste sar`a del tipo mm (ossia avr`a entrambi i figli maschi), un quarto sar`a m f , un quarto sar`a f m e un quarto sar`a f f . Se ci restringiamo alle famiglie in cui almeno un figlio `e maschio, otteniamo un sottoinsieme costituito dai tre tipi mm, m f e f m, tutti all’in- circa con la stessa numerosit`a: di conseguenza, delle famiglie in cui almeno un figlio

`e maschio, all’incirca una su tre ha entrambi i figli maschi e due su tre hanno invece un maschio e una femmina, in accordo con la risposta trovata sopra.

L’argomento frequentistico appena esposto contribuisce a chiarire il significato da attribuire alla probabilit`a condizionale e, allo stesso tempo, ne mette in evidenza le importanti limitazioni. Nella soluzione del problema abbiamo tradotto automati- camente l’informazione “sappiamo che almeno un figlio `e maschio” con il concetto matematico di condizionamento. Tuttavia, affinch´e questo procedimento sia giusti- ficato, occorre che il processo con cui tale informazione `e stata ottenuta corrisponda

(3)

52 1 Spazi di probabilit`a discreti: teoria realmente a un “campionamento uniforme” dell’insieme delle famiglie in cui alme- no un figlio `e maschio. Per fare un esempio, immaginiamo di accedere ai dati del censimento Istat e di costruire un database contenente tutte e sole le coppie italiane con due figli, di cui almeno uno maschio: se si sceglie una famiglia a caso all’interno del database, la probabilit`a che entrambi i figli siano maschi corrisponde effettiva- mente (all’incirca) a13. Il problema `e che esistono diversi modi alternativi molto naturali in cui si pu`o venire a conoscenza dell’informazione che almeno un figlio `e maschio, che non possono essere tradotti con il semplice condizionamento.

Un esempio concreto contribuir`a a chiarire la situazione. Data una coppia con due figli(e), immaginiamo che venga scelto uno dei due figli a caso e si scopra che `e un maschio. Sulla base di questa informazione, qual `e la probabilit`a che anche l’altro figlio sia maschio? Come vedremo tra un istante, la risposta in questo caso vale12. L’informazione “un figlio scelto a caso risulta maschio” non corrisponde dunque al semplice condizionamento rispetto all’evento “almeno un figlio `e maschio”.

Ingrandiamo lo spazio campionarioW in modo da descrivere anche quale figlio viene scelto, ponendo

W0:=W ⇥{1, 2} = {mm1, mm2, m f 1, m f 2, f m1, f m2, f f 1, f f 2}, dove mm1 significa che il primogenito e il secondogenito sono maschi e viene scelto il primogenito, ecc. Si noti che gli eventi prima introdotti A := “il primogenito `e maschio” e B := “il secondogenito `e maschio” diventano ora

A = {mm1,mm2,m f 1,m f 2}, B = {mm1,mm2, f m1, f m2}.

Per determinare la probabilit`a P0da mettere suW0, `e naturale richiedere che P0({mm1,mm2}) = P0({m f 1,m f 2}) = P0({ f m1, f m2}) = P0({ f f 1, f f 2}) =1

4, dal momento che le probabilit`a dei sessi dei figli presenti nella famiglia sono le stesse di prima. Infine, visto che il figlio viene scelto “a caso”, imponiamo che

P0({mm1}|{mm1,mm2}) =1 2, da cui segue che

P0({mm1}) = P0({mm1,mm2})P0({mm1}|{mm1,mm2}) =1 4 1 2=1

8. Con analoghi argomenti si mostra che P0({w}) =18per ogniw 2 W0, dunque P0`e la probabilit`a uniforme suW0. Introducendo l’evento

C := “il figlio scelto `e maschio” = {mm1,mm2,m f 1, f m2},

otteniamo infine la probabilit`a che entrambi i figli siano maschi, sapendo che quello scelto `e maschio:

1.3 Probabilit`a condizionale e indipendenza 53

P0(A \ B|C) =P(A \ B \C)

P(C) =|A \ B \C|

|C| =|A \ B|

|C| =2 4=1

2.

Esempio 1.24 (Un caso giudiziario). Una donna venne assassinata, il marito era il principale sospettato. Nel corso delle indagini si scopr`ı che il marito aveva pi`u volte picchiato la moglie. L’accusa afferm`o che questo fatto rappresentava un importante indizio per la colpevolezza. La difesa ribatt´e che, secondo i dati forniti dalla Polizia di Stato, tra gli uomini che picchiano le loro mogli, solo 1 su 10000 finisce poi per assassinarla. Pertanto tale dato contribuisce solo in modo molto marginale alla tesi di colpevolezza. In primo grado il giudice accolse la tesi della difesa.

In secondo grado l’accusa rilev`o il seguente errore nell’argomento della difesa.

La frazione 100001 fornisce una stima della probabilit`a che una donna venga am- mazzata dal marito condizionalmente al fatto che il marito la picchiasse. Ma noi non solo sappiamo che il marito la picchiava, ma anche che qualcuno ha effettiva- mente assassinato la donna! Quindi, per utilizzare l’intera informazione disponibile, occorre calcolare la probabilit`a che “una donna venga ammazzata dal marito” con- dizionalmente all’evento “la donna veniva picchiata dal marito ed `e stata ammazzata da qualcuno”.

Per formalizzare il problema, consideriamo una popolazione numerosa e suffi- cientemente omogenea di donne sposate, e consideriamo i seguenti eventi, relativi ad un individuo casualmente scelto in questa popolazione:

A = “la donna `e stata picchiata dal marito”

B = “la donna viene assassinata dal marito”

C = “la donna viene assassinata da una persona diversa dal marito”.

Si noti che l’evento “la donna viene assassinata da qualcuno” corrisponde a B [C, pertanto la probabilit`a che desideriamo calcolare `e P(B|A \ (B [C)). Notando che B \C = /0, possiamo riscrivere questa probabilit`a nella forma pi`u conveniente

P(B|A \ (B [C)) =P(B \ A \ (B [C))

P(A \ (B [C)) = P(B \ A)

P((B [C) \ A)= P(B|A) P(B [C|A)

= P(B|A)

P(B|A) + P(C|A).

Sappiamo che P(B|A) =100001 , mentre non conosciamo il valore di P(C|A). Un’in- formazione utile `e la seguente: secondo i dati della Polizia, nella totalit`a della popo- lazione circa una donna su 100000 viene assassinata (dal marito o da qualcun altro), cio`e possiamo assumere che P(B[C) =1000001 . Vediamo come questo dato, insieme ad alcune assunzioni naturali, possa permettere di dare una stima di P(C|A).

`E ragionevole assumere che tutte le donne, vengano o meno picchiate dal marito, abbiano la stessa probabilit`a di essere assassinate da una persona diversa dal marito.

Questo significa che P(C|A) = P(C), ossia gli eventi A e C sono indipendenti. D’al- tro canto P(C)  P(B [C), per cui mettendo insieme le precedenti considerazioni otteniamo la stima

(4)

54 1 Spazi di probabilit`a discreti: teoria P(B|A \ (B [C)) = P(B|A)

P(B|A) + P(C)

P(B|A) P(B|A) + P(B [C)=

100001

100001 +1000001 =10 11. Quindi, la sola informazione che avesse picchiato la moglie, rende la probabilit`a che il marito sia l’assassino almeno1011' 91%! Il marito fu poi condannato. . .

Esempio 1.25 (Un altro caso giudiziario). Dalle indagini relative ad un omicidio `e emerso che il colpevole possiede un determinato set di caratteristiche (per es. capelli rossi, zoppicante, ecc.) che lo rendono piuttosto raro: si stima che una frazione p ⌧ 1 di popolazione possegga tali caratteristiche. La citt`a in cui si `e svolto l’attentato ha n abitanti, con np ' 0.05. Una ricerca su un database di individui schedati ha identificato un unico individuo che possiede il set di caratteristiche. Per affermar la colpevolezza di tale individuo, l’accusa argomenta come segue:

La probabilit`a che in citt`a vi siano almeno due individui con il set di caratteristiche cercato `e circa (np)2=0.0025. Pertanto, l’individuo trovato `e con probabilit`a 1 (np)2=0.9975 l’unico con tale set di caratteristiche. La sua colpevolezza `e accertata con probabilit`a 99.75%.

Questo argomento `e sbagliato, in particolare la conclusione. Vediamo perch´e.

Una ragionevole assunzione `e che ogni individuo possegga il set di caratteristiche cercato con probabilit`a p, indipendentemente dagli altri. Pertanto, per quanto visto nel paragrafo 1.3.4, se Akdenota l’evento “in citt`a ci sono k individui con il set di caratteristiche”, si ha

P(Ak) =✓n k

pk(1 p)n k. In particolare

P(A0) = (1 p)n, P(A1) =np(1 p)n 1, (1.56) quindi la probabilit`a che vi siano almeno due individui con i requisiti richiesti `e

P[(A0[ A1)c] =1 (1 p)n np(1 p)n 1'n(n 1) 2 p2'1

2(np)2, (1.57) dove la prima approssimazione si ottiene con uno sviluppo di Taylor al secondo ordine della funzione f (p) = 1 (1 p)n np(1 p)n 1attorno a p = 0. La stima dell’accusa va dunque corretta di un fattore12. Ma non `e certo questo l’errore pi`u rilevante, anche perch´e la correzione rende l’argomento ancor pi`u stringente.

Il punto fondamentale `e che l’accusa non ha tenuto conto del fatto che un in- dividuo con il set di caratteristiche dato `e gi`a stato trovato. La quantit`a probante non `e dunque la “probabilit`a che vi siano in citt`a almeno due individui con i re- quisiti richiesti”, bens`ı la “probabilit`a che vi siano in citt`a almeno due individui con i requisiti richiesti condizionalmente al fatto che la ricerca nel database ne ha identificato uno”. Considerando gli eventi

1.3 Probabilit`a condizionale e indipendenza 55

B := “in citt`a vi sono almeno due individui con i requisiti richiesti”, C := “nel database c’`e esattamente un individuo con i requisiti richiesti”, occorre dunque calcolare P(B|C). Notiamo che B \C = B0\C, dove

B0:= “tra gli individui non schedati almeno uno ha le caratteristiche richieste”.

Possiamo inoltre assumere che gli eventi B0 e C, riferendosi a gruppi distinti di individui, siano indipendenti. Ci riduciamo dunque a calcolare

P(B|C) =P(B \C)

P(C) =P(B0\C)

P(C) =P(B0)P(C)

P(C) =P(B0) .

Se indichiamo con m il numero degli individui della citt`a inseriti nel database, la prima formula in (1.56) con n m invece che n d`a

P(B|C) = P(B0) =1 (1 p)n m' (n m)p ' np = 0.05, (1.58) dove abbiamo fatto l’ipotesi, molto verosimile, che m ⌧ n. Dunque, sulla base del- le conoscenze acquisite, la probabilit`a che l’individuo trovato sia l’unico con le caratteristiche date, e quindi che sia colpevole, `e

P(Bc|C) = 95%,

probabilmente non sufficiente a fugare “ogni ragionevole dubbio”.

Per apprezzare la sottigliezza della questione, consideriamo il seguente quesito.

Senza aver condotto alcuna ricerca su database, qual `e la probabilit`a che l’autore dell’omicidio non sia l’unico individuo in citt`a con le caratteristiche richieste? In questo caso, l’unica informazione disponibile `e che “esiste almeno un individuo in citt`a con le caratteristiche richieste” (l’assassino), che corrisponde all’evento Ac0. Dobbiamo pertanto calcolare P(B|Ac0). Osservando che B = (A0[ A1)c, si ottiene

P(B|Ac0) =P((A0[ A1)c|Ac0) =P((A0[ A1)c) P Ac0 .

Grazie alla relazione (1.57) si ha P((A0[ A1)c)'12(np)2. Analogamente, grazie a (1.56), si ha

P(Ac0) =1 (1 p)n' np, pertanto

P(B|Ac0)'1

2np = 0.025, che differisce di un fattore12dal risultato (1.58) trovato sopra!

Analogamente a quanto abbiamo visto nell’Esempio 1.23, i risultati ottenuti mo- strano che l’informazione “la ricerca nel database ha individuato un individuo con le caratteristiche cercate” non corrisponde al semplice condizionamento rispetto all’evento “in citt`a esiste almeno un individuo con le caratteristiche cercate”.

Riferimenti

Documenti correlati

Trovare le due serie storiche individuali, copiarne numeri e grafico (arricchito delle date) su un foglio, con indirizzo internet e percorso dettagliato nei minimi particolari,

Sono dati sulle esportazioni di accessori per auto da parte dell’Italia (fonte Eurostat) relativi al periodo gennaio 1995, dicembre 2008.. Conviene visualizzarli con le date e dare

Una volta effet- tuata la scelta, io guardo di nascosto il contenuto delle due buste rimaste e ve ne mostro una vuota (tra le mie due buste ce n’` e almeno una vuota, dunque lo

In particolare, ci sono infiniti numeri

I rapporti tra la tettonica, le modifiche di crescita sulle piante e le variazioni fisiche sia del sito che della vegetazione sono riassunte nella seguente tabella, tratta da

Il parziale denudamento delle radici legato ai dissesti franosi si verifica sulle piante che vengono a trovarsi proprio lungo la corona di frana o lungo i

E’ dato un sistema di equazioni con matrice di coefficienti eguale alla matrice di Hilbert di ordine n (H=hilb(n) in Matlab) per n=5,8,12,15.. Eseguire le

Si estrae una pallina: se viene un numero minore di 4 il giocatore A riceve 6 euro da B, in tutti gli altri casi B riceve 3 euro da A?. Quanto si può aspettare di guadagnare A in