• Non ci sono risultati.

Capitolo 1: Introduzione alla logica induttiva e alla probabilità

N/A
N/A
Protected

Academic year: 2021

Condividi "Capitolo 1: Introduzione alla logica induttiva e alla probabilità"

Copied!
37
0
0

Testo completo

(1)

Capitolo 1: Introduzione alla logica induttiva e alla probabilità

Lo scopo del presente capitolo è quello di introdurre gli argomenti principali di questo lavoro: il concetto di teoria della conferma e il modello di interpretazione della conferma preso in considerazione, ovvero il modello bayesiano.

Una tale operazione di introduzione si struttura in diversi passaggi. Anzitutto, dopo aver spiegato molto sommariamente in che cosa consiste la logica in generale, tracceremo una distinzione tra logica induttiva e logica deduttiva, concentrandoci in modo particolare sulla prima e sulla probabilità, il suo strumento fondamentale. Successivamente prenderemo in considerazione i vari significati dati alla parola “probabilità”, con particolare riferimento a quello bayesiano, al fine di presentare ciò che intendiamo con “modello bayesiano”. Infine verrà spiegata la relazione tra logica induttiva e teoria della conferma e verrà sottolineato il ruolo del bayesianesimo come modello di interpretazione della conferma.

1.1 – La logica induttiva e deduttiva: le differenze

Lo scopo principale della logica è comprendere quando in un argomento le premesse costituiscono buone ragioni a sostegno della conclusione. Vediamo cosa questo significa partendo dalla definizione dei termini appena utilizzati. Anzitutto con “argomento” in logica ci si riferisce ad una particolare struttura in cui viene impostato il ragionamento; una struttura che vede un insieme di ragioni, dette “premesse”, fornite a sostegno di una conclusione. Le premesse e la conclusione dell'argomento sono enunciati e in quanto tali possono essere vere oppure false. Sebbene un argomento risulti essere convincente quando sia le premesse sono vere sia queste ci forniscono buone ragioni a sostegno della conclusione, lo scopo della logica è unicamente quello di indagare la seconda circostanza e non la prima. È proprio la relazione tra premesse e conclusione che traccia il confine tra logica deduttiva e logica induttiva. Di seguito spiegheremo che cosa questo significa.

1.1.1 – La logica deduttiva

In logica deduttiva il concetto che viene utilizzato per rendere ragione della relazione tra premesse e conclusione è quello di “validità”. L'idea alla base di questa nozione è la seguente: è logicamente impossibile che la conclusione sia falsa posto che le premesse siano vere; detto diversamente: le forme valide da un punto di vista argomentativo conservano la verità. Altre espressioni con cui ci si è riferito all'idea di validità sono: la conclusione segue necessariamente dalle premesse; la conclusione è contenuta implicitamente nelle premesse. Dalla nozione di validità appena esposta, segue che la caratteristica principale degli argomenti

(2)

deduttivi è che questi sono immuni da rischi, in quanto se le premesse sono vere e l'argomento è valido, la conclusione deve necessariamente essere vera.

Per una più chiara comprensione della nozione di validità, prendiamo in considerazione il seguente esempio di argomento deduttivo valido:

(A) Tutte le automobili vendute dalla Queen Street Motors sono a prova di ruggine; l'automobile di Barbara è stata venduta dalla Queen Street Motors;

quindi

l'automobile di Barbara è a prova di ruggine.

Più in generale possiamo dire che qualsiasi argomento della seguente forma, cui A appartiene, è valido:

(A') Ogni F è G; b è F; quindi b è G.

(A') è un argomento valido: se le premesse sono vere, la conclusione deve essere necessariamente vera, pertanto esso, data una tale condizione, è immune da rischi.

Alla nozione di validità si contrappone quella di “non validità”: un argomento non valido è un argomento in cui la conclusione potrebbe essere falsa anche se le premesse sono vere.

Un esempio di argomento non valido è il seguente:

(B) Tutte le automobili vendute dalla Queen Street Motors sono a prova di ruggine; l'automobile di Barbara è a prova di ruggine;

quindi

l'automobile di Barbara è stata venduta dalla Queen Street Motors.

(B) non è un argomento valido: la conclusione potrebbe essere falsa anche se le premesse sono vere. Le case automobilistiche infatti che vendono vetture che sono state sottoposte a trattamenti antiruggine sono molte, quindi Barbara potrebbe non aver comprato la sua vettura dalla Queen Street Motors.

Qualsiasi argomento di forma (B'), caso in cui rientra (B), non è valido: (B') Ogni F è G;

b è G; quindi b è F.

Riprendiamo a questo punto e approfondiamo la precisazione di cui sopra circa lo scopo della logica. Era stato detto che questo consiste nell'indagare se le premesse forniscono buone ragioni a sostegno della conclusione, specificando che essa non si occupa di capire se le

(3)

premesse siano vere oppure false. Nel campo della logica deduttiva ciò si traduce dicendo che il fine di questa è comprendere se l'argomento deduttivo in questione è valido, ma non capire se le premesse siano vere oppure false. Validità e falsità sono quindi due concetti diversi, che non devono essere confusi: validi o non validi sono gli argomenti, vere o false sono le premesse e la logica deduttiva si occupa solo dei primi. Per capire meglio questa distinzione tra premesse e argomenti, verità e validità, prendiamo in considerazione nuovamente l'argomento A. Avevamo detto che esso è valido dal momento che le premesse forniscono buone ragioni a sostegno della conclusione e nello specifico perché se le premesse sono vere, la conclusione non può che essere vera. Le premesse dell'argomento A tuttavia possono essere contestate: si potrebbe obiettare che non tutte le automobili vendute dalla Queen Street Motors sono a prova di ruggine o si potrebbe mettere in discussione la seconda premessa: è realmente l'automobile di Barbara a prova di ruggine? Rispondere a queste domande, stabilire quindi se le premesse siano vere o false, è un compito che richiede conoscenze che non sono di competenza della logica. Per approfondire maggiormente la distinzione tra “validità” e “verità” prendiamo in considerazione alcuni esempi. Anzitutto un argomento può essere valido e avere premesse e conclusione false, come avviene nel seguente caso:

C) Ogni filosofo famoso vissuto per più di novant'anni è stato anche un logico matematico.

Bertrand Russell era un filosofo famoso ed è vissuto per più di novant'anni; quindi

Bertrand Russell era un logico matematico.

L'argomento è valido ma la prima premessa è falsa: Thomas Hobbes, famoso filosofo, vissuto per più di novant'anni, non era un logico matematico. Vediamo allora che la validità riguarda unicamente la connessione tra premesse e conclusione e non la verità o falsità delle prime. Analogamente la non validità non è la medesima cosa della falsità. Un argomento non valido può avere premesse e conclusione vere, come il seguente:

(D) Alcuni filosofi oggi defunti erano spiritosi ed hanno scritto molti libri; Bertrand Russell era un filosofo e oggi è defunto;

quindi

Bertrand Russell era spiritoso e ha scritto molti libri.

Le premesse sono entrambe vere e anche la conclusione, ma l'argomento non è valido.

Come è possibile vedere nei casi appena proposti, per stabilire se le premesse siano vere o false, occorre avere conoscenze di storia, di filosofia, ecc..., che non sono competenza della logica, ma piuttosto dello storico o del filosofo.

(4)

argomenti, tuttavia un argomento risulta essere convincente unicamente nella misura in cui esso, oltre ad essere valido, ha anche premesse vere. A questo proposito subentra un'altra distinzione, quella tra bontà e validità dell'argomento. La validità riguarda unicamente la connessione tra premesse e conclusione e non la verità delle une o dell'altra. La bontà invece ha a che fare sia con la validità dell'argomento sia con la verità delle premesse. Quanto detto ci fa capire che ci sono due modi per criticare un ragionamento deduttivo: o una delle premesse è falsa oppure l'argomento non è valido.

1.1.2 – La logica induttiva

Abbiamo detto che gli argomenti deduttivamente validi, ovvero gli argomenti immuni da rischi, sono oggetto della logica deduttiva; la logica induttiva invece studia gli argomenti rischiosi. Un argomento rischioso può essere eccellente, quindi può avere premesse vere che forniscono buone ragioni a sostegno della conclusione, e tuttavia è sempre possibile che quest'ultima sia falsa. Di questo tipo sono la maggior parte degli argomenti che utilizziamo nella vita quotidiana. Anche se esistono molti tipi di argomenti rischiosi, è possibile raggrupparli nelle seguenti forme:

• Affermazione su un campione preso da una certa popolazione; da cui

affermazione sull'insieme della popolazione. Un esempio di questa circostanza è il seguente: Questa arancia presa a caso dalla cassetta è buona; quindi

tutte (o quasi) le arance nella cassetta sono buone. • Affermazione su una popolazione;

da cui

affermazione su un campione.

Un esempio di questa tipologia è il seguente:

Tutte o quasi tutte le arance della cassetta sono buone; queste quattro arance sono state prese a caso dalla cassetta; quindi

queste quattro arance sono buone. • Affermazione su un campione;

da cui

affermazione su un nuovo campione.

(5)

queste quattro arance che ho scelto a caso dalla cassetta sono buone; quindi

anche le prossime quattro arance che sceglierò a caso dalla cassetta saranno buone. La logica induttiva, per studiare tali argomenti, utilizza come suo strumento fondamentale la probabilità numerica. Essa infatti, assegnando valori numerici alle probabilità è così da dirci quali argomenti sono più rischiosi e quali meno, ci permette di orientarci nel rischio.

Occorre tuttavia notare che non tutti gli argomenti in cui compaiono espressioni quali “probabile” o “probabilmente” sono rischiosi. La probabilità infatti può essere trattata come un concetto matematico e la matematica è una scienza deduttiva. Questo significa che è possibile fare deduzioni in cui utilizziamo la probabilità. Un esempio di questa circostanza è il seguente:

(E) Questo dado ha sei facce contrassegnate con i numeri 1, 2, 3, 4, 5, 6; ogni faccia è ugualmente probabile1;

quindi

la probabilità di ottenere un quattro è pari a 1/6.

Si tratta di un argomento valido, in quanto date le leggi fondamentali della probabilità – in questo caso che la somma complessiva di eventi esclusivi (solo uno dei sei possibili esiti del dado può accadere quando il dado viene lanciato) ed esaustivi (uno degli esiti del dado deve per forza accadere quando il dado viene lanciato) è pari ad uno – ogni volta che le premesse di un tale argomento sono vere, deve esserlo anche la conclusione.

Un differente argomento che utilizza la probabilità è invece il seguente:

(F) Questo dado ha sei facce contrassegnate con i numeri 1, 2, 3, 4, 5, 6; in una successione di 227 lanci il 4 è uscito esattamente 38 volte; quindi

la probabilità di ottenere un 4 con questo dado è di circa 1/6.

Questo è un argomento rischioso: la conclusione potrebbe essere falsa anche nel caso in cui le premesse siano vere. Per esempio, il dado potrebbe essere truccato cosicché la probabilità che esca il 4 sia piccola, per esempio pari ad 1/8, anche se negli ultimi 227 lanci abbiamo ottenuto un tale esito 1/6 quasi esatto delle volte per puro caso.

Così come esistono argomenti probabilistici deduttivamente validi, analogamente esistono generi di argomenti rischiosi che secondo alcuni studiosi non possono essere spiegati dalla logica induttiva. Uno di questi è la cosiddetta “inferenza alla spiegazione migliore”, la quale consiste nell'inferire, dato un fatto, diverse spiegazioni plausibili di esso; se una di queste è molto più plausibile di tutte le altre, allora l'argomento viene chiamato “inferenza alla

1 Con questa espressione si intende che l'uscita di una faccia qualsiasi è altrettanto probabile di quella di qualsiasi

(6)

spiegazione migliore”. Molti ragionamenti scientifici sono di questo tipo e secondo alcuni filosofi, ogni volta che raggiungiamo una conclusione teorica inferiamo la spiegazione migliore. Un esempio di ragionamento scientifico che si presenta sotto forma di questo argomento è la teoria dell'origine dell'universo dal Big Bang formulata nel 1967. Secondo una tale teoria, l'universo è nato con uno “scoppio” gigantesco verificatosi in un momento preciso del passato. Si è raggiunta una tale conclusione in quanto due radioastronomi hanno scoperto che nello spazio è distribuita uniformemente “una radiazione di fondo” in tutte le direzioni, a bassa frequenza, rilevabile con i radiotelescopi e la spiegazione migliore della sua esistenza è che questa sia una delle conseguenze del Big Bang.

C. S. Peirce chiamò l'inferenza alla spiegazione migliore “abduzione”, distinguendola dall'induzione. Secondo alcuni logici la probabilità è uno strumento molto utile per l'analisi delle inferenze alla spiegazione migliore, mentre secondo altri, come Peirce, non lo è affatto. Un altro tipo di ragionamento induttivo che non sembra essere esauribile dalla logica induttiva è la cosiddetta “testimonianza” o “argomento per autorità”. Un esempio di questo è il seguente:

(G) Secondo il telegiornale della sera il sindaco deve incontrare alcuni funzionari; quindi

il sindaco deve incontrare alcuni funzionari.

Questo è un argomento rischioso in quanto il telegiornale delle sera potrebbe essere male informato. In generale, qualsiasi argomento che si basa sul credere quanto riferito da altri è un argomento rischioso nella misura in cui quello che ci viene detto potrebbe essere non affidabile. Sebbene alcuni tipi di testimonianza possano essere analizzati utilizzando la probabilità e sebbene la logica induttiva abbia a che fare con la testimonianza, nella testimonianza c'è molto di più della probabilità.

Possiamo allora concludere che la logica induttiva analizza gli (alcuni) argomenti rischiosi utilizzando la probabilità.

1.2 – Il calcolo della probabilità

La teoria della probabilità ha avuto il suo ingresso nella storia intellettuale relativamente tardi. Venne ispirata dai giochi d'azzardo nel diciassettesimo secolo in Francia e inaugurata dalla corrispondenza tra Fermat e Pascal. La sua assiomatizzazione tuttavia ha dovuto attendere il lavoro del 1933 di Andrej Nikolaevič Kolmogorov, Fondamenti della teoria della probabilità. L'autore russo distingue tra gli spazi dei campioni finiti e quelli dei campioni infiniti, dicendoci che gli assiomi e i teoremi definiti per i primi possono applicarsi anche ai secondi, sebbene uno studio approfondito di questi ultimi comporti il sorgere di nuove considerazioni.

(7)

Kolmogorov inizia la sua esposizione prendendo in considerazione gli spazi dei campioni finiti e pone i relativi assiomi. Abbiamo una collezione E di elementi a, b, c,... e un insieme F di sottoinsiemi di E. Gli assiomi sono:

• F è un campo di insiemi (si veda sotto); • F ha come elemento l'insieme E;

• Ad ogni insieme A in F è assegnato un numero reale non negativo P(A), tra 0 ed 1, con 0 e 1 compresi. Questo numero viene chiamato “probabilità dell'evento A”.

• P(E) è uguale ad 1;

• se A e B non hanno elementi in comune, allora P(A + B) = P(A) + P(B).

Un sistema di insiemi F, con un definito assegnamento di numeri P(A), che soddisfa gli assiomi appena esposti, viene chiamato “campo di probabilità”.

Il nostro sistema di assiomi è coerente2. Questo è provato dal seguente esempio: sia E un

insieme con un singolo elemento a e sia F un insieme avente come elementi E e l'insieme vuoto Ø. P(E) è allora uguale ad 1 e P(Ø) uguale a 0 (Kolmogorov, 1933; pag. 2).

Da quanto detto capiamo che da un punto di vista matematico la probabilità è una funzione che ha per dominio il campo F e come codominio l'insieme dei numeri reali tra 0 e 1, con 0 e 1 compresi. Il concetto di campo su di un insieme E denota un insieme di sottoinsiemi di E che ha E tra i suoi membri e che è chiuso3 rispetto alle operazioni binarie di unione,

intersezione e differenza.

Dati gli assiomi sopra esposti, definendo la nozione di probabilità condizionale, segue il teorema di Bayes.

La probabilità condizionale è la probabilità che un evento accada posto che ne accada un altro. Essa viene così definita: P(B/A) = P(A∩B)/P(A). Da questa uguaglianza, se P(A) ≠ 0, segue che P(A∩B) = P(B/A)P(A). Generalizzando quest'ultimo risultato, si ha il teorema di moltiplicazione: P(A∩A1∩A2∩...∩An) = P(A)P(A1/A)P(A2/A∩A1)...P(An/A1∩A2...∩An – 1).

La funzione P(./A) è la funzione di probabilità su E, chiamata “funzione di probabilità condizionale dato A”; ovviamente P(A/A) = 1.

Quando gli eventi sono indipendenti, quindi l'accadere dell'uno non influisce sull'accadere dell'altro, in formula P(A/B) = P(A), la regola di moltiplicazione generale diventa: P(A∩A1∩A2∩...∩An) = P(A)P(A1)P(A2)...P(An).

Finora abbiamo incontrato due importanti concetti, quello di incompatibilità e di indipendenza. Il primo individua due eventi che non possono verificarsi nel medesimo momento e, parlando di insiemi che non hanno nulla in comune tra loro, lo abbiamo trovato

2 Un sistema di assiomi è coerente quando è privo di contraddizioni.

3 Un insieme viene detto essere chiuso rispetto a determinate operazioni quando il risultato delle suddette è esso

(8)

espresso nell'ultimo assioma, associato alla regola dell'addizione delle probabilità, detta anche “regola dell'additività finita”. Il secondo, lo abbiamo trovato parlando della regola di moltiplicazione delle probabilità.

Passiamo al teorema di Bayes. Partiamo dalla definizione di probabilità condizionale P(B/A) = P(A∩B)/P(A), da cui otteniamo, se P(A) ≠ 0, che P(A∩B) = P(B/A)P(A). Considerando che P(A/B) = P(A∩B)/P(B), otteniamo, sostituendo nell'ultima formula P(A∩B) con quanto ottenuto sopra, P(A/B) = P(B/A)P(A)/P(B). La precedente relazione è la formulazione più semplice del teorema di Bayes.

Consideriamo ora il teorema della probabilità totale, il quale ci dice: sia A1UA2U...UAn = E

(supponiamo che gli eventi A1, A2,..., An siano incompatibili) e sia X un evento arbitrario,

allora P(X) = P(A1)P(X/A1) + P(A2)P(X/A2)... + P(An)P(X/An).

Da questo otteniamo un'ulteriore formulazione del teorema di Bayes: sia A1UA2UA3U...UAn =

E (e supponiamo che gli eventi Ai, con i che va da 1 ad n, siano incompatibili) e sia X un

evento arbitrario, allora P(Ai/X) = P(Ai)P(X/Ai)/[P(A1)P(X/A1) + P(A2)P(X/A2)... +

P(An)P(X/An)], con i = 1, 2, ..., n.

Come abbiamo detto all'inizio, tutti gli assiomi di cui abbiamo parlato, riferiti agli spazi dei campioni finiti, valgono anche per gli spazi dei campioni infiniti, sebbene occorra aggiungerne un altro, l'assioma di continuità:

• Per una sequenza decrescente di eventi A1⊃A2⊃ ⊃… An⊃… con ∩n An = Ø abbiamo che

il limite di P(An), con n che tende ad infinito, è pari a 0.

Precedentemente abbiamo riferito la probabilità ad insiemi di eventi, tuttavia essa può essere attribuita, con i medesimi assiomi e i medesimi concetti, agli enunciati che hanno per oggetto gli eventi in questione. I due linguaggi, quello degli eventi e degli enunciati, sono isomorfi e differiscono per il fatto che la probabilità di un evento è la sua probabilità di accadere oppure no, mentre quella di un enunciato è la probabilità che esso sia vero o falso. Inoltre, mentre per gli eventi si usano le notazioni della teoria degli insiemi (∩, U), per gli enunciati si utilizzano i connettivi logici (˄, ˅). Grossolanamente possiamo dire che c'è corrispondenza tra ∩ e e∧ tra U e ˅, ovvero una corrispondenza tra un insieme di eventi e un insieme di enunciati. Quella di Kolmogorov non è l'unica assiomatizzazione data alla probabilità, anzi ne esistono altre molto diverse. Tuttavia è quella che ha avuto più successo e quando si parla di calcolo delle probabilità, spesso si intendono gli assiomi che ha formulato Kolmogorov.

1.3 – I vari significati del termine “probabilità”

Esistono diverse interpretazioni della parola “probabilità”. Qui ne prenderemo in considerazione quattro, due delle quali rientrano nel più ampio gruppo di “probabilità

(9)

oggettiva”, mentre le restanti due in quello di “probabilità soggettiva”. Inizialmente spiegheremo in modo generale in che cosa consistono questi due ampi raggruppamenti e successivamente prenderemo in considerazione le quattro categorie in cui si dividono.

Per spiegare cosa si intende per “probabilità oggettiva”, iniziamo con il prendere in considerazione il seguente esempio:

(1) Questa moneta è sbilanciata verso testa: la probabilità di ottenere testa è di circa 0,6.

Al riguardo di questo enunciato possiamo osservare che se esso è vero o falso, lo è indipendentemente da quello che sappiamo sulla moneta: lo è per come è il mondo, soprattutto per le caratteristiche della moneta e dell'apparato di lancio. Se (1) è vero, supponiamo che la moneta sia asimmetrica, oppure che ci sia qualcosa di insolito nell'apparato di lancio. Immaginiamo che (1) possa essere spiegato con fatti ricavati dalla geometria della moneta o comunque dalle leggi della fisica. Potremo infine condurre esperimenti per controllare (1), per esempio effettuare molte prove nello scenario causale in questione osservando la frequenza relativa della teste: se otteniamo 63 teste distribuite irregolarmente su 100 lanci, siamo disposti ad accettare (1), ma se ne otteniamo solo 37, ne dubitiamo molto. In sintesi (1) enuncia un fatto su come è il mondo e possiamo raccogliere dati per accertarci se è vero o falso.

Enunciati probabilistici di questo tipo rimandano ad una particolare idea di probabilità, che, come abbiamo detto, viene solitamente definita “oggettiva”. Una tale definizione è dovuta al fatto che la verità dell'enunciato (1) non sembra avere nulla a che fare con le nostre credenze. L'enunciato sembra essere del tutto fattuale: riguarda appunto un oggetto materiale, la moneta, e il sistema di lancio. Ciò non toglie che possiamo comunque sbagliarci e che la moneta sia invece bilanciata, ma ci siamo fatti ingannare dal numero di lanci ottenuti. Stiamo comunque parlando di una proprietà fisica della moneta la quale può essere oggetto di indagini sperimentali. Questa proprietà fisica consiste nella frequenza relativa delle teste che si assesta su un valore del 60% o comunque nella propensione o tendenza della moneta a darci testa. Per questo motivo la probabilità oggettiva viene spesso chiamata “probabilità come frequenza”. Prendiamo ora in considerazione l'altro gruppo, quello della “probabilità soggettiva”, considerando il seguente enunciato:

(2) Prendendo in considerazione tutti i dati disponibili, la probabilità che i dinosauri si estinsero perché un gigantesco asteroide colpì la terra è pari a circa il 90%.

(2) si presenta come un'affermazione sulla misura del sostegno offerto dai dati empirici all'ipotesi H secondo cui i dinosauri si estinsero perché un gigantesco asteroide colpì la terra. L'ipotesi H è un'affermazione sul mondo: se essa è vera lo è per come è il mondo e per quanto

(10)

accaduto durante l'epoca dei dinosauri. Allo stesso modo sono affermazioni sul mondo i dati che possiamo proporre a supporto dell'ipotesi H in (2): essi hanno a che fare con le leggi della fisica, della geologia, della biologia, ecc... ed è quindi possibile effettuare esperimenti per controllarli. L'affermazione (2) tuttavia non asserisce né solo H né solo E, ma una relazione tra le due. Se (2) è vera allora non lo è per come è il mondo, ma per il sostegno offerto dai dati disponibili all'ipotesi H, per la relazione quindi tra questi dati e l'ipotesi in questione. L'enunciato probabilistico (2) viene solitamente chiamato “interpersonale”. La ragione di ciò è che di una persona che afferma (2) possiamo dire che dà per scontato che qualsiasi persona ragionevole, che rifletta sui dati disponibili, troverà razionale concludere che fu un asteroide a causare l'estinzione dei dinosauri. Questa persona inoltre, dal momento che ritiene che (2) sia interpersonale e che parli di grado razionale di credenza, considererà questo enunciato oggettivo nella misura in cui esprime una relazione logica tra i dati ed H e non oggettivo nel senso sopra considerato, ovvero relativo ad un fatto del mondo.

Possiamo tuttavia esprimerci circa la questione asteroide/dinosauri anche in un altro modo. Possiamo infatti semplicemente dire:

(3) personalmente sono pressoché sicuro che i dinosauri si siano estinti perché un gigantesco asteroide colpì la terra.

Oppure in modo più preciso:

(4) se dovessi scommettere sulla questione, scommetterei 9 contro 1 che i dinosauri si estinsero perché un gigantesco asteroide colpì la terra.

Affermazioni come (3) e (4) vengono invece dette “personali” perché si riferiscono al grado di credenza dell'individuo singolo e non al grado di credenza che tutti gli individui razionali dovrebbero avere.

Possiamo quindi dire che la probabilità soggettiva consta di due interpretazioni: quella interpersonale e quella personale. Torneremo su questa distinzione successivamente. Per ora limitiamoci ad osservare che poiché tali enunciati probabilistici hanno a che fare con le credenze, siano esse soggettive o interpersonali, si è soliti chiamare questo ampio gruppo della probabilità soggettiva “probabilità come credenza”.

Prima di prendere in considerazione le varie categorie in cui si dividono i due tipi di probabilità, occorre fare alcune precisazioni generali. Anzitutto dobbiamo considerare che ci sono situazioni in cui risulta naturale assumere un punto di vista come frequenza ed altre in cui risulta naturale assumere un punto di vista come credenza.

Consideriamo il seguente esempio. Ci sono due aziende che producono paraurti, la Bolt&Co. e la Acme Inc. La Bolt fornisce ad una certa fabbrica il 40% dei paraurti, mentre la Acme il 60%. Fra i paraurti di quest'ultima il 96% supera i controlli di affidabilità, mentre la Bolt ha

(11)

avuto dei problemi alla catena di montaggio e negli ultimi tempi solo il 72% dei suoi paraurti è risultato affidabile. Ora ci chiediamo: qual è la probabilità che un paraurti preso a caso risulti affidabile? Per rispondere a questa domanda dobbiamo considerare che ci sono due modi di estrarre un paraurti affidabile: o esso proviene dalla Bolt&Co. con una probabilità del 40% o esso proviene dalla Acme Inc. con una probabilità del 60%. Inoltre tra il 40% dei paraurti forniti dalla Bolt, il 96% risulta affidabile, mentre del 60% dei paraurti forniti dalla Acme, solo il 72% risulta affidabile. Avendo presente queste informazioni possiamo concludere che la probabilità che un paraurti preso a caso sia affidabile, chiamiamola P(R), è pari a P(R) = P((B⋀R)⋁(A⋀R)), dove P(B R⋀ ) indica la probabilità che un paraurti preso a caso provenga dalla Bolt e sia affidabile, mentre P(A R⋀ ) che esso provenga dalla Acme e sia affidabile. I due eventi ora considerati sono reciprocamente esclusivi, in quanto non possono accadere contemporaneamente; questo significa che le loro probabilità possono essere sommate, quindi P(R) = P(B⋀R) + P(A⋀R). Inoltre gli eventi B e A e l'evento R sono indipendenti dal momento che la probabilità che accada l'uno non influisce sulla probabilità che accada l'altro; da ciò segue che le loro probabilità possono essere moltiplicate, otteniamo allora che P(R) = (P(B) x P(R)) + (P(A) x P(R)), la quale, svolgendo i vari calcoli, è pari a 0,874. Vogliamo ora sapere qual è la probabilità che un paraurti preso a caso, controllato e risultato affidabile, sia fabbricato dalla Bolt, ovvero qual è il valore di P(B/R). Per calcolare questa probabilità basta applicare il teorema di Bayes, ovvero P(B/R) = P(B)P(R/B)/P(R). Svolgendo i calcoli, questa probabilità risulta pari ad 1/3.

In questo esempio risulta naturale assumere un punto di vista frequentistico: stiamo parlano di un articolo prodotto su larga scala in catene di montaggio e osserviamo le frequenze relative dei pezzi difettosi e di quelli affidabili provenienti dalle due linee, le quali devono rispecchiare una differenza tra le due aziende.

Prendiamo ora in considerazione un ulteriore esempio. Immaginiamo di essere un medico e di ritenere che uno dei nostri pazienti abbia la tonsillite, anche se non ne siamo sicuri. Preleviamo dal paziente alcuni campioni di muco e li inviamo ad un laboratorio perché li analizzi. L'esame tuttavia non è infallibile: se il paziente ha la tonsillite, l'esito sarà SÌ nel 70% dei casi, mentre NO nel 30%, mentre se il paziente non ha la tonsillite, l'esito sarà NO nel 90% dei casi, e SÌ nel 10% dei casi. Inviamo al laboratorio cinque campioni prelevati tutti dal medesimo paziente e otteniamo nell'ordine i seguenti risultati: Sì, NO, Sì, NO, Sì. Dobbiamo capire qual è la probabilità che il paziente abbia la tonsillite dati quei risultati di laboratorio. Per rendere la trattazione più lineare, utilizziamo la seguente notazione:

T = il paziente ha la tonsillite. ¬T = il paziente non ha la tonsillite.

(12)

S = il risultato di un test è positivo. N = il risultato di un test è negativo.

Dobbiamo capire quale sia la probabilità che il paziente abbia la tonsillite alla luce dei risultati di laboratorio, ovvero quanto è P(T/SNSNS). Anche in questo caso possiamo utilizzare il teorema di Bayes. Abbiamo quindi P(T/SNSNS) = P(T)P(SNSNS/T)/P(T)P(SNSNS/T) + P(¬T)P(SNSNS/¬T). Per effettuare il calcolo dobbiamo dare un valore ai termini alla destra dell'uguale. Anzitutto sappiamo che:

P(S/T) = 0,7; P(N/T) = 0,3. P(S/¬T) = 0, 1; P(N/¬T) = 0,9.

Assumiamo inoltre che gli esiti di test diversi siano indipendenti. Abbiamo quindi: P(SNSNS/T) = 0,7 x 0,3 x 0,7 x 0,3 x 0,7 = 0,03087;

P(SNSNS/¬T) = 0,1 x 0,9 x 0,1 x 0,9 x 0,1 = 0,00081.

Poniamo inoltre che P(T) = 0,9, in quanto secondo noi è verosimile che il paziente abbia la tonsillite e se dobbiamo dare un numero a questa verosimiglianza, gli daremo 90%.

A questo punto sostituiamo i vari valori nell'espressione del teorema di Bayes ed otteniamo: P(T/SNSNS) = 0,997.

Partendo quindi dall'assunzione che P(T) = 0,9, abbiamo stabilito che P(T/SNSNS) è quasi uguale ad 1. A questo punto il medico concluderà che è molto probabile che il paziente, dati quei dati di laboratorio, abbia la tonsillite.

Passiamo ora ad un altro caso, quello della “pura e semplice ignoranza”, in cui ad una persona che non è un medico e che non sa quindi leggere i sintomi, viene chiesto se quello stesso paziente abbia la tonsillite oppure no. Come modello dell'ignoranza della persona suddetta possiamo prendere una moneta bilanciata; poniamo quindi che per una tale persona:

P(T) = 0,5.

Successivamente questa viene a conoscenza dei risultati dei test di laboratorio. Vediamo come cambia il suo giudizio al riguardo del paziente. Anche in questo caso applichiamo il teorema di Bayes per conoscere P(T/SNSNS). Tutti i valori dei termini del teorema di Bayes rimangono uguali eccetto P(T) = 0,5. Svolgendo i calcoli otteniamo che P(T/SNSNS) = 0,974. I test di laboratorio quindi aumentano di molto la probabilità che il paziente abbia la tonsillite. In questi ultimi due esempi, anche se usiamo dati frequetistici (la probabilità dei falsi positivi), è comunque chiaro che stiamo parlando di credenze di un medico e di un dilettante ignorante prima e dopo aver considerato i test di laboratorio.

Occorre osservare che in entrambi gli esempi abbiamo utilizzato la regola di Bayes: la soluzione formale, logica e matematica, dei problemi è quindi la stessa, ma il loro significato è diverso.

(13)

Questi esempi ci permettono di vedere più da vicino la differenza tra la probabilità come frequenza e quella come credenza. Gli enunciati probabilistici di tipo frequentistico ci dicono come è il mondo: descrivono una proprietà fisica di una moneta o di un apparato di lancio oppure le pratiche produttive della Acme e della Bolt. Gli enunciati che si riferiscono ad una probabilità come credenza invece esprimono la credenza di una persona in un'ipotesi o ci dicono quanto una congettura o una preposizione è credibile alla luce dei dati empirici. A questo punto occorre tuttavia guardarsi da un errore. Si può pensare che nel momento in cui enunciamo un fatto, ci si aspetti che crediamo in quello che diciamo, che disponiamo di ragioni per enunciare quanto diciamo. Questo ci potrebbe far pensare che ogni enunciato su come è il mondo esprima delle credenze. Tuttavia non è così: un enunciato che descrive come è il mondo sicuramente può caratterizzarsi come un enunciato prodotto perché una persona ha certe credenze e ragioni a favore di quelle credenze, ma quello che dice non è: “ho delle ragioni per la mia credenza che p”, ma “il mondo è p”. Per questa ragione occorre distinguere tra ciò che dice una persona che enuncia una preposizione e le ragioni che una persona può avere per enunciare (o credere in) una certa preposizione. Accade anzi spesso che le persone non hanno ragioni per dire le cose che dicono. Quando si enuncia come è il mondo, si possono avere ottime ragioni per farlo, oppure limitarsi a sperare che l'enunciato sia vero, ma non avere nessuna ragione per ritenerlo tale, oppure mentire, nonostante si creda il contrario. Dagli esempi presi ora in considerazione è possibile inferire che in generale è naturale applicare la probabilità intesa come credenza ai casi unici, mentre è naturale assumere un punto di vista frequentistico quando si parla di eventi che accado in successione. La frequenza infatti è una caratteristica di eventi che accadono ripetutamente, come i giri di una roulette, i paraurti prodotti da una fabbrica, ecc. Non ha senso parlare della frequenza di un caso unico: un paziente è affetto da tonsillite oppure no. Se qualcuno allora si riferisce a probabilità del caso unico non può che intendere le probabilità come credenza. Non sempre tuttavia la distinzione è così semplici. Si può passare infatti in molti casi da un punto di vista frequentistico ad uno come credenza mediante una regola pratica, detta “principio della frequenza”. Vediamo in cosa questa consiste. Supponiamo di conoscere la probabilità come frequenza di un evento in prove di un certo tipo e di ignorare qualsiasi altra cosa sull'esito di una singola prova di quel tipo. La regola ci dice di assumere la probabilità intesa come frequenza come probabilità intesa come credenza per quel caso singolo.

Come abbiamo detto, il principio della frequenza è una regola pratica e solo in situazioni molto artificiose una probabilità come frequenza è assolutamente tutto quello che sappiamo sull'accadere di un evento. Una situazione di questo tipo può essere tratta dall'esempio dei paraurti prima considerato: dai calcoli sopra svolti sappiamo che la probabilità condizionale

(14)

che un paraurti sottoposto ad un controllo causale e trovato affidabile, sia fabbricato dalla Bolt è 1/3; dato questo, possiamo dire che la probabilità che questo determinato paraurti sia stato fabbricato dalla Bolt è 1/3. L'ultima circostanza considerata è un caso singolo: non esiste una frequenza con cui questo paraurti sia stato fabbricato dalla Bolt o no; o esso è stato fabbricato dalla suddetta fabbrica oppure no. Si è espressa quindi una probabilità come credenza basandosi su una probabilità come frequenza. Nella vita reale tuttavia è possibile incontrare situazioni simili a queste. Di solito infatti riceviamo informazioni non ben delimitate come la seguente: il servizio meteorologico ha esaminato il sottoinsieme più piccolo di settimane simili a quella appena terminata e ne ha ricavato la conclusione che tendenzialmente tali settimane si concludono con il verificarsi di precipitazioni. Spesso quando viene usato il principio della frequenza vengono fatti giudizi di pertinenza del seguente tipo: si sceglie un sottoinsieme di casi pertinenti dove far rientrare l'evento singolo a cui vogliamo assegnare la probabilità. Nella vita reale l'applicazione di un tale principio richiede una grande capacità di discernimento nel riconoscere il sottoinsieme pertinente, così da ottenere un enunciato su probabilità come frequenza degno di fede.

È possibile anche passare dal punto di vista frequetistico a quello della credenza mediante la probabilità di probabilità. Vediamo come. Supponiamo di giocare con una roulette che si è fermata dodici volte sul nero. Sospettiamo che essa sia sbilanciata. Facciamo qualche altro esperimento con la roulette e concludiamo che essa è fortemente sbilanciata a favore del nero, ovvero 0, 91 ≤ P(N) ≤ 0,93. Questa è un'affermazione su come è fatto il mondo: riguarda le proprietà delle roulette, il modo in cui è costruita e in cui gira. Si potrebbe tentare a questo riguardo una conclusione più precisa dicendo: “la probabilità che 0,91 ≤ P(N) ≤ 0,93 è di almeno il 95%”. In questo modo stiamo esprimendo una probabilità come credenza di una probabilità come frequenza: la probabilità che l'uscita del nero sia compresa tra 0,91 e 0,93 è una questione di fatto e possiamo discutere benissimo la probabilità che questo sia vero, ovvero discutere una probabilità come credenza di una probabilità come frequenza.

Finora abbiamo quindi preso in considerazione in modo generale i due gruppi di interpretazione della parola probabilità: “la probabilità oggettiva” detta anche “probabilità come frequenza” e “la probabilità soggettiva” detta anche “probabilità come credenza”. Adesso entreremo più nello specifico, prenderemo in considerazione due teorie della probabilità come frequenza e due teorie della probabilità come credenza, iniziando dalle seconde. Avevamo prima accennato che l'ampio gruppo della probabilità come credenza può essere distinto in due diverse interpretazioni, una di queste era stata chiamata “interpersonale” e l'altra “personale”. Vediamole ora più nello specifico, iniziando dalla “probabilità personale”. Secondo i sostenitori della “probabilità personale”, la probabilità esprime la

(15)

misura del grado di credenza personale di chi parla. Come ci dice Alan Hajek (2011): “in questo ambito abbiamo molteplici interpretazioni della probabilità, tante quanti sono gli stati doxastici degli agenti adatti: abbiamo il grado di credenza di Aaron, quello di Abel o quello di Abigail (...)”4. A prima vista questo tipo di probabilità potrebbe essere giudicato come

“soggettivo” nel senso di arbitrario e quindi inutilizzabile per la logica induttiva. In realtà si tratta di un'idea molto potente che verrà presa in considerazione successivamente: dimostreremo che se si vuole essere coerenti occorre avere probabilità personali che soddisfino gli assiomi della probabilità.

Quella di probabilità personale è un'interpretazione della probabilità come credenza abbastanza estrema. All'estremo opposto c'è la probabilità logica o “interpersonale”. Consideriamo nuovamente l'enunciato (2):

(2) Prendendo in considerazione tutti i dati disponibili, la probabilità che i dinosauri si estinsero perché un gigantesco asteroide colpì la terra è pari a circa il 90%.

Al riguardo di enunciati di questa forma, ricordiamo brevemente quanto era stato detto. Si tratta di enunciati che ci fanno pensare che chiunque sia ben informato dovrebbe condividere la medesima opinione. Inoltre i sostenitori della probabilità logica ritengono che enunciati di questo tipo esprimano una relazione logica, analoga alla deducibilità, fra H ed E. Le probabilità logiche quindi sono relazioni logiche tra i dati e un'ipotesi. Stando a questa concezione allora non ha senso parlare della sola probabilità di H: per la teoria logica della probabilità, la probabilità è sempre relativa ai dati.

Un principio utilizzato dai sostenitori della probabilità logica è il cosiddetto “principio di ragione insufficiente”, il quale afferma che nel caso in cui non c'è nessun dato pertinente in favore di un'ipotesi n, scelta tra un insieme di ipotesi reciprocamente esclusive ed esaustive (ovvero un insieme di ipotesi in cui solo una di queste può essere vera e almeno una di queste deve essere vera), si deve assegnare ad ognuna una probabilità pari ad 1/n. Si tratta di un principio che tuttavia porta ad un mare di paradossi. Un esempio di questi ci viene dato da Howson e Urbach (1989, pag. 45), i quali ci dicono: “supponete di estrarre una pallina da un'urna che ci è stato detto contenere palline bianche e colorate in una proporzione sconosciuta e che le palline colorate siano o rosse o blu. Quale tipo di pallina estrarremo? I nostri dati sembrano essere neutrali, ad una prima istanza, tra il fatto che la pallina sia bianca o colorata. Quindi secondo il principio di indifferenza, la probabilità che la pallina sarà bianca è di ½. Ma se essa è colorata, sarà rossa o blu e i dati sono sicuramente neutrali tra il fatto che la pallina sia bianca o blu o rossa. Quindi secondo il principio di indifferenza la probabilità che la pallina sia bianca è 1/3”5 (pag. 45). Otteniamo allora il risultato paradossale che il

4 Traduzione mia.

(16)

medesimo evento, nel medesimo tempo, assume due valori di probabilità diversi.

L'idea di probabilità logica risale ad almeno duecento anni fa, ma la prima trattazione sistematica di essa si deve a Jhon Maynard Keynes (1883 – 1946), il famoso economista alla cui teorie alcuni attribuiscono il merito di aver salvato il capitalismo dalla Grande depressione (1929 – 1936). Il suo primo lavoro importante fu il Trattato della Probabilità (1921), grazie al quale divenne prize fellow all'università di Cambridge, una sorta di titolo postdottorale, anche se va comunque ricordato che Keynes non aveva conseguito il dottorato. Un altro famoso esponente della probabilità logica, ispirato dal lavoro dello stesso Keynes, fu Rudolf Carnap. Un esponente della versione personalistica della probabilità fu invece Frank Plumpton Ramsey (1903 – 1930), un altro giovane di Cambridge, il quale nel 1926 presentò la prima teoria moderna della probabilità personale. Questi, che diede contributi importanti all'economia, alla logica matematica e alla teoria della probabilità e alla filosofia, morì all'età di soli 26 anni durante un'operazione. Altre due figure importanti nella storia della probabilità personale sono state il matematico italiano Bruno De Finetti e l'americano Leonard J. Savage. Il primo propugnò le sue idee negli stessi anni in cui era attivo Ramsey. Mentre quest'ultimo era disposto ad ammettere un tipo di probabilità frequentistico, soprattutto in meccanica quantistica, De Finetti era invece convinto che l'unico tipo di probabilità possibile fosse quello personale e del medesimo avviso era Savage. Possiamo quindi definire entrambi “dogmatici della credenza”.

Passiamo ora al primo gruppo, quello della probabilità come frequenza. Una prima interpretazione relativa a questo gruppo identifica la probabilità di un esito con la frequenza relativa dello stesso nei tempi lunghi. Per esprimere il concetto di frequenza relativa nei tempi lunghi sono state utilizzate due nozioni matematiche: quella di convergenza e quella di limite matematico. Possiamo quindi dire che data una successione infinita di prove, la probabilità di un esito è pari al limite cui converge la sua frequenza relativa. Oltre la convergenza del limite, un altro requisito fondamentale affinché il valore del limite possa rappresentare la probabilità dell'esito è che la successione infinita di esiti, cui appartiene l'esito che stiamo studiando, non deve essere determinata, ovvero deve comportare l'impossibilità di un sistema di gioco vincente. Una sequenza di esiti che presenta queste caratteristiche viene definita “casuale”. Detto in altro modo, possiamo dire che una successione infinita di esiti è casuale quando questi sono indipendenti, ovvero l'accadere dell'uno non influisce sull'accadere dell'altro. Un altro modo in cui viene espressa l'idea di casualità è tramite l'idea di complessità: le successioni causali sono talmente complesse da risultare imprevedibili. La misura della complessità di una successione casuale viene data dalla lunghezza del programma di calcolo più breve in grado di generarla, e una successione viene detta casuale se il programma più

(17)

breve in grado di generarla ha almeno la sua stessa lunghezza. Il primo ad enunciare chiaramente questa teoria della probabilità fu John Venn nel 1866; a svilupparla in modo sistematico fu poi nel 1928, l'austriaco Richard von Mises (1883 – 1953), studioso di matematica applicata all'aerodinamica e filosofo che insegnò ad Harvard.

L'idea di frequenza limite rappresenta un caso estremo di probabilità come frequenza. Essa idealizza una serie di risultati effettivi di prove condotte in uno scenario causale e mette in primo piano quello che vediamo accadere e non le cause o le strutture sottostanti. Esistono tuttavia frequenze relative stabili solo se uno scenario esibisce certe proprietà fisiche o geometriche profonde e questa struttura di base può esistere anche quando di fatto non si esegue nessuna prova. Un'altra idea estrema di probabilità come frequenza mette infatti in evidenza questa tendenza, disposizione e propensione dello scenario causale a generare determinate frequenze relative stabili. Osserviamo che una tale interpretazione delle asserzioni probabilistiche ha ovviamente un carattere ontologico: la probabilità denota la disposizione propria di una situazione fisica, la quale non è osservabile direttamente, ma bensì si manifesta secondo effettive frequenze relative di eventi. Come ci dice Amsterdamski nella voce “Caso/probabilità” dell'Enciclopedia Einaudi: “un'interpretazione siffatta fa apertamente appello al vecchio concetto ontologico di “potenzialità” o di “possibilità” e tratta le frequenze relative come la loro misura quantitativa. Essa stabilisce una chiara differenza tra il concetto di probabilità e quello di frequenza relativa, assumendo che tra i due concetti ci sia una corrispondenza, ma non un'equivalenza” (pag. 684). Quest'ultima teoria della probabilità viene detta “probabilità come propensione”. La sua formulazione si deve al filosofo Karl R. Popper (1902 – 1994), originario di Vienna, il quale insegnò alla London School of Economics.

Nella trattazione precedente sono stati presi in considerazione i nomi dei dogmatici della credenza e della frequenza, ovvero studiosi i quali ritengono che il ragionamento induttivo dovrebbe essere analizzato solo rispettivamente in termini di credenza e in termini di frequenza. C'è tuttavia un approccio eclettico il quale valorizza entrambe le famiglie di idee. Questo approccio si basa sulla constatazione che la maggior parte (ma non la totalità) dei dati e degli argomenti che possono essere analizzati da un frequentista dogmatico, possono essere analizzati anche da un dogmatico della credenza e viceversa. Secondo questo approccio gli esponenti delle due scuole di pensiero compiono inferenze realmente diverse a partire dai medesimi dati solo in rare occasioni. Si ritiene che la differenza fondamentale tra i due approcci consista unicamente nel modo di procurarsi i dati, ovvero nella maniera migliore di organizzare gli esperimenti che servono per raccogliere le informazioni più utili.

(18)

di vista della frequenza a quello della credenza mediante il principio della frequenza. Forniamo di seguito un altro esempio di questa circostanza. Consideriamo la seguente affermazione:

(5) la probabilità che domani si verifichino precipitazioni è del 30%.

Questa è un'affermazione sulla pioggia di domani e quindi su un caso unico, pertanto essa enuncia una probabilità come credenza.

Se chiediamo tuttavia al servizio meteorologico cosa intendono dire, questi ci risponderebbero più o meno così:

(6) abbiamo confrontato le condizioni meteorologiche della settimana scorsa con una banca di dati molto estesa e selezionato tutte le settimane che somigliano a quella appena terminata sotto gli aspetti pertinenti. In trenta casi su cento queste settimane sono state seguite dalla pioggia. Quindi dopo una settimana come quella trascorsa la probabilità che domani pioverà è del 30%.

Questa è una probabilità come frequenza e quindi al servizio meteorologico hanno utilizzato il principio della frequenza.

Secondo alcuni meteorologi tuttavia quando si dice 5) in realtà si intende 6), quindi questi ritengono che 5) sia unicamente un'abbreviazione di 6). Questi meteorologi quindi sono dogmatici della frequenza.

Contro di loro ci sono i dogmatici della credenza i quali ritengono che i meteorologi non dovrebbero mai pensare in termini di frequenze, in quanto nel fare previsioni non si basano solo sulle frequenze delle precipitazioni del passato ma usano informazioni di ogni genere fra cui 6) e azzardano anche giudizi personali. Quindi secondo questi 5) non è l'abbreviazione di nulla, ma è esattamente quello che sembra: un enunciato probabilistico come credenza. 1.3.1 – La probabilità personale

Concentriamoci ora sull'interpretazione della probabilità oggetto di questa tesi, ovvero l'interpretazione personale, la quale identifica la probabilità con la misura del grado di credenza personale dell'individuo in una preposizione o in un evento. Questo tipo di probabilità viene spesso detto bayesiano in quanto in esso, come vedremo, la regola di Bayes, intesa come modello di apprendimento dall'esperienza, svolge un ruolo fondamentale. Il primo passo da compiere per poter parlare di probabilità bayesiana è capire come si possono rappresentare numericamente i gradi soggettivi di credenza. Uno dei metodi più utilizzati a questo riguardo è quello di sottoporre l'individuo a delle scommesse immaginarie. Prendiamo in considerazione un esempio che ci permetta di capire meglio. Scegliamo una moneta che sembra bilanciata e immaginiamo di sottoporre l'individuo alla seguente scommessa:

(19)

vincere 10$ se accade l'evento 1): il prossimo 21 marzo a Toronto ci sarà una forte nevicata;

Vincere 10$ se accade l'evento 2): questa moneta bilanciata darà testa la prima volta che verrà lanciata il prossimo 21 marzo.

Se l'individuo preferisce l'opzione 1) allora per lui la probabilità che nevichi il 21 marzo deve essere superiore a quella che la moneta dia testa, quindi le attribuiremo una probabilità superiore a ½. Supponiamo che scelga 1) e di sottoporlo ad un'altra scommessa:

vincere 10$ se 1);

vincere 10$ se 3): questa moneta bilanciata darà testa almeno una volta nei primi due lanci del prossimo 21 marzo.

La probabilità di 3) è ¾, quindi se preferisce 3) a 1) la probabilità personale che attribuiamo ad 1) sarà compresa tra ½ e ¾. Se preferisce 1) a 3) la probabilità personale che attribuiamo a 1) supererà i ¾, mentre se non abbiamo preferenza tra le due, allora la probabilità che attribuiamo ad entrambe è di circa ¾. L'ambito della variazione può essere ristretto ulteriormente decidendo di fare un confronto, per esempio, con tre lanci consecutivi di una moneta oppure immaginando un'urna che contiene k palline verdi e n – k palline rosse. In questo modo sarà possibile calibrare le credenze in base al grado di precisione preferito. Questi esperimenti quindi possono essere concepiti come casualizzazioni artificiali che ci permettono di assegnare dei valori numerici ai nostri gradi di credenza personali.

Abbiamo detto che quando per l'individuo è indifferente scommettere su 1) o 3) la sua probabilità personale è di “circa” ¾. Non è tuttavia possibile darle un valore preciso. La credenza infatti non è il genere di cosa che si riesce a misurare esattamente e questo metodo non è in grado di determinare il grado soggettivo dell'individuo con una precisione di molti decimali; esso tuttavia è in grado di essere preciso fin dove la precisione ha senso per noi. Supponiamo per esempio che qualcuno preferisca:

vincere 10$ se 4): questa moneta bilanciata darà testa sette volte di fila nei primi sette lanci del prossimo 21 marzo;

Piuttosto che

vincere 10$ se 5): il prossimo 21 marzo a Columbia, South Carolina, ci sarà una forte nevicata;

e però preferisca

vincere 10$ se 6): questa moneta bilanciata darà testa otto volte di fila nei primi otto lanci del prossimo 21 marzo.

In questo modo è possibile calibrare la probabilità personale p di questa persona che il prossimo 21 marzo a Columbia ci sarà una forte nevicata. Potremmo infatti dire che:

(20)

1/256 ≤ p ≤ 1/128 ovvero 0,0039 ≤ p ≤ 0,0078.

Se volessimo rappresentare con un numero questa probabilità personale potremo dire, poniamo, che essa è 0,006, ma non perché abbiamo misurato il grado di credenza della persona, ma piuttosto perché possiamo trovare conveniente rappresentare con un numero quel grado di credenza.

Gli esperimenti mentali considerati finora non comportano nessun rischio: non si può mai perdere nulla in nessuno dei casi descritti. Immaginiamo ora scommesse più rischiose, situazioni in cui possiamo vincere o perdere. Supponiamo di fare una scommessa con un'altra persona su un evento o preposizione A. Supponiamo di giocare per soldi e di puntare X dollari su A, mentre il nostro avversario punta Y dollari contro A. Se A non si verifica il nostro avversario si prende i nostri X dollari, se invece A si verifica, allora prendiamo Y dollari dal nostro avversario. X rappresenta la mia puntata, mentre Y la puntata del nostro avversario. La somma X + Y dollari viene chiamata “posta in gioco”. Viene chiamata “quotazione” della nostra scommessa ed indicata con p, il rapporto tra la nostra puntata e la posta in gioco, quindi la nostra quotazione su A è p = X/(X + Y). Il modo più semplice per visualizzare una scommessa consiste nel preparare una tavola, detta “matrice dei pay-off”, la quale illustra le vincite che si ottengono con una una posta in gioco di S dollari e una quotazione p.

Noi puntiamo pS$ su A, mentre il nostro avversario scommette contro di noi (1 – p)S$. La matrice dei pay-off assume allora il seguente aspetto:

Pay-off della puntata di A Pay-off della puntata contro A

A (1 – p)S -(1 – p)S

¬A -pS pS

Consideriamo un altro esperimento mentale. Supponiamo di non sapere se l'evento E accadrà e che ci venga offerta la seguente scommessa:

l'opzione (E): possibilità di vincere (1 – p)(10$) se si verifica E; l'opzione (¬E): possibilità di vincere p(10$) se non si verifica E.

A questo punto dobbiamo scegliere p, dopo di che colui che ci ha offerto la scommessa dovrà scegliere o l'opzione E o l'opzione ¬E. Se a nostro parere p è una quotazione equa allora nessuna delle due opzioni è vantaggiosa, se invece dopo la scelta di p troviamo E) preferibile a ¬E), si dovrebbe aumentare p. In generale possiamo dire che p è una quotazione equa di una scommessa su E quando ci risulta indifferente scegliere tra:

una scommessa su E con quotazione p: vinciamo (1 – p)10$ se si verifica E, come nell'esempio prima considerato.

una scommessa contro E alla quotazione (1 – p): vinciamo p10$ se non si verifica E, come sopra nell'opzione (¬E).

(21)

Se consideriamo equa una quotazione p riteniamo che non c'è nessun vantaggio nello scommettere in un modo oppure in un altro. Questo concetto si può esprimere in modo più sintetico nel seguente modo: la quotazione equa della scommessa contro E è l'inversa della quotazione equa della scommessa su E.

Nella realtà uno scommettitore vuole ricavare un profitto dalle sue scommesse: non punta un dollaro per vincerne tre se E si verifica e non ne punta tre per vincerne uno se E non si verifica, in quanto egli vuole un margine.

Se pensa che ¬E sia tre volte più probabile di E punterà un dollaro per vincerne più di tre se si verifica E. Egli vuole vincere (3 + X)$, dunque la sua quotazione per una scommessa su E è 1/(1 + 3 + X) perché ritiene che gli dia un vantaggio: vuole una scommessa a suo favore. Se invece scommette contro E e punta tre dollari, vuole vincerne più di uno: egli punta tre dollari per vincerne (1 + X) se E non accade, e la sua quotazione per una scommessa contro E è 3/(1 + 3 + X). Quando allora nella vita reale chiediamo ad un allibratore di scommettere su un determinato evento, sicuramente la somma delle quotazioni che ci saranno offerte sarà minore di uno.

In questo contesto tuttavia noi stiamo parlando di esperimenti mentali che ci permettano di rappresentare i nostri gradi di credenza, quindi essi consisteranno in scommesse “senza margine”. Una scommessa senza margine è allora una scommessa equa e, come abbiamo detto, una scommessa è equa quando il soggetto ritiene che non si tragga alcun vantaggio dallo scommettere su E alla quotazione p né dallo scommettere contro E alla quotazione (1 – p).

Per concludere la nostra argomentazione, occorre spiegare come ottenere probabilità personali condizionali. A questo proposito ci occorre l'idea di scommessa condizionale. Una scommessa viene detta condizionale quando presuppone una condizione e tutte le altre puntate vengono annullate se questa non si dà. Un esempio di scommessa condizionale è il seguente: noi scommettiamo, per esempio, un dollaro che nevicherà a condizione che la temperatura scenda sotto lo zero; il nostro avversario, sempre alla condizione che la temperatura scenda sotto lo zero, scommette due dollari che non nevicherà. La posta in gioco è quindi di tre dollari. Se la temperatura resta sopra lo zero, allora la scommessa non vale più e nessuno vince o perde; se invece scende sotto lo zero, la scommessa vale e c'è una vincita netta: nostra di due dollari (se nevica), dell'avversario di uno (se nevica).

Le quotazioni condizionali sono allora come quelle ordinarie; la nostra quotazione di scommessa su A, condizionata a B, è quindi: la nostra scommessa condizionale/la posta in gioco.

(22)

mentre quella del nostro avversario è di 2/3. La nostra scommessa condizionale infatti è di un dollaro, mentre la scommessa condizionale del nostro avversario è di due dollari, per una posta in gioco totale di 3 dollari.

In modo generale possiamo dire che, se la posta è di S dollari e scommettiamo su A alla condizione B e alla quotazione p, scommettiamo pS dollari su A. Inoltre se B non si verifica la scommessa non vale più; se si verificano A e B vinciamo (1 – p)S dollari; se si verifica B ma non A perdiamo pS dollari.

Analogamente, se scommettiamo contro A alla condizione B e la quotazione della scommessa su A, dato B, è p, allora scommettiamo (1 – p)S$ e se B non si verifica la scommessa non vale più. Se si verificano A e B perdiamo (1 – p)S dollari; se si verifica B ma non A vinciamo pS dollari.

Di seguito presentiamo la matrice dei pay-off di una scommessa condizionale su A dato B, con quotazione p e posta totale pari a S$:

Pay-off della scommessa su A

dato B Pay-off della scommessacontro A dato B

A&B (1 – p)S$ -(1 – p)S$

(¬A)&B -pS$ pS$

¬B 0 0

Possiamo quindi considerare conclusa la spiegazione di come si possono rappresentare numericamente i gradi di credenza. Adesso andremo a spiegare perché questi numeri devono soddisfare gli assiomi della probabilità e quindi la regola di Bayes. Infine considereremo come usare la regola di Bayes per rivedere o aggiornare le nostre probabilità personali alla luce dei nuovi dati.

Concentriamoci quindi nello spiegare perché le quotazioni personali devono soddisfare gli assiomi della probabilità.

Abbiamo detto che è possibile esprimere le nostre probabilità personali numericamente mediante i quozienti di scommessa. Stiamo parlando tuttavia di quotazioni personali, pertanto nulla ci impedisce di scegliere una frazione qualsiasi a nostro piacimento. Questo però può portarci a cadere in contraddizione. Supponiamo, per esempio, che ci interessino due sole possibilità, S e ¬S:

S: la notte del prossimo 21 marzo alla stazione meteorologica dell'aeroporto internazionale di Toronto la temperatura scenderà sotto zero;

¬S: la notte del prossimo 21 marzo alla stazione meteorologica dell'aeroporto internazionale di Toronto la temperatura non scenderà sotto zero.

A questo punto scegliamo determinate quotazioni su questi due eventi a nostro piacimento, in base a quello che sentiamo, ragionando come di seguito.

(23)

Siamo depressi e S ci fa pensare all'inverno. Secondo noi è più probabile che faccia freddo, meno probabile che non ne faccia; decidiamo quindi che la nostra quotazione su S sia di 5/8. Pensare a ¬S ci fa stare allegri, e poniamo una quotazione su ¬S di ¾; quella contro ¬S è allora pari a (1 – ¾) = ¼, che corrisponde a una quotazione su S di ¼.

Le quotazioni appena date, come vediamo, non sono compatibili, ma contraddittorie. Generalizziamo ora questa idea di quotazioni contraddittorie.

Un contratto di scommessa è un contratto che mira a dare certe quotazioni concordate a una scommessa o a un gruppo di scommesse e un allibratore è una persona che stipula contratti di scommessa: ci paga il premio se vinciamo e si prende i nostri soldi se perdiamo.

Un allibratore intelligente vede le quotazioni delle nostre scommesse sul tempo in quanto le abbiamo pubblicizzate e ci offre un contratto alle nostre quotazioni, però è lui a scegliere come scommettere. Noi puntiamo 5 dollari su S, l'allibratore invece ne punta tre. Se accade S, allora noi vinciamo tre dollari, altrimenti ne perdiamo cinque. Inoltre noi puntiamo sei dollari su ¬S, mentre l'allibratore ne punta due. Se ¬S accade allora noi vinciamo due dollari, altrimenti ne perdiamo sei.

Per comprendere meglio la situazione consideriamo la seguente tabella, dove le nostre vincite sono contrassegnate con “+” e le nostre perdite con “-”.

Scommessa su S Scommessa contro S vincita

S +3$ -6$ -3$

¬S -5$ +2$ -3$

Comunque vada il prossimo 21 marzo, perderemo 3$. Questo è un contratto a perdita certa. In modo più generale possiamo dire che per una persona X un contratto a perdita certa è un contratto con Y, alle quotazioni di X, tale che qualsiasi cosa accada X perderà. Pubblicizzare quotazioni esposte al rischio di un contratto a perdita certa, oltre ad essere folle, è anche un errore logico. Le nostre quotazioni sono in sé contraddittorie. Dal momento però che nella logica deduttiva il termine “contraddittorio” ha un significato preciso, in logica induttiva chiamiamo incoerenza questo tipo di errore. Un insieme di quotazioni viene detto coerente solamente se non è esposto al rischio di un contratto a perdita certa. Di seguito dimostreremo che un insieme di quotazioni è coerente solo se soddisfa le regole base della probabilità. Ricapitoliamo quanto detto fino ad ora: i gradi personali di credenza possono essere rappresentati per mezzo di quotazioni; le quotazioni devono essere coerenti; un insieme di quotazioni è coerente solamente se soddisfa le regole base della probabilità. Possiamo quindi concludere che i gradi soggettivi di credenza devono soddisfare le regole base della probabilità. Dimostriamo ora che i quozienti di scommessa sono coerenti solo se soddisfano gli assiomi della probabilità, verificando questo requisito per ogni assioma. Indichiamo con p

(24)

il nostro quoziente di scommessa su una determinata preposizione A.

Iniziamo con il primo assioma riguardante il valore di p secondo l'assiomatizzazione della probabilità di Kolmogorov (si veda il paragrafo 1.2). Esso richiede che 0 ≤ p ≤ 1. Un tale assioma è senz'altro soddisfatto perché le quotazioni sono per definizione frazioni comprese tra 0 e 1.

Il secondo assioma riguardante il valore di p richiede che P(E) = 1, ovvero che la probabilità di un evento certo sia pari ad 1. Immaginiamo che A sia sicuramente vera, ma che la nostra quotazione di scommessa su A sia p < 1. In questo caso l'allibratore ci chiederà di scommettere contro A alla quotazione (1 – p) e se la posta in gioco è 1$, noi perdiamo (1 – p). L'ultimo assioma di Kolmogorov riguarda la regola dell'additività che vale per gli insiemi di eventi la cui intersezione è vuota, ovvero per gli eventi reciprocamente esclusivi. Se A e B sono tali, allora l'additività richiede che: la quotazione di scommessa su A B = quotazione di scommessa su A + la quotazione di scommessa su B.

Supponiamo ora di offrire quotazioni che non soddisfano questa regola. Le quotazioni offerte da noi sono le seguenti: p su A; q su B; r su A B, dove r < p + q, il che viola la regola dell'additività. Un allibratore ci propone di fare tre puntate con le quotazioni pubblicizzate, ma usa un trucco: predispone i contratti in modo che implichino le nostre quotazioni. Poniamo che in ciascuna delle scommesse la posta in gioco sia di un dollaro. Le scommesse che l'allibratore ci propone sono le seguenti:

Scommessa (I): puntare p dollari su A per vincerne 1 – p se A è vera; ma se no lo è ne perdiamo p;

scommessa (II): puntare q dollari su B per vincerne 1 – q se B è vera, ma se non lo è perdiamo q;

scommessa (III): puntare (1 – r) dollari contro A B per vincerne r se A B è falsa, cioè se néA né B sono vere; se una delle due lo è perdiamo (1 – r)$.

Dal momento che A e B sono reciprocamente esclusive può essere vera l'una o può essere vera l'altra, ma non possono essere vere entrambe. La matrice dei pay-off delle nostre scommesse è la seguente:

Pay-off di (I) Pay-off di (II) Pay-off di (III) totale

A&(¬B) 1 – p -q -(1 – r) r – p – q

(¬A)&B -p 1 – q -(1 – r) r – p – q

(¬A)&(¬B) -p -q r r – p – q

Se r < p + q, r - (p + q) è negativo. Questo significa che noi perderemo [r - (p + q)]$ qualunque cosa accada. Se invece r > p + q, l'allibratore ci può chiedere di scommettere con queste stesse quotazioni ma nel senso opposto, cioè 1 – p contro A, 1 – q contro B e r su A B.

(25)

La sua vincita e la nostra perdita sarà ancora [r - (p + q)]$ qualunque cosa accada. Questo dimostra che le nostre quotazioni di scommessa coerenti devono essere additive e la nostra matrice può essere usata anche per chiarire che se lo sono, cioè se r = p + q, non c'è modo di concludere un contratto a perdita certa su A, B e A B. ∨

I tre assiomi principali possono quindi essere considerati controllati. Possiamo allora concludere che la condizione necessaria e sufficiente affinché un insieme di quotazioni di scommessa possa considerarsi coerente è che soddisfi le regole base della probabilità.

Passiamo ora alle scommesse condizionali. Una scommessa su A alla condizione B viene annullata quando B non si verifica, quindi con una scommessa condizionale non può esservi garanzia di un contratto a perdita certa, visto che in assenza di B nessuno vince e nessuno perde. È però possibile un contratto a perdita certa condizionale, ovvero un contratto in cui non si può non perdere ogni volta che B accade. Possiamo quindi dire che un insieme di quotazioni è coerente alla condizione B se e solo se non è suscettibile di un contratto a perdita condizionale. Dobbiamo quindi mostrare che le scommesse condizionali non incorrono nei contratti a perdita certa se e solo se soddisfano le regole di base della probabilità e la definizione di probabilità condizionale. Richiediamo quindi che quando una quotazione di scommessa su B è diversa da zero, la quotazione di scommessa su A dato B = quotazione di scommessa su A&B / quotazione di scommessa su B.

In questo caso la questione è diversa rispetto alle altre regole di base. Supponiamo che io pubblicizzi le seguenti quotazioni: q su A&B; r > 0 su B; p su A alla condizione B.

In questo caso l'allibratore non fissa la posta in gioco a un dollaro, ma usa una funzione delle quotazioni di scommessa, ovvero ci chiede di fare tre puntate usando le quotazioni che abbiamo reso note:

(I) puntare qr$ su A&B per vincere (1 – q)r$; la posta in gioco è r$; (II) puntare (1 – r)q$ contro B per vincere rq$; la posta in gioco è q$;

(III) puntare (1 – p)r$ contro A alla condizione B per vincere pr$; la posta in gioco è r$ come in (I). Consideriamo ora la matrice dei pay-off di queste puntate:

Pay-off di (I) Pay-off di (II) Pay-off di (III) Totale

A&B (1 – q)r -(1 – r)q -(1 – p)r pr – q

(¬A)&B -qr -(1 – r)q pr pr – q

¬B -qr rq 0 0

Dalla matrice ricaviamo che se p < q/r, noi perderemo sicuramente. Per esempio, supponiamo che le nostre quotazioni siano: 0,6 su A&B; 0,8 su B; 0,5 su A alla condizione B.

L'allibratore a questo punto ci può chiedere di:

Riferimenti

Documenti correlati

Undisturbed competition on the markets for network services can only evolve if platform operators and con- ventional physical network service providers gain access to

Section 3 traces the evolution of a particular aspect of EU identity trough its policy practice in the case of eastern enlargement: the role of the EU in the promotion and protection

che lo vien coadiuvando è uomo dalla tempra forte robusta bonaria in lui un non comune buon senso è stato causa dell'incarico affidatogli – Un compagno

Fіnally, the thіrd chapter analyses few cases of іnfrastructure іnvestment of the European Bank of Reconstructіon and Development іn Ukraіne іn transport and energy

Dificultățile majore întâmpinate de-a lungul acestui studiu au fost legate de anumiți termeni tehnici care fac parte din domeniul politic și economic, precum și necesitatea de a

P- value is quite high, which means that we cannot reject the null hypothesis of jointly all the past values of credit are non-significant. Conclusion: no causality running from

Senza entrare nel merito di fondi e finanziamenti destinati al museo e alla villa o dello stato di degrado e abbandono in cui versa il parco di quella che a ragione potrebbe essere

Equally, the use of technology may contribute to the development of visual literacy skills by providing increased and flexible access to resources.” Visual literacy