• Non ci sono risultati.

Probabilità, induzione ed analogia: prospettive filosofiche ed economiche nel Treatise on Probability di John Maynard Keynes

N/A
N/A
Protected

Academic year: 2021

Condividi "Probabilità, induzione ed analogia: prospettive filosofiche ed economiche nel Treatise on Probability di John Maynard Keynes"

Copied!
141
0
0

Testo completo

(1)

U

NIVERSITÀ DI

P

ISA

D

IPARTIMENTO DI

C

IVILTÀ E

F

ORME DEL

S

APERE

C

ORSO DI

L

AUREA IN

F

ILOSOFIA E

F

ORME DEL

S

APERE

Tesi di laurea magistrale

Probabilità, induzione ed analogia:

prospettive filosofiche ed economiche

nel Treatise on Probability di John Maynard Keynes

RELATORE CANDIDATO

Prof. Nicola Giocoli Elisa Pistoli Alunni CORRELATORE

Prof.ssa Tiziana Foresti

(2)

Indice

INTRODUZIONE 1

CAPITOLO 1

LA TEORIA DELLA PROBABILITÀ IN JOHN MAYNARD KEYNES 5

1.INTRODUZIONE 5

2.DIVERSE INTERPRETAZIONI DELLA PROBABILITÀ 8

3.JOHN MAYNARD KEYNES E FRANK RAMSEY A CONFRONTO 13

4.UN CONFRONTO COL PENSIERO DI RICHARD VON MISES 18

5.LA CONCEZIONE KEYNESIANA DI PROBABILITÀ 22

6.LA NOZIONE DI “PESO DEGLI ARGOMENTI” 24

7.CONCLUSIONI 34

CAPITOLO 2

LA NOZIONE KEYNESIANA DI INCERTEZZA 36

1.LA K-UNCERTAINTY E LA RELAZIONE CON LE NOZIONI DI RISCHIO E AMBIGUITÀ 36

2.LA K-UNCERTAINTY NELLA GENERAL THEORY 45

3.IL NESSO TRA PROBABILITÀ E PESO NEL TREATISE ON PROBABILITY E 48 K-UNCERTAINTY NELLA GENERAL THEORY 48

4.GLI ANIMAL SPIRITS 50

5.UN ALLEATO INASPETTATO?LA PROBABILITÀ IN LUDWIG VON MISES 58

6.APPLICAZIONE DELLA K-UNCERTAINTY FUORI DELLA GENERAL THEORY 61

CAPITOLO 3

(3)

3.VENN, L’ADESIONE AL FREQUENTISMO E LA LOGIC OF CHANCE 71

4.LA CRITICA KEYNESIANA ALLA LOGIC OF CHANCE 75

5.IL RUOLO DI MOORE NELLA CRITICA AL FREQUENTISMO 79

6.CONCLUSIONE: FREQUENTISMO ED INDUZIONE 82

CAPITOLO 4

INDUZIONE E PROBABILITÀ 84

1.INTRODUZIONE 84

2.IL PUNTO DI PARTENZA DI KEYNES: IL TREATISE OF HUMAN NATURE DI HUME 84

3.LA RELAZIONE TRA HUME E KEYNES 89

4.COME KEYNES INTENDE L’INDUZIONE 92

5.UN BREVE ESAME DEL CONCETTO DI ANALOGIA 97

5.1 L’analogia in Bacon e Mill 97

5.2 Il ruolo dell’analogia in Keynes 104

6.LA CHIUSURA DEL CERCHIO: INDUZIONE, PESO DEGLI ARGOMENTI E CAUSALITÀ 106

CONCLUSIONE 112

BIBLIOGRAFIA 118

(4)

Introduzione

Obiettivo di questo lavoro di tesi è mettere in luce la figura del giovane John Maynard Keynes che nel 1921 realizzò la stesura del Treatise on Probability. Principalmente cercherò di fornire un’interpretazione di un’opera che ha segnato un profondo e radicale cambiamento nella tradizione britannica e in particolar modo della scuola di Cambridge. Il lavoro venne per molto tempo considerato marginale e preso in considerazione dai Post Keynesiani solo in relazione alla General Theory of Employment, Interest and Money del 1936. Quello che intendo dimostrare è che la formazione di Keynes, che si riflette nell’opera giovanile sulla probabilità, è inizialmente di tipo filosofico, con un successivo e progressivo avvicinamento al campo di studi economico. Lo scopo più ampio è mostrare il forte legame tra la filosofia e l’economia, specialmente nella teoria della probabilità e delle decisioni. Ho dunque cercato di combinare il punto di vista filosofico con quello economico.

L’elaborato è suddiviso in quattro capitoli. Nel primo ho cercato di mostrare i punti salienti della teoria della probabilità in Keynes, analizzando le diverse interpretazioni della probabilità a partire dalla teoria classica e passando per quella frequentista e soggettivista, fino a giungere ad un confronto diretto con l’approccio ripreso da Keynes, di tipo logicista. All’interno dello stesso capitolo

(5)

poi), quali quello di peso dell’argomento, che avvalorano la tesi per cui la teoria keynesiana sia di tipo oggettivo.

Nel secondo capitolo sono entrata nel vivo del dibattito ancora attuale sulla relazione tra il TP e la General Theory. L’obiettivo è enfatizzare il concetto di incertezza keynesiana. Nel corso del capitolo ho dunque esaminato il concetto di k-uncertainty, ponendolo in relazione a quelli di risk e ambiguity. Ciò mi ha portata a trattare anche argomenti affini, quali la teoria dell’utilità attesa (EUT). Andando avanti con la lettura ho proposto in maniera più oggettiva possibile le due tesi fondamentali, e antipodiche, del dibattito recente: da un lato la posizione dei fondamentalisti keynesiani, dall’altro quella di coloro che professano la discontinuità tra gli scritti del Keynes filosofo e del Keynes economista.

Nel terzo capitolo ho spostato l’attenzione sul problema centrale della mia tesi, ovvero la trattazione della critica mossa dal giovane Keynes alla teoria frequentista. Sostengo infatti che per mezzo del Treatise on Probability Keynes si sia proposto di criticare tale approccio, allora dominante. Ho dunque preso in esame dettagliatamente i capitoli VII ed VIII del TP, nei quali l’autore affronta tale argomentazione. Analizzo in particolar modo la teoria logicista, mettendola in relazione con la teoria frequentista di John Venn, ritenuto il massimo esponente di quell’approccio. L’obiettivo di Keynes era di mettere in risalto i limiti di tale visione, rompendo fortemente con la tradizione inglese. Mi sono preoccupata di ricercare la prima fonte da cui Keynes arriva a

(6)

conoscenza della dottrina frequentista, e dunque sono passata attraverso i

Principia Ethica di Moore. Ho cercato inoltre di sostenere la tesi secondo la

quale è Edgeworth ad aver suggerito a Keynes la lettura della Logic of Chance di Venn. Ho poi dettagliatamente analizzato la critica keynesiana alla Logic of

Chance. Nella conclusione di questo capitolo ho cercato di prendere in esame

la relazione tra frequenza e induzione, due aspetti che ritengo inscindibili. Nel quarto capitolo sono entrata nel vivo del problema dell’induzione e del suo legame con la probabilità. Ho dunque esaminato dettagliatamente la terza parte del TP, Induction and analogy, in cui viene presa in esame tale argomentazione. Mi sono posta l’obiettivo di mostrare il punto di vista keynesiano partendo da David Hume, un autore che viene criticato da Keynes a causa dell’utilizzo di un principio induttivo di tipo enumerativo, il cui legame con il frequentismo sembra essere molto forte. Di seguito ho cercato di analizzare due concetti innovativi introdotti da Keynes, quali quelli di analogia positiva e negativa, i cui primi fondamenti erano presenti nel Novum Organon baconiano e nel System of Logic di Stuart Mill.

Alla luce dell’analisi svolta nell’elaborato si può concludere che il giovane Keynes interpreta la probabilità in un modo altamente innovativo. Nonostante la sua concezione non sia oggi ritenuta mainstream, la sua interpretazione è sicuramente innovativa e atipica.

(7)
(8)

Capitolo 1

La teoria della probabilità in John Maynard Keynes

1. Introduzione

A Treatise on Probability fu pubblicato da John Maynard Keynes nel 1921. Fu la

sistemazione della sua dissertazione di dottorato del 1907 a Cambridge, dal titolo The Principles of Probability, rivisitata nel 1908 e poi interrotta a causa della Prima guerra mondiale. Le diverse versioni redatte tra il 1907 al 1921 sono in realtà così similari al punto da poter ignorare le differenze tra di esse (Fioretti 1998, p.61). Questo nonostante “all three Probabilities (1907, 1908 e 1921) had some coverage of the analysis of data, and the coverage increase with each rewriting” (Aldrich 2008a, p. 266).

È importante notare che il TP non segna l’inizio del contributo filosofico di Keynes, ma è il frutto di un lavoro durato 15 anni. Le convinzioni keynesiane di queste prima fase saranno importanti per comprendere il successivo sviluppo intellettuale dello studioso. Keynes stesso darà testimonianza nel memoir del 1938 “My Early Beliefs” dell’importanza “of the earliest Cambridge influences on the development of his later thinking.” (Bateman, Davis 1991, p. 2).

Il pubblico cui il saggio sulla probabilità si rivolgeva era sicuramente di accademici, tra cui principalmente i suoi colleghi di Cambridge. La maggior

(9)

infatti, notarono il trattato (Carabelli 1988, p. 252; O’ Donnell 1989, p. 25). Questa opera fu in effetti la sua più importante nel campo filosofico, da cui Keynes poi si allontanò muovendo verso uno studio economico, culminato con l’opera per la quale viene ad oggi ricordato, la General Theory del 1936. Il TP “established itself as the classical statement of a particular interpretation of probability and was a source of further developments” (Aldrich 2008a, p. 266). Tuttavia, Keynes viene considerato il padre della moderna macroeconomia1, mentre il suo contributo alla teoria della probabilità tende

ad essere dimenticato. Ciò è paradossalmente dovuto, almeno in parte, all’impatto comunque limitato, rispetto a quello straordinario della General

Theory, del saggio del 1921. Nonostante ciò, anche il TP va considerato

un’opera di assoluto valore, a conferma della formazione filosofica del suo autore. Infatti, non è illogico pensare che nel pensiero di Keynes “in the beginning there was barely anything more than philosophy, and that economics and political took a distinct shape only afterwards” (Cristiano 2014, p. 23). Anche il principale biografo di Keynes, Robert Skidelsky, ribadisce ciò: “Keynes’s passions were not importantly political al all. Any investigation of Keynes’s political legacy has to start, then, from his philosophy life” (1988, p. 3-4).

1 Anche se la macroeconomia emerge con la pubblicazione della General Theory (1936), il termine

“macroeconomics” non compare nell’opera. Tale termine venne utilizzato da Peter De Wolff (1941) in Income elasticity of demand, a micro-economic and macro-economic interpretation, seppur senza un riferimento diretto alla TG e nel 1946 Lawrence Klein intitola il suo articolo

(10)

Esaminando nel dettaglio il TP, possiamo notare che l’obiettivo dell’autore emerge sin dalle prime pagine: fondare una base logica per la probabilità e trovare un nuovo metodo alternativo per l’induzione statistica. Uno dei primi aspetti che risalta nella lettura del TP è la ricchezza di note e di riferimenti a saggi redatti da altri autori, con i quali perlopiù Keynes si pone in forte discontinuità.

Il lavoro è strutturato in 23 capitoli, suddivisi in cinque grandi macrotemi (vedi Robert 2011, pp. 1-3):

1. idee fondamentali 2. teoremi fondamentali 3. induzione e analogia

4. alcune applicazioni filosofiche della probabilità 5. i fondamenti dell’inferenza statistica

Nella prima parte l’autore pone le basi per una teoria logica della probabilità, toccando il principio di indifferenza, la nozione di peso degli argomenti e la critica alla teoria frequentista di Venn, tutti temi che prenderò in considerazione di seguito nella tesi. Nella seconda parte invece vengono esaminati e spiegati dettagliatamente i teoremi sui quali fondare la probabilità. Nella terza parte del saggio egli si concentra perlopiù sul procedimento induttivo e in particolar modo sull’induzione humeana, spiegandone i fondamenti. Nella parte successiva Keynes approfondisce il tema della

(11)

probabilità e la morale. Questa parte è cruciale: infatti, sia Skidelsky (1983) e che l’altro autorevole biografo Donald Moggridge (1992) associano l’interesse di Keynes per la “probability as a branch of logic” (Keynes 1921, Preface) con quello “in the application of probability to conduct” (Keynes 1921, p. 352). Nella parte finale dell’opera convergono invece tutti i fondamenti statistici.

2. Diverse interpretazioni della probabilità

Quando si esamina il Treatise on Probability ci si chiede sin dalle prime pagine quale sia il tipo di approccio abbracciato dal suo autore. Dato che nel XX secolo le concezioni intorno alla probabilità erano disparate e molto discordanti, è necessario partire dalla nascita del concetto moderno di probabilità fino ad arrivare ad esaminare le successive correnti che da essa si sviluppano, per poi poter giungere al nocciolo della questione, concentrandosi sul tipo di probabilità che Keynes farà propria nell’opera del 1921.

Secondo lo storico della scienza Ian Hacking (1975), ci sono due idee sulla probabilità. Una di queste è che la probabilità di un evento sia la frequenza con cui l’accadimento si ripete. Questa probabilità, basandosi sul numero di volte in cui si verifica un evento in prove ripetute, si chiama probabilità aleatoria o frequentista. L’altra concezione si basa sull’incertezza del risultato finale. Secondo questa concezione la probabilità si basa sul grado di credenza del soggetto relativo a un’ipotesi, date delle prove a nostra disposizione. Tale probabilità viene definita epistemica (Bateman 1996, pp. 49-50).

(12)

La decade intorno al 1660 viene definita “the birthtime of probability” (Hacking 1975, p. 11). In quegli anni molti studiosi lavorarono indipendentemente per fondare le basi per tale concetto. Ad esempio, in Ars

Conjectandi (1713) – pietra miliare nella storia della teoria della probabilità e

che “was intended as his continution of the Ars cogitandi (1702)” (Hacking 1975, p. 78) – il matematico svizzero Jacques Bernoulli dimostrava il teorema che prende il suo nome, anche detto legge dei grandi numeri. È proprio a partire da questo fondamentale risultato che si può ricondurre la nascita dei diversi filoni di pensiero intorno alla probabilità.

L’interpretazione classica è stata sostenuta da Blaise Pascal e Pierre de Fermat (1654), Jacques Bernoulli (1705) e anche dal francese Pierre Simon de Laplace (1814). Secondo la famosa definizione di quest’ultimo, la probabilità di un evento è il rapporto tra il numero di casi favorevoli rispetto all’accadimento dell’evento stesso ed il totale dei casi. Sulla base di tale definizione si può matematicamente affermare che P(A) = 𝑛A/𝑛 dove 𝑛 rappresenta la totalità dei

casi, mentre 𝑛A indica il numero di casi favorevoli. Nelle parole di Laplace: “the

theory of chances consists in reducing all events of the same kind to a certain number of equally possible cases, that is to say, to cases whose existence we are equally uncertain of, and in determining the number of cases favourable to the event whose probability is sought. The ratio of this number to that of all possible cases is the measure of this probability, which is thus only a fraction

(13)

is the number of all possible cases” (Laplace 1814, traduzione di Andrew I. Dale).

La definizione classica della probabilità, nonostante consenta il calcolo in molte situazioni, comporta delle limitazioni non irrilevanti da tenere in considerazione. Tale nozione, infatti, può essere applicata solo quando “omnes casus aeque possibiles esse, seu pari facilitate evenire posse” (Bernoulli 1713, p. 219), ovvero quando “cases (…) satisfy the principle of ‘no reason to the contrary’” (Reichenbach 1949, p. 353). Tuttavia, tale formulazione venne accusata di circolarità (vedi Hájek 2019), perché il concetto di equipossibilità sostiene quello di equiprobabilità e quest’ultimo a sua volta sostiene il primo: “this addiction certainly does not improve the argument (…) since it obviously represents a vicious circle. Equipossible is equivalent to equiprobable” (Reichenbach 1949, p. 353).

La teoria classica non era dunque priva di punti deboli. È per superarli che i principali esponenti del frequentismo nel XIX secolo, tra cui Venn e Von Mises, abbandonarono un approccio epistemico per abbracciarne uno di tipo empirico. Gli oggetti della probabilità divenivano dunque “i fenomeni ripetibili in condizioni analoghe, presi non singolarmente, ma attraverso l’andamento casuale – e in quanto tale imprevedibile – delle serie cui danno luogo” (Galavotti, Campaner 2017). Dunque, la probabilità poteva essere definita come il limite cui tende la frequenza dell’evento A al crescere del numero di esperimenti osservati, quindi P(A) = lim

!→# !$

(14)

Nel calcolo della probabilità, nella sua accezione frequentista, gli oggetti in esame sono esclusivamente i fenomeni di massa e gli eventi ripetibili. Infatti “some workers, following Richard Von Mises, have attended chiefly to the phenomenal aspect of this, providing theories of randomness in infinite sequences” (Hacking 1975, p. 14). Per questo motivo il concetto posto alla base del frequentismo è quello di collettivo, che si può pensare come una successione di eventi uniformi che differiscono per alcuni attributi osservabili. Dopo aver osservato un numero abbastanza grande di fenomeni possiamo notare che il valore della probabilità si stabilizza nell’intorno di un certo numero, da qui segue la formulazione della funzione di probabilità sotto forma di limite matematico.

Pur riconoscendone l’utilità, molti studiosi si lamentarono dei numerosi casi che venivano esclusi utilizzando l’approccio frequentista al calcolo della probabilità – ad esempio i fenomeni singoli. È da qui che prende spunto la corrente logicista e quella soggettivista della probabilità, che cercano di colmare le lacune della precedente.

Della prima corrente uno dei principali esponenti fu il Wittgenstein del

Tractatus logico-philosophicus, pubblicato nello stesso anno del TP.

Wittgenstein suggerisce di porre l’attenzione sulle relazioni logiche che legano le diverse proposizioni in modo da evitare un ricorso diretto all’esperienza, tipico del frequentismo.

(15)

Dall’altro lato viene a svilupparsi un approccio di tipo soggettivista, con il quale viene meno il carattere frequentista, ma anche quello logicista e classico della probabilità. La probabilità non è più vista come un dato oggettivo indipendente dal soggetto, ma viene legata al grado di credenza dell’agente. Differentemente dal logicismo, che si basa su un principio di indifferenza tale per cui le probabilità iniziali sono uguali ex ante, il soggettivismo si allontana da ciò ritenendo che le stesse siano determinate dalle convinzioni dell’individuo. Secondo il soggettivismo, le probabilità possono essere interpretate come rappresentazioni numeriche dei gradi soggettivi di credenza di un individuo, in modo tale che due individui possano assegnare probabilità diverse alla stessa proposizione, anche alla luce delle stesse prove (vedi Hájek 2019).

Tra gli esponenti della corrente soggettivista ricordiamo Augustus De Morgan, che per primo scrive che: “by degree of probability, we really mean, or ought to mean, degree of belief” (De Morgan 1847, p. 172). Frank Ramsey, Bruno De Finetti e Leonard Savage successivamente ripresero tale concezione di probabilità, che possiamo definire “personal probability” (Hacking 1975, p. 14).

Di particolare rilievo appare il contributo del matematico di Cambridge, Frank Ramsey. Nel 1926 Ramsey pubblica Truth and Probability, saggio pioneristico che propone di considerare la probabilità come grado di credenza del soggetto. Nel successivo Foundations of Mathematics (1931), egli

(16)

ripropone la sua teoria alternativa, fondandola su una teoria psicologica generale. Nonostante quest’ultima venisse solitamente scartata da uno studio sulla probabilità, Ramsey ritiene che essa sia una buona approssimazione della verità. Egli mette a fondamento della sua teoria il fatto che “we act in the way we think most likely to realize the objects of our desires, so that a person’s actions are completely determined by his desires and opinions” (Bateman 1991, p. 60).

Poco tempo dopo Ramsey, anche De Finetti (1931) presenterà il nucleo delle sue idee, le cui conclusioni sono molto simili a quelle di Ramsey. La differenza nei lavori dei due autori è nei punti di partenza: se Ramsey si concentra sul problema della probabilità per criticare la posizione keynesiana, De Finetti lo fa invece con l’intento di correggere l’errato utilizzo della teoria bernoulliana. Più di recente all’interpretazione soggettivista ha fatto seguito una di tipo bayesiano. La probabilità bayesiana è una probabilità inversa, che cerca di risalire dalle frequenze osservate alla probabilità stessa (Regis 2020, p. 6). Nel bayesianesimo si utilizzano considerazioni personali e si assegnano valori di probabilità prima di effettuare un esperimento.

3. John Maynard Keynes e Frank Ramsey a confronto

Nella nostra analisi intorno le diverse tipologie di probabilità non si può prescindere dal mettere al confronto due probabilisti come Keynes e Ramsey,

(17)

Gaspard, complementari − hanno permesso di ottenere due risposte differenti al medesimo problema, ovvero sviluppare una teoria della probabilità applicabile alla condotta umana e priva delle problematicità insite in quelle precedenti.

La teoria proposta da Ramsey è una teoria soggettiva della probabilità, che si erge contro l’approccio di stampo logicista sostenuto da Keynes e che andremo ad esaminare più nel dettaglio a partire dal prossimo paragrafo.

Come detto, la teoria soggettiva della probabilità venne presentata per la prima volta in modo completo in Truth and Probability, scritto nel 1926 e pubblicato postumo nel 1931 da Braithwaite. Tale saggio sembra essere il punto di svolta nel pensiero ramseyano, dato che grazie ad esso il suo autore ha costituito la prima base del proprio sistema filosofico. Il saggio fu presentato per la prima volta al Moral Science Club nel 1926, in risposta proprio al Treatise

on Probability che Keynes aveva completato pochi anni prima (Gaspard 2014).

Nella prima parte dell’opera Ramsey avanza la sua teoria della probabilità, che merita molta attenzione perché anticipa le successive teorie economiche sulle preferenze degli individui. La teoria di Ramsey, inoltre, sembra essere la prima a trattare di razionalità dell’agente economico in senso moderno. Nella seconda parte Ramsey introduce la cosiddetta logica della scoperta o della verità, un approccio che sembra essere proprio la nozione allargata della logica umana introdotta da Keynes nel TP.

(18)

Sia nella prima che nella seconda parte di Truth and Probability emerge chiaramente la posizione del suo autore: un rifiuto netto delle premesse metodologiche della probabilità proposte da Keynes. L’opera del 1926 è dunque un tentativo di perseguire il piano di Keynes di stabilire una buona teoria della probabilità, ovvero ottenere una teoria più generale di quella frequentista. Nonostante questo sia il suo obiettivo, Ramsey adotta un tono conciliante nei confronti del frequentismo: in molti casi le frequenze forniscono una buona interpretazione del calcolo delle probabilità. Ramsey predilige una teoria che parta dai dati individuali. Per tale motivo è importante notare che già nei primi anni ’20 manifesta il suo interesse nei confronti della psicologia, ponendo quest’ultima al di sopra della logica in Keynes e dell’etica in Moore. Come successivamente farà lo stesso Keynes, Ramsey metterà dunque in dubbio anche la fondazione del pensiero dell’autore dei Principia Ethica. Nelle parole di Ramsey: “I think that both these simple solutions are wrong, and the true answers are in terms not of ethics or logic, but of psychology” (Ramsey 1923, p. 300). Le teorie mooriana e keynesiana, dunque, sembrano essere limitate e per tale motivo è necessaria una riconsiderazione che tenga conto delle caratteristiche soggettive dell’agente economico. La psicologia viene così considerata la sola disciplina in grado di colmare le lacune delle precedenti.

Nella sua analisi, Ramsey sembra avvalersi del concetto di utilità di Jevons o di desiderio di Edgeworth, a cui Keynes si oppone fortemente nel TP. Tuttavia,

(19)

dell’introspezione, ma si basa sull’uso di una nuova filosofia, il pragmatismo2:

se non si può chiedere agli individui quali sono i gradi delle loro credenze, si possono però rilevarne le preferenze per mezzo dello svolgimento delle loro azioni. Ramsey sembra quindi seguire la nuova dottrina introdotta da Charles S. Peirce3, criticando invece il pragmatismo di James, che risulta essere

incompleto (Misak 2016).

Sembra che Peirce sia riuscito ad attirare l’attenzione di Ramsey sin da prima della stesura di Truth and Probability. È come se, con la lettura di Peirce, Ramsey fosse giunto alla soluzione di alcuni dilemmi importanti. La conclusione che ne trae è di tipo pratico: dovremmo continuare a sperimentare per ottenere indicazioni sul fatto che le nostre credenze siano collegate ai fatti. Purtroppo Ramsey è morto prematuramente, prima di vedere il contributo notevole dato dagli sviluppi del pragmatismo a quella teoria della verità su cui stava lavorando.

Ramsey, quindi, da un lato intendeva prendere parte allo sviluppo della psicologia; dall’altro la sua teoria ha uno scopo descrittivo e pragmatico. La sua idea base è quella di un processo di apprendimento razionale, che in seguito caratterizzerà la moderna teoria delle decisioni bayesiane. Il ponte tra la sua rappresentazione di razionalità e quella bayesiana passerà, come noto, attraverso l’uso del soggettivismo da parte di De Finetti e Savage.

2 Si definisce pragmatismo la corrente filosofica sorta negli Stati Uniti nel XIX secolo e basata su un

legame tra conoscenza e prassi. La validità di una teoria è affidata alla sua verifica pratica.

(20)

Mentre l’interesse di Ramsey per la teoria delle decisioni rimarrà alla base dei suoi successivi contributi all’economia, la sua teoria della probabilità fu messa da parte per molto tempo. Nel 1951, Kenneth Arrow indicherà la teoria di Ramsey come un’anticipazione dell’approccio di Von Neumann e Morgenstern in Theory of Games and Economic Behaviour (1944)4. Le prime

discussioni dettagliate della teoria di Ramsey si trovano in Davidson e Suppes (1956), relativamente alla teoria delle decisioni. Nessuno però si rese conto che parte della moderna teoria dell’utilità era già contenuta nell’opera nel 1926. Ciò potrebbe essere dovuto a quella che Keynes definisce la ‘grazia semplice’ della scrittura ramseyana, che nasconde a prima vista la profondità di pensiero di tale autore.

Dal nostro punto di vista, va rilevato che Keynes nel 1931 scrisse una recensione in risposta al saggio di Ramsey. Nel giudizio di Keynes su Ramsey vi era qualcosa di contraddittorio: non è chiaro, infatti, se Keynes col tempo si fosse avvicinato alla dottrina ramseyana e avesse abbandonato il logicismo che aveva dapprima abbracciato. La posizione poco chiara di Keynes non fece altro che alimentare il dibattito intorno alla continuità e coerenza delle opere keynesiane5.

Ramsey è stato da molti definito un genio. Moore stesso lo ricorda giovane studente nei suoi corsi: ritenendolo più intelligente di sé, si sentiva nervoso nel

(21)

tenere le sue lezioni (Moore 1968). Lytton Strachey dopo la morte di Ramsey scrisse: “the loss to your generation is agonizing to think of – and the world will never know what has happened – what a light has gone out. I always thought there was something of Newton about him – the ease and majesty of the thought – the gentleness of the temperament” (Holroyd 2011). Purtroppo, non potremo mai sapere come sarebbe evoluto col tempo il pensiero di Keynes alla luce di quello di Ramsey.

4. Un confronto col pensiero di Richard von Mises

Quando trattiamo della teoria della probabilità di Keynes, non possiamo dimenticare che l’approccio dominante a lui contemporaneo, che si pone come alternativo al logicismo, è quello frequentista sostenuto, tra gli altri, da Richard Von Mises (Probability, Statistic and Truth, 1928). L’approccio di quest’ultimo studioso, alternativo a quello keynesiano, tutt’oggi assume fondamentale importanza, in particolar modo nelle varie applicazioni della teoria statistica. Soprattutto, si tratta di un autore che, coetaneo di Keynes (entrambi nascono nel 1883), costituisce, con Ramsey, l’altro ideale contraltare al pensiero di quest’ultimo.

Curiosamente, nonostante molti ritengano l’approccio di Richard von Mises simile a quello del fratello, e noto economista, Ludwig, in realtà possiamo renderci conto di una notevole differenza. Sembra infatti che l’approccio

(22)

abbracciato da Ludwig (vedi sotto, Capitolo 2) sia molto più vicino al punto di vista keynesiano che a quello del fratello, che qui prenderemo qui in esame.

Ciò che emerge chiaramente sin da una prima lettura del Treatise on

Probability keynesiano e di Probability, Statistic and Truth di Mises (1° edizione:

1928), è che tali approcci sono molto divergenti. Tra le principali differenze, le più evidenti dipendono dal fatto che la teoria keynesiana, proprio per il suo essere di tipo logicista, è una teoria sì oggettiva, ma epistemica della probabilità, che si allontana da un approccio di tipo frequentista. La teoria di Mises, così come essa venne costituita, ha però delle peculiarità che indurranno Keynes a criticarla, come farà anche con la più nota teoria frequentista di John Venn, (vedi il terzo capitolo). La teoria frequentista di Richard von Mises si basa su eventi ripetuti, escludendo tutti quei casi che sono invece singolari e a cui non è applicabile il concetto di collettivo. Un collettivo consiste di una sequenza di osservazioni che possono essere considerate indefinibili (Van den Hauwe 2017).

Mises introduce due importanti leggi, la prima che viene definita come legge della stabilità delle frequenze statistiche, peraltro già nota prima del suo lavoro. La seconda, invece, è più originale e si basa sulla mancanza di ordine negli eventi presi in esame, ovvero sul concetto di causalità. Secondo tale legge, non solo le frequenze degli eventi ripetuti si stabilizzano intorno a un determinato valore, ma questo valore resta il medesimo anche se si prende in

(23)

esame una sottosequenza della sequenza esaminata (vedi Van den Hauwe 2017).

Un’importante implicazione della sua teoria era la sua inapplicabilità a tutti quei casi in cui si prendevano in esame eventi univoci. La definizione fornita da Mises, ovvero quella secondo cui la probabilità di un evento è il limite a cui tende la frequenza relativa, è limitata dal fatto che occorre sia che gli eventi siano illimitatamente ripetibili, sia che si svolgano sempre nelle medesime condizioni. Nonostante questi difetti, sicuramente importante è la corretta relazione che l’autore austriaco ha fornito tra il concetto di frequenza e quello di probabilità, concetti molto diversi tra loro essendo il primo calcolato a posteriori, mentre il secondo a priori.

Entrambe le leggi di Mises vennero fortemente criticate da Keynes, in particolar modo per l’eccessiva ristrettezza del loro campo di applicazione, non riuscendo le stesse ad abbracciare molte situazioni che erano non definibili per mezzo del concetto di collettivo. Secondo Mises, invece, tale caratteristica era un punto a favore della sua teoria della probabilità. Il suo obiettivo era presentare una teoria probabilistica dello stesso grado di esattezza della scienza matematica e della stessa portata della meccanica.

Seguendo la teoria frequentista è infatti poco utile calcolare la probabilità di un singolo evento per prevederne il risultato, mentre realizzando l’esperimento su larga scala si riscontrerà sempre una certa regolarità nei risultati. Le frequenze delle ripetizioni degli eventi, infatti, si stabilizzano

(24)

nell’intorno di un certo valore particolare. Differentemente dall’approccio keynesiano come da altri, quale ad esempio l’approccio soggettivo alla probabilità adottato da Ramsey, il punto di vista di Mises è fondato su un tipo di ragionamento a posteriori: in prima luogo vengono presi in esame gli eventi considerati e solo ex post vengono esposti i dati probabilistici. L’approccio logicista è invece aprioristico. Come Keynes sottolinea, la necessità è proprio quella di una teoria probabilistica fondata su un approccio ex ante. In breve, quello che per von Mises era al centro della sua teoria per esaltarne l’efficacia nell’applicazione, viene contrariamente criticato da Keynes.

Un altro punto di notevole disaccordo è che, nell’approccio di Keynes, ad ogni evento può essere attribuito un valore di probabilità, numerico o non numerico. Proprio a causa di questa implicazione della posizione logicista, von Mises criticherà a sua volta Keynes, definendolo un “persistente soggettivista” (Van den Hauwe 2017).

Emerge chiaramente, dopo questa breve analisi, che l’approccio di Richard è un’applicazione della probabilità come scienza empirica che viene calcolata per mezzo delle frequenze, mentre per Keynes la probabilità è una branca della logica, basata su gradi di credenza razionali del soggetto. Un punto di accordo tra i due studiosi è però che entrambi sostenevano un punto di vista monistico della probabilità, differentemente dalla visione del fratello di Richard, Ludwig von Mises, che come vedremo credeva che il dualismo metodologico

(25)

applicabile alle scienze naturali e umane potesse essere riproposto anche nel campo prettamente probabilistico.

5. La concezione keynesiana di probabilità

Dopo aver accennato a due importanti autori come Ramsey e Mises, sostenitori di approcci alternativi, è giusto finalmente chiederci quale sia la concezione keynesiana della probabilità, che emerge dal Treatise on Probability.

L’altra fondamentale distinzione da tenere in considerazione, oltre a quella vista prima, e ben nota, tra probabilità frequentista e aleatoria, è quella tra “objective and subjective conceptions of probability”, già accennata trattando di Ramsey. È importante tenere a mente entrambe le distinzioni, dato che “while many people have assumed that all epistemic theories are subjective, the theory that Keynes espoused in his dissertations and in A Treatise on

Probability was an objective epistemic theory” (Bateman 1996, pp. 50-51).

La probabilità keynesiana parte dunque della convinzione che l’uso dello strumento logico, rigoroso e intersoggettivo6, assicuri alla probabilità un

carattere oggettivo (Galavotti, Campaner 2017). “The result was his argument that probabilities are objective degrees of belief rather than relative frequencies” (Bateman, Davis 1991, p. 58). Keynes nel TP definisce la probabilità come scienza della credenza razionale, che si basa sui gradi di

6 Secondo Bateman (1996, p. 50, nota 20), dopo l’abbandono del A Treatise on Probability, Keynes

(26)

completezza delle informazioni. I valori di probabilità descrivono i diversi gradi di credenza razionale che il soggetto è autorizzato ad avere delle proposizioni. Per questo la probabilità keynesiana viene espressa sotto forma di una relazione tra una premessa, ipotetica o conosciuta, e delle conclusioni (Hacking 1975, pp. 13-14).

Differentemente dalla logica che si basa su un corpus di conoscenze certe, partendo da proposizioni vere e giungendo ad altre di pari tipo, la probabilità ha una caratteristica differente, ovvero il senso della sua conclusione è contenuto solo parzialmente nelle premesse. L’opera di Keynes sembra da un lato molto vicina all’approccio utilizzato da Wittgenstein, nonostante la sua formazione non gli permettesse la stessa minuziosità nella formalizzazione. Dall’altro lato egli sembra diffidare di una trattazione eccessivamente formale della probabilità. A sottolineare tale diffidenza, Keynes criticherà anche il principio di induzione, visto come un metodo di accumulazione di conoscenza in base all’osservazione, sostituendo ad esso il ruolo dell’analogia. Parte integrante del logicismo a là Keynes è “l’assunto che l’informazione determini la probabilità di un’ipotesi in modo univoco, cosicché se due persone, in base al medesimo corpus di conoscenza, la valutassero diversamente non potrebbero avere entrambe ragione” (Galavotti, Campaner 2017).

Sin dalle prima pagine del TP, Keynes rompe fortemente con una concezione antipodica a quella sopra esaminata. Egli fa propria la concezione della

(27)

si discosta da tale approccio dato che ad esso manca il legame con i dati oggettivi e indipendenti dalla psicologia del soggetto. La probabilità, quindi, non è soggetta al capriccio dell’uomo: “a proposition is not probable because we think it so” (Keynes 1921, p. 2).

6. La nozione di “peso degli argomenti”

Nel 1907 Keynes scrive a Lytton Strachey dicendogli di aver scritto un’appendice dove per la prima volta tratta di un nuovo concetto, il peso degli argomenti. (O’ Donnell 1991, p. 69). Ci volle molto tempo prima che tale nozione assumesse un nome definitivo. Nella dissertazione di dottorato del 1907 Keynes definì tale concetto “intensity of a probability”, ma già nella revisione del 1908 modificò il nome in “the value of a probability”. In seguito, in una bozza non datata del TP, si parla di “evidential value”. Nel capitolo VI dell’opera pubblicata Keynes definisce infine “weight of argument” il suo nuovo concetto:7 “The latter remained Keynes’s preferred terminology,

although traces of the earlier appellations remain in his subsequent writings” (O’ Donnell 1991, p. 69).

L’esitazione nella scelta del nome riflette probabilmente la mancanza di chiarezza filosofica sul concetto. Infatti, “the question to be raised in the

7 Secondo Fioretti (1998, p. 69, nota 9), Keynes nel TP distingue tra “probability” e “weight of the

arguments”, mentre, senza cambiare il significato al concetto, nella versione del 1908 aveva distinto tra “magnitude” e “value of probability”, e nella prima versione (1907) tra “magnitude” e “intensity of probability”.

(28)

chapter is somewhat novel; after much consideration I remain uncertain as to how much importance to attach to it” (Keynes 1921, p. 78). Anche verso la fine del trattato egli enfatizza questo sentimento di riluttanza nei confronti del peso degli argomenti: “The question appears to me be highly perplexing, and it is difficult to say much that is useful about it” (Keynes 1921, p. 357). Tuttavia, non esiterà a riutilizzare tale nozione nella General Theory (1936).

Keynes risulta essere fortemente insicuro sull’importanza pratica di tale nozione (Keynes 1921, pp. 83,357,360; cf. Peden 2018, p. 5). Molti e diversi studiosi hanno cercato di comprendere i motivi della sua esitazione rispetto all’effettiva rilevanza della teoria del peso. Da un lato, Anna Carabelli nota che potrebbe essere dovuta ad un mero atteggiamento di prudenza, dall’altro, per Daniel Ellsberg sembra suggerire la difficoltà degli economisti nello sviluppare un criterio appropriato per la guida delle azioni individuali (vedi Feduzi 2010). Addentrandoci nell’opera del 1921, l’autore spiega che il peso degli argomenti e la loro probabilità non sono entità coincidenti (O’ Donnell 1991, p. 71). La grandezza di un argomento sembra dipendere dal numero di evidenze favorevoli o sfavorevoli. Aggiungendo delle nuove evidenze a un argomento la sua grandezza aumenterà (e sarà costituita dalle precedenti evidenze sommate a quella nuova), ma la probabilità potrebbe aumentare o diminuire a seconda che la nuova evidenza sia favorevole o sfavorevole. Nelle parole di Keynes (1921, p. 78): “New evidence will sometimes decrease the probability of an

(29)

Secondo Jochen Runde, “Keynes presupposed that weight always increases monotonically with additions of relevant evidence to a body of evidence. This monotonicity of weight that, if E is relevant to H given background K, then (E ⋀ K) must have greater weight with respect to H than K alone” (Runde 1990). Il peso di un argomento resta invariato solo nel momento in cui la nuova evidenza lascia invariata la conclusione di un argomento ed è quindi “irrilevante” per esso. Solo nel caso in cui l’evidenza è rilevante, il peso aumenterà necessariamente. Il “peso” dell’argomento è dunque fortemente correlato con il termine “rilevanza”, dato che ciò che è rilevante aumenta necessariamente la grandezza di un argomento.

È a questo punto però che si può porre una nuova, cruciale domanda: dove dobbiamo arrestare la nostra ricerca quando cerchiamo di ottenere informazioni su un argomento? Dopo quante evidenze su un argomento possiamo ritenere di avere a disposizione un numero di informazioni soddisfacente? Diviene dunque centrale il cosiddetto “stopping problem”, ovvero il problema di trovare un principio razionale sulla base del quale decidere aprioristicamente dove arrestare la nostra ricerca di informazioni relative a un determinato argomento prima di operare una scelta (Feduzi 2010).

Tale problema è stato preso in esame anche da Abraham Wald, il cui nome è associato alla moderna teoria delle decisioni. Nella sua analisi Wald cerca di esaminare il problema decisionale sotto condizioni di incertezza. Si ha un

(30)

problema statistico decisionale quando abbiamo a disposizione una serie di decisioni e la scelta dipende da una distribuzione sconosciuta della probabilità. L’obiettivo di Wald è risolvere tale problema decisionale, costituendo una vera e propria teoria generale della statistica. Nel risolvere tale problema egli si avvale di un test sequenziale definito come: “any kind of statistical procedure which gives a specific rule for taking, at any stage of experiment, one of the following three actions: either accept the hypothesis being tested, or reject it, or continue experimentation by making ad additional observation” (Wald 1945, p. 118).

Tale test è rappresentato nella figura sottostante:

La caratteristica fondamentale del test sequenziale è che “the number of observations is not predetermined, but is itself a random variable, given that

(31)

at any stage of the experiment the decision to terminate the process depends on the result of previous observations” (Giocoli 2011, p. 6).

L’assenza di un criterio razionale per comprendere dove arrestarci nella ricerca di informazioni ha delle conseguenze rilevanti anche per la teoria del peso degli argomenti. Seguendo Feduzi (2010), prendiamo in considerazione la seguente espressione e valutiamone le conseguenze:

V (H/E) < V (H/E&E1) < V (H/E&E1&E2) < (…) < V (H/ E&E1&E2&…EN)

Quando abbiamo sempre a disposizione delle nuove evidenze Ei da tenere in

considerazione, vediamo che a maggiori evidenze corrisponde un maggior peso dell’argomento V(.). Tuttavia a causa della mancanza di un criterio razionale da

seguire, gli agenti non sanno dove arrestare la ricerca di informazioni per poter poi effettuare delle scelte.

Questa espressione, così posta, potrebbe avere due importanti conseguenze:

1. Avendo a disposizione un numero di informazioni rilevanti infinito, il processo di apprendimento non si arresterebbe mai, dunque gli individui non si porrebbero mai nella condizione di effettuare una scelta;

2. se il numero di informazioni a disposizione è finito, non si può sapere se il numero di evidenze a disposizione è sufficiente e si può avere difficoltà nello stabilire una buona approssimazione del valore di probabilità attribuito all’argomento.

(32)

In entrambi i casi “Keynes’s theory of evidential weight would then lead to permanent indecision and inaction” (Feduzi 2010, p. 8). Emerge chiaramente la difficoltà di trovare un principio che mostri quando il numero di informazioni a disposizione sia da ritenersi sufficiente per compiere una decisione; dunque lo stopping problem resta anche aperto e irrisolto.

Tornando alla relazione tra peso e probabilità, Keynes mostra che molto spesso ambedue le nozioni non sono soggette a misurazione: “where the conclusions of two arguments are different, or where the evidence for the one does not overlap the evidence for the other, it will often be impossible to compare their weights” (Keynes 1921, p. 79). Una comparazione cardinale non è possible, “because it seems impossible to discover kinds to a common numerical standard” (O’ Donnell 1991, p. 71).

Keynes a questo punto si concentra su una comparazione di tipo ordinale tra i casi probabilistici, passando poi a mostrare, laddove è possibile, una conseguente comparazione tra i pesi degli argomenti:

1. Le probabilità possono essere comparate se sono basate sul

principio di indifferenza che, sotto determinate condizioni, assume la

forma φa/ψa ∙ h1= φb/ψb ∙ h2, dove h1 e h2 sono evidenze irrilevanti per

(33)

2. a/hh1⋛ a/h, dove h1 non contiene parti indipendenti rilevanti.

Dunque, se l’ipotesi h1 permette di credere maggiormente nella

conclusione a, allora sarà a/hh1>a/h; in caso contrario, sarà a/hh1<a/h,

dato che h1 ha aumentato l’evidenza sfavorevole relativa all’argomento;

3. ab/h≤a/h, se la probabilità che da h segua ab è minore di quella che segua solo a.

Se rappresentiamo il peso con V(a/h), allora possiamo affermare che sono possibili le seguenti comparazioni:

1. V(φa/ψa ∙ h1) = V(φb/ψb ∙ h2), dove h1 e h2 sono irrilevanti dato

che hanno un pari peso probatorio;

2. V(a/hh1) > V(a/h), se h1 è rilevante; altrimenti V(a/hh1) = V(a/h)

se h1 è irrilevante.

Keynes ritiene invece inesistente una regola di comparazione relativa al terzo caso. “It might be thought that V(ab/h) < V(a/h), on the ground that the more complicated an argument is, relative to given premisses, the less is its evidential weight” (Keynes 1921, p. 80). Ciò non è però valido: infatti l’argomento ab/h è più lontano dalla dimostrazione di a/h, ma più vicino alla sua confutazione.

Per mezzo della formulazione logica che l’autore propone, dovrebbe essere chiaro agli individui che “the weighing of the amount of evidence is quite a separate process from the balancing for and against” (Keynes 1921, p. 81).

(34)

Nonostante ciò, i concetti di probabilità e di peso degli argomenti vengono spesso sovrapposti.

Uno degli esempi posti da Keynes stesso per negare tale identità è quello in cui Keynes prende in esame il metodo dell’errore probabile. Il peso e “l’errore probabile” vengono spesso confusi. Quest’ultimo è “[t]he amount, which the difference between actual value of the quantity and its most probable value is as likely as not to exceed” (Keynes 1921, p. 82). Risulta chiaro che il peso non corrisponde a una tale definizione.

Riprendiamo un altro caso tipico, esposto anche questo nel TP, che può essere illustrato in due esempi. Da un lato abbiamo un’urna contenente palline bianche e nere nella medesima proporzione; nell’altro caso le palline possono essere bianche o nere, ma non siamo a conoscenza del modo in cui sono distribuite. Nei due casi la probabilità che sia una pallina bianca ad essere estratta è la medesima (ho un 50% di possibilità che venga estratta una pallina bianca e il 50% che venga estratta una nera), ma il peso dell’argomento nel primo esempio è molto più grande, dato che conosco la distribuzione delle palline contenute nell’urna.9 Se effettuiamo tale esperimento nel lungo

periodo noteremo che l’errore probabile nel primo caso sarà piuttosto basso, dato che estrarremo un numero di palline bianche e nere in proporzione simile. “An argument of high weight concerning some phenomenon is likely to be

(35)

accompanied by a low probable error, when the character of a series of similar phenomena is under consideration” (Keynes 1921, p. 83). La conclusione deducibile è quindi che probabilità e peso sono tra loro indipendenti, tanto che, afferma Keynes, “the weight, to speak metaphorically, measures the sum of the favourable and unfavourable evidence, the probability measures the

difference” (Keynes 1921, p. 85).

Il concetto di peso torna centrale nel XXVI capitolo del TP, in cui l’autore si chiede come effettuare una scelta quando due probabilità sono di grado uguale, ma l’evidenza su cui sono basate è differente. È chiaro che il grado di completezza delle informazioni gioca in questo caso un ruolo molto importante: tanto minore è l’ignoranza e tanto maggiore il peso degli argomenti. Di conseguenza la probabilità di commettere degli errori, nel suddetto caso, sarà minima.

Diversi studiosi keynesiani hanno fortemente dibattuto sull’interpretazione del concetto di peso (Runde 1990, p. 279). Sembrano esserci infatti tre diverse interpretazioni disponibili che non sono congruenti l’una con l’altra:

1. “un argomento ha un peso maggiore di un altro se si basa su una quantità maggiore di evidenza rilevante”. Il peso sembra qui essere indipendente dalla probabilità, tanto che aumenterà all’aggiunta di nuova evidenza, nonostante la probabilità possa anche diminuire. 2. Il peso poggia sulla differenza tra evidenza rilevante e ignoranza rilevante.

(36)

3. Il peso viene definito come il grado di completezza delle informazioni a nostra disposizione.

In tutti e tre i casi, l’obiettivo di Keynes sembra essere trovare un metodo con il quale poter misurare il peso. Ma le tre nozioni, osserva Runde (1990, pp. 279-283), prendono in esame casi differenti. Se (1) si riferisce alla possibilità di poter sempre accrescere le informazioni relative ad un argomento, (2) è relativo all’ammontare di ignoranza rilevante, mentre (3) si riferisce ad una conoscenza più o meno completa.

Il concetto di peso è fortemente legato a quello di incertezza, dato che, come vedremo nel prossimo capitolo, quest’ultima viene misurata per mezzo del primo. Al riguardo, vale la pena sottolineare come la presenza di una situazione dicotomica in Keynes, ai cui antipodi vengono posti il concetto di incertezza radicale e quello di incertezza debole, sia negata da Alessandro Vercelli (1999). Egli ritiene che vi sia un terzo tipo di incertezza, quella forte, che relativamente al peso assume un ruolo fondamentale. Quando l’incertezza è radicale, il peso dell’evidenza è nullo. Ciò potrebbe essere dovuto o alla mancanza di evidenze a disposizione oppure al fatto che le evidenze possono essere tra loro contraddittorie e non aggiungere nulla al peso dell’argomento. Se l’incertezza è debole, il peso sarà uguale a 1. Di conseguenza la probabilità sarà un valore molto vicino allo 0 o molto vicino all’1. Quando l’incertezza è forte, invece, le variazioni del peso assumono un ruolo causale di fondamentale importanza.

(37)

Secondo Vercelli, non c’è ragione di limitare le variazioni dell’incertezza ad un “salto” tra valori contrapposti: l’incertezza varia lungo un continuo.

7. Conclusioni

Queste pagine, sul tema inesauribile della probabilità, servono da introduzione a quello che sarà lo sviluppo del restante lavoro. Da esse emerge un primo quadro, che cerca di essere un sunto chiarificatorio di alcuni concetti che devono essere una guida per la lettura del Treatise on Probability. I concetti presi qui in esame devono quindi risultare chiari per poter procedere. L’obiettivo, infatti, è comprendere l’importanza del TP dovuta alle idee originali, oltre che poco in linea con la tradizione, introdotte dal suo autore.

Come sostenuto da Marco Dardi, “si potrebbe caratterizzare lo spirito di quest’opera come una ricerca quasi ansiosa di fondazione, di giustificazioni razionali per i modi di agire e di pensare usuali” (Dardi 1991, p. 76). È proprio per tale motivo che un’analisi del TP non può prescindere da una trattazione dei capitoli sulla giustificazione del metodo induttivo, in cui avviene “lo spostamento del problema della giustificazione dell’empirismo dal terreno della certezza dell’induzione a quello della certezza della probabilità” (Dardi 1991, p. 76). Inoltre, in questa ricerca entrano in gioco anche gli attacchi al frequentismo, che per Keynes sembra sprovvisto di un vero e proprio fondamento logico.

(38)

Mi è sembrato però interessante, prima di addentrarmi in argomenti di tali difficoltà e spessore, trattare la c.d. k-uncertainty (dove “k” sta ovviamente per Keynesian), la cui importanza è fondamentale in relazione con la nozione di peso degli argomenti già sopra esposta. Nonostante l’intento della tesi non sia di effettuare un confronto tra l’opera del 1921 e la General Theory, la nozione di k-uncertainty merita di essere approfondita in un apposito capitolo.

(39)

Capitolo 2

La nozione keynesiana di incertezza

1. La k-uncertainty e la relazione con le nozioni di rischio e ambiguità

Uno dei concetti fondamentali del Treatise on Probability è sicuramente quello di incertezza. Anche per l’importante biografo Robert Skidelsky l’incertezza risulta essere uno dei punti cardine del pensiero keynesiano: “I would now assign a much greater weight to uncertainty in Keynes’s revolution than I did when I wrote my biography”10 (Skidelsky 2011, p. 2). Tale concetto, centrale

negli anni ’20 del Novecento, verrà utilizzato e discusso anche nel periodo post-keynesiano. Il dibattito è in effetti ancora aperto. Ciò è principalmente dovuto alla complessità della nozione ed alla difficoltà di elaborare una teoria adeguata alla sua comprensione.

La nozione di incertezza keynesiana, detta k-uncertainty, venne sviluppata parallelamente a quella dell’economista Frank Knight, che la introdusse nell’opera del 1921 Risk, Uncertainty and Profit. I lavori dei due studiosi furono contemporanei, ma indipendenti. In seguito tale concetto venne ripreso da Daniel Ellsberg nel 1961 e da George L. S. Shackle. I lavori di questi autori, infatti, vengono spesso messi in relazione.

10 Vedi Skidelsky (2011) per ulteriori approfondimenti sulla prospettiva keynesiana intorno al tema

(40)

Per comprendere il concetto di incertezza, è necessario differenziarlo da quello di rischio. Keynes afferma che “risk is when probabilities can be known (measured); uncertainty exists when they cannot be known (or measured), i.e. when the future is unknowable” (Skidelsky 2011, p. 3). Anche Knight propone una definizione simile: “the word ‘risk’ is ordinarily used in a loose way to refer to any sort of uncertainty viewed from the standpoint of the unfavourable contingency, and the term ‘uncertainty’ similarly with reference to the favourable outcome” (Knight 1921, p. 243).

Knight ritiene inoltre che vi sia una forte ambiguità nell’uso dei due termini e per questo motivo si deve cercare di specificarli come sopra indicato. Egli ritiene che si possano usare i termini “oggettivo” e “soggettivo” per designare il rischio e l’incertezza, dato che le due espressioni sono già in uso con un significato simile a quello da lui proposto: “The pratical difference between the two categories, risk and uncertainty, is that in the former the distribution of the outcome in a group of instances is known (either through calculation a priori or from statistics of past experience), while in the case of uncertainty this is not true, the reason being in general that it is impossible to form a group of instances, because the situation dealt with is in a high degree unique” (Knight 1921, p. 244). Dunque si parla di rischio quando la distribuzione delle probabilità dell’accadimento di un evento sono conosciute, mentre di incertezza quando tale distribuzione è sconosciuta.

(41)

Il punto di vista keynesiano si pone in discontinuità con quello degli economisti neoclassici. Secondo Downward, “while it may be said that neoclassicals stress the measurability of probabilities and treat risk and uncertainty as synonymous, radical economists, such as post Keynesians, distinguish between risk and uncertainty” (Downward 1998). Anche i soggettivisti, tra cui Savage e De Finetti, cercano di abbandonare tale dicotomia che porterebbe a discutere “over the subjectivity or objectivity of probabilities as a measure of risk and/or uncertainty. It is debated whether or not probabilities are measurable or not measurable” (Downward 1998, p. 1).

La dicotomia prende una forma specifica nella General Theory: nel breve periodo si parla di rischio, mentre nel lungo periodo il problema è proprio l’incertezza. Già negli scritti precedenti, Keynes aveva mostrato il suo punto di vista sulle capacità della teoria economica ortodossa di studiare il lungo periodo: “The long run is a misleading guide to current affairs. In the long run we are all dead. Economists set themselves too easy, too useless a task if in tempestuous seasons they can only tell us that when the storm is long past the ocean is flat again” (Keynes 1923).

Un’ulteriore differenziazione è che una situazione rischiosa è caratterizzata da una struttura casuale ma fortemente deterministica, nella quale il decision-maker ha a disposizione un grande numero di dati che gli permettono una conoscenza dell’evento, mentre una situazione di k-uncertainty è caratterizzata da una struttura casuale soggetta a continui cambiamenti che

(42)

rendono difficile il compito al decision-maker. Nonostante lo studio delle situazioni rischiose sembra essere preferibile a quello delle situazioni incerte, Keynes ritiene l’approccio centrato sul rischio troppo limitato. Per tale motivo, nonostante la sua maggiore complessità, al centro della sua tesi emerge il concetto di uncertainty.

Come vengono operate allora le scelte dagli individui? Il concetto di incertezza deve essere messo in relazione a quello di razionalità limitata (bounded rationality). La razionalità è alla base del comportamento dell’agente economico che, vivendo in un ambiente troppo complesso, cerca di ridurlo per poterlo comprendere. L’individuo, però, non ha a disposizione una razionalità illimitata e questo non gli permette di sfuggire a quelle che, appunto, possiamo definire situazioni incerte (Vercelli 1995).

Quando gli agenti non hanno a disposizione sufficienti informazioni per operare delle scelte prendono in considerazione il passato come guida per le azioni del futuro, procedendo per analogia.11 L’evidenza a disposizione non è

però sufficiente per inferire una similitudine tra il passato e il futuro e questo sottopone gli individui ad una fundamental uncertainty, ovvero ad una incertezza radicale.

Il concetto di k-uncertainty viene spesso confuso con quello di ambiguity, pur trattandosi di due entità a sé stanti. L’incertezza radicale è tipica delle situazioni in cui non esistono informazioni nel momento in cui operiamo una

(43)

scelta, dato che le evidenze a nostra disposizione sono limitate e non è possibile acquisire altra nuova conoscenza. Mentre il concetto di ambiguity si riferisce a situazioni in cui non abbiamo informazioni nel momento in cui operiamo una scelta, pur sapendo che tali informazioni effettivamente esistono (Camerer, Weber 1992, p. 7). In quest’ultimo caso possiamo fare in modo di ottenere tali informazioni mancanti. Per questo motivo, se il concetto di incertezza è associato spesso con la nozione di tempo radicale e irreversibile (Vickers 1994), quello di ambiguità può scomparire con il passare del tempo, venendo a conoscenza di un maggior numero di informazioni ex ante (Dequech 2001)12.

Ciò che possiamo chiederci relativamente a queste nozioni è se sono da intendersi come graduali. Per quanto riguarda l’ambiguità non sembrano esserci molti dubbi: tale nozione è graduale, dato che più si viene a conoscenza di informazioni e più l’ambiguità su un argomento sembra scomparire. Per quanto riguarda l’incertezza, invece, questa deve essere differenziata dall’ignoranza, altrimenti non sarebbe possibile parlare di gradualità. L’incertezza dunque deve essere un valore compreso tra la certezza e l’impossibilità, ovvero tra 1 e 0 (Vercelli 1999).

Come abbiamo già visto nel primo capitolo, Keynes introduce un esempio di ambiguità nel TP, quando affronta il problema della scelta delle palline nelle

12 Vedi Dequech (2000) per ulteriori approfondimenti sulla distinzione tra ambiguity e

(44)

urne, conoscendo o meno la loro distribuzione (Keynes 1921, pp. 55, 75-76,83). “The typical case (…) may be illustrated by the two cases following of balls drawn from an urn. In each case we require the probability of drawing a white ball; in the first case we know that the urn contains black and white in equal proportions; in the second case the proportion of each colour is unknown, and each ball is likely to be black as white” (Keynes 1921, p. 83). Seguendo Keynes, Daniel Ellsberg argomenterà 40 anni dopo che la presenza di incertezza nelle decisioni prese dagli agenti economici dipende non solo dalla probabilità percepita, ma anche dall’ambiguità delle decisioni (Fox, Tversky 1995).

Nel saggio del 1961 Ellsberg propone il medesimo problema affrontato precedentemente da Keynes13: “You have the following information. Urn I

contains 100 red and black balls, but in a ratio entirely unknown to you; there may be from 0 to 100 red balls. In Urn II, you confirm that there are exactly 50 red and 50 black balls” (Ellsberg 1961, pp. 650-651). Secondo la teoria dell’utilità attesa (EUT) si suppone che gli individui preferiscano assumersi dei rischi nelle situazioni in cui conoscono la distribuzione delle probabilità, piuttosto che in uno scenario ambiguo, causato da tale mancanza di informazioni. Dunque una probabilità nota di vincere, dovrebbe essere sempre preferita ad una sconosciuta di vincere, anche se il valore dell’ultima è superiore a quello della prima.

(45)

Ellsberg propone un altro test nel quale immagina un’urna contenente 30 palline rosse e 60 palline tra nere e gialle, in una proporzione sconosciuta. Si prendono poi in esame due coppie di giochi, il gioco A e B ed il gioco C e D:

Gioco A Gioco B

Ricevi $100 se peschi una palla rossa Ricevi $100 se peschi una palla nera e $0 se peschi una palla gialla

Gioco C Gioco D

Ricevi $ 100 se peschi una palla rossa o

una palla gialla Ricevi $ 100 se peschi una palla nera o una palla gialla

Gli agenti economici preferiscono il gioco A al gioco B, se ritengono che pescare una palla rossa sia più probabile che pescarne una nera. Se fosse così, allora dovrebbero necessariamente preferire il gioco C al gioco D: infatti pescare una palla rossa o gialla dovrebbe risultare più probabile del pescare una nera o gialla. Quando però gli agenti economici vengono interrogati, si ottiene come risposta che il gioco A è preferito al B, ma il D al C. Sulla base di ciò Ellsberg conclude che gli agenti economici compiono scelte in modo intransitivo, violando i postulati dell’utilità attesa (EUT)14.

Un esperimento simile era stato effettuato pochi anni prima anche da Maurice Allais che, come Ellsberg, aveva dimostrato una possibile incoerenza delle scelte effettuate dagli agenti economici per mezzo della teoria dell’utilità attesa (EUT).

14 Vedi Giocoli (2003) e Moscati (2018) per un approfondimento sulla teoria dell’utilità attesa (EUT)

(46)

Anche Allais prese in considerazione due coppie di giochi enunciati come segue:

Gioco A Gioco B

Vincita Opportunità Vincita Opportunità

$ 1 milione 100%

$ 1 milione 89%

Niente 1%

$ 5 milioni 10%

Gioco C Gioco D

Vincita Opportunità Vincita Opportunità

Niente 89% Niente 90%

$ 1 milione 11%

$ 5 milioni 10%

(47)

economici vengono interrogati rispondono di preferire il gioco A al B e il gioco D al C, dunque le loro scelte non sono coerenti con la teoria dell’utilità attesa. Dopo aver differenziato il rischio dalla k-uncertainty e quest’ultima anche dal concetto di ambiguità, è bene prendere in considerazione altre caratteristiche della fundamental uncertainty. Diversi studiosi distinguono due tipologie di incertezza (Dosi, Egidi 1991; Dequech 2000):

1. Incertezza sostanziale: quando non abbiamo a disposizione tutte le informazioni che sarebbero necessarie per compiere una scelta. 2. Incertezza procedurale: quando ci riferiamo al divario tra la complessità di una situazione e la competenza degli agenti nel processo di informazione.

Un dibattito recente e ancora aperto è relativo alla composizione della k-uncertainty. Per alcuni studiosi l’incertezza keynesiana è costituita dalle due facce di Giano: da un lato le viene attribuita una componente epistemologica legata al grado di conoscenza intorno ai fenomeni, dall’altro invece ha una componente ontologica che permette di associare tale nozione alla realtà circostante (Dequech 2000, Dequech 2001). Per altri ancora, invece, l’incertezza può essere trattata come una nozione epistemica, ma non ontologica (Mc Cann 1998).

(48)

2. La k-uncertainty nella General Theory

L’innovazione profonda e radicale che Keynes porta alla teoria economica è anche di carattere metodologico e riguarda l’accento che egli pone sul concetto di incertezza, che caratterizza il contesto decisionale in cui operano gli agenti economici. L’incertezza è legata all’incapacità da parte degli agenti di fare previsioni attendibili sugli eventi futuri e per questo motivo è fortemente intrecciata al concetto di aspettativa di lungo periodo. Tali argomenti rappresentano il fulcro dell’analisi che Keynes proporrà nell’opera del 1936,

The General Theory of Employment, Interest and Money.

La nozione di k-uncertainty viene affrontata principalmente nei capitoli 5 e 12 dell’opera, dove emerge la sua relazione con il concetto di aspettativa. Quest’ultima viene differenziata da Keynes in due tipologie: “the first type is concerned with the price which a manufacturer can expect to get for his ‘finished’ output at the time when he commits himself to starting the process which will produce it (…). The second type is concerned with what the entrepreneur can hope to earn in the shape of future returns if he purchases ‘finished’ output as an addition to his capital equipment. We may call the former short-term expectation and the latter long-term expectation” (Keynes 1936, p. 37).

Quando l’agente economico formula delle aspettative, cerca di farlo su una base che sia il meno incerta possibile. Per questo “it is reasonable, therefore,

(49)

somewhat confident, even though they may be less decisively relevant to the issue than other facts about which our knowledge is vague and scanty” (Keynes 1936, p. 95). La pratica è quella di prendere la situazione esistente e proiettarla nel futuro, modificata solo nella misura in cui si hanno ragioni per aspettarci un cambiamento. Lo stato di aspettativa dipende da quello di fiducia, nonostante non sia possibile quantificare ex ante l’impatto che un evento avrà: “In practice we have tacitly agreed, as a rule, to fall back on what is, in truth, a convention (…) The essence of this convention lies in assuming that the existing state of affair will continue indefinitely” (Keynes 1936, p. 97).

La maggior parte delle conseguenze è però valutabile solo a posteriori e a distanza di molto tempo. Inoltre, l’individuo non sceglie sulla base di “una rigorosa speranza matematica” (Keynes 1936, p. 349) ma seguendo gli animal

spirits, ovvero uno stimolo all’azione sulla base delle credenze personali,

caratterizzato da una forte instabilità. Sono questi “slanci vitali”, che approfondiremo più innanzi al paragrafo 2.4, che rendono le scelte compiute dagli agenti economici fortemente incerte.

È stato a lungo dibattuto se il Treatise on Probability e la General Theory siano o meno da mettere in continuità e se quindi l’incertezza affrontata da Keynes nell’opera del 1921 sia la stessa presentata nell’opera del 1936: “the key question is (…) whether or not there is a continuity between Keynes’s early philosophical thought up to the Treatise and his subsequent writings, especially the General Theory” (Gerrard 1992, p. 81).

Riferimenti

Documenti correlati

This does not necessarily mean that the a posteriori determination of the probability of A occurring i times in s future observations is less precise when it is obtained on the basis

È gradita la prenotazione tramite Eventbrite ( www.eventbrite.it ) L’evento è organizzato nell’ambito del Pubblico Dominio #Openfestival. BIBLIOTECA DI ECONOMIA E MANAGEMENT C,

facendo riferimento ad un indicatore sintetico, il quale deve misurare la validità dell'iniziativa e l'utilità che il progetto riveste dal punto di vista

• È stato dimostrato che i pazienti che ricevono È stato dimostrato che i pazienti che ricevono interventi basati sulla ricerca riportano risultati. interventi basati sulla

La ricerca espone ed analizza gli stereotipi più ricorrenti e le problematiche ad essi legate, quali la scarsa rappresentazione femminile (sia numerica che effettiva), l’utilizzo

Figure 11 shows examples of four riders performing braking trials with the real-time loss of control predictors adapted from Model-1 and Model-3.. Each example of Figure 11 from

From the results presented in this work it emerges that the global meat consumption trends, especially the one of bovine meat (whose production is based on intensive and

Nel caso della politica di coesione questo è solo parzialmente vero: da una parte, questa politica comunitaria incide in modo significativo sulle politiche pubbliche nazionali,