• Non ci sono risultati.

Parte 2 – Mandelbrot

N/A
N/A
Protected

Academic year: 2021

Condividi "Parte 2 – Mandelbrot"

Copied!
60
0
0

Testo completo

(1)

22

(2)

23

Benoit Mandelbrot rappresenta una figura di difficile collocazione nella storia delle teorie economiche del ventesimo secolo. Nato nel 1924, proviene da una famiglia ben inserita “nell’establishment accademico francese”14, ed entra agevolmente all’Ecole Polytechnique di Parigi per studiare matematica, diventando alunno di Paul Levy verso la metà degli anni Quaranta. La sua particolarità rispetto all’ambiente in cui cresce tuttavia non tarda a manifestarsi: contrariamente alla tendenza predominante nel mondo della matematica accademica dell’epoca, decide di non orientarsi verso studi di matematica pura, preferendo dedicarsi alla matematica applicata. Più precisamente tale rottura si può collocare nel 1950, anno della sua tesi di dottorato, il cui argomento consiste nell’elaborazione di un supporto matematico all’opera di George Zipf, professore inglese di “ecologia umana statistica”, argomento quantomeno bizzarro la cui scelta determinerà nel concreto la rinuncia alla carriera accademica. Questo episodio può essere ragionevolmente preso come emblema di quella che sarà la sua attività scientifica nel corso della sua vita. Mandelbrot lascerà infatti la Francia e il sicuro ambiente parigino per trasferirsi negli Stati Uniti, e lavorare come ricercatore presso l’IBM. Per un sostenitore della matematica applicata, l’IBM all’epoca rappresentava probabilmente l’avanguardia: Mandelbrot ebbe infatti la possibilità di sfruttare le nuove potenzialità derivanti dall’utilizzo di calcolatori elettronici, ed applicarle ad ambiti di studio ancora poco esplorati, come l’economia. Giova sottolineare a tal proposito l’impatto non solo quantitativo, in termini di velocità di calcolo e numero di dati esaminati, ma anche qualitativo determinato dall’informatizzazione della ricerca scientifica. L’introduzione dei calcolatori permise l’analisi di serie di dati impossibili da affrontare per il singolo scienziato, permettendo di arrivare ad un livello di comprensione della natura dei fenomeni analizzati altrimenti impensabile. A tal proposito, bisogna rilevare come l’opera di Mandelbrot rispecchi del tutto questo fatto: ogni elaborazione teorica, ogni modello proposto è nato dalla necessità di spiegare i risultati ottenuti con i nuovi metodi di analisi, e ancor meglio le discrepanze risultanti da queste analisi rispetto ai modelli consolidati.

14 MANDELBROT 2004, p. 64

(3)

24

Capitolo 1 – Le Distribuzioni Stabili

1 – Introduzione

Le teorie di Mandelbrot sono state soggette nel corso degli anni a un continuo processo evolutivo, dovuto al progressivo emergere di nuove evidenze empiriche e alla necessità di conciliare il tutto in un modello coerente.

Il primo episodio, il punto di partenza dell’opera, è costituito da quello che Mandelbrot battezzerà col nome di “mistero del cotone15”.

Come già detto, nel 1960 Mandelbrot lavorava come ricercatore presso l’IBM, e stava verificando le teorie di Pareto sulla distribuzione dei redditi. Invitato a tenere una conferenza ad Harvard sull’argomento, una volta lì vide disegnato su una lavagna un grafico del tutto identico a quello che avrebbe dovuto disegnare a breve. Il grafico in questione rappresentava le variazioni storiche dei prezzi del cotone, un bene per il quale, a differenza dei titoli quotati, erano disponibili le registrazioni dei prezzi per un arco temporale che superava il secolo.

Il “mistero” consisteva innanzi tutto nel fatto che due fenomeni così diversi e slegati, come la distribuzione dei redditi in una società e le variazioni dei prezzi del cotone, presentassero configurazioni analoghe. Secondariamente, la stessa forma dei grafici presentava un problema: Houttaker, il docente che stava studiando le variazioni del cotone, si dichiarò incapace, per quanto si sforzasse, di conciliare la distribuzione di queste variazioni con il modello di Bachelier. Tanto i prezzi del cotone quanto i redditi, infatti, presentavano una distribuzione ben diversa rispetto alla Normale, con elevata asimmetria e curtosi.

15 MANDELBROT 2004, p. 64

(4)

25

2 – La legge di Zipf

La soluzione del problema richiede alcuni passi indietro. Si è accennato al fatto che la tesi di dottorato di Mandelbrot riguardava la costruzione di un supporto matematico alle teorie di Zipf, sarà ora necessario entrare maggiormente nel dettaglio.

Zipf, nel suo libro Human Behaviour and the Principle of Least-Effort16

, analizza la frequenza con cui vengono ripetute determinate parole all’interno di un testo: parole semplici, come articoli e preposizioni, presentano un rango minore rispetto a parole più ricercate. Zipf, sulla base di queste osservazioni, elaborò una legge empirica che associa la frequenza di un evento all’interno di un insieme al rango dell’evento stesso. Zipf arrivò a questa conclusione partendo da un’analisi dell’economia del discorso, ossia della necessità di ottenere la maggiore capacità comunicativa possibile con il minimo sforzo. Distinguendo le parole in due macroclassi, ossia le parole con poco significato (vuote) e le parole con alto contenuto informativo (hapax), è possibile osservare un processo evolutivo che le differenzia in termini di lunghezza. Le parole vuote, poco informative, dato che costituiscono la struttura portante del discorso e sono molto utilizzate, sono parole corte. Al contrario, l’utilizzo degli hapax all’interno di un discorso può essere limitato, in virtù del grande apporto informativo che assicurano. È necessario sottolineare che, secondo Zipf, è la frequenza di utilizzo di una parola che ne determina in un processo evolutivo la lunghezza.

Riportando la distribuzione di frequenza delle parole, Zipf si rese conto che la diminuzione della frequenza risultava essere proporzionale all’aumentare del rango (ad esempio, la frequenza dell’evento di rango due sarà la metà della frequenza dell’evento di rango uno). Più in dettaglio, dopo aver ordinato le parole in base al rango, ossia in maniera decrescente rispetto alla frequenza con cui si verificano, la frequenza viene espressa dalla formula:

f (Xi) = C / iα17

dove

- i indica il rango

- Xi indica l’evento X posto al rango i

16

ZIPF 1949 17

(5)

- C è una costante di normalizzazione

dell’evento di rango 1

- l’esponente α in Zipf è approssimato ad uno Tracciando un grafico che esprime la freque

che curva la non decresce in maniera regolare, e che le code risultano molto più consistenti rispetto alla distribuzione Normale.

Tracciando il grafico in scala logaritmica, la distribuzione assume la forma

26

di normalizzazione pari al valore di f(X1), ossia la frequenza

dell’evento di rango 1

Zipf è approssimato ad uno

Tracciando un grafico che esprime la frequenza in funzione del rango, è possibile notare non decresce in maniera regolare, e che le code risultano molto più consistenti rispetto alla distribuzione Normale.

Tracciando il grafico in scala logaritmica, la distribuzione assume la forma

, ossia la frequenza

nza in funzione del rango, è possibile notare non decresce in maniera regolare, e che le code risultano molto più

(6)

27

Dopo aver sviluppato la sua legge, Zipf provò ad applicarla a numerosi fenomeni, soprattutto in ambito delle scienze sociali e di anatomia umana, registrando numerose prove a favore della sua validità. Bisogna precisare comunque che la distribuzione di Zipf, alla prova di varie verifiche empiriche, ha sempre presentato un elevato grado di accuratezza nei range intermedi della distribuzione, perdendo però accuratezza nelle code. Ciò che preme in ogni caso rilevare ai fini del presente lavoro, è il fatto che Zipf propose un modello alternativo rispetto alla distribuzione Normale, e che tale modello risultava funzionare. Fermo restando il fatto che la totale adesione di un modello alla realtà che vuole descrivere è quasi sempre più auspicabile che completa, la legge di potenza di Zipf è stata riconosciuta col passare degli anni come il corrispettivo, nelle scienze sociali, della distribuzione Normale nelle scienze naturali.

Fu questo punto, insieme alla sua inspiegabile capacità di descrivere fenomeni tra loro molto lontani, che attirò l’attenzione di Mandelbrot, portandolo a sviluppare una generalizzazione della legge in un articolo del 1953.18

La forma proposta da Mandelbrot è semplicemente:

f (Xi) = C / (i + V) α

La formula risulta simile a quella di Zipf, eccezion fatta per l’introduzione di una costante V che rende più aderente la distribuzione teorica rispetto a quelle reali.

18

(7)

28

Per concludere il discorso, può essere utile riassumere brevemente quali sono i punti di maggior interesse che emergono dall’analisi della distribuzione di Zipf, e che costituiranno in parte le basi della successiva opera di Mandelbrot. Questi punti sono innanzi tutto l’esistenza, e la validità empirica, di una distribuzione che segue una precisa legge di potenza, e che risulta alternativa rispetto alla Normale. La potenza della distribuzione, che da un punto di vista prettamente geometrico corrisponde all’inclinazione della retta di regressione nel grafico logaritmico, rappresenta in Zipf una misura del livello di complessità di utilizzo del vocabolario disponibile: confrontando due libri, a quello che presenta un valore di α minore corrisponde una minore diminuzione nell’utilizzo delle parole al crescere del rango. In altri termini, ad un α basso corrisponde un maggior uso di parole ricercate. Zipf probabilmente sottostimò il valore di α, che identifica come leggermente superiore ad uno.

Secondariamente, è notevole il fatto che la distribuzione di Zipf risulti adatta a descrivere fenomeni eterogenei: nel corso degli anni è stato dimostrato che seguono questo modello fenomeni come l’intensità dei terremoti, il numero di abitanti nelle maggiori città dei singoli stati e gli accessi alle pagine internet maggiormente visitate, oltre naturalmente alla frequenza di utilizzo delle parole nelle varie lingue. Cambiano i valori di α, ma il rapporto base tra rango e frequenza segue sempre la stessa regola. Un ultimo punto che va messo in luce è il fatto che la distribuzione di Zif risulta invariante di scala: aumentando la dimensione del campione, la forma della distribuzione non cambia. L’importanza di questo aspetto sarà più chiara successivamente, in quanto l’invarianza di scala rappresenta uno delle caratteristiche centrali della geometria frattale di Mandelbrot.

(8)

29

3 – Pareto

Il secondo passo indietro per la soluzione del problema del cotone consiste in una breve analisi dell’opera di Vilfredo Pareto, economista italiano che sviluppò le sue teorie a cavallo tra il diciannovesimo e il ventesimo secolo. La sua opera ha costituito per decenni il punto di riferimento per gli studi di economia politica, la sua analisi sulla distribuzione del reddito all’interno di una società costituisce il modello formale più antico in materia19.

Le radici delle concezioni di Pareto possono essere rintracciate nell’opera di due esponenti del darwinismo sociale, Otto Ammon e Georges Vacher de Lapouge. Questi due studiosi sostenevano l’esistenza di differenze naturali all’interno della società umana, tanto in termini razziali quanto in termini di capacità intellettiva, e che queste differenze si riflettevano sulla struttura piramidale della società. Questa struttura, in realtà, ha ben poco della classica piramide regolare, come si può vedere in un disegno di Ammon del 1899:20 19 PARETO 1896-1897 20 AMMON 1899

(9)

30

Senza entrare nel merito della bontà dei fondamenti antropologici e sociologici di queste tesi, che costituiranno negli anni successivi una base per lo sviluppo di teorie razziali più radicali, è indubbio che Pareto ne accolse presupposti e conclusioni, applicandole all’economia.

Pareto raccolse dati sulla distribuzione dei redditi in paesi ed epoche diverse21, trovando che in tutti i casi le distribuzioni assumevano uguale forma. La distribuzione dei redditi in una società non può pertanto dipendere dall’organizzazione sociale, dai meccanismi istituzionali di una singola società, in quanto i dati raccolti da Pareto accomunano società eterogenee. La causa di questo fenomeno risiede allora nella “natura degli uomini di cui la società si compone”22, la distribuzione dei redditi riflette le naturali differenze razziali ed intellettive degli uomini che compongono la società.

La legge di Pareto è molto vicina a quella di Zipf, cambia tuttavia l’obiettivo: mentre Zipf si chiedeva, dato un rango i, quale fosse la frequenza esatta corrispondente, la legge di Pareto serve a calcolare, dato un valore u, qual è la percentuale di individui del

21 Come documentazione di Pareto, MANDELBROT 2004 cita tra le altre la documentazione tributaria di Basilea dal 1454, quella di Augsburg tra il 1471 e il 1512, il reddito di locazione a Parigi a fine ‘800, i redditi personali in Inghilterra, Prussia, Sassonia, Irlanda, Italia e Perù

(10)

31

campione che hanno un valore superiore rispetto ad u. In altri termini, la funzione di Pareto è una funzione di probabilità cumulata.

Sia pertanto P(u) la percentuale di individui con un reddito U che è maggiore di u. In base alla legge di Pareto risulta:23

(u/uo) – α per u > uo P(u) =

1 per u < uo

La funzione risulta quindi definita da due variabili fondamentali: uo che è un fattore di scala, e l’esponente α. Gli studi empirici di Pareto lo hanno portato ad attribuire ad α un valore che si aggira intorno a 3/2, valore pertanto superiore rispetto alle conclusioni a cui era arrivato Zipf nel campo della linguistica. Se in Zipf l’esponente α era l’espressione della ricchezza di un linguaggio, in Pareto rappresenta l’indice di ineguaglianza di una società. Al crescere di α, curva si fa più ripida, e una porzione sempre maggiore dei redditi disponibili viene detenuta da una porzione sempre più piccola di persone.

(11)

32

4 – Da Cauchy a Levy

Come già detto, le distribuzioni appena descritte, ossia quelle di Zipf e di Pareto, rappresentarono per Mandelbrot un’importante fonte di ispirazione per la loro “anomalia” rispetto alla Normale. Entrambe le formule tuttavia presentavano, alla prova empirica, limiti di precisione, soprattutto nelle code delle distribuzioni. Mandelbrot stesso non tardò a riconoscere come fosse improbabile che “a single theory could ever explain all the features of the income distribution or that a single empirical formula could ever represent all the data”24. I modelli di Zipf e Pareto rappresentavano una spinta a sviluppare un modello teorico alternativo rispetto a quello classico, piuttosto che un punto di arrivo.

A questo punto tuttavia è necessario aprire una parentesi, per chiarire un aspetto della questione: negli anni in cui Mandelbrot cominciò a pubblicare i suoi lavori, ossia all’inizio degli anni Sessanta, l’esistenza di distribuzioni alternative rispetto alla Normale rappresentava un tabù per l’economia accademica, per la quale il modello corretto di comportamento dei prezzi era quello descritto da Bachelier, ma ovviamente non si può dire lo stesso per altre discipline. Ad esempio, la distribuzione di Cauchy risale alla prima metà dell’Ottocento, e rappresenta un noto esempio di distribuzione con momenti indefiniti.

La funzione di probabilità di Cauchy è data da:

f(x) = 1

sπ (1+((x – x0)/s)2)

Dove s è un parametro di scala. Nel caso in cui s=1 ed x0=0 si ottiene la forma standard

della distribuzione di Cauchy, ossia

f(x) = 1 π(1+x2)

Le code risultano essere molto più spesse rispetto alla distribuzione Normale (leptocurtosi).

24 MANDELBROT 1960

(12)

33

Le curve di Gauss e di Cauchy possono essere considerate come due modi diametralmente opposti di considerare la casualità. Mandelbrot definisce la casualità di Gauss “lieve”25: la maggior parte delle osservazioni sono raccolte intorno al valore medio, la probabilità che si verifichino eventi considerevolmente lontani rispetto a questo valore è altamente ridotta, e il contributo di questi eventi alla descrizione del fenomeno analizzato è pressoché nullo. Al contrario, la distribuzione di Cauchy rappresenta un tipo di casualità “selvaggia”. Le code sono spesse, gli eventi estremi sono altamente probabili e la loro rilevanza è notevole. Mandelbrot, per descrivere la casualità di Cauchy, usa la metafora dell’arciere bendato: non sapendo esattamente dove si trova il suo bersaglio, l’arciere scaglierà frecce che potrebbero andare in direzioni diametralmente opposte rispetto all’obiettivo, sconvolgendo ogni calcolo riguardante valore atteso e varianza.

Le due distribuzioni hanno pertanto rappresentato due strumenti di analisi scientifica profondamente diversi, e non sorprenderà il fatto che la regolarità e la facilità di impiego della distribuzione Gaussiana le abbiano garantito il favore, e di conseguenza l’impiego quasi esclusivo, in molteplici ambiti di studio.

Una sintesi tra le due distribuzioni, a prima vista concettualmente opposte, verrà operata negli anni Venti da Paul Lévy26, matematico francese che sarà docente di Mandelbrot. Lévy scoprì e studiò le distribuzioni stabili, la cui analisi verrà successivamente ampliata da Gnedenko e Kolmogorov.

25 MANDELBROT 2004, p. 24 26 LEVY 1925, LEVY 1937

(13)

34

Analiticamente, si dice che la distribuzione di una variabile X è stabile se, date due variabili X1 e X2 indipendenti distribuite come X, e date due costanti positive a e b,

esistono un numero positivo c e un numero reale d tali che

aX1 + bX2 =d cX + d

dove il simbolo “=d” indica l’uguaglianza nella forma della distribuzione. Una definizione alternativa prevede che una variabile aleatoria X ha una distribuzione stabile se, per ogni n ≥ 2, con Xn copie indipendenti di X, esistono un numero positivo cn e un

numero reale dn tali che

X1 + X2 + … + Xn =d cnX + dn

In altri termini, la forma di X risulta stabile sotto addizione, a meno di un riscalamento (dato da c) o di una traslazione (data da d). Con d = 0 per ogni coppia di a e b, la distribuzione è strettamente stabile.

Lévy trovò inoltre la funzione caratteristica che esprime la stabilità di una distribuzione:

Come si può vedere, la funzione risulta definita per quattro parametri fondamentali:

- α, indice di stabilità o esponente caratteristico; esprime lo spessore delle code, al

diminuire di α le code diventano più sottili e la parte centrale della distribuzione diventa più appuntita. Può assumere valori nell’intervallo (0, 2].

- β, indice di “skewness” o asimmetria della distribuzione; per β = 0 la

distribuzione risulta simmetrica. Può assume valori nell’intervallo [-1, 1]. Con

α = 1, β è nullo

- γ, parametro di scala o di dispersione; indica l’ampiezza della distribuzione. Può

(14)

35

- δ, parametro di posizione; esprime la media, o il punto intorno al quale si

raccoglie il maggior numero di osservazioni. Può assumere qualsiasi valore reale Risulta evidente come le distribuzioni stabili siano una macroclasse di cui fanno parte molteplici distribuzioni. Le uniche definite analiticamente sono quella di Gauss, di Cauchy e di Lévy, casi particolari appartenenti ad un’unica famiglia.

Nel dettaglio, la funzione caratteristica della Gaussiana è:

C(x) = exp iµx – 1/2 σ2 x2

che si ottiene impostando, nella funzione caratteristica generale delle distribuzioni stabili, α = 2, β = 0, γ = σ2/2, δ = µ.

Analogamente, la funzione caratteristica di Cauchy è:

C(x) = exp iax – b |x|

che si ottiene con α = 1, β = 0, γ = b, δ = a.

Oltre alla funzione caratteristica generale delle distribuzioni stabili, Lévy sviluppò una propria distribuzione, per certi versi intermedia tra quella di Gauss e quella di Cauchy. La funzione di densità della distribuzione di Lévy è data da :

F(x) = γ 1 exp _ γ 2π (x – δ)3/2 2 (x – δ)

con funzione caratteristica uguale a :

(15)

La distribuzione di Lévy risulta stab

Graficamente, è possibile confrontare le tre distribuzioni:

Gli ultimi due grafici mostrano come cambia la distribuzione al variare dei parametri e β.

36

La distribuzione di Lévy risulta stabile con parametri α = 1/2, β = 1. Graficamente, è possibile confrontare le tre distribuzioni:

Gli ultimi due grafici mostrano come cambia la distribuzione al variare dei parametri Gli ultimi due grafici mostrano come cambia la distribuzione al variare dei parametri α

(16)

37

5 – Un modello alternativo di comportamento dei prezzi azionari

Bachelier sviluppò il suo modello ipotizzando una serie di n variazioni indipendenti di una variabile aleatoria, che sulla base del Teorema del Limite Centrale per n che tende all’infinito si distribuisce secondo la Gaussiana. Vi è tuttavia un punto che Bachelier non considera, e che rischia di metterne in crisi l’intero modello: affinché il Teorema del Limite Centrale sia valido, occorre che la varianza delle variabili aleatorie che compongono la serie assuma un valore finito. Presupposto che non può essere dato per scontato.

Data una variabile aleatoria X, con f(x) funzione di densità di probabilità, si definisce momento N-esimo la quantità:

µx(n,x0

)

=

(x – x0)n f(x) dx

Il primo momento della funzione, con n=1 ed x0=0, corrisponde al valore medio della

variabile. Il secondo momento, con n=2 ed x0 uguale al valore medio, corrisponde alla

varianza.

I problemi si verificano quando X tende all’infinito più velocemente rispetto a quanto le code della distribuzione tendano a zero27. In tal caso, le medie delle potenze N-sime dei valori possono non tendere alle stime dei momenti della distribuzione, poiché questi possono anche non esistere. Questo succede perché l’integrale del prodotto tra la funzione di densità e la potenza N-esima non tende ad un valore finito. Detta altrimenti, i momenti di ordine superiore a N risultano non definiti. Nel caso in cui N<2, la varianza risulta indefinita, il Teorema del Limite Centrale non è applicabile, e la serie non si distribuisce secondo la Gaussiana.

Ad esempio, la distribuzione di Cauchy nell’intervallo (-∞, +∞) è indefinita. Infatti risulta:

µ1= 1/ π

x(1 + x2) dx

27 Il che equivale a dire che la Funzione di Densità di Probabilità della variabile aleatoria tende a zero più lentamente rispetto a |X|-(N+1)

(17)

38

che dopo opportuni passaggi fornisce come risultato ∞ - ∞. Il valore atteso risulta indefinito, anche se nel caso della distribuzione di Cauchy si fa comunque riferimento a un valore principale in virtù della simmetria della distribuzione. La varianza risulta:

µ2= 1/ π

x2 (1 + x2) dx

con risultato finale uguale a ∞. Allo stesso modo, una variabile casuale con una distribuzione di Lévy presenta i primi due momenti indefiniti. Tornando a Bachelier, affinché le variazioni dei prezzi dei titoli azionari determinino una distribuzione Gaussiana è dunque necessario che, per quanto possa sembrare una tautologia, le variazioni in questione siano compatibili con una Gaussiana. Non è sufficiente che le variazioni siano indipendenti temporalmente ed identicamente distribuite, in quanto potrebbero disporsi secondo Cauchy o Lévy. Il punto centrale del problema è dunque verificare se realmente le variazioni dei prezzi dei titoli azionari siano compatibili con una distribuzione Normale.

Nel 1913 Wesley Clair Mitchell, docente di economia alla Columbia University, pubblicò la sua opera principale, Business Cycles, il cui scopo era quello di “observe, analyse, and systematise the phenomena of prosperity, crisis, and depression”28. Il suo approccio strettamente empirico lo portò ad analizzare lunghe serie di variazioni dei prezzi azionari, giungendo alla conclusione che queste risultavano poco compatibili con la distribuzione Gaussiana in quanto presentavano un picco centrale più “appuntito” e code più spesse. Le sue conclusioni rimasero tuttavia inascoltate, e la teoria di riferimento divenne quella di Bachelier.

Questo quantomeno fino a quando Mandelbrot sviluppò, nei primi anni Sessanta, un modello alternativo di comportamento dei prezzi dei titoli quotati.

La sua teoria rappresenta un punto di svolta rispetto al passato per molteplici motivi. Innanzi tutto, bisogna sottolineare ancora una volta il fatto che Mandelbrot si trovò in una condizione privilegiata, rispetto agli economisti precedenti, in virtù della possibilità di utilizzare strumenti di analisi scientifica all’avanguardia. L’impiego di calcolatori elettronici ha reso possibile verifiche su una mole di dati altrimenti non analizzabile, annullando, o quasi, eventuali errori umani. Il responso, che veniva da queste verifiche empiriche, risultava quindi molto più affidabile ed autorevole.

28 MITCHELL 1913

(18)

39

Secondariamente, alla luce di questi risultati, Mandelbrot non si limitò a denunciarne la non aderenza alla visione Gaussiana di Bachelier, ma riuscì a sviluppare un modello di comportamento completo e coerente.

Mandelbrot gettò le basi di questo modello in una serie di articoli tra il 1960 e il 196229, tra cui riveste particolare rilievo The Pareto-Lévy Law and the Distribution of Income.30 In questo articolo, Mandelbrot svolge un’analisi della legge di Pareto, ossia della regola in base alla quale:

“Over a certain range of value of income U, its distribution is not markedly influenced either by the socio-economic structure of the community under study, or by the definition chosed for income” 31

La forma forte della legge di Pareto è già stata descritta32, in questa sede bisogna rilevare come Mandelbrot la ritenga empiricamente ingiustificata, soprattutto in relazione all’ipotesi di Pareto che il parametro α sia pari a 3/2. Al contrario, la forma debole della legge di Pareto risulta più aderente ai dati empirici, e possiede il vantaggio di poter essere manipolata agevolmente. In termini analitici risulta:

P(u) “si comporta come” (u/u°)-α per u ∞

Graficamente, la forma debole della legge di Pareto in forma logaritmica è rappresentata da una curva asintotica rispetto alla linea dritta della forma forte. Poiché è improbabile che “a single theory could ever explain all the feature of the income distribution or that a single empirical formula could ever represent all the data”33 una versione meno rigida risulta preferibile.

A questo punto si inseriscono le distribuzioni stabili: se la distribuzione dei redditi mantiene la stessa forma a prescindere dal variare di fattori fondamentali, quali l’epoca storica e altri elementi della definizione di “reddito”, vorrà inevitabilmente dire che la distribuzione dei redditi è una distribuzione stabile, secondo quanto descritto da Lévy.

29 Si fa riferimento a MANDELBROT 1960, 1961, 1962 30 MANDELBROT 1960 31 MANDELBROT 1960, p.2 32 Vedi p. 31 33 MANDELBROT 1960, p. 5

(19)

40

In particolare, la forma debole della legge di Pareto risulta essere soddisfatta dalle distribuzioni stabili con parametro α compreso tra zero e due, tra cui dunque anche la Gaussiana. La forma della distribuzione di Pareto è tuttavia troppo asimmetrica per essere conciliabile con la Gaussiana.

Mandelbrot introduce una distribuzione che battezza con il nome di Pareto-Lévy, che risulta maggiormente adatta a descrivere la distribuzione dei redditi secondo il modello di Pareto. Questa distribuzione ha il parametro α compreso tra uno e due, esclusi. In altri termini, la distribuzione si presenta come intermedia rispetto alla distribuzione di Cauchy, con α pari ad uno, e a quella di Gauss, con α pari a due, risultando in ciò molto vicina alla distribuzione di Lévy con α pari a un mezzo. La distribuzione di Pareto-Levy però non è necessariamente coincidente con quella di Lévy: il parametro α potrà essere di volta in volta più vicino ad uno o a due, in base al grado di “ingiustizia” della distribuzione.

(20)

41

Ma, così come la distribuzione di Pareto non è compatibile con la Gaussiana in virtù di eccessiva asimmetria e leptocurtosi, lo stesso discorso si può fare per quanto riguarda le variazioni dei prezzi nei mercati finanziari. Come ormai sarà chiaro, questo costituisce la soluzione del mistero del cotone, ossia dell’incredibile somiglianza tra la rappresentazione grafica delle variazioni dei prezzi del cotone e la distribuzione dei redditi in Pareto: entrambe sono semplicemente due manifestazioni della stessa categoria di distribuzioni stabili, le distribuzioni Pareto-Lévy. Si vuole ricordare che la capacità di una singola distribuzione di descrivere fenomeni molto eterogenei è un fatto acclarato da tempo: la distribuzione di Zipf si adatta bene tanto alle dimensioni delle città in un singolo stato quanto al numero di accessi ai siti internet, così come la Gaussiana descrive bene tanto una serie di lanci di una moneta quanto l’altezza media della popolazione.

L’argomento venne sviluppato da Mandelbrot in un articolo del 1963, The Variation of

Certain Speculative Prices. Il punto di partenza dell’articolo è un’analisi del modello di

Bachelier, e in particolare il fatto che il moto Browniano, basato su variazioni indipendenti distribuite secondo una Gaussiana con valore atteso nullo e varianza unitaria, che ne costituisce la colonna portante

“does not account for the abundant data accumulated since 1900 by empirical economists, simply because the empirical distributions of price changes are usually too peaked to be relative to samples from Gaussian population”34

Il motivo di ciò è il fatto che

“the tails of the distributions of price changes are so extraordinarily long that the sample second moments tipically vary in an erratic fashion”35

34 MANDELBROT 1963a, p. 2 35 MANDELBROT 1963a, p. 3

(21)

42

Il grafico precedente mostra le variazioni della varianza dei prezzi del cotone, rispettivamente nel settembre e nell’agosto del 1900. Il seguente grafico invece mostra le variazioni su base mensile dei prezzi di cotone tra il 1890 e il 1937. La curva continua rappresenta l’interpolazione della Gaussiana sulla base dei dati.

(22)

43

Alla prova empirica, pertanto, la Gaussiana non si mostra adatta a descrivere le variazioni dei prezzi del cotone che, come si vede invece dal grafico successivo in forma logarimica, rispecchiano la distribuzione Pareto-Lévy. I punti 1a e 1b rappresentano le variazioni positive giornaliere dei prezzi, rispettivamente nei periodi 1900-1905 e 1944-1958, mentre i punti 1c sono le variazioni positive mensili nel periodo 1880-1940. I punti 2a, 2b e 2c sono le variazioni negative negli stessi periodi.

Dall’analisi del grafico precedente emerge un’ulteriore questione, degna della massima attenzione. La caratteristica saliente delle distribuzioni analizzate, oltre all’asimmetria e alla leptocurtosi, era l’invarianza di scala: ad esempio in Zipf, cambiando le dimensioni del campione di riferimento, il valore dell’esponente che esprime il grado di ricchezza del linguaggio non cambia, e la distribuzione mantiene la sua forma. Questo fenomeno si può vedere anche nelle variazioni dei prezzi del cotone, ed è ovviamente diretta conseguenza della stabilità della distribuzione: dato che la distribuzione delle variazioni mensili è la somma delle singole variazioni giornaliere, la forma della prima sarà uguale alla forma delle seconde. E lo stesso risultato si otterrebbe confrontando distribuzioni giornaliere con distribuzioni annue.

(23)

44

Infine, nell’ultimo paragrafo del suo articolo Mandelbrot introduce un ultimo argomento, la cui importanza, al pari dell’invarianza di scala appena accennata, ne impone una trattazione a sé stante. Mandelbrot scrive infatti che:

“Broadly speaking, the predictions of my main model seem to me to be reasonable. At closer inspection, however, one notes that large price changes are not isolated between periods of slow change; they rather tend to be the result of several fluctuations, some of which "over-shoot" the final change. Similarly, the movement of prices in periods of tranquillity seem to be smoother than predicted by my process. In other words, large changes tend to be followed by large changes-of either sign-and small changes tend to be followed by small change”36

Le implicazioni di questa affermazione sono naturalmente radicali. Dopo aver contestato il primo pilastro della teoria classica, ossia la distribuzione Gaussiana delle variazioni dei prezzi, Mandelbrot insinua una prima crepa anche nel secondo, ossia l’indipendenza delle variazioni.

36 MANDELBROT 1963a, p. 26

(24)

45

6 – Reazioni all’articolo

Le difficoltà che trovò Mandelbrot per riuscire a far pubblicare The Variation of Certain

Speculative Prices, costituiscono una buona anticipazione del clamore che suscitò e

delle critiche che ricevette una volta pubblicato. L’articolo, infatti, rappresentava un problema di duplice natura. Innanzitutto in termini di “politica accademica”, come appare dalle parole di Cootner, economista al MIT’s Sloan School, che pur considerando l’articolo di Mandelbrot “the most revolutionary development in the theory of speculative prices”, non può fare a meno di frenare il proprio entusiasmo:

“graph-paper test are too simplistic, the math intractable, the evidence insufficient, and cotton too peculiar a commodity from which to draw sweeping conclusions. The implications are great, but surely, before consigning centuries of work to the ash pile, we should like to have some assurance that all our work is truly useless”37

La problematicità dell’articolo prescinde dalla bontà della costruzione matematica, dalla validità dei dati raccolti. Il punto centrale è che contraddiceva la teoria classica, con l’aggravante che questa sfida non proveniva da un rispettabile accademico ma da un outsider, un matematico che lavorava come ricercatore presso l’IBM. Come risultato, mentre l’impostazione classica veniva comunque difesa nonostante molteplici perplessità, affinché venissero accettate nuove idee era necessario che queste fossero attendibili oltre ogni ragionevole dubbio.

Secondariamente, almeno in linea teorica, accogliere le ipotesi di Mandelbrot sulla distribuzione dei prezzi dei beni quotati implicherebbe una modifica nel modo in cui, concretamente, si dovrebbe operare sui mercati finanziari. Riprendendo le parole di Mandelbrot:

“If the cotton price-changes fit the standard theory, they would be like sand grains in a heap; somewhat different sizes, but all sand grains, nonetheless. My cotton research showed something different: the changes were more like a mixture of sand, pebbles, rocks, and boulders”38

37 COOTNER 1964

(25)

46 La conseguenza è che

“it shows that prices can and do gyrate wildly. The market is very risky - far more risky than if you blithely assume that prices meander around a polite Gaussian average. Economists have long debated two opposing pictures of a commodity market. One views it as an insurance exchange, a financial machine for farmers and consumers to reduce their opposing risks, with the help of speculators as middlemen. Another views it as a wild casino, more risky than the stock market at its worst; while motives may differ from farmer to speculator, they are both gambling” 39

In altri termini, prendere coscienza della maggiore rischiosità dei mercati finanziari dovrebbe determinare un cambiamento nel modo di operare sui mercati stessi. In questo senso, implicazioni ancora maggiori dovrebbero derivare dall’ultimo paragrafo dell’articolo, in cui Mandelbrot accenna a possibili regolarità nell’intensità delle variazioni. In realtà, sotto questo punto di vista, l’impatto dell’articolo di Mandelbrot è più limitato. Parlando di Fama, si è già accennato all’esistenza della Chartist Theory, il cui assunto di base è la dipendenza a lungo e breve termine tra le variazioni dei prezzi, e la ripetitività ciclica di determinate configurazioni grafiche. Gli operatori dei mercati finanziari, quale che fosse la teoria accademica di riferimento, compivano già scelte prescindendo da questa, o quantomeno pesandone le indicazioni, e affidandosi perlopiù alla propria esperienza.

Al di là di questi rilievi, si può affermare che l’articolo di Mandelbrot suscitò ovviamente anche reazioni favorevoli. Diversi economisti si confrontarono con le intuizioni di Mandelbrot, e ne verificarono la bontà analizzando le serie storiche di prezzo di molteplici titoli quotati. Tuttavia, questi entusiasmi coinvolsero un gruppo minoritario di studiosi, e la teoria finanziaria di riferimento rimase quella precedente. Ancor di più, a partire dall’inizio degli anni Settanta lo sviluppo dei modelli di Sharpe e Markowitz prima, e di Black e Scholes poi, fece sì che le teorie di Mandelbrot venissero definitivamente relegate in secondo piano.

39 MANDELBROT 2004, p. 70

(26)

47

Capitolo 2 - Dipendenza

Hurst

Nelle ultime pagine di The Variation of Certain Speculative Prices, Mandelbrot fa riferimento alla possibile esistenza di una regolarità nelle variazioni, di una relazione tra il manifestarsi di variazioni di una certa entità e il successivo manifestarsi di variazioni analoghe. In altri termini, una possibile dipendenza, una memoria che influenzi le variazioni successive. Nell’articolo Mandelbrot non sviluppa questa idea: considerando la mole di lavoro che sarebbe stata necessaria per sostenere questa tesi, nel 1963 si limita appunto ad accennarla, mentre la costruzione matematica sviluppata nell’articolo si svolge mantenendo l’ipotesi classica di variazioni indipendenti e identicamente distribuite. L’intuizione, tuttavia, viene accantonata solo temporaneamente, e la spinta decisiva in questa direzione proviene dall’incontro con l’opera di Harold Edwin Hurst. Hurst nacque in Inghilterra nel 1880. La sua preparazione vide l’unione del lato teorico, con la laurea in fisica ad Oxford, e del lato pratico, con apprendistati come chimico e carpentiere. Negli anni che videro la crescita di Hurst e il suo affacciarsi al mondo del lavoro, l’Impero Britannico aveva quasi raggiunto la sua massima espansione. In particolare, l’Africa era quasi equamente divisa tra gli Inglesi e i Francesi, e questa dominazione venne caratterizzata dalla realizzazione di grandi opere di ingegneria, il cui culmine è rappresentato dalla costruzione del canale di Suez nel 1869. Le maggiori opportunità lavorative, pertanto, si trovavano lì. Hurst si trasferì in Egitto nel 1906, il suo incarico era quello di risolvere un problema millenario: trovare un modello matematico adeguato per prevedere con sufficiente precisione l’intensità delle piene del Nilo, allo scopo di costruire un sistema di dighe che consentisse di avere ogni anno abbastanza riserve di acqua.

Il problema che Hurst si trovò a dover risolvere è concettualmente diverso da quelli fin’ora esaminati. Nell’analisi delle piene del Nilo, infatti, non rileva esclusivamente la distribuzione ottenuta su un determinato arco di tempo, in termini di valore medio o spessore delle code, ma risulta soprattutto importante la successione specifica delle piene. Non è tanto importante quindi che su un arco temporale abbastanza lungo la media delle riserve d’acqua sia sufficiente, quanto piuttosto che queste riserve siano adeguate a fronteggiare una serie di anni con piene scarse.

(27)

48

Hurst, inizialmente, raccolse tutti i dati storici disponibili sulle piene del Nilo con lo scopo di ricercare una qualche periodicità nell’alternarsi di periodi di siccità e abbondanza. Purtroppo, non riuscì a identificare regolarità degne di nota, o pattern, per usare un linguaggio caro agli analisti finanziari. In relazione alla forma della distribuzione, le piene del Nilo assumevano la classica forma Gaussiana a campana. Dall’analisi dei dati raccolti, tuttavia, Hurst notò un diverso tipo di regolarità: mentre la successione delle piene non sembrava seguire pattern precisi, il range della variazione tra le piene successive sembrava invece costante. Partendo da un dato anno, non si poteva quindi stabilire con assoluta precisione se l’anno successivo la piena sarebbe stata maggiore o minore, ma diventava possibile identificare con sufficiente approssimazione quale sarebbe stata l’intensità della piena, nei due casi in cui si sarebbe rivelata maggiore o minore. Il range di variazione seguiva, in positivo e in negativo, una potenza di tre quarti rispetto al valore di partenza, più precisamente di 0.73.

Bisogna dire che Hurst non sviluppò la sua formula esclusivamente sulla base delle piene del Nilo. Raccolse da tutto il mondo migliaia di rilevazioni di fenomeni simili, come le variazioni dei livelli dei laghi in Svezia e le precipitazioni medie in Australia, e meno simili, come i rapporti tra gli anelli nei tronchi delle sequoie in Nord America e in numero di macchie solari. Tutti i dati raccolti lo confortarono nella sua ipotesi.

Hurst tuttavia andò oltre nella sua opera: convinto che si potesse comunque misurare il livello di dipendenza media all’interno di una serie, ideò un indicatore che chiamò

recaled range (R/S). L’indicatore si costruisce nel seguente modo: data una serie X con

t osservazioni, si calcola innanzi tutto la deviazione cumulata D della serie dalla sua media.

Dt,n = Σ (Xt – µn)

Con Xt osservazione t-esima, e µn media relativa al periodo compreso tra zero ed n. Si

calcola successivamente il range R di D, come differenza tra il suo valore massimo ed il minimo.

R = Max (Dt,n) – Min (Dt,n)

L’indicatore R/S si calcola infine come rapporto tra il range R e la deviazione standard della serie S. Dopo opportune semplificazioni, il risultato finale è:

(28)

49 R/S = (N/2)H

Il valore risultante indica il grado di dipendenza interna alla serie. Nel caso delle piene del Nilo, Hurst calcolò che l’indice R/S corrispondeva a 0,9. Hurst pubblicò i suoi studi a partire dai primi anni Cinquanta. La sua teoria suggeriva l’esistenza di una legge di potenza universale, in grado di spiegare il campo di variazione della maggior parte dei fenomeni naturali, e proponeva un metodo di calcolo per verificarne la persistenza. Inutile dire che, se ricevette qualche supporto, fu per lo più accusato di “voodoo statistico”.

40

Come si potrà immaginare, il lavoro di Hurst attirò subito l’attenzione di Mandelbrot, non appena questi ne venne a conoscenza. Inizialmente, Mandelbrot credette di aver avere trovato un modello analogo alle sue distribuzioni Pareto-Lévy: come ricordiamo, queste seguivano una legge di potenza, il cui valore oscillava tra uno e due. La differenza tra i due modelli apparve però immediatamente. Innanzi tutto, si è già detto che le rilevazioni di Hurst si disponevano abbastanza bene in linea con la Gaussiana. Di conseguenza, la legge di potenza insita nel modello di Hurst era qualitativamente diversa rispetto a quella di Mandelbrot, non riguardando il grado di “peakness” o di

(29)

50

curtosi, ma i rapporti tra variazioni successive. La delusione di Mandelbrot, se ci fu, fu di breve durata: le intuizioni di Hurst gli permettevano infatti di trovare supporto per lo sviluppo della sua intuizione, non ancora approfondita, sull’esistenza di una dipendenza nell’entità delle variazioni successive dei prezzi. Più precisamente, si apriva la possibilità di mettere in discussione il secondo pilastro del modello di Bachelier, ossia il moto Browniano dei prezzi. Il modello Browniano standard, infatti, presenta due caratteristiche: oltre, naturalmente, all’indipendenza tra variazioni successive, anche il fatto che gli spostamenti si svolgano proporzionalmente alla deviazione standard, tant’è che solitamente si fa riferimento al moto Browniano in termini di T1/2. La varianza infatti è unitaria, lo spostamento risulta pari al prodotto tra T (tempo) e l’esponente 0,5. La legge di potenza trovata da Hurst, pertanto, suggerisce l’esistenza di processi che, al di là dell’indipendenza tra variazioni successive, seguono andamenti diversi da quelli del moto Browniano standard. Le variazioni possono dunque risultare più estreme, meno controllabili.

Mandelbrot scrisse una serie di articoli sull’argomento, tra il 1964 e il 1972, che vennero quasi completamente ignorati in ambito economico, mentre ricevettero una maggiore attenzione da studiosi di idrogeologia. Infatti, di fronte alla fredda accoglienza delle riviste di economia, Mandelbrot finì per pubblicare in questo settore. In ogni caso, come articolo di riferimento si può prendere uno del 1968, scritto insieme a John W. Van Ness, dal titolo Fractional Brownian Motions, Fractional Noises and

Applications41.

Nell’articolo, oltre ad approfondire le intuizioni di Hurst, segue il lavoro svolto da Kolmogorov a partire dagli anni Quaranta: quest’ultimo infatti aveva studiato i processi Gaussiani continui con incrementi stazionari e dotati di autosimilarità, chiamandoli “spirali di Wiener”.42 Un processo si dice stazionario se, presa una variabile casuale Xt

con t ≥ 0, una qualsiasi sequenza

{Xt1, Xt2, … , Xtn}

ha la stessa distribuzione della sequenza

{Xt1+τ, Xt2+τ, … , Xtn+τ }

41 MANDELBROT–VAN NESS 1968 42 KOLMOGOROV 1940

(30)

51 Con τ ≥ 0.

Inoltre, un processo si dice ad incrementi stazionari se, preso un h ≥0, si ottiene:

{Xt+h – Xh} = {Xt – X0}

Il processo descritto da Kolmogorov è:

BH(t) – BH(0) =

(eitλ – 1) |λ| - H – ½ dB

Il modello di Kolmogorov venne successivamente sviluppato da Yalgom e Pisker, che descrissero un processo con n incrementi stazionari come somma di una componente determinista, e di una componente stocastica. Il loro modello è rappresentabile come:

BH(t) – BH(s) = cH

[(t - r) H – ½ - (s – r) H – ½ ] dB(r)

L’articolo di Mandelbrot parte da questo modello, e dall’interpretazione del secondo termine dell’equazione come integrazione frazionaria del white noise del moto Browniano. Mandelbrot definisce il moto Browniano frazionario una famiglia di funzioni casuali Gaussiane, nel seguente modo: preso un moto Browniano semplice B(t), ed H parametro compreso tra zero ed uno, il moto Browniano frazionario è fBm, media mobile di dB(t) di esponente H, dove gli incrementi passati sono pesati da un kernel (t – s) H – ½.

(31)

52

La caratteristica di questo moto è che gli intervalli di interdipendenza tra incrementi successivi è infinito.

Successivamente, viene definito un processo auto-similare, nei seguenti termini: gli incrementi di una funzione casuale sono detti auto-similari con parametro H, (con H≥0), se per ogni h > 0 ed ogni t0 vale che

{X (t0 + τ, ω) - X (t0, ω)} =∆ {h-H[X (t0 + hτ, ω) – X (t0, ω)]}

Dove il simbolo =∆ significa che due variabili casuali hanno la stessa funzione di distribuzione congiunta. H è l’esponente di Hurst, chiamato così da Mandelbrot proprio in onore dello studioso britannico. Come si vedrà successivamente, la caratteristica di auto-similarità dei processi Browniani frazionari si rivelerà uno dei punti cardine dello sviluppo della geometria frattale.

A questo punto bisogna sottolineare un fattore fondamentale. La legge di potenza identificata da Hurst, come si è già detto, esprimeva il possibile range di variazione tra rilevazioni successive. Mandelbrot, tuttavia, era maggiormente interessato a verificare l’esistenza di una qualche dipendenza tra le variazioni che non si limitasse al range di valori, ma che riguardasse anche la direzione stessa della variazione. In campo economico infatti, a fianco al modello di Bachelier fondato sull’indipendenza delle variazioni, è pur vero che si verificano molteplici casi in cui la dipendenza tra le variazioni successive non è stata mai messa in discussione: basti pensare alle variazioni dell’inflazione, o anche semplicemente della redditività di un’impresa. L’esponente H rappresenta un modo di misurare questa dipendenza.

La formula della auto-similarità, infatti, può essere riscritta come:

{Xat} = {aHXt}

Si può cogliere immediatamente l’analogia con la formula della recaled range Hurst. Inoltre, Mandelbrot propone una sua forma della R/S come

R/S = aNH

Dove N è il numero di osservazioni. La rescaled range si configura quindi come una verifica dell’auto-similarità di un processo, calcolata sul processo intero.

(32)

53

Mandelbrot analizza, infine, il comportamento del processo al variare del parametro H. Questo, può assumere valori compresi tra zero ed uno, dove

- per 0 ≤ H< 0,5 la serie risulta antipersistente. Un incremento, pertanto, renderà maggiormente probabile un successivo decremento, e viceversa

- per H = 0,5 la serie risulta indipendente. Questo è il caso del moto Browniano standard

- per 0,5 < H ≤ 1 la serie risulta persistente. Un incremento renderà maggiormente probabile un ulteriore incremento successivo.

Il grafico successivo mostra la variazione dell’indice di correlazione (asse delle ordinate) col passare degli anni, nelle dimensioni degli anelli degli alberi a Mount Campito, in California. L’esempio, citato da Mandelbrot, è tratto da un lavoro di Baillie del 1996.

(33)

54

I tre grafici seguenti, invece, mostrano una simulazione del moto Browniano frazionario al variare del valore di H. Nei tre casi, H vale rispettivamente 0.1, 0.5 e 0.9.

Mandelbrot calcolò l’esponente di Hurst di molti fenomeni. In relazione ai mercati finanziari, alle variazioni dei prezzi dei titoli quotati, H si rivelò un ottimo strumento di analisi. H infatti, valutando la dipendenza interna di un titolo, può rivelarsi adatto ad inglobare al suo interno ogni fattore di natura endogena che contribuisce al movimento del titolo, quali ad esempio quelli di natura psicologica. L’analisi delle bolle speculative, ad esempio, può essere svolta in termini di H. Lo studio dell’H di un titolo, pertanto, avrebbe implicazioni operative. Tuttavia H, a differenza del β di Sharpe, non ebbe molto successo. Il problema fondamentale, come nel caso di Variation of Certain

Speculative Prices, è che il lavoro di Mandelbrot contraddiceva ancora una volta

l’impostazione classica. Inoltre, Mandelbrot sostenne non solo l’esistenza di una dipendenza tra variazioni successive, ma di una memoria a lungo termine, che ad esempio nel caso dei titoli quotati poteva continuare ad influenzarne l’andamento per decenni.

(34)

55

Capitolo 3 – La Geometria frattale

1 – Introduzione

A posteriori, si può affermare che gli articoli di Mandelbrot suscitarono in campo finanzio più clamore che reale influenza. E, sempre limitatamente al campo finanziario, questa può essere considerata la costante della sua vita. Tuttavia, se l’economia accademica ha preferito continuare ad utilizzare i propri tradizionali strumenti di analisi, per quanto si siano ripetutamente mostrati imperfetti proprio quando la loro validità sarebbe stata maggiormente necessaria, lo stesso non si può dire per altri campi di studio. I modelli matematici e concettuali sviluppati da Mandelbrot, infatti, sono attualmente impiegati in molte branche scientifiche. L’articolo del 1963 prende spunto dall’analisi dei prezzi del cotone, ma le sue implicazioni concettuali si estendono ben oltre questo argomento.

Si è già detto che la caratteristica principale della distribuzione Gaussiana, e il motivo del suo ampio utilizzo, risiede nella sua capacità di semplificare enormemente il lavoro d’analisi. Nel mondo Gaussiano, la quasi totalità dei dati rientra nella “normalità”, gli eventi radicali sono così rari che possono essere ignorati. Lo stesso metodo dei minimi quadrati, da cui nacque la Gaussiana, consiste nell’eliminare sistematicamente l’errore, per giungere a un valore attendibile ed utilizzabile. Il valore atteso è l’ideale, e la varianza misura il livello di imperfezione dei dati del campione rispetto al valore di riferimento.

Per questo l’articolo di Mandelbrot rappresenta un cambiamento profondo: nel mondo asimmetrico e di leptocurtosi di Mandelbrot, gli eventi notevoli non vengono ignorati, ma costituiscono una caratteristica intima del modello. Il valore atteso, il valore più probabile, ha pertanto una valenza esclusivamente indicativa; la volatilità, indefinita, diventa un parametro svuotato di significato. Per citare le sue stesse parole:

My contribution was, foremost, to recognize that in turbulence and much else in the real world, roughness is no mere imperfection from some ideal, not just a detail from a gross plan. It is of the very essence of many natural objects - and of economic ones.43

43 MANDELBROT 2004, p. 52

(35)

56

2 - Julia e lo sviluppo dei processi iterativi nei primi del Novecento

Gaston Julia è stato un matematico franco-algerino, nato nel 1893. All’età di venticinque anni, pubblicò l’artico che rappresenterà il suo principale contributo alla storia della matematica, Mémoire sur l'itération des fonctions rationnelles. Questo articolo gli garantì un’immediata notorietà, che tuttavia fu tanto immediata quanto di breve durata. Julia venne rapidamente dimenticato, e dovette attendere gli anni Settanta, quando Mandelbrot lo indicò come una delle principali fonti di ispirazione per lo sviluppo della sua geometria frattale, affinché gli venisse tributato il giusto riconoscimento.

L’articolo di Julia consiste nello studio del comportamento dell’orbita di un numero complesso, sotto l’iterazione di una funzione f. Il procedimento è il seguente: partendo da un numero complesso X0, si applica a questo numero la funzione f. Al risultato, si

applica nuovamente la funzione f, ottenendo così il numero complesso X1. La sequenza

di numeri complessi { X0, X1… Xn} viene detta orbita di X0 sotto f. Un numero

complesso, e di conseguenza anche l’intera orbita, viene detto “prigioniero” se la sua orbita oscilla intorno all’origine degli assi. Al contrario, viene detto “fuggitivo” se tende ad allontanarsi progressivamente.

Dopo aver descritto i set prigionieri e i set fuggitivi, Julia si interessò ad una terza categoria di orbite, che venne successivamente chiamato insieme di Julia. L’insieme di Julia risulta intermedio rispetto ai set prigionieri e ai set fuggitivi, in quanto considera quei processi iterativi il cui comportamento non risulta ben definito, ma caotico. All’interno dell’insieme di Julia sono considerati quei valori, all’interno di un processo iterativo, che sono soggetti a drastiche variazioni in caso di piccole perturbazioni. Anche Pierre Fatou, matematico francese nato ne l878, svolse parallelamente a Julia studi sui processi iterativi, pubblicando il suo libro di riferimento nel 1917. Se Fatou e Julia furono rivali in vita, nel corso degli anni le loro teorie vennero unite e studiate insieme, in quanto i modelli da loro proposti sono risultati complementari. L’insieme di Fatou, infatti, comprende i valori che presentano in un processo iterativo un elevato grado di stabilità, anche in seguito a perturbazioni nel processo.

I processi iterativi descritti da Julia e Fatou rimasero puramente teorici per molti anni. Soltanto l’avvento dei computer, e la possibilità di sviluppare processi complessi con un gran numero di dati, ne rese possibile la rappresentazione grafica.

(36)

57

Per fare qualche esempio, basta considerare il processo iterativo che fu maggiormente analizzato da Julia, ossia:

f(z) = z2 + c

dove c è un numero complesso fissato a priori. Il punto di partenza, z0, è un qualsiasi

punto del piano P0. È stato dimostrato che se l’orbita esce da un cerchio di raggio due

centrato sull’origine P0, allora il resto dell’orbita tenderà ad allontanarsi definitivamente

dall’origine degli assi, potendo essere classificata come fuggitiva. Con un diverso punto di partenza, l’orbita potrà essere prigioniera. In termini grafici, l’insieme di Julia è costituito dal confine tra le orbite prigioniere e quelle fuggitive. Il metodo di rappresentazione correntemente usato sui computer è il seguente.

- Si imposta la funzione

- Si converte ogni pixel dello schermo nel corrispettivo numero complesso, in modo tale che ogni pixel costituisca un diverso punto di partenza P0 per il

processo iterativo

- Si procede a far partire il processo iterativo per ogni punto di partenza, colorando il pixel in maniera diversa a seconda della natura dell’orbita

Solitamente, si colorano i pixel corrispondenti ad orbite prigioniere col nero, e i pixel corrispondenti ad orbite fuggitive con un diverso colore a seconda della velocità di fuga (ossia, dopo quanti passaggi del processo iterativo l’orbita risulta fuggitiva).

A fronte di un processo così semplice, minime variazioni del numero complesso c possono dare vita a conformazioni grafiche profondamente diverse.

(37)

58

Con c= -0.123 + 0.745i si ottiene il Coniglio di Douady

Bisogna ricordare che nei primi anni del Novecento, altri matematici si occuparono dell’analisi di processi iterativi. È stato dato un maggiore rilievo a Julia in virtù dell’elevata complessità dei processi da lui analizzati, e della sorprendente capacità creatrice di questi ultimi. Vanno comunque menzionati, a fianco a Julia e Fatou, Koch e Sierpinski, in quanto i loro processi costituiscono esempi ormai classici di iterazione, e in virtù della loro semplicità risultano particolarmente adatti a descrivere le caratteristiche della geometria frattale.

(38)

Il processo iterativo di Sierpinski venne ribattezzato la

abbastanza elementare: si prende come punto di partenza un quadrato, che v successivamente diviso in quattro. Il quadrato risultante in alto a destra viene eliminato, di modo che ne restino soltanto tre. Ancora una volta, ognuno di questi quadrati viene diviso secondo il processo appena descritto. Il risultato è il seguent

Il processo di Koch è altrettanto semplice, e venne ribattezzato come

di Koch. Partendo da un segmento, si ottiene una spezzata modificando il segmento.

Successivamente, ogni segmento che compone la spezzata viene a sua volta rim nello stesso modo.

59

Il processo iterativo di Sierpinski venne ribattezzato la Gerla di Sierpinski.

abbastanza elementare: si prende come punto di partenza un quadrato, che v successivamente diviso in quattro. Il quadrato risultante in alto a destra viene eliminato, di modo che ne restino soltanto tre. Ancora una volta, ognuno di questi quadrati viene diviso secondo il processo appena descritto. Il risultato è il seguente.

Il processo di Koch è altrettanto semplice, e venne ribattezzato come Il merletto a trina Partendo da un segmento, si ottiene una spezzata modificando il segmento. Successivamente, ogni segmento che compone la spezzata viene a sua volta rim

Gerla di Sierpinski. Il processo è

abbastanza elementare: si prende come punto di partenza un quadrato, che viene successivamente diviso in quattro. Il quadrato risultante in alto a destra viene eliminato, di modo che ne restino soltanto tre. Ancora una volta, ognuno di questi quadrati viene

Il merletto a trina

Partendo da un segmento, si ottiene una spezzata modificando il segmento. Successivamente, ogni segmento che compone la spezzata viene a sua volta rimodellato

(39)

60

3 - I frattali

La scienza ha sempre avuto come scopo quello di spiegare i fenomeni, la realtà oggetto di studio. Come si è già avuto modo di sottolineare, tuttavia, questa spiegazione non si è sempre svolta in maniera totalmente aderente rispetto alla realtà da spiegare, ma ha talora implicato l’applicazione di un processo di semplificazione dell’oggetto di studio. Il problema è che un processo di semplificazione rischia di non determinare solo conseguenze di natura quantitativa, ma anche qualitativa. Semplificare vuol dire perdere dettagli. Se tuttavia i dettagli costituiscono un elemento fondamentale per capire la natura di un fenomeno, eliminarli non vuol dire soltanto avere una conoscenza meno precisa del fenomeno in questione, ma può portare ad avere risultati addirittura fuorvianti.

Il caso della teoria classica dei mercati finanziari rappresenta un buon esempio di quanto detto. I due assunti di base della teoria classica sono la distribuzione delle variazioni dei prezzi secondo la Gaussiana, e il moto Browniano standard. Gli effetti che queste due semplificazioni hanno sullo studio del comportamento dei prezzi sono radicali: la Gaussiana fa in modo che le variazioni che si trovano nelle code della distribuzione vengano ignorate, il moto Browniano spinge a credere che i movimenti dei prezzi siano regolari ed indipendenti. Per un investitore che opera regolarmente sui mercati finanziari, queste semplificazioni possono avere conseguenze catastrofiche. Sono proprio le variazioni che si trovano nella coda della distribuzione che possono sconvolgere radicalmente le prospettive economiche di un operatore, come è possibile intuire, in maniera quasi banale, dallo studio delle principali crisi che si sono verificate sui mercati finanziari. E lo stesso vale per quanto riguarda l’esistenza di una dipendenza tra le variazioni.

Naturalmente, il discorso può essere ampliato. Nel suo libro del 1982, The Fractal

Geometry of Nature, Mandelbrot esprime in poche parole il senso centrale della

geometria frattale:

“Clouds are not spheres, mountains are not cones, coastlines are not circles, and bark is not smooth, nor does lightning travel in a straight line.”44

44 MANDELBROT 1982

(40)

61

La necessità di sviluppare strumenti matematici alternativi rispetto alla tradizionale geometria euclidea, nasce quindi dalla consapevolezza che la realtà è molto più complessa di quanto possa apparire. Servono strumenti matematici che permettano una semplificazione ed una spiegazione della realtà, ma senza perderne la ricchezza di informazioni. La geometria frattale, termine coniato da Mandelbrot e che deriva dal latino fractus (letteralmente: rotto), analizzando i fenomeni oggetto di studio, non li concepisce esclusivamente nel loro manifestarsi presente, ma come punto di arrivo di un processo evolutivo e creativo. In questo modo, i dettagli più complessi ed apparentemente privi di una propria regolarità, possono essere ricondotti a questo processo. Per usare le parole di Mandelbrot, “The key is spotting the regularity inside the irregular, the pattern in the formless”45.

La Gerla di Sierpinski e la Trina di Koch sono molto utili per capire il meccanismo di base della geometria frattale: presa una struttura di base, il mutamento iniziale che subisce viene a configurarsi come una sorta di codice genetico. La struttura complessa finale è il risultato della ripetizione, attraverso un processo iterativo, di questo codice genetico.

Da quanto detto, è possibile fornire una definizione di frattale:

“A fractal has a special kind of invariance or symmetry that relates a whole to its parts: The whole can be broken into smaller parts, each an echo of the whole46”

Un frattale dunque è il risultato di un processo, la cui struttura macroscopica può essere rintracciata nelle parti che lo compongono. Sorge immediato il collegamento con il carattere di auto-similarità del moto Browniano frazionario, ma questo collegamento verrà approfondito in seguito quando si parlerà nel dettaglio del carattere frattale dei mercati finanziari. Tra i molteplici oggetti in natura che presentano struttura frattale, esempi classici sono gli alberi, la cui struttura si ripete nei rami, i bronchi, il DNA, e molti altri.

Vi sono più relazioni possibili tra la struttura generale e le parti che la compongono. La prima cosa che si può notare dall’analisi dei frattali di Sierpinski e Koch, è l’esistenza di un’unica legge di potenza: la riduzione della dimensione avviene sempre in base alla stessa scala, vi è una relazione fissa tra un livello della struttura e i livelli

45 MANDELBROT 2004, p. 52 46 MANDELBROT 2004, p. 52

(41)

62

immediatamente superiori o inferiori. Non tutti i frattali presentano però questa regolarità.

È possibile dunque distinguere gli oggetti frattali nel seguente modo:

- Frattali auto-similari, la riduzione di scala avviene nello stesso modo in tutte le direzioni

- Frattali auto-affini, la riduzione di scala avviene maggiormente in una direzione rispetto ad un’altra

- Multifrattali, la riduzione avviene in maniera diversa in molteplici punti

Ovviamente, ad ogni livello corrisponde un diverso grado di complessità nella struttura matematica dell’oggetto frattale. In ogni modo, a prescindere dal fatto che un frattale presenti una relazione di scala univoca o molteplice, tutte le tipologie presentano la proprietà di essere invarianti di scala. Anche se la riduzione della struttura principale può avvenire a velocità diverse nelle parti componenti, questa rimane comunque invariata, conservando le proprie caratteristiche a tutti i gradi.

Un punto va chiarito: quando si parla di oggetto frattale, il termine “oggetto” non va inteso in senso stretto. Frattale può essere la struttura di un oggetto solido, come può essere il comportamento di un qualsiasi fenomeno. Giusto per fare qualche esempio, è stato dimostrato che il vento a basse velocità segue un moto rettilineo, mentre ad alte velocità tende a dar vita a turbolenze la cui manifestazione può essere spiegata con modelli frattali. Un altro esempio, che ormai è diventato paradigmatico per spiegare la natura frattale degli oggetti altamente complessi, è rappresentato dalla costa della Gran Bretagna, la cui conformazione particolarmente frastagliata è stato uno dei primi banchi di prova degli strumenti della geometria frattale47.

47 MANDELBROT 1967a

Riferimenti

Documenti correlati

La dimensione frattale è stata, inoltre, esaminata in relazione alla probabilità di eccedenza rispettivamente delle lunghezze e delle aree, verificando, infine, la validità della

In ambito digitale, i mezzi di proprietà, che spesso costituiscono lo strumento più economico 69 di investimento pubblicitario, devono poter trasmettere l’identità del brand, in

Considera l’importanza del movimento anche nella scelta dei giochi da acquistare o consigliare ai tuoi bambini: triciclo a pedali, monopattino, bicicletta, pattini, attrezzi

A QUESTI SI AGGIUNGONO 4 VASETTI DI CICLAMINO E 3 VASETTI DI ROSA CHE LE REGALA LA VICINA DI CASA.. QUANTI VASI DI FIORI HA ORA MARTA

Più in generale, sembra doversi dire che la Costituzione, distinguendo la libertà religiosa da quella di coscienza e di manifestazione del pensiero, ha evidentemente teso

Gli esercizi vanno svolti su questi fogli, nello spazio sotto il testo e, in caso di necessit` a, sul retro...

Gli esercizi vanno svolti su questi fogli, nello spazio sotto il testo e, in caso di necessit` a, sul retro... Si disegni S e se ne calcoli l’area mediante un integrale

Gli esercizi vanno svolti su questi fogli, nello spazio sotto il testo e, in caso di necessit` a, sul retro... Gli esercizi vanno svolti su questi fogli, nello spazio sotto il testo