• Non ci sono risultati.

Parte 1 – La Teoria Classica

N/A
N/A
Protected

Academic year: 2021

Condividi "Parte 1 – La Teoria Classica"

Copied!
18
0
0

Testo completo

(1)
(2)

Capitolo 1 – I Fondamenti Matematici

1 – La Distribuzione Normale, o Gaussiana

La distribuzione Normale venne per la prima volta osservata e descritta dal matematico Carl Friedrich Gauss nei primi anni dell’800, in occasione di uno studio in ambito astronomico.

Trovandosi a dover lavorare con serie di dati non perfettamente convergenti, a causa sia di errori umani sia di imperfezioni degli strumenti di rilevazione, Gauss ideò, in contemporanea a Legendre, il metodo dei minimi quadrati: partendo da un insieme di dati, è possibile calcolare la retta di interpolazione che fornisca il valore comune che meglio rappresenti l’insieme in questione, dove la bontà del valore è data dalla sua capacità di minimizzare la somma dei quadrati delle distanze tra i singoli dati e la retta di regressione, ossia di minimizzare l’errore. Gauss riuscì quindi a sviluppare un metodo che fornisse un valore finale che fosse, se non del tutto esatto, quanto meno attendibile. Analizzando i dati raccolti sulle orbite, Gauss si rese conto che gli scostamenti delle singole rilevazioni rispetto al valore ottenuto con il metodo dei minimi quadrati si distribuivano in misura simmetrica rispetto a tale valore, e che tali scostamenti erano graficamente rappresentabili attraverso l’ormai consueta forma a campana: gli errori più lievi rappresentavano la maggioranza, mentre quelli di maggior entità si verificavano raramente. Gauss ampliò il proprio campo di osservazione: la distribuzione a campana si adattava bene a numerosi fenomeni naturali, presentando caratteristiche che ne rendevano vantaggioso l’utilizzo in termini di semplicità.

Innanzi tutto, la semplicità della distribuzione Normale risiede nel fatto che diverse distribuzioni su campioni differenti sono confrontabili sulla base di due soli parametri fondamentali:

- Il valore medio (µ); rappresenta l’indicatore di posizione della distribuzione, che la divide simmetricamente.

- La varianza (σ2); indica il grado di dispersione dei singoli dati del campione rispetto al valore medio. A valori di σ2 crescenti corrispondono distribuzioni a campana più piatte.

A differenza delle distribuzioni di probabilità non Normali, in virtù della simmetria rispetto al valore medio il grado di asimmetria della distribuzione risulta fisso, ed uguale a zero. Inoltre anche la curtosi, ossia lo spessore delle code della distribuzione, è fissa e

(3)

pari a tre, ed esiste un rapporto fisso tra il numero di variazioni standard σ (ossia la radice quadrata della varianza) e la percentuale di osservazioni comprese in questo numero.

Più precisamente, le probabilità cumulate della distribuzione rispetto alla deviazione standard sono:

- 68,3% entro una deviazione standard (intervallo µ-σ, µ+σ) - 95,4% entro due deviazioni (intervallo µ-2σ, µ+2σ)

- 99,73% entro tre deviazioni (intervallo µ-3σ, µ+3σ)

Secondariamente, i vantaggi derivanti dall’utilizzo della distribuzione Normale derivano suo essere “stabile”, secondo un’espressione coniata da Paul Lévy e che sarà un punto centrale dell’analisi di Mandelbrot. La stabilità della Normale consiste nelle seguenti proprietà:

- Ogni trasformazione lineare di una variabile casuale che si distribuisce in

maniera Normale è ancora una variabile casuale Normale

- la somma di più variabili casuali Normali è ancora una variabile casuale

Normale

Importante risulta anche il Teorema del Limite Centrale (CLT): prese n variabili casuali identicamente distribuite ed indipendenti, per n ∞ la media campionaria tende a distribuirsi Normalmente. In particolare, il Teorema del Limite Centrale risulta funzionare bene in relazione alle variabili Bernoulliane, ossia che possono fornire solo due possibili risultati, successo o insuccesso. Un esempio classico è quello di due persone che giocano a testa e croce, ripetendo il gioco un elevato numero di volte: in base al Teorema del Limite Centrale, i risultati del gioco assumeranno una distribuzione normale, con le frequenze più elevate intorno al valore finale nullo (i due giocatori vinceranno un uguale numero di volte, o al massimo uno dei due vincerà poco più rispetto all’altro).

(4)

Infine, un ultimo vantaggio della distribuzione Normale consiste nel fatto che la confrontabilità tra diverse distribuzioni, e il calcolo della funzione di ripartizione, sono resi più semplici dalla possibilità di utilizzare la standardizzazione della distribuzione. Data una variabile casuale X distribuita Normalmente con parametri µ e σ2, si può ottenere la variabile standard Z distribuita Normalmente con valore atteso nullo e varianza unitaria:

Z = X - µ σ

La confrontabilità deriva dal fatto che la standardizzazione rende omogenee le varie distribuzioni, associando ad ogni intervallo in X un unico intervallo in Z, con uguale probabilità. Inoltre, la standardizzazione permette di utilizzare Tavole di riferimento della funzione di ripartizione già calcolate, senza dover ogni volta calcolare l’integrale della distribuzione.

In conclusione, assumere che un dato fenomeno si manifesti secondo una distribuzione Normale semplifica notevolmente il lavoro d’analisi su questo. Il fatto che il 99,73% delle osservazioni sono incluse all’interno di 3 deviazioni standard rispetto al valore atteso, e la sottigliezza delle code, determinano una quasi totale irrilevanza di possibili risultati che si scostino notevolmente dal valore atteso, irrilevanza che deriva dalla probabilità pressoché nulla che si verifichino. Un’analisi su fenomeni che si manifestano seconda una distribuzione Normale potrà pertanto del tutto ignorare questi risultati estremi.

(5)

2 – Processi Stocastici

Un processo stocastico è l’insieme dei possibili comportamenti di una variabile aleatoria X dipendente dal parametro tempo T, ossia rappresenta i possibili valori che la variabile X può assumere in momenti temporali, comunemente detti stati del sistema, successivi. Ai fini della presente analisi, verranno brevemente descritti esclusivamente i processi Markoviani, con particolare attenzione al moto browniano e al processo di Wiener che ne rappresenta la modellizzazione.

2.1 – Processi Markoviani

Un processo Markoviano è una generalizzazione del problema delle prove ripetute ed indipendenti secondo uno scherma Bernoulliano, con due possibili esiti. Ciò che contraddistingue un processo Markoviano è il fatto che la probabilità di transizione di una variabile X in uno stato del sistema t dipende unicamente dalla condizione in cui si trovava nello stato del sistema immediatamente precedente. In altre parole, una previsione sulla direzione che prenderà la variabile può basarsi esclusivamente sulla sua condizione presente, in quanto la probabilità condizionata della variabile X al tempo t+1 dipende solo dalla distribuzione di probabilità al tempo t: il cammino passato compiuto dalla variabile non ne influenza quello futuro, motivo per cui i processi Markoviani sono considerati “privi di memoria”.

La rappresentazione più comune del processo Markoviano è la passeggiata aleatoria, o random walk, che analizza il processo seguito da una particella che, partendo da un dato punto, è vincolata a muoversi lungo una linea retta, quindi con due sole possibili scelte (variabile binomiale).

2.2 Moto Browniano e processi di Wiener

Il moto Browniano venne così chiamato in onore al botanico Robert Brown, tra i primi ad analizzarlo. Studiando al microscopio particelle di polline in sospensione nell’acqua, Brown si rese conto che queste particelle si muovevano in tutte le direzioni apparentemente senza alcuno schema regolare, tant’è che inizialmente Brown aveva creduto di aver identificato il principio che determina la vita; dopo ulteriori studi, si capì

(6)

che il movimento delle particelle in realtà non derivava dal loro essere vive, ma dalla loro attività termodinamica.

Il moto Browniano trova la sua formalizzazione nei processi di Wiener, che rappresentano un particolare tipo di processo Markoviano: come la generalità dei processi Markoviani, quelli di Wiener presentano assenza di memoria, in quanto lo stato presente della variabile causale è l’unico parametro per stimarne i possibili movimenti. Le proprietà dei processi di Wiener possono essere sintetizzate nel seguente modo:

- Il processo stocastico presenta incrementi indipendenti - Al tempo zero il processo ha valore zero, B0=0

- B ha traiettorie continue, ossia la funzione t B è continua

- Gli incrementi di B presentano una distribuzione gaussiana, con valore atteso

nullo e varianza unitaria, (Bt-Bt-1) ̴ N(0, 1)

L’ultima proprietà è quella che caratterizza maggiormente i processi di Wiener rispetto ai generici processi Markoviani, e che determina importanti conseguenze in sede di analisi del processo stesso. Il fatto che il valore atteso degli incrementi sia nullo implica che non solo, come avviene nei processi Markoviani, la previsione del valore futuro di una variabile si basa su quello presente, ma che il valore atteso futuro è proprio quello presente. Formalmente, si ha:

Bt = Bt-1 + εt

Dove εt rappresenta l’errore rispetto al valore atteso, o white noise, distribuito a sua

(7)

Capitolo 2 – I modelli della finanza classica

1 – Bachelier

Luis Bachelier, matematico francese dell’inizio del ‘900, può essere considerato colui che col suo lavoro “laid the foundations of financial theory and, far more generally, of the theory of all forms of probabilistic change in continuous time1”. La sua tesi di dottorato in Matematica, intitolata Théorie de la Spéculation, costituisce il primo approccio rigoroso allo studio delle variazioni dei prezzi dei titoli quotati in Borsa. Tuttavia, il mondo accademico dell’epoca non vedeva di buon occhio la matematica applicata, soprattutto in relazione ad attività considerate poco nobili, quale appunto la speculazione sui mercati finanziari: per questo motivo la sua opera rimase pressoché ignorata dai suoi contemporanei, dovendo attendere gli anni ’50 e lo sviluppo della Teoria dei Giochi perché le venisse tributata la giusta attenzione.

Alla sua tesi, Bachelier premette la seguente introduzione:

“Les influences qui déterminent les mouvements de la Bourse sont innombrables, des événements passes, actuels ou mȇme escomptables, né presentant souvent aucun rapport apparent avec ses variations, se répercutent sur son cours. A còté des causes en quelque sorte naturelles des variations, interviennent aussi des causes factices: la Bourse agit sur elle-mȇme et le mouvement actuel est function, non seulement des mouvements antérieurs, mais aussi de la position de place. La determination de ces mouvements se subordonne à un nombre infini de facteurs: il est dès lors impossibile d’en espérer la prévision mathématique. Les opinion contradictoires relatives à ces variations se partagent si bien qu’au mȇme instant les acheteurs croient à la hausse et les vendeurs à la baisse. Le Calcul des probabilités ne pourra sans doute jamais s’appliquer aux mouvements de la cote et la dynamique de la Bourse ne sera jamais une science exacte. Mais il est possible d’étudier mathèmatiquement l’état statique du marché à un instant donné, c’est-à-dire d’etablir la loi de probabilité des variations de cours qu’admet à cet instant le marché. Si le marché, en effet, ne prévoit pas les mouvements, il le considère comme étant plus ou moins probabile, et cette probabilité peut s’évaluer mathématiquement”2

1 MANDELBROT 2004, p. 28 2 BACHELIER 1900, pp. 21-22

(8)

Dall’analisi di questa premessa, è possibile cogliere i tratti essenziali della tesi di Bachelier. Innanzi tutto, emerge la consapevolezza che la previsione dei movimenti dei titoli finanziari non potrà mai dunque diventare una scienza esatta, ma che è possibile soltanto studiarne il comportamento per giungere a una conoscenza meno approssimativa. Bachelier nella sua tesi identifica infatti due diversi tipologie di probabilità:

- La probabilità mathèmatique3, tipica dei giochi d’azzardo e che si può calcolare

a priori

- La probabilità condizionata dagli eventi che possono verificarsi, e che di

conseguenza non può essere calcolata matematicamente ma soltanto analizzata a posteriori

La probabilità analizzata da Bachelier nel corso della sua tesi è naturalmente del primo tipo, l’analisi si sviluppa riconducendo le variazioni dei prezzi a un preciso processo stocastico: Bachelier si accorge infatti di un’analogia tra il moto Browniano delle particelle di polline in sospensione e il comportamento dei prezzi dei titoli azionari. La caratteristica comune ai due fenomeni consiste nel fatto che nessuno dei due processi può essere previsto con assoluta precisione, né possono essere identificati con totale certezza i fattori interni che determinano l’esito finale. Ciò che invece può essere analizzato è il comportamento del processo nel suo insieme, e la struttura probabilistica che lo descrive.

La tesi di Bachelier continua dunque con la definizione di aspettativa matematica di un gioco, intesa come il prodotto tra i possibili benefici e probabilità corrispondenti; quando l’aspettativa matematica totale è nulla, il gioco è equo. Nel caso dei mercati finanziari, “l’espérance mathématique du spéculateur est nulle”4: l’insieme degli speculatori in un determinato momento non si aspetta né un rialzo né un ribasso dei prezzi, altrimenti il prezzo quotato in quel determinato momento sarebbe diverso. Il prezzo è equo, e riflette tutte le aspettative degli speculatori sugli eventi futuri che possono influenzarlo. Di conseguenza, il prezzo presente di un titolo quotato rappresenta la migliore previsione possibile sul suo prezzo futuro.

3 BACHELIER 1900, p. 31 4 BACHELIER 1900, p. 13

(9)

Appare immediatamente evidente che i prezzi seguono un processo Markoviano : l’andamento dei prezzi azionari risulta privo di memoria, con incrementi successivi indipendenti. Riprendendo il Teorema del Limite centrale, Bachelier osservò infine che le molteplici variazioni indipendenti dei prezzi tendono a disporsi secondo la curva Gaussiana. L’analogia con il moto Browniano è completa: oltre a non presentare memoria, le variazioni dei prezzi quotati si distribuiscono in maniera Normale con valore atteso nullo. Inoltre, il processo presenta carattere di stazionarietà: quali che siano le proprietà del processo, queste rimangono invariate nel tempo. Negli anni successivi alla pubblicazione della sua tesi, Bachelier verificò empiricamente le conclusioni a cui era giunto. Analizzando l’andamento dei prezzi dei contratti a termine e dei contratti a premio, Bachelier ottenne notevoli conferme sulla bontà del proprio lavoro, le stime a priori calcolate sulla base del proprio modello risultarono molto vicine alla verifica a posteriori dei dati reali.

Come già detto, l’opera di Bachelier venne inizialmente ignorata. Tuttavia, anche se il suo ruolo di “padre fondatore” gli venne riconosciuto dopo molto tempo, nel corso degli anni diversi furono gli autori, come Maurice Kendall5, Alfred Clowles III6 e altri7, che svilupparono le sue intuizioni, e contribuirono alla formalizzazione del modello oggi conosciuto col nome di “random walk”. Gli assunti di base della teoria di Bachelier costituiranno inoltre il punto di partenza per lo sviluppo dei modelli che rappresentano, tutt’oggi, il nucleo centrale della teoria finanziaria: l’ipotesi di efficienza del mercato, il Capital Asset Pricing Model e il modello Black&Scholes.

5

Sir Maurice George Kendall, (1907 – 1983) studioso inglese di statistica, in relazione alle variazioni dei prezzi scrisse che “The series looks like a wandering one, almost as if once a week the Demon of Chance drew a random number from a symmetrical population of fixed dispersion and added it to the current price to determine the next week's price”.

6 Alfred Cowles III (1891 – 1984) Economista statunitense, si segnala "Stock Market Forecasting" in

Econometrica 12 (1944)

(10)

2 – Fama e il mercato efficiente

Come già accennato, il lavoro di Bachelier venne a lungo ignorato, e ricevette la dovuta attenzione soltanto a partire dalla fine degli anni Cinquanta. Prima di affrontare i modelli di analisi dei mercati azionari che si svilupparono sulla base degli assunti di Bachelier a partire dagli anni Settanta, è necessario accennare al lavoro di Eugene Fama, in particolare alla sua tesi di dottorato The Behavior of Stock Market Prices8. In questo lavoro, Fama fa costantemente riferimento al modello random walk, espressione coniata da Karl Paerson nel 1905, e che negli anni in cui scrive Fama era diventato il modo più consueto per riferirsi all’analisi basata sul modello Browniano di Bachelier. Prima di descrivere brevemente l’opera di Fama, bisogna sottolineare come questi si discosti dalla conclusione di Bachelier riguardo alla distribuzione Gaussiana delle variazioni, prediligendo come modello le distribuzioni stabili di Mandelbrot, che verranno successivamente analizzate in dettaglio. Al di là comunque di questa differenza, per quanto non trascurabile, Fama nel corso della sua tesi conferma il modello di Bachelier basato sul moto Browniano. Questo fatto motiva la scelta di collocare Fama, nel presente lavoro, nel solco dell’opera di Bachelier piuttosto che in relazione al lavoro di Mandelbrot il quale, soprattutto a partire dagli studi sulla geometria frattale degli anni Settanta, costituisce una rottura più radicale con la tradizione precedente. Tutto ciò, nonostante il fatto che Fama sia stato un allievo di Mandelbrot.

Negli anni in cui Fama cominciò il suo lavoro, lo studio dei mercati finanziari presentava una sostanziale dicotomia: da un lato l’impostazione tipicamente accademica, rappresentata dal modello random walk, dall’altro un approccio maggiormente improntato alla pratica e alla concreta operatività sui mercati, ossia la Chartist Theory, o analisi tecnica, il cui modello principale era rappresentato dalla teoria sviluppata da Dow a partire dalla fine del diciannovesimo secolo. Questo secondo tipo di approccio ai mercati dei titoli quotati può essere definito induttivo, in quanto la teoria a sostegno che si è sviluppata nel corso non solo è maggiormente orientata alla concreta operatività, rispetto al modello random walk, ma da questa operatività ricava anche i propri principi. La Chartist Theory, semplificando, può essere considerata come una summa di osservazioni e conclusioni a cui sono giunti gli operatori dei mercati finanziari, e che solo successivamente è stata formalizzata in un modello coerente. Il

(11)

concetto fondamentale dell’analisi tecnica è quello di trend: il mercato tende ciclicamente a ripetere gli stessi comportamenti, la cui intensità e durata può variare di volta in volta ma le cui strutture rimangono sostanzialmente costanti.

Un’analisi maggiormente dettagliata della Chartist Theory verrà sviluppata successivamente, in relazione allo studio della Wave Theory di Elliott. In questa sede, poiché siamo ancora nel solco del modello di Bachelier, è necessario rilevare esclusivamente il fatto che l’assunto di base della Chartist Theory è la dipendenza tra le variazioni di prezzo successive. La teoria dei mercati finanziari, pertanto, si trova a dover fare i conti con l’inconciliabilità di queste due posizioni.

È stato necessario accennare a questa contrapposizione in quanto è da qui che Fama, con l’intento di verificare la validità del modello random walk, inizia la sua tesi. Innanzi tutto, egli stesso riconosce che è pressoché assurdo sperare di trovare “a time series that is characterized by perfect independence” e che pertanto la “random walk theory cannot be a completely accurate description of reality9”. Tuttavia, per Fama, ciò che conta non è che da un punto di vista strettamente statistico i mercati finanziari rispettino il requisito di indipendenza delle variazioni successive, ma che quanto meno presentino un livello di indipendenza sufficiente da non permettere l’utilizzo delle serie storiche dei prezzi per prevederne l’andamento futuro, e di conseguenza per realizzare extraprofitti rispetto al mercato.

Il merito di Fama consiste nell’aver approfondito un preciso punto dell’analisi di Bachelier, il quale aveva semplicemente sostenuto l’impossibilità di conoscere la totalità delle cause che determinano le variazioni nei prezzi, e aveva accettato l’indipendenza statistica come un dato di fatto, pur verificandolo empiricamente. Fama, al contrario, analizza proprio il meccanismo che determina il passaggio dalle cause delle variazioni al loro concretizzarsi in serie indipendenti.

Tra le cause analizzate da Fama vi sono i valori dei fondamentali delle aziende quotate in borsa. Sicuramente, vi è una correlazione tra il valore dei fondamentali e il valore quotato, anche se non è l’unico determinante, ed altrettanto sicuramente le variazioni dei valori dei fondamentali non sono indipendenti temporalmente. La capacità reddituale di un’azienda è inevitabilmente influenzata dalla struttura patrimoniale e dai risultati passati. Tuttavia, anche in presenza di cause dipendenti temporalmente il risultato sui mercati finanziari è l’indipendenza delle variazioni successive. Il risultato

(12)

dell’indipendenza deriva dall’esistenza di “sophisticated traders”10, dove il termine “sofisticato” indica che il “trader has a special talent in detecting dependencies in series of prices changes for individual securities, or that the trader has a special talent for predicting the appearance of new information and evaluating its effects on intrinsic values”11.

Si è già detto che il mercato finanziario è un gioco equo in quanto l’aspettativa matematica è nulla: ipotizzando una situazione di mercato in cui l’aspettativa matematica sia diversa da zero, se cioè vi fosse disequilibrio nelle opinioni degli speculatori in relazione alle possibilità di rialzi o di ribassi, le operazioni poste in atto da questi speculatori farebbero variare il prezzo dei titoli. Tali operazioni, e dunque tali variazioni, cesserebbero non appena il mercato fosse tornato in equilibrio. I prezzi dunque riflettono istantaneamente tutte le aspettative degli investitori sulle variazioni dei titoli, e di conseguenza tutte le informazioni a partire dalle quali gli investitori formano le proprie aspettative. L’immediato intervento dei grandi speculatori annulla pertanto ogni possibilità di extraprofitti, consentendo al mercato di auto equilibrarsi. Il mercato avrà quindi diversi livelli di efficienza in relazione alla sua capacità di riflettere le informazioni rilevanti nei prezzi dei titoli. Fama, a tale proposito, identifica tre livelli di efficienza:

- Efficienza Debole, i prezzi riflettono tutte le informazioni contenute nelle serie

storiche dei prezzi stessi

- Efficienza Semi-Forte, i prezzi oltre alle informazioni contenute nelle serie

storiche riflettono anche tutte le informazioni pubblicamente disponibili

- Efficienza Forte, i prezzi riflettono anche le informazioni private, non accessibili

al pubblico12

La conclusione della teoria di Fama è che ogni analisi del mercato, e dei titoli quotati, non garantisce maggiori possibilità di ottenere guadagni. Il gioco è equo, i partecipanti hanno le stesse probabilità di vincere o di perdere, e alla lunga è impossibile battere sistematicamente il mercato.

10 FAMA 1965, p. 5 11 FAMA 1965, p. 7 12 FAMA 1991

(13)

3 - Selezione di Portafoglio: Markowitz e Sharpe

Come già detto, le conclusioni di Bachelier costituiranno i pilastri portanti per la costruzione di diversi modelli di analisi sui mercati finanziari. Tra questi modelli, risulta necessario far riferimento alla Teoria del Portafoglio di Markowitz e al Capital Asset Pricing Model (CAPM) di Sharpe, in quanto la loro introduzione determinò una vera e propria rivoluzione nel modo di analizzare i mercati e le attività quotate. A tutt’oggi, a più di cinquant’anni di distanza, questi modelli costituiscono un punto fermo negli programmi universitari di economia.

3.1 Markowitz

Markowitz cominciò a costruire la sua teoria a partire dalla lettura della tesi di dottorato di John Burr Williams, Theory of Investment Value. Nel 1932 Williams, con il ricordo della crisi del ’29 ancora fresco, concentrò i suoi sforzi sul capire quali fossero i fattori determinanti che spingessero gli investitori a scegliere alcuni titoli piuttosto che altri. La conclusione a cui arrivò fu che gli investitori considerano esclusivamente il valore dell’azione, calcolato in base ai dividendi attesi.

Leggendo la tesi di Williams, Markowitz, si rese conto che presentava un limite non indifferente. In realtà, gli investitori non compiono le loro scelte esclusivamente sulla base di quanto si aspettano di guadagnare, altrimenti tutti gli investitori comprerebbero soltanto una precisa azione. La valutazione al momento della scelta riguarderà, pertanto, anche il profilo di rischio del titolo in questione. Ma, tornando al modello di Bachelier, la redditività e il rischio di un’azione, il cui comportamento è adeguatamente descritto dal moto browniano e le cui variazioni si dispongono secondo la distribuzione Normale, sono rappresentate dal valore atteso e dalla deviazione standard. Dovendo scegliere tra due azioni, un investitore potrà compiere una scelta ragionevole basandosi su questi due parametri. Markowitz tuttavia compie un passo ulteriore: nessun investitore avveduto si limiterà mai ad investire i propri averi su un solo tipo di azione, ma differenzierà il proprio portafoglio per evitare che l’andamento negativo di un unico titolo si ripercuota in maniera eccessiva sulla sua ricchezza complessiva. Diventa rilevante pertanto, ai fini della costruzione del portafoglio, non tanto la rischiosità del singolo titolo, quanto piuttosto il grado di correlazione tra l’andamento e la rischiosità dei vari titoli. Due azioni che presentano rendimenti discordanti al verificarsi di dati eventi macroeconomici possono costituire un’ottima scelta per la costruzione di un portafoglio.

(14)

Sarà pertanto possibile costruire molteplici portafogli che corrispondano a diversi livelli di rischio, a seconda della propensione dell’investitore. In più, aggiungendo un adeguato numero di titoli, sarà possibile costruire quello che Markowitz chiamò il “portafoglio efficiente”, ossia il portafoglio che per un dato livello di rischio massimizza in rendimento atteso.

La teoria di Markowitz presenta sicuramente punti a favore e punti critici. Tra quelli a favore, bisogna sottolineare il fatto che Markowitz ha introdotto un approccio $matematico in un campo, quale quello della scelta del portafoglio di investimento, che fino a quel momento dipendeva esclusivamente dalle opinioni personali, dall’esperienza degli esperti in materia. Non si può tuttavia fare a meno di rilevare che la validità del modello di Markowitz dipende inevitabilmente dall’ipotesi di Normalità dei prezzi, ipotesi sulla quale lo stesso Markowitz ha espresso perplessità. Secondariamente, la costruzione del portafoglio efficiente richiede il calcolo preventivo della correlazione tra ogni singolo titolo. Solo per la borsa di New York, questo significa circa quattro milioni di calcoli, senza contare che ogni correlazione deve essere costantemente aggiornata col modificarsi dei prezzi.

3.2 – Sharpe e il CAPM

Il secondo problema del modello di Markowitz venne risolto da William Sharpe, nella tesi di laurea che questi scrisse con la supervisione del primo.

Sharpe si chiese che cosa sarebbe successo nel mercato, se tutti gli investitori avessero preso le loro decisioni sulla base del modello di Markowitz: la conseguenza sarebbe stata che, al posto di molteplici portafogli efficienti, ne sarebbe esistito soltanto uno, ossia il “portafoglio di mercato”. Viene dunque meno la necessità dei molteplici calcoli di Markowitz, in quanto il mercato automaticamente in ogni istante fornisce il portafoglio efficiente, in cui le quantità relative di titoli da detenere riflettono le proporzioni del mercato reale. Fermandosi a questo punto, le conclusioni non sono particolarmente illuminanti sul piano pratico, per quanto costituiscano la base per la nascita dei fondi di investimento indicizzati all’andamento di mercato.

La tesi di Sharpe ha tuttavia un’ulteriore, fondamentale conseguenza: dato che il portafoglio di mercato è il portafoglio efficiente, per valutare l’andamento di una singola azione sarà sufficiente confrontarla con il portafoglio di mercato nel suo insieme, e non con i singoli titoli che lo costituiscono.

(15)

Il punto centrale del modello di Sharpe, il Capital Asset Pricing Model, è costituito dal parametro β, che esprime il livello di correlazione tra l’andamento del singolo titolo e l’andamento del mercato nel suo complesso. Un titolo con β pari ad uno è perfettamente correlato con l’andamento di mercato, uno con β compreso tra zero ed uno presenterà un rischio sistematico minore rispetto al portafoglio di mercato. Sottraendo al rendimento fornito dal mercato il rendimento dei titoli privi di rischio, si ottiene il rendimento che esprime la rischiosità aggiuntiva dell’investimento in titoli azionari rispetto all’investimento in titoli di stato. Moltiplicando questo importo per il parametro β, si ottiene il rendimento aggiuntivo che dovrebbe fornire il singolo titolo in relazione alla sua rischiosità.

Come detto, l’introduzione del CAPM determinò una vera e propria rivoluzione nell’analisi dei mercati finanziari, diventando il metodo di valutazione più usato nella pratica. Inoltre, l’utilizzo del CAPM è stato agevolmente esteso all’analisi di ogni attività produttiva oggetto di valutazione: il tasso rendimento aggiustato per il rischio fornito dal CAPM costituisce il rendimento minimo richiesto ad un’attività produttiva, sulla base del quale compiere valutazioni d’opportunità ex ante, e verifiche ex post. A dispetto dell’ampia diffusione, tuttavia, bisogna rilevare come il livello di “ingegnerizzazione” nella valutazione di un’attività non è sicuramente totale, rimangono comunque ampi margini per la discrezionalità nella stima del parametro β e nel il suo utilizzo per la valutazione dei flussi di cassa attesi. Inoltre, un parametro che esprime la rischiosità di un titolo esclusivamente sulla base della sua volatilità rispetto al mercato rischia di essere piuttosto limitato. E molte altre sono le critiche che possono esser avanzate al CAPM, la cui trattazione esaustiva non rientra negli scopi di questo lavoro. Ciò che preme sottolineare, è che a tutt’oggi importanti decisioni di investimento vengono compiute sulla base di un modello decisamente imperfetto, le cui ipotesi fondanti (il comportamento dei prezzi secondo il modello random walk con distribuzione Normale) potrebbero non descrivere accuratamente la realtà.

Il problema potrebbe rivelarsi particolarmente grave, tenendo conto del fatto che, sulla base di uno studio compiuto nel 1999,13 il CAPM è il metodo utilizzato per valutare le decisioni d’investimento da parte di più del 70% dei direttori finanziari delle principali aziende statunitensi.

(16)

4 - Il modello Black & Scholes

Il mercato delle opzioni su titoli e commodities è uno dei settori più dinamici dei mercati finanziari. Sorte inizialmente per scopi di hedging, a partire dal 1973, anno in cui venne negoziata la prima stock option nel Chicago Board of Trade, le opzioni sono diventate un modo per speculare sui futuri andamenti di prezzo, esponendo una quantità limitata di capitale. Prima di questa data, comunque, esisteva già un mercato over the counter per la negoziazione delle opzioni, basti pensare che già la tesi di Bachelier verteva in parte su questo argomento. Tuttavia, non era stato ancora trovato un modo attendibile per calcolare il giusto prezzo di un’opzione al momento dell’acquisto. La soluzione venne da due economisti, Fischer Black e Myron Scholes. Il modello di Black & Scholes consiste in un’elaborazione del modello binomiale di pricing del prezzo di un derivato. Semplificando, nel modello binomiale si costruisce un portafoglio di replica con azioni e titoli privi di rischio, che fornisca lo stesso payoff atteso del derivato. Una prima differenza tra il modello di Black & Scholes e quello binomiale consiste nel fatto che il primo è la rappresentazione del secondo nel tempo continuo. Secondariamente, il modello Black & Scholes prescinde dal probabile valore del sottostante al momento della scadenza dell’opzione. Se un’azione presenta un elevato grado di volatilità, al tempo presente l’opzione corrispondente varrà molto a prescindere dal fatto che sia in the money o out of the money, poiché ci sono molte probabilità che il prezzo dell’azione vari considerevolmente, assicurando un buon guadagno al buyer. Di conseguenza, i parametri per valutare un’opzione sono il prezzo al tempo dell’azione, il prezzo di esercizio dell’opzione e la volatilità dell’azione. La formula è la seguente:

Call = SN(d1) – Ke-rt N(d2)

Dove S è il valore del sottostante al tempo presente, Ke-rt è il prezzo di esercizio attualizzato al tempo presente al tasso privo di rischio. N è la funzione di ripartizione di una Normale Standardizzata sui valori d1 e d2.

(17)

d1 = [ ln(S/K) + (r + σ2/2)t] / σ t

d2 = [ ln(S/K) + (r + σ2/2)t]

La formula dunque non calcola il prezzo probabile dell’azione a scadenza, ma calcola la probabilità che il prezzo dell’azione sia all’interno di un preciso intervallo, e dunque la probabilità che venga esercitata.

Il modello Black & Scholes condivide le basi teoriche dei modelli di Bachelier, Sharpe e Markowitz. Nel calcolo della probabilità che l’opzione sia in the money si assume che le variazioni dei prezzi dei titoli sottostanti seguano un moto Browniano Standard, con distribuzione delle variazioni secondo la Gaussiana.

Non appena Black e Scholes pubblicarono il loro lavoro, la formula ebbe un successo immediato. Con la sua facilità di utilizzo, grazie all’impiego della Normale Standardizzata, fu uno dei perni per lo sviluppo esponenziale dell’industria finanziaria a partire dagli anni Settanta. La formula, oltre ad essere usata per calcolare il prezzo delle opzioni su azioni, venne usata in relazione a commodities, investimenti eterogenei che implicassero opzioni reali, strategie di immunizzazione di portafoglio.

(18)

5 – Conclusioni

I modelli finora descritti hanno conquistato la scena dei mercati finanziari senza incontrare alcun tipo di opposizione. La loro importanza nella finanza degli ultimi quarant’anni è stata riconosciuta con il conferimento del Nobel a Sharpe, Markowitz e Scholes.

Come già detto, questi modelli poggiano su precise ipotesi di base, ossia il comportamento dei prezzi secondo il modello Random Walk e la Normalità delle variazioni. Sospendiamo momentaneamente il punto, in quanto la verifica empirica, e la conseguente critica di questi due assunti, costituirà il punto di partenza dei lavori di Mandelbrot che verranno analizzati nella seconda parte della presente tesi. Bisogna comunque rilevare, pur dando per buone queste ipotesi, come il mondo finanziario attuale presenti alcune contraddizioni interne.

Si è visto che l’assunto di indipendenza delle variazioni successive implica l’impossibilità di compiere previsioni sugli andamenti futuri. L’intervento dei principali speculatori rende il mercato efficiente, e i prezzi presenti riflettono istantaneamente ogni informazione rilevante sul valore dei titoli. Il mercato nel suo complesso fornisce automaticamente il portafoglio efficiente, che costituisce il miglior portafoglio possibile: è dunque impossibile pensare di poter battere il mercato, secondo logica l’unica cosa da fare sarebbe acquistare un fondo di investimento indicizzato.

Stando così le cose, non si spiega allora l’esistenza di una complessa ed articolata industria finanziaria. Gli analisti finanziari, che utilizzano costantemente strumenti come il CAPM o le formule di Black & Scholes per valutare le attività da negoziare, operano ricercando costantemente informazioni privilegiate che consentano loro di anticipare il mercato. La stessa analisi tecnica, che Fama riteneva inattendibile, è uno strumento ampiamente utilizzato in supporto ai modelli sopra citati, e che ne dovrebbero implicare l’inefficacia.

Infine, per quanto possa essere banale sottolinearlo, i ripetuti e gravi dissesti del mercato finanziario fanno sorgere il sospetto che i modelli attualmente utilizzati non siano del tutto accurati.

Riferimenti

Documenti correlati

However, under a low trade elasticity, the fiscal policy maker optimally acts such as to reduce them; since government spending leads to changes in consumption and the real

Allo stesso modo, si evidenzia una stabilità della mortalità anche nelle ASL campane ad eccezione dell’ASL Napoli 1 Centro che presenta il tasso di mortalità più alto a

• Le trasformate di wavelet hanno consentito di distinguere la struttura di correlazione del portafoglio considerato tra mattina e pomeriggio. • E’ stata introdotta una

• la moneta è ciò che può essere usato per pagare le transazioni/l’insieme di tutte le attività finanziarie che possono essere usate DIRETTAMENTE per acquistare beni. • ci sono

Relazione tra rendimento di un titolo e maturità del titolo: curva dei rendimenti/struttura a termine dei tassi di interesse.. Ci interessa solo il

[r]

Il corso di laurea in “Banca, Finanza e Mercati finanziari”, che condivide gli obiettivi qualificanti della classe delle lauree in Scienze dell’Economia e della

Il presente contratto ha ad oggetto l’acquisto a favore del partecipante del diritto a partecipare al percorso formativo scelto dall’acquirente (intero percorso ed erogato da