4 L’APPLICAZIONE DEL MODELLO A TITOLI AZIONARI DEL MERCATO
4.1 Informazioni preliminari
In questa sezione conclusiva, al termine della disamina condotta prevalentemente a livello teorico nelle parti precedenti di questo elaborato, ci si dedica ad una procedura empirica volta a testare le capacità del modello di selezione di portafogli proposto nel fornire risultati soddisfacenti e robusti rispetto alle condizioni economiche sottostanti.
L’analisi ha come riferimento titoli azionari quotatati sul mercato italiano e sono state utilizzate le serie storiche dei prezzi71 dei 100 titoli a maggior capitalizzazione al 02/09/2014, a partire dall’01/01/2005 fino al 02/09/2014. A causa della mancanza di dati per periodi più o meno lunghi dell’intero intervallo temporale considerato, sono stati esclusi i seguenti emittenti, in ordine decrescente di capitalizzazione: Enel Green Power,
71 I prezzi utilizzati sono quelli di chiusura, registrati al termine di ciascuna seduta di negoziazione. Inoltre, sono stati considerati i prezzi “aggiustati”, al fine di tener conto degli eventuali dividendi che le società distribuiscono periodicamente ai propri azionisti.
98
Exor, Parmalat, Banco Popolare, Ferragamo, Prysmian, Moncler, Finecobank, Banca Generali, World Duty Free, Diasorin, Ansaldo Sts, Brunello Cucinelli, Anima Holding, Fincantieri, Yoox, Safilo Group, Cerved, Saras, Piaggio, Marr, Aeroporto di Venezia, Maire Tecnimont, Zignago Vetro, Ascopiave e Immobiliare Grande Distribuzione.
Sulla base dei prezzi osservati sono stati poi calcolati i rendimenti logaritmici giornalieri per ciascun titolo, secondo la seguente formula:
Rln,t= ln ( Pi,t Pi,t−1
).
Nonostante ci si trovi nel caso in cui i rendimenti risultino essere sufficientemente piccoli per ritenere indifferente considerare, come indicatore della reddittività di un’attività finanziaria, i rendimenti percentuali piuttosto che quelli logaritmici, la scelta è ricaduta su quest’ultimi per ragioni di coerenza ideologica con l’idea che i prezzi evolvano continuamente nel tempo e che quindi la loro legge finanziaria generatrice sia quella dell’interesse continuo anziché quella dell’interesse composto72.
Il procedimento si è poi articolato in due passi: la creazione di scenari per l’analisi del modello;
la suddivisione dei rendimenti disponibili per ciascun scenario in due parti: in-
sample ed out-of-sample.
Considerando infatti l’ampiezza dell’intervallo temporale per il quale si sono ottenute le serie storiche dei prezzi e ricordando la presenza di eventi economici particolarmente importanti ed influenti durante il medesimo, sarebbe stato poco significativo condurre un analisi che riguardasse tutti i dati a disposizione contemporaneamente. Si è optato quindi per la suddivisione dei dati in quattro sottocampioni di 18 mesi ciascuno ed individuati in maniera tale da ipotizzare un comportamento diverso del modello all’interno di ciascuno di essi. Il secondo aspetto riguarda la suddivisione di ciascun campione in due parti,
72 Dal momento che generalmente la quotazione avviene in maniera continua, la legge finanziaria che regola i prezzi dovrebbe essere la seguente: Pt= Pt−1eri,t. Ponendo come incognita il rendimento si ottiene la
99 comunemente note come in-sample ed out-of-sample e che in questo studio hanno una lunghezza costante rispettivamente di 12 mesi e di 6 mesi. Il primo insieme di dati viene utilizzato per la stima dei parametri del modello mentre il secondo, noto anche come futuro virtuale, è utilizzato per la verifica dell’efficacia del modello sulla base dei parametri provenienti dal primo insieme di osservazioni. L’idea sottostante è che se il rendimento atteso e la rischiosità del portafoglio restano circa gli stessi rilevati in-sample anche per la parte out-of-sample allora le percentuali d’investimento suggerite dal modello sulle base delle osservazioni in-sample dovrebbero garantire la miglior soluzione di portafoglio anche per tutti gli istanti successivi. In altre parole, si ipotizza di essere nell’ultimo giorno del dodicesimo mese con la prospettiva di investire un certo capitale per i sei mesi successivi, adottando come criterio di investimento le percentuali del portafoglio ottimo suggerite dal modello. Al termine del diciottesimo mese si può osservare se il portafoglio così costruito ha prodotto degli esiti in linea con quanto previsto alla fine del dodicesimo mese.
La generazione degli scenari è avvenuta ravvisando due break strutturali in corrispondenza dei periodi che hanno visto il fallimento di Lehman Brothers (settembre 2008) e la crisi del debito pubblico italiano (secondo semestre del 2011). Poiché tali rotture sono spesso presenti all’interno delle serie storiche finanziarie e l’analisi del comportamento di un modello matematico a ridosso di tali situazioni può risultare di notevole interesse, gli scenari che si è deciso di utilizzare per l’indagine sul comportamento del modello media-PVaR sono i seguenti:
scenario 1: situazione di presumibile crescita economica per l’in-sample (agosto 2007-luglio 2008) mentre l’out-of-sample (agosto 2008-gennaio 2009) coinvolge il fallimento di Lehman Brothers;
scenario 2: situazione legata al fallimento di Lehman Brothers per l’in-sample (aprile 2008-marzo 2009) mentre l’out-of-sample (aprile 2009-settembre 2009) è caratterizzato da un leggero miglioramento della situazione economica;
100
scenario 3: situazione di crisi di fiducia nello Stato italiano come emittente obbligazionario per l’in-sample (giugno 2011-maggio 2012) mentre l’out-of-
sample (giugno 2012-novembre 2013) fa registrare un calo nel differenziale dei
rendimenti tra titoli di stato decennali italiani e tedeschi;
scenario 4: situazione post rotture tanto per l’in-sample (gennaio 2013- dicembre 2013) quanto per l’out-of-sample (gennaio 2014-giugno 2014). Al fine di indagare ulteriormente l’abilità della PSO nella determinazione di risultati soddisfacenti, per ciascun scenario sono state provate tre diverse configurazioni di numero di particelle e numero di iterazioni del ciclo di ricerca. La prima coinvolge 50 particelle e 10 mila iterazioni, la seconda prevede un incremento fino a 100 nel numero delle particelle mantenendo costante il numero di iterazioni ed infine si provvede ad un’indagine con 50 particelle ed effettuando 15 mila iterazioni.