128
129 come la qualità dei dati forniti in input a queste tipologie di modelli sia di fondamentale importanza per ottenere dei risultati consistenti, soprattutto per quanto riguarda aspetti delicati come il rischio di credito dove degli errori di valutazione potrebbero produrre conseguenze anche catastrofiche.
Un secondo aspetto che è stato oggetto di riflessione è la semplicità di costruzione dei modelli. Per costruire i modelli basati sulla regressione logistica è stato sufficiente specificare i regressori e richiamare la specifica funzione della libreria statsmodels per eseguire automaticamente il calcolo della funzione di massima verosimiglianza per definire i valori dei rispettivi coefficienti e dell’intercetta. Un procedimento simile viene seguito anche da altri software statistici come Stata. Pertanto, si può dire che i meccanismi sottostanti alla regressione logistica sono così conosciuti e matematicamente consistenti che definire un modello logistico a livello operativo è un’operazione piuttosto semplice. Al contrario, per definire una rete neurale non esistono funzioni che ottimizzano un’architettura o gli iperparametri della rete, quindi ogni elemento deve essere specificatamente dichiarato e modellato, come ad esempio il numero di neuroni in input e in output, il numero degli strati nascosti con i relativi neuroni, le funzioni di attivazione per i neuroni di uno specifico strato, i collegamenti tra gli strati, ecc. Pertanto, la costruzione di un modello basato sulle reti neurali risulta molto più dispendiosa a livello di tempistiche di produzione. Tuttavia, tale aspetto negativo può essere in parte mitigato avendo premura durante la prima produzione del codice di rendere agevoli le successive modifiche delle architetture e degli iperparametri, rendendo quindi necessarie solamente piccole modifiche in specifici punti per cambiare le strutture del modello. Questo accorgimento che è stato preso durante la produzione del codice ha infatti permesso di abbattere i tempi di rimodellamento delle reti.
Un altro aspetto più di carattere tecnico su cui si è riflettuto è la capacità computazionale della macchina su cui vengono eseguiti i modelli. Infatti, l’ottenimento dei risultati per il modello logistico è stato quasi istantaneo dopo il lancio della funzione di calcolo, anche grazie all’efficienza dell’algoritmo di massima verosimiglianza sulla base del quale si fondano i calcoli dei coefficienti e dell’intercetta. Invece, l’addestramento di ogni rete neurale ha richiesto circa 2-3 minuti di calcolo per 200 epochs. Pertanto, l’utilizzo delle reti neurali, soprattutto per l’esecuzione di modelli più complessi e con più dati da elaborare, richiede che tali modelli vengano lanciati su macchine dotate di componentistica hardware di un certo livello al fine di abbattere i tempi di calcolo, dal momento che nella
130 porzione di tempo in cui la macchina è in utilizzo essa risulta praticamente inutilizzabile se la sua capacità di calcolo è utilizzata al 100%.
Un altro aspetto rilevante su cui è stata fatta una riflessione riguarda l’eventuale condivisione dei modelli fra ricercatori. La regressione logistica si basa su forti fondamenta teoriche statistiche, pertanto le metodologie con cui si costruiscono e si analizzano i modelli sono comuni fra i ricercatori e sono basate su procedure universalmente conosciute, rendendo quindi la condivisione dei modelli estremamente agibile dal momento che la lettura dei modelli risulta immediata. Al contrario, non esistono fondamenta teoriche per la costruzione delle reti neurali e le procedure seguite per la loro costruzione sono quasi a completa discrezione del programmatore, pertanto l’eventuale condivisione dei modelli potrebbe non risultare agevole.
L’identificazione degli errori o delle problematiche costituisce un elemento molto differenziante fra le due tipologie di modelli sviluppati. Nella regressione logistica eventuali errori o problematiche, come ad esempio l’esistenza di un coefficiente non statisticamente significativo o il segno di un coefficiente non coerente col suo significato economico, sono immediatamente identificabili. Pertanto, in questo caso si riesce ad analizzare il problema in modo più strutturato avendo la possibilità di risalire in modo preciso alla fonte del problema, costruendo quindi delle ipotesi e provando ad implementare delle soluzioni. Al contrario, nelle reti neurali non si ha pieno controllo delle elaborazioni negli strati nascosti, ed è infatti per questa ragione che gli strati intermedi delle reti vengono considerate come delle black box. Ne deriva che eventuali problematiche o le cause di alcune inefficienze non siano immediatamente identificabili, rendendo quindi necessario la maggior parte delle volte l’attuazione di un procedimento per tentativi e fondato sull’intuizione per risolverle, modificando l’architettura delle reti o gli iperparametri settati e cercando in questo modo di risolvere la problematica riscontrata.
Infine, un ultimo aspetto su cui è stata posta l’attenzione riguarda la libertà nella definizione delle architetture. La costruzione dei modelli basati sulla regressione logistica è dettata da rigide condizioni statistiche che devono necessariamente essere soddisfatte affinché il modello possa considerarsi consistente. In particolare, ogni modello deve necessariamente presentare, pena il suo rifiuto, tutti i coefficienti:
1. Statisticamente significativi;
2. Con un segno coerente con il significato economico della variabile del modello a cui sono associati.
131 In particolare, se anche un solo coefficiente non rispetta tali condizioni, allora l’intero modello deve essere necessariamente rigettato. Ne deriva che le possibilità di scegliere la struttura del modello è piuttosto limitata e circoscritta da forti regole statistiche. Al contrario, le reti neurali presentano il grandissimo vantaggio di avere infiniti gradi di libertà nella definizione delle architetture delle reti, tanto che la modellazione è totalmente a discrezione del programmatore/analista e senza vincoli di alcun tipo. Tale libertà permette infatti la costruzione di reti con gradi di complessità molto elevati, con la conseguente possibilità di effettuare rielaborazioni profonde dei dati, cogliendo fenomeni di non linearità tra le variabili inserite nel modello e facendo emergere relazioni intrinseche fra di esse che difficilmente sarebbero individuabili con le regressioni logistiche.
Dall’analisi dei modelli sviluppati quello che si può osservare è che le reti neurali, essendo uno strumento molto sofisticato, si rivelano generalmente una soluzione più complessa da sviluppare e adattare a contesti operativi rispetto alle regressioni logistiche. Tuttavia, gli svantaggi riscontrati possono considerarsi poco rilevanti e, comunque, i vantaggi ottenibili in termini di complessità computazionale e libertà di definizione delle architetture che si ha avuto modo di osservare hanno permesso il raggiungimento di performance superiori rispetto ai modelli basati sulle regressioni logistiche. Infatti, quello che è emerso è che le reti neurali hanno sempre mostrato performance superiori sia in termini globali, tramite la lettura della metrica AUC, sia in specifici contesti operativi tramite i confronti messi a punto con la costruzione delle funzioni di costo a seguito della definizione di una specifica soglia di classificazione.
132
Bibliografia e sitografia
[1] Materiale didattico del professor Varetto Franco condiviso durante il corso “Mercati, rischi e strumenti finanziari” A.A. 2020/2021.
[2] Andrea Resti Andrea Sironi, “Rischio e valore nelle banche. Misura, regolamentazione, gestione.”, EGEA, Milano, II edizione, 13 agosto 2008.
[3] Vincenzo Paolo Senese, “Regressione Multipla e Regressione Logistica: concetti introduttivi ed esempi”, I Edizione, ottobre 2016.
[4] Christine Bolton, “Logistic regression and its application in credit scoring”, University of Pretoria, 2009.
[5] Giacomo di Tollo, “Reti neurali e rischio di credito: stato dell’arte e analisi sperimentale”, 17 novembre 2005.
[6] Sito web Federacciai: http://federacciai.it/
[7] Sito web Bank of International Settlements: https://www.bis.org/
[8] Sito web Istat: https://www.istat.it/it/
[9] Marco Ferfoglia, “BASILEA4: IL FRAMEWORK NORMATIVO”
https://www.riskcompliance.it/news/basilea4-il-framework-normativo/
[10] Sito web “Google Machine Learning Crash Course”
https://developers.google.com/machine-learning/crash-course
[11] Andrea Provino, “Precision and Recall con F1 Score | Precisione e Recupero”
https://andreaprovino.it/precision-and-recall-precisione-e-recupero/
[12] Sito web Bureau Van Dijk – Moody’s Analytics Company:
https://www.bvdinfo.com/it-it/
[13] Sito web TensorFlow: https://www.tensorflow.org/
[14] Sito web Statsmodels: https://www.statsmodels.org/stable/index.html