• Non ci sono risultati.

4 Linee guida per l’applicazione della PFDHA

4.4 Rappresentazione delle incertezze

Una parte assolutamente fondamentale nelle analisi probabilistiche e, in generale, in ogni tipo di modellazione, è la presenza di una adeguata e quanto più esaustiva trattazione delle incertezze, che deve essere condotta parallelamente ai processi di calcolo in ogni loro fase. È fondamentale che l’applicazione dell’analisi PFDHA preveda un trattamento esplicito delle incertezze. In particolare vengono riconosciute due principali tipologie di incertezza (e.g. Petersen et al., 2011) (Tab. 4.3):

 incertezza aleatoria: si riferisce alle incertezze dovute a variabili random che derivano direttamente dall’anisotropia dell’ambiente naturale, sia nello spazio che nel tempo;

 incertezza epistemica: è l’incertezza legata agli errori, alle imprecisioni e all’incompletezza dei database da cui vengono estrapolati i dati di input, dalle metodologie per la raccolta di tali dati all’origine, dalle imprecisioni nella mappatura  delle faglie e dalle assunzioni fatte durante lo sviluppo dei modelli.

Indicazioni per l’applicazione

All’interno di un PFDHA la componente aleatoria dell’incertezza dovrebbe considerare e rappresentare la naturale variabilità dei parametri di input quali ad esempio la caratterizzazione (e quindi il modello descrittivo) della distribuzione temporale e spaziale dei terremoti su tutte le faglie potenzialmente in grado di causare rotture in corrispondenza del sito studiato (ad esempio anche una perfetta conoscenza dei campi di stress all’interno di una regione, non potrà permettere una previsione certa dell’ubicazione e della magnitudo di terremoti futuri) o la caratterizzazione della naturale variabilità dei potenziali punti di rottura in occasione di un terremoto, sia sulla struttura primaria che intorno ad essa. Questo tipo di analisi porterebbe ad avere come risultato un’unica curva di probabilità.

Tabella 4.3. Esempi di sorgenti di incertezza in un’analisi probabilistica Elemento nella

procedura Epistemica Aleatoria

Modello È il grado di affidabilità con cui può predire gli eventi.

Può rappresentare la possibilità che un modello possa

sistematicamente sovrastimare o sottostimare i risultati

È la variabilità non espressa da un modello. Ad esempio, può essere la variabilità attribuita alle

componenti del processo fisico non modellati e rappresenta quindi la variabilità esistente tra le

predizioni modellistiche e le osservazioni.

Parametro È associata alla stima dei parametri del modello derivati dai dati

disponibili, da misure indirette, etc.

Può essere dovuta a fattori che sono naturalmente variabili, ma che presentano un effetto sistematico sui risultati del modello.

La curva di probabilità per la valutazione della pericolosità così definita non è in grado di esplicitare l’intera incertezza inclusa nella PFDHA mancando ogni considerazione della componente epistemica, ossia l’incertezza che deriva direttamente dalla conoscenza incompleta dei fenomeni e delle leggi che guidano i processi naturali, e che porta quindi alla definizione di modelli imprecisi per la rappresentazione della realtà. Quindi, l’incertezza

epistemica nasce dalle diverse assunzioni, dalle ipotesi dai modelli e dalle metodologie utilizzate per quantificare i parametri di input, portando a interpretazioni multiple che devono essere sempre esplicitate e propagate attraverso l’analisi e che portano ad avere risultati costituiti da un’insieme di curve di pericolosità ognuna caratterizzata da un peso, definito sulla base dell’affidabilità e della potenzialità di rappresentazione della realtà.

Il prodotto di una corretta valutazione dell’incertezza epistemica è costituito da serie di diversi input alternativi in ogni fase della PFDHA che permetta di definire l’intero ventaglio delle possibili, verosimili e tecnicamente difendibili interpretazioni della realtà (e quindi il 100% di probabilità che almeno una di esse si verifichi), rappresentabili ad esempio attraverso curve di pericolosità percentili (ANSI 2.30, 2015). Come anticipato, ognuna delle interpretazioni deve essere accompagnata da un peso, ossia un valore che esprima il suo grado di affidabilità e verosimiglianza. Tale valore viene comunemente esplicitato attraverso la costruzione di un albero logico, una metodologia che deriva direttamente dalla valutazione probabilistica del pericolo sismico (PSHA) (ad es. McCalpin, 2009). Con il termine albero logico si indica uno schema costituito da “rami” e “nodi” che descrivono le dipendenze tra i vari parametri inclusi in un processo di calcolo. La regola fondamentale per la costruzione di un albero logico è che i parametri che descrivono interamente o parzialmente una “causa” devono precedere quei parametri relativi all’”effetto”; ogni parametro nell’albero logico deve essere posizionato a seconda della sua dipendenza dagli altri parametri considerati, ad esempio lo slip rate dipende da parametri come la dislocazione per evento, che a sua volta dipende dalla magnitudo, che a sua volta dipende dalle caratteristiche geometriche della sorgente e così via. Da ogni nodo possono partire diversi rami (tipicamente da 2 a 5, McCalpin, 2009) che rappresentano le alternative considerate all’interno della PFDHA. Ad ogni ramo deve poi essere attribuito un peso (tipicamente con valori normalizzati compresi tra 0 e 1) sulla base del grado di affidabilità, accuratezza, dettaglio e di completezza dei dataset utilizzati, di precisione, influenza sui risultati, etc. dell’alternativa rappresentata, facendo in modo che la somma dei pesi attribuiti ad ogni alternativa per la definizione dello stesso parametro (ossia i diversi rami che si originano da uno stesso nodo) sia pari a 1, affinchè le varie alternative coprano il 100% delle probabilità e quindi l’intero intervallo delle possibilità fisiche reali attese per quello specifico parametro (Fig. 4.5). Ognuno dei pesi definiti deve essere tecnicamente giustificato e documentato in modo appropriato.

È difficile definire delle linee guida univoche per l’assegnazione dei pesi poiché le decisioni non possono essere separate dall’applicazione specifica. Inoltre, i fattori da considerare nell’assegnazione dei pesi finali sono spesso numerosi; per questo motivo può essere necessario definire una gerarchia che tenga conto dell’influenza di ogni fattore sul peso finale e di conseguenza sui risultati, ad esempio sulla base di specifiche analisi di sensibilità, e un sistema chiaro e trasparente per la combinazione dei vari gradi della gerarchia nel peso finale (Bommer et al., 2005).

In generale, i pesi vengono combinati nel modo migliore attraverso la moltiplicazione così che pesi con valori molto bassi o pari a 0 vengono eliminati e non influenzano i risultati poiché costituiscono modelli considerati poco affidabili.

Figura 4.5. Rappresentazione parziale della struttura di un albero logico (modificato da

McCalpin, 2009)

La procedura seguita per la definizione dei pesi deve essere trasparente e riproducibile, sia per facilitare le revisioni degli studi sia per permettere un semplice aggiornamento dei pesi qualora nuovi dati concorrano a rafforzare o a indebolire una delle alternative.

Per ogni ramo aggiunto la quantità di calcoli può aumentare in modo esponenziale: per questo motivo si consiglia di non aggiungere rami con differenze molto piccole tra le alternative che rappresentano.

In alcuni casi si possono incontrare difficoltà nel distinguere se un’incertezza può essere considerata aleatoria o epistemica: ad esempio, l’inclusione di rami alternativi rappresentanti differenti profondità focali, con i pesi assegnati sulla base delle distribuzioni delle profondità degli ipocentri riportate nei cataloghi sismici, non coincide pienamente con gli scopi della metodologia dell’albero logico, poiché la distribuzione delle profondità dei terremoti rappresenta una variabilità aleatoria e deve quindi essere inclusa nei calcoli (Bommer et al., 2005).