• Non ci sono risultati.

3.2 STIMA DEI VALORI ESTREMI Extreme value analysis, EVA

3.2.1. Metodologia

Le elaborazioni statistiche che seguono sono state effettuate seguendo le Linee guida per l’analisi e l'elaborazione statistica di base delle serie storiche di dati idrologici (Braga et al., 2013a) ed utilizzando il foglio Excel Anabasi - ANAlisi statistica di BAse delle Serie storiche di dati Idrologici – versione beta 1.3 (Luglio 2015) (Braga et al., 2013b), una serie di “macro” im- plementate nel software MS Excel 2007 mediante il linguaggio Visual Basic for Application (VBA) a sostegno dell’utente nell’applicazione delle Linee Guida (Braga et al., 2013a).

La prima operazione da effettuare in questo tipo di analisi è la selezione dei dati a partire delle serie complete, cioè i valori sui quali verranno effettuate le analisi.

Le metodologie più comuni sono:

- Block Maximum (BM), ossia la scelta dei massimi valori del parametro estratti da intervalli regolari o blocchi che generalmente sono anni solari (Annual Maximum, AM).

- Peack Over Treshold (POT), selezione dei picchi oltre una certa soglia.

La scelta avviene per lo più in base ai dati disponibili, considerando che la modalità AM garan- tisce l’indipendenza degli eventi (caratteristica indispensabile per la validità delle stime) ma limita il numero di misure utilizzabili (una per anno) rendendo le stime più incerte; mentre con la modalità POT abbiamo la possibilità di selezione molti più dati e quindi effettuare stime più efficienti ma in questo caso il problema è legato proprio alla scelta della soglia che se scelta troppo bassa potrebbe non garantire l’indipendenza degli eventi e quindi la correttezza della stima.

La scelta della modalità di selezione del dato comporta indirettamente anche la scelta della di- stribuzione statistica che verrà utilizzata.

Le serie AM sono analizzate mediante la distribuzione di probabilità generalizzata del valore estremo (Generalized Extreme Value distribution, GEV):

F(x) = exp(-[1+ξ(x-μ)/σ]^(-1/ξ)] [10] in cui σ, μ ed ξ sono rispettivamente i cosiddetti parametri di scala, di posizione e di forma. In particolare il valore assunto dal parametro di forma ξ definisce il comportamento della coda e la famiglia della distribuzione:

ξ=0: la distribuzione (di Gumbel o EV1) ξ>0: la distribuzione (di Fréchet o EV2) ξ<0: la distribuzione (di Weibull o EV3)

La stima dei parametri viene effettuata nel foglio Anabasi con i tre metodi classici: - metodo dei momenti (Method of Moments, MoM)

- metodo dei momenti pesati in probabilità o L-momenti (Probability Weighted Moment, PWM o L-Moments, LM)

- metodo della massima verosimiglianza (Maximum Likelihood, ML)

In generale, come anche riportato nelle “Guidelines on Analysis of extremes in a changing cli- mate in support of informed decisions for adaptation” (WMO, 2009), il metodo ML è preferibi- le quando il campione dei valori estremi è sufficientemente numeroso (>500) e quando la serie può presentare una non-stazionarietà; il metodo ML, infatti, può tenere conto della non- stazionarietà. Il metodo degli PWM o L-Moment è invece preferibile quando il campione è limi-

tato (< 500 come accade nella gran parte dei casi). Il più noto metodo MoM invece non è rac- comandabile poiché tende sottostimare i valori per elevati periodi di ritorno.

Le serie POT sono analizzate mediante la distribuzione di probabilità generalizzata di Pareto (Generalized Pareto Distribution GPD):

F(x) =1-(1+ ξ (x- μ)/σ)^(-1/ ξ) [11] Anche in questo caso, la stima dei parametri può essere effettuata con uno dei tre metodi classi- ci appena descritti :MoM, PWM o LM. In generale, il metodo ML costituisce il metodo migliore (più efficiente non distorto) per un elevato numero di dati mentre per piccoli set di dati (n < 100) invece il metodo PWM è più efficiente.

Gli approcci sopraelencati, ai fini dell’applicazione dei teoremi dell’ EVA, dovrebbero garantire essenzialmente le seguenti due ipotesi:

1) indipendenza statistica del campione di variabili estratte: dei massimi di ciascun blocco o dei picchi soprasoglia

2) medesima distribuzione di probabilità per le variabili estratte

Prima di effettuare le analisi dei valori estremi dovrebbero essere valutate una serie di caratteri- stiche intrinseche al dataset, tutte valutabili mediante apposite funzioni sviluppate nell foglio Anabasi:

- Autocorrelazione

L’autocorrelazione definisce il grado di dipendenza lineare tra i dati di una serie. Si esprime at- traverso una funzione, detta appunto di autocorrelazione (ACF – Auto Correlation Function).

- Normalità

Poiché molte delle procedure statistiche sono derivate dall’ipotesi di normalità dei dati è utile verificare se i dati siano effettivamente distribuiti significativamente secondo la legge normale. In realtà, come è noto, i dati idrologici non sono quasi mai distribuiti secondo la legge normale ma anzi presentano caratteristiche come l’asimmetria, talvolta anche molto accentuata, che li allontanano dalla “normalità”. Tuttavia, mediante opportune trasformazioni (e.g., Box e Cox, lognormale, quantile normale) possono distribuirsi secondo una normale.

- Stazionarietà

Gran parte delle analisi statistiche in ambito idrologico sono basate sull’assunzione della stazio- narietà della serie dei dati. Molteplici possono essere le cause di non stazionarietà e le modalità con cui esse si manifestano. Ad esempio, la non stazionarietà può interessare il valor medio e/o la varianza e/o i valori estremi con modalità che possono essere essenzialmente di tipo graduale (trend), repentino (change point), stagionale (seasonal), ciclico non stagionale (cyclic not sea- sonal), combinazione dei precedenti.

Nel primo caso, le cause potrebbero essere legate a fenomeni di cambiamenti climatici o feno- meni evolutivi quali urbanizzazione o deforestazione oppure i trend potrebbero essere determi- nati da derive dello strumento di misura. Le seconde potrebbero dipendere da interventi antro- pici di grossa portata ma anche in questo caso possono essere date dalla modifica dello strumen- to. Quando l’ipotesi di stazionarietà non è verificata sarebbe necessario operare correzioni, tal- volta anche molto complesse ma per ora tali funzioni non sono implementate nel foglio Anabasi (Braga et al., 2013a).

Tempi di ritorno d’interesse (Tr)

Sono stati considerati diversi Tr, in particolare Tr30, Tr200 e Tr500 sono i valori indicati dalla Di- rettiva Alluvioni. Questi valori indicano rispettivamente probabilità alte, medie e basse di acca- dimento dell’evento:

- Tr = 30 anni P = 0.033 evento frequente (3.3% P in un anno) - Tr = 200 anni P = 0.005 evento poco frequente (0.5% P in un anno) - Tr = 500 anni P = 0.002 evento raro (0.2% P in un anno)

Secondo il EU, 2009 l’Highest Winter Waterline (HWW), il più alto livello marino invernale, è un ottimo indicatore per il posizionamento della Set-back zone e può essere definito in base alle caratteristiche d’onda delle mareggiata più frequenti, ad esempio quelle con tempo di ritorno di 5 anni (Maremed project, 2013):

- Tr= 5 anni P= 0.2 evento molto frequente (20% P in un anno).

Infine, fondamentale è il riferimento alla Cartografia della pericolosità da mareggiata della re- gione Emilia-Romagna, denominata In_Risk6, considera i seguenti scenari:

- P3 Tr = 10 anni P = 0.1 evento frequente (10% P in un anno) - P2 Tr = 100 anni P = 0.01 evento poco frequente (1% P in un anno) - P1 Tr = >>100 anni P = << 0.01 evento raro (<<1% P in un anno)