• Non ci sono risultati.

Running del modello su un cluster Linu

Quanto sarà esposto da ora in avanti, riguarda l'implementazione del WRF 3.5 su di un cluster linux a 6 nodi ognuno dei quali con le seguenti caratteristiche:

• processore 8-core • 8Gb ram

• 1 tera hd • lan 1000Mb

• So linux ubuntu 13.*

L'operatività del modello è continuativa dal 2005 mentre in precedenza si è operato con il codice MM5, abbandonato poi per il subentro del più performante WRF sebbene maggiormente oneroso dal punto di vista della richiesta di prestazioni . Attualmente si opera su tre domini nestati, secondo lo schema delle operazioni riportato in tabella: Dominio Copertura temporale (ore) 00Z 06Z 12Z 18Z Italia 96 x x x x Toscana 72 x - x - Provincia di Pisa 48 x - - -

Tabella 4.1 Disponibilità dei run

Gli orari riportati (00Z, 06Z, 12Z, 18Z) rappresentano l'ora di inizio run del modello globale padre, in questo caso GFS (alternativamente ECMWF), con il quale si è scelto di inizializzare il Lam. Questo processo seppur in se stesso piuttosto semplice (si tratta di effettuare un download di file grib sui server nomads.noaa.gov) rappresenta comunque un punto critico della catena. I dati sono disponibili sui server nomads mediamente dopo 5 ore dall'avvio del run stesso così che il Lam, lavorerà già su dati “vecchi” ; un altro lag di tempo è poi imputabile alla velocità di trasferimento degli stessi files che constano mediamente in circa 18Mb a tela trioraria. Rapidamente si intuisce che per una simulazione di 96 ore (4 giorni), occorre prevedere ad ogni ciclo un download di (18*8*4)Mb il chè comporta, con una connessione che solitamente non supera i 4 Mb/s un tempo di download di circa 20/30minuti. La sommatoria dei tempi di calcolo e dei tempi per le operazioni accessorie è un parametro di fondamentale importanza per definire come ripartire il carico di lavoro sul cluster.

Come evidenziato nella figura 4.2, il tempo medio di tutto il processo, dalla acquisizione dei dati all'output rielaborato, impiega circa 3.45 ore, a significare che una previsione del Lam è disponibile circa 8-9 ore dopo l'avvio del run del modello padre. In sostanza, ci confrontiamo con risultati dipendenti da condizioni osservate almeno 10/12 ore prima. Per ovviare in parte agli errori predittivi indotti da questo ritardo, si procede talora, dopo il download dei dati del modello padre per l'inizializzazione, ad un inserimento “manuale” di rilevazioni più fresche attingendo alle osservazioni di stazioni meteorologiche presenti sull'area del dominio(massimo ritardo 5 minuti) compendiate da ulteriori informazioni provenienti dal satellite (massimo ritardo 15 minuti). Con tale espediente si è vista un miglioramento della affidabilità pari a circa il 3-4% sulle prime 12 ore di previsione.

Figura 4.2 Sequenza temporale e tempi medi di esecuzione

I parametri fisici calcolati di default dal modello sono riportati in forma estesa in appendice, quelli che invece vengono usualmente trattati graficamente su mappa sono:

• precipitazioni cumulate (mm/m2) sulle 3,6,12,24,36 ore precedenti e con

discriminazione tra pioggia e neve;

Download dati 30min

Completamento catena WRF 3 ore

Diffusione ed elaborazione dati 15 min

Tempo totale 3.45 ore

• temperature alla coordinata pressoria verticale di 850hPa, 700hPa, 500hPa (°C);

• altezze geopotenziali (altezze in decametri sulla superficie del mare ) riferite ai livelli di 850 hPa e 500 hPa (gpdam);

• quota zero termico (m);

• temperature a 2 metri dal sulo (°C);

• venti (direzione e velocità, di raffica e medi) a 2m, 10m. 850hPa, 500hPa, 300hPa, 200hPa, 10hPa (m/s);

• umidità relativa % a 925hPa, 850hPa, 700hPa, 500hPa, 300hPa;

• Cape ovvero l'energia potenziale convettiva disponibile (J/Kg) e Cin, energia di inibizione (J/Kg) quali espressione della potenzialità temporalesca dell'aria.

In figura 4.2 riportiamo un esempio grafico risultante dal “plotting” delle variabili mix precipitazioni totali sulle tre ore e temperatura ad 850hPa sul dominio più ampio previsto sul cluster. Per ottenere questo tipo di elaborazione si utilizzano software esterni al modello tra i quali citiamo il noto Grads (Grid Analysis and Display System

Figura 4.4 Previsione temperatura al suolo su dominio toscano

La parte più importante dopo la modellazione su dominio è la verifica a posteriori di ciò che è stato prognosticato dal modello: in sostanza valutarne la bontà predittiva in relazione a ciò che effettivamente si è misurato ad evento accaduto. Le considerazioni statistiche in tale ambito si preoccupano di valutare aspetti diversi del medesimo problema.

• La affidabilità temporale: riguarda la precisione nel collocare nel tempo un determinato fenomeno. Tale caratteristica è fortemente connessa alle condizioni iniziali fornite dai modelli a scala globale e proprio per questo di difficile manipolazione con interventi diretti sugli schemi risolutori del LAM. Una tecnica che può essere impiegata per apportare migliorie in tal senso è quella di assumere come condizioni iniziali non quelle acquisite tout court dall'ultimo run del modello padre bensì di rielaborane di nuove attraverso una ponderazione sulle ultime 2/3 uscite. In sostanza per una inizializzazione delle 00z, si valutano i run padre delle 00z, delle 18z e delle 12z (precedenti). • La affidabilità spaziale: si valuta quanto la localizzazione delle precipitazioni

sia effettivamente corrispondente alla distribuzione sul territorio. I Lam, da questo punto di vista, sono molto sensibili a variazioni significative correlate alla bontà della rappresentazione orografica. Il modello WRF con il setup considerato fino ad adesso prevede la rappresentazione del suolo tramite dati GTOPO30 (definizione di lato 1 km circa) che hanno una buona risoluzione sia orizzontale che verticale. Nonostante ciò, un maggior dettaglio specie in certe zone geografiche, abbiamo visto possa portare notevoli miglioramenti nella previsione, sia delle idrometeore che nelle correnti di superficie.

• La affidabilità su parametro predetto: non tutte le variabili in uscita dal computo modellistico presentano lo stesso grado di affidabilità, per fare un esempio è molto più “facile” avere una previsione corretta sul vento a 500hPa che non la determinazione della quota dello zero termico in caso di precipitazioni; va da sé che l'impatto sul territorio dei due casi sia profondamente differente: se prediamo il caso di Pisa, prevedere una quota di attecchimento della nevicata a 100m o a 0m può determinare un disagio ben

diverso per la popolazione (e per chi dovrà gestire l'eventuale emergenza).

Figura 4.6 Affidabilità % di una previsione nel tempo (sono stati presi come parametri di riferimento la temperatura e la pioggia)

Figura 4.7 Affidabilità % della previsione a 24 ore su fenomeno

24 ore 48 ore 72 ore 96 ore 120 ore 0 10 20 30 40 50 60 70 80 90 100 Affidabilità* Parametro Pioggia Paramentro neve

Pioggia Neve Vento Temporali Grandine Trombe d'aria 0 10 20 30 40 50 60 70 80 90 100

Vogliamo riportare il caso specifico delle abbondati precipitazioni verificatesi durante il mese di gennaio 2014 che hanno determinato lo stato di allerta elevata per il bacino del fiume Arno ed in particolare per la città di Pisa. Naturalmente il problema non sono state le precipitazioni sulla città, bensì quelle su tutto il bacino.

Figura 4.7 La previsione elaborata il 30 gennai, cumulati totali su 24 ore

Come è intuitivo notare dai dati registrati a posteriori dalla rete di stazioni del Centro Funzionale della Toscana in figura 4.8, la proiezione sui cumulati totali nelle 24 ore fornita con un anticipo di circa una giornata, ha dato indicazioni soddisfacenti sia per quanto riguarda la quantità di pioggia caduta sia nell'individuazione delle aree maggiormente colpite dal maltempo. Lo scarto sui picchi previsti in provincia di Pistoia ed in area metallifero-grossetana (le più stressate) è stato inferiore al 10% che è una performance di tutto rispetto visto i quantitativi di pioggia in gioco e vista anche la particolare configurazione meteorologica che li ha generati (non entriamo qui nel dettaglio della questione). Dalla medesima analisi si nota invece una sottostima delle precipitazioni in area fiorentina dovuta per lo più ad una valutazione troppo esasperata dell'effetto stau offerto dalle alture chiantigiane in caso di flussi tesi meridionali; la parziale ombra pluviometrica è stata inoltre accentuata dall'aver impostato un fattore di amplificazione orografica di circa 1.2 ovvero aver amplificato l'altimetria del dominio del 20% rispetto ai dati in input di GTOPO30.

Documenti correlati