• Non ci sono risultati.

Weather computing: l’indissolubile legame tra meteorologia e HPC

N/A
N/A
Protected

Academic year: 2021

Condividi "Weather computing: l’indissolubile legame tra meteorologia e HPC"

Copied!
3
0
0

Testo completo

(1)

Le previsioni meteorologiche di ieri e di oggi

I progressi compiuti nell’ambito della Meteorologia per effetto degli sviluppi teorici e tecnologici compiuti dalla Computer Science sono oggi universalmente ri-conosciuti. Molta strada infatti è stata fatta dagli espe-rimenti di E. Lorenz dei primi anni ‘60 sulla teoria del caos ad oggi, in cui una buona parte dei primi 500 computer più potenti al mondo è costantemente co-stituita da macchine asservite alla Meteorologia. Tali sono infatti le potenze di calcolo richieste per predi-sporre i sistemi per la generazione delle previsioni meteorologiche numeriche. Questi possono compren-dere una grande varietà di modelli numerici, globali e locali, e sono in grado di produrre scenari di evolu-zione atmosferica su una specifica zona di interesse con una risoluzione spaziale del chilometro e tempo-rale dell’ordine del minuto.

L’enfasi sull’aspetto sistemico della previsione me-teorologica è più che mai rilevante poiché l’edificio teo-rico e tecnologico su cui poggia la generazione delle previsioni meteorologiche numeriche è assai complesso e comprende diversi approcci. Da un punto di vista teo-rico-funzionale esso comprende il processo di inizializzazione, quello di esecuzione dei modelli e quello del post-processing, tutti accomunati dalla necessità di grandi risorse di calcolo per poter essere eseguiti. Il processo di inizializzazione dei modelli, in particolare, si presenta assai delicato proprio per l’esistenza del famoso “effetto far-L’aspetto previsionistico meteorologico e quelli teorici e

tec-nologici della Computer Science sono, oggi, intimamente legati, sebbene la teoria di base che governa il comporta-mento e l’evoluzione dell’atmosfera sia stata sviluppata più di un centinaio di anni fa ovvero molto tempo prima che venisse costruito il primo computer elettronico.

Accade molto spesso che i progressi compiuti nel settore tecnologico consentano di sviluppare, parametrizzare ed

in-cludere, nella descrizione modellistica dell’atmosfera, fenomenologie fisiche ritenute in un primo tempo an-cillari rispetto alla descrizione di base, ma che, al crescere della raffinatezza della rappresentazione modellistica diventano fondamentali sia dal punto di vista qualitativo che quantitativo. È possibile tener conto del contributo di questi fenomeni solamente attraverso l’utilizzo massiccio di potenti supercalcolatori, a causa dell’enorme mole di calcoli necessari affinché essi siano adeguatamente “risolti” alla risoluzione spaziale e temporale ne-cessaria, anche su scenari geografici relativamente poco estesi.

WEATHER COMPUTING: L’INDISSOLUBILE

LEGAME TRA METEOROLOGIA E HPC

Pier Francesco Coppola

coppola@meteoam.it Servizio Meteorologico Aeronautica Militare

Piero Lanucara

p.lanucara@caspur.it

Gruppo di Matematica Computazionale ed Applicazioni del CASPUR

Fig. 1Immagine dell’attrattore di Lorenz divenuta il simbolo della teoria del caos.

(2)

falla” introdotto da E. Lorenz per esplicitare la non linearità delle equazioni che governano l’atmosfera ovvero la dipendenza dell’evoluzione dell’atmosfera dalle condizioni iniziali.

Questa caratteristica impone che, per ottenere previsioni meteorologiche attendibili, lo stato iniziale dell’at-mosfera evoluto dai modelli numerici sia il più possibile aderente alla realtà. In linea teorica ciò è possibile solo con un certo margine di approssimazione a causa degli ineliminabili errori strumentali con cui è possibile misurare le variabili atmosferiche e per l’indisponibilità di misure accurate.

Ciò rende possibile seguire due approcci: uno deterministico, in cui si cerca di fornire ai modelli le condizioni iniziali il più aderenti possibile allo scenario rilevato, ed un altro di tipo stocastico, in cui si utilizza l’Ensemble Fo-recasting per produrre un cluster di stati iniziali leggermente diversi, tutti compatibili con le misure effettuate, e che vengono “evoluti” indipendentemente l’uno dall’altro. L’affinità degli scenari di evoluzione contenuti nel cluster viene quindi utilizzata per produrre una quantificazione probabilistica della previsione.

Risulta evidente che, definita l’unità, il carico computazionale associato all’approccio deterministico di un modello numerico di previsione, relativo all’Ensemble Forecasting, può essere quantificato approssimativamente nella di-mensione n del set di stati iniziali selezionati. Poiché tanto maggiore è n tanto più aumenta il numero degli scenari di previsione che risultano compresi nella previsione finale, accade che diventi molto frequente, in questo approccio, assorbire tutte le risorse di calcolo a disposizione e che si debba necessariamente ricorrere ad una forma di com-promesso tra la raffinatezza della descrizione modellistica utilizzata ed i tempi di esecuzione computazionale.

La disponibilità crescente di risorse di calcolo ha, inoltre, consentito di raffinare sempre più la descrizione modellistica; fenomeni inizialmente ritenuti ancillari nella descrizione di base sono oggi inseriti in forma para-metrizzata nei modelli. Essi sono assai rilevanti da un punto di vista qualitativo e quantitativo sia per le complesse dinamiche di “feedback” che essi generano sia per l’accuratezza delle previsioni meteorologiche richiesta al giorno d’oggi. Basti pensare, ad esempio, a cosa accade se si aggiunge nella descrizione dello scenario di pre-visione la presenza di un piccolo specchio d’acqua al suo interno. I valori di temperatura dell’aria in prossimità di un certo intorno dello specchio d’acqua sono condizionati dalla diversa capacità termica dell’acqua rispetto al terreno circostante ed anche la circolazione dell’aria in determinate condizioni ne risulta modificata per l’instau-rarsi di microcircolazioni di brezza. In questo modo all’interno del modello atmosferico ospite vengono a risiedere (o possono risiedere in funzione delle risorse di calcolo disponibili) tutta una serie di “sub-modelli” ognuno dei quali produce il proprio contributo ad ogni step di integrazione temporale. In quest’ottica tutti i modelli meteo-rologici ospitano un modello di suolo, una microfisica delle nubi, un modello di radiazione solare, etc. Con un processo del tutto analogo è inoltre possibile accoppiare modelli numerici afferenti ad aspetti scientifici diversi, come ad esempio atmosfera-mare, dove un modello atmosferico può fornire l’opportuna forzante ad un modello oceanografico oppure ad uno del moto ondoso.

Risulta evidente come l’effettiva discriminante della possibile articolazione e complessità di un sistema di generazione delle previsioni sia in effetti la potenza di calcolo a disposizione e come gli sviluppi tecnologici possano cadenzare lo sviluppo di un Centro Meteorologico di Previsione.

Il più importante centro di previsioni meteorologiche in Europa, lo European Center for Medium-Range Wea-ther Forecasts (ECMWF), ad esempio, ha sviluppato ed utilizza operativamente un modello globale (ovvero con copertura geografica globale), declinato sia secondo l’approccio deterministico sia secondo l’approccio stocastico anche accoppiato ad un modello del moto ondoso relativo agli oceani e alle principali acque interne della Terra. L’inizializzazione del modello avviene mediante un sofisticato schema di assimilazione dati in cui convergono tutte le osservazioni raccolte sia in situ sia in telerilevamento, successivamente viene valutata la qualità di tale inizializzazione, vengono ricondotte le osservazioni alla griglia orizzontale del modello e poi confrontate con un’uscita precedente del modello per valutarne l’attendibilità attraverso la stima dello scostamento.

Questo sistema complesso ed integrato necessita di una grande potenza di calcolo e di un sistema di tratta-mento dei dati allo stesso tempo capiente ed estremamente performante. Presso l’ECMWF viene attualmente utilizzato un sistema IBM composto da due cluster p690+, ciascuno dei quali in grado di produrre una prestazione di picco pari a 156.42 TFLOPS per cluster ed una potenza totale di 312.84 TFLOPS.

Potenze analoghe sono richieste per le previsioni meteorologiche short-range che fanno uso dei cosiddetti Limited Area Model (LAM) ad altissima risoluzione spaziale, che vengono innestati in un modello a scala più 52

(3)

HPC

53 grande da cui periodicamente ricevono le condizioni

al contorno per evitare scenari di evoluzione indipen-denti dal contesto generale.

In questo ambito è fondamentale il ruolo giocato dal Centro Nazionale di Meteorologia e Climatologia Aeronautica di Pratica di Mare (CNMCA) all’interno del quale vengono eseguite operativamente un certo numero di istanze di modelli numerici ad area limi-tata con risoluzioni sempre più spinte fino a 2.8 km di risoluzione orizzontale. Tali modelli vengono svi-luppati e condivisi nell’ambito del Consortium for Small-scale Modeling (COSMO), all’interno del quale partecipano, oltre all’Italia, altre importanti organiz-zazioni meteorologiche di Germania, Svizzera, Grecia, Polonia, Romania e Russia.

Grazie a questi modelli, il CNMCA produce una molteplicità di prodotti meteorologici che vengono successivamente vagliati ed utilizzati dal personale addetto alla formulazione delle previsioni sia dell’Ae-ronautica Militare che di altre organizzazioni “terze”, tra le quali le più importanti emittenti televisive nazionali. A questo proposito non meno importanti risultano le attività relative al cosiddetto post-processing ovvero a quel complesso di attività che operando sulle uscite dei modelli genera prodotti meteorologici a valore aggiunto. In particolare la problematica della presentazione delle previsioni meteorologiche può essere computer demanding allo stesso livello dei modelli numerici stessi, come ad esempio può essere nel caso di presentazioni in realtà virtuale.

Mantenere ed aggiornare tali potenze di calcolo e di storage è un compito che comporta, dunque, notevoli problematiche di gestione (hardware e software) e soprattutto infrastrutturali. Di fatto potenze di calcolo sempre più spinte richiedono, spesso, nuovi investimenti e di fatto una potenza energetica sempre più inquietante (que-sta potenza è maggiormente utilizzata per condizionare i locali ospitanti i sistemi di calcolo e dissipare l’enorme quantità di calore prodotto).

Per questo ed altri motivi, parametri come performance/watt sono divenuti fondamentali come e più della nuda e cruda potenza di calcolo (Picture Linpack).

È dunque evidente come la ricerca di architetture di High Performance Computing innovative possa consentire di risolvere questi nuovi problemi che si affacciano all’orizzonte delle previsioni meteorologiche del nuovo millennio. Sotto questo aspetto il General Purpose GPU (GPGPU) computing sembra essere il nuovo paradigma che dovrebbe consentire di avere un’enorme potenza di calcolo ad un costo (anche energetico) estremamente contenuto. Il CA-SPUR e il CNMCA, all’interno del loro agreement istituzionale, sono particolarmente attenti a questa spinta inno-vativa, che porterà ad una collaborazione mirata in cui verranno affrontate le problematiche relative al porting di tutto (o parte) del modello COSMO operativo sul cluster di GPU, denominato Jazz, installato al CASPUR.

Questa attività, che è pienamente inserita all’interno di quelle del consorzio COSMO, richiederà di riscrivere alcune parti dei modelli numerici da loro utilizzati, per sfruttare al meglio la presenza delle GPU. Fortunatamente, l’ambiente di programmazione CUDA (attualmente alla release 4.0) consente di avere un ambiente maggior-mente user-friendly rispetto al passato per lo sviluppo di kernel computazionali. Insieme ad iniziative mirate sul lato Fortran (collaborazione NVIDIA-PGI), questo ambiente dovrebbe consentire di esplorare in modo approfondito questo affascinante ambito di ricerca.

BIBLIOGRAFIA ESSENZIALE:

Lorenz, E.N. (1963). Deterministic Nonperiodic Flow, J. Atmos, Sci, 20, 130.

Pielke, R.A. (1984). Mesoscale Meteorological Modeling, 1stEdition, Academic Press, New York.

Riferimenti

Documenti correlati

Questi esempi non esauriscono la classe delle funzioni integrabili: esistono anche funzioni integrabili discontinue in un insieme infinito di punti..

Supponiamo di essere arrivati a un certo passo della costruzione e di saper costruire tutti i punti del piano che hanno coordinate appartenenti a un certo campo di numeri F..

Per fortuna l’informatore decide di aiutare ancora l’ispettore fornendogli indizi proprio attraverso il computer. Il numero

Finalmente arrivano informazioni sul complice della Signora Violet, l’abilissima ladra arrestata da Numerik.. Gli indizi sono contenuti in una busta chiusa: l’ispettore Numerik la

Prova a completare il percorso ricordando che ogni numero è maggiore di uno rispetto al suo precedente:. Ecco formato il numero cento

1) violazione e falsa applicazione dei principi di imparzialità, trasparenza e par condicio competitorum; violazione del principio di concorrenza; eccesso di potere per

3 Sulla normativa in questione si sono succeduti vari orientamenti a partire da quello fornito dal Dipartimento della funzione pubblica con la circolare n. 1/2013.,

L’accessibilità non è un optional o, peggio ancora, una gentile concessione da “elargire” alle persone con disabilità, ma un diritto da garantire in partenza a tutti i