• Non ci sono risultati.

Convegno EuroPVM/MPI 2004 a Budapest

N/A
N/A
Protected

Academic year: 2021

Condividi "Convegno EuroPVM/MPI 2004 a Budapest"

Copied!
2
0
0

Testo completo

(1)

SUPERCALCOLO

20 BOLLETTINO DEL CILEA N.94OTTOBRE 2004

Convegno EuroPVM/MPI 2004 a Budapest

Paolo Ramieri

CILEA, Segrate Abstract

Il convegno Euro PVM/MPI 2004 a Budapest si è occupato dei recenti sviluppi nel campo del calcolo ad alte presta-zioni, mettendo a confronto numerosi specialisti del settore e affrontando molteplici argomenti di interesse: dall’ottimizzazione di algoritmi a problemi applicativi, dal miglioramento delle prestazioni di calcolo al futuro della tecnologia GRID.

Keywords: MPI, GRID, supercalcolo.

L’undicesima edizione del convegno interna-zionale EuroPVM/MPI [1] ha avuto luogo dal 19 al 22 settembre scorsi a Budapest. E’ stata una prestigiosa occasione di confronto tra i maggiori utilizzatori delle moderne tecnologie del calcolo parallelo, in particolare per quanto riguarda l’ottimizzazione dei codici, la verifica e il con-fronto di algoritmi, la soluzione di problemi le-gati al mondo dei cluster, l’utilizzo di PVM e MPI nelle moderne sfide che il supercalcolo de-ve affrontare (per esempio nel campo della bioinformatica o della ricerca genetica) e la scel-ta della migliore proposscel-ta per risolvere un pro-blema applicativo, in base all’approccio di calcolo e all’hardware a disposizione.

Anche PVM, che a prima vista può sembrare obsoleto ed ampiamente superato da MPI nell’ambito delle librerie per lo scambio di mes-saggi tra processori cooperanti, è stato ampia-mente rivalutato e presentato come tecnologia fondamentale per innumerevoli applicazioni di tipo GRID.

Fig. 1 - Il logo dell’ente organizzatore

Il convegno, organizzato dal MTA SZTAKI di Budapest [2], ha registrato la presenza di alcuni nomi molto noti del settore, su tutti quello dell’onnipresente Jack Dongarra, vero guru del

calcolo parallelo a livello mondiale. Anche la ri-cerca italiana ha offerto alcuni importanti con-tributi, grazie agli interventi di Domenico Lafo-renza e Diego Puppin dell’ISTI-CNR di Pisa [3] e di Umberto Villano del Dipartimento di Inge-gneria dell’Università degli Studi del Sannio [4]. Contemporaneamente a EuroPVM/MPI e sfruttando la sperimentata formula delle sessio-ni parallele, si è svolto anche il convegno DAPSYS [5], giunto alla quinta edizione, che ha fornito non solo ottimi spunti tecnici ma anche uno spaccato della situazione nel settore del cal-colo ad alte prestazioni nel cuore della Vecchia Europa.

Fig. 2 - Panorama di Budapest, città che ha ospitato l’evento

Il programma del convegno prevedeva per ogni giornata una sessione plenaria iniziale, du-rante la quale alcune personalità del settore

(2)

SUPERCALCOLO

BOLLETTINO DEL CILEA N.94OTTOBRE 2004 21

hanno avuto modo di esporre la situazione mon-diale del calcolo parallelo e dell’utilizzo di MPI, illustrando anche interessanti progetti o speri-mentazioni di particolare rilievo.

Successivamente, i numerosi argomenti trat-tati dai relatori sono strat-tati affrontrat-tati in sessioni parallele; per esempio, una sessione era dedica-ta all’efficienza: venivano perciò esposte le me-todologie per ottenere il miglior risultato possi-bile nel minor tempo, lavorando con attenzione su algoritmi esistenti, sfruttandone tutte le po-tenzialità in funzione dell’hardware su cui ope-rano e rendendoli flessibili alle esigenze di calco-lo.

In altre sessioni ci si occupava di nuovi algo-ritmi, originariamente pensati per particolari applicazioni ma di sicuro interesse per un possi-bile riutilizzo per affrontare problemi di più am-pio respiro. Erano anche illustrati algoritmi che invece attendevano solo un’applicazione pratica per dimostrate tutta la loro potenzialità.

Il futuro di GRID è stato un altro argomento di forte impatto: è stata fatta una panoramica dei lavori in corso, dei risultati già ottenuti e delle tante sfide ancora da affrontare per rag-giungere finalmente la frontiera della “computa-zione globale”.

Anche gli strumenti di controllo e la valuta-zione delle prestazioni di calcolo raggiunte han-no avuto il loro momento di gloria: è stato dato uno sguardo a come monitorare l’intero proces-so di calcolo e a come stanare eventuali proble-mi all’interno dei codici utilizzati, avendo così l’opportunità di effettuare i necessari interventi correttivi.

Infine, anche il mondo applicativo ha avuto un posto di rilievo, analizzando i campi in cui le tecniche di calcolo parallelo sono già ampiamen-te sfruttaampiamen-te (per esempio in biologia, in nano-tecnologia, in climatologia e nella sicurezza nu-cleare) e quali migliorie sono ancora apportabili nell’approccio ai problemi reali.

Il convegno è terminato con la volontà di raccogliere la sfida di raggiungere la soglia del PetaFlops nelle prestazioni di calcolo (il massi-mo valore attuale e’ pari a circa 35 TeraFlops [6]) e per fare questo non bastano solo le più a-vanzate risorse hardware ma anche un uso ac-corto ed efficiente del software tramite soluzioni innovative.

Bibliografia

[1] European PVM/MPI Users’ Group Meeting, URL: http://www.lpds.sztaki.hu/pvmmpi/ [2] Computer and Automation Research

Insti-tute of the Hungarian Academy of Science, URL: http://www.sztaki.hu

[3] Istituto di Scienza e Tecnologie dell'Informa-zione "Alessandro Faedo", CNR di Pisa, URL: http://www.isti.cnr.it

[4] URL: http://www.ing.unisannio.it

[5] Austrian-Hungarian Workshop on Distrib-uted and Parallel Systems

Figura

Fig. 1 - Il logo dell’ente organizzatore

Riferimenti

Documenti correlati

Per l’attribuzione meccanicistica dei frammenti al Maestro, invece, sulla base della forma verbale ‘respondit’, conte- nuta in alcune testimonianze di Alfeno, laddove manca

Non sono state invece riscontrate differenze tra i due gruppi nei punteggi

Dopo aver valutato differenti tipi Augmented Reality, si è proposto un sistema basato sull’approccio Spatial Augmented Reality, del quale è stato realizzato un progetto, sia a

• Ogni processo deve essere consapevole di quanti sono i processi in

• Ogni processo deve essere conoscere quanti sono i processi in

– Preleva dalla memoria l'istruzione da eseguire; l'istruzione viene prelevato dall'indirizzo di memoria che si trova in PC; il contenuto di tale cella di memoria viene posto in IR.

MPI_Cart_rank: sulla base della topologia definita all’interno del comunicatore, ritorna il rank del processo con un fissato set di coordinate cartesiane.. [IN] nnodes: numero

count è di tipo int e contiene il numero di elementi del send buffer dtype è di tipo MPI_Datatype e descrive il tipo di ogni elemento del send buffer. dest è di tipo int e contiene