• Non ci sono risultati.

Simulazioni al calcolatore e fisica teorica: evoluzione o rivoluzione?

N/A
N/A
Protected

Academic year: 2021

Condividi "Simulazioni al calcolatore e fisica teorica: evoluzione o rivoluzione?"

Copied!
4
0
0

Testo completo

(1)

SIMULAZIONI AL CALCOLATORE

E FISICA TEORICA:

EVOLUZIONE O RIVOLUZIONE?

di Giovanni Ciccotti

Si definisce il concetto di simulazione al calcolatore in opposizione a quello, con cui non è da confondere, di fisica numerica, cioè di calcoli ancillari alla fisica teorica. La simulazione numerica è, invece, costitutiva della moderna fisica teorica. Si chiarisce così anche il perché del successo della moderna fisica teorica nell'aiutare lo sviluppo di scienze complesse quali la chimica, la biologia, la scienza dei materiali etc. e, spesso, anche la tecnologia. Si conclude osservando l'importanza per lo sviluppo scientifico del calcolo ad alte prestazioni e la lungimiranza di quei centri di calcolo che, come il CASPUR, vi hanno investito.

• Abstract

We oppose numerical physics, i.e. numerical calculations serving the needs of traditional theoretical physics, to Computer Simulation (with focus on Condensed Matter). The lat-ter is based on the idea that we can solve, by brute computing power, models of matlat-ter subjected to the exact laws of physics. In the case of Condensed Matter that amounts to solve the Schroedinger equation or, possibly, justified approximations to it and apply to the mechanical solution so obtained the rules of Statistical Mechanics. By this token Computer Simulation has established itself as the key tool of Theoretical Physics to which it has become constitutive. Let us refer to that as to the modern Theoretical Physics. It is not an exaggeration to say that this process - still now not completely un-derstood by the traditional theoreticians - has been much more a revolution than a simple evolution of the discipline. So much so that today the predictive power of Physics has gone largely beyond its historical boundaries invading (and being in part reshaped by) not only Chemistry and its related disciplines but also Biology, Materials Science etc: from simple fluids to human immune response! The paper presents briefly the fun-damental tools of this approach (Monte Carlo, Molecular Dynamics, Ab initio, Path In-tegrals, etc) and discusses the ingredients of its present success. Special merits go to algorithms and the specific techniques developed in the domain of High Performance Computing. Special credits are due to the computing centres, like CASPUR, which have understood the importance of the field and invested in it.

Prof. Giovanni Ciccotti

Sapienza, Università di Roma Dipartimento di Fisica giovanni.ciccotti@roma1.infn.it

(2)

36

di fisica computazionale. L’aumento esponenziale di potenza dei calcolatori ha poi reso più interessante l’investimento e l’uso del calcolo di alte prestazioni si è comunque sviluppato rapidamente e potentemente. Questa è una naturale evo-luzione di un progresso tecnico ed in sé non crea né particolari aspettative né grande interesse. Tuttavia non è assolutamente di questo che vogliamo qui parlare ma di un uso diverso, e questo sì rivoluzionario, del calcolo e dei calcolatori: quello della simulazione al calcolatore.

Vediamo di che si tratta e cerchiamo di capirlo concentrandoci non sulla fisica in generale ma su quella parte che va sotto il nome di Materia Condensata, che si occupa cioè del comportamento di pezzi di materia in condizioni non estreme (escludiamo, cioè, scale infinitamente grandi o piccole, e temperature o pressioni molto lontane dai valori abituali sulla terra). Per questi sistemi, che comprendono fluidi e solidi semplici, materiali complessi a molte componenti e perfino materiali biologici, le leggi che li governano, sulle scale spaziali e temporali rilevanti, sono note e, in linea di principio, ben capite: per il problema quantistico a molti corpi, l’equazione di Schroedinger per i nuclei e gli elettroni interagenti con forze di Coulomb; per il comportamento macroscopico del sistema, la meccanica statistica che permette di ottenere i comportamenti medi del sistema microscopico a tem-perature non nulle. La conoscenza delle leggi, tuttavia, leggi implicite di natura matematica, dice ben poco sul comportamento del sistema di interesse. Già solo il calcolo del comportamento degli elettroni è una sfida irresolubile con tecniche analitiche o semianalitiche e resta comunque un problema aperto della chimica quantistica; per non parlare dei calcoli richiesti dalla meccanica statistica che sono eseguibili se si riesce a ridurre il problema da trattare a quello di un sistema di particelle (o quasi particelle) indipendenti. Se questo accade per i gas ideali, i si-stemi paramagnetici o i cristalli armonici, i casi più interessanti rimangono inac-cessibili, riducendo così a relativamente poca cosa il potere predittivo della fisica teorica. Questa è stata tuttavia la situazione della teoria della materia condensata fino a circa cinquant’anni fa e le possibilità aperte dal calcolo numerico mediante faticosi calcoli perturbativi non è certo stato in grado di cambiarla. Tuttavia l’av-vento dei calcolatori ha fatto molto più di questo perchè ha permesso di “inven-tare” la simulazione al calcolatore, un modo completamente nuovo e promettente di affrontare il problema. Si tratta di questo: invece di tentare una soluzione ana-litica del problema in esame, si definisce un modello opportuno del sistema che si vuole studiare (per esempio gli atomi/ioni sono punti materiali dotati di massa/carica che si muovono nel campo generato dagli elettroni-modello giu-stificato nelle condizioni di validità dell’approssimazione di Born-Oppenheimer), si applicano al sistema le leggi note della fisica ed il calcolatore risolve di bruta forza quelle leggi. Un mondo nuovo ed eccitante si apre al ricercatore: la possibilità di calcolare le conseguenze delle leggi della fisica e, quindi, di valutarne al tempo stesso la ricchezza predittiva e, eventualmente, se la predizione non fosse con-fermata dagli esperimenti, il limite di validità. Questa situazione ora non si pre-senta più solo in casi limitati e per i comportamenti più semplici (gas quasi ideali, solidi quasi armonici, etc.), essa si estende a casi e fenomeni complicati (molecole e materiali complessi quali polimeri o sistemi biologici, transizioni di fase-feno-meni notoriamente altamente cooperativi non trattabili con approssimazioni di

CASPUR ANNU

AL REPOR

T EDIZIONE 2009

(3)

campo medio etc.) con il solo limite della potenza di calcolo e dell’intelligenza di saper creare modelli opportuni ed algoritmi efficienti. La simulazione al calcolatore in materia condensata può ora predire e spiegare proprietà di materiali in equili-brio così come importanti processi di non equiliequili-brio che hanno luogo nel mondo inanimato ma anche su su, fino alla cella vivente. Grazie alla simulazione la fisica teorica ha invaso e pervaso di sè (con la sua esattezza e capacità di controllo della natura) campi finora impensabili: tutte le scienze esatte e naturali cominciano a parlare un linguaggio omogeneo e a poter collaborare. Le conseguenze di questo stato di cose sono molteplici, tutte molto promettenti ma difficili da digerire e predire. Molte sono state le resistenze ed ancora non possiamo dire che tutte siano state superate. Ciò è talmente vero che, per anni, i “simulatori” hanno amato dire che la simulazione non era né fisica sperimentale né fisica teorica ma una terza via che poteva essere di complemento all’una ed all’altra. Niente di più falso! La sola giustificazione possibile per una tale mistificazione è il senso di debolezza della comunità dei praticanti che hanno cercato così di difendere il loro diritto al-l’esistenza. In realtà la simulazione al calcolatore è fisica teorica di pieno diritto di cui rappresenta, come significativa evoluzione, il significato ed il programma in tutta la sua potenza. Ritengo che non sia né retorico né iperbolico dire che la più grande eredità che ci ha lasciato il ventesimo secolo è proprio il calcolatore: non semplicemente come realizzazione in sé (cosa questa già da sola non trascurabile), ma in quanto strumento di liberazione di enorme creatività intellettuale e di strut-tura portante del progresso scientifico, tecnologico e sempre più sociale.

Gli strumenti fondamentali di questa conquista sono stati due: il metodo Monte Carlo (soprattutto nella versione di Metropolis, anche chiamata di importance sampling, 1953) [1,2] e la Dinamica Molecolare (1957) [3,4]. Essi risolvono il pro-blema fondamentale della meccanica statistica (il calcolo dei comportamenti medi e delle loro fluttuazioni in modelli microscopici realistici di materiali) rispettiva-mente dal punto di vista di Gibbs (teoria degli ensemble) o di Boltzmann (signi-ficato statistico dell’evoluzione temporale di un microsistema su tempi abbastanza lunghi). Si è cominciato con il calcolo dell’equazione di stato di un fluido di dischi duri per passare alle transizioni di fase dello stesso sistema e poi, via via, a sistemi “realistici”, atomici e molecolari (a partire dal comportamento dei gas rari nei vari stati di aggregazione) e a calcoli sistematici di energie libere. Ognuno di questi progressi ha richiesto estensioni delle tecniche di base [5]: algoritmi nuovi e più efficienti di campionamento (nel Monte Carlo, mosse collettive, a cominciare dal-l’algoritmo di cluster di Swendsen e Wand; il metodo cosiddetto dell’umbrella GIOVANNI CICCOTTI

Figura 1

Processo di amorfizzazione di una nanoparticella di silicio cri­ stallino supportata in una ma­ trice di ossido di silicio.

a) La nanoparticella prima del

processo di amorfizzazione; b) la nanoparticella durante il pro­ cesso di amorfizzazione; c) la nanoparticella amorfa.

37

(4)

sampling, multicanonical sampling, parallel tempering, etc.); o, in Dinamica Mo-lecolare, contrazione di gradi di libertà con l’introduzione di vincoli o di procedi-menti di integrazione con passi di integrazione differenti; accoppiamento del sistema simulato al mondo esterno (cioè simulazioni in vari ensemble); simula-zioni di non equilibrio; simulasimula-zioni di dinamica molecolare ab initio; estensione a sistemi quantistici bosonici (con il metodo dei path integral) o fermionici (pro-blema quest’ultimo ancora lontano da una soluzione soddisfacente) etc. Questo misto di intelligenza computazionale e di maggiore potenza di calcolo e flessibilità degli strumenti informatici, a partire da quelli grafici, ha permesso di entrare con-tinuamente in nuove fenomenologie che ora spaziano senza soluzione di conti-nuità dai fluidi semplici alla risposta immune umana e molto di più è già in vista, per non parlare dei progressi in ambito quantistico che delineano una nuova fase nella scienza dei materiali e dei dispositivi [6]. Questa situazione che, nel linguag-gio di Kuhn, ben noto filosofo della scienza, dovrebbe definirsi piuttosto di rivolu-zione scientifica che di scienza normale, richiede intelligenza e mezzi per essere sviluppata. L’investimento riguarda non solo la potenza di calcolo o la creatività scientifica ma passa per la creazione delle competenze e delle strutture gestionali che permettono un uso ottimale del mezzo computazionale. Includo in ciò non solo l’attenzione alle implementazioni ma la semplificazione e ottimizzazione delle procedure per calcolare. In Italia, in questa fase storica, i mezzi sono certa-mente un problema. L’intelligenza, però, no (un pessimista direbbe, non ancora...). È lodevole che al CASPUR questa situazione sia stata capita nel suo giusto signi-ficato, investendo nell’aiuto alle (e, qualche volta, nello sviluppo delle) applicazioni di High Performance Computing (HPC) con grande beneficio per gli ancora non sufficientemente numerosi ricercatori che si occupano di far avanzare questa nuova metodica. Io credo che solo sviluppando insieme i vari elementi che con-corrono allo spettacolare successo della fisica (meglio sarebbe dire delle scienze) computazionale si possa sperare di non rallentarne lo sviluppo (o di non restare indietro nella competizione mondiale, cosa questa molto pericolosa!). È certa-mente un merito non minore del CASPUR aver capito a fondo possibilità e criticità della situazione ed aver investito per creare non caduche strutture di supporto.

• Bibliografia

[1] Metropolis, N., Rosenbluth, A. W., Rosenbluth, M. N., Teller, A. H., & Teller, E. (1953). J.Chem.Phys. 21, 1087.

[2] Binder, K. (1979). Monte Carlo Methods in Statistical Physics, Springer, Berlin. [3] Alder, B. J., & Wainwrigt, T. E. (1956). in Proceedings of the International Symposium on Statistical Mechanical Theory of Transport Processes, Brussels, ed. I. Prigogine, Inter-science, NY, (1958).

[4] Ciccotti, G., & Hoover, W. G. (eds) (1986). Molecular Dynamics Simulation of Sta-tistical Mechanical Systems, North Holland, Amsterdam.

[5] For a collection of reprints of the papers which made the field, see the book: Cic-cotti, G., Frenkel, D., & MacDonald, I. R. (eds.) (1986). Simulation of Liquids and Solids. MD and MC Methods in Statistical Mechanics, North Holland, Amsterdam.

[6] Ferrario, M., Ciccotti, G., & Binder K. (eds.) (2006). Computer Simulations in Con-densed Matter: From Materials to Chemical Biology, Vols 1,2 Springer, Berlin-Heidelberg.

CASPUR ANNU

AL REPOR

T EDIZIONE 2009

SIMULAZIONI AL CALCOLATORE E FISICA TEORICA: EVOLUZIONE O RIVOLUZIONE?

Riferimenti

Documenti correlati

o  Consideriamo come polo, l’origine del sistema di riferimento inerziale.. Il teorema

Questo tipo di assorbimento di fotoni, `e detto assorbimento diretto, per questo motivo: avremo una variazione del livello energetico, ossia dell’energia E, perch`e come gi`a

All’interno degli involucri che proteggono le parti in tensione possono penetrare parti del corpo delle persone (in genere le mani o le dita) o oggetti metallici di varie

Si assume come pressione massima (sistolica) il punto di ripresa del moto turbolento (inizio del rumore), e come pressione minima (diastolica) il punto di ritorno al moto

[r]

Si assume come pressione massima (sistolica) il punto di ripresa del moto turbolento (inizio del rumore), e come pressione minima (diastolica) il punto di ritorno al moto

[r]

Nell’ultima dozzina di anni, tuttavia, la ricerca fondamentale ha individuato una possibile prospettiva che potrebbe avvia- re lo sviluppo di una nuova tecnologia fotovoltaica di