• Non ci sono risultati.

Germi oscuri

Fin dagli anni Trenta del secolo scorso, studi sulla dinamica degli ammassi di ga-lassie rivelarono un’inspiegabile anomalia: le velocità delle gaga-lassie che ne fanno parte sono troppo elevate perché gli ammassi abbiano a conservare stabilmente la loro struttura. È come se in una giostra a seggiolini l’addetto, evidentemente im-pazzito, facesse girare il motore sempre più velocemente: i seggiolini si alzano in quota, ruotano in cerchi paralleli al suolo sempre più vorticosamente, fino a quando le catene che li tengono vincolati alla colonna centrale, non potendo reg-gere alla forza centrifuga, si spezzano e i malcapitati partecipanti al gioco vengono fiondati lontano per la tangente. Nel caso degli ammassi, la catena che dovrebbe trattenere le singole galassie è la forza di gravità esercitata dalla massa totale del-l’ammasso. E quant’è la massa? La si può stimare dalla potenza luminosa emessa da tutte le stelle di tutte le galassie presenti. Tanta luce, tanta massa; poca luce, poca massa. Poiché le velocità delle singole galassie, misurate direttamente per effetto Doppler, risultavano troppo elevate perché le “catene” potessero reggere, l’astronomo svizzero-americano Fritz Zwicky (1898-1974), iniziatore di questi studi, propose che dentro gli ammassi doveva evidentemente trovarsi un extra di massa in grado di garantire la sopravvivenza e la stabilità di questi sistemi. Massa che evidentemente non emette luce e che per questo era sfuggita alle stime. Nac-que così il concetto di materia oscura.

Secondo Zwicky, il contributo della materia oscura alla massa totale degli

am-massi era addirittura centinaia di volte superiore a quello della materia luminosa.

A conclusioni analoghe – non però così estreme sul piano quantitativo – si giunse nei decenni successivi dagli studi sulla stabilità delle galassie a spirale: anche in questo caso, le stelle delle regioni più esterne mostrano di avere velocità eccessi-vamente elevate, incompatibili con la quantità di materia luminosa della galassia.

Oggi infatti si ritiene che le spirali siano avvolte in vasti aloni massicci di materia oscura.

Altre prove dell’esistenza di questa misteriosa componente materiale vengono dall’analisi di fenomeni particolarmente spettacolari, noti come lenti gravitazio-nali, in cui la luce di lontane sorgenti viene deflessa dal suo percorso rettilineo quando deve attraversare il campo gravitazionale di un oggetto massiccio – la lente gravitazionale – prima di giungere a noi. L’immagine che riceviamo è de-formata: se la sorgente è una galassia, in genere la osserviamo stirata in una di-mensione, arcuata, ingrandita; se è un quasar, può capitare che di un unico oggetto si ricevano due o più immagini! Per spiegare l’entità della deflessione, il campo di gravità della materia luminosa dell’oggetto-lente non è sufficientemente intenso.

Bisogna invece ipotizzare una massiccia presenza di materia oscura, distribuita negli aloni galattici, o nel mezzo intergalattico degli ammassi, al fine di giustificare

Indizi dell’esistenza di vasti aloni di materia oscura che avvolgono le galassie vengono dal con-fronto tra le velocità di rivoluzione delle loro stelle attorno al centro, calcolate in base alla quantità di materia luminosa presente nella galassia (curva “prevista”), e quelle effettivamente osservate, che sono sistematicamente maggiori. La materia oscura garantisce l’extra massa che tiene unite le galassie. La curva delle velocità stellari si riferisce alla galassia NGC 3198, nell’Orsa Maggiore.

(John Vickery and Jim Matthes/Adam Block/NOAO/AURA/NSF)

ciò che si osserva. Un indizio ancor più recente viene dallo studio degli scontri tra ammassi di galassie, osservati in ottico e nei raggi X. In definitiva, per i co-smologi del XXI secolo la materia oscura è un ingrediente fondamentale e impre-scindibile in ogni modello, che si impone con forza, essendo suggerito da una molteplicità di osservazioni.

Ma di cosa è fatta la materia oscura? Sappiamo che non emette luce, o che la emette in misura non apprezzabile. Se si trattasse di materia barionica, dovremmo pensare a deboli sorgenti ottiche come sono i pianeti, le nane brune, le nane bian-che antibian-che di miliardi di anni bian-che hanno avuto il tempo di raffreddarsi, le nubi gassose estremamente rarefatte, i buchi neri..., tutti oggetti che i telescopi ottici avrebbero difficoltà a rivelare. Però dovremmo accettare l’idea che l’Universo tra-bocchi di sorgenti siffatte, visto che il rapporto di massa con le sorgenti luminose potrebbe essere di dieci o addirittura di cento a uno, come riteneva Zwicky. Tutto ciò è poco credibile. In aggiunta, abbiamo appreso più sopra che v’è un ben preciso limite superiore alla densità della materia barionica, fissato al 4-5% della densità critica, e tale limite resta ben al di sotto della quantità di materia oscura che si ri-chiede per dar conto della struttura e della dinamica delle galassie e degli am-massi.

La conclusione è che l’eventuale componente barionica della materia oscura è solo una minuscola frazione del totale: il grosso deve essere di natura non-bario-nica. In effetti, i lavori degli ultimi vent’anni concordano nell’attribuire alla ma-teria non-barionica (e perciò oscura) una densità che è circa 6 volte maggiore di quella della materia ordinaria (luminosa e oscura). Come dire che di tutta la com-ponente materiale dell’Universo noi possiamo vedere solo all’incirca il 15%, gra-zie al fatto che essa interagisce per via elettromagnetica, emette luce, oppure intercetta la radiazione e l’assorbe, o la diffonde, mentre ci è preclusa la cono-scenza del restante 85%, che non fa luce, né getta ombre, né interagisce con la materia ordinaria se non attraverso la forza gravitazionale.

Ammettere di non sapere nulla dell’85% della materia universale è decisamente imbarazzante, ma questa è la situazione. E quando ai fisici si chiede di proporre qualche credibile candidato, la risposta che si ottiene è altamente ipotetica e de-cisamente esotica. Forse – ci dicono – si tratta di particelle, come i neutralini, che vengono ipotizzate all’interno delle teorie supersimmetriche. La Supersimmetria è una teoria che ha l’ambizione di superare il modello standard delle particelle elementari. Le particelle di natura non-barionica di cui ipotizza l’esistenza sono generalmente di grande massa e vengono collettivamente denominate WIMP, acro-nimo dall’inglese Weakly Interacting Massive Particles, ossia “particelle massicce debolmente interagenti”. Quanto poco interagiscono lo dimostra il fatto che diversi laboratori in varie parti del mondo sono impegnati in esperimenti tendenti a rive-larle, ma finora senza successo: tali fantomatiche particelle, che sono ancor più inafferrabili dei neutrini, possono infatti attraversare da parte a parte non solo il rivelatore predisposto dai fisici per catturarle, ma l’intero pianeta, senza mai in-contrare un atomo contro cui impattare e che, rinculando, ne segnali il passaggio.

Ce ne dovrebbero essere così tante che ogni secondo almeno diecimila neutralini attraversano l’unghia del nostro pollice. La loro massa dovrebbe essere superiore a una trentina di volte quella del protone.

In verità, nei laboratori del Gran Sasso, i ricercatori dell’esperimento DAMA/LIBRA hanno annunciato nel 2008 di avere finalmente rivelato particelle di materia oscura dell’alone della nostra Galassia; l’annuncio è stato ribadito nel

2010, a seguito di nuove misure raccolte dopo un upgrade strumentale, ma le con-clusioni continuano a non convincere la comunità scientifica internazionale, che critica il metodo adottato dai fisici italiani e si chiede come mai altri laboratori non riescano a ottenere gli stessi risultati da esperimenti analoghi.

Tornando alle anisotropie della CBR, c’è da tener conto che l’Universo primor-diale doveva essere popolato non solo da particelle di materia ordinaria, barioni e leptoni, ma anche da particelle di materia oscura non-barionica. Per la loro scarsa propensione a interagire, queste non erano accoppiate né alla materia ordinaria, né alla radiazione. La materia oscura non-barionica viveva una vita a sé e conobbe

Fluttuazioni quantistiche

La meccanica quantistica è la teoria che i fisici hanno sviluppato per descrivere il comportamento del mondo microscopico, alla scala dell’atomo, o inferiore.

La meccanica classica entrò in crisi tra la fine del XIX secolo e l’inizio del XX per l’incapacità di spiegare tutta una serie di fenomeni microscopici, come la stabilità dell’atomo e la sua struttura a livelli energetici discreti, l’effetto fotoelettrico, l’effetto Compton (due modi specifici d’interazione tra i fotoni e gli elettroni) e altri ancora.

La meccanica quantistica ha brillantemente superato queste difficoltà e oggi, dopo un secolo di spettacolari successi nel campo della fisica atomica e nucleare, si è de-finitivamente imposta come il paradigma interpretativo di ogni fenomeno alla scala subatomica.

Alla base della meccanica quantistica v’è l’idea che materia e radiazione abbiano una stessa natura, o, se si vuole, che abbiano una doppia natura: si parla infatti di dualismo ondulatorio-corpuscolare. Nella meccanica classica un’onda e un corpu-scolo sono entità irriducibilmente diverse. Un corpucorpu-scolo (pensiamo a una particella puntiforme) ha, in ogni preciso istante, una ben definita posizione che, in linea di principio, può essere misurata con accuratezza pressoché infinita. Un’onda, invece, è per sua natura un’entità estesa, sia nello spazio che nel tempo. Non è possibile lo-calizzare un’onda nello spazio con una precisione migliore della sua lunghezza d’onda, o nel tempo con una precisione migliore del suo periodo. Nella meccanica classica, onde e corpuscoli sono concetti antitetici.

La meccanica quantistica ci insegna invece che le particelle materiali, che sono di natura corpuscolare, esibiscono anche qualità tipicamente ondulatorie e che la luce, o i raggi X, di natura ondulatoria, possono comportarsi anche come corpuscoli.

Per esempio, gli elettroni possono andare soggetti a interferenza e diffrazione, che nella fisica classica sono fenomeni peculiarmente ondulatori; d’altro canto, l’effetto fotoelettrico e l’effetto Compton vengono spiegati in modo molto naturale quando si attribuiscono alle onde luminose grandezze e comportamenti caratteristici dei cor-puscoli. A livello microscopico non esiste più la netta distinzione tra onda e corpu-scolo: la materia incarna entrambe le nature che, a livello macroscopico, sono inconciliabili e contrapposte.

Una conseguenza di ciò è il fondamentale principio d’indeterminazione di Hei-senberg. Esistono coppie di variabili, che sono dette coniugate, come la posizione e la quantità di moto di una particella, oppure il tempo e l’energia, che non sono misurabili simultaneamente con una precisione assoluta. Non si tratta di un limite imposto dall’inadeguatezza degli strumenti: l’indeterminazione è una conseguenza del dualismo ondulatorio-corpuscolare della materia. Se misuriamo le due grandezze

un’evoluzione autonoma rispetto alla componente materiale ordinaria. I barioni venivano attratti dalle regioni di maggiore densità, ma non potevano costituire veri e propri “grumi densi”, destinati via via a crescere nel tempo, per l’opposi-zione della radial’opposi-zione: dove c’era maggiore densità di materia v’era anche mag-giore pressione di radiazione da parte dei fotoni che, come poliziotti sospettosi e inflessibili di uno stato autoritario, mal sopportavano gli assembramenti e li scio-glievano manganellando senza sosta barioni e leptoni. La pressione di radiazione era però inefficace con le particelle non-barioniche, con le quali i fotoni non in-teragiscono, cosicché ciò che era proibito agli uni era consentito alle altre.

in tempi diversi nulla vieta che i risultati siano assolutamente precisi; se però le misure sono simultanee, quanto più precisa sarà la prima, tanto meno lo sarà la seconda.

Considerando la coppia di variabili coniugate tempo ed energia, le misure sa-ranno affette da indeterminazioni Δt e ΔE tali che:

Δt · ΔE ≥ h / 4π

dove h è la costante di Planck (h = 6,63 × 10–34J·s). La (8.1) è la formulazione matematica del principio enunciato dal fisico tedesco Werner K. Heisenberg (1901-1976), uno dei padri della meccanica quantistica.

Facciamo un esempio. Se volessimo misurare l’energia che una particella pos-siede in un ben preciso istante, circoscritto entro 10–15s, non potremmo mai otte-nere un risultato che sia più preciso di ΔE = h / (4π · Δt) = 5,3 · 10–20J. E se riducessimo ulteriormente l’intervallo temporale, per esempio di un milione di volte, così da precisare meglio l’istante in cui si compie la misura, avremmo un’in-determinazione sull’energia che sarà almeno un milione di volte maggiore.

Immaginando di continuare di questo passo, riducendo sempre più l’intervallo temporale Δt, si giunge a un punto in cui l’indeterminazione sull’energia è così grande da essere confrontabile con l’equivalente in massa di una coppia di par-ticelle, per esempio un elettrone e un positrone. Un’indeterminazione di tale en-tità lascia aperta la possibilità che la coppia si materializzi dal nulla, a patto che resti in vita solo per quel tempo Δt infinitesimale, trascorso il quale andrebbe in-contro all’annichilazione, restituendo al vuoto l’energia ΔE presa in prestito per concedersi un’effimera esistenza.

In ogni punto dell’Universo, anche là dove non esiste nulla, né materia, né ra-diazione, ove c’è il vuoto più assoluto, alle più piccole scale spaziotemporali è presente un’incessante attività di questo tipo, di creazione e annichilazione di particelle. Il vuoto è come un mare leggermente mosso: se ne guardiamo la su-perficie da lontano, ci sembrerà globalmente piatta, ma se la studiamo nel detta-glio, su piccola scala, ci renderemo conto che è sede di un’attività estremamente dinamica. D’altra parte, non può esserci “calma piatta” nel mare del vuoto: non è possibile affermare che in un dato punto, in un preciso istante (Δt = 0) non c’è assolutamente nulla, ossia che l’energia è indubitabilmente (ΔE = 0) pari a zero, perché ciò andrebbe contro il principio d’indeterminazione.

Il vuoto è una “sostanza” ribollente di particelle virtuali, che in continuazione nascono dal nulla e nel nulla ritornano. Ci si riferisce a questa incessante ed ef-fimera produzione e distruzione di particelle quando si parla di fluttuazioni quan-tistiche del vuoto.

(8.1)

Fu perciò la materia non-barionica a costituire i primi “grumi densi”, già in epo-che primordiali. I barioni poterono cominciare ad aggregarsi a loro volta attorno a questi germi oscuri solo 380mila anni dopo, successivamente all’era del disaccop-piamento dalla radiazione. Le fluttuazioni di densità che i teorici richiedono per giustificare la formazione delle strutture nei tempi corretti – né troppo ristretti, né troppo dilatati – erano ben presenti all’era della ricombinazione, ma il contributo maggiore era dato dalla materia oscura non-barionica, che non è osservabile. L’ap-porto della materia ordinaria era più modesto: da qui la difficoltà di rilevarlo.

Col tempo, affinando i calcoli e correggendo al ribasso quell’iniziale “una parte su mille”, ci si rese conto che le fluttuazioni di temperatura misurabili sulla su-perficie dell’ultimo scattering dovevano essere comprese fra una parte su dieci-mila e una parte su un milione, e quando finalmente, nei primi anni Novanta, la missione del COBE le misurò dell’ordine di una parte su centomila, il risultato venne accolto come una benedizione. Una decina d’anni dopo, le misure sarebbero state ripetute e confermate dalla WMAP.