• Non ci sono risultati.

Panoramica sul sistema di computing

2.2 L’esperimento CMS

2.2.6 Panoramica sul sistema di computing

Le operazioni di immagazzinamento, trasferimento e manipolazione dei dati accumulati durante i run dell’esperimento vengono effettuate dal sistema di computing offline di CMS [18]. Pi`u in dettaglio: attraverso il sistema di acquisizione dati il sistema accetta in tempo reale le informazioni provenienti dal detector, elabora nella maniera pi`u sicura i dati non trattati, applica filtri agli eventi e riduce la grande mole di dati iniziale, supporta le attivit`a di analisi della collaborazione. Il sistema supporta inoltre la produzione e la distribuzione di dati simulati, ed ha accesso alle informazioni riguardanti le condizioni dell’apparato, le informazioni sulla calibrazione e altri dati non riguardanti la sola fisica dell’evento.

Il sistema sfrutta un network molto sviluppato di centri di calcolo in tutto il mondo, interconnessi tra loro da una rete ad alta velocit`a. Viene utilizzato il sistema Grid [19], con i servizi pi`u comuni definiti e gestiti attraverso il progetto WLCG (Worldwide LHC Computing Grid ), una collaborazione

globale che coinvolge pi`u di 170 centri in 34 paesi. Il compito del progetto WLCG `e quello di costruire e mantenere una infrastruttura di raccolta ed analisi dati per l’intera comunit`a di fisica delle alte energie che lavorer`a con LHC.

La natura del programma sperimentale di CMS propone molte sfide per il sistema di computing offline:

• la richiesta di analizzare dataset con una grande statistica pur ricer- cando un segnale decisamente raro, insieme alla granularit`a molto fine del rivelatore di CMS, implica la gestione di una elevata mole di dati; • la necessit`a di avere un sistema dotato di alta flessibilit`a, in modo da

permettere ad ogni utente di accedere a qualsiasi dato registrato o ela- borato durante la vita dell’esperimento, ha portato allo sviluppo di una struttura software che supporti varie metodologie di analisi dati, in modo consistente con gli obiettivi dell’esperimento. Poich`e il pro- gramma di fisica di CMS `e focalizzato sulla scoperta di nuovi fenomeni sotto condizioni sperimentali nuove, non tutti i requisiti possono essere definiti in anticipo.

• la richiesta di semplicit`a di utilizzo sia delle risorse di computing per la fisica, sia del software distribuito su larga scala: la longevit`a del sistema (stimata oltre i 15 anni) implica l’utilizzo di generazioni diverse di componenti hardware e software.

Per queste ragioni le componenti fondamentali del sistema di computing comprendono:

• un modello di dati e la corrispondente struttura di applicazioni; • un insieme di servizi di computing, in grado di fornire gli strumenti per

localizzare, trasferire e processare grandi quantit`a di dati;

• servizi Grid basilari che diano accesso alle risorse di calcolo distribuito; • centri di calcolo che gestiscano ed assicurino la disponibilit`a di spazio

2.2 L’esperimento CMS 83

Formati dei dati

Per ridurre l’ammontare dei dati da immagazzinare nei centri di calcolo di CMS, per permettere agli utenti di accedere facilmente ai dati e per mante- nere una certa semplicit`a di gestione, la collaborazione CMS ha definito vari tipi di dati, per differenti livelli di dettaglio e precisione:

• formato RAW. Contiene tutte le informazioni rilevate dal detector, compreso una registrazione delle decisioni del trigger. Un estensione del formato RAW `e utilizzata per conservare l’output delle simulazioni Monte Carlo di CMS. I dati RAW occupano circa 1.5 MB per evento (2 MB per evento per i dati MC).

• formato RECO. I dati ricostruiti vengono prodotti applicando algo- ritmi CPU-consuming ai dati RAW. Questi algoritmi includono: filtri sulle specifiche del rivelatore; ricostruzioni dei vertici primari e secon- dari; identificazione delle particelle. Questi dati occupano circa 0.5 MB per evento, e contengono informazioni sufficienti per permettere nuove calibrazioni e applicazioni successive senza ricorrere ai dati RAW. • formato AOD (Analysis Object Data). Questo `e il formato pi`u compat-

to, progettato per permettere un’ampia possibilit`a di analisi occupando comunque uno spazio disco sufficientemente piccolo (100 kB per even- to) da permettere la copia completa dei dati sperimentali in formato AOD nei centri di calcolo Tier-2 al di fuori del CERN.

Organizzazione dei Tier

L’ammontare dei dati registrati e immagazzinati su disco in un esperimento come LHC `e molto elevato. Per questo motivo un singolo centro di calcolo non pu`o essere sufficiente ad ospitare l’intero sistema di computing. Le risorse ed i dati vengono equamente distribuiti tra i vari istituti che compongono la collaborazione in tutto il mondo, e che vanno a formare una vera e propria struttura gerarchica a strati (Tier ), collegati tra loro attraverso un network quale Grid.

Sono stati definiti differenti tipi di Tier, ciascuno con diverse caratteristiche e diverse funzioni:

• Tier-0. Nella comunit`a CMS esiste soltanto un centro Tier-0 (T0), e si trova al CERN. La sua funzione principale `e quella di ricevere i dati direttamente dal sistema online del rivelatore, e copiarli su dei supporti permanenti, in modo da poter realizzare una prima ricostruzione e poter spostare i dataset ai centri Tier-1.

• Tier-1. Ogni Tier-1 (esistono 7 T1 in tutto il mondo) riceve i dati nei formati RAW e RECO direttamente dal T0, ed `e responsabile della diffusione di una seconda copia di questi tra i vati Tier-2. Anche i T1 ospitano una grande quantit`a di dati riprocessati.

• Tier-2. I dati vengono trasferiti dai T1 ad una cinquantina di centri T2 sparsi per il mondo. Questi centri immagazzinano i dati e li rendono utilizzabili sia per gli utenti locali che per quelli remoti. I dati nei T2 non sono immagazzinati in maniera definitiva, ma sono destinati ad essere analizzati e periodicamente rimpiazzati a seconda delle richieste degli utenti, del rivelatore e del calcolo.

Circolazione dei dati

In figura 2.26 `e schematizzata la circolazione dei dati tra i vari centri di calcolo di CMS. La online farm di CMS (HLT) processa gli eventi dal sistema Data

Figura 2.26: Circolazione schematica dei dati attraverso il sistema di computing di CMS.

2.2 L’esperimento CMS 85

i nodi HLT accettano o rigettano gli eventi sulla base del fatto che abbiano passato o meno uno o pi`u criteri di selezione, e scrivono i dati RAW. Il trasferimento dei dati da HLT a T0 deve avvenire ad una velocit`a di 300 MB/s. La prima ricostruzione degli eventi viene realizzata alla farm T0, che scrive i dati in formato RECO. Gli eventi nei formati RAW e RECO sono immagazzinati nel T0, ma anche copiati e archiviati in un T1. L’eventuale trasferimento ad altri T1 `e soggetto alla disponibilit`a di banda della rete. Anche una prima versione dei dati AOD derivata dagli eventi RECO viene realizzata nel T0, per essere poi distribuita a tutti i T1. I T1, a loro volta, possono produrre altre versioni del formato AOD, e ridistribuirle. Processi addizionali come, ad esempio lo skimming dei dati RAW, RECO e AOD `e soggetto alle specifiche richieste dei gruppi di ricerca. Questi dati, gli AOD e soltanto una piccola parte dei RECO e dei RAW viene trasferita ai centri T2, che supportano l’analisi di gruppi di utenti autorizzati. Il raggruppamento, infine, `e realizzato non soltanto sulla base di questioni geografiche, ma anche e soprattutto su una base logica: gli utenti che lavorano alla stessa analisi, o ad analisi simili saranno affiliati allo stesso T2.

Capitolo 3

Fisica a LHC

In questo capitolo viene presentata la fisica elettrodebole, con particolare attenzione verso i processi che coinvolgono il bosone W ed il leptone τ . Viene inoltre descritta la fisica dell’Higgs a LHC, nel caso del Modello Standard e nel caso della sua estensione supersimmetrica minimale (MSSM).

3.1

Fisica elettrodebole

Il settore elettrodebole del Modello Standard costituisce un campo di ricerca molto importante per LHC: nonostante le ricerche svolte fino ad oggi, lo spazio per ulteriori misure di precisione delle osservabili elettrodeboli `e ancora molto. In particolare si vuole:

• migliorare la precisione nella determinazione di parametri elettrodeboli quali la massa del bosone W MW, la massa del quark t mt, il valore di

sin2 θ;

• migliorare le misure di self-interaction dei bosoni di gauge; • ricercare il bosone di Higgs e studiarne le propriet`a;

• ricercare nuova fisica oltre il settore elettrodebole del Modello Standard. Le predizioni sulla massa del W e sull’angolo di mixing sono strettamente le- gate alla precisione con cui `e nota la massa del quark t, e la massa dell’Higgs dipende fortemente da queste tre quantit`a. Quindi, una buona misura di

esse diventa fondamentale nella comprensione della rottura spontanea del- la simmetria elettrodebole e quindi del Modello Standard. Inoltre non `e da escludere il fatto che la rottura spontanea della simmetria coinvolga altre par- ticelle non ancora note: proprio in quest’ottica `e possibile utilizzare il quark t ed i bosoni W e Z per evidenziare l’eventuale esistenza di nuova fisica, in base all’osservazione di deviazioni delle loro propriet`a rispetto alle predizioni del Modello Standard. E’ quindi fondamentale una buona conoscenza delle segnature tipiche per il quark t e per i bosoni vettori ai collider adronici: leptoni carichi, energia trasversa mancante, jet, risonanze nelle distribuzioni.

3.1.1

Meccanismi di produzione dei bosoni W e Z

Documenti correlati