Domenico Giordano Domenico Giordano Università & INFN di Bari Università & INFN di Bari
Collaborazione CMS Collaborazione CMS
Attività di analisi dati e Attività di analisi dati e
simulazione Monte Carlo
simulazione Monte Carlo
2
L’esperimento CMS
• Oggetti ricostruiti
, e//, E
Tmiss, b, t, jets
• Requisiti sperimentali
– Ermeticità e ampia copertura in – Alta granularità
– Preciso sistema di rivelazione di muoni (trigger &
pT meas. - e.g. H ZZ 4)
– Ottimo calorimetro elettromagnetico (eccellente identificazione e/ buona risoluzione d’Energ. - e.g. H)
– Buona ermeticità del calorimetro adronico, per la misura di jet ed ETmiss (e.g. H)
– Sistema di tracciamento efficiente con elevata risoluzione nella misura di pT e dei vertici di interazione (e.g. H ZZ 4l, Hbb) – Alta selettività del sistema di trigger
Il rivelatore CMS è un ”general pourpose detector”
ottimizzato per la ricerca del bosone di Higgs e di
nuova fisica
La fisica del LHC
La sezione d’urto dei processi fisici che avvengono nelle interazioni pp (E
cm=14TeV) varia di molti
ordini di grandezza.
– Inelastic (pp) = 55 mb;
– heavy-flavor factory:
(bb)= 500 b; (tt)= 1 nb;
– vector-bosons factory;
– (H) = O(10 pb) (m
H=200 GeV)
I processi di nuova fisica hanno bassa sezione d’urto (Higgs production)
Potere di reiezione O(10
13) (H-> 120 GeV)
tracks with pt > 2 GeV
4
Strumenti di analisi dati
Per realizzare efficacemente il programma di fisica di CMS è necessario un processo di R&D non solo dei rivelatori (es.: preced. talk) ma anche degli strumenti di analisi.
Lo sviluppo degli strumenti di analisi può essere suddiviso:
– Studio delle prestazioni dei rivelatori, attraverso misure in laboratorio e nei test con fasci di particelle (test beam) – Realizzazione del modello di analisi
-Flusso di dati dall’acquisizione alla produzione dei risultati di fisica -
• ricostruzione (e simulazione) degli eventi fisici
• procedure di calibrazione, allineamento, monitoraggio delle prestazioni dei rivelatori
• controllo della qualità dei dati
• riduzione dei dati ad un sottoinsieme di oggetti di interesse fisico (elettroni, muoni, b-tagging, tau-tagging)
• valutazione delle potenzialità di scoperta di nuova fisica/ misura di grandezze fisiche
– Validazione del software in condizioni sperimentali simili a quelle finali di CMS
catena completa acquisizione/conversione formato/riduzione/analisi dati
Studio delle
Studio delle prestazioni prestazioni dei rivelatori dei rivelatori
• Effetto di eventi altamente ionizzanti nei rivelatori al silicio
• Studio delle prestazioni degli RPC
6
mip
Chip1 Chip2 Chip3 Chip4
Strip Number
1 128 256 384 512
ADC counts - Ped
200
-100 100
Eventi Altamente Ionizzanti nei Rivelatori al Silicio
Elevato deposito di energia nei sensori al silicio comporta:
1. Ampio segnale sulle strisce che raccolgono la carica prodotta
2. Abbassamento del livello della baseline del chip di lettura molto al di sotto del valore nominale
(1) (2)
HIPs (Highly Ionising Particles)
sono il prodotto di interazioni adroniche nel silicio ( da minimum bias) HIPs (Highly Ionising Particles)
sono il prodotto di interazioni adroniche nel silicio ( da minimum bias)
baseline
Temporanea inefficienza del chip nei 200-400 ns successivi all’evento
Conseguenza di un evento di HIP
Sono stati effettuati due test con fasci di particelle per comprendere l’effetto di HIP nelle condizioni di intensità ed energia delle particelle simili a quelle future di CMS
PM1
z
PM2 PM3
Box 1: 3 TIB + 3 TEC Box 2: 6 TOB
Studio degli eventi di HIP
Misure:
1. Probabilità degli eventi di HIP 2. Tempo di recupero del chip
3. Inefficienza del chip dopo un evento di HIP
4. Effetti sull’efficienza di ricostruzione di traccia nel tracciatore (simulazione)
Evento di HIP Evento di t = 200 ns t = 100 ns t = 125 ns t = 150 ns t = 175 ns t = 25 ns t = 50 ns t = 75 ns HIP
inefficienza (1-) di rivelazione di una particella al minimo di ionizzazione (mip) nella regione
interessata dall’evento di HIP
• Ricostruzione di tracce di mip attraverso l’apparato sperimentale
• estrapolazione della posizione attesa sul modulo in esame
• ricerca del cluster nell’intorno della posizione attesa
• Ricostruzione di tracce di mip attraverso l’apparato sperimentale
• estrapolazione della posizione attesa sul modulo in esame
• ricerca del cluster nell’intorno della posizione attesa
efficienza
t) ( n
t) ( t) n
( ε
tot hit - found
(3)
Mod.1
Mod.2
Mod.3
Mod.4
Mod.5
Mod.6
Canali di lettura
Segnale
8
Le frecce puntano agli estemi del primo modulo
Algoritmo di ricostruzione di traccia
Regione fiduciale per la
1° tracccia
Regione fiduciale per la 2°
traccia
La configurazione sperimentale realizzata ad hoc per eseguire questo studio ha reso necessario lo sviluppo di un adeguato algoritmo di tracciamento al fine di avere alta efficienza algoritmica di ricostruzione
Inefficienza media (
750) di
rivelazione di una mip nei 750 ns successivi ad una HIP
750L’efficienza di ricostruzione e la risoluzione degli RPC possono essere valutate eseguendo un test di tracciamento con raggi cosmici.
L’algoritmo di ricostruzione di traccia
• Ricerca dei cluster
• Ricostruzione delle tracce
• Filtro di eventi (esclude eventi con sciami e.m.)
Studio delle prestazioni degli RPC
Misure di risoluzione spaziale:
differenze tra il punto di impatto calcolato con il fit e la coordinata del relativo cluster di
strisce ricostruito nel rivelatore
mis ~ 8.6 mm (teor ~ 7.9 mm)
Il modello d’analisi
• Catena di analisi dati MC (e dei dati reali dal 2007)
• Studi di trigger
• Tool di Visualizzazione
• Studio di canali di fisica
• Effetto del disallineamento del sistema di tracciamento
ORCA:
simulazione dei segnali del rivelatore (Digis)
simulazione della risposta del trigger
ricostruzione dell’informazione fisica per l’analisi finale
Visualizzazione degli eventi
Digitizzazione Ricostruzione Simulazione Generazione
Simulazione della propagazione della particelle nel rivelatore (GEANT)
• interazione radiazione-materia (materiale attivo e passivo)
• decadimento delle particelle instabili
• effetto del campo magnetico solenoidale
Generazione Monte Carlo (PYTHIA) delle interazioni protone-protone (E
cm= 14 TeV) con produzione degli stati finali richiesti dallo studio
Z Z
p
Hp
e- e+
Simulazione/Ricostruzione/Analisi
Analisi
Calibrazione
• Selezione degli eventi, utilizzando oggetti di alto livello (4-vettori, vertici) per la misura di
grandezze fisiche (es.: massa invariante)
• Studio delle prestazioni del sistema
12
Studio dell’efficienza del trigger di L1 degli RPC.
Confronto di due algoritmi di selezione dei candidati muoni a L1, al fine di ridurre la probabilità di coincidenze accidentali dovute al rumore del rivelatore
Simulazione del rivelatore:
Studi sul trigger
Una simulazione affidabile dell’esperimento è possibile solo attraverso la modellizzazione accurata del comportamento di ogni sottorivelatore.
Per questo è determinante lo studio delle prestazioni dei rivelatori e
l’implementazione software delle caratteristiche misurate sperimentalmente (rumore, rapporto S/N, efficienza, divisione di carica, probabiltà di eventi di HIP, …).
Es. di applicazione
Tool di visualizzazione (event display) Tool di visualizzazione (event display)
Il tool di visualizzazione è utile per:
• accedere alla geometria del rivelatore e alla mappa del campo magnetico;
• monitorare ciascun sottorivelatore, sino al singolo canale di lettura (temperature, tensioni, canali morti);
• accedere e modificare interattivamente i parametri di funzionamento (calibr., tensioni, punti di lavoro)
• visualizzare gli eventi ricostruiti
La collaborazione CMS sta realizzando uno strumento di visualizzazione chiamato IGUANACMS (basato su IGUANA), che fornisce una rappresentazione 2D e 3D del rivelatore e degli eventi fisici attraverso una GUI.
Il gruppo CMS di Bari è attivamente coinvolto nella realizzazione del pacchetto di
visualizzazione e monitoring del tracciatore.
14
Visualizzazione degli eventi
Esso permette di visualizzare tutti gli oggetti ricostruiti e/o simulati:
hit, digi, tracce, vertici, etc
Il tool di visualizzazione è inserito nel framework generale di CMS per cui si
interfaccia facilmente con il tool di simulazione (OSCAR) e di ricostruzione (ORCA)
Gli hit delle particelle misurati su ciascun piano di rivelazione sono
visualizzati insieme ai rivelatori stessi e alle tracce ricostruite
Studio Monte Carlo di canali di fisica:
H ->ZZ->2e2
La ricerca attraverso questo canale di decadimento
è favorita nell’ampia regione di massa compresa tra 130 e 600 GeV per la chiara evidenza sperimentale dello stato finale 2e2
coinvolge in modo combinato tutti i rivelatori di CMS (Tracker, ECAL, Sistema di muoni, in parte HCAL)
Obiettivo: Valutare la probabilità di scoperta del bosone di Higgs attraverso il decadimento H ZZ
(*) e
+e
-µ
+µ
-(“golden channel”)
114.4
16
Campioni di Segnale e fondo
Lo spettro di massa da 115 a 600 GeV è scansionato utilizzando 18 dataset (~ 10K eventi ciascuno) per le seguenti masse dell’Higgs
•10: da 115 GeV a 200 GeV
•8: da 250 GeV a 600 GeV
Eventi di fondo
Fondo Irriducibile:
Processi con produzione di almeno 2 elettroni e 2 muoni nello stato finale
Fondo Riducibile:
pp ZZ
(*) e
+e
-µ
+µ
-X e
e b
WWb t
t
pp
X
e e b
Zb
pp
X e
e c
Zc
pp
ZZ
tt Eventi di segnale
H
160Procedura d’analisi
Simulazione completa: generazione degli eventi, propagazione nel rivelatore (GEANT), risposta del rivelatore (ORCA).
Ricostruzione degli eventi (come se fossero dati veri!!): Selezione di Trigger, Ricostruzione offline, Fit del vertice, Isolamento
Generazione dei campioni di segnale e fondo (PYTHIA, CompHEP)
Selezione di trigger: L1 – HLT
Ricostruzione dei 4 leptoni
Correzione sulla misura d’energia degli elet.
Identificazione degli elettroni
Ricostruzione e Selezione del Vertice
Isolamento dei leptoni (basato sulle tracce)
Individuazione delle variabili cinematiche per discriminare segnale/fondo
Procedura di Ottimizzazione dei tagli di selezione da applicare alle variabili cinematiche al fine di massimizzare la reiezione dei fondi
Valutazione della significatività di scoperta
HLT eff.
MMHH = 150 GeV = 150 GeV
Isolamento
18
fondo fondo
Tagli Cinematici
Segnale Segnale I principali parametri cinematici di selezione sono:
Impulso trasverso dei 4 leptoni: p
Ti Massa invariante delle coppie ee,
Massa invariante dello stato 2e2
ZZtt Zbb
Effetto della selezione Effetto della selezione
Distribuzioni di massa invariante dello stato e
+e
-µ
+µ
-– Per eventi di segnale e fondo
– prima (1) e dopo (2) l’applicazione dei tagli ottimizzati
M M
HH= 130 GeV = 130 GeV
M M
HH= 200 GeV = 200 GeV
M M
HH= 450 GeV = 450 GeV
Minimo periodo di presa dati (Luminosità integrata) necessario per avere significatività di scoperta S
L> 5
12 mesi
S
L> 5
(Prob. Scoperta = 50%)
6 mesi 18 mesi
3 mesi
20
Effetto sulla ricostruzione Non allineato
Studi di Disallineamento
Dopo la costruzione sarà quindi necessario
• eseguire una procedura di allineamento, prima con laser e cosmici e in seguito utilizzando i dati stessi (Z->2, W->)
• monitorare e ripristinare l’allineamento raggiunto
Effetto del disallineamento nella misura di impulso
Allineato
Nel 1° periodo di presa dati la posizione dei rivelatori di tracciamento (tracciatore al silicio + sistema di muoni) non sarà nota con esattezza
[incertezze O(100 m) sulla posizione dei moduli del tracker (first data tacking)]
Influenza le prestazioni della ricostruzione di traccia (efficienza, risoluzione)
L’attuale simulazione di CMS permette di stimare l’effetto del disallineamento sulla ricostruzione di traccia e quindi sulle misure di fisica in programma (potenzialità di scoperta, misura di massa, b-tagging, violazione CP…)
(Attività del gruppo CMS di Bari)
L’attuale simulazione di CMS permette di stimare l’effetto del disallineamento sulla ricostruzione di traccia e quindi sulle misure di fisica in programma (potenzialità di scoperta, misura di massa, b-tagging, violazione CP…)
(Attività del gruppo CMS di Bari)
Attività future (domani!!!)
Magnet Test & Cosmic Challenge
• Test combinato di tutti i sottorivelatori di CMS (tracker, calorimetri, sistema di muoni) assemblati in situ (pozzo 5)
• i rivelatori sono collocati in corrispondenza di una porzione di CMS
• in campo magnetico di 4 T prodotto dal solenoide superconduttore di CMS
• rivelazione di raggi cosmici
Finalità
• verificare la funzionalità del magnete
• effettuare una mappatura del c.m.
• valutare le tolleranze di posizione, eventuali disallineamenti dei rivelatori in c.m.
• effettuare il test di sistema di un apparato che ha la complessità di un piccolo esperimento
• verificare il software di CMS (acquisizione,
monitoring, calibrazione, ricostruzione)
BackUp
The Large Hadron Collider
p-p collider p-p collider
Beam Energy 7 TeV Bunch Crossing Rate 40 MHz Luminosity L (R = L * )
Low 2x10
33cm
-2s
-1= 2x10
6mb
-1Hz High 10
34cm
-2s
-1= 10
7mb
-1Hz Interaction Rate ~1 GHz
Interactions/Crossing ~23 (@ High Lumi.) basically minimum bias events
p-p collider p-p collider
Beam Energy 7 TeV Bunch Crossing Rate 40 MHz Luminosity L (R = L * )
Low 2x10
33cm
-2s
-1= 2x10
6mb
-1Hz High 10
34cm
-2s
-1= 10
7mb
-1Hz Interaction Rate ~1 GHz
Interactions/Crossing ~23 (@ High Lumi.) basically minimum bias events
tracks with pt > 2 GeV tracks with pt > 25 GeV
Physics goals:
Physics goals:
SM Higgs boson discovery
Supersimmetry discovery
B-physics, Top quark physics, Standard physics (QCD, EW)
Heavy Ion physics
24
La fisica del LHC
Extreme demands on detectors:
• high granularity
• high radiation environment
• high data-taking rate
Cross-sections of physics processes vary over many orders of magnitude
– Inelastic (pp) = 55 mb;
– heavy-flavor factory:
(bb)= 500 b; (tt)= 1 nb;
– vector-bosons factory;
– (H) = O(10 pb) (m
H=200 GeV)
Low cross sections for discovery physics (Higgs production)
Rejection power O(10
13) (H-> 120 GeV)
Huge event rate
Highly Selective Trigger System
CMS Trigger Strategy
Event size ~1 Mbyte (zero-suppr.) Readout network 1 Terabit/s
Level-1 Output 100 kHz Mass storage 100 Hz
Rejection Power O(10
5) [40 MHz -> 100 Hz]
Event size ~1 Mbyte (zero-suppr.) Readout network 1 Terabit/s
Level-1 Output 100 kHz Mass storage 100 Hz
Rejection Power O(10
5) [40 MHz -> 100 Hz]
CMS DAQ requirements CMS DAQ requirements
Level-1:
Custom synchronous processors
- Pipelined structure
- Particle identification (e/, muons, jets, MET )
- Local pattern recognition and energy/momentum evaluation - Work on coarse granularity information from calorimeters and muon detectors
- Actual Processing time ~1 s
High Level Trigger (HLT):
Asynchronous CPU farms
- Access to full event data
- Finer granularity, precise measurement
- Reconstruction and selection of e, , jets, MET, b, tagging - Matching between detectors
100 KHz (100 GB/sec)
100 Hz (100 MB/sec)
Lvl-1 hardware trigger
HLT hardware trigger
data
GHz ( PB/sec)
data recording
Analisi Offline
S is te m a O n lin e
26
HLT requirements
Main requirements:
Satisfy CMS physics program with high efficiency
Selection must be inclusive (to discover unexpected physics)
Must not require precise knowledge of calibration/run conditions
Efficiency must be measurable from data alone
All algorithms/processors must be monitored closely
Advantages
Benefit maximally from evolution of computing technology Flexibility:
no built-in design or architectural limitations — maximum freedom in what data to access and in sophistication of algorithms
Code is as close as possible to offline reconstruction code
Evolution of algorithms, including response to unforeseen backgrounds or unexpected physics
Minimize in-house elements cost
maintainability
Misura d’energia degli elettroni
E = 5-10 GeV
E = 30-35 GeV
E = 80-85 GeV
La misura d’energia degli elettroni ricostruiti utilizza l’informazione combinata del tracker e del calorimetro e.m. al fine di migliorare la risoluzione energetica, limitata da:
• risoluzione intrinseca dei rivelatori e degli algoritmi
• effetto dell’emissione di fotoni di bremsstrahlung Le due misure sono complementari:
Con la misura combinata:
Le variazioni della scala di energia sono ridotte a meno di 1%
Le code dovute alla
bremsstrahlung si riducono rispetto alla ricostruzione
calorimetrica o con il tracciatore
ECAL TK Combinata
28
La collaborazione CMS è attualmente impegnata
1. nella definizione del modello di analisi (sulla base anche dell’esperienza acquisita negli altri esperimenti)
2. Sviluppo degli strumenti necessari per la realizzazione di un ambiente di calcolo distribuito su larga scala, in modo da gestire
• Diversi milioni di dati simulati
• PetaBytes/anno di dati reali (alla partenza dell’esperimento!!!)
• decine di migliaia di CPU,
• permettere a molti ricercatori sparsi su varie aree geografiche di eseguire la loro analisi