• Non ci sono risultati.

1.2 Cenni sull’analisi con un singolo rivelatore . . . . 3

N/A
N/A
Protected

Academic year: 2021

Condividi "1.2 Cenni sull’analisi con un singolo rivelatore . . . . 3"

Copied!
21
0
0

Testo completo

(1)

Indice

1 Analisi mediante una rete di interferometri 2

1.1 Introduzione . . . . 2

1.2 Cenni sull’analisi con un singolo rivelatore . . . . 3

1.3 Analisi in coincidenza . . . . 5

1.3.1 Ricerca della coincidenza temporale . . . . 7

1.3.2 Consistenza delle ampiezze . . . . 8

1.3.3 Stime del fondo . . . . 9

1.4 Analisi coerente . . . . 10

1.4.1 Massimizzazioni analitiche . . . . 12

1.4.2 Massimizzazione rispetto al tempo di coalescenza . . . . . 13

1.4.3 Griglia di parametri e determinazione delle incertezze . . 14

1

(2)

Capitolo 1

Analisi mediante una rete di interferometri

1.1 Introduzione

La possibilità di avere a disposizione non uno soltanto, ma più rivelatori di onde gravitazionali, permette di effettuare una rivelazione considerando l’intera rete, e porta notevoli vantaggi. Ciascun rivelatore opera per conto proprio nell’effettuare le misure, il sistema rete entra in gioco al momento dell’analisi dei dati. Prin- cipalmente esistono due diversi approcci al problema, che verranno analizzati in dettaglio, il più intuitivo consiste nell’analisi in coincidenza, che sostanzialmen- te confronta i dati provenienti dai vari rivelatori in cerca di un eventuale segnale proveniente dal medesimo evento, mentre l’altro, detto coerente, considera la rete come un unico rivelatore equivalente in posizione opportuna, una sorta di “sistema di centro di massa”. Nel primo caso viene sensibilmente ridotta la probabilità di falsi allarmi, in quanto vengono cercate, appunto, le coincidenze tra gli eventi mi- surati dai singoli rivelatori; il secondo metodo rappresenta la situazione ottimale per il rapporto segnale rumore nel caso in cui quest’ultimo sia gaussiano, la pre- senza di rumore non gaussiamo purtroppo tende a sfavorire il metodo coerente a favore di quello in coincidenza.

Ulteriore e forse principale vantaggio dal punto di vista astrofisico, è la possibi- lità di ricavare importanti informazioni sulle sorgenti, quali le masse, la posizione,

2

(3)

i paramentri dell’orbita come l’inclinazione, e la distanza, particolarmente impor- tante in quanto attualmente ci sono difficoltà nella determinazione delle distanze su larga scala, problema che in futuro potrebbe avere come soluzione l’utilizzo di candele standard gravitazionali.

1.2 Cenni sull’analisi con un singolo rivelatore

Vista l’impossibilità di riconoscere con assoluta certezza se sia stato effettivamente misurato un segnale gravitazionale, in quanto esso si colloca al di sotto dalla soglia di rumore, è inevitabile dover parlare di probabilità di rivelazione, e di conseguen- za, cercare la statistica più appropriata al sistema, che risulta essere il metodo della massima verosimiglianza. La verosimiglianza si definisce come il rapporto tra la probabilità che il segnale sia presente nelle osservazioni, e la probabilità che non lo sia.

La strategia adottata per l’analisi è il filtro adattato, che consiste nel filtrare i dati con un modello teorico, e nel variare i parametri di quest’ultimo fino a che la sovrapposizione con i dati non risulti massima. Assumendo che il rumore sia una funzione additiva, un rivelatore misurerà:

x t



s t



n t



(1.1)

dove, in assenza di segnale, s t



0.

La correlazione tra dati e modello si definisce come [14] :



s



x



2ℜ

0

˜s

f



x f ˜



S

h

f



d f (1.2)

con ˜ x f



e ˜ s f



rispettivamente la trasformata di Fourier di dati e modello, men- tre S

h

f



è la densità dello spettro di potenza del rumore (determinato della ?? con la differenza che qui è definito solamente per frequenze positive) dipendente dalle caratteristiche fisiche del rivelatore.

Nell’ipotesi di rumore gaussiano è possibile esprimere la verosimiglianza in

termini della sorta di prodotto scalare indotto dalla correlazione:

(4)

LR



exp

 12 

x

s



x

s



exp

 12 

x



x



(1.3)

infatti in assenza di segnale, per x



n, l’uscita del rivelatore è una variabile gaussiana, ma continua ad esserlo anche x

s nel caso vi sia un segnale presente nei dati.

L’espressione suggerisce di usare il proprio logaritmo naturale, per semplificare i calcoli:

LLR

 

s



x

1 2



s



s

(1.4)

A questo punto, dal momento che il segnale potrebbe essere partito dalla sor- gente ad un istante qualunque del tempo di integrazione, è necessario setaccia- re i dati “facendo scorrere” il modello lungo la loro sequanza temporale. La correlazione diviene quindi una funzione del tempo:

C t

 

s



x t



(1.5)

La ricerca si interromperà quando dati e modello appariranno correlati tra loro, e quindi sarà necessaria un’analisi più approfondita per determinare al meglio i parametri dell’eventuale segnale; oppure alla fine della lista di dati, se in essi non sarà presente alcun segnale rappresentabile col modello scelto.

Il segnale proveniente da un sistema binario dipende, nell’approssimazione newtoniana, da una serie di parametri: le due masse, la distanza, la fase dell’onda al momento della coalescenza, l’angolo di polarizzazione dell’onda, l’inclinazione dell’orbita rispetto alla linea di vista dell’osservatore, la posizione della sorgente nel cielo (in termini di declinazione e ascensione retta), il tempo di coalescenza, ovvero l’istante in cui avviene il contatto tra le due stelle, la durata del segnale a partire dalla minima frequenza rivelabile.

Il passo successivo consiste quindi nella massimizzazione dell’espressione pre- cedente rispetto ai parametri di cui è possibile estrapolare informazioni dalla mi- sura, nel caso di singolo rivelatore, il tempo di chirp e il tempo di coalescenza.

Determinare tutti gli otto paramentri significherebbe identificare completamente il

segnale rivelato (almeno nell’approssimazione scelta per il modello), così come la

(5)

sorgente, ed iniziare a costruire mappe gravitazionali del cielo, che sarebbero per lo più complementari alle altre esistenti, disegnate per via elettromagnetica, vista la quasi totale invisibilità dei sistemi compatti ai rivelatori tradizionali.

1.3 Analisi in coincidenza

In questo tipo di analisi ciascun rivelatore effettua le proprie misure e compila una lista di eventi. In un secondo momento, o in alcuni casi anche in tempo reale, le liste dei vari strumenti vengono confrontate in cerca di coincidenze, segnali provenienti dallo stesso evento registrati da più rivelatori. La selezione avviene sulla base di una soglia comune determinata da una probabilità di falsi allarmi fissata in modo da ottenere un certo valore del rapporto segnale-rumore.

Al fine di illustrarne il funzionamento più in dettaglio, è particolarmente espli- cativo l’esempio dello studio effettuato da IGEC (International Gravitational Event Collaboration), una collaborazione dei cinque rivelatori a barra ALLEGRO, AU- RIGA, EXPLORER, NAUTILUS e NIOBE [1]. La ricerca di IGEC si è focalizzata sulle esplosioni di supernovae, tuttavia la procedura è generale, quindi applicabile ad ogni tipo di segnale.

Come accennato in precedenza, il passaggio di un’onda gravitazionale attra- verso una barra cilindrica isolata meccanicamente imprime una forza mareale che fa vibrare il materiale secondo i suoi modi normali, facendolo entrare in risonanza se la frequenza è esattamente quella del modo. Uno strumento risonante più leg- gero è accoppiato ed accordato col modo fondamentale longitudinale della barra, ottenendo così due modi normali di vibrazione. Per ridurre al minimo il rumore termico gli strumenti sono mantenuti a temperature criogeniche.

Ciascun gruppo di ricerca implementa un filtro ottimale per l’analisi dei dati, dopodichè viene applicata ai dati filtrati una soglia di scambio, identica per ogni rivelatore, che compie una prima selezione sulla base della quale sono complilate le liste di candidati di eventi. La soglia di scambio è convenzionalmente fissata in modo da avere un rapporto segnale-rumore compreso tra 3 e 5.

Al momento del confronto dei dati, che avviene tramite un protocollo di scam-

bio, la procedura è la seguente:

(6)

1. Il primo passo consiste nel determinare il valore di una soglia di ricerca, un’ampiezza minima che i dati devono superare per poter essere considerati segnale. Per far questo viene applicato l’algoritmo di analisi qui descritto a diversi valori, sino a trovare il più ragionevole.

2. Vengono escluse dal tempo di osservazione di ciascun rivelatore quei periodi dove la soglia di scambio al di sopra della soglia di ricerca, questo per limi- tare il numero di eventi reali sfuggiti alla misura di ampiezza superiore alla soglia di ricerca scelta.

3. Finalmente vengono filtrati i dati eliminando i candidati con ampiezza al di sotto della soglia di ricerca, il che riduce sensibilmente il numero di falsi allarmi.

Questo metodo è adatto ad una ricerca isotropa nel cielo, senza direzioni prefe- renziali per la sorgente, tuttavia è possibile effettuare anche una ricerca mirata a determinate zone modulando i dati scambiati con le sensibilità direzionali dei ri- velatori. Più precisamente, tutte le ampiezze dovranno essere divise per il fattore di attenuazione (dipendente dal tempo) per la direzione specifica del cielo. In una ricerca mirata il tempo di osservazione è ridotto rispetto a prima a parità di soglia di ricerca, in quanto non è più presente il tempo in cui lo strumento aspetta di al- linearsi perfettamente con la sorgente. Come conseguenza della diminuzione del tempo di integrazione, anche il rumore di fondo è ridotto. Purtroppo per questo tipo di strumenti la selettività angolare è piuttosto povera, a causa della loro bassa sensibilità direzionale: quando un rivelatore è orientato in una determinata dire- zione vede ogni sorgente nel raggio di



20 gradi al meglio con un’attenuazione dell’11%.

I due grafici seguenti sono un esempio di selezione dei dati da parte di AU-

RIGA, rispettivamente nel caso di ricerca alla cieca, e nella direzione del centro

galattico:

(7)

La riga continua rappresenta l’ampiezza della soglia di scambio, i punti gli eventi scambiati. Nell’intervallo di tempo grigio scuro non sono stati scambiati dati, mentre l’area grigio chiaro rappresenta la regione di ampiezze escluse perché al di sotto della soglia. Nella seconda immagine questa zona è più ampia, in quanto la sensitività degli strumenti deve essere direzionata unicamente verso il centro galattico, e le altre direzioni non vengono prese in considerazione.

Dopo aver ripetuto la procedura ed aver determinato la soglia più adatta, cia- scun gruppo compila la propria lista di eventi, ed è possibile procedere con la ricerca di coincidenze.

1.3.1 Ricerca della coincidenza temporale

Due eventi provenienti da diversi rivelatori si definiscono in coincidenza se le stime dei rispettivi tempi di arrivo sono compatibili entro le varianze σ

2ti

e σ

2tj

:



t

i

t

j



∆t

i j 

k



σ

2ti

σ

t2j

∆t

max

(1.6) dove ∆t

max

è il tempo impiegato dalla luce a percorrere la distanza tra i due stru- menti. La finestra di confidenza è calcolata in modo da avere una data probabilità di eventi sfuggiti alla rivelazione fissando k con la disuguaglianza di Bienaymè- Tschebyscheff. Quest’ultima asserisce che per una variabile casuale x con media η, il valore assoluto della differenza tra x e la media ha una probabilità P di essere maggiore di un certo valore ε :

P



x

η



ε

 

E



x

η

n

ε

n

(1.7)

(8)

valida per ogni intero n per il quale esista il momento n-esimo di x E



x

η

n

. Invertendo la diseguaglianza è possibile calcolare ε data P. Risulta conveniente usare la forma ε



kσ, in modo da trovare alla fine:

k

 n



µ

n

σ

n

P (1.8)

dove µ

n

è il momento di ordine n. Per quanto riguarda il valore di soglia della probabilità di eventi mancati, un P troppo grande rende la ricerca di coincidente poco efficiente, al tempo stesso un valore significativamente al di sotto del 5%

ha l’effetto collaterale di guadagnare troppo poco in termini della probabilità di rivelazione, a scapito dell’aumento dei falsi allarmi. La scelta intermedia di fissarlo pari al 30% massimizza il rapporto tra l’efficienza di rivelazione e il corrispondente numero di coincidenze accidentali.

1.3.2 Consistenza delle ampiezze

L’ampiezza di un segnale rivelato, come tutte le misure, è soggetta ad incertezze sistematiche e statistiche dello strumento. Così, una volta trovati degli eventi in coincidenza tra loro, è necessario verificare che le ampiezze stimate siano il più vicino possibile in valore:



A

i

A

j



∆A

i j

∆A

i

∆A

j

(1.9)

con ∆A

i j

min





σ2Ai



σ2A j

P 

4



µAi4



µA j4



2Aiσ2A j

P !

dalla diseguaglianza di Bienaymè e P, come nel paragrafo precedente, probabilità di eventi mancati dal rivelatore.

Questo test elimina i falsi allarmi con un’efficienza fortemente dipendente dalla soglia di ricerca. Essi sono ridotti significativamente soltanto ad una soglia alta, a causa di due fattori: prima di tutto, la procedura usata per selezionare i dati favorisce gli eventi che hanno ampiezze simili; in secondo luogo, le differenze in ampiezza degli eventi accidentali possono essere maggiori per grandi valori del rapporto segnale-rumore.

E’ necessario sottolineare una sostanziale differenza tra i rivelatori a barra e

quelli interferometrici in questa procedura. I primi sono allineati tra loro, (ciò è

(9)

stato realizzato orientandoli in modo che fossero perpendicolari al cerchio massi- mo comune passante per i siti o il più vicino possibile) questo fa sì che abbiano identiche figure d’antenna e che, se perfettamente calibrati, abbiano una risposta alle sollecitazioni esterne perfettamente identica. I segnali relativi ad uno stesso evento, quindi, dovrebbero risultare della stessa ampiezza entro la soglia di errore, semplicemente traslati temporalmente dei ritardi dovuti alle diverse posizioni delle barre rispetto alla sorgente. Il caso dei rivelatori interferometrici è più delicato, in quanto essi non sono allineati né orientati allo stesso modo, ed ognuno ha una propria figura di antenna che predilige una certa direzione nel cielo e una certa polarizzazione dell’onda. Le ampiezze risultano diverse le une dalle altre, e nel confrontarle in cerca di coincidenze è necessario tenere conto di queste differenze.

1.3.3 Stime del fondo

L’approccio ideale per stimare il fondo sarebbe quello di ottenere una nuove serie di dati da una popolazione con la stessa statistica, ma privata delle sorgenti, appli- carle l’algoiritmo di ricerca e dopo confrontare i risultati con quelli del campione originale.

Questo è quasi realizzabile (nel caso che le sorgenti siano supernovae, o co- munque eventi esplosivi pressochè impulsivi) con un accorgimento: se i dati rispet- tano le ipotesi ergodiche

1

è possibile realizzare un nuovo campione indipendente applicando delle traslazioni relative alla coordinata temporale dei dati provenienti dai vari strumenti. I ritardi artificiali devono superare in lunghezza la massima fine- stra temporale per la ricerca di coincidenze, ed allo stesso tempo brevi abbastanza affinchè il numero di coincidenze accidentali si mantenga stazionario. Valori di compromesso per le traslazioni sono tra i 5 e i 15 secondi.

Nonostante gli accorgimenti, tra gli eventi estrapolati rimane un certo numero di falsi allarmi. Nel caso di segnali impulsivi come le esplosioni di supernovae il contributo di ogni rivelatore al numero di coincidenze casuali (falsi allarmi in coincidenza) è dato dal prodotto tra la deviazione standard della stima del tempo di

1

Ipotesi ergodica: è possibile sostituire la media temporale su un certo sistema con la media su

un opportuno insieme di sistemi simili ad un determinato istante.

(10)

arrivo e la sua frequenza di eventi λ mediate sul numero totale di candidati trovati:

σ ¯

t "

¯λ



ni# 1

σ

ti

T

oss

(1.10)

dove T

oss

è la durata totale delle osservazioni e le deviazioni standard vengono sti- mate con simulazioni Monte Carlo o misurando la risposta del rivelatore ad una serie di sollecitazioni impulsive. La scelta della soglia di scambio è limitata da due diversi fenomeni: un limite inferiore è dato dalla condizione che le stime delle ampiezze e dei tempi di arrivo di ciascun evento debbano essere scorrelate, al tem- po stesso un limite al numero di eventi scambiati al giorno tra i rivelatori pone un taglio anche al tasso di falsi allarmi. Un valore di compromesso scelto da IGEC è stato tale che il prodotto 1.10 sia minore dello 0,1%, dato il flusso massimo di 100 eventi giornalieri.

1.4 Analisi coerente

Il principio su cui è basato questo tipo di analisi è il considerare la rete come un unico strumento di rivelazione, un tutto a cui ciascuna parte dà il proprio contributo.

Il rivelatore equivalente può essere idealmente posizionato su di uno già esistente,

oppure, più logicamente, essere immaginato al centro della Terra, in modo da farlo

essere equidistante da tutti gli altri.

(11)

La teoria matematica per questo studio è stata elaborata da A. Pai, S. Dhuran- dhar e S. Bose [14], e verrà qui riportata in breve. L’idea, come già accennato, è quella di considerare un rivelatore equivalente alla rete, di costruirne le funzio- ni statistiche necessarie, in modo che possa essere in grado di misurare eventi e determinarne i parametri della forma d’onda.

Utilizzando le notazioni introdotte precedentemente, la verosimiglianza, essen- do ciascun rivelatore indipendente dagli altri, sarà il prodotto di quelle di ciascuno strumento, di conseguenza il suo logaritmo sarà dato dalla somma dei logaritmi:

LLR

NW 

M I# 1



s

I

x

I I

1

2



s

I

s

I I

(1.11) Il segnale all’uscita di ogni rivelatore, s

I

t



, può essere scritto nella forma:

s

I

t



2kℜ E

I

S

I

t



exp iδ

c

(1.12) dove k

 2G

53Mc53π fs 2 3$ ξ

c4r

è l’ampiezza, E

I 

g

I

T

2p

ψ



ε



0



D

Ip

la funzione d’an-

tenna, dipendente sia dalla posizione della sorgente, che da quella dello strumento

tramite i suoi angoli di Eulero (la funzione D

Ip

è una combinazione delle funzioni

(12)

di Gel’fand di rango 2

2

T

sp

degli angoli citati), in sostanza il guadagno in ampiez- za introdotto dal rivelatore, infine S

I

t



è l’espressione complessa e normalizzata del segnale così come viene prodotto dalla sorgente, che ha per parte reale una polarizzazione, per parte immaginaria l’altra:

S

I

t



S

Io

t



iS

Iπ2

t



(1.13) Con le notazioni introdotte, la seconda parte dell’espressione per la verosimiglian- za logaritmica risulta essere:



s



s

NW

M I# 1



s

I

t

%

s

I

t

& I

4k

2 M

I# 1

E

I

E

I 

b

2

(1.14) essa rappresenta l’energia totale accessibile alla rete di rivelatori per un dato se- gnale.

1.4.1 Massimizzazioni analitiche

La massimizzazione della verosimiglianza può essere effettuata analiticamente per quattro degli otto parametri: la radice dell’energia, b, che, a massa di chirp fissata (dalla successiva massimizzazione rispetto al tempo di chirp), è funzione unica- mente della distanza, per cui di fatto si massimizza rispetto alla distanza, ma in modo più conveniente per i calcoli; la fase del’onda al momento della coalescenza, δ

c

, l’inclinazione dell’orbita rispetto al piano di vista, ε, e l’angolo di polarizzazio- ne dell’ellisse ψ. Introducendo la quantità vettoriale C, che combina le correlazio- ni delle due polarizzazioni del modello di segnale normalizzato con i dati per ogni rivelatore,

C

I 

c

I0

ic

Iπ 2

 

S

I

x

I I

(1.15)

2

Le funzioni di Gel’fand sono tensori così definiti:

Tmnl '

αβγ

(*)

exp

',+ inα(

exp

',+ imγ(Pmnl '

cos β

(

dove

Pmnl 'x(*) ',+

1

(l- min- m

2

l l m(

!

.

'l+ m(

!

'l/ n(

!

'l/ m(

!

'l+ n(

!

'

1

+ x( - n0m2 '

1

/ x( - n1 m2 dl- n

dxl- n 2'

1

+ x(l- m'

1

/ x(l3 m4

(13)

la verosimiglianza logaritmica alla fine delle massimizzazioni analitiche può essere scritta (utilizzando la notazione di Einstein sulla somma sugli indici ripetuti) come:

LLR

2b5δc5ε5ψ76

C

H

6

2

2



P

IJ

θ



ψ

98

c

I0

t

τ θ



ψ

:

c

J0

t

τ θ



ψ

;

c

Iπ

2

t

τ θ



ψ



c

Iπ

2

t

τ θ



ψ

=<

(1.16) ovvero in sostanza come la norma del vettore delle correlazioni proiettato sul piano di elicità, piano determinato dai due tensori D

I> 2

presenti nelle funzioni d’antenna, e dipendenti soltanto dalla direzione della sorgente e dalle orientazioni dei rivela- tori, e qui rappresentato dalla matrice P

IJ

. I τ esprimono invece i ritardi dei vari strumenti rispetto al sistema madre, quello della rete, e sono dovuti alle diverse posizioni di essi sulla superficie terrestre.

Nel caso di singolo rivelatore l’espressione per il logaritmo della verosimi- glianza si riduce alla 1.5: infatti resterà l’elemento P

11

della matrice P a moltipli- care la somma delle correlazioni corrispondenti alle due polarizzazioni dell’onda, e dalla relazione che lega S

I

ad s

I

si ricava esattamente la stessa formula. E’ in- teressante notare come con un singolo rivelatore non sia possibile ricavare alcuna informazione sulla posizione della sorgente, nè sulla distanza, in quanto essendo presente soltanto un’ampiezza, l’unico parametro di cui si abbia una stima è la massa di chirp del sistema.

Nel procedere con l’analisi risulta più conveniente, invece di usare la norma quadra di C

H

, definire come statistica di rete L



6

C

H

6

.

1.4.2 Massimizzazione rispetto al tempo di coalescenza

Al fine di massimizzare rispetto al tempo di coalescenza nel riferimento del net-

work, apporta una notevole riduzione ai costi computazionali passare alla trasfor-

mata di Fourier: calcolata per la correlazione C

I

di ciascun rivelatore, e parame-

trizzata la differenza tra modello e dati come ∆t

c

t

c?

t

c

, la dipendenza da ∆t

c

sarà

presente soltanto in un fattore di fase, sarà quindi possibile avere C

I

∆t

c

al variare

del parametro, con facilità. Applicando loro la trasformata inversa, si ottiene:

(14)

C

I

∆t

c

;t

c? 

ξ

?

θ

?

φ

?@ 

S

I

t



τ

I

θ

?

φ

?

;t

c? 

∆t

c

ξ

?%

x

I

t;t

c

ξ

A I

(1.17) dove le quantità primate si riferiscono al modello, le altre ai dati. I τ

I

θ

?B

φ

?C

sono i ritardi di ciascun rivelatore rispetto al “fide”, come viene chiamato il sistema della rete; il loro valore dipende strettamente dalla posizione della sorgente, e la loro esistenza deriva dalla propagazione finita, e con velocità pari a quella della luce, delle onde gravitazionali, motivo per cui a ciascun rivelatore arriveranno a tempi diversi (se il fide è posto al centro della Terra,



τ

I

 RD

c

). Se i valori che saranno scelti per ξ

?E

ϑ

?B

φ

?

(il criterio è esplicitato nel sottoparagrafo successivo) riproducono perfettamente l’eventuale segnale presente nei dati, la correlazione è massima quando ∆t

c

compensa esattamente la differenza t

c?

t

c

, da cui si ricava la miglior stima per il tempo di coalescenza.

1.4.3 Griglia di parametri e determinazione delle incertezze

Per quanto riguarda i restanti parametri è necessario procedere invece in modo di- verso. Al variare delle possibili posizioni nel cielo, ciascun rivelatore spazzerà una regione finita di valori del ritardo, ma dato che i dati sono campionati discretamen- te, verrà a formarsi una griglia, necessariamente composta da un numero finito di modelli. Se ad esempio la rete è costituita da due rivelatori è conveniente conside- rare come fide uno di essi, da cui è evidente che c’è un unico ritardo significativo, che assumerà valori nell’intervallo

8 d1cF 2 d1cF 2<

, dove d

1G 2

è la distanza tra i due strumenti; se ∆ è l’intervallo di campionamento (dell’ordine di 0.5 ms), allora il numero di punti della griglia di modelli è dato da:

n



1G 2

∆ (1.18)

Nel caso di network di tre rivelatori i ritardi significativi sono due, ed i valori

permessi loro formano un’ellisse nel piano dei parametri (infatti ognuno assumerà

valori in un intervallo, ed essendo in generale i due intervalli diversi tra loro, la

(15)

regione di piano delimitata risulta un’ ellisse), di equazione:

τ

21G 2

τ

21G 3

d

1G 3

d

1G 2



2

2 d

1G 3

d

1G 2

cos α

2G 3

τ

2

τ

3

H

d

1G 3

c sin α

2G 3 2



0 (1.19) con α

2G 3

angolo di vertice il primo rivelatore, e lati le congiungenti ad esso rispet- tivamente del secondo e del terzo. Ogni punto in questa regione rappresenta una coppia di ritardi, corrispondenti ad una determinata posizione nel cielo θ

?

φ

?

. Il numero di modelli nella griglia sarà:

n



2πA

c

2

2

(1.20)

dove A è l’area del triangolo che ha per vertici i tre rivelatori. Per la rete composta da Virgo e i due LIGO il numero stimato è 3

"

10

3

. In un sistema di tre elemen- ti, i due ritardi indipendenti formano due circonferenze nella sfera celeste, che si intersecano in due punti, per cui le possibili posizioni della sorgente sono due.

Questa ambiguità può essere risolta aggiungendo un quarto rivelatore che in gene- rale giacerà fuori dal piano formato dai primi, i ritardi significativi diventano tre, e la regione permessa è la superficie di un’ellissoide, mentre il numero di punti della zona permessa risulta il doppio rispetto al caso precedente:

n



4πA

c

2

2

(1.21)

con la differenza che adesso A indica l’area del minimo triangolo tra tutti i pos- sibili con vertici i rivelatori. Aumentando ulteriormente il numero di elementi le informazioni ricavabili sulla posizione della sorgente sono ridondanti, ma possono essere usate per ridurre l’errore sugli angoli dovuta alla presenza di rumore.

Inevitabile conseguenza del campionamento discreto è una possibile non per- fetta sovrapposizione tra la reale posizione della sorgente, e quella del campio- ne che meglio l’approssima, che porta ad una riduzione percentuale del rapporto segnale-rumore. Convenzionalmente viene accettata una perdita massima del 3%.

Se la griglia è troppo fitta, e la perdita massima risulta minore, ci sarà un eccessivo sforzo computazionale, mentre se è troppo spaziata, alcuni eventi rischieranno di essere persi tra le maglie.

Al fine di determinare al meglio la spaziatura della griglia in funzione del-

(16)

l’errore sulla stima dei parametri, viene usato un approccio geometrico ideato da Owen [13, 12] , che consiste nell’introdurre una metrica nello spazio dei parame- tri, la cui inversa è proporzionale alla matrice covarianza. Nell’approssimazione newtoniana lo spazio dei parametri, generato da quelli rispetto cui non è possibile massimizzare analiticamente, è quadridimensionale, e, in analogia con la Relati- vità Generale, le coordinate vegono espresse come coordinata temporale ϑ

0

t

c

e coordinate spaziali ϑ

iI

ξ



θ



φ

!

, dopodichè, visto che la massimizzazione rispetto a t

c

viene effettuata tramite la trasformata di Fourier, la griglia di modelli occorre solamente per le coordinate spaziali. La metrica ristretta all’ipersuperficie, se g

αβ

è la metrica quadridimensionale, è

γ

i j 

g

i j

g

0i

g

0 j

g

00

(1.22)

dove vale la convenzione per cui gli indici latini si riferiscono alle quantità spaziali.

Per ottenere il numero di modelli si calcola il volume proprio dello spazio dei parametri tramite γ

i j

v



spJparamK

det γ

i j

d

3

ϑ (1.23)

e lo si moltiplica per la densità numerica dei modelli, funzione della spaziatura µ

ρ

3

1 2

3

µ

3

(1.24)

L’espressione per la metrica dell’intero spazio si ricava espandendo la statistica di rete L normalizzata ad uno, attorno al suo massimo, che si ha quando il segnale coincide perfettamente con uno dei modelli:

L ϑ



∆ϑ

L

1



1 2

2

L

∂ϑ

α

∂ϑ

β



∆ϑ# 0

∆ϑ

α

∆ϑ

β

(1.25) in quanto il termine contenente la derivata prima è nullo, essendo L massimo per

∆ϑ



0. La metrica è così definita:

g

αβ 

1 2

2

L

∂ϑ

α

∂ϑ

β



∆ϑ# 0

(1.26)

(17)

da questa è possibile calcolare la sua restrizione alla parte spaziale, γ

i j

, che da un punto di vista statistico rappresenta l’informazione di Fisher

3

per un segnale di ampiezza unitaria. Il suo inverso è la matrice covarianza, i cui elementi diagonali sono le varianze sulle stime dei parametri ottenute con una determinata griglia. Per un segnale di ampiezza arbitraria sarà necessario riscalarli dividendo per la radice dell’ampiezza:

σ

i K

γ

ii

b (1.27)

Con questo procedimento è possibile dunque trovare una relazione diretta tra il numero di modelli della griglia e l’accuratezza dei parametri che si otterranno uti- lizzandola. Nella scelta purtroppo è necessario scendere a compromessi con i costi computazionali, che pongono limiti inferiori alla spaziatura della griglia; tutta- via successivamente, una volta scelto il modello che più approssima il segnale tra quelli della griglia, è possibile raffinare l’accuratezza sui parametri e ridurre così l’incertezza sulla loro stima.

Per sottolineare i vantaggi dell’analisi coerente è utile l’espressione per l’e- nergia accessibile alla rete 1.14 : nel caso di rivelatori con sensibilità identiche essa è proporzionale al numero di elementi, nella situazione più realistica di cur- ve di rumore diverse, la sensibilità del network risulta essere la media pesata di quelle dei singoli strumenti. In questo modo i rivelatori più sensibili contribuiran- no maggiormente alla rivelazione, che risulterà ottimale. La maggior sensibilità della rete rispetto a quella dei singoli strumenti si traduce in un aumento del rap- porto segnale-rumore misurabile, e di conseguenza un allargamento dell’orizzonte osservabile per via gravitazionale. Il rapporto segnale-rumore, infatti, diminuisce all’aumentare della distanza, presente nel fattore k.

La ricerca coerente è però ottimale soltanto nel caso ideale di rumore total- mente Gaussiano. Nella realtà si presentano degli eventi spuri non Gaussiani, che danno luogo a lunghe code nella distribuzione del rapporto segnale-rumore della rete. Esiste un metodo, detto test di consistenza, che filtra gli eventi dai falsi al- larmi basandosi sulla distribuzione di frequenza attesa per le coalescenze, ma non

3

Esiste un limite inferiore alla varianza di un parametro, dato da un caso particolare della disu- guaglianza di Cramer-Rao: Var

'

α

(NM 1

EO

'

∂αlnL(2P

. Il termine al denominatore è detto informazione

di Fisher, e nel caso di più parametri è una matrice.

(18)

riesce comunque a riportare il numero di falsi allarmi sotto la soglia prestabilita

(non maggiore di 1 evento l’anno [20] ). Per evitare questo inconveniente è neces-

sario analizzare i dati con il metodo della coincidenza, avendo prima verificato se

sia conveniente dal punto di vista della perdita di rapporto segnale-rumore.

(19)

Bibliografia

[1] Astone P., Babusci D., Baggio L., Bassan M., Blair D. G., Bonaldi M., Boni- fazi P., Busby D., Carelli P., Cerdonio M., Coccia E., Conti L., Cosmelli C., D’Antonio S., Fafone V., Falferi P., Fortini P., Frasca S., Giordano G., Hamil- ton W. O., Heng I. S., Ivanov E. N., Johnson W. W., Marini A., Mauceli E., McHugh M. P., Mezzena R., Minenkov Y., Modena I., Modestino G., Moleti A., Ortolan A., Pallottino G. V., Pizzella G., Prodi G. A., Quintieri L., Roc- chi A., Rocco E., Ronga F., Salemi F., Santostasi G., Taffarello L., Terenzi R., Tobar M. E., Torrioli G., Vedovato G., Vinante A., Visco M., Vitale S., Zendri J. P., “Methods and result of the IGEC search for burst gravitational waves in the years 1997-2000”, Phys. Rev. D 68, 022001 (2003).

[2] Belczynski K., Kalogera V., Bulik T., “A comprehensive study of binary com- pact objects as gravitational wave sources: evolutionary channel, rates, and physical properties”, Astrophys. J. 572 (2001) 407-431.

[3] Benacquista M. J., “Relativistic Binaries in Globular Clusters”, Living Rev.

Rel. 5 (2002) 2, http://relativity.livingreviews.org/lrr-2002-2 (2002).

[4] Blanchet L., “Energy loss by gravitational radiation in inspiraling compact binaries to 5/2 post-Newtonian order”, Phys. Rev. D 54, 1417 (1996).

[5] Blanchet L., “Gravitational Radiation from Post-Newtonian Sources and Inspiralling Compact Binaries”, Living Rev. Rel. 5 (2002) 3, www.livingreviews.org/Articles/Volume5/2002-3blanchet (2002).

[6] Castellani V., “Astrofisica stellare - I fondamenti fisici dell’interpretazione evolutiva di stelle e galassie”, Ed. Zanichelli, Bologna (1985).

19

(20)

[7] Culter C., Flanagan E. E., “Gravitational waves from merging compact bina- ries: How accurately can one extract the binary’s parameters from the inspiral waveform?”, Phys. Rev. D 49 2658 (1993).

[8] Fabri E., “Argomenti di Cosmologia e Astrofisica Relativistica”, Anno Accademico 2001-02, ftp://osiris.df.unipi.it/pub/sagredo/afrel

[9] Hurley J. R., Tout C. A., Pols O. R., “Evolution of Binary Stars and the Effects of Tides on Binary Populations”, Mon. Not. R. Astron. Soc. 000, 1-36 (2000).

[10] Losurdo G., “Ultra Low Frequency Inverted Pendulum for the VIRGO Te- st Mass Suspension”, Tesi di Perfezionamento in Fisica, Scuola Normale Superiore di Pisa (1998).

[11] Nutzman P., Kalogera V., Finn L. S., Hendrickson C., Belczynski K., “Gravi- tational Waves from Extragalactic Inspiraling Binaries: Selection Effects and Expected Detection Rates”, astro-ph/0402091 v2 (2004).

[12] Owen B. J., Sathyaprakash B. S., “Matched filtering of gravitational wa- ves from inspiraling compact binaries: Computational cost and template placement”, Phys. Rev. D 60, 022002 (1999).

[13] Owen B. J., “Search templates for gravitational waves from inspiraling binaries: Choice of template spacing”, Phys. Rev. D 53, 6749-6761 (1996).

[14] Pai A., Dhurandhar S., Bose S., “A data analysis strategy for detecting gravitational-wave signals from inspiraling compact binaries with a network of laser-interferometric detectors”, Phys. Rev. D 64, 042004 (2001).

[15] Paolicchi P., “Lezioni di Astrofisica I”,

http://www.df.unipi.it/

Q

paolic/dispense.html .

[16] Paolicchi P., “Lezioni di Astrofisica II”,

http://www.df.unipi.it/

Q

paolic/dispense.html .

[17] Saulson P. R., “Fundamentals of interferometric gravitational wave

detectors”, World Scientific Publishing Co., Singapore (1994)

(21)

[18] Sensibilità di LIGO advanced: Comunicazione privata di Peter Fritschel [19] Sensibilità di Virgo advanced: M. Punturo “Possible scenarios of Advanced

Virgo sensitivity” nota di Virgo (2004).

[20] Viceré A., “Network analysis for coalescing binaries: coherent versus coincidence based strategies”, Class. Quantum Grav. 21 (2004)

[21] Viceré A., “Introduction to data analysis in interferometric gravitational wave experiments”, World Scientific (2000)

[22] Viceré A., “Virgo-SIGRAV school: Data Analysis for Coalescing Binaries”

(2003)

[23] www.tapir.caltech.edu/

Q

huges/ASIS/sourcelist.html

[24] www.virgo.infn.it/senscurve/VIR-NOT-PER-1390-51.pdf

Riferimenti

Documenti correlati

La scoperta dei numeri trascendenti consentì, come vedremo, la dimostrazione d’impossibilità di diversi antichi problemi geometrici riguardanti le costruzioni con riga e compasso;

Calcolare il numero delle matrici in X che non soddisfano nessuna delle seguenti condizioni:. a) la terza colonna ha tutti gli elementi nulli; b) la prima riga ha tutti gli

38 disegno: il lato 43 deve essere orientato in senso

Steiner (1796–1863) hanno provato che ogni costruzione eseguibile con riga e compasso è ottenibile anche con la sola riga quando sia assegnata, nel foglio, una circonferenza

≥ 9/16 (chi ha Prob. nel programma) oppure ≥ 8/16 (chi non deve fare la parte di Prob.) Tenersi la parte di questo foglio sotto la riga (testo del quiz e

≥ 9/16 (chi ha Prob. nel programma) oppure ≥ 8/16 (chi non deve fare la parte di Prob.) Tenersi la parte di questo foglio sotto la riga (testo del quiz e risposte date)...

≥ 9/16 (chi ha Prob. nel programma) oppure ≥ 8/16 (chi non deve fare la parte di Prob.) Tenersi la parte di questo foglio sotto la riga (testo del quiz e

[r]