• Non ci sono risultati.

Capitolo 3 Riduzione dei dati osservativi

N/A
N/A
Protected

Academic year: 2021

Condividi "Capitolo 3 Riduzione dei dati osservativi"

Copied!
38
0
0

Testo completo

(1)

Capitolo 3

Riduzione dei dati osservativi

3.1 Procedure di riduzione

Una volta eseguite le osservazioni si pone il problema di utilizzare i dati osser- vativi per ottenere le informazioni fisiche pi` u adatte a caratterizzare gli oggetti astronomici. Nel seguito ci occuperemo di approfondire il caso delle immagini ottenute con un rivelatore di tipo CCD seguendo una logica che va a considerare la sequenza degli effetti strumentali che sistematicamente hanno “sporcato” il se- gnale astronomico durante le osservazioni. La tecnica che generalmente si adotta

`e quella di eliminare, per quanto possibile, questi effetti indesiderati seguendo una sequenza inversa a quella nella quale questi sono stati introdotti nel segnale raccolto.

Considerando per prime le operazioni di “riduzione dei dati” che si applicano in tutti i casi, sia per la spettroscopia che per l’imaging, abbiamo che le possibili correzioni includono:

- Correzione A/D, utilizzata per correggere eventuali non-linearit`a della con- versione tra segnale analogico e digitale; si tratta tuttavia di una corre- zione che viene applicata piuttosto raramente dato che ormai si hanno a disposizione ottimi convertitori lineari;

- Sottrazione del livello del “bias”: questa `e una operazione che deve essere sempre eseguita per eliminare il segnale sistematico di base che viene “im- presso” sul CCD prima dell’esposizione e che serve sia a garantire un segnale positivo anche con bassi livelli di luce sia a minimizzare la inefficienza del trasferimento di carica (vedi Fig. 2.6).

81

(2)

- Sottrazione delle strutture del bias (superbias), una operazione che spesso viene eseguita, ma la cui buona riuscita non sempre `e garantita.

- Correzioni della linearit`a: raramente applicata ai CCD, ma di solito usata con osservazioni fatte con gli array IR.

- Sottrazione della dark current (superdark): viene fatta occasionalmente dipendendo dal tipo di rivelatore (pi` u o meno rumoroso) e dal tempo di integrazione usato.

- Sottrazione della carica differita (cosiddetto “preflash subtraction”): ope- razione rara con i moderni CCD.

- Correzione per l’ombra prodotta dall’otturatore sull’array (shutter sha- ding): da applicare quando l’effetto dell’otturatore `e significativo (solo per tempi di esposizione brevissimi).

- Correzione di “flat field” da applicarsi sempre.

- Correzioni pi` u complesse come quelle legate alla presenza di luce diffusa (che produce flat field con caratteristiche differenti da quelle vere), l’eliminazione dei pixel saturi (hot pixels), la sottrazione dell’eventuale immagine residua (detta anche ghost)....

- Sottrazione del fringing e del fondo del cielo (sky subtraction): da applicarsi occasionalmente quando sono disponibili le misure accessorie che permet- tono di valutare la brillanza del fondo del cielo e le frange di interferenza prodotte da eventuali filtri usati per isolare le regioni spettrali di interesse durante le osservazioni. Queste frange sono prodotte da interferenza tra riflessioni multiple all’interno dei filtri usati oppure anche all’interno degli strati trasparenti di un CCD (specialmente se si usano CCD thinned).

3.1.1 Sottrazione del bias

Se durante l’acquisizione delle immagini viene anche acquisito il segnale da una

regione cosiddetta di overscan, allora questo segnale rappresenta il segnale di bias

da sottrarre a tutta l’immagine. La regione di overscan, infatti, non `e altro che

una parte del rivelatore che viene accuratamente schermata dalla radiazione ed i

cui pixel vengono trattati nello stesso identico modo degli altri. La loro lettura

fornisce quindi il livello del segnale (detto anche pedestal o piedistallo) a partire

dal quale l’immagine `e stata poi costruita sui pixel esposti alla radiazione. La

(3)

Figura 3.1: Frange di interferenza che tipicamente appaiono nelle immagini otte- nute in banda I con un CCD “thinned”. Sono prodotte dalla presenza, specie in banda I, di righe spettrali emesse dai gas atmosferici (vedi Figura 1.4). Questa radiazione di fondo, soggetta alle riflessioni interne tra le superfici ottiche pre- senti sullo stesso CCD, produce la figura di interferenza che `e osservata come un disturbo sovrapposto al fondo del cielo. Si tratta di un disturbo di cui soffrono parrticolarmente i CCD thinned (vedi $ 2.2)

successiva sottrazione di questo segnale quindi elimina il “piedistallo” su cui `e sta- ta costruita l’immagine restituendo quindi ai pixel il valore del segnale prodotto dalla sola radiazione. Nel caso non vi sia l’overscan si usa acquisire le cosid- dette immagini di bias oppure delle immagini ad otturatore chiuso (dette “dark frames”) con tempo di integrazione pari a quello delle immagini astronomiche.

Notare che gli array IR dovrebbero gi`a dare delle immagini “bias subtracted” se

operano con lettura a doppia correlazione (che corrisponde ad una lettura non

distruttiva, vedi paragrafo 2.3), tuttavia spesso rimane un bias residuo di mino-

re entit`a ma che va considerato perch`e `e spesso dipendente dall’esposizione. In

questo caso `e utile acquisire immagini dark con lo stesso tempo di integrazione

delle osservazioni, da sottrarre poi alle osservazioni stesse ottenendo cos`ı auto-

maticamente anche la sottrazione del segnale “dark”. Siccome il bias pu`o subire

(4)

delle fluttuazioni durante le osservazioni `e buona norma acquisire molti frames per controllarne il livello; per questo `e pratica comune acquisire molti frames di bias (anche alcune decine) prima e dopo le osservazioni.

3.1.2 Sottrazione delle strutture del bias

Abbiamo visto che l’elettronica di lettura introduce un rumore di lettura (detto RON) che in alcuni casi pu`o mostrare delle sistematicit`a (dette anche “pattern”) che possono essere poi evidenziate e sottratte dai nostri dati. Naturalmente per sottrarre le sistematicit`a dobbiamo prima individuarle come tali e quindi ci aspettiamo che esse appaiano nelle immagini di bias sempre uguali come dovrebbe essere per i difetti ripetibili. Attenzione per esempio a verificare che il pattern non cambi con il puntamento del telescopio o col tempo, nel qual caso la correzione basata su un pattern fisso peggiora il risultato finale se applicata ad immagini ottenute con tempi e puntamenti diversi.

Attraverso l’istogramma dei bias ottenuti si pu`o controllare se si ottiene una gaussiana con ampiezza data dal rumore di lettura. Questo istogramma del bias ci permette di valutare il RON e se notiamo che questo `e maggiore di quanto ci aspettiamo vale la pena di verificare se non vi siano dei pattern spaziali nel RON e se questi siano ripetibili. Se acquisiamo molti bias frames allora li possiamo combinare per ottenere un frame che viene detto di “superbias”. Costruendo cos`ı pi` u superbias si potr`a poi verificare se i loro istogrammi sono effettivamente ripetibili.

Il numero di bias richiesti dipende molto dalla qualit`a del singolo bias: se questo `e davvero peggiore di quanto prevedibile in base al RON del rivelatore allora baster`a mediare pochi bias per migliorare la situazione. Tuttavia la maggior parte delle volte la struttura del bias `e tanto modesta da essere di ampiezza minore del RON stesso. In questi casi ricavare un superbias potrebbe addirittura peggiorare la situazione rischiando di aggiungere rumore piuttosto che eliminarlo.

In assenza di strutture nel bias possiamo calcolare il rumore nel superbias. Se questo `e ottenuto come media di N bias, il rumore `e dato da RON/ √

N e quindi l’immagine alla quale avremo sottratto il superbias avr`a un rumore di lettura efficace pari a σ ≃ pRON

2

(1 + 1/N), dove abbiamo considerato la composizione di due incertezze indipendenti. Dalla relazione si vede che `e sensato usare almeno N=10 frames di bias per ridurre il rumore di lettura dell’immagine bias subtracted al livello praticamente del RON.

I dati IR non dovrebbero richiedere correzioni per la struttura del bias a

causa della tecnica di lettura a doppia correlazione alla quale si `e accennato nel

paragrafo 2.3. Ricordiamo infine che `e possibile accorpare insieme la sottrazione

(5)

del bias e del dark se si acquisiscono dark frames (che contengono gi`a il segnale di bias) di durata pari a quella delle osservazioni.

3.1.3 Correzioni di linearit` a

Per alcuni rivelatori, specialmente quelli sensibili alla regione IR si deve tenere conto della non linearit`a. Per stimare la correzione si deve poter misurare l’out- put ottenuto al variare dell’intensit`a della radiazione incidente sul rivelatore. Per far questo `e necessario poter controllare accuratamente le intensit`a in ingresso oppure, cosa che `e pi` u facile da farsi, usare diversi tempi di integrazione mante- nendo costante l’intensit`a della luce incidente. Una buona determinazione della linearit`a richiede comunque di poter disporre di sorgenti di luce che siano stabili almeno entro l’ 1% su una scala temporale dell’ordine del tempo necessario alle misure di linearit`a che andiamo a fare. Si tenga presente che la condizione di stabilit`a entro l’ 1% non `e sempre facile da ottenere per una sorgente di luce. Se la si ottiene, tenendo conto che gli otturatori utilizzati sono di solito molto precisi nel determinare i tempi di esposizione, il rapporto dei flussi integrati nel tempo sar`a uguale al rapporto dei rispettivi tempi di integrazione usati. Quindi, facendo misure con diversi tempi di integrazione, si potr`a costruire una sequenza di valori sperimentali che riportati in un grafico chiariscono il tipo di relazione che avrete tra il livello del segnale ottenuto con il tempo di integrazione utilizzato.

Le eventuali non linearit`a nel segnale ottenuto sul rivelatore, appariranno chiaramente come una deviazione da una retta ideale che passi attraverso i punti sperimentali. Da un punto di vista pratico la misura si potrebbe realizzare come una sequenza di esposizioni con tempi di t

exp

= 1s, 2s, 1s, 4s, 1s, 8s, 1s, 16s ....

in cui le misure ottenute con tempo di integrazione crescente servono a costruire la curva di linearit`a, mentre le misure ripetute con t

exp

=1s servono a controllare e valutare la effettiva stabilit`a della sorgente di radiazione utilizzata.

Una volta ottenuta la curva di linearit`a del rivelatore e accertata la ripetibilit`a di questa curva, si potranno correggere le osservazioni per gli effetti di non non linearit`a di quel particolare rivelatore.

Nella maggior parte degli osservatori non sar`a necessario costruirsi la cur- va di linearit`a perch`e questa viene fornita come una informazione di supporto all’osservatore.

3.1.4 Sottrazione della “dark current”

Ogni rivelatore, oltre a produrre un segnale in seguito alla interazione con la

radiazione incidente, produce un segnale che viene detto di “oscurit`a”(o anche

(6)

“dark”) e che `e riconducibile alla agitazione termica del materiale con cui il ri- velatore viene realizzato. Questo segnale di oscurit`a `e prodotto anche in assenza di radiazione incidente ed e’ una funzione del tempo per cui spesso viene anche indicato come“corrente di oscurit`a” (dark current). In generale in un array la dark current cambia da un pixel all’altro, anche se di solito questo segnale `e reso minimo abbassando la temperatura di operazione dell’array. I pixel che mostrano una dark current pi` u alta del dovuto vengono detti “warm pixels”, mentre quelli che sono particolarmente rumorosi vengono indicati come “hot pixels”. In questa nomenclatura entrano anche i “cold pixels” che sono quelli che non mostrano alcuna o pochissima sensibilit`a sia alla radiazione incidente che alla dark current.

Per quanto abbiamo detto, il segnale dark `e ovviamente legato al tempo di inte- grazione usato per acquisire le immagini e quindi la correzione da applicare, per compensare questo segnale non voluto, deve essere stimata a partire dal tempo di integrazione usato per ogni frame acquisito. Una stima della dark current si pu`o fare sia acquisendo una immagine con otturatore chiuso di pari durata, sia uti- lizzando molti dark frames, da mediare, per realizzare il cosiddetto “superdark”

in cui il rumore di lettura (RON) ed il rumore di conteggio (shot noise, o rumore poissoniano) sono meno importanti che in un singolo frame.

In un caso ideale acquisiremo dark frames con tempi di integrazione uguali a quelli usati per le osservazioni; nella realt`a per`o si deve tener conto che i dark frames consumano una parte consistente di tempo e quindi si preferisce acquisirli nei momenti in cui le osservazioni sono impedite o dalla luce del crepuscolo o dalle nuvole. In generale si evita di acquisirli di giorno per evitare la possibilit`a che gli strumenti al piano focale del telescopio non siano perfettamente schermati rispetto alla luce diurna dell’ambiente.

Disponendo di moltissimi dark frames si possono raggiungere ottimi livelli di accuratezza nella correzione anche di quei pixel con bassissima dark current che sono dominati dal RON. Di solito tuttavia non si dispone di moltissimi dark frames e la strategia di riduzione pu`o essere di mediare su tutti i frames per produrre un superdark, ma considerando nulla la dark current per i pixel con basso contributo dark. In questo modo si correggono i pixel “warm” (che sono dominati dalla dark current) senza aggiungere rumore di lettura ai pixel buoni.

3.1.5 Sottrazione del pre-flash e correzione per “deferred charge”

Per i CCD con problemi di deferred charge ai bassi livelli di luce (problema pi` u

importante per i CCD pi` u vecchi, vedi anche Figura 2.6), le non-linearit`a possono

essere evitate con un pre-flash di luce che crei un “piedistallo” di segnale cui poi

(7)

si costruisce l’immagine durante l’esposizione. Per poter sottrarre il valore del segnale di piedistallo si deve valutare bene il suo livello prendendo una serie di frames con lo stesso valore di pre-flashing che possono poi essere combinati per determinarne uno medio. Questa procedura e’ comunque ormai poco utilizzata grazie al miglioramento dell’efficienza di trasferimento della carica nei CCD.

3.1.6 Correzione dell’ombra prodotta dall’otturatore

Poich`e un otturatore impiega un tempo finito per aprirsi e chiudersi, il tempo di esposizione effettivo `e una funzione della posizione sull’array. Naturalmente le osservazioni che potranno subire una influenza significativa da questo fenomeno saranno quelle con un breve o brevissimo tempo di integrazione. Si tenga tuttavia presente che l’aumento delle dimensioni dei rivelatori tende a fare riemergere questo problema anche per osservazioni con tempi brevi di esposizione.

Se ci proponiamo di ottenere una una precisione fotometrica dell’1% ancd- he con tempi brevi di esposizione (attenzione: spesso l’osservazione di campi contenenti stelle di calibrazione impone l’uso di tempi brevi) allora dovremmo correggere questo effetto. Per valutare la correzione da apportare alle osservazio- ni si va a confrontare il risultato di N esposizioni di breve durata t con una unica esposizione di pari tempo di integrazione nominale N t. Per ogni frame il numero di conteggi osservati sarebbe O

t

= S(t+∆t(x, y)), dove con S abbiamo indicato il flusso di conteggi veri, t `e il tempo di integrazione utilizzato, ∆t `e la differenza tra tempo di integrazione nominale ed effettivo in funzione della posizione del pixel.

Si pu`o scrivere quindi che, con tempi di integrazione brevi, per ogni esposizione avremo:

NO

t

= NS(t + ∆t) mentre per un’unica lunga esposizione di durata N t:

O

N t

= S(Nt + ∆t)

Dalle precedenti si vede che se il tempo di esposizione `e abbastanza lungo il

∆t dovuto all’otturatore diventa trascurabile e quindi in prima approssimazione possiamo scrivere O

N t

≃ NO

t

. Otteniamo allora:

NO

t

O

N t

= (t + ∆t) t

e quindi dal rapporto di due frames possiamo calcolare ∆t ed usare la prima equazione per correggere le esposizioni brevi ricavando il valore vero del segnale:

S = NS(t + ∆t)

NS t = O

t

t + ∆t

(8)

Si noti che il ∆t `e una quantit`a che dipende dalla posizione del pixel e quindi la relazione precedente andr`a utilizzata pixel per pixel.

3.1.7 Correzione di flat field

Questa correzione corrisponde alla compensazione delle differenze di sensibilit`a totale che sono sempre presenti tra i pixel di un array. Queste possono essere dovute sia ad una differente sensibilit`a intrinseca (che dipende dal processo di costruzione dell’array) tra i diversi pixel, sia a differenze nel cammino ottico (filtri, ottica, diaframmi, ...) che la radiazione percorre prima di raggiungere i diversi pixel dove viene poi rivelata. Tutte queste cause producono un errore di tipo moltiplicativo che dipendente dalla posizione sull’array.

La procedura per correggere queste differenze `e , in linea di principio, ab- bastanza semplice e corrisponde ad osservare una sorgente di radiazione che sia ugualmente brillante (cio`e “flat”, ovvero “piatta”) su tutto il campo osservato (da cui il nome di flat field). In questo modo tutte le differenze di segnale osservate sui pixel saranno riconducibili alle effettive differenze in sensibilit`a tra i pixel e tra i cammini ottici della radiazione. Si ottiene cos`ı una mappa della sensibilit`a dei pixel che viene anche detta pixel to pixel sensitivity map. Da quanto detto appare evidente che le osservazioni ottenute con un dato array saranno influenzate dalla particolare struttura di sensibilit`a dello stesso array e quindi richiederanno una qualche forma di correzione per ripristinare i rapporti di segnale effettivamente raccolto sui pixel. A questo scopo `e necessario dividere, pixel per pixel, i fra- me ottenuti durante le osservazioni per il frame del flat-field che, di solito, viene prima normalizzato rispetto alla media dei valori dei pixel.

La difficolt`a pi` u importante, nel procedere a questa operazione di correzio- ne, consiste nel trovare un campo da osservare che sia davvero uniformemente brillante per garantire una correzione accurata. In effetti, questa richiesta non `e facile da soddisfare e quindi si usano pi` u tecniche per ottenere il flat-frame per il quale divideremo le nostre immagini originali. A questa difficolt`a di ottenere un buon flat frame si aggiunge anche il fatto che c’`e anche una dipendenza dal colore della radiazione e quindi sar`a necessario determinare un flat-field per ogni lunghezza d’onda coinvolta nelle osservazioni. Se poi si usano filtri a banda lar- ga diventa anche importante considerare che lo spettro delle sorgenti usate per ottenere i flat-frames differisce da quello delle sorgenti astronomiche osservate e questo puo’ portare ad errori sistematici.

Un’altro aspetto importante riguarda la precisione con cui si richiede gene-

ralmente di conoscere la risposta di un pixel che `e dell’ordine di qualche frazione

di percento, il che corrisponde a richiedere ad un alto rapporto S/N per il flat

(9)

frame. A questo proposito va anche detto che un alto S/N in una data regione di un flat-frame non garantisce, di per se, che tutto il frame abbia lo stesso valore di S/N. Questo proprio a causa delle limitazioni sulla uniformit`a dell’illuminazione del campo e sul colore della sorgente usata. Quanto abbiamo detto ci fa conclu- dere che il principale fattore che limita l’accuratezza di un flat-field non sono gli errori casuali, ma quelli sistematici.

Le tecniche pi` u usate per valutare il flat-field sono tre, e precisamente:

Dome flat: con una lampada a spettro continuo (luce bianca) si illumina l’interno della cupola (o uno schermo in cupola) su cui si punta il telescopio per acquisire i flat-frames. Siccome la cupola `e un oggetto fuori fuoco la sua immagine non sar`a coniugata al rivelatore e quindi le irregolarit`a nel- l’illuminazione della cupola, che sono sempre presenti, tendono a mediarsi sul rivelatore. Nonostante questo vantaggio, i flat ottenuti in cupola so- no sufficienti a correggere solo ad un primo livello di accuratezza perch`e le condizioni di illuminazione del rivelatore da parte di un oggetto non a fuoco non sono le stesse di quando si fanno immagini del cielo. P.es., se un oggetto e’ fuori fuoco i cammini ottici dei raggi che vanno su un dato pixel passano da parti diverse dell’ottica rispetto al caso di una immagine a fuoco.

Questo tipo di flat `e utile per valutare la variazione di sensibilit`a tra i pixel se la corrispondenza tra il colore della radiazione usata per il flat e quello delle sorgenti astronomiche `e abbastanza buona, cosa che di solito `e abbastanza verificata. In ogni caso, a causa dei problemi di illuminazione a cui si `e prima accennto, l’accuratezza di questa tecnica sulle grandi scale spaziali `e dell’ordine di alcuni percento e non di frazioni di percento come auspicabile per una fotometria accurata.

Twilight flat Con questa tecnica si utilizzano i momenti di crepuscolo per ottenere immagini del cielo quando questo `e ancora abbastanza brillante per richiedere brevi tempi di integrazione. Tuttavia, a causa della breve durata del crepuscolo, questa modalit`a `e applicabile solo se abbiamo a che fare con un numero limitato di filtri e se i tempi di lettura dell’array non sono troppo lunghi. Anche con il crepuscolo i flats possono avere problemi di non perfetta corrispondenza tra la forma spettrale della luce usata per il flat e quella delle osservazioni ma, come si `e potuto intuire, il problema principale `e quello della breve durata del crepuscolo per cui si cerca di utilizzare sia il momento dell’alba che quello del tramonto.

Un problema minore che spesso si verifica con questa tecnica `e che nei

flat-frames possono apparire le stelle pi` u brillanti del campo. Per superare

(10)

questo inconveniente si usa ottenere pi` u flats nello stesso filtro, spostando leggermente il puntamento del telescopio di una decina di secondi d’arco tra un frame e l’altro. Questa tecnica (detta anche dithering ) permette di eliminare successivamente le stelle quando, combinando i diversi frames acquisiti, se ne ricava uno finale e senza stelle.

Dark sky flat Un’altra tecnica per ottenere un flat-frame si basa sull’osser- vazione di una regione di cielo presumibilmente vuota, ovvero senza stelle o nebulosit`a rilevanti. Il problema `e che la brillanza del cielo `e bassa (nella regione ottica) e quindi si ottengono spesso bassi valori del rapporto S/N.

Il vantaggio di questa tecnica `e che il colore della sorgente (cio`e del cielo notturno) corrisponde esattamente a quello del cielo durante le osservazioni.

Per ottenere la miglior correzione di flat field possibile si pu`o procedere ad utilizzare prima i flat ottenuti con una lampada in cupola per valutare la pixel-to- pixel response function, cio`e le variazioni relative tra un pixel ed i suoi adiacenti (variazioni a piccola scala). Poi, per avere anche una buona correzione a pi` u grande scala spaziale, `e opportuno evitare l’uso del “dome flat” usando invece il flat ottenuto sul cielo che non contiene l’errore sistematico (che agisce alle scale spaziali piu’ grandi) prodotto dalla non uniforme illuminazione del dome-flat.

Figura 3.2: Immagine rozza. Figura 3.3: Immagine di Bias.

Errori nella correzione di flat-field

Per valutare le incertezze in gioco in queste operazioni di data-reduction con-

sideriamo che, in assenza di background, gli errori relativi che avremmo nelle

(11)

Figura 3.4: Immagine di flat-field. Figura 3.5: Immagine finale.

osservazioni sarebbero pari a quelli che facciamo nel flat-field per il quale divi- diamo le osservazioni. Nella realt`a per`o abbiamo a che fare con immagini che presentano sempre un fondo e quindi ci poniamo il problema di valutare come l’incertezza sul flat si propaga quando valutiamo il flusso di una sorgente astrono- mica. Il flusso rivelato F `e infatti la somma di quello della sorgente S pi` u quello del fondo B e siccome non possiamo valutare il fondo esattamente sulla posizione della sorgente dobbiamo accontentarci di farne una valutazione nelle vicinanze della sorgente.

In questo caso, se invece di stimare correttamente il background come B lo valutiamo come x · B avremo che, quando lo sottrarremo al flusso osservato F per ottenere il segnale originale faremo un errore relativo dato da:

∆S

S = (S + B) − xB

S = 1 + (1 − x) B

S (3.1)

Si vede quindi che, quando il segnale da rivelare `e pari al fondo, un errore

dell’1% (cio`e x=0.99) nella valutazione di questo fondo corrisponde ad un errore

relativo dell”1% sul segnale ricavato per la sorgente. Se per`o il fondo `e dell’ordine

di B ∼ 100 S allora l’errore sarebbe di un fattore 2, ovvero del 100% da cui

si capisce che la correzione di flat-field `e cruciale nel caso della fotometria di

sorgenti deboli rispetto al fondo. Questo caso si realizza nella regione ottica

solo per sorgenti particolarmente deboli ma `e invece la regola nella regione IR

dove la brillanza del cielo `e particolarmente alta. Si noti anche che il problema

non cambia nel caso noi avessimo a che fare con sorgenti brillanti su un fondo

spazialmente non uniforme come spesso accade nella regione IR nella quale il

contributo dell’emissione termica del telescopio e della cupola sono importanti.

(12)

Questo contributo termico `e un grosso problema perch`e pu`o cambiare nel corso della notte con il cambiare della temperatura dell’ambiente e con la direzione di puntamento.

Da quanto abbiamo visto possiamo considerare che, se tutti i frame sono soggetti agli stessi errori di background (additivi) e flat field (moltiplicativi) allora possiamo risolvere il nostro problema di minimizzare gli errori osservando il cielo sugli stessi pixel che hanno osservato l’oggetto. In questo caso sottraendo il frame ottenuto sul cielo da quello sull’oggetto otteniamo come risultato un’immagine in cui il livello del fondo del cielo `e molto minore che nel frame di partenza. Di conseguenza si attenueranno gli errori provenienti dalla procedura di flat-field come abbiamo visto in accordo alla relazione 3.1. Si paga per questo un aumento di un fattore p(2) (se il cielo `e il contributo dominante) nel rumore poissoniano dell’immagine finale ottenuta dalla sottrazione “oggetto-cielo”.

Due cose ancora: i) questa procedura `e vantaggiosa solo nei casi in cui il cielo

`e pi` u brillante dell’oggetto da studiare; ii) se l’oggetto da studiare `e angolar- mente piccolo rispetto al campo coperto da un frame allora si pu`o osservare il cielo contemporaneamente alle osservazioni dell’oggetto semplicemente facendo pi` u esposizioni con la tecnica cosiddetta del dithering, che consiste nel muovere l’oggetto nel campo prima di ogni successiva esposizione.

Infine ricordiamo che la principale sorgente di inaccuratezza nella fotometria sono gli errori sistematici e pertanto una stima degli errori per via analitica `e impraticabile. La miglior cosa da farsi per stimare l’accuratezza del flat field `e di acquisire diverse immagini dello stesso oggetto che occupa diverse posizioni nel campo di vista (cioe’ la suddetta tecnica del dithering). Con queste osservazioni a disposizione si pu`o provare a determinare empiricamente il grado di ripetibilit`a delle misure. Questa tecnica `e assolutamente consigliabile se si usano strumenti di osservazione nell’IR.

3.1.8 Flat-field nell’IR

La correzione di flat-field `e particolarmente complicata nella regione IR dello spet-

tro poich`e ogni frame che si acquisisce, compresi i flat frames, contiene una com-

ponente additiva del segnale che `e prodotta dall’emisione propria del telescopio e

della sua cupola. Per le osservazioni da terra questo problema `e particolarmente

serio a lunghezze d’onda λ > 2µm dove l’emissione termica del telescopio domina

sulla componente del fondo del cielo. In questi casi una tecnica pu`o essere quella

di puntare la cupola ed ottenere frames con e senza illuminamento, in modo tale

da poter procedere poi successivamente ad una sottrazione dei due frame per

ottenere una stima del flat field. Naturalmente questa modalit`a lascia irrisolti i

(13)

tipici problemi dei flat in cupola: l’illuminamento non uniforme della cupola e la non corrispondenza del colore della radiazione usata con quella del cielo. Se si vuol provare a far meglio, sar`a utile acquisire anche i flat sul cielo (sky-flats).

Questi ultimi potranno essere usati con miglori risultati nel caso in cui il contri- buto additivo e spazialmente variabile del telescopio sia modesto rispetto a quello del cielo.

3.2 Operazioni durante le osservazioni

• Bias Il numero di immagini da acquisire dipende dalla natura e dall’am- piezza del pattern di rumore sistematico. Non implicano perdite di tempo di osservazione perch`e si possono acqisire durante il giorno.

• Flat Sono frames critici perch`e determinano la qualit`a del risultato scienti- fico. Se possibile conviene prenderne sia in cupola (dome flats) che sul cielo (twilight flats) per poter correggere le immagini con grande accuratezza sia a grande che a piccola scala spaziale. Se si prendono frames sul cielo (sky flats) bisogna usare la tecnica del dithering per avere la possibilit`a di elimi- nare le stelle che inevitabilmente compaiono nei flat frames presi sul cielo.

Se si acquisiscono immagini di twilight flats conviene prenderli a diverse altezze sull’orizzonte, se possibile.

• Dark Il numero di frames da acquisire dipende dalla natura e ampiezza del segnale dark. Naturalmente bisogna accertarsi che effettivamente du- rante il tempo di esposizione le condizioni di illuminamento del CCD siano effettivamente “dark”.

• Istogramma Per un controllo rapido della qualit`a dei dati e del comporta- mento del rivelatore `e consigliabile dare uno sguardo all’istogramma delle immagini.

• Linearit`a Usualmente nel caso degli array IR `e consigliabile prendere una sequenza di immagini per un controllo della linearit`a nella risposta.

• Rumore di lettura (RON) e guadagno (G) Consideriamo di aver ac-

quisito un insieme di misure ad un livello di luce L con uno strumento il cui

guadagno sia G. Il rumore in elettroni che ci aspettiamo su un pixel di que-

ste immagini sar`a dato da σ

2

= LG + RON

2

. Se facessimo questo tipo di

considerazioni per diversi livelli di illuminamento L potremmo ottenere un

grafico di σ

2

vs. L, la cui pendenza ed intercetta darebbero rispettivamente

(14)

il guadagno G ed il quadrato del rumore di lettura RON

2

. Questo tipo di grafico `e un ottimo test per un rivelatore e permette anche di valutarne la linearit`a.

Questo test richiede per`o di acquisire per ogni valore di illuminazione L un gran numero, diciamo N, di immagini che dovranno poi essere analizzate per valutare il rumore di lettura RON ed il guadagno G per ogni pixel.

Data la mole di dati da trattare si preferisce allora utilizzare l’insieme dei valori dei pixel come rappresentativi delle diverse misure alla stessa illumi- nazione. Tuttavia questo non si pu`o fare direttamente poich`e ogni pixel ha una diversa sensibilit`a ed un differente livello di RON cosicch`e non possia- mo considerarli un vero insieme statistico rappresentativo delle N misure per ogni valore di L. Per evitare questi problemi possiamo utilizzare invece pi` u immagini ottenute con una data illuminazione L, per considerere poi le loro differenze in modo da eliminare cos`ı su ogni pixel, il segnale ed evi- denziare il rumore. In pratica il rumore che ci aspettiamo nella differenza tra due immagini alla stessa L `e :

σ

2

= 2(LG + RON

2

)

Poich`e la relazione tra elettroni e conteggi `e tale che σ

2

(elettroni)=Gσ

conteggi

, in termini dei conteggi la precedente si scrive:

σ

conteggi2

= 2( L

G + RON

2

G

2

) (3.2)

Un’immagine differenza dar`a direttamente il valore di σ

2conteggi

per cui sar`a abbastanza semplice prendere differenze di immagini per diversi livelli di il- luminamento e quindi realizzare un grafico di σ

conteggi2

in funzione di L. Da un grafico di questo tipo si potr`a ricavare il valore di 2/G e di 2RON

2

/G

2

) che sono rispettivamente la pendenza e l’intercetta. Se una retta non rap- presenta bene l’andamento dei punti sul grafico allora questo `e un sintomo che qualcosa non funziona correttamente e sar`a bene capirne il motivo.

E anche possibile abbreviare i tempi di queste stime se vogliamo solo avere ` un’idea di prima approssimazione. In questo caso prenderemo un paio di bias frames, che corrispondono al livello zero di illuminamento, e ne faccia- mo la differenza. Quindi il rumore della differenza sar`a 2σ

2dif f

= 2 RON

2

. Ora acquisiamo due frames ad alto valore di illuminamento: in questa con- dizione il RON `e praticamente trascurabile e la valutazione del guadagno `e presto ottenuta dalla precedente eq. 3.2:

G = 2( L

σ

2conteggi

)

(15)

3.3 Trattamento delle immagini astronomiche

La maggior parte dell’informazione raccolta dalle osservazioni astronomiche `e in forma di immagini e con il termine “trattamento delle immagini” (image pro- cessing) si intende indicare una serie di operazioni che sono legate a specifici strumenti operativi che ci consentono di indagare i nostri dati attraverso:

- operazioni di lettura e/o scrittura che vengono generalmente indicate con l’abbreviazione I/O (da Input/Output);

- produzione di una appropriata rappresentazione grafica (display);

- un’aritmetica che operi sulle imagini

- una statistica che dia informazioni sul segnale contenuto nelle immagini.

Questi strumenti costituiscono la base per l’analisi delle immagini astronomi- che che pu`o avere vari scopi tra cui:

- fotometria di campi stellari (oggetti puntiformi o non risolti);

- fotometria di superficie (oggetti estesi);

- simulazione di immagini;

- analisi di Fourier;

- riduzioni ed analisi spettroscopiche.

3.3.1 Display delle immagini

Per ottenere una corretta rappresentazione delle immagini `e essenziale capire come rendere i dati come “vedere” tutta l’informazione che essi contengono. Le complicazioni nascono dal fatto che l’intervallo dinamico (dynamic range) dell’oc- chio umano e della maggior parte dei display normalmente usati `e sempre minore di quello dei dati astronomici. La maggior parte dei display usa 8 bit, e quindi solo 256 valori, per rappresentare l’intensit`a del segnale. ` E quindi comprensibile come un’immagine che contiene pixel con intensit`a variabili, per esempio, nell’in- tervallo [0 − 65535 ] se “riscalata” (rescaling) in 8 bit perder`a fatalmente tutta l’informazione che corrisponde alle variazioni pi` u fini delle intensit`a dei pixel.

Alternativamente si pu`o scegliere di rappresentare correttamente, cio`e a riso-

luzione piena, solo una parte del segnale contenuto nell’immagine in modo che

tra il massimo ed il minimo segnale vi siano meno dei 256 livelli disponibili per

(16)

il display. In quest’ultimo caso nel display avremo preservato l’informazione con- tenuta nella regione prescelta, ma avremo rinunciato a “vedere” correttamente i dettagli in tutta la restante parte dell’immagine. Converr`a quindi evitare l’uso di software che stabiliscono automaticamnete lo scaling di un’immagine perch`e questa comodit`a si paga poi con la perdita di informazione apparente. La scelta manuale delle modalit`a con cui si andr`a a rappresentare l’immagine rende invece consapevoli dei valori che i pixel assumono nelle immagini analizzate e quindi anche di eventuali problemi che sono intervenuti durante l’acquisizione dei dati.

P.es. sar`a pi` u o meno facile capire se i valori dei pixel sono vicini o lontani dal livello di saturazione.

I parametri per lo scaling di un’immagine saranno dati in termini di un limite inferiore ed uno superiore ( oppure di un limite inferiore ed un intervallo ): entro questi limiti i valori nei dati verranno poi scalati ad 8 bit nella rappresentazione sul display. Naturalmente si potr`a anche stabilire uno scaling non lineare dei dati che potr`a essere variamente definito da una funzione come p.es. il logaritmo, la radice quadrata, ....

Una volta stabilito lo scaling si potr`a poi stabilire la tabella dei colori con la quale si realizza una corrispondenza tra il valore (livello) del segnale da rappre- sentare e colore da usare. Questa tabella pu`o consistere in vari livelli di grigio (immagini in greylevels) oppure ad una particolare sequenza di colori (immagini in pseudo-colors)). La maggior parte dei software permettono di variare anche la brillanza ed il contrasto nel display per mettere in maggiore evidenza partico- lari dettagli: se si utilizzano queste possibilit`a allora `e consigliabile scegliere un intervallo di valori dell’immagine da rappresentare che sia sempre maggiore dei 256 valori disponibili nel display. Oltre a questo i software permettono anche di leggere il valore individuale di un generico pixel puntato dal cursore sul display.

Naturalmente in questi casi si pretende che il valore restituito dal software non sia il valore della tabella di colori usata nel display, ma il valore vero del segnale sul pixel puntato dal cursore.

Il software in generale dovr`a anche fornire la possibilit`a di effettuare zoom sull’immagine, alternare due o pi` u immagini, avere una qualche funzione di analisi interattiva come mediare sui valori dei pixel vicini al cursore, valutare il picco e la FWHM di una regione definita dal cursore, selezionare “oggetti”, etc....

3.3.2 Formato FITS

Avendo a che fare con grandi quantit`a di dati, specialmente nel caso delle im-

magini astronomiche, ci si pone il problema di immagazzinarli in un formato che

sia efficiente sia nel minimizzare lo spazio di memoria richiesto sia nel recuperare

(17)

tutta l’informazione al momento dell’analisi. Per questo motivo le immagini non sono quasi mai immagazzinate come numeri “formattati” (cio`e leggibili con un editor). Siccome il valore di un pixel viene codificato generalmente in 16 bit, potr`a coprire l’intervallo da -32768 a 32767 e se vogliamo scriverlo formattato abbiamo bisogno di almeno 5 byte quando evidentemente basterebbero solo 2 bytes (cio`e 16 bit) per rappresentarli in una memoria binaria. Per questo moti- vo le immagini in memoria vengono rappresentate con numeri “sformattati” (in forma binaria) che per`o vengono rappresentati con modalit`a che dipendono dai diversi hardware/software. Nella maggior parte dei casi la modalit`a usata nella rappresentazione `e quella del complemento a 2 per rappresentare gli interi, men- tre si usa lo standard IEEE per i numeri reali (floating point). Invece ci sono sempre delle differenze tra le diverse macchine per quanto riguarda l’ordine in cui vengono interpretati i bytes di queste rappresentazioni: alcune architetture usano il primo byte come il pi` u significativo, altre come il meno significativo !

Comunque, una volta scelta la rappresentazione, i valori dei pixel possono essere semplicemente scaricati sequenzialmente in un file. Questo file dovr`a per`o anche contenere qualche altra informazione, come p.es. le 2 dimensioni (x,y) in pixel dell’immagine, che potr`a poi consentire la ricostruzione fedele dell’immagine originale a partire dalla lettura sequenziale dei numeri. All’informazione di base sulle dimensioni dell’immagine se ne potranno poi aggiungere altre per specificare la scala lungo i due assi, il telescopio usato, il tempo di esposizione, ecc. ecc.

Il formato usato come standard per rappresentare e trasportare i dati astro- nomici prende il nome di FITS (Flexible Image Transportation System) ed `e descritto in dettaglio in una serie di articoli ( A&AS 44, 363; A&AS 44, 371;

A&AS 73, 359 ). Questo formato usa la codifica del complemento a 2 per gli interi e quella IEEE per i floating point, con il byte pi` u significativo per primo.

Nel formato FITS i dati sono organizzati in due sezioni: una detta di intesta- zione, detta image header , alla quale `e collegata l’altra, detta image data , che cointiene i dati veri e propri in formato binario. L’header `e la parte leggibile con un normale editor ed `e costituito da un numero variabile di linee di 80 byte, scritte con caratteri ASCII, che contengono l’informazione necessaria per inter- pretare i dati e per “spacchettare” correttamente i dati binari che, nello stesso file, seguono l’header. L’header contiene una serie di chiavi di lettura dette image keywords che possono avere lunghezza fino ad 8 caratteri. Quelle sempre presenti nell’header sono

1. SIMPLE = T (per “True”) oppure F (per “False”), a seconda che si tratti o no di una estensione speciale del formato FITS

2. BITPIX che d`a il numero di bit/pixel e quindi informa sulla codifica dei

(18)

numeri (p.es. 16 bit interi, a 32 bit floating, ...)

3. NAXIS che d`a il numero di assi, cio`e la dimensionalit`a dei dati, che pu`o essere 1 nel caso di immagini 1-dimensionali (spettri), NAXIS = 2 per le immagini, ma pu`o avere anche valori maggiori come NAXIS = 3 se vi sono pi` u immagini 2-dimensionali “impilate” (stacked) l’una sull’altra. ` E pos- sibile anche avere dimensionalit`a maggiore se `e necessario rappresentare opportunamente dati multidimensionali. Nella ricostruzione di un’immagi- ne bidimensionale l’ordine in un file FITS `e tale che l’indice delle colonne varia prima di quello delle righe.

4. NAXIS[n] una serie di keywords di questo tipo per indicare per ogni dimen- sione la lunghezza dell’asse

5. END per indicare la fine dell’header

Nel seguito diamo altri esempi di keywords opzionali che sono riferite in par- ticolare al caso di immagini del cielo: CRVAL[N], CRPIX[N], CRDELT[N], CTY- PE[N], OBJECT, DATE-OBS, INSTRUME, OBSERVER, TELESCOP, RA, DEC, EPOCH, COMMENT, HISTORY, etc...

L’utilit`a di queste informazioni `e evidente se notiamo che per un arbitrario sistema di assi (p.es. RA, DEC, lunghezza d’onda, ...) la coordinata di un pixel lungo l’asse n-esimo `e data da:

coordinata[n] = CRVAL[n] + (pixel-CRPIX[n])*CRDELT[n]

dove:

- CRVAL[n] rappresenta la coordinata del punto indicato da CRPIX - CRPIX[n] `e il pixel corrispondente al centro dell’immagine

- CRDELT[n] `e la distanza angolare coperta da un pixel nel cielo (la scala dei pixel)

Spesso per aumentare l’intervallo dinamico dei dati rappresentati si utilizzano due altre keywords, BZERO e BSCALE, attraverso le quali il valore di un pixel pu`o essere recuperato da

valore vero = (valore nel pixel * BSCALE) + BZERO

Si noti che, per assicurare la compatibilit`a del formato FITS con diversi tipi di

macchine, la sezione dell’header e quella dei dati sono completate rispettivamente

da blank e da zeri fino a raggiungere una lunghezza totale pari ad un multiplo

di 2880 bytes. Quindi aprendo con un editor un file FITS ci dobbiamo aspettare

una serie di righe di 80 caratteri (header) che terminano con la riga di END. A

(19)

seguire ci saranno un numero variabile di blank fino a raggiungere una lunghezza pari ad un multiplo di 2880 bytes. Seguiranno subito dopo i dati originali (raw data) in un flusso continuo di bytes che alla fine sono completati da tanti zeri quanti ne servono per raggiungere la lunghezza di un multiplo di 2880 bytes.

La lettura/scrittura di questi files `e facilitata da molte routine distribuite pubblicamente e sempre presenti nei software di riduzione ed analisi di dati astronomici. I software di analisi dati pi` u diffusi in ambito astronomico sono tre:

IDL (Interactive Data Analysis): `e un pacchetto commerciale di larghis- sima diffusione e per il quale sono state sviluppate moltissime librerie di procedure per scopi specifici. Una vasta raccolta di procedure si pu`o tro- vare all’indirizzo: http://idlastro.gsfc.nasa.gov/homepage.html Si tratta di un linguaggio di programmazione nel quale l’operatore ha massima libert`a di intervenire ad ogni livello dei codici.

MIDAS (Munich Image Data Analysis System) sviluppato dall’ESO (Euro- pean Southern Observatory) e distribuito gratuitamente (http://www.eso.org).

L’operatore utilizza delle procedure di riduzione ed analisi dei dati nelle quali pu`o variare una serie di parametri.

IRAF (Image Reduction and Analysis Facility) sviluppato dall’NOAO (Na- tional Optical Astronomy Observatory, http://iraf.noao.edu/). Come nel caso di MIDAS l’operatore, variando i parametri di input delle procedure, pu`o svolgere il suo compito di riduzione ed analisi dei dati.

Va detto infine che il formato FITS ha subito negli anni varie modifiche, dette

anche estensioni, per permettere di immagazzinare pi` u informazioni e non solo

dati relativi ad immagini. In particolare anche dati in forma di tabelle (dati tabu-

lari) i cui elementi possono rappresentare diversi tipi di dati. File FITS di questo

tipo vengono anche detti “FITS tables” e possono essere scritti sia in ASCII che

in formato binario. Un’altra estensione FITS che si pu`o incontrare `e stata intro-

dotta per rappresentare nello stesso file un gruppo di immagini diverse, ciascuna

con il proprio header, e con un header comune a tutte le immagini. Questo ti-

po di estensione `e utile per immagazzinare un’immagine ripresa da un rivelatore

composito che viene realizzato come un mosaico di rivelatori che coprono una

ampia regione di cielo durante l’osservazione.

(20)

3.3.3 Combinare immagini

In molte situazioni osservative si acquisiscono numerose immagini che poi vengono combinate per ottenere un dato risultato. Esempi di casi di questo tipo sono la determinazione del flat field, la realizzazione del superdark, la valutazione del fondo del cielo (specialmente nell’IR) ottenuta con la tecnica del “dithering”, la ricerca di un migliore rapporto S/N ripetendo la misura pi` u volte e poi sommando i frames, etc.

Sappiamo che, una volta ottenuto un campione di misure della stessa gran- dezza fisica, la migliore stima del valore intrinseco della grandezza `e data, nel senso della massima probabilit`a, dalla media del campione. Tuttavia la media campionaria non `e particolarmente robusta quando siamo in presenza di outliers, ovvero di misure che danno valori molto al di fuori di quello che `e ragionevol- mente atteso. Gli outliers sono infatti spesso associati alle misure sperimentali e sono il prodotto di eventi inattesi come l’arrivo di raggi cosmici sul rivelatore, flickering delle stelle, letture del rivelatore con “bad data”. Qui ci occupiamo di un aspetto cruciale nella riduzione ed analisi dei dati astronomici che consiste nel saper combinare pi` u immagini per ottenere il risultato voluto, escludendo allo stesso tempo gli “outliers”.

E intuitivo che la combinazione di pi` ` u immagini di uguale formato pu`o essere fatta mediando tutti i valori ottenuti su un dato pixel. Siccome la presenza di

“outliers” `e inevitabile, per valutare il valore di un pixel sull’immagine combina- ta possiamo utilizzare la mediana che, in presenza di outliers, `e uno stimatore pi` u robusto, anche se in linea di principio meno accurato, della media della po- polazione campionata dalle misure. Alternativamente si potrebbe utilizzare la conoscenza a-priori degli outliers sfruttando p.es. il fatto che i segnali di rag- gi cosmici e stelle sono sempre positivi: in questo caso potremmo eliminare dal computo della media il massimo valore ottenuto su ogni pixel. Tuttavia questa scelta porterebbe ad un bias per tutti i pixel che non hanno outliers e quindi si preferisce cercare di compensare questo bias eliminando sia il valore massimo che il minimo. Anche questa procedura ha i suoi inconvenienti perch`e produce un bias (anche se minore) sui pixel con un outlier e toglie comunque segnale (i 2 valori min e max) sui pixel buoni. Probabilmente la procedura migliore `e quella di eliminare dai dati i valori che si trovano al difuori di n-sigma per poi ricalco- lare la media. Il problema in questo caso viene dal fatto che la valutazione della sigma `e molto sensibile proprio alla presenza degli outliers che vogliamo isolare ed eliminare e quindi questa procedura `e di semplice applicazione solo quando si ha una conoscenza del modello giusto che descrive la distribuzione (non sempre

`e la gaussiana) del mix tra outliers e valori del segnale. Comunque in generale si

(21)

pu`o adottare un modo di procedere abbastaza diffuso, cio`e si calcola la media e la varianza della distribuzione dopo aver eliminato il valore massimo dal campione.

Un caso pi` u complicato lo incontriamo quando le immagini da combinare sono riferite a diverse intensit`a. ` E il caso per esempio dei flats che vengono ottenuti sul cielo crepuscolare e quindi sono ottenuti ad intensit`a che crescono o decrescono a seconda che siano riferiti all’alba o al tramonto. Bisogner`a trovare quindi un modo per normalizzarli prima di combinarli considerando eventualmente anche il diverso livello di rumore.

Un’altra situazione che implica la combinazione di pi` u immagini `e legata alla determinazione della brillanza superficiale del cielo eliminando dall’immagine gli oggetti astronomici. Ricordiamo che un’immagine stellare `e costituita da un picco di intensit`a che decresce rapidamente allontanandosi dal massimo e producendo poi ali estese sulle quali l’intensit`a va lentamente a zero. Queste ali non hanno grande importanza se si considerano gli effetti su un solo pixel, mentre sono un notevole problema se si vuole sottrarre la brillanza del cielo ad una immagine prima di fare la fotometria degli oggetti astronomici. Infatti anche se la brillanza dell’immagine stellare su questi pixel `e modesta rispetto al picco, il fatto che moti pixel sono coinvolti nelle ali rende importante questo punto.

Finora, nel fare le nostre considerazioni, abbiamo pensato ad un singolo pi-

xel alla volta senza sfruttare nessuna informazione su quello che accade ai pixel

adiacenti. Un caso in cui emergono molte delle sottigliezze insite nel trattamen-

to delle immagini che facciamo `e quello della valutazione (e poi sottrazione) del

background del cielo prima di passare all’analisi scientifica delle immagini. Ov-

viamente avremo bisogno di determinare il valore della brillanza del fondo e per

far questo si adotta spesso la tecnica di ottenere pi` u immagini dithered, cio`e con

piccoli shift nel puntamento (tipicamente una decina di arcsec), della stessa re-

gione di cielo vogliamo sottrarre le sorgenti per ottenere un’immagine contenente

il solo segnale di fondo. Ovviamente tutte questi immagini conterranno sia il

fondo che gli oggetti astronomici e quindi per eliminare questi ultimi potremmo

estrarre un’immagine in cui ogni pixel `e dato dalla mediana dei pixel della pila

di immagini ottenute (le immagini “impilate” sono dette anche “stack” di im-

magini). Il risultato di questa semplice operazione, che chiameremo supersky ,

potrebbe sembrare pi` u che soddisfacente ad occhio, anche se non bisogna farsi

ingannare dalle apparenze perch`e si tratta solo di una prima approssimazione

del background effettivo. Infatti, se proviamo a ripetere la procedura per otte-

nere un altro supersky e dividiamo poi i due supersky tra loro ci accorgeremo

che appaiono gli effetti della brillanza contenuta nelle ali degli oggetti presenti

nell’immagine. Queste ali permangono nel supersky e quindi aggiungono un’ef-

fetto sistematico nelle analisi successive. Per evitare questa situazione `e utile

(22)

individuare prima le posizioni delle stelle e quindi mascherare i pixel adiacenti intorno ad ognuna di esse prima di combinare i frames dello stack per ottenere il supersky. Per un risultato migliore conviene prima allineare (ricentraggio o recentering) e sommare le immagini per ottenere una buona rivelazione anche di stelle deboli. Poi si adotter`a una opportuna mascheratura da applicare a tutte le immagini originali prima di valutare il fondo del cielo. Naturalmente nel valu- tare la mediana su ogni pixel non terremo conto dei frames in cui quel pixel sia stato mascherato. Siccome il background valutato in questo modo utilizza tutti i frames acquisiti, permetter`a di rivelare anche gli oggetti pi` u deboli che usando la semplice mediana sarebbero irrimediabilmente persi.

Nel caso il fondo del cielo cambi col tempo allora con questa tecnica si po- tranno ottenere pi` u immagini del background, usando in particolare le due pi` u vicine in tempo ad ogni immagine che si voglia ridurre.

La tecnica che abbiamo descritto, prevedendo la mascheratura degli oggetti (in particolare le stelle), funziona bene solo quando i campi osservati non sono affollati. Nei casi in cui il campo sia affollato di stelle (si usa il termine “crowded field”) bisogner`a individuare un campo vicino non affollato su cui ricavare il background tenendo conto che si tratter`a sempre di una approssimazione.

Sommare immagini

Una condizione essenziale per sommare immagini ottenute con il dithering sulla stessa regione di cielo `e di saper individuare una trasformazione che riposizioni tutti i frames su uno stesso sistema di riferimento spaziale. In altre parole biso- gner`a individuare lo shift che interviene nelle due coordinate delle immagini per far s`ı che l’immagine di un oggetto capiti nella stessa posizione spaziale in ogni frame prima di poter sommare coerentemente. Precisiamo che in questa discus- sione abbiamo a che fare con immagini ottenute con shift di piccola ampiezza in modo tale che eventuali distorsioni dell’ottica, presenti sul campo dell’immagine, non siano un problema. Infatti ricentrare immagini con forti distorsioni `e molto pi` u complicato e diventa una necessit`a nel caso si vogliano realizzare dei mosaici a partire da immagini che ne costituiscono le tessere. Questo perch`e le tessere sono da sorapporre l’una sul bordo dell’altra e quindi proprio laddove le aberrazioni dell’ottica sono maggiori.

La tecnica del dithering `e essenziale nelle osservazioni IR che quindi si svolgono ottenendo un gran numero di frames con piccoli shift di puntamento. Questo approccio ha molti vantaggi:

si possono ottenere lunghi tempi di integrazione senza rischiare la satura-

zione del rivelatore

(23)

si pu`o valutare il fondo del cielo

si possono eliminare i pixel difettosi senza perdere parti dell’immagine finale si possono eliminare le tracce eventualmente lasciate dai raggi cosmici Ci sono poi altri casi in cui pu`o essere richiesto di shiftare e ricampionare le immagini come nel caso in cui si vogliano combinare e sommare immagini ottenute da diversi telescopi, oppure ottenute a due diverse lunghezze d’onda, magari con lo stesso strumento ma con ottiche interne diverse (p.es.: shift causati dal cambio del filtro usato).

Prima di applicare gli shift opportuni abbiamo quindi bisogno di valutarne accuratamente l’ampiezza a partire dalle immagini che sono state ottenute al telescopio. Per questo scopo possiamo utilizzare varie tecniche:

valutare il primo momento (cio`e la media) dell’immagine lungo le due dimensioni:

hxi = P

ij

xI

ij

P

ij

I

ij

hyi = P

ij

yI

ij

P

ij

I

ij

per poi shiftare le immagini di quantit`a definite dalle differenze delle medie in x ed y;

utilizzare una gaussiana per fare un fit all’immagine di molte stelle rispetto ad x, y ed all’intensit`a; quindi, determinati i centroidi delle immagini stel- lari, utilizzarli per determinare i ∆x e ∆y di tutte le stelle per valutarne poi una media che fornisce lo shift migliore da applicare alle immagini;

fit gaussiani alle distribuzioni marginali (proiettando le immagini delle stelle lungo x ed y) delle stelle per individuare con accuratezza i centroidi Questi metodi ovviamente implicano la presenza nel campo osservato di immagini stellari con alto rapporto S/N e quindi incontrano difficolt`a in quei casi in cui l’immagine contiene solo oggetti estesi e/o solo stelle deboli. In questo caso si pu`o usare la correlazione tra due immagini (cross-correlation). In pratica questa operazione si pu`o realizzare cos`ı

- moltiplicate le due immagini pixel per pixel;

- ripetete l’operazione avendo shiftato le due immagini progressivamente in x ed y;

- costruite un’immagine le cui coordinate siano gli shift che sono stati appli-

cati e riportate i valori ottenuti per la correlazione ai vari shift

(24)

- approssimate una superficie a questi valori e trovatene il massimo: le coor- dinate del massimo indicano lo shift da applicare per la sovrapposizione delle due immagini.

La correlazione `e la tecnica che si usa anche in spettroscopia per valutare lo shift doppler delle linee spettrali. Attenzione per`o: lo shift doppler non `e uguale a tutte le lunghezze d’onda per cui la correlazione va calcolata tra spettri espressi in funzione del logaritmo della lunghezza d’onda !

“Shiftare” immagini

La richiesta di acquisire immagini con shift diversi ci porta a ridiscutere il tema del campionamento di un’immagine: ci domandiamo che informazione si ottiene e che cosa si perde dell’immagine originale se abbiamo a che fare solo con un suo campionamento spaziale ottenuto con i nostri pixel. Ci interessa sapere se lo shift delle immagini conserva il flusso e mantiene l’informazione spaziale, due caratteristiche che noi certamente richiediamo alle nostre osservazioni e che sono cruciali se poi andiamo a sommare immagini che sono state ricentrate con un certo shift. La Figura 3.6 illustra questo problema in modo schematico.

Immaginiamo quindi di campionare, col nostro rivelatore a pixel, un’immagi- ne che possiamo rappresentare come una funzione continua della posizione. Se teniamo presente che il seeing limita l’osservazione delle caratteristiche spaziali ad alta frequenza, possiamo pensare di avere a che fare con una funzione limitata in frequenza. In queste condizioni l’analisi di Fourier ci assicura, attraverso il cosiddetto “teorema del campionamento”, che un segnale limitato in frequenza pu`o essere completamente ricostruito se viene opportunamente campionato. In questo caso la “ricetta” del buon campionamento dice che `e necessario prelevare segnale ad una frequenza spaziale pari almeno al doppio della frequenza di cut-off imposta dal seeing. Per. esempio, se il seeing sparpaglia la luce stellare su una scala spaziale di 0.8 arcsec noi l dove dovremmo campionare almeno ogni 0.4 arcsec.

Generalmente in astronomia si intende per “campionamento critico” (o cam- pionamento di Nyquist) quello che corrispondente a due punti per una FWHM (Full Width at Half Maximum) del disco di seeing. Nel caso di osservazioni al limite di diffrazione (p.es.: da piattaforma spaziale o utilizzando tecniche di ot- tica adattiva) si parler`a invece della FWHM del disco di Airy

1

. In pratica per`o le immagini vengono ottenute con pixel quadrati e non circolari per cui `e gene- ralmente consigliabile usare la regola approssimativa di tre campionamenti per FWHM.

1

La funzione di Airy descrive il fenomeno della diffrazione da parte di una apertura circolare

(25)

Figura 3.6: Sono illustrati nove pixel adiacenti (quadrati) e tre possibili posizioni (indicate dai cerchi) in cui si pu`o venire a trovare il centroide di una immagine stellare. Si noti che se la FWHM delle immagini stellari fosse dell’ordine del pixel-size il flusso totale misurato sarebbe dipendente dalla posizione del centroide rispetto alla geometria dei pixel. In conseguenza `e preferibile che pi` u pixel siano contenuti nella FWHM delle immagini stellari (vedi testo).

A questo punto la domanda `e : come ci comportiamo se lo shift che determi- niamo per ricentrare un’immagine non `e un numero intero di pixel ? La risposta non `e univoca e dipende da come il nostro apparato osservativo ha campionato le immagini.

caso A) Se disponiamo di immagini campionate a frequenze maggiori di quella cri-

tica (sovracampionate) possiamo pensare di convolvere l’immagine cam-

pionata con una funzione sinc di opportuna ampiezza spaziale. Questa

viene determinata usando il fatto che l’immagine originale non contiene

frequenze spaziali superiori alla frequenza spaziale del seeing, per cui una

funzione a box di larghezza pari a 1/FWHM pu`o essere usata nello spazio

delle frequenze (spazio di Fourier) per delimitare lo spettro delle frequenze

(26)

dell’immagine. Siccome questa operazione corrisponde, nello spazio del- l’immagine, ad una convoluzione con una funzione Sinc di periodo pari alla FWHM allora se convolviamo la nostra immagine sovracampionata con una funzione sinc otterremo una nuova immagine che comunque rappre- senter`a correttamente l’immagine originale. Con questa tecnica possiamo quindi ricampionare le nostre immagini originali ottenute con pixel shiftati di quantit`a anche frazionarie, rispettando comunque la conservazione del flusso e delle caratteristiche spaziali delle sorgenti.

caso B) Se le immagini di cui disponiamo sono campionate alla frequenza critica o sono addirittura sottocampionate, l’operazione di Fourier non funziona pi` u bene e quindi `e meglio evitare ricostruzioni azzardate dell’immagine origi- nale attraverso la convoluzione dell’immagine campionata con una funzione Sinc. Il rischio `e di non conservare il flusso e introdurre artefatti nella di- stribuzione spaziale dell’intensit`a. Conclusione: molto meglio, se possibile, shiftare le immagini di un numero di pixel interi scegliendo questo numero il pi` u vicino possibile a quello che si stima possa essere un ragionevole valore per lo shift.

Molte routines calcolano lo shift frazionario di immagini usando schemi di interpolazione sofisticati piuttosto che la convoluzione con una Sinc. Tuttavia queste non necessariamente fanno un lavoro migliore dello shift intero quando si hanno immagini campionate alla frequenza critica o subcritica. Spesso si usano polinomi di ordine n che interpolano gli n + 1 punti intorno al punto interessato dall’interpolazione (interpolazione Lagrangiana). Se n = 1 l’interpolazione `e quella lineare, o bi-lineare se in due dimensioni. L’ordine dell’interpolazione pu`o essere aumentato e spesso si usa anche l’interpolazione bi-cubica. Per andare oltre bisogna essere cauti perch`e gli schemi di interpolazione pi` u semplici non conservano il flusso. Ribadiamo che nel caso di immagini ben campionate tutti gli schemi funzionano bene, ma passando ad immagini campionate meno bene i problemi crescono e conviene usare valori di shift che corrispondano ad un numero intero di pixel.

3.4 L’Arte della fotometria

In questa parte ci occuperemo delle tecniche che si usano per la fotometria di oggetti puntiformi (stelle) e per la calibrazione della fotometria a larga banda.

Per altri tipi di fotometria (p.es. la fotometria di oggetti estesi) si rimanda ad

approfondimenti esterni al programma di questo corso.

(27)

3.4.1 Fotometria con diaframma (aperture photometry)

Al piano focale di un telescopio la luce di una stella `e usualmente distribuita su alcuni pixel del rivelatore secondo una forma bidimensionale detta PSF(i, j) (da Point Spread Function), dove i e j rappresentano indici che identificano le due coordinate di un pixel. Il segnale raccolto S `e tuttavia prodotto dalla somma dei contributi della stella Stella(i, j) e del fondo del cielo B(i, j) per cui si pone il problema di sottrarre quest’ultimo per valutare correttamente la brillanza della sorgente stellare.

Per differenza possiamo determinare il segnale netto S della stella come S = X

i,j

[Stella(i, j) + B(i, j)] − N B

dove la somma `e estesa ad N pixel ed il background medio per pixel `e B. Il linea di principio il segnale dovuto alla sola stella si ottiene quando N → ∞ visto che le ali della PSF si estendono molto oltre la dimensione del seeing e quindi coprono molti pixel sull’immagine. In pratica cerchiamo di scegliere il numero di pixel N in modo che la frazione di luce stellare che cade entro la regione prescelta non sia dipendente dal particolare tempo di esposizione usato per una data immagine.

Per determinare l’incertezza, teniamo conto della statistica di Poisson dei fotoni e scriviamo

σ

S2

= X

i,j

[Stella(i, j) + B(i, j) + RON

2

] + N

2

σ

B2

(3.3)

= S + N RON

2

+ N B + N

2

σ

B2

(3.4)

Per valutare il fondo del cielo B nel caso pi` u semplice ci allontaniamo dalla posizione della stella e misuriamo il fondo in una regione adiacente di cielo adot- tandone un valore medio da sottrarre al segnale della nostra stella. Per attenuare il problema posto dalla non uniformit`a del cielo si preferisce valutare la media su un anello intorno alla stella per cui se l’anello contiene N

a

pixel il valore medio del fondo per pixel sar`a:

B = 1 N

a

X

a

B(i, j) con un errore associato

σ

B2

= 1 N

a2

X

a

(B(i, j) + RON

2

)

Da quest’ultima si vede che l’errore sulla valutazione del background `e molto

ridotto se viene valutato utilizzando molti pixel, come spesso avviene.

(28)

Se quindi gli errori sulla determinazione del fondo diventano trascurabili allora il rapporto segnale/rumore `e dato da:

S/N = S

√ S + N RON

2

+ N B

un importante risultato che abbiamo gi`a visto prima, con la differenza che ora compare esplicitamente il numero di pixel interessati. Usando questo risultato si pu`o ora valutare il numero ottimale di pixel per ottenere il segnale/rumore pi` u favorevole. Chiaramente il S/N tende a diminuire all’aumentare del numero dei pixel contenuti nel diaframma (l’apertura) che usiamo. Questo aspetto `e particolarmente critico per le stelle deboli tanto che, mentre per le stelle brillanti conviene aumentare l’apertura pi` u possibile per non perdere il segnale nelle ali, per quelle deboli vale il contrario. Ma attenzione, se si stringe troppo l’apertura il numero di pixel considerati pu`o diventare troppo piccolo per garantire una stabilit`a della fotometria tra frames diversi a causa della variazione della PSF da una esposizione all’altra o anche tra una regione e l’altra della stessa immagine.

Queste considerazioni portano alla tecnica, abbastanza diffusa, di considerare piccole aperture per tutte le stelle, eccetto che per poche stelle pi` u brillanti per le quali si usa un’apertura pi` u grande. Le poche stelle pi` u brillanti vengono assunte come rappresentative della PSF dell’immagine e quindi la fotometria fatta usando aperture pi` u piccole sulle stelle pi` u deboli pu`o essere successivamente corretta per la parte di area della PSF che viene tagliata dall’apertura scelta (aperture corrected photometry).

In questo ultimo caso il rapporto S/N viene migliorato per il fatto che usiamo l’informazione supplementare sulla forma della PSF che possiamo ottenere dalle sorgenti pi` u brillanti nel campo.

Se conosciamo bene la PSF e la posizione (centroide) della nostra sorgente possiamo, utilizzando argomenti legati ai minimi quadrati, ricavare che:

σ

S

= S + N

ef f

(B + RON

2

) dove

N

ef f

= 1 P P SF

2

(i, j)

Si noti che il rapporto S/N sar`a effettivamente aumentato solo se la PSF

che abbiamo valutato sulle stelle brillanti `e effettivamente la PSF applicabile a

tutte le stelle dell’immagine. Questo ci porta naturalmente a considerare ora il

caso di campi stellari molto affollati in cui l’apertura non pu`o mai essere scelta

molto ampia per evitare di mescolare la luce di una data sorgente con quella

(29)

proveniente da altre sorgenti adiacenti. In questi casi la fotometria di apertura `e sconsigliabile e dobbiamo usare un approccio diverso basato sulla PSF valutata sulle stelle brillanti.

3.4.2 Campi affollati (Crowding)

La tecnica a cui abbiamo accennato nel precedente paragrafo `e tanto meno con- sigliabile quanto pi` u la densit`a superficiale delle stelle in una immagine cresce. Si parla in questo caso di “affollamento” (crowding) del campo, cosa che porta a due conseguenze: le immagini stellari si sovrappongono in parte e le regioni anulari su cui si valuta il fondo del cielo contengono stelle. In queste condizioni `e necessa- rio utilizzare opportuni accorgimenti che permettano di ottenere comunque una fotometria delle singole sorgenti in campi affollati (crowded field photometry).

In queste applicazioni l’idea di base `e di cercare di sfruttare la conoscenza della PSF per ottenere simultaneamente la brillanza di tutte le stelle che si affollano (anche sovrapponendosi in parte) in una data regione dell’immagine. In poche parole la tecnica consiste nel realizzare una sequenza di operazioni che nell’ordine sono:

- Identificazione delle stelle. Si tratta di trovare, in modo automati- co, le posizioni delle stelle sull’immagine utilizzando i picchi del segnale 2-dimensionale. Naturalmente in questa fase sar`a importante considerare la fluttuazione del fondo del cielo per cui si definir`a una soglia di rumore al disotto della quale eventuali picchi non hanno senso. In modo pi` u attento si pu`o dire che, tra tutti i picchi di segnale che sono rappresentati nell’immagi- ne cerchiamo di selezionare solo quelli che pi` u somigliano ad una immagine stellare (PSF, vedi punto successivo). Per svolgere questo compito vi sono diverse tecniche, la pi` u diffusa delle quali `e quella di usare una specie di wavelet che convolve l’immagine per cercare le posizioni dei picchi signifi- cativi (fuori dal rumore). Questa fase `e poi seguita da una selezione dei picchi sulla base di criteri di “sharpness” e “roundness” che distinguono le immagini di stelle da immagini di oggetti estesi, di raggi cosmici, di difetti del rivelatore, ecc. Alla fine, per avere una lista con le posizioni dei soli og- getti che appaiono stellari, bisogner`a escludere gli oggetti spuri sulla base del rispetto dei criteri stabiliti di roundness e sharpness.

Point Spread Function (PSF) che caratterizza l’immagine . Per

questo si utilizzano le stelle pi` u isolate e brillanti dell’immagine, riportando

in una tabella il segnale letto sui vari pixel il cui segnale sia dovuto alle

stelle prescelte. Siccome il posizionamento dei picchi (che abbiamo anche

(30)

chiamato centroidi) delle stelle rispetto ai pixel del rivelatore `e vario, `e ne- cessario determinare una funzione che interpoli accuratamente tra i valori tabulati per ricavare una em PSF analitica da utilizzare nella stima del- le brillanze di tutte le altre stelle. Siccome si tratta pur sempre di una approssimazione sar`a utile memorizzare anche i residui ottenuti dopo aver fittato la PSF analitica. Se questi residui sono sistematici, cioe’ se tutte le stelle mostrano le stesse deviazioni dalla funzione analitica, `e opportuno registrarli in una tabella (detta “look-up table”) che potr`a poi essere usata per correggere il risultato ottenuto fittando la funzione analitica su tutte le sorgenti del campo. Un esempio di come si presenta una PSF `e mostrato in Figura 3.7 in cui sono evidenti le differenze tra una funzione analitica regolare e la realt`a del segnale ottenuto.

Figura 3.7: Point Spread Function (PSF) di due immagini ottenute con due

strumenti diversi e corrispondenti ad oggetti stellari. Si noti che nella figura in

alto compare un piccolo oggetto visibile sotto la sorgente astronomica: la sua

estensione angolare molto pi` u piccola rispetto alla PSF ed `e quindi considerato

come un artefatto.

Riferimenti

Documenti correlati

Calcolare la distanza (considerando i valori assunti sulle variabili ausiliarie, poiché in genere i dati vengono stratificati) tra l’unità del campione con mancata

Nei CCD raffreddati ad azoto liquido in genere si sottrae solo il Bias..

Un altro dato a sfavore della teoria dello “smascheramento” `e quello secondo cui gli effetti della deprivazione monoculare sono ancora individuabili alla fine del trat-

Il DW è quindi un ambiente specializzato a sé stante, in cui far periodicamente convergere tutti i dati utili ai processi decisionali, prelevandoli dai dati di

o Lau- rea breve Matu- rità Quali- fica senza acces- so Licen- za Me- dia Licen- za ele- men- tare/ Nessun titolo ALTRE PERSO- NE IN CERCA DI LAVORO TOTA- LE.. non dispo- nibile

Tratto da Golfarelli, Rizzi,”Data warehouse, teoria e pratica della progettazione”, McGraw Hill 2006...

Per motivi di gestione della rete di telefonia cellulare pu`o essere necessario diminuire il numero massimo di chiamate gestibili da una cella (diminuzione del valore

– il rapporto tra l’importo della riga corrente per le vendite e il totale complessivo per mese. DATA WAREHOUSE: OLAP - 52 Copyright – Tutti i