• Non ci sono risultati.

Metodi di Riduzione di Dose in Tomografia Computerizzata

N/A
N/A
Protected

Academic year: 2021

Condividi "Metodi di Riduzione di Dose in Tomografia Computerizzata"

Copied!
61
0
0

Testo completo

(1)

Scuola di Scienze MM.FF.NN.

DIPARTIMENTO DI FISICA

Corso di Laurea Magistrale in Fisica Medica

Tesi di Laurea:

Metodi di Riduzione di Dose in Tomografia Computerizzata

Candidato : Relatore:

Salvatore Di Vita Dott. Daniele Panetta

(2)

INDICE

Introduzione ………..1

Capitolo 1: PRINCIPI FISICI DELLA TOMOGRAFIA COMPUTERIZZATA………2

1.1 Cenni storici ………2

1.2 Interazione dei raggi X con la materia ………...7

1.3 Rivelatori di raggi X………9

1.4 Tomografia computerizzata………11

1.4.1 Evoluzione tecnologica della TC………11

1.4.2 Cenni sugli algoritmi per la ricostruzione di immagini tomografiche a partire dalle proiezioni…14 1.4.3 Qualità delle immagini ………..19

Capitolo 2 : PRINCIPI DI DOSIMETRIA E RADIOPROTEZIONE ………21

2.1 Grandezze di campo e grandezze di interazione……….21

2.2 Grandezze fisiche radio protezionistiche ………23

2.3 Dosimetri e loro funzionamento……… 24

2.4 Biodosimetria ………26

2.5 Principi di radioprotezione………..26

2.6 Dosimetria fisica in TC ………...27

Capitolo 3 : RADIOEPIDEMIOLOGIA DELLA TC……….31

3.1 Cause da sovraesposizione di esami TC………34

3.2 Image Gently Alliance & IAEA Radiation Protection of Patients (RPOP)………35

3.3 Rischi da radiazione da TC………36

Capitolo 4: TECNICHE FISICHE DI RIDUZIONE DELLA DOSE IN TC ………38

4.1 Tecniche hardware………39

(3)

- Modulazione angolare della corrente di tubo ……….40

-Modulazione longitudinale della corrente di tubo……….41

-Modulazione di corrente di tubo angolare - longitudinale………42

4.1.2 Confronto tra Energy Integrator Detector (EID) e Photon Counting Detector (PCD)…………..43

4.1.3 Limiti dovuti ad effetti fisici nei PCD………46

4.1.4 Vantaggi dei PCD nella riduzione della dose in TC………47

4.2 Tecniche software………48

4.3 Machine Learning & A.I. per riduzione di dose ………50

Conclusioni………51

(4)

1

INTRODUZIONE

In questa tesi verranno discussi dei metodi, sia consolidati nella pratica che attualmente di dominio della ricerca, volti a ridurre la dose di radiazione al paziente sottoposto alla Tomografia Computerizzata (TC). La Fisica Medica svolge un ruolo fondamentale nella definizione, implementazione e validazione di tali tecniche.

La qualità delle immagini bio - mediche, generate da esami TC, dipende dalla dose di radiazione al paziente, in quanto all’aumentare della dose viene diminuito il rumore statistico specialmente presente in protocolli di imaging ad elevata risoluzione spaziale. Allo stesso tempo, elevate dosi di radiazione sono pericolose per il paziente, in quanto i raggi X sono agenti cancerogeni di Gruppo 1(secondo la definizione dell’Agenzia Internazionale per la Ricerca sul Cancro). Abbassare la dose di radiazione a cui è esposto il paziente, implica adottare specifiche tecniche fisiche al fine di ridurre il deterioramento delle immagini, siano esse utilizzabili durante l’esame TC (in fase di acquisizione) che post esame TC (pre- o post-ricostruzione), come vedremo più in dettaglio nei capitoli successivi.

La tesi è così strutturata: nel Capitolo 1 si espongono dei cenni storici sulla nascita della Fisica Medica e sulla scoperta dei raggi X, della loro generazione e dei rischi biologici relativi al loro uso. Si esporranno inoltre i principi fisici e tecnologici della TC e la sua evoluzione tecnologica, nonché gli algoritmi principali di ricostruzione dell’immagine..

Nel Capitolo 2 vengono affrontati i princìpi di dosimetria delle radiazioni ionizzanti, nonché la definizione di tutte le caratteristiche tipicamente usate per misurare le dosi di radiazioni in generale e gli strumenti adoperati per la loro misura e loro funzionamento generale da un punto di vista fisico, elementi di bio-dosimetria, e i principi generali di radioprotezione; sarà data enfasi alle definizioni di dose adoperate nella Tomografia Computerizzata.

I capitoli 3 e 4 avranno la forma di una revisione della letteratura scientifica, partendo da alcune evidenze radio epidemiologiche (Capitolo 3) importanti per mettere nel giusto contesto le motivazioni della attuale ricerca in Fisica Medica sulle tecniche di riduzione di dose, e passando poi nel dettaglio dei metodi hardware (ad esempio, la modulazione di corrente del tubo radiogeno) e software (tecniche di denoising, ricostruzione iterativa e tecniche di Machine Learning) attualmente pubblicati (Capitolo 4).

(5)

2

CAPITOLO 1

Principi Fisici della Tomografia Computerizzata

1.1 Cenni storici

Prima di addentrarci nel vivo dell’argomentazione, è doveroso fare un’introduzione delle principali scoperte che hanno dato vita, col passare degli anni, a quello che oggi chiamiamo “ Fisica Medica”. Cominciamo pertanto da ciò che ha permesso la diagnostica primordiale, vale a dire i “Raggi X”. La scoperta dei raggi X è avvenuta in data : 8 Novembre 1895, ad opera di Röntgen1. Egli si accorse

che uno schermo di platino - cianuro di bario, situato in prossimità di un tubo catodico, brillava in modo piuttosto debole, al limite del visibile per l’occhio umano. Tale luminescenza era prodotta da una nuova forma di radiazione, sconosciuta all’epoca, prodotta dal frenamento dei raggi catodici sull’anodo del tubo. Ma vediamo più in dettaglio la strumentazione usata da Röntgen: un involucro in vetro tenuto in stato di sottovuoto, dove all’interno è situato un catodo ed un anodo entrambi realizzati con del tungsteno. Il catodo viene surriscaldato e, per effetto di emissione termoionica, vengono espulsi degli elettroni che vengono accelerati per mezzo di una differenza di potenziale tra il catodo e l’anodo; tali elettroni urtano l’anodo e vengono generati dei raggi X sia per fluorescenza che per frenamento (bremssthralung). Mentre il 99% dell’energia spesa dagli elettroni si trasforma in calore, solo l’1% è associata alla produzione di raggi X. La prima radiografia della storia si ebbe proprio grazie a Röntgen, facendo una radiografia della mano di sua moglie Bertha1 (Röntgen consegnò la relazione con la descrizione del suo esperimento presso la società di fisica medica di Wurzburg). Naturalmente, poco dopo la scoperta dei Raggi X, (per cui Röntgen, fu insignito del premio Nobel per la fisica nel 1901) la notizia si diffuse notevolmente, specialmente negli ambienti medici. Nel Gennaio del 1896, due medici viennesi iniettarono in una mano amputata2, una miscela

di sali di bismuto, piombo e bario e sottoposta subito dopo a RX, essendo che la miscela iniettata ha aumentato la densità del sangue, esso è diventato più opaco ai raggi X rispetto ai tessuti e ai muscoli circostanti; questo crea un contrasto che rende visibili i vasi nelle immagini. Negli ospedali americani questa nuova scoperta venne molto adoperata e addirittura in un ospedale dell’Inghilterra nasce il primo reparto di radiologia. Convenzionalmente, la nascita della Fisica Medica è fatta coincidere con la scoperta dei raggi X da parte di Roentgen .

Naturalmente si scoprì presto che i raggi X possedevano una certa pericolosità. Un giovane studente della Columbia University, di nome Hawks, facendo delle dimostrazioni di come funzionavano i raggi X al pubblico, avvicinava la sua testa accanto al tubo di generazione dei RX, ma dopo alcune esposizioni vennero fuori delle scottature alla pelle 2. Da questo episodio, si

(6)

3

necessario prendere delle precauzioni per l’uso di questo mezzo, che per quanto sia di enorme aiuto, è pur sempre, se adoperato male, pericoloso. Nacque così quindi l’esigenza di mettere appunto delle tecniche di radioprotezione.

I raggi X possono essere prodotti principalmente attraverso due processi che sono la radiazione di frenamento detto “bremsstrahlung” e mediante il fenomeno della “fluorescenza”.

L’effetto bremsstrahlung consiste nell’emissione di radiazione elettromagnetica causata dal brusco frenamento di particelle cariche (elettroni in questo caso) in prossimità di un atomo, tale frenamento è dovuto alle forze di repulsione generate dagli elettroni atomici, quindi si manifesta una perdita di energia cinetica dell’elettrone e produce così raggi X, che hanno energia inferiore o uguale all’elettrone incidente.

Le perdite di energia per irraggiamento sono maggiori delle perdite per collisione quando si supera l’energia critica ‘Ec’ degli elettroni. L’energia critica è definita approssimativamente tramite

l’equazione di Bethe-Heitler :

E

c

=

1600𝑚𝑒𝑐2

𝑍

[1]

(7)

4

(8)

5

Fig.2 Spettro bremsstrahlung

L’altro processo di produzione è la fluorescenza, cui processo è il seguente:

Un atomo viene investito da fotone energetico che cede energia ad un elettrone di uno dei livelli energetici dell’atomo ionizzandolo. Viene quindi liberato uno dei livelli energetici dall’atomo lasciando una lacuna (o vacanza); per via di una risistemazione elettronica interna (che dura un tempo tra i 10 -16- 10-9 s), la lacuna viene occupata da un elettrone che giaceva su livelli energetici

elettronici maggiori (orbitali più esterni) e viene liberata un’energia sotto forma di fotone X pari alla differenza energetica dei livelli coinvolti.

(9)

6

(10)

7

1.2 Interazione dei raggi X con la materia

Nel range energetico di interesse per l’imaging radiodiagnostico, ovvero approssimativamente per energie di fotoni comprese tra 10 e 150 keV, i principali meccanismi fisici di interazione dei raggi X con la materia sono: effetto fotoelettrico, effetto Compton ed effetto Rayleigh.

L’effetto fotoelettrico consiste nel completo assorbimento di un fotone X da parte di un elettrone atomico e ha come conseguenza, l’espulsione dell’elettrone stesso dall’atomo, che possederà, una volta staccatosi dall’atomo, un’energia pari ad

E= hν-E

L

[2]

Dove ν è la frequenza della radiazione incidente, h è la costante di Planck ed EL l’energia di

legame dell’elettrone.

Di solito questo effetto predomina ad energie basse (E<50 KeV)

Fig. 5 Effetto fotoelettrico. (Nell’esempio in figura si fa riferimento a luce incidente nel range del visibile, con energia sufficiente a indurre l’effetto fotoelettrico sul catodo di una fotocellula, tipicamente costituita da potassio.)

L’effetto Compton invece coinvolge un elettrone libero o un elettrone atomico debolmente legato che assorbe parte dell’energia di un fotone X incidente. L’elettrone bersaglio viene diffuso avendo acquistato parte dell’energia dal fotone incidente, il quale cambia direzione e diminuisce la sua energia.

L’energia dell’elettrone Compton è data da :

E= hν

0

𝛼(1−𝑐𝑜𝑠𝜙)

1+𝛼(1−cos(𝜙))

[3]

Mentre l’energia del fotone scatterato è uguale ad:

= hν

0

1

1+𝛼(1−cos⁡(𝜙))

[4]

Dove

α=

hν0

𝑚0𝑐2 =

ℎ𝜈0

0,511𝑀𝑒𝑉 ,

ϕ

è l’angolo tra la direzione del fotone incidente e la direzione del

(11)

8

Fig.6 Cinematica dell’effetto Compton

(12)

9

Fig.7 Range energetici di predominanza degli effetti di interazione radiazione-materia descritti. Nel grafico riportato sopra viene menzionata anche la produzione di coppie, che può verificarsi solo per energie superiori a 1.022 MeV (quindi al di fuori del range diagnostico citato).

L’effetto Rayleigh è un processo di diffusione elastica in cui non vi è trasferimento di energia dal fotone all’atomo, né produzione di particelle cariche secondarie, né eccitazione o diseccitazione nucleare. Dopo l’urto il fotone non cambia la sua energia ma viene soltanto deflesso, di solito a piccoli angoli.

1.3 Rivelatori di raggi X

Storicamente i sistemi di rivelazione dei raggi X erano le pellicole, con o senza schermi di rinforzo. Una pellicola radiografica è realizzata con un’emulsione di anioni di argento, questi dopo essere stati esposti alla radiazione generano - tramite una reazione chimica-: degli atomi di argento neutro. Generalmente tali pellicole venivano accoppiate a schermi di rinforzo fluorescenti per ridurre l’esposizione radiogena necessaria.

I fosfori più usati sono le terre rare come lantanio, gadolinio e ittrio, queste vengono usate perché hanno una maggiore efficienza di conversione rispetto agli schermi tradizionali. Lo spettro dei fosfori delle terre rare è più piccato sui 540 nm (colore verde, maggiormente rilevabile dall’occhio umano). In radiologia digitale, che da ormai quasi due decenni ha rimpiazzato la radiologia tradizionale, si adoperano le piastre di fosfori a memoria e in un setup denominato Computed Radiography (CR). Tali dispositivi, in seguito all’esposizione a raggi X, vengono illuminati da un laser emettendo così luce visibile. La luce visibile prodotta è successivamente convertita in segnale elettrico da un tubo fotomoltiplicatore (PMT) e digitalizzata mediante un convertitore analogico-digitale (ADC)3.

Più recentemente, sistemi di radiologia digitale (DR) basati su sensori di tipo Charge Coupled Devices (CCD) o Complementary Metal Oxide Semiconductor(CMOS), composti da matrici di elementi fotosensibili a semiconduttore (pixel), hanno iniziato a diffondersi. Il loro vantaggio consiste nella possibilità di effettuare imaging in tempo reale, senza la necessità di separare le fasi dell’esposizione e della lettura. Nei sistemi DR, le radiazioni ionizzanti incidenti generano coppie

(13)

10

elettrone-buca che vengono separate dal campo elettrico generato dalla differenza di potenziale di contatto nella giunzione tra stati di semiconduttore con diverso drogaggio (p e n ). La carica elettrica accumulata nel pixel, in seguito al passaggio dei fotoni, viene successivamente convertita in tensione amplificata e poi inviata ad un sistema di conversione analogico-digitale per la successiva memorizzazione ed elaborazione in forma numerica. In radiodiagnostica, queste matrici di elementi fotosensibili sono tipicamente alla base dei cosiddetti rivelatori: “flat panel”3. Nella maggior parte dei casi, la conversione dei raggi X in segnale elettrico è indiretta : i raggi X vengono prima convertiti in luce visibile mediante schermi di scintillatori, e successivamente la luce visibile viene convertita in segnale elettrico dal sensore sottostante con architettura CCD o CMOS3. La conversione può essere anche diretta3: in questo caso, il segnale elettrico viene formato direttamente dalla carica prodotta dal passaggio dei raggi X nella giunzione p-n del rivelatore a semiconduttore. Quest’ultima strategia è di particolare utilità nella rivelazione a conteggio di singolo fotone, e potrebbe superare la tecnologia indiretta e a integrazione di carica nei prossimi anni.

La rivelazione digitale mediante pixel a semiconduttore (tipicamente silicio) è anche alla base del processo di formazione dell’immagine in tomografia computerizzata (TC), che verrà illustrata nel paragrafo seguente.

(14)

11

1.4 Tomografia Computerizzata

1.4.1

Evoluzione tecnologica della TC

La TC è una tecnica diagnostica che permette la ricostruzione dell’anatomia del paziente in 3D, attraverso le sezioni del suo corpo. La tecnica si basa sulla trasmissione dei RX attraverso il corpo; l’immagine tomografica ottenuta fornisce morfologia degli organi, ma può fornire anche informazioni funzionali attraverso specifiche tecniche e mezzi di contrasto.

L’invenzione dell’EMI scanner, il primo tomografo TC ad uso clinico, si deve a Sir Godfrey Hounsfield (Premio Nobel per la fisiologia e medicina nel 1979 condiviso con il fisico Allan Cormack) al laboratorio di ricerca dell’EMI (tra l’altro casa discografica dei Beatles)3. Il processo matematico di ricostruzione dell’immagine si deve al matematico Radon. Il primo scanner TC a corpo intero è stato realizzato all’università di Georgetown University negli U.S.A. nel 1974 da Ledle3. Alla fine degli anni ’80 è stata introdotta la tecnologia del gantry a contatti striscianti (slip-ring) che rende possibile la rotazione continua del sistema sorgente-rivelatore3. Successivamente vengono introdotti nuovi metodi di ricostruzione da Kalender che hanno permesso di utilizzare protocolli di acquisizione TC “a spirale”, acquisendo l’immagine del paziente in tempi più rapidi, con una minore esposizione a radiazione e con un minore impatto del movimento del paziente nella qualità delle immagini3.

La prima generazione di scanner TC si basava su una sorgente di raggi X finemente collimata individuati da un piccolo rilevatore e, sia la sorgente che il rilevatore erano posti su un apparato rotatorio – traslante, così per ogni angolo di rotazione venivano proiettati diversi fasci di RX paralleli4. Per ottenere una scansione completa occorreva diverso tempo, dell’ordine dei minuti per slice.4.

(15)

12

Fig. 9 TC di prima generazione

Nella seconda generazione invece, la configurazione è tale da ridurre i tempi di acquisizione per slice. In pratica si sono adoperati per ogni posizione della sorgente di RX più di un rilevatore ed un fascio di radiazione X meno collimato4.

(16)

13

Poi abbiamo la terza generazione, in cui la velocità di scansione è aumentata notevolmente grazie ad una geometria di acquisizione “a ventaglio” (fan-beam). Le moderne macchine TC, appartenenti a questa generazione, possono acquisire l’immagine intera del corpo in meno di un secondo4.

Tuttavia, la geometria di scansione fan-beam porta ad una parziale ridondanza dai dati acquisiti, che deve essere corretta in fase di ricostruzione4.

Fig.11 TC della terza generazione

Nella quarta generazione abbiamo un anello di rilevatori intorno al paziente ed una sorgente di RX sempre con geometria a ventaglio, che ruota lungo l’anello e questo aiuta ad eliminare tutti gli effetti degli artefatti dovuti all’imperfetta calibrazione dell’efficienza dei rilevatori, dall’altro lato il campionamento angolare è limitato dal numero di rilevatori nell’anello3. Altri tipi di evoluzioni

sono sorte negli anni, come l’ anodo rotante per permettere la dissipazione di calore. Un’altra innovazione riguarda il tubo dei raggi X che ha lo spot focale dinamico: il campo magnetico deflette il campo di elettroni per modulare la traccia focale, per poter cambiare la posizione dello spot focale sulla superficie dell’anodo tra due impulsi del fascio consecutivi; tale tecnica serve per aumentare la frequenza di campionamento e aumentare così il numero di linee di integrali da acquisire per ogni angolo del gantry di ogni piano4.

(17)

14

Fig.12 della quarta generazione

Il numero di applicazioni cliniche della TC è aumentato notevolmente negli anni grazie all’evoluzione tecnologica sopra descritta. Ad esempio, negli anni ’90 del secolo scorso è stata introdotta la fluoroscopia TC, che è usata per acquisire dei dati in tempo reale in modo continuo, ed ogni frame viene ricostruito indipendentemente dall’angolo iniziale della sorgente, usando l’ultimo arco completo della posizione della sorgente stessa4. Più recentemente, è stata sviluppata e

perfezionata anche la TC per Angiografia Coronarica in cui l’importanza di valutare le dosi di calcio nelle arterie coronariche è stato riconosciuto come un fatto di grande importanza. In questa tecnica, è necessario usare il segnale elettrocardiografico (ECG) del paziente per dare il segnale di trigger per ogni slice4.

1.4.2

Cenni sugli algoritmi per la ricostruzione di immagini tomografiche a

partire dalle proiezioni

L’immagine di una radiografia, è interpretabile come una funzione della distribuzione tridimensionale del coefficiente di attenuazione lineare () del corpo del paziente.

Più specificatamente, in ogni punto (pixel) del rivelatore, l’intensità di radiazione rivelata è funzione dell’integrale della funzione (x,y,z) sulla retta che congiunge il punto di emissione dei raggi X (macchia focale) e il pixel stesso. Per definire il coefficiente di attenuazione lineare, supponiamo di far incidere un fascio di raggi X monoenergetici su un blocco omogeneo di spessore. Chiamando ‘I0’ l’intensità dei raggi X incidenti sul blocco, e ‘I’ l’intensità uscente dal

blocco, μ il coefficiente di attenuazione definito dalla seguente legge detta di Beer-Lambert4:

(18)

15

Il coefficiente  è legato alla sezione d’urto di interazione dei fotoni nella materia, s, dalla relazione seguente:

μ = σN = σ (

𝑁𝐴𝜌

𝐴

) [6]

dove N è la densità di atomi del materiale del blocco,

σ è la sezione d’urto totale data da :

σ= σ

fotoel.

Compton

+ σ

Rayleigh

A è il numero di massa, NA il numero di Avogadro, ρ la densità del materiale

Fig.13 Legge di Beer-Lambert

Il profilo di attenuazione P è dato da:

P = ln

𝐼 𝐼0

= -μl [7]

μ = -

1 𝑙

ln

𝐼 𝐼0

[8]

(19)

16

La formula di Beer-Lambert prende una forma più articolata se il coefficiente μ è la somma totale che tiene conto della somma delle varie componenti come μ =∑ 𝜇𝑖 𝑖(𝐸), inoltre tale equazione è applicabile nel caso in cui l’oggetto non è omogeneo e il fascio non è monocromatico, quindi5:

I =∫

𝐸𝑚𝑎𝑥

𝑑𝐸⁡𝐼

0

(𝐸)𝑒

− ∫ µ𝐿 𝐸(𝑥,𝑦,𝑧,𝑡)𝑑𝐿

0

[9]

Si sfrutta questa equazione di Beer Lambert in forma integrale per scrivere anche il segnale S in un punto del rilevatore di coordinate (u,v) sarà :

S(u,v) = ∫ 𝑑𝑡⁡𝐼(𝑢, 𝑣, 𝑡)

0𝛥𝑡

=

∫ 𝑑𝑡⁡ ∫

0𝛥𝑡 0𝐸𝑚𝑎𝑥

𝑑𝐸⁡𝐼

(𝐸)𝑒

− ∫ µ𝐿 𝐸(𝑥,𝑦,𝑧,𝑡)𝑑𝐿

[10]

Dove Δt è il valore minimo tra la durata dell’impulso dei RX e il tempo di esposizione del rilevatore; ed I’(E) è lo spettro di energia del fascio di RX4. L’equazione [10] è valida solo nel caso

in cui si assuma una perfetta Point Spread Function PSF(u,v) = δ(u,v) ), indicando con u,v le coordinate cartesiane nel piano di rivelazione, e il suo responso non dipende dall’energia del fotone. L è invece la linea tra il punto del rivelatore e la sorgente. In tomografia molte proiezioni indipendenti sono prese a diversi angoli4.

L’immagine TC è una ricostruzione della distribuzione dei coefficienti dell’attenuazione lineare per ogni punto della sezione dell’oggetto da studiare. La visibilità dei dettagli dell’immagine dipende dal contrasto che è calcolato da questa formula4:

C =

𝜇2−𝜇1

𝜇1

[11]

Dove

µ

2è il coefficiente di assorbimento dell’oggetto e

µ

1 quello dello sfondo, dall’equazione si nota come il contrasto non dipende dallo spessore dell’oggetto e neanche da quello dello sfondo, come invece avviene in radiografia proiettiva (planare). Il primario obiettivo della TC è quello di aumentate il contrasto, rispetto alla radiografia proiettiva, per distinguere sottili differenze nelle densità del tessuto molle che normalmente non si noterebbero nell’imaging planare. La scannerizzazione effettuata da una TC è nello specifico l’acquisizione degli integrali di linea della funzione (x,y), piuttosto che dei suoi valori locali. Il set completo degli integrali di linea prende il nome di “trasformata di Radon” della funzione oggetto µ(x,y). La trasformata di Radon in 2D può essere graficamente rappresentata su un piano con coordinate r e φ dove r sono le coordinate radiali e φ le coordinate angolari delle linee di proiezione; tale grafico così formato è chiamato sinogramma, e contiene informazioni per ricostruire una sezione dell’oggetto. Per ricostruire una immagine di 6400 voxels da 180 proiezioni, Hounsfield, ha utilizzato nel primo scanner da lui

(20)

17

costruito, il metodo iterativo chiamato ART (Algebraic Reconstruction Technique), che è una tecnica algebrica che consiste nello risolvere un sistema di equazioni che coinvolgono i valori dei segnali “p” e le incognite “µ” e il sistema si descrive in forma matriciale (A=µp, dove A è la matrice del sistema di equazioni) dai cui, manipoland, si ottengono le soluzioni:

𝝁 = 𝑨−𝟏p [12]

Nei moderni tomografi, il metodo ART è raramente utilizzato. Più comunemente, vengono utilizzati dei metodi basati sulla trasformata di Fourier, di cui il più diffuso è storicamente la retroproiezione filtrata (FBP) per dati da fasci paralleli 4.Ricostruire l’immagine della funzione oggetto f(x,y) in 2D per il fascio parallelo significa trovare la trasformata inversa di Radon5.

Nella geometria a fasci piani paralleli si usa rappresentare l’oggetto all’interno di una cerchio di raggio R, dove il centro di quest’ultimo coincide con l’origine di assi cartesiani (x,y). Si fa uso di un sistema di coordinate polari, dove si ha un angolo θ rispetto all’asse di ascisse (x) e una distanza ξ dall’origine5.

Quindi, detto ciò, il raggio si può matematicamente descrivere come :

ξ = xcos (θ) + y sin(θ) [13]

Le misurazioni TC corrispondono ad integrare la funzione oggetto f(x,y) lungo la direzione dei raggi e si ottiene così un risultato della proiezione detto “profilo” p(θ,ξ). La trasformata in due dimensioni di Radon è definita da:

p(θ,ξ) = ∫ 𝑑𝑥𝑑𝑦𝑓(𝑥, 𝑦)𝛿(xcos⁡(θ) + y⁡sin(θ) − ξ) [14]

dove δ è la funzione di Dirac.

Si effettua la trasformata di Fourier alla p(θ,ξ) rispetto alla variabile radiale e si ottiene :

P(θ,u)= ∫dξ p(θ,ξ) e

-2πiuξ

= ∫ 𝑑𝑥𝑑𝑦𝑓(𝑥, 𝑦)𝑒

−2𝜋𝑖𝑢(𝑥𝑐𝑜𝑠(𝜃)+𝑦𝑠𝑖𝑛(𝜃))

[15]

Da quest’ ultima equazione, confrontando P con la trasformata di Fourier a due dimensioni F della funzione oggetto f, si ottiene che :

F(ucos(θ),u sin(θ)) = P (θ,u) [16]

Questo risultato, noto come Teorema della Sezione Centrale è importante perché ci permette di capire il legame tra le proiezioni della funzione da ricostruire e la sua trasformata di Fourier.Quindi facendo una trasformata inversa di Fourier in 2 dimensioni si ha5:

(21)

18

La formula della ricostruzione finale dell’immagine f(x,y) può essere anche scritta in un'altra forma, ovvero come la convoluzione delle trasformate inverse di Fourier rispettivamente di |u| (chiamato filtro a rampa) e di P(θ,u). Nel dominio spaziale la trasformata inversa di Fourier della funzione |u| è data da5 :

k(ξ) = ∫ du |u| e

2πiuξ

=

−1

2𝜋2𝜉2

[18]

Con –b≤u≤b dove b è il limite di Nyquist dei dati disponibili. Mentre la trasformata inversa di Fourier di P(θ,u) è data da p(θ,ξ)

Allora la formula della ricostruzione finale dell’immagine può essere scritta tramite convoluzione delle anti trasformate di Fourier5:

f(x,y) = ∫ 𝑑𝜃⁡𝑝(𝜃, 𝜉) ∗ 𝑘(𝜉)

0𝜋

|

ξ= x cos(θ)+y sin(θ)

[19]

Esistono anche altri tipi di algoritmi ricostruttivi, ad esempio gli algoritmi di ricostruzione iterativa. Essi si basano su un array di elementi incogniti dove attraverso la gestione di equazioni si possono gestire complesse acquisizioni geometriche e gestire anche la fisica dei sistemi.

Vengono discretizzate sia la funzione oggetto f( x,y) che il profilo dei dati ‘p’ come fi=1,2,…,N e

Pi=1,2,…,,M dove N è il numero dei Pixel ed M il numero di proiezioni misurate, il sistema viene

modellizzato tramite una matrice (A) di dimensione MxN dove ogni elemento della matrice ai,j

esprime il contributo del pixel J-esimo dell’immagine per il rilevatore i-esimo. Si avrà un sistema di equazioni così fatto6 :

p= Af+r [20]

dove r rappresenta rumore additivo. Il metodo più immediato è quello di invertire la relazione precedente, ma ciò non è sempre praticabile a causa della non invertibilità della matrice di sistema . L’algoritmo iterativo consiste nell’ipotizzare una prima immagine e la si confronta con la proiezione misurata, se il confronto non è ancora soddisfacente allora si apportano delle correzioni all’immagine e così via finchè si raggiunge un’immagine in cui la discrepanza raggiunge un minimo accettabile6.

Nei tomografi clinici, la ricostruzione iterativa consiste nella maggior parte dei casi in una metodica “ibrida”, con dettagli implementativi non visibili all’utente, in cui alla ricostruzione analitica (FBP) tradizionale si associa una fase di denoising di tipo iterativo. Esistono differenti tipi di algoritmi come ASIR (Adaptive Statistical Iterative Reconstruction) della GE Healthcare che è un algoritmo ibrido che usa FBP con un blocco di costruzione per ogni singola costruzione dell’immagine e usa matrici per convertire i valori misurati di ogni pixel per stimarne un nuovo valore. A sua volta, tale valore viene confrontato con il valore ideale predetto dal modello di denoising e questo processo viene reiterato finchè la stima finale ed il valore del pixel ideale convergono.

(22)

19

Esiste anche l’algoritmo iDose4 della Philips Healthcare, che analizza i dati della proiezione per identificare e correggere le misurazioni più rumorose della TC includendo il modello di statistica per fotoni per ogni proiezione6. Così attraverso un processo iterativo i dati rumorosi hanno un peso

minore, il rimanente rumore nello spazio dell’immagine è altamente localizzato e può essere facilmente eliminato, prevenendo gli artefatti e mantenendo così un’alta qualità dell’immagine6. Poi abbiano anche SAFIRE(Sinogram-AFirmed Iteratve REcosntruction) e IRIS( Iterative Reconstruction in Image Space) della Siemens Healthcare. IRIS è basato sul dominio dell’immagine ed è ricostruita dall’applicazione a dati grezzi con l’obiettivo di migliorare il contrasto dell’oggetto dopo ogni iterazione. SAFIRE invece utilizza interazione fra dati grezzi e dati dell’immagine e le interazioni sono controllate da un termine di regolarizzazione6. Sono introdotti

2 cicli di correzione dove viene usato una FBP pesata per la ricostruzione iniziale6. Nel primo ciclo sono prodotti nuovi dati grezzi da una proiezione che vengono confrontati con gli originali per ricavarne i termini correttivi e tale operazione è ripetuta un certo numero di volte che dipende dalla modalità di scannerizzazione6. Il secondo ciclo di correzioni lavora nello spazio delle immagini rimuovendo il rumore attraverso un processo di ottimizzazione statistico. Alla fine l’immagine che è stata corretta viene confrontata con l’originale, tale processo è ripetuto un certo numero di volte in base al tipo di esame.6

1.4.3 Qualità dell’ immagine

Ci sono una serie di elementi che contribuiscono alla buona qualità dell’immagine. Prima di addentrarci vediamo prima come è definita la scala dei valori TC5.

La scala dei valori TC è definita da due punti fissi: aria = -1000 HU ed acqua = 0 HU (HU unità di misura Hounsfield)

Questo è utile per far si, che nella ricostruzione il valore dei pixel dell’immagine dipenda il meno possibile dallo spettro energetico usato. Così per un tessuto arbitrario T si ha per definizione5: valore TC

= (μ

T

W

)/ μ

W

* 1000

HU [21 ]

L’obiettivo di ciò è mantenere uniforme i valori di TC per differenti sezioni attraverso l’oggetto, un buon scanner TC fa si che i valori di TC per l’acqua varino di pochi HU5 .

Ogni valore di TC misurato, incluso la misura dell’attenuazione e l’errore di tale misura, dovrebbe essere idealmente soggetto solo alla statistica, ad oggi gli scanner TC raggiungono quasi questo obiettivo, il che significa che fisicamente il rumore quantistico è predominante5.

Gli errori relativi del rumore nelle misurazioni dell’intensità sono propagati attraverso la ricostruzione dell’immagine trasmettendosi poi all’immagine finale stessa5.

Il rumore del pixel ( σ ) è determinato come la deviazione standard dei valori Pi dai pixel di una

(23)

20

σ

2

=

1

𝑁−1

∙ ⁡ ∑

(𝑃

𝑖

− 𝑃)

𝑁

𝑖=1 2

[22]

Importante è anche la risoluzione spaziale, che dipende da vari fattori , quali per esempio la geometria, dagli elementi rilevatori, dalla dimensione della macchia focale del tubo radiogeno5.

(24)

21

CAPITOLO 2

Principi di dosimetria e radioprotezione

In quest’ambito ci interessano le radiazioni ionizzanti, poiché sono quelle, come vedremo in seguito, responsabili del danno al tessuto biologico. La radiazione ionizzante è una forma di energia che si propaga nello spazio, (con o senza trasporto di materia) generata da una sorgente (naturale o artificiale) in grado di ionizzare un atomo, liberando elettroni nella materia con cui essa ha interagito7.

2.1 Grandezze di campo e grandezze di interazione

La dosimetria si occupa di determinare, sia teoricamente che sperimentalmente, l’energia rilasciata da radiazioni ionizzanti in un mezzo. Una particella può perdere in un’interazione tutta o solo una parte dell’energia che possiede, è necessario quindi avere delle grandezze fisiche che ricreino una media dell’energia trasmessa al corpo con cui esse interagiscono7.

Un campo di radiazione è l’insieme di particelle di un dato tipo di radiazione presenti in un dato tempo e in una data regione di spazio e per le quali siano specificate densità, distribuzione di energia e distribuzione angolare7.

Verranno adesso affrontate delle grandezze che caratterizzano il campo di radiazione.

La fluenza di particelle rappresenta il numero dN di particelle di un dato tipo, provenienti da uno o più direzioni che incidono (in un certo intervallo di tempo) su una sfera il cui centro sia in un punto P e la cui sezione massima abbia un’area “da“ . Ciascuna particella che incide sulla sfera lungo una qualunque direzione attraversando quindi perpendicolarmente una sezione massima “da” ; allora la fluenza di particelle è data da7

Φ =

𝑑𝑁

𝑑𝑎

[23]

Un’altra grandezza è il flusso di particelle ( Ṅ) ovvero il rapporto tra il numero di particelle dN che attraversano una data superficie nell’intervallo di tempo dt, l’unità di misura7 è s-1

𝑁̇=

𝑑𝑁

𝑑𝑡

[24]

In un campo di radiazioni ionizzanti si definisce energia radiante R la somma delle energie delle particelle (cariche e neutre ) di quel campo , ad esclusione delle energie a riposo. Da questa

(25)

22

grandezza si può ricavare la fluenza di energia Ψ in un punto P , e dove le particelle incidono su una sfera di sezione massima ‘da’7 :

Ψ =

𝑑𝑅

𝑑𝑎

[25]

e la sua unità di misura è il J m-2

in caso di radiazione policromatica si ha :

Ψ= ∫

𝐸𝑚𝑎𝑥

𝜙

𝐸⁡⁡E⁡dE⁡

𝐸𝑚𝑖𝑛

dove 𝜙

𝐸

=

𝑑𝜙 𝑑𝐸

[26]

Si può anche definire il rateo di fluenza di energia:

𝛹̇=

𝑑𝛹

𝑑𝑡

[27]

L’unità di misura è il W m-2

Poi abbiamo anche la radianza di particelle: definita col rapporto tra il rateo della fluenza delle particelle

d𝜙̇

lungo una specifica direzione all’interno di un angolo solido

7:

𝜙

𝛺

̇ =

𝑑𝜙̇

𝑑𝛺

[28]

Infine si ha la radianza di energia: il rapporto tra il rateo di fluenza di energia delle particelle7 che si propagano un determinata direzione entro l’angolo solido dΩ, la sua unità di misura è il Wm-2sr-1:

𝛹

𝛺

̇ =

𝑑𝛹̇

𝑑𝛺 [29]

Adesso trattiamo le grandezze di interazione. Esse sono grandezze descrivibili tramite funzioni con cui effettuare il calcolo dei valori medi e delle loro variazioni nello spazio e nel tempo., queste grandezze sono : dose assorbita, kerma ed esposizione7.

La prima è di fondamentale interesse per la dosimetria per la misura diretta dell’energia in un volume V, essa è definita attraverso la definizione di deposito di energia e di energia depositata7. Il deposito di energia7 per una i-esima radiazione è definito come:

ε

i

in

ex

+Q [30]

dove

ε

m è l’energia della particella ionizzante incidente (esclusa l’energia a riposo),

ε

ex è la somma delle energie di tutte le particelle ionizzanti cariche e neutre (esclusa l’energia a riposo) emergenti dall’interazione e Q è la variazione dell’energia a riposo del nucleo e di tutte le particelle elementari coinvolte nell’interazione7

.

L’energia depositata,

ε

, in un volume V del mezzo considerato è :

ε =∑ 𝜀

𝑖 𝑖

[31]

(26)

23

D =

𝑑𝜀̅

𝑑𝑚

[32]

dove 𝜀̅, è la dose media depositata. Essa si misura in Gy (Gray) =JKg-1 .

Una grandezza correlata alla dose, particolarmente utile nella pratica sperimentale delle misurazioni dosimetriche, è il Kerma – K , ( Kinetic Energy Released in Matter). Essa è definita per un punto P di un mezzo per radiazioni indirettamente ionizzanti ed è definita come7 :

K =

𝑑𝐸̅𝑡𝑟

𝑑𝑚

[33]

dove

d𝐸̅

tr è la somma media delle energie cinetiche iniziali di tutte le particelle cariche liberate nella massa dm a seguito delle interazioni che la radiazione indirettamente ionizzante ha avuto in ‘dm’.

L’esposizione indicata con X riguarda solo i fotoni che attraversano come mezzo l’aria, infatti un elemento di volume infinitesimo dV di aria e massa infinitesima dm centrato nel punto P in aria, l’esposizione sarà7:

X =

𝑑𝑞

𝑑𝑚

[34]

Dove dq è la carica di un solo segno prodotta in aria secca dagli elettroni e dai positroni liberati o creati nella massa d’aria dm dai fotoni.7 Si misura in C/Kg.

2.2 Grandezze fisiche radioprotezionistiche

Le grandezze radioprotezionistiche sono state introdotte da ICRP (international commission on radiological protection) e servono per salvaguardare il paziente nella fase diagnostica da effetti indesiderati di cui discuteremo in seguito. Teniamo presente che tali grandezze sono di difficile misurazione e per tal motivo, sono state introdotte altre grandezze radio protezionistiche, sono quelle dette “operative”, che sono più facili da misurare. Iniziamo prima con quelle di difficile misurazione come la grandezza denominata dose equivalente. Essa è definita come la somma pesata tra la dose assorbita DT,R nel tessuto T della radiazione R ed il peso WR della radiazione R e si esegue una somma su tutti i tipi di radiazione coinvolte, il fattore di peso WR dipende

dall’efficacia biologica relativa della radiazione, (RBE). Tale fattore si calcola, come il rapporto tra una dose di una radiazione qualunque denominata “q“(Dq) ed una quantità di dose di una

radiazione di riferimento (DR) (di solito si adoperano raggi X a 250 KV oppure raggi γ prodotti dal 60Co) a parità di danno biologico, o più specificatamente alla percentuale di cellule, sopravvissute all’esposizione di queste radiazioni7. Quindi indirettamente questa grandezza dà la pericolosità di ogni tipo di radiazione, a parità di dose assorbita. In formule abbiamo quindi:

(27)

24

RBE = 𝐷𝑞

𝐷𝑅 [36]

Fotoni ed elettroni hanno un peso pari ad 1, mentre protoni pari a 2, nuclei pesanti e particelle alfa pari a 207.

La dose equivalente si misura in Sievert (Sv): 1 Sv = 1 Gy = 1 J Kg- 1.

La grandezza radioprotezionistica ritenuta maggiormente correlata con il detrimento sanitario degli individui esposti a radiazione è la dose efficace, che si misura anch’essa in Sv. La sua definizione è basata sul fatto che il danno biologico ad una persona esposta a radiazioni, è la somma di tutti i danni a tutti gli organi o tessuti7. Ogni tessuto dovrà essere caratterizzato da un fattore di ponderazione WT, che esprime la sensibilità di radiazione. La definizione di dose efficace è la

seguente7:

E = ∑𝑇𝑊𝑇⁡𝐻𝑇 = ∑𝑇[𝑊𝑇 (∑𝑅𝑊𝑅 DT,R )] [37]

I tessuti più sensibili alle radiazioni sono: colon, midollo, polmoni, stomaco e seno con un peso di 0,12; mentre quelli meno sensibili sono: ossa, cervello e pelle con un peso di 0,01. La somma di tutti i valori dei pesi WT per l’intero corpo è pari 7 ad 1. La grandezza della dose efficace è di

difficile misurazione in quanto richiederebbe la misura della dose equivalente in ciascun differente organo o tessuto del corpo7. A causa di tali problematiche, sono state definite le grandezze operative denominate equivalente di dose personale (Hp) ed equivalente di dose ambientale (H*), i cui protocolli di misura sono definiti dalla ICRP7

2.3 Dosimetri e loro funzionamento

I dosimetri sono composti da due sistemi, uno di rilevazione e uno di elaborazione del segnale, di cui il loro funzionamento verrà spiegato in seguito. Esistono dosimetri attivi e passivi7. In quelli

attivi i rivelatori forniscono in tempi reali i valori della grandezza misurata, come rivelatori a gas, a scintillazione o a semiconduttore. In quelli passivi invece, il sistema di rilevazione è scollegato da quello di lettura del segnale. Quelli passivi sono: rilevatori a termoluminescenza, fotoluminescenza, film fotografico7. I dosimetri passivi vengono usati quando si vuole conoscere le dosi integrate su lunghi periodi di tempo. Il segnale prodotto può essere sotto forma di calore, carica elettrica o luce. Un dosimetro viene selezionato in base all’applicazione tenendo conto delle seguenti caratteristiche tecniche7:

linearità

efficienza di rivelazione risposta in energia risposta angolare

(28)

25

Linearità: esprime in che misura il valore del segnale è dipendente linearmente dalla grandezza dosimetrica da misurare7.

Efficienza di rilevazione: è il rapporto tra il numero di particelle rilevate e quelle incidenti7.

Risposta in energia: indica la dipendenza del rapporto tra segnale e grandezza misurata dall’energia della radiazione. Un sistema dosimetrico ideale ha risposta in energia costante (piatta) su tutto lo spettro di interesse7.

Risposta angolare: è il rapporto tra il valore del segnale prodotto dal rivelatore quando è esposto ad un fascio unidirezionale di radiazione incidente con una data energia e con un certo angolo di incidenza, ed il valore del segnale prodotto dal rivelatore quando è investito da radiazione con stessa energia, ma da angolazione perpendicolare alla sua finestra di ingresso7.

In radioprotezione i dosimetri più adoperati sono7: rivelatori a gas

rivelatori a termoluminescenza rivelatori ad emulsioni fotografiche rivelatori a fotoluminescenza

Rivelatori a gas: Sono formati da una camera con degli elettrodi con una differenza di potenziale ai loro capi. Questa camera è riempita di gas, quando arriva la radiazione il gas viene ionizzato e gli ioni positivi e gli elettroni si dividono, il numero di coppie moltiplicato per l’energia necessaria per formare una coppia elettrone - catione, fornisce l’energia della radiazione. Esistono differenti tipi di rivelatori a gas, come per esempio il contatore proporzionale o la camera di ionizzazione7.

Rivelatori a termoluminescenza: Sono cristalli inorganici (che presentano difetti puntiformi), che se riscaldati, dopo essere stati posti a radiazioni, emettono luce visibile in quantità proporzionale all’energia a essi ceduti dalle radiazioni7.

Rivelatori ad emulsione fotografica: Sono un sottile strato di emulsione con in sospensione dei granuli di bromuro di argento, i quali, colpiti da radiazioni si trasformano da cationi ad atomi di argento, che tramite sviluppo chimico si genera l’immagine latente7.

Rivelatori a fotoluminescenza: Essi emettono luce, quando dopo esser stati posti a radiazione ionizzanti, vengono irradiati con luce visibile o UV. Si dividono in due categorie: radiofotoluminescenza o luminescenza otticamente stimolata7 .

(29)

26

2.4 Biodosimetria

Per tenere conto degli effetti da radiazioni, la dosimetria biologica prevede, quando non è possibile risalire alla dose assorbita, di contare il numero di linfociti all’inizio dell’esposizione e poi dopo 24/48 ore poter fare un confronto (in genere la perdita di poco più di 1000 linfonodi in un sol giorno è considerato un segno di grave stato di salute). Il processo di cancerogenesi ha inizio con una mutazione genetica. La radiazione provoca un certo numero di aberrazioni cromosomiche (proporzionali alle dosi assorbite) facendo si che i cromosomi vengano frammentati e, nella fase di duplicazione, si uniscano in modo non convenzionale, dando vita ad una duplicazione, dando vita ad una mutazione che prende il nome di cromosoma dicentrico. Inoltre le radiazioni possono provocare rotture sia del singolo filamento che del doppio filamento nell’elica del DNA. I danni possono avvenire anche indirettamente tramite radicali liberi prodotti in acqua dal passaggio della radiazione ionizzante ,che intaccano le strutture del DNA stesso. Gli effetti sanitari delle radiazioni ionizzanti possono essere somatici e genetici. Quelli somatici si distinguono in

Effetti deterministici: Sono causati da forti dosi di radiazione, che causano morte o disfunzioni cellulari

Effetti stocastici: neoplasie, effetti ereditari che potrebbero essere causa di tumori.

I danni genetici sono di natura solo stocastica: sono malattie ereditarie nelle loro progenie, dovute a mutazioni di cellule germinali8.

Gli effetti deterministici sono caratterizzati da una dose – soglia, nel senso che si manifestano solo se essa supera un certo valore che varia per ogni tipo di effetto, il quale, superando la soglia, diventa quindi clinicamente rilevabile. Possono anche manifestarsi effetti deterministici somatici con effetto ritardato, come dermatiti, cataratte ed effetti teratogeni.

Gli effetti stocastici invece non sono caratterizzati da una dose-soglia, ma sono probabili in base alla quantità di dose, più bassa è la dose, meno probabilità si ha di manifestare danni biologici.

2.5 Principi di radioprotezione

Da quanto visto finora nasce l’esigenza di definire dei principi che mirino a proteggere l’uomo e l’ambiente senza però limitare i benefici che derivano da un’esposizione da radiazioni. In ambito sanitario si fa uso di radiazioni per la cura di tumori ed il loro uso è opportunamente controllato. La commissione dell’ICRP ha ideato dei principi che si applicano alle sorgenti di radiazione ed agli individui. Esistono tre tipi di esposizione: medica, lavorativa e del pubblico. Quella medica, si riferisce a pazienti sottoposte a diagnosi e/o terapia; quella lavorativa comprende tutti coloro che svolgono attività lavorativa con tale rischio; l’esposizione del pubblico comprende tutte le altre figure che non fanno parte delle categorie sopracitate, ma che per diversi motivi si espongono a tale rischio8.

(30)

27

Principio di giustificazione: Si usa per qualsiasi tipo di esposizione, ed afferma che: qualsiasi decisione di cambiare l’esposizione di radiazione originaria, (come per esempio aumentare o ridurre l’esposizione, o immettere nuove sorgenti) deve apportare più beneficio che danno, tenendo in considerazione sia i detrimenti, non solo dovuti alle radiazioni, ma anche quelli ottenuti dalla pratica sia a livello economico che sociale. Dove per “pratica” qui si intende tutte le attività che producano un incremento di dose.

Principio di Ottimizzazione: E’ il processo riferito alla pratica per mantenere la probabilità di incorrere in esposizioni, il numero di persone esposte e l’entità delle dosi individuali tanto basse, quanto ragionevolmente ottenibile, tenendo conto dei fattori economici e sociali.

Applicazione dei limiti di dose: impone un tetto massimo alle dosi ottenute dall’esecuzione delle pratiche di cui sopra, e tale limite superiore dipende dal tipo di esposizione considerata, con esclusione di quelle relative ai pazienti soggetti ad esposizione medica8.

Il terzo principio è rivolto solo a lavoratori e popolazione8. Vengono quindi imposti dal terzo principio dei valori limiti di dose che non è possibile superare: esso rappresenta dunque un principio di sicurezza in più da aggiungere al principio di ottimizzazione8. Le soglie di dose per gli effetti deterministici vengono superate solo per radioterapia8. I limiti ed i vincoli di dose non sono raccomandati per i pazienti sottoposti a esposizione programmata, perché possono ridurre i benefici da cui essi possono trarne giovamento8. Nella radioterapia, l’obiettivo è quello di rimuovere l’obiettivo neoplastico o di minimizzarne i rischi del paziente8. Ovviamente nei tessuti circostanti si

possono manifestare danni deterministici e/o danni stocastici, tali danni sono inevitabili ma vengono minimizzati dalle moderne tecniche di conformazione 3D (3DRT), modulazione di intensità (IMRT) e, più recentemente, dall’uso di protoni e ioni che depositano la maggior parte dell’energia in prossimità del picco di Bragg.

2.6 Dosimetria fisica in TC

La dose efficace descrive il rischio prodotto dalla radiazione ionizzante ed è la più indicata per mettere a confronto le varie tecniche radiologiche in termini di rischi associati. La stima della dose effettiva richiede la conoscenza della sensibilità degli organi alla radiazione, ottenuta tramite programmi matematici che si basano sul metodo Monte Carlo che usano un fantoccio ermafrodita per simulare le interazioni con i raggi X e le informazioni che caratterizzano il fascio come fornito dai costruttori9.

La dose efficace (E) è ottenuta in pratica mediante la seguente formula9:

E = DLP x K [38]

(31)

28

é il Prodotto Lunghezza-Dose, ossia l’integrale della dose media per ogni slice mediato sull’intera lunghezza della scansione, molti scanner TC possono memorizzare questo valore sulle immagini metadati9. Il DLP è ottenuto integrando lungo il segmento di paziente sottoposto a esame TC, la

grandezza CTDI che altro non è che un indice di dose (e serve per mettere a confronto l’output radiativo di diversi scanner), è misurato usando una camera di ionizzazione9. Il profilo di dose di un singolo scan si estende oltre i limiti della collimazione del fascio nominale per via dello scattering Compton, Le regioni del profilo di dose localizzate fuori dal fascio di collimazione nominale sono chiamate “code” e sono una parte significativa della dose al paziente, sebbene non partecipino alla formazione dell’immagine9.

Il CTDI può essere misurato con camera a ionizzazione in uno specifico fantoccio, e si esprime matematicamente come segue9:

CTDI =

1

𝑛𝑇

∫ 𝐷(𝑧)𝑑𝑧

𝑧2

𝑧1

[39]

D(z) rappresenta il profilo di dose lungo l’asse z, n è il numero di strati acquisiti e T è lo spessore nominale del fascio. Nel 1984 la US FDA (Food and Drug Administration) ha proposto la seguente definizione di CTDI, che si rifà a 14 volte il valore nominale dello strato sotto esame (±7T):

CTDI

FDA

=

1

𝑛𝑇

𝐷(𝑧)𝑑𝑧

+7𝑇

−7𝑇

[40]

L’FDA specifica anche l’uso di due fantocci cilindrici in PMMA (polimetil metacrilato) entrambi di 14 cm di lunghezza, di cui uno con un diametro di 16 cm per lo studio della dose relativa al cranio e l’altro con una lunghezza di 32 cm per l’esame del torace e dell’addome.Il CTDI è stato

standardizzato anche a 100 mm di spessore di fascio avendo così9:

CTDI

100

=

1

𝑛𝑇

𝐷(𝑧)𝑑𝑧

+50𝑚𝑚

−50𝑚𝑚

[41]

La dose assorbita dall’area esaminata può avere molti differenti valori di dose così il CTDI porta valori differenti lungo il campo di vista9. Per tener conto di questo fatto è stato inserito un CTDI pesato definito come la somma di 1/3 di CTDI100 (valore misurato al centro del fantoccio) e 2/3

CTDI100 (misurato alla periferia del fantoccio )

CTDI

W

=

1

3

𝐶𝑇𝐷𝐼

100,centro

+

2

3

⁡𝐶𝑇𝐷𝐼

100,periferia

[42]

Il CTDIw è uno dei principali descrittori di dose in TC usato da autorità della salute nei documenti

di criteri di qualità europei e di riferimenti di dose in TC ed è usato come riferimento standard per la verifica dei livelli di dose dalle leggi nazionali9.

Il CTDIW e il CTDI100 possono essere normalizzati dividendo entrambi per il prodotto “ tempo di

(32)

29

GyA-1s-1 e sono marcati con una n davanti, tali valori di CTDI non tengono conto di quando la scannerizzazione è spirale, ma solo di quella sequenziale. Il valore di CTDIW può essere migliorato

dando vita al CTDIVol. 9

CTDI

Vol.

= CTDI

W

𝑁𝑇 𝑙

=

CTDIW

𝑝𝑎𝑠𝑠𝑜

[43]

N è il numero di slice acquisite contemporaneamente, T è lo spessore nominale della slice, “l” è la distanza dal lettino del paziente (distanza prodotta dalla rotazione a elica o tra scannerizzazioni consecutive assiali)9. Questi valori possono essere normalizzati, in questo modo:

n

CTDI

vol

=

𝐶𝑇𝐷𝐼⁡𝑣𝑜𝑙

𝑃𝐼𝑡

[44]

PIt è il prodotto corrente per tempo di esposizione. Il DLP può essere calcolato come: DLP =

CTDIvol l dove ” l” è la lunghezza lungo l’asse z del paziente.

Esistono delle limitazioni nel misurare il CTDI e quindi il DLP. Il CTDI è stimato attraverso l’uso di un fantoccio cilindrico standardizzato e materiale omogeneo simulando così la forma, la dimensione e l’attenuazione del corpo umano. Esso inoltre è espresso come dose in aria. Infine l’integrazione dell’area con z=100 mm potrebbe non essere sufficiente a spiegare le dosi supplementari ottenute con i collimatori più grandi di 10 cm utilizzati nei recenti scanner a geometria cone-beam9. Le caratteristiche anatomiche di un paziente individuale rappresentano un importante variabile nelle relazioni di dose comunemente adoperate negli esami TC. Per esempio, per i pazienti più alti occorre uno scanning più lungo, quindi viene prodotto un maggiore DLP. A volte capita che le dimensioni del torace possono richiedere un aumento del voltaggio e della corrente nonché dell’energia del fascio per ottenere immagini di miglior qualità9. Un’altra

grandezza dosimetrica utile, che tiene conto della sovrapposizione dei profili di dose assiali in scan multipli, è la dose media al centro della serie di strati (MSAD)10. Essa è misurata al centro di una serie di scansioni sequenziali con un dato incremento del lettino, di solito uguale all’ampiezza nominale irradiata specificata dal costruttore10. Dopo un numero di scansioni consecutive la dose media al centro della serie raggiunge il valore massimo10. Questo perché la dose nella regione centrale della scansione subisce anche il contributo delle “code” delle scansioni confinanti.

La definizione è data dalla seguente equazione :

MSAD =

1

𝐶𝐼

𝐷(𝑧)𝑑𝑧

+𝐶𝐼/2

−𝐶𝐼/2

[45]

Dove CI è l’incremento del lettino, D(z) è il profilo della dose risultante dell’intera serie di scansioni e l’origine dell’asse z al centro della serie10.

Essendo la MSAD definita per scansioni assiali, può essere utilizzata anche nel caso di scansioni in modalità spirale e CI diventa il movimento del lettino per ogni rotazione del tubo. E’ anche da tenere a mente che tale indice dosimetrico risulta ormai superato e le valutazioni di dose vengono riportate per lo più in termini di CTDI10. Essa si può anche calcolare come:

MSAD = CTDI

𝑆𝑊

(33)

30

Dove CTDI è l’indice di dose della TC che è la dose scoperta dello scan, mentre “SW” è lo spessore della slice in mm, e “BI” è lo spazio tra una scannerizzazione e l’altra generata dallo spostamento del letto del paziente9. La dose del CTDI è caratterizzata da un profilo a campana ed il

suo valore è dato dall’integrazione dell’area sotto il suo profilo. Ormai con le tecniche aspirali il MSAD risulta obsoleto. Per misure nel fantoccio usiamo il kerma in aria, calibrato con camera di ionizzazione. Esiste una quantità di conversione chiamata prodotto “ lunghezza – kerma “ (KLP)9

KLP = ∫ 𝐾a(z)dz [47]

Come per il DLP anche il CTDIw svolge un ruolo fondamentale per determinare come ottenere una

(34)

31

CAPITOLO 3

Radioepidemiologia della TC

Sebbene le radiazioni ionizzanti possono condurre al cancro11 , l’uso appropriato della TC, unito all’importanza delle informazioni diagnostiche da essa fornita, produce sensibili vantaggi alla società che ne giustificano largamente il rischio associato11. Tale rischio è da considerarsi basso, per tutte le tecniche diagnostiche associate all’uso di radiazioni ionizzanti. Infatti, la stima attualmente più accettata di incremento di rischio cancro nella popolazione generale è di 5% / Sv11. Considerando che la dose efficace media per uno studio TC è dell’ordine del millisievert, l’aumento di rischio di induzione di cancro nel corso della vita per un esame TC è di circa lo 0.005%, confrontato con un rischio basale (indipendente dall’uso medico di radiazioni) di circa il 40%12.

Ciononostante, la “percezione” del rischio da parte della popolazione può essere falsata rispetto al rischio reale, a causa di informazioni incomplete, mancanza di comunicazione efficace da parte delle autorità sanitarie, e altri fattori socio-culturali.

Si può quindi definire un indice qualitativo di rischio (Risk-Perception Index) come11 :

R.P.I.= 𝐺𝑟𝑎𝑣𝑖𝑡à

𝐿𝑎𝑡𝑒𝑛𝑧𝑎 [48]

scala gravità : da 1 a 10 (10 ossia effetti letali), latenza : da 1 a 10 (dove 1 rappresenta il periodo più breve). A titolo di esempio nel caso di una leucemia la latenza media è due o tre volte di più di molti tumori solidi indotti al seno o al polmone. La latenza minima ad oggi nota è di circa 2 anni per una leucemia mieloide acuta o per l’osteosarcoma11 indotto da 224Ra.

Solo gli studi epidemiologici possono dare una stima oggettiva dei rischi associati all’uso medico della TC. Da tali studi si evince che la metodica in oggetto costituisce la maggiore fonte di esposizione medica a radiazioni ionizzanti.11 Ciò giustifica il forte impegno della comunità scientifica e della Fisica Medica nello studio, implementazione e validazione di metodi hardware e software che possano ridurre la dose da TC. Naturalmente, le radiazioni possono produrre degli effetti sull’organismo in base alla dose: per alte e modeste dosi di radiazione (al di sopra di 200 mSv) è certo che possono causare molti tipi di cancro, mentre alle basse dosi (tra i 5 ed i 50 mSv) invece non si hanno informazioni sufficienti e quindi si suggerisce che potrebbero esserci effetti biologici avversi o che addirittura non si manifestino in alcun modo11.

(35)

32

Vengono riportate alla pagina seguente dei dati che riguardano le dosi generate dalla TC in base ai tipi di protocollo, per rendersi conto delle dosi viene indicata la corrispondenza in un esame TC, tra la dose efficace e il numero di radiografie al torace (con dose efficace tipica di 20 Sv) come indica la tabella sottostante13:

(Riferimento bibliografico: 13)

Bisogna anche tener conto non di una singola esposizione alla TC, ma anche di quelle multiple11 . Per tal motivo sarebbe utile tenere in considerazione una serie di tracciamenti dei singoli esami TC a cui si sottopongono i pazienti14.

I ripetuti esami TC ad un unico paziente lo sottopongono quindi ad una sovraesposizione da radiazione14. I motivi di questa sovraesposizione possono essere di varia natura, come ad esempio un paziente che ha avuto nel corso della sua vita varie emergenze mediche14.

Ci sono tuttavia anche altri motivi, il primo dei quali, banalmente è che l’uso della TC è stato notevolmente ampliato dalla sua invenzione, inoltre l’evoluzione della tecnologia (come abbia già visto nel capitolo precedente) ha diminuito il tempo di scannerizzazione rispetto al passato, facilitandone quindi l’uso.

Il tasso di utilizzazione TC nelle emergenze mediche ad esempio in Sud Corea tra il 2001 ed il 2010 è passato da 12,4 % al 33 % ed in Cina da 9,8 % a 13,9 % tra il 2005 e il 200815

Gli altri motivi sono invece di natura che potremmo definire “psicologica” come per esempio esami TC ripetuti per tranquillizzare i familiari di un paziente, o per avere maggiore sicurezza dell’accuratezza di una diagnosi, o ancora perché la TC offre una buona qualità delle immagini bio mediche, infatti in USA il 74 % dei pazienti è d’accordo che avere una diagnosi da TC sia più importante dell’esposizione da radiazioni 16.

Esistono anche dei motivi per non praticare la TC oltre ai rischi dovuti alle dosi di radiazione, come il costo di un singolo esame TC, ed inoltre esiste anche la potenziale reazione allergica ed il rischio di nefropatia dovuto al mezzo di contrasto15.

TC Dose Efficace (mSv) Equivalente a numero di radiografie del torace

TC Torace 8 400

TC Addome 10 500

64 strati- cardio TC (no aorta e con modulazione ECG

9 450

64 strati cardio TC(si aorta e senza modulazione ECG)

29 1450

(36)

33

Su questi abusi di esami da TC sono stati condotti tantissimi studi e report; ad esempio, si stima che la richiesta di questo tipo di esami sia aumentata negli USA dal 17,5 % nel 1996 al 33,3 % nel 2014 16 .

Tra il 2009.e il 2013 in un dipartimento di emergenza a Taiwan tra tutti i pazienti in entrata ci sono state le seguenti percentuali di persone sottoposte a TC in modo crescente negli anni15:

uso TC 2009 (n=51.381) (n%) 2010 (n=53.908) (n%) 2011 (n=54.832) (n%) 2012 (n=55.670) (n%) 2013 (n=53.448) (n%) Esposti a TC 5.711 (11,1) 7.091 (13,2) 7.904 (14,4) 8.436 (15,2) 9.467 (17,7) (Riferimento bibliografico:15)

Tutto questo indica appunto un crescente incremento, in varie parti del mondo, dell’uso della TC. Negli ultimi 20 anni negli USA c’è stato un incremento di esami TC per pazienti pediatrici presso strutture ospedaliere per emergenze 16 . Ad esempio, gli studi TC cranici hanno avuto un incremento nella scorsa decade (2009-2019) pari al triplo rispetto a decadi precedenti.17

I pazienti più esposti sono in particolare i pazienti pediatrici per via della loro lunga aspettativa di vita, sia per il fatto che la velocità della riproduzione delle loro cellule è estremamente alta rispetto a quella degli adulti.

I pazienti pediatrici con malattie cardiovascolari croniche sono più esposti al rischio da radiazione rispetto ad altri pazienti pediatrici che non hanno malattie cardiache croniche e rispetto ad adulti con le stesse patologie, poiché il rischio da radiazione è 3 o 4 volte maggiore più alto nei bambini che negli adulti. In un’età compresa tra i 15 e 20 anni per i malati cardiaci cronici la dose accumulata per via di molti esami è tra i 20 e 40 mSv18. Molti cardiologi e radiologi sottostimano le dosi di radiazioni e quasi il 50 % di loro ignorano o negano che i raggi X siano cancerogeni18. Secondo L’IAEA dovrebbe essere applicato un compendio di 4 regole che consistono nel divulgare la consapevolezza dei rischi radiologici in termini di dose, effettuare gli esami radiologici che effettivamente siano davvero appropriati per il paziente, fare un audit della vera dose per poter essere annotata in un registro elettronico relativo al paziente, responsabilizzare all’uso di radiazioni informando il paziente dei rischi reali che riguardano le radiazioni18.

Il problema della sovraesposizione riguarda quindi in particolare i pazienti pediatrici, infatti nel 2017 si è trovato che in USA, essi ricevono mediamente una doppia dose di radiazione negli ospedali non specializzati per pazienti pediatrici rispetto a quelli pediatrici19.

Ciò è dovuto sia ad una cattiva organizzazione ospedaliera, che alla mancanza di fondi e alle conoscenze poco adeguate, peggiorando così la situazione radiologica dei pazienti pediatrici19. In un recente report, tra il 1995 e il 2007 gli USA hanno sperimentato un incremento nell’uso della TC per i casi di emergenza da 2,8 % a 13,9 % di tutti i pazienti ricevuti.15

(37)

34

Inoltre il problema dell’impiego smodato, non è circoscritto solo al rischio (che rimane comunque il problema più grande) ma anche ad una questione economica, in quanto questo va incontro a costi molto elevati.13

Anche se c’è da dire che l’aspetto economico in questa tesi è irrilevante, ma è un’informazione solo di contorno, comunque interessante.

L’uso che si fa di esami diagnostici per immagini è spesso purtroppo inappropriato dal 30% al 50 % dei casi13.

Quindi ci si chiede, dati specialmente i rischi (ma anche i costi), quando sarebbe opportuno utilizzare esami diagnostici come la TC ?

La risposta più semplice: quando l’esame meno rischioso e più economico, come l’ecografia, fallisce.

3.1 Cause da sovraesposizioni di esami TC

Le cause della sovraesposizione sono da ricercarsi in: Strutture non adeguate ai pazienti pediatrici Questioni psicologiche

Questioni di responsabilità mediche Qualità superiori delle immagini da TC

Scarsa informazioni sui reali rischi da radiazioni dovuti a TC

Oltre ai motivi precedentemente esposti,che dovrebbero indurre a una riduzione dell’uso degli esami da TC, non è da trascurare l’ incidenza che l’uso di questi esami diagnostici hanno dal punto di vista economico. purtroppo ci sono dinamiche in gioco, dettate dal mercato, che possono imporre un abuso di tali esami.13

Si tenga presente ad esempio che negli Stati Uniti l’imaging medico ha rappresentato nel 2015 una spesa pari al 16 % del prodotto nazionale lordo.13

Il costo medio di una TC tra il 2009 ed il 2013 a Taiwan è stato per esempio pari a 169,52 $ americani per la regione del corpo senza l’uso di mezzi di contrasto, invece è stato pari a 213,99 $ americani per le regione del corpo utilizzando mezzo di contrasto.15

Prendendo come riferimento l’ecografia che è l’esame diagnostico meno costoso, una TC ha un costo pari a 3,1 volte più grande del costo dell’ecografia stessa.13

Ma come già detto le questioni economiche per quanto importanti sono di secondaria importanza nell’ambito di questa tesi, ma sono citate anche per dare una visione più completa dei motivi che

Riferimenti

Documenti correlati

Nella tesi si ` e visto come la correzione degli artefatti di ricostruzione rappresenti una delle maggiori sfide nell’ambito della tomografia computerizzata con raggi X. La Fil-

[r]

Vediamo metodi numerici che sono utili per la regolarizzazione di problemi con matrice dei coefficienti A a rango numerico non pieno, vale a dire, pro- blemi per cui c’` e un

Le apparecchiature con programmi per la riduzione di dose sono dotate di svariate funzioni; fra le più inno- vative segnaliamo la tecnica di ricostruzione iterativa ASIR-V

The evaluated factors are expressed in pg/mL and are: interleukin-6 (IL-6), interleukin-8 (IL-8), interleukin-10 (IL-10), interleukin-12 (IL-12), monocyte chemoattractant

A 1MW electric centralized biogas plant and the post-processing of digestate (mechanical separation, reverse osmosis, solid fraction drying and pellet production)

Use of all other works requires consent of the right holder (author or publisher) if not exempted from copyright protection by the

dal 1994, attualmente in trattamento con Buprenorfina compresse sublinguali, all’esame delle urine effettuato con cadenza bisettimanale presenta uso di cocaina 2-3 volte a settimana