• Non ci sono risultati.

Modellizzazione di immagini LGE di risonanza magnetica cardiaca per lo sviluppo di algoritmi automatici di segmentazione di regioni fibrotiche

N/A
N/A
Protected

Academic year: 2021

Condividi "Modellizzazione di immagini LGE di risonanza magnetica cardiaca per lo sviluppo di algoritmi automatici di segmentazione di regioni fibrotiche"

Copied!
132
0
0

Testo completo

(1)

UNIVERSITÀ DI PISA

SCUOLA DI INGEGNERIA

Dipartimento Ingegneria dell’Informazione

Corso di Laurea in Ingegneria Biomedica

Tesi di Laurea Magistrale:

Modellizzazione di immagini LGE di risonanza magnetica

cardiaca per lo sviluppo di algoritmi automatici di

segmentazione di regioni fibrotiche

Relatore:

Candidata:

Prof. Vincenzo Positano

Marianna D’Amico

Controrelatore:

Prof. Luigi Landini

(2)

2

INDICE

INTRODUZIONE 4

CAPITOLO 1 9

LA RMC PER LA DETEZIONE DELLA NECROSI MIOCARDICA 9

1.1.DIAGNOSI FIBROSI MIOCARDICA 9

1.2. METODI DI VALUTAZIONE DELLA FIBROSI 12

1.2.1. Algoritmi semi-automatici di post-processing 13

1.2.2. Algoritmi automatici di post-processing 16

1.3. ANALISI QUANTITATIVA 20

CAPITOLO 2 21

MODELLO IMMAGINE LGE 21

2.1.PRINCIPI FISICI DELLA RISONANZA MAGNETICA 21

2.2.DISTRIBUZIONE DEL RUMORE IN RMI 25

2.3.MODELLO IMMAGINE BIOMEDICA 27

2.4.IMMAGINE LGE 32

CAPITOLO 3 36

SVILUPPO DEI METODI DI ANALISI 36

3.1.CURVE FITTING 39

3.2.ALGORITMI DI SEGMENTAZIONE A SOGLIA 40

3.3.IMPLEMENTAZIONE ALGORITMI AUTOMATICI N-SD E FWHM 41

3.3.1. Analisi istogramma 41

3.3.2. Metodi n-SD 44

3.3.3. Metodo FWHM 45

3.4.IMPLEMENTAZIONE ALGORITMO PVE 47

3.4.1. Analisi istogramma 47

3.4.2. Segmentazione 48

3.5.VALIDAZIONE 49

3.5.1. Generazione fantoccio 49

3.5.2. Simulazione metodi manuali 52

3.5.3. Indici di validazione 52

3.6.STRUMENTI DI PROGRAMMAZIONE UTILIZZATI 54

CAPITOLO 4 55

ANALISI DEI RISULTATI 55

4.1.FITTING 56

4.2.SEGMENTAZIONE CON METODI N-SD E FWHM AUTOMATICI 66 4.3.CONFRONTO ALGORITMI AUTOMATICI E SEMI-AUTOMATICI 82

(3)

3

CAPITOLO 5 105

VALIDAZIONE CLINICA PRELIMINARE 105

5.1.DATI DI RISONANZA MAGNETICA 105

5.2.RISULTATI SU IMMAGINI REALI 110

5.2.1. Segmentazione con algoritmi n-SD 110

5.2.2. Segmentazione con algoritmo FWHM 121

5.2.3. Segmentazione con algoritmo PVE 125

CONCLUSIONI E SVILUPPI FUTURI 129

(4)

4

INTRODUZIONE

La fibrosi miocardica è una patologia cardiaca che comporta la formazione anomala di tessuto connettivo-fibroso a livello del miocardio. L'aumento di tessuto connettivo porta ad un irrigidimento della muscolatura cardiaca con conseguente effetto negativo sulla funzione contrattile dell’organo. Tipicamente la causa della comparsa del tessuto cicatriziale è la sofferenza cardiovascolare che può derivare da diverse patologie. Tra le più significative vi sono la Cardiomiopatia Ipertrofica e l’Infarto del miocardio. Nonostante si tratti di una patologia abbastanza comune, la diagnosi risulta spesso difficoltosa a causa non solo di un quadro clinico molto variabile ma anche per via di una mancata conferma patologica da parte di esami quali elettrocardiogramma ed ecocardiogramma. Un esame che permette una diagnosi affidabile e una caratterizzazione istologica è la biopsia, tuttavia si tratta di una procedura invasiva. Per tale motivo diventa fondamentale il contributo dato da metodiche di imaging come la Risonanza Magnetica (RMI). Quest’ultima non solo permette l’acquisizione di immagini in assenza di radiazioni ionizzanti ma permette anche una valutazione multi-parametrica

della funzione e della morfologia cardiaca. Con le metodiche attuali, ed in particolare grazie alla tecnica nota con il nome di Late Delayed-contrast Enhancement (LGE), oggi è possibile ottenere

una misurazione accurata dell’area necrotica e della localizzazione delle regioni fibrotiche. Attualmente l’identificazione delle regioni interessate da fibrosi viene effettuata tramite algoritmi di segmentazione a soglia semi-automatici che sfruttano il segnale del tessuto patologico enfatizzato dal mezzo di contrasto, somministrato al paziente prima dell’acquisizione, per distinguerlo dal tessuto sano. Tra i metodi utilizzati oggi nella pratica clinica vi sono i metodi STRM, noti anche come metodi n-SD, e il metodo FWHM. Il primo per calcolare la soglia di segmentazione utilizza il valor medio µ e la deviazione standard σ di una porzione del miocardio sano, il secondo invece estrae il valore di soglia sfruttando il valor massimo dell’intensità del segnale del miocardio patologico. Queste tecniche quindi richiedono l’intervento di un operatore esperto per la selezione della ROI, sul miocardio sano o patologico a seconda della metodica di segmentazione utilizzata, per estrarre una misura dell’intensità del segnale. Il limite principale di tali metodiche è che le misure risultano affette da un’elevata variabilità sia intra-osservatore che inter-osservatore. Infatti, durante la selezione della ROI, l’inclusione o l’esclusione di determinate zone che possono contenere artefatti da vario tipo, come l’effetto di volume parziale (PVE), può essere determinante. Da questo deriva una misura diversa dell’intensità del segnale, portando all’identificazione di una soglia variabile, dipendente dal giudizio dell’operatore che ha tracciato la ROI.

(5)

5 Lo scopo di questo lavoro è sviluppare una versione automatica di tali algoritmi in modo da rendere quanto più oggettiva possibile la misura del segnale del miocardio e quindi poi l’individuazione della soglia di segmentazione. Durante la seconda fase del lavoro è stato inoltre realizzato un nuovo approccio che tiene conto della presenza del PVE con lo scopo di migliorare l’efficacia degli algoritmi di segmentazione.

Fondamentale per il raggiungimento di tali obiettivi è stato lo sviluppo di un modello che simula le caratteristiche del miocardio in presenza della patologia in modo da estrarre i parametri che lo caratterizzano tramite un algoritmo di curve fitting, così da non ricorrere alla selezione manuale della ROI. Il modello matematico è stato sviluppato a seguito di un’analisi della distribuzione del rumore tipica dei dati RM di magnitudine con cui si lavora nella pratica comune e di un’analisi più dettagliata del segnale che caratterizza le immagini ottenute tramite la tecnica LGE. Inoltre, si è tenuto conto anche della presenza del PVE tipico delle immagini biomediche in modo da minimizzarne l’effetto sulla misura del segnale. Da tale studio si è arrivati al modello del miocardio totale, a sei parametri, costituito da tre contributi: una distribuzione di Rice che descrive l’andamento del segnale associato al miocardio sano, una distribuzione uniforme che modellizza il PVE tra miocardio sano e patologico e infine una distribuzione di Gauss che descrive l’andamento del segnale associato al miocardio patologico. Per verificare se il modello proposto è in grado di descrivere la distribuzione del segnale del miocardio è stato necessario sviluppare dei fantocci, in modo da avere delle immagini di riferimento. I fantocci realizzati presentano diverse conformazioni del tessuto patologico, ed in particolare sono state simulate immagini di miocardio con infarto, caratterizzato da una regione cicatriziale compatta, e con fibrosi miocardica, caratterizzata invece da una distribuzione meno omogenea e diffusa.

Create le immagini, si è utilizzato il modello per eseguire la procedura di fitting sulla curva del segnale del miocardio, ottenuta a sua volta computando l’istogramma del fantoccio, in modo da estrarre i parametri che lo descrivono e confrontarli con quelli di riferimento utilizzati per la realizzazione del fantoccio. Trattandosi di algoritmi di ottimizzazione locale, per ottimizzare la procedura di fitting è stato sviluppato un algoritmo che esegue la procedura un numero ripetuto di volte, con condizioni iniziali (diverse ad ogni iterazione) estratte da una distribuzione uniforme casuale, entro i limiti teorici dei parametri da stimare, ed è stato poi selezionato il risultato migliore, ovvero la stima dei parametri che producono in termini di errore quadratico medio (RMSE) l’errore di fitting minore. L’algoritmo è stato applicato ai fantocci in diverse condizioni facendo variare i valori di percentuale di infarto/fibrosi presente e la deviazione standard (SD) del rumore.

(6)

6 Confrontando i valori stimati dei parametri che descrivono le distribuzioni di Rice e di Gauss con i valori di riferimento, utilizzati per la creazione dei fantocci, è emerso che la procedura di fitting complessivamente converge, e dunque il modello è idoneo per modellizzare il segnale del miocardio. Estratti i parametri del modello, sono stati implementati i metodi di segmentazione definiti nella pratica clinica. Per i metodi n-SD è stato calcolato, a partire dalla stima dei parametri della Riciana, il valor medio µ e la SD σ ad essa associati in modo da calcolare la soglia. Per il metodo FWHM invece si è sfruttato l’istogramma del miocardio calcolando la soglia come quel valore di intensità in cui un pixel ha la stessa probabilità di appartenere alla regione sana o patologica del tessuto.

Per valutare l’efficacia dell’algoritmo automatico si è calcolato l’indice di similarità DICE tra le maschere delle regioni fibrotiche ottenute dalla segmentazione e quelle di riferimento create nel momento della realizzazione dei fantocci. Da tale studio è emerso che nel caso di immagini ideali, prive di PVE, e per valori accettabili di SD del processo del rumore gli algoritmi 4SD,5SD, 6SD e FWHM riescono a individuare correttamente la regione interessata da fibrosi. Per valori elevati di SD, a cui corrispondono immagini di bassa qualità che tipicamente non si utilizzano nella pratica clinica, l’efficacia dei metodi peggiora ed in particolar modo i metodi 5SD e 6SD. Nel caso in cui le immagini sono affette dal PVE l’efficacia dei metodi peggiora all’aumentare della presenza dell’effetto. Per tale ragione si sono ottenuti risultati migliori con i fantocci con infarto in quanto a parità di percentuale di DE presentano una percentuale di pixel affetti da PVE inferiore rispetto al caso di fibrosi miocardica.

Successivamente è stata confrontata, sempre in termini di indice DICE, la segmentazione ottenuta con gli algoritmi sviluppati con quella ottenuta con la corrispettiva versione semi-automatica, applicando entrambe le versioni ai fantocci creati precedentemente. Da tale confronto è emerso che nel caso ideale e per valori accettabili della SD del processo di rumore il DICE degli algoritmi 4SD,5SD,6SD e FWHM assume valori superiori allo 0.95, quindi le due versioni sono confrontabili. Gli algoritmi 2SD e 3SD diventano invece confrontabili nel caso di fantoccio con alta percentuale di fibrosi, ma non si raggiunge mai un valore unitario dell’indice DICE, a differenza dei metodi 4SD,5SD,6SD e FWHM. Nel caso in cui è presente il PVE le due versioni dei metodi 4SD,5SD e FWHM rimangono confrontabili, con un indice DICE superiore allo 0.95, soltanto nel caso di infarto. L’analisi per i fantocci con fibrosi invece risente maggiormente dell’effetto e quindi la differenza tra le maschere segmentate con le due versioni dell’algoritmo è più significativa. Analizzando le soglie computate dai due algoritmi emerge che tale differenza è dovuta alla variabilità della selezione della ROI e quindi alla variabilità della soglia del metodo semi-automatico, che invece non è presente nel calcolo della soglia con gli algoritmi automatici.

(7)

7 Nella seconda fase del lavoro si è sviluppato un algoritmo di segmentazione in grado di tenere in considerazione, per il calcolo della soglia, la presenza dei pixel affetti da PVE in modo da ottenere risultati migliori. Tale algoritmo, da qui in avanti denominato metodo PVE, si basa sulla stima del numero dei pixel appartenenti alla regione fibrotica e dei pixel interessati dall’effetto, ottenuta tramite la procedura di fitting con il modello del segnale del miocardio totale. Per immagini con PVE solo tra due tessuti e geometria irregolare, è noto che la distribuzione dell’effetto è uniforme, ciò significa che metà dei pixel di tale distribuzione sono in realtà pixel appartenenti alla regione patologica del miocardio e l’altra metà appartengono alla regione sana. L’obiettivo dunque è individuare il valore di soglia ottimale per cui il numero di pixel che hanno intensità maggiore di tale valore, e quindi i pixel segmentati, sia pari alla somma dei pixel appartenenti al miocardio patologico e il 50% dei pixel affetti dal PVE. Per valutare l’efficacia dell’algoritmo proposto, questo è stato applicato ai fantocci con PVE utilizzati nello studio precedente e si è calcolato l’indice DICE, utilizzando come maschere di riferimento il Gold Standard ottenuto durante la fase di creazione dei fantocci. Dal confronto con gli indici DICE è emerso che il metodo PVE è confrontabile, in termini di efficacia, con l’algoritmo FWHM e 5SD per i fantocci con infarto. Nel caso di fantocci con fibrosi il metodo diventa confrontabile soltanto per alte percentuali di DE. Inoltre, analizzando i risultati si è osservato che il metodo PVE presenta efficacia maggiore rispetto ai metodi 3SD,4SD,5SD e FWHM per alti valori di SD del processo del rumore.

L’ultima fase del lavoro si è incentrata sull’applicazione dei metodi automatici e del metodo PVE su immagini di RMI, messe a disposizione dalla “Fondazione G. Monasterio CNR Regione Toscana”, per valutarne l’efficacia nel caso reale e sulla successiva analisi statistica dei risultati ottenuti. Dall’analisi è emerso che i metodi n-SD automatici differiscono significativamente dalla versione semi-automatica (per µ si è ottenuto un p=0.042, per σ un p=0.002), quindi, dato che i metodi non sono sovrapponibili, il numero ottimale di n dipenderà dalla stima dei parametri. Si è trovato che il valore di n ottimale per i metodi n-SD automatici è pari a 3 e quello della versione semi-automatica è pari a 6. Confrontando infine il metodo 3SD automatico e il 6SD semi-automatico si è ottenuto che i metodi non sono statisticamente diversi (p=0.67), tuttavia per il metodo automatico si ha una stima leggermente peggiore rispetto a quella ottenuta con il metodo semi-automatico (ICC3SD=0.75,

ICC6SD=0.84). Il metodo FWHM automatico invece risulta sovrapponibile alla versione

semi-automatica (p=0.443). Infine, per il metodo PVE si è ottenuto che la versione “slice per slice” è migliore rispetto alla versione globale (ICCslice=0.66, ICCglobale=0.45), tuttavia mostra performance

(8)

8 In conclusione, la versione automatica degli algoritmi n-SD e FWHM ha riportato un’efficacia paragonabile a quella delle rispettive versioni semi-automatiche. Inoltre, il nuovo metodo di segmentazione proposto ha portato dei buoni risultati, anche se con efficacia leggermente inferiore. Gli argomenti trattati sono stati organizzati nel seguente ordine:

Nel primo capitolo è stato descritto il ruolo fondamentale che gioca la RMI nella diagnosi della fibrosi miocardica, ed in particolar modo la tecnica LGE. È stato infine riportato lo stato dell’arte della procedura di acquisizione e degli algoritmi usati nella fase di post-processing.

Nel secondo capitolo è stato fatto un accenno ai principi fisici alla base della RMI ed è stato descritto in maniera più dettagliata il modello di segnale e rumore che caratterizzano le immagini LGE. Il terzo capitolo è stato dedicato alla descrizione dello sviluppo degli algoritmi automatici di segmentazione e dei metodi utilizzati per la loro validazione.

Nel quarto capitolo sono stati analizzati i risultati dei metodi descritti nel capitolo precedente applicati ai fantocci, creati tramite calcolatore.

Infine, nel quinto capitolo sono stati riportati i risultati ottenuti dall’analisi statistica sui metodi di segmentazione applicati alle immagini reali.

(9)

9

CAPITOLO 1

La RMC per la detezione della necrosi

miocardica

1.1. Diagnosi Fibrosi Miocardica

La Risonanza Magnetica Cardiaca (RMC) è la modalità diagnostica attualmente ritenuta il Gold Standard non solo per la valutazione della morfologia e della funzionalità cardiaca, ma anche per la caratterizzazione del tessuto miocardico [1]. I punti di forza che ne hanno determinato il successo sono

l’accuratezza, grazie all’alta risoluzione spaziale, e la non invasività della procedura, infatti essa permette di ottenere immagini cliniche senza l’utilizzo di radiazioni ionizzanti. In particolare, la RMC gioca un ruolo fondamentale per l’individuazione di tessuto cicatriziale del miocardio, parte integrante di alcune importanti patologie cardiovascolari.

In medicina la formazione anomala di tessuto connettivo-fibroso in un organo o in un tessuto è definita fibrosi.

Tale condizione può derivare da uno stato patologico che altera l’equilibrio tra produzione e demolizione dei componenti connettivali, oppure può essere il risultato del processo di cicatrizzazione che si mette in atto a seguito di una lesione, o un danno a carico di cellule specifiche di un organo o di un tessuto.

Nel caso in cui la fibrosi interessa il cuore si parla di fibrosi miocardica o cardiaca, che in genere compare a causa di sofferenza cardiovascolare (es: ipertensione, coronaropatia, infarto del miocardio, miocardite, cardiopatia dilatativa). In un miocardio normale, la matrice extracellulare fornisce una base strutturale per l’organizzazione dei miociti. Inoltre, essa è anche cruciale per la trasmissione della forza contrattile e dei segnali elettrici. L'aumento di tessuto connettivo al livello del miocardio è associato a irrigidimento del ventricolo, che porta a disfunzione diastolica e, infine, sistolica. Esso influisce anche sulla conduzione elettrica del cuore interrompendo l'accoppiamento eccitazione-contrazione del miocardio, portando a dissincronia e aritmia.

Rilevare la fibrosi miocardica dunque è importante per la valutazione del rischio, per guidare le terapie, comprendere i meccanismi responsabili dell'avvio, della progressione e della risoluzione della fibrosi e, infine, consentire la progettazione di nuovi trattamenti anti-fibrotici.

(10)

10 Una procedura per la diagnosi della fibrosi cardiaca è la biopsia del miocardio, tuttavia questa non è sempre giustificata, in quanto trattandosi di una tecnica invasiva presenta un alto rischio di complicanze.

Attualmente la RMC è lo standard di riferimento per l'imaging della fibrosi miocardica in una varietà di patologie [2]: oltre ad essere non invasiva, consentendo il monitoraggio a lungo termine dei processi di rimodellamento fibrotico, permette di analizzare l'intero cuore entro una quantità ragionevole di tempo, fornendo una diagnosi più accurata rispetto alle procedure invasive localizzate.

Tale tecnica di imaging consente la differenziazione ottimale tra miocardio normale e patologico sfruttando l’iniezione di una sostanza paramagnetica, il Gadolinio, come mezzo di contrasto. Poiché lo ione Gd3+ risulta tossico per l’organismo umano, viene reso biocompatibile attraverso la reazione con un chelato, come l’acido dietilenetriaminepentaacetico (DTPA). La scansione viene effettuata 10-20 minuti dopo l'immissione del contrasto, per produrre il cosiddetto Late Gadolinium

Enhancement (LGE), che consente di raffigurare il miocardio patologico con ottima riproducibilità.

Il Gd-DTPA è infatti un tracciante biologicamente inerte che diffonde liberamente nello spazio extracellulare, ma non è in grado di attraversare la membrana cellulare integra. Le aree che mostrano LGE corrispondono dunque a zone di necrosi dei miociti o di fibrosi miocardica.

In ambito clinico vengono sfruttate immagini T1-pesate, poiché il tracciante riduce il tempo di rilassamento spin-reticolo portando ad un aumento dell’intensità del segnale. Le immagini vengono acquisite tramite l’impulso di Inversion Recovery Gradient Echo con un tempo di inversione tale da annullare il segnale del miocardio remoto (sano); in questo modo il tessuto patologico risulta spiccatamente brillante, ottenendo un elevato contrasto, fondamentale per l’accurata identificazione delle aree di cicatrizzazione (Figura 1.1).

Figura 1.1. Ruolo del tempo di inversione nell'imaging tardivo: a sinistra, il miocardio normale presenta un aspetto lievemente inciso (più scuro

al bordo con intensità dell'immagine più elevata centralmente) che indica un tempo di inversione impostato troppo breve e che porterà alla sottostima di LGE. A destra, l'immagine è stata ripetuta con un tempo di inversione più lungo e mostra una zona LGE più ampia nella parete inferiore. Immagine tratta da [3]

(11)

11 Per l’acquisizione si segue un protocollo standardizzato [4], per il LGE quest’ultimo prevede:

• Sequenze di impulsi:

a. Impulsi 2D segmented inversion recovery GRE o SSFP, Phase-Sensitive Inversion-Recovery (PSIR) e sequenze 3D sono preferite in pazienti appropriati con soddisfacente capacità di mantenere le apnee e se il rapporto segnale/rumore sia sufficiente.

b. Immagini acquisite con singolo impulso (Singleshot imaging) (SSFP readout) come alternativa, in pazienti con ritmo cardiaco irregolare e/o difficoltà a mantenere le apnee. • Attendere almeno 10 minuti dopo l’iniezione di gadolinio (con dosaggio 0.1-0.2 mmol/kg di peso corporeo, soluzione fisiologica 20 mL). L’attesa può essere inferiore a 10 minuti se usati dosaggi minori, in quanto il segnale del sangue si riduce più del segnale del miocardio con LGE.

• Le immagini devono essere acquisite:

a. Come immagini statiche in diastole. Nella pratica clinica tuttavia, le immagini vengono acquisite al tempo di azzeramento del segnale del miocardio, quindi la fase di acquisizione dipende dagli intervalli R-R del paziente.

b. Negli stessi assi delle immagini in cine (asse corto ed asse lungo). c. Spessore di fetta, come per immagini in cine.

d. Risoluzione in-plane, ~ 1.4-1.8 mm

e. Durata di acquisizione per intervalli R-R sotto 200 ms, ma inferiore in caso di tachicardia per evitare immagini sfuocate.

f. Tempo di inversione impostato per annullare miocardio sano. Altrimenti, può essere usata una sequenza PSIR che necessita meno frequentemente di correzione del TI. g. Il read-out viene impostato solitamente a battiti cardiaci alterni (2 RR), ma bisogna

modificare tale parametro ad ogni battito (1 RR) in caso di bradicardia oppure ogni 3 battiti (3RR) in caso di tachicardia od aritmia cardiaca.

Diversi esperimenti hanno validato l'LGE come tecnica accurata e valida per la quantificazione della fibrosi miocardica confrontando l'area della cicatrice misurata con LGE con i risultati dell'elettrocardiografia con scintigrafia al tallio e istopatologiasia nell'uomo che in animali [5].

(12)

12

1.2. Metodi di valutazione della fibrosi

Per la maggior parte delle indicazioni cliniche, l’analisi visiva, e quindi di tipo qualitativa, da parte dell’operatore esperto delle immagini LGE è sufficiente. In questo tipo di valutazione l’operatore, facendo riferimento al modello standard del ventricolo sinistro (LV) sviluppato dell’American Heart

Association (AHA), effettua una descrizione dei segmenti interessati dalla fibrosi. Tale modello

suddivide il LV in 17 segmenti (Figura 1.2) che vengono catalogati e localizzati facendo riferimento alla loro visualizzazione nelle sezioni in asse lungo e in asse corto. Vengono definiti tre livelli, basale,

medio e apicale, per localizzare il segmento al livello dell’asse lungo del ventricolo dalla base

all’apice. Per la localizzazione al livello dell’asse corto, i livelli basale e medio vengono suddivisi in 6 segmenti di 60° l’uno, il livello apicale invece in 4 segmenti. Il diciassettesimo segmento, non visibile nelle immagini in asse corto, coincide con l’apice del ventricolo [6].

Tuttavia, è stato dimostrato che l'estensione del tessuto cicatriziale è in grado di fornire informazioni supplementari oltre la convenzionale valutazione del rischio, suggerendo quindi la necessità di un’analisi quantitativa per misurare l'estensione della cicatrice e la transmuralità [7].

Figura 1.2. Segmentazione standard AHA del ventricolo

(13)

13 La prima fase del post-processing consiste nel tracciare i contorni dell’epicardio e dell’endocardio del ventricolo sinistro, in modo da identificare il miocardio. Quando non vi è un software che agisca automaticamente, la procedura di segmentazione avviene manualmente, ad opera di un osservatore esperto, che quindi abbia le competenze opportune per discriminare, ad esempio, elementi anatomici accessori, come i muscoli papillari, o distinguere pixel della cavità cardiaca, in cui è presente la componente ematica (blood pool). Quest’ultima risulta infatti più luminosa rispetto alla componente muscolare in quanto ricca di acqua, quindi responsabile di un segnale di risonanza magnetica più significativo. È perciò importante riuscire anche a discernere regioni di tessuto miocardico luminose proprio a causa della presenza di cicatrice, dalla regione, comunque meno intensa, del blood pool. A

questo punto vengono applicati i metodi di detezione della regione interessata da fibrosi. Una prima classificazione distingue i metodi in automatici e semi-automatici, a cui si affianca il

metodo manuale. I primi sono implementati attraverso algoritmi basati, principalmente, sulla parametrizzazione dell’andamento di intensità del miocardio, mentre i metodi semi-automatici richiedono, durante la loro esecuzione, l’interazione con l’utente. Negli anni sono stati proposti diversi metodi, tuttavia ad oggi non è stata ancora definita la metodica ottimale [3]. Per tale motivo la

procedura manuale, la quale richiede il tracciamento della cicatrice da parte di personale esperto, spesso un radiologo, solitamente viene considerata il Gold Standard per analisi di questo tipo.

1.2.1. Algoritmi semi-automatici di post-processing

I metodi semi-automatici più adottati si basano su approcci di segmentazione a soglia, sfruttando così l'intensità potenziata del tessuto cicatriziale rispetto al normale miocardio circostante.

Attraverso differenti criteri viene stabilito un valore di intensità soglia che funge da discriminante per attribuire ciascun pixel ad una regione o ad un’altra. Il metodo considerevolmente più adottato è il

Signal-threshold-to-reference-mean (STRM) o più comunemente noto come metodo n-SD (Standard Deviation). In tale tecnica si sfrutta il valor medio di intensità del miocardio remoto e la sua

deviazione standard per stabilire la soglia, oltre la quale classificare un pixel come appartenente alla cicatrice. Il miocardio remoto è definito come la regione con assenza di iper-enhancement. Ai fini del calcolo del valore medio e della deviazione standard è richiesto all’utente di individuare una regione di interesse (ROI) all’interno del miocardio remoto.

Il valore medio di intensità corrisponderà alla media aritmetica delle intensità degli N pixel appartenenti alla ROI:

𝜇 = 1

𝑁 ∑ 𝐼(𝑖) 𝑁 𝑖=1

(14)

14 La deviazione standard sarà pari a:

dev = √∑ (𝐼(𝑖)−μ )2

𝑁 𝑖=1

𝑁

Il metodo definisce la cicatrice come l’insieme dei pixel di intensità I tale che risulti: 𝐼 > 𝜇 + 𝑛 ∗ dev con n = 2, 3, … ,6

In generale non esiste un valore soglia che funziona per tutte le situazioni, ciò è dovuto al fatto che il SNR relativo del tessuto cicatriziale rispetto al miocardio normale può variare a seconda del tipo di agente di contrasto, della dose e del tempo dopo la somministrazione, della forza del campo applicato, del tipo di sequenza e di altre variabili inclusa la tipologia di lesione. Le linee-guida consigliano di utilizzare una soglia di partenza pari a 𝜇 + 5SD in presenza di infarto e 𝜇 + 3SD nel caso di miocardite

[3]. A partire da tali valori il fattore n potrà poi essere ottimizzato in modo da migliorare l’accuratezza

del metodo.

Tale approccio è necessario per la diversa conformazione della fibrosi nelle due patologie [8]. Infatti, nelle cicatrici fibrotiche non su base infartuale (fibrosi miocardiche evidenti nell’ipertrofia marcata, nelle cardiomiopatie dilatative su base non ischemica o nelle miocarditi) l’iperintensità tardiva (DE) è localizzata in modo disorganizzato all’interno del miocardio e non segue la progressione dal sub-endocardio al sub-epicardio come invece avviene per la fibrosi miocardica post-ischemica, presentando una distribuzione più compatta [9].

Figura 1.3. Analisi singola slice di immagini LGE nella cardiomiopatia ipertrofica (HCM) e nell'infarto

miocardico acuto (IMA) utilizzando diverse tecniche di quantificazione n-sd . Riducendo la soglia da 6 a 2 SD si ottengono volumi LGE sempre più grandi.

(15)

15 Un altro metodo basato sempre sulla definizione di una soglia, largamente impiegato per la localizzazione delle cicatrici, è il Full-Width-at-Half-Maximum (FWHM). Come il precedente, anche tale tecnica richiede l’interazione con l’utente e l’individuazione di una ROI. In questo caso la ROI deve essere definita all’interno della regione cicatriziale, in modo che essa contenga i pixel con intensità di segnale maggiore. La soglia in questo caso viene definita come il 50% del massimo dell’intensità dei punti interni alla ROI, definendo la cicatrice come l’insieme dei pixel di intensità I tale che risulti:

I > maxDE * 0.5

In letteratura sono presenti diversi studi che mettono a confronto i vari metodi di detezione. Per esempio, in Flett et al (2011) [8] è stata valutata la riproducibilità di 7 metodi di quantificazione di DE in tre condizioni patologiche differenti in cui tale metodica viene utilizzata. In particolare, sono stati confrontati i metodi n-SD (con n pari a 2,3,4,5,6) e il metodo FWHM in 60 pazienti con diagnosi confermata di cardiomiopatia ipertrofica (HCM), infarto miocardico acuto (AMI) e infarto

miocardico cronico (CMI).

Lo studio ha mostrato come la valutazione del volume di DE varia significativamente a seconda del metodo utilizzato. Non sono state trovate differenze statisticamente significative tra i metodi FWHM, manuale, 6-SD e 5-SD; invece con la tecnica 2-SD si è ottenuto un volume di DE due volte superiore di quello ottenuto con i metodi precedentemente elencati. Inoltre, è stata valutata la riproducibilità dei vari algoritmi.

Figura 1.4. Immagini LGE e tecniche semi-automatiche che utilizzano criteri diversi per

(16)

16 I risultati ottenuti mostrano come la riproducibilità di tutte le tecniche analizzate è peggiore nella HCM piuttosto che nell’AMI e CMI e che il metodo FWHM è il più riproducibile in tutte e tre le condizioni patologiche.

1.2.2. Algoritmi automatici di post-processing

Negli anni sono stati proposti anche algoritmi di segmentazione automatica. La maggior parte di essi sfrutta la distribuzione del segnale dell’intero miocardio per distinguere il tessuto sano da quello patologico. Per esempio, in Pop et al (2013) [10] viene proposto un metodo di classificazione basato

sul modello Gaussian Mixture Model (GMM). Tale modello assume che il segnale delle varie regioni da identificare seguano una distribuzione Gaussiana, ognuna con la propria media e varianza. Il modello GMM viene stimato tramite l’algoritmo di expectation–maximization (EM). Dall’algoritmo si ottiene la probabilità, per ogni pixel, di appartenere ad una determinata classe e la rispettiva distribuzione Gaussiana che la descrive. A questo punto viene effettuata la classificazione dei pixel, assegnandoli alla classe con probabilità più alta.

Figura 1.5. Esempio di classificazione del tessuto del miocardio in tre classi (tessuto sano, border zone e tessuto

(17)

17 Un metodo simile è quello proposto nello studio di Hennemuth et al (2008) [11]. Esso combina l’analisi dell’istogramma del miocardio con un algoritmo di segmentazione Watershed. Il metodo si basa su delle assunzioni riguardanti sia le proprietà dell’immagine acquisita (distribuzione Riciana del segnale) sia le caratteristiche dell’infarto miocardico (elevata probabilità di presenza di DE in zone sub-endocardiche, regioni di DE a forma di mezzaluna compatta).

La prima fase dell’algoritmo consiste nell’analisi dell’istogramma del miocardio facendo un fitting con un modello costituito, in questo caso, dalla combinazione di una distribuzione di Rayleigh e una distribuzione di Gauss: ℎ(𝑥) = 𝛼𝑅 𝑥 𝜎𝑅2 𝑒 − 𝑥2 2𝜎𝑅2+ 𝛼𝐺 1 √2𝜋𝜎𝐺2 𝑒 −(𝑥−𝜇)2 2𝜎𝐺2

Tale modello è stato scelto in modo da poter rappresentare la distribuzione del miocardio remoto (primo termine dell’equazione) e quella della regione di DE (secondo termine dell’equazione). Anche in questo caso il modello viene fittato utilizzando l’algoritmo di EM. Dal fitting vengono estratte tre soglie:

• tM: valor medio della distribuzione di Rayleigh;

• tS: valore che definisce il punto di intersezione tra le due distribuzioni; • tD: valor medio della distribuzione di Gauss.

A questo punto ogni pixel dell’immagine viene classificato in base al valore dell’intensità secondo il modello lineare: 𝑝(𝑥) = { 0 𝑠𝑒 𝑥 ≤ 𝑡𝑀 𝑥 − 𝑡𝑀 𝑡𝐷− 𝑡𝑀 1 𝑠𝑒 𝑥 𝑡𝐷 𝑠𝑒 𝑡𝑀 < 𝑥 ≤ 𝑡𝐷

La seconda fase consiste nell’applicazione dell’algoritmo Watershed (spartiacque). Si tratta di un metodo che si basa su un’interpretazione topografica dell’immagine gradiente. In questa interpretazione vengono definiti tre concetti chiavi:

• Punti appartenenti ad un minimo locale

• Bacino di raccolta: punti in cui una goccia d’acqua scorrerebbe verso uno dei minimi

• Linee di separazione: punti in cui l’acqua potrebbe ugualmente cadere in più di un punto di minimo, che quindi formano le creste sulla superficie topografica.

(18)

18 L’idea alla base della tecnica è quella di riempire gradualmente e uniformemente i bacini. Quando due o più bacini vengono riempiti fino al picco che li separa si costruisce una diga. Da un punto di vista implementativo ogni iterazione dell’algoritmo corrisponde ad un aumento di un’unità del livello di grigio “spartiacque” n. In base al contesto verrà scelto un opportuno valore minimo di n ed infine sarà possibile unire le varie dighe per avere la segmentazione finale.

In particolare, nello studio per l’algoritmo viene definito come seed point v i pixel con distanza dall’endocardio minore del 50% dello spessore e con un’intensità superiore alla soglia tD

precedentemente determinata:

(𝑑(𝑣, 𝑒𝑛𝑑𝑜)

𝑑(𝑒𝑝𝑖, 𝑒𝑛𝑑𝑜) ≤ 0.5) ⋀ (𝑝(𝑥) = 1)

In questo modo vengono escluse le zone iper-intense ma lontane dall’endocardio, che quindi potrebbero essere confuse con rumore. A questo punto i pixel all’interno dei diversi bacini, rappresentanti le regioni interessati da fibrosi, vengono segmentati seguendo i percorsi di altitudine decrescente sulla topografia dell’immagine gradiente.

(19)

19 Nello studio di Tao et al (2010) [12] invece non viene fatta alcuna assunzione sulla distribuzione probabilistica del segnale, ma viene sfruttata la bimodalità dell’istogramma applicando l’algoritmo

di Otsu. L’algoritmo presume che nell’immagine da segmentare siano presenti due sole classi e quindi

calcola la soglia ottima per separare l’immagine in due sottoclassi che siano il più possibile omogenee al loro interno. La versione standard dell’algoritmo prevede la minimizzazione della varianza intra- classe definita come:

𝜎𝜔2(𝑡) = 𝜔

1(𝑡) 𝜎12+ 𝜔2(𝑡) 𝜎22

dove ω è la probabilità di una classe separata dall’altra dalla soglia t e σ è la deviazione standard della classe. È stato dimostrato che minimizzare la varianza intra-classe è equivalente a massimizzare la varianza interclasse definita come:

𝜎𝑏2(𝑡) = 𝜎2− 𝜎

𝜔2(𝑡) = 𝜔1(𝑡) 𝜔2(𝑡) [𝜇1(𝑡) − 𝜇2(𝑡)]2

dove µ è il valor medio di ciascuna classe.

Il metodo consiste nel provare in modo esaustivo tutti i possibili valori di t e scegliere quello che massimizza la varianza interclasse.

Dal punto di vista implementativo occorre: 1) Calcolare l’istogramma dell’immagine;

2) Calcolare le probabilità ωi normalizzando l’istogramma per il numero totale di pixel

dell’immagine;

3) Calcolare il valore di 𝜎𝑏2(𝑡) per ogni valore di t calcolando

𝜔1(𝑡) = ∑ 𝑝(𝑖) 𝜇1(𝑡) = ∑ 𝑝(𝑖) 𝑥(𝑖) 𝑡 0 𝑡 0

e 𝜔2(𝑡) e 𝜇2(𝑡) in maniera analoga operando le somme da (t+1) in poi;

4) Scegliere il t che massimizza 𝜎𝑏2(𝑡).

Tuttavia, trattandosi di un algoritmo di segmentazione a soglia il metodo è soggetto a due tipi di errori di classificazione noti come falsi positivi e falsi negativi. Tali errori sono dovuti essenzialmente all’inclusione di pixel appartenenti al blood pool nell’endocardio portando ad una sovrastima del tessuto infartuato e all’effetto di volume parziale che invece porta ad una sottostima. Per correggere i falsi positivi si ricorre all’utilizzo di un filtro di connettività, per i falsi negativi invece viene sfruttato un algoritmo di Region Growing.

(20)

20

Figura 1.7. Applicazione del filtro di connettività e dell’algoritmo di Region Growing: a) Immagine iniziale, b) identificazione zone DE con metodo

di Otsu, c) risultato finale dopo l’applicazione delle due correzioni

1.3. Analisi quantitativa

A seguito della distinzione tra miocardio sano e patologico, tramite gli algoritmi semi-automatici o automatici descritti in precedenza, si procede con un’analisi quantitativa delle immagini [13], ultima

fase del post-processing. Elementi di interesse saranno ad esempio:

• Il volume cicatriziale. Il metodo di calcolo è costituito dalle seguenti fasi: 1) Si effettua la planimetria dell’area di interesse

2) L’area viene moltiplicata per lo spessore della sezione tomografica ottenendo un volume parziale

3) I volumi parziali sono sommati per generare il volume totale (della cicatrice o di tutto il miocardio)

4) Il volume cicatriziale viene espresso in percentuale del volume miocardico regionale o totale

• Il carico cicatriziale totale (noto anche come Scar Burden). Il metodo di calcolo è il seguente: 1) Scelta di un modello segmentario del ventricolo sinistro (in genere 17 segmenti) 2) Assegnazione di un punteggio di transmuralità della cicatrice (hyperenhancement) ad

ogni segmento utilizzando in genere una scala di 5 punti (dove 0 = 0% e 4 = 100%) 3) Calcolo dello scar burden totale come rapporto tra la somma dei punteggi segmentari

e il numero di segmenti

• L’estensione spaziale della cicatrice: valutata come il numero di segmenti miocardici con punteggio in hyperenhancement diverso da 0.

(21)

21

CAPITOLO 2

Modello immagine LGE

L’idea alla base dell’automatizzazione degli algoritmi è la modellizzazione dell’andamento di intensità del segnale del miocardio totale. Per tale scopo è di fondamentale importanza la conoscenza dei principi che stanno alla base della formazione dell’immagine di RMI e di conseguenza della

funzione di densità di probabilità (PDF) che descrive la distribuzione dei dati. Infatti, se si basasse il

modello su una PDF errata, potrebbero essere introdotti errori sistematici nella stima dei parametri, e di conseguenza errori nella segmentazione dell’immagine.

2.1. Principi fisici della Risonanza Magnetica

La Risonanza Magnetica Nucleare (RMI) consiste nel rilevamento delle variazioni di magnetizzazione dei nuclei di una sostanza, sottoposti all'azione di un campo magnetico esterno B0.

La proprietà che permette ad un nucleo di interagire con un campo magnetico esterno è il così detto

spin intrinseco. È un fenomeno quantistico per il quale il nucleo ruota intorno al proprio asse. I valori

assunti dallo spin I, dipendono dal numero di protoni e neutroni presenti nel nucleo, se non vi è interazione tra nucleo e campo magnetico allora I è nullo. Il momento angolare р del nucleo dovuto allo spin è dato da:

𝑝 = ℏ 𝐼

dove ℏ è la costante di Planck.

Dato che il nucleo ha una carica elettrica e un momento angolare allora ha associato anche un

momento magnetico µ:

µ = 𝛾 𝑝

dove 𝛾 è il rapporto giromagnetico, costante caratteristica del tipo di nucleo.

Secondo le leggi di meccanica quantistica il momento di dipolo del nucleo può assumere 2I+1 orientamenti in un campo magnetico esterno, corrispondenti a 2I+1 livelli energetici permessi. In particolare, l’atomo di idrogeno, presente in maniera abbondante nei tessuti, presenta un momento di spin pari a ½, quindi può allinearsi al campo esterno secondo due orientamenti: in posizione parallela o antiparallela.

(22)

22 Queste due orientazioni corrispondono a due livelli energetici, la cui differenza ΔE è proporzionale all’ampiezza del campo magnetico esterno B0:

ΔE =μ 𝐵0 𝐼

dove I è lo spin intrinseco e µ è il vettore che descrive il momento magnetico.

La transizione tra i due stati può essere indotta dall’applicazione di una radiazione magnetica della corretta pulsazione, nota come frequenza di Larmor:

𝜔𝐿 = 𝛾 𝐵0

Questo fenomeno è noto con il nome di risonanza.

Nella pratica non si osserva mai un singolo nucleo o un singolo momento magnetico, ma l’effetto combinato di tutti i nuclei del campione, ossia la magnetizzazione totale M:

𝑀 = ∑ 𝜇

esso si comporta come un momento magnetico che, se perturbato dal suo stato di equilibrio, precede alla frequenza di Larmor intorno a B0. All’equilibrio i momenti magnetici dei nuclei non hanno una

direzione preferenziale sul piano perpendicolare al campo applicato. quindi M non ha componente perpendicolare a B0, ma presenta solo la componente parallela, in quanto i momenti magnetici

tendono ad allinearsi al campo magnetico esterno.

Lo scopo della RMI è quello di rilevare la magnetizzazione totale e per fare questo è necessario in qualche modo perturbare il sistema che si trova nel suo stato di equilibrio e costringere M ad allontanarsi dalla direzione parallela a B0. L’impulso di eccitazione è dato dall’applicazione di un

secondo campo magnetico (campo magnetico a radiofrequenza) B1, perpendicolare a B0 e rotante

attorno a B0 alla velocità ωL in sincronismo con la precessione dei momenti magnetici nucleari.

Quando viene spento B1, M continua a precedere descrivendo un cono ad un angolo α, noto come flip

angle, da B0. La sua grandezza dipende a sua volta dall’ampiezza di B1 e dal tempo della sua

(23)

23 Terminata l'eccitazione a radiofrequenza, il sistema torna spontaneamente all'equilibrio; la componente longitudinale della magnetizzazione macroscopica (secondo l'asse z, asse di applicazione del campo magnetico statico) tende a recuperare il suo valore di equilibrio, mentre la componente trasversale decade a zero; tale fenomeno non è istantaneo, ma graduale; l'equilibrio iniziale tende infatti a ripristinarsi progressivamente.

I fenomeni di interazione tra i nuclei eccitati ed il resto della materia sono regolati dalle leggi della probabilità e la loro evoluzione temporale può essere descritta da una legge esponenziale caratteristica dei fenomeni casuali. Il segnale registrato è noto come segnale Free Induction Decay (FID): tale segnale è un'oscillazione smorzata che tende a zero quasi esponenzialmente.

Il segnale FID è caratterizzato da un’ampiezza massima dipendente dalla densità protonica. L’andamento temporale dipende invece da fenomeni:

• il rilassamento trasversale o annullamento della componente trasversale Mxy;

• il rilassamento longitudinale o recupero della magnetizzazione longitudinale Mz.

La costante di tempo T1, definita tempo di rilassamento spin-reticolo, governa il ritorno all’equilibrio

della componente longitudinale del vettore M e coinvolge i trasferimenti di energia presenti tra il sistema di spin ed il resto dell’ambiente; invece la costante di tempo T2, definita tempo di

rilassamento spin-spin, governa l’annullamento della componente trasversale del vettore M e

coinvolge le interazioni tra i momenti magnetici dei singoli nuclei. Il tempo di rilassamento T2 è

sempre minore o uguale a T1. Se il campo B0 non risulta omogeneo a livello locale, la frequenza di

precessione dei nuclei dipenderà dalla posizione che essi occupano rispetto a tali disomogeneità locali. Ogni pacchetto di spin precederà allora ad una propria velocità nei diversi punti del campione, sfasandosi: si osserverà un decadimento del vettore M più rapido. Tale fenomeno è considerato nella costante di tempo T2*.

(24)

24 Il contrasto nelle immagini di risonanza magnetica dipende dalle diverse proprietà magnetiche dei tessuti ed in particolar modo, sebbene ci siano molti parametri che influenzano il segnale proveniente dal campione sotto osservazione, i parametri che vengono comunemente sfruttati sono: la densità protonica, T1 e T2. Questi parametri possono avere valori diversi per tessuti diversi, ma anche valori diversi per uno stesso tessuto, a seconda che questo si trovi in uno stato normale o patologico. Oltre l’applicazione dei campi magnetici B0 e B1 vengono applicati dei gradienti di campo magnetico

in modo da poter distinguere spazialmente l’informazione proveniente dai diversi tessuti. Un gradiente di campo è un campo aggiuntivo nella direzione di B0, la cui ampiezza varia linearmente

con la posizione lungo un’asse scelto.

La discriminazione spaziale è effettuata attivando opportunamente tre gradienti, così da ottenere tre tipi di codifica, lungo le tre direzioni spaziali:

• codifica di frequenza: sfrutta la proprietà che la frequenza di risonanza nella RMI è direttamente proporzionale all’intensità del campo magnetico. prima viene applicato un impulso a 90° per eccitare gli spin, e poi è attivato il gradiente di codifica e si acquisisce il segnale di RM in presenza del gradiente acceso. Conoscendo l’intensità del gradiente, dalla frequenza del segnale osservato si può risalire alla posizione dell’oggetto lungo la direzione del gradiente del campo. Il gradiente è dunque usato per codificare informazioni spaziali in frequenza del segnale di RM. L’ampiezza del segnale è proporzionale al numero di spin in quella posizione. Per ottenere informazioni spaziali da questo segnale composto occorre fare un’analisi in frequenza del segnale, così da vedere la quantità di segnale presente ad ogni frequenza in un intorno della frequenza fondamentale di risonanza.

• Codifica di selezione della fetta: l’eccitazione, e dunque il segnale, è limitata ad una fetta scelta in un campione.Si ottiene applicando un impulso a 90° insieme ad un gradiente “Slice Selection Gradient” perpendicolare alla fetta desiderata. La larghezza della fetta ∆Z è data da:

∆Z = ∆ω 𝛾 𝐺

dove Δω è l’intervallo delle frequenze contenute nell’impulso a 90° selettivo e G è l’intensità del gradiente applicato.

• Codifica di fase: così detta perché la fase della precessione della magnetizzazione viene resa dipendente dalla posizione lungo la direzione del gradiente. Quando il gradiente viene disattivato, gli spin sentono lo stesso campo magnetico B0 e precedono tutti alla stessa

frequenza ma mantengono uno sfasamento che dipende dalla posizione lungo la direzione di codifica di fase.

(25)

25 La successione di attivazione e disattivazione dei gradienti viene definita sequenza. Ripetendo la sequenza più volte, variando ogni volta l’ampiezza del gradiente di fase, è possibile ottenere l’immagine RM [14].

2.2. Distribuzione del rumore in RMI

La serie di segnali così acquisiti vengono opportunamente digitalizzati e memorizzati in una matrice nota come k-spazio. Si tratta di segnali complessi costituiti da componenti di segnale e contributi di rumore che sono considerati additivi e indipendenti e caratterizzati da una PDF Gaussiana con media nulla. La ricostruzione dell’immagine si ottiene computando la trasformata inversa di Fourier (FT). Per la linearità e l'ortogonalità della trasformata, i dati complessi risultanti sono ancora indipendenti e distribuiti con andamento gaussiano:

𝑝𝑐 (𝜔𝑟, 𝜔𝑖|𝐴, 𝜑, 𝜎) = 1 2𝜋𝜎2 𝑒 −(𝜔𝑟−𝐴𝑐𝑜𝑠𝜑)2 2𝜎2 𝑒− (𝜔𝑖−𝐴𝑠𝑖𝑛𝜑)2 2𝜎2

dove σ2 indica la varianza del rumore, ω

r e ωi la parte reale e la parte immaginaria dell’osservazione

complessa con ampiezza A e fase φ [15].

Tuttavia, è pratica comune lavorare con dati di magnitudine invece che con dati reali ed immaginari, visto che essi hanno il vantaggio di essere immuni agli effetti delle variazioni di fase accidentali, a ritardi di sistema, etc. Per costruire un’immagine di questo tipo dai dati complessi, la magnitudine viene calcolata pixel per pixel come:

𝑚 = √𝜔𝑟2+ 𝜔 𝑖 2

dove la componente reale è data dalla sovrapposizione dell’immagine stessa con la distribuzione normale del rumore (con media nulla e una certa deviazione standard); la parte immaginaria invece è costituita dalla sola componente di rumore. Poiché la radice quadrata è una trasformazione non lineare, la PDF dei dati di magnitudine non è più una Gaussiana ma segue una Riciana.

La distribuzione di Rice è descritta dalla seguente funzione:

𝑝(𝑥|𝐴, 𝜎) = 𝑥

𝜎2 𝑒

−(𝑥2+𝐴2)

2𝜎2 𝐼0(𝑥𝐴

𝜎2) per x ≥ 0

(26)

26 A partire dai parametri A e σ, è possibile ricavare i momenti della distribuzione:

• Il valor medio sarà pari a: 𝜇 = 𝜎√𝜋 2 𝑒 −𝐴 2 4𝜎2 [(1 +𝐴 2 𝜎2) 𝐼0( 𝐴2 4𝜎2) + 𝐴2 2𝜎2𝐼1( 𝐴2 4𝜎2)]

• La varianza sarà pari a:

𝑣𝑎𝑟 = 𝐴2+ 2𝜎2− 𝜋𝜎 2 2 (𝑒 −𝐴 2 4𝜎2[(1 +𝐴 2 𝜎2) 𝐼0( 𝐴2 4𝜎2) + 𝐴2 2𝜎2𝐼1( 𝐴2 4𝜎2)]) 2

dove I1 indica la funzione di Bessel di ordine uno del primo tipo.

La forma della distribuzione Riciana dipende dal rapporto segnale-rumore (SNR), definito a sua volta come il rapporto tra A e 𝜎 :

• In caso di basso SNR, la Riciana converge a una distribuzione di Rayleigh: 𝑝(𝑥|𝜎) = 𝑥

𝜎2 𝑒

−𝑥2

2𝜎2 per x ≥ 0

Questa PDF caratterizza la distribuzione casuale dell’intensità del segnale di background, come per esempio l’aria.

• In caso di elevato SNR, la Riciana converge a una distribuzione di Gauss: 𝑝(𝑥|𝐴, 𝜎) = 1 √2𝜋𝜎2 𝑒 −(𝑥−𝐴) 2 2𝜎2 x

(27)

27

2.3. Modello immagine biomedica

L’immagine biomedica ideale è definita come un insieme di regioni non sovrapposte ognuna caratterizzata da un certo livello di grigio. Ogni livello di grigio e quindi ogni regione corrisponderà ad un tessuto. Il modello matematico che descrive l’immagine ideale è quindi:

𝐼0(𝑥, 𝑦) = ∑𝑘 𝑃𝑖(𝑥, 𝑦)

𝑖=1 con 𝑃𝑖(𝑥, 𝑦) = { 𝑠𝑖 ∀(𝑥, 𝑦) ∈ 𝑑𝑖

0 𝑎𝑙𝑡𝑟𝑜𝑣𝑒

dove di indica l’i-simo distretto di appartenenza di un pixel e k il numero dei distretti, ovvero il

numero dei tessuti presenti nell’immagine. In generale tanto più grande è k tanto più il modello sarà simile all'immagine reale, fino a k uguale al numero di pixel dell'immagine quando si ha l'identità completa tra modello e immagine [14].

L’obiettivo dell’elaborazione dell’immagine biomedica è quello di risalire all’immagine ideale I0 a

partire dall’immagine reale I acquisita tramite la strumentazione di imaging. Per raggiungere tale scopo tuttavia occorre tener conto di diversi fattori che corrompono l’immagine:

• Rumore biologico. Si tratta di un fattore intrinseco dovuto all’eterogeneità dei tessuti che produce una disomogeneità nell’immagine. In generale infatti i tessuti non sono omogenei in quanto presentano una struttura interna. Ad esempio, nel cuore il muscolo cardiaco è caratterizzato da una struttura a fibre. Quindi tale fattore è sempre presente nell’immagine biomedica e non può essere eliminato. Il concetto di rumore biologico è legato anche alla risoluzione dell’immagine, che determina la grandezza delle disomogeneità rilevabili. Infatti, il sangue nonostante sia un tessuto disomogeneo a livello microscopico (globuli rossi e bianchi, piastrine) è considerato omogeneo a livello della risoluzione in risonanza magnetica (maggiore del millimetro).

• Effetto volume parziale (PVE). Si tratta del principale artefatto di acquisizione, insito quindi nelle immagini ancor prima della loro elaborazione. Il fatto che il processo di acquisizione sia discreto implica che il segnale viene acquisito in un certo volume di spazio pari alla risoluzione spaziale della metodica.

(28)

28 Di conseguenza, se due tessuti con intensità S1 e S2 convivono nello stesso volume elementare,

il voxel corrispondente dell’immagine assumerà un valore di livello di grigio intermedio pari a:

𝑆 = 𝑝 𝑆1+ (1 − 𝑝) 𝑆2

dove p indica la percentuale di voxel occupato dal tessuto 1. Nell’immagine reale p segue tipicamente una distribuzione uniforme tra i due valori di intensità. Quindi il PVE introdurrà nuovi livelli di grigio compresi tra il livello massimo e minimo dei tessuti interessati. Tale effetto quindi interesserà i voxel in prossimità delle discontinuità dei tessuti, proprio per questo motivo il numero di livelli di grigio introdotti dipenderà dal perimetro delle regioni e non dalla loro area.

L’incidenza dell’effetto,a parità di oggetto di cui si fa l’imaging, dipende dalla risoluzione. Usando voxel più piccoli la percentuale di voxel affetti dall’effetto sarà minore. Anche in caso di immagine planare il segnale di un pixel sarà sempre originato da un volume spaziale finito di forma parallelepipeda. Esisterà quindi anche un PVE in direzione perpendicolare al piano di acquisizione, tanto più marcato quanto maggiore è il thickness della fetta. Matematicamente il PVE può essere simulato attraverso la convoluzione con un kernel gaussiano, che equivale ad effettuare un’operazione di smoothing dei contorni dell’immagine.

• Attenuazione. In molti casi l’immagine biomedica è affetta da un processo di attenuazione del segnale, che produce una distorsione continua dell’immagine lentamente variabile. Nella RMI tale effetto può essere indotto dalla disomogeneità nel campo magnetico statico o dalla sensibilità delle bobine. Matematicamente questo viene simulato tramite un filtro moltiplicativo.

• Rumore. Infine, l’immagine sarà corrotta da rumore con una certa distribuzione n(x,y), che dipende dal processo fisico utilizzato per l'acquisizione. Come descritto nel paragrafo precedente in RMI il rumore presenta una distribuzione di Rice.

(29)

29 Tenendo conto di questi fattori, il modello matematico che descrive l’immagine biomedica reale I è quindi definito dall’equazione seguente:

𝐼(𝑥, 𝑦) = {[𝐼0(𝑥, 𝑦) + 𝑛𝐵(𝑥, 𝑦)] ∗ ℎ(𝑥, 𝑦)} + 𝑔(𝑥, 𝑦) + 𝑛(𝑥, 𝑦)

dove nB(x,y) indica il rumore biologico, h(x,y) l’effetto volume parziale, g(x,y) il fenomeno

dell’attenuazione e n(x,y) il processo di rumore legato alla metodica [14].

Ai fini dell’elaborazione dell’immagine è interessante analizzare come tali effetti si ripercuotono sulla distribuzione del segnale, ed in particolar modo come il PVE ne modifica l’istogramma. Questo infatti è la rappresentazione statistica della distribuzione dei livelli di grigio. Se normalizziamo i valori dell’istogramma per il numero totale di pixel, l’istogramma normalizzato rappresenterà la probabilità di trovare nell’immagine un pixel con quel valore. Nel caso ideale, per la definizione del modello dell’immagine, l’istogramma sarà costituito da k picchi di altezza pari al numero di pixel appartenenti al dominio k. Per esempio, nel caso di un’immagine costituita da cinque regioni, ognuna con intensità di segnale diversa, l’istogramma, mostrato in Figura 2.3, presenta cinque picchi ognuno centrato nel valore di intensità corrispondente.

(30)

30 Nel caso di immagine con PVE, come l’immagine reale, l’istogramma presenterà sempre i k picchi presenti nel caso precedente, ma ne verranno aggiunti di nuovi. Simulando tale effetto, filtrando l’immagine di esempio di prima con un filtro gaussiano con deviazione standard pari a 2, si ottiene il seguente risultato, mostrato in Figura 2.4..

Macroscopicamente l’effetto produce una ‘sfocatura’ dei contorni dei diversi patterns e nell’istogramma vengono introdotti nuovi livelli di grigio tra i picchi, già presenti nel caso ideale, distribuiti in modo uniforme.

Un altro fattore che incide sull’istogramma è il rumore dovuto alla metodica di acquisizione. Come visto in precedenza, nel caso ideale i picchi dell’istogramma presentano una distribuzione infinitesima. Il rumore tende ad allargare la distribuzione del segnale relativa ai vari tessuti, fino a far confondere tra loro i pixel nel caso di deviazione standard elevata rispetto al valore del segnale, come mostrato in Figura 2.5

Figura 2.4. Immagine con PVE (a sinistra) costituita da cinque pattern e relativo istogramma (a destra)

(31)

31 Considerando entrambi gli effetti si ottiene l’immagine e relativo istogramma mostrato in Figura 2.6.

Questo esempio mostra una delle principali difficoltà che si incontrano nel processo di elaborazione dell’immagine. La presenza del PVE e del rumore rende complesso, o addirittura impossibile in casi limite, l’individuazione dei patterns presenti in quanto i picchi non sono sempre distinguibili tra loro. Per tale ragione, ai fini diagnostici, diventa di fondamentale importanza la qualità dell’immagine acquisita. I due parametri di qualità largamente utilizzati nella valutazione delle immagini sono il

Rapporto Segnale Rumore (SNR) e il Rapporto Contrasto Rumore (CNR).

L’SNR è definito come il rapporto tra il valor medio del segnale in una regione e la deviazione standard del processo di rumore nella stessa regione. Quindi tale indice dà una misura di quanto il valore del segnale ottenuto dal dispositivo di imaging è corrotto dal rumore.

Nell’uso clinico è in realtà più importante il contrasto, cioè la capacità del dispositivo di imaging di distinguere due tessuti diversi, da qui la definizione del secondo indice di qualità. Il CNR è definito, come il rapporto tra il valor medio del segnale tra due regioni e il rumore medio nelle due regioni. Tuttavia, quando occorre calcolare il CNR in immagini reali si preferisce calcolare l’indice come il rapporto tra il valor medio del segnale tra due regioni e il rumore che si ha sullo sfondo, in modo da non considerare il contributo del rumore biologico ma soltanto il rumore introdotto dalla metodica di acquisizione. Tuttavia, misurare la SD nel fondo dell’immagine ha senso se e solo se il rumore è di tipo additivo. Le immagini RMI non rientrano in questa casistica. Infatti, come descritto nel paragrafo precedente, nelle regioni di elevata intensità di segnale il rumore può essere considerato gaussiano e quindi additivo, ma nelle regioni a bassa intensità, come lo sfondo, tale approssimazione non è valida. Ciò si traduce in una sottostima della deviazione standard del rumore di un fattore di 1.526. Questo in realtà è vero per una bobina a singolo canale, per bobine multicanale il fattore di conversione cambia leggermente [16]. Quindi occorre tenere in considerazione tale fattore.

Figura 2.6. Immagine con PVE e rumore con distribuzione normale N(5,10) (a sinistra) costituita da cinque pattern e relativo istogramma (a

(32)

32

2.4. Immagine LGE

Durante il lavoro di tesi è stato necessario adattare il modello generale dell’immagine RM, descritto nei paragrafi precedenti, al caso specifico delle immagini trattate.

Le immagini LGE sono immagini RM di modulo dunque, per le considerazioni fatte in precedenza, la distribuzione del segnale seguirà una distribuzione di Rice. Secondo le linee guida della procedura di acquisizione, le immagini devono essere acquisite in maniera tale da annullare il segnale del miocardio remoto per enfatizzare il segnale del miocardio patologico con intensità più elevata per la presenza del mezzo di contrasto. Quindi l’immagine, nel caso ideale, sarà costituita da una regione, quella del miocardio remoto, con un basso SNR, e una regione, quella del miocardio interessato da fibrosi, con un SNR elevato. Dunque, in tali condizioni è possibile applicare le seguenti approssimazioni:

• la distribuzione di segnale del miocardio remoto può essere approssimata a una distribuzione di Rayleigh, in quanto la distribuzione di Rice segue tale andamento per bassi valori di SNR; • la distribuzione di segnale delle regioni di DE può invece essere approssimata a una

distribuzione Gaussiana, in quanto la Riciana segue tale andamento nel caso di alto SNR. Sotto queste ipotesi, l’istogramma del miocardio complessivo sarà costituito dalla combinazione di una distribuzione di Rayleigh, in corrispondenza dei pixel con bassa intensità, e una distribuzione di Gauss, in corrispondenza dei pixel con alta intensità. In Figura 2.7 viene mostrato l’andamento che si otterrebbe nel caso di una distribuzione di Rayleigh con σ pari a 10 e una distribuzione di Gauss con µ pari a 200 e σ pari a 10.

Figura 2.7. Distribuzione ideale, in assenza (a sinistra) e in presenza (a destra) di rumore biologico, del segnale del miocardio complessivo di

(33)

33 Tuttavia, questo modello tiene conto solo dell’effetto del rumore, biologico e di acquisizione, e non considera gli altri fattori che corrompono l’immagine reale. Quindi per ricondurci alla distribuzione del segnale di un’immagine reale occorre introdurli nel modello. In particolare, dei diversi fattori previsti dal modello generale, è stato aggiunto soltanto l’effetto di volume parziale. Il fenomeno dell’attenuazione non è stato introdotto per i seguenti motivi:

• Utilizzo di bobine di ricezione di tipo phased array. L’utilizzo di questa tipologia comporta un’elaborazione dei segnali ricevuti da ogni singola bobina in modo da formare un’immagine globale. A causa di tale procedura, diversa a seconda del metodo di acquisizione, è complesso trovare un modello per descrivere il campo di attenuazione.

• Regione in esame limitata. Trattandosi di immagini di RMC la regione posta in esame è abbastanza limitata spazialmente, quindi le eventuali disomogeneità di campo magnetico possono essere trascurate.

Il fattore PVE non può essere trascurato in quanto questo interessa in modo significativo le immagini LGE. Tale effetto si manifesta maggiormente lungo la direzione perpendicolare a quella di acquisizione a causa dell’anisotropia del voxel. Infatti, questo di solito presenta le stesse dimensioni nel piano di acquisizione, quindi la risoluzione lungo x e y è la stessa, mentre la dimensione lungo l’asse z è spesso maggiore, dunque la risoluzione diminuisce. Nello specifico, in questa tipologia di immagini tipicamente il voxel utilizzato ha dimensioni pari a 1.5x1.5x8 mm, dunque la perdita di risoluzione lungo l’asse z è significativa e di conseguenza la probabilità di avere PVE in questa direzione è molto maggiore rispetto a quella che si ha nel piano.

Per modellizzare tale effetto si è fatto riferimento al modello utilizzato nello studio di Positano et al (2018) [17]. Se si considerano i pixel in corrispondenza della discontinuità tra il miocardio remoto e la

regione di DE, la distribuzione dell’intensità di segnale ad essi associati sarà pari a:

𝐼𝑃𝑉𝐸 (𝑥) = 𝑁𝑃𝑉𝐸 1 𝜎√2𝜋∫ 𝑒𝑥𝑝 ( − (𝑥 − (𝛼𝐼𝑟+ (1 − 𝛼)𝐼𝐷𝐸)) 2 2𝜎2 ) 1 0 𝑑𝛼

dove α è una variabile aleatoria con distribuzione uniforme, che assume valori compresi nel range (0,1), rappresentante la percentuale di miocardio remoto presente nel voxel in cui è stata effettuata la misura, e NPVE è il numero dei pixel affetti da PVE.

Aggiungere il PVE porta ad avere un istogramma con un andamento simile a quello mostrato in

(34)

34 Un altro fenomeno che bisogna considerare è che nella pratica clinica non sempre si hanno a disposizione immagini con miocardio remoto perfettamente annullato a causa di diversi fattori di acquisizione. Tale fenomeno produce uno shift del primo picco verso destra, ottenendo un istogramma simile a quello mostrato in Figura 2.9, in cui non è stato tenuto in considerazione il PVE. Dal punto di vista del modello ciò significa che occorre introdurre un ulteriore parametro che tenga conto del valor medio del miocardio remoto che non è più nullo. In queste condizioni la distribuzione di Rayleigh, descritta dal solo parametro σ, non è adatta per modellizzare tale regione. Quindi è stato scelto di utilizzare la distribuzione di Rice, descritta da due parametri A e σ, per modellizzare la distribuzione dell’intensità dei pixel appartenenti a tale regione. In questo modo il parametro A permette di tenere conto del caso in cui il miocardio remoto non sia completamente annullato, ma allo stesso tempo non esclude il caso contrario. Infatti, in quest’ultima situazione A assume valori nulli e si ritorna al caso di una distribuzione di Rayleigh. Tuttavia, bisogna notare che il parametro A non rappresenta il valor medio della distribuzione di Rice.

Figura 2.8. Distribuzione con PVE, in assenza (a sinistra) e in presenza (a destra) di rumore biologico, del segnale del miocardio complessivo di

un’immagine LGE.

Figura 2.9. Distribuzione del segnale del miocardio complessivo, in assenza (a sinistra) e in presenza (a destra) di rumore biologico, di un’immagine

(35)

35 Da tali osservazioni nasce il modello dell’immagine LGE, che in seguito verrà tenuto in considerazione per la parte di implementazione. Esso dunque è costituito dalla somma di tre componenti:

• una Riciana per descrivere la distribuzione del segnale del miocardio remoto. Essa è caratterizzata da tre parametri: kr che tiene conto del numero di pixel, A che tiene conto del

fenomeno dell’annullamento del miocardio e la SD σ del rumore.

• una Gaussiana per descrivere la distribuzione del segnale del miocardio patologico, a sua volta caratterizzata da tre parametri: kDE che tiene conto del numero di pixel, IDE pari al valor medio

del segnale di tale regione e la SD σ del rumore.

• la distribuzione, descritta in precedenza, per il PVE, descritta dal parametro kPVE che

corrisponde al numero di pixel affetti da tale effetto.

Dal punto di vista analitico ciò si traduce nel seguente modello a sei parametri:

𝐼(𝑥) = 𝑘𝑟 𝑅(𝑥|𝐴, 𝜎) + 𝑘𝐷𝐸 𝑁(𝑥|𝐼𝐷𝐸, 𝜎) + 𝑘𝑃𝑉𝐸 1 𝜎√2𝜋∫ 𝑒𝑥𝑝 ( − (𝑥 − (𝛼𝐼𝑟+ (1 − 𝛼)𝐼𝐷𝐸))2 2𝜎2 ) 1 0 𝑑𝛼

dove R(x|A,σ) e N(x|IDE, σ) rappresentano rispettivamente la distribuzione di Rice e la distribuzione

di Gauss e Ir è il valor medio della Riciana che si ricava dall’equazione per il calcolo dei momenti,

descritta nei paragrafi precedenti, a sua volta funzione dei parametri A e σ.

Bisogna notare che il modello sopra descritto è un modello per un’immagine a due tessuti (miocardio remoto e patologico), approssimazione del modello generale più complesso. Nel caso di immagini reali LGE infatti sono presenti anche i tessuti circostanti (es: ventricolo sinistro, ventricolo destro, tessuto polmonare) quindi nel modello si dovrebbe tenere conto delle interfacce, e quindi del PVE, tra il miocardio remoto e la regione di DE con i tessuti che li circondano.

(36)

36

CAPITOLO 3

Sviluppo dei metodi di analisi

Il lavoro di tesi è consistito nello sviluppo di una versione automatica degli algoritmi FWHM e n-SD utilizzati nella pratica clinica, da applicare a immagini LGE del miocardio segmentato in precedenza, in modo da individuare le regioni interessate da fibrosi, senza l’intervento dell’operatore.

Nella prima fase, il lavoro si è incentrato sull’implementazione dell’algoritmo, la cui struttura può essere schematizzata tramite il seguente diagramma di flusso:

Una volta sviluppato il codice, questo è stato applicato ad un fantoccio, generato tramite il calcolatore, in modo da valutarne il funzionamento al variare delle caratteristiche dei dati (presenza o meno di PVE, intensità del segnale, presenza del rumore) e le differenze con i metodi semi-automatici.

INPUT Immagine LGE ISTOGRAMMA Curva PDF SEGMENTAZIONE FWHM OUTPUT Maschere Fibrosi FITTING Parametri kr, A, σ SEGMENTAZIONE n-SD per n=2…6 OUTPUT Maschere Fibrosi

Riferimenti

Documenti correlati

– An un-binned maximum-likelihood fit including a tagging probability is performed to extrapolate the signal and the fitted values of the physical parameters obtained on 4.9 fb −1

Poco prima di iniziare la formazione del DAS, dopo una lunga fase di esplorazione dei vari fondi che costituiscono questa biblioteca, mi sono reso conto della sua

L’obiettivo di questo studio osservazionale è determinare l’impatto di un programma di 12 settimane di riabilitazione cardiovascolare basato sulla combinazione di esercizio

Oltre a trattarsi di un figurante estremamente lungo, si noti come sia un esempio di similitudine multipla, ossia di una similitudine principale (in questo caso,

Per tanto, sulla base dell’esperienza maturata nel nostro laboratorio nel campo delle applicazioni in elettroforesi capillare, si è pensato di sviluppare una metodica

Nella seconda sezione del capitolo, l’attenzione è stata incentrata sulla vita delle giovani donne istruite nella Cina urbana, figlie della prima generazione di genitori che

Anche i valori dei pazienti sottoposti al test di stimolo L-DOPA con il Kit impiegato fino a settembre 2009 IMMULITE ® sembravano mostrare valori di picco di GH più alti rispetto

Most analyses therefore have several inherent assumptions: 1) The only combinatorial background is from particles correlated with the reaction plane due to hydrodynamical flow in