• Non ci sono risultati.

Studio dell'effetto della standardizzazione dell'intensità di segnale in immagini di risonanza magnetica sulla quantificazione di volumi cerebrali

N/A
N/A
Protected

Academic year: 2021

Condividi "Studio dell'effetto della standardizzazione dell'intensità di segnale in immagini di risonanza magnetica sulla quantificazione di volumi cerebrali"

Copied!
87
0
0

Testo completo

(1)

Università di Pisa

Dipartimento di Fisica E. Fermi

Laurea Magistrale in Fisica

Studio dell'eetto della standardizzazione

dell'intensità di segnale in immagini di risonanza

magnetica sulla quanticazione di volumi cerebrali

Candidato:

Alessia Alba

Relatore:

Alessandra Retico

(2)
(3)

Cadendo, la goccia scava la pietra, non per la sua forza, ma per la sua costanza. Lucrezio

(4)
(5)

Indice

Introduzione 3

I

Contesto di ricerca

7

1 L'MRI nell'indagine dei disturbi psichiatrici e neurologici 9

1.1 Cenni di imaging a Risonanza Magnetica (MRI) . . . 11

1.1.1 Le peculiarità della MRI . . . 11

1.1.2 I fattori che inuenzano l'immagine MRI . . . 13

1.2 Il ruolo dell'MRI nei Disturbi dello Spettro Autistico (DSA) . . . 14

1.3 Gli studi multicentrici . . . 16

1.4 La dicoltà nell'identicazione di biomarcatori di patologia . . . 17

II

Standardizzazione delle immagini MRI

19

2 La segmentazione delle immagini 21 2.1 Le tecniche . . . 22

2.2 I software SPM e FreeSurfer . . . 23

(6)

2.2.1 SPM . . . 24

2.2.2 FreeSurfer . . . 27

3 Standardizzazione di immagini MRI 29 3.1 La standardizzazione nella letteratura . . . 30

3.2 Il metodo di standardizzazione proposto e i dati utilizzati . . . 33

3.2.1 Il database OASIS . . . 34

3.2.2 L'algoritmo implementato . . . 36

III

Analisi delle immagini

47

4 Analisi e risultati 49 5 Conclusioni 55

IV

Approfondimenti

57

A Storia ed epidemiologia dell'autismo 59 A.1 La storia e la clinica . . . 59

A.1.1 La componente genetica . . . 61

A.1.2 La componente ambientale . . . 63

A.2 Aspetti epidemiologici . . . 65

A.2.1 L'allarmismo sui vaccini . . . 66

A.2.2 La variazione di classicazione . . . 68

A.2.3 Sostituzione ed accrescimento diagnostico . . . 71

Elenco delle gure 73

(7)

Introduzione

Contesto di ricerca

L'imaging a risonanza magnetica (MRI) è una tecnica diagnostica che consen-te una rappresentazione multiparametrica dei consen-tessuti in vivo e trova importanti applicazioni in ambiti sia clinici che di ricerca medica. L'esame MRI strutturale, sMRI, è ampiamente utilizzato per indagare la morfologia del cervello grazie alle sue proprietà di alto contrasto e buona risoluzione spaziale.

Dato che non utilizza radiazioni ionizzanti, l'imaging MRI è particolarmente adatto all'utilizzo in età pediatrica ed in generale in tutte le situazioni cliniche che richiedono un monitoraggio frequente. Tuttavia, la riproducibilità delle misure mor-fometriche è ancora argomento di studio poichè la stima dei volumi e spessori delle strutture cerebrali è direttamente inuenzata dalle caratteristiche dell'immagine.

Le immagini maggiormente utilizzate per lo studio della morfologia cerebrale sono le cosiddette T1-weighted. I valori di intensità, espressi in toni di grigio, ripor-tati in ogni singolo voxel (elemento di volume dell'immagine 3D) in genere in MRI non hanno una valenza quantitativa; viene rappresentato un contrasto tra tessuti diversi, dipendente dai tempi di rilassamento degli spin e dalla densità protonica,

(8)

in una scala arbitraria d'intensità. Non si ottengono immagini con valori di grigio riproducibili nemmeno all'interno dello stesso protocollo MRI, per la stessa regione corporea e neanche per immagini dello stesso paziente ottenute sul medesimo scan-ner in momenti diversi. La problematica risulta ancora più evidente quando si vuole analizzare un campione più ampio di soggetti, acquisiti con scanner MRI diversi, come ad esempio accade negli studi multicentrici.

Obiettivo

L'obiettivo della Tesi è sviluppare un algoritmo per la standardizzazione del contrasto delle immagini RM strutturali e vericarne l'eetto sul calcolo dei volu-mi di diversi comparti cerebrali su due dei più usati software di segmentazione: SPM (https://www.l.ion.ucl.ac.uk/spm/) e FreeSurfer (https://surfer.nmr.mgh.harvard.edu/). E' stato identicato in letteratura ed implementato un algoritmo di standardizzazio-ne basato sulla manipolaziostandardizzazio-ne non listandardizzazio-neare delle intensità di segnale. In particolare, sono stati analizzati i dati di 20 soggetti del dataset OASIS che è adatto ad ef-fettuare studi di riproducibilità in quanto ogni soggetto è stato acquisito 2 volte (scan-rescan).

Metodologia

L'algoritmo di standardizzazione sviluppato si compone di diversi passaggi: 1. tutte le immagini sono state riscalate in un intervallo d'intensità compreso tra

0 e 1;

2. le immagini sono state tutte riallineate in modo da estrarre una porzione di tessuto analoga (box) per tutti i soggetti;

(9)

3. per ogni box è stato rappresentato l'istogramma nel quale sono visibili i picchi dei diversi tessuti cerebrali: materia grigia (GM), materia bianca (WM) e uido cerebrospinale (CSF);

4. mediante un t a tre gaussiane sono stati identicati i livelli di grigio associati ad ogni picco, che sono poi stati riportati su una scala standard da noi stabilita; 5. la trasformazione non lineare specica che ne deriva per ogni soggetto vie-ne utilizzata per modicare le immagini originali, ottevie-nendo quindi immagini con un contrasto armonizzato. Gli istogrammi delle immagini armonizzate risultano visibilmente più simili e sovrapponibili tra loro.

Per valutare l'eetto dell'algoritmo di standardizzazione sulla stima delle quantità di GM, WM e CSF da parte dei software SPM e FreeSurfer, i volumi sono stati calcolati per tutti i soggetti sia prima che dopo aver applicato l'algoritmo di stan-dardizzazione. Dato che per le immagini MRI in questione non si ha a disposizione una segmentazione voxel per voxel che possa costituire la "verità radiologica", con cui confrontare la bontà e riproducibilità dei risultati della segmentazione, quest'ul-tima è stata valutata attraverso la dierenza tra i volumi squest'ul-timati sui dati di test e retest.

Organizzazione dei contenuti

La Tesi si articola in 3 macrosezioni ed una appendice.

Nella parte I viene presentato il contesto di ricerca tramite una breve introduzione all'MRI per poi esporre alcune applicazioni nell'indagine dei disturbi psichiatrici e neurologici.

Nella parte II vengono invece riassunte le metodologie di standardizzazione d'in-tensità e di contrasto, oggetto di una revisione della Letteratura per lo svolgimento di questo lavoro di Tesi. Successivamente, sono presentati gli algoritmi di segmenta-zione scelti ed implementati per vericare la riproducibilità scan e rescan. Inne, è

(10)

descritto il database pubblico considerato per questo studio e l'algoritmo di standar-dizzazione che è stato rivisitato e implementato per lo svolgimento di questo lavoro di Tesi.

La parte III è dedicata all'analisi dati, la discussione dei risultati ed alle conclu-sioni.

Nell'appendice si trova un approfondimento sulla Storia ed epidemiologia del-l'Autismo.

(11)

Parte I

Contesto di ricerca

(12)
(13)

CAPITOLO

1

L'MRI nell'indagine dei disturbi psichiatrici e neurologici

L'imaging a risonanza magnetica (Magnetic Resonance Imaging, MRI) struttu-rale è ampiamente utilizzato per indagare la morfologia del cervello grazie alle sue proprietà di alto contrasto e buona risoluzione spaziale.

Tuttavia, la riproducibilità delle misure morfometriche è ancora argomento di studio poichè la stima di volumi e spessori delle strutture è direttamente inuenzata dalle proprietà dell'immagine, tra cui il contrasto tra i diversi tessuti cerebrali. Le immagini maggiormente utilizzate per lo studio della morfologia cerebrale sono le cosiddette T1-weighted. A dierenza delle immagini radiologiche, in cui esiste una corrispondenza diretta tra l'attenuazione del segnale e il tessuto attraversato, nella risonanza magnetica, in genere, le intensità non hanno una valenza quantitativa specica, nemmeno all'interno dello stesso protocollo MRI, per la stessa regione corporea e neanche per immagini dello stesso paziente ottenute sul medesimo scanner in momenti diversi[1]. I valori di intensità, espressi in toni di grigio, sono riportati

in ogni singolo elemento di volume tridimensionale: il voxel. Come mostrato in g. 1.1, i voxel formano le fette bidimensionali dell'immagine che, a loro volta,

(14)

combinate insieme danno luogo all'immagine MRI 3D. I tre piani che si intersecano perpendicolarmente tra loro, identicano i modi di visualizzazione MRI: sagittale, coronale ed assiale.

Figura 1.1: Struttura delle immagini 3D MRI. I voxel identicano i più piccoli ele-menti di volume di cui è formata l'immagine 3D. Le immagini MRI possono essere studiate mediante le viste bidimensionali sagittale, coronale ed assiale.

L'assenza di quanticazione diretta è ancora più evidente quando si vuole am-pliare il campione di soggetti per rendere maggiormente robusti gli studi statistici e ogni volta in cui devono essere considerate immagini acquisite con scanner MRI diversi, come accade negli studi multicentrici.

Nella quasi totalità degli articoli di letteratura considerati che trattano di analisi multicentriche è stato riscontrato un peggioramento della statistica ogni volta che l'analisi veniva estesa ad un campione più ampio[2]. Per questo motivo, sono stati

condotti degli studi al ne di valutare l'eventuale inuenza dello scanner sull'in-dividuazione di parametri caratteristici di diverse malattie neurologiche. Nel caso dell'Alzheimer, ad esempio, gli studi sulle immagini di risonanza magnetica hanno

(15)

permesso l'individuazione dell'eetto della malattia. L'utilizzo di un diverso scan-ner di acquisizione RM si è rivelato introdurre dierenze sostanzialmente inferiori a quelle proprie della variabilità della malattia. E' stato concluso che, in questo caso, l'inuenza dello scanner non comporta una interazione signicativa ai ni della com-parazione multicentrica e che l'adabilità dei risultati non è compromessa a causa delle dierenze di scanner[3].

Contrariamente al precedente studio, è stato osservato che nei Disturbi dello Spettro Autistico (DSA), in cui le dierenze fra soggetti con disturbo e soggetti di controllo sono molto lievi, l'eetto associato allo scanner risulta essere un ulteriore parametro confondente. Questo risultato suggerisce che i metodi per massimizzare la coerenza delle immagini rispetto agli scanner sono necessari prima di rendere attuabili studi quantitativi di risonanza magnetica multi-sito nel contesto di disturbi del neurosviluppo come i DSA[4].

1.1 Cenni di imaging a Risonanza Magnetica (MRI)

1.1.1 Le peculiarità della MRI

Le prime immagini di RM furono pubblicate nel 1973; n da subito furono chiare le potenzialità ed i possibili utilizzi che avrebbe avuto nella diagnosi e nella ricerca medica. L'MRI è di utilizzo così diuso perchè possiede numerosi vantaggi, orendo prestazioni complementari alle tecniche diagnostiche radiologiche. In MRI il pa-ziente non viene sottoposto a radiazioni ionizzanti, come accade ad esempio nella tomograa computerizzata (TC), quindi la tecnica in sè non è dannosa nè invasi-va, permettendo la ripetizione di esami a tempi ravvicinati senza la preoccupazione di problematiche di natura radioprotezionistica[5]. Il contrasto tra i tessuti molli è

molto superiore a quello ottenibile con TC e raggi X. Nelle tecniche radiologiche, il contrasto è basato sulla presenza di sostanze a numero atomico medio/alto, quindi risultano maggiormente visibili le strutture ossee. Per lo studio di parti molli in TC

(16)

ed RX vengono generalmente iniettati mezzi di contrasto, in modo da opacizzare alla radiazione il tessuto da analizzare. In MRI il segnale è invece proveniente dai protoni (nuclei di idrogeno, H, l'elemento a minor numero atomico) delle molecole di acqua ed il contrasto dell'immagine è determinato dall'ambiente in cui sono immersi, permettendo di poter distinguere sottili diversità di struttura e composizione. Nel caso dell'imaging cerebrale, come mostra la g. 1.2, l'MRI ha il potere di discrimi-nare nettamente materia grigia (GW), materia bianca (WM) e uido cerebrospinale (CSF), facendo in modo che questi tipi di tessuto occupino una elevata percentuale del range dinamico dell'immagine. Gli stessi tessuti nella scala di Hounseld (unità HU), scala di unità di misura usata per descrivere quantitativamente la radiodensità, ricoprono poche unità dell'intero range dinamico.

Figura 1.2: Discriminazione dei tre tessuti cerebrali con l'imaging MRI. Si distingue in grigio chiaro la materia bianca (WM), in grigio la materia grigia (GM) ed in nero il uido cerebrospinale (CSF) che colma i vuoti lasciati dai due precedenti tessuti. Le stime di volumi e spessori sono utilizzate per indagare varie patologie.

La generazione del segnale di RMN si basa sul moto giroscopico che il momento magnetico di un nucleo compie in presenza di un campo magnetico esterno, la co-siddetta precessione di Larmor. Al campo magnetico statico, ne viene aggiunto un

(17)

secondo, variabile, con lo scopo di perturbare l'orientazione degli spin che risultano allineati in direzione del primo.

La ricostruzione delle immagini avviene misurando la risposta dei nuclei atomici alla perturbazione. I nuclei di H, sostanzialmente protoni, sono dotati di momen-to magnetico ed è per quesmomen-to motivo che vengono inuenzati dall'applicazione di campi esterni. Da non sottovalutare, è il fatto che l'H è un elemento enormemen-te presenenormemen-te nei enormemen-tessuti biologici; basti pensare che gran parenormemen-te dell'organismo, circa il 70%, è composto di acqua. La distinzione tra i tessuti avviene principalmente per la densità di H che li caratterizza e per le diverse proprietà magnetiche che i nuclei assumono nelle diverse strutture molecolari. Per quanto riguarda gli svan-taggi della tecnica MRI, allo stato attuale non ci sono motivi per ritenere dannoso un esame. Esiste però la limitazione d'utilizzo in pazienti con impianti metallici, pacemaker, clip vascolari, schegge metalliche di origine traumatica o simili, che ov-viamente interagirebbero con i campi di funzionamento dello scanner. In generale gli svantaggi nell'utilizzo della MR sono principalmente rappresentati dal costo e dal tempo necessario all'acquisizione delle immagini, indicativamente 40 minuti.

1.1.2 I fattori che inuenzano l'immagine MRI

L'acquisizione delle immagini è un passaggio delicato e molti fattori concorro-no alla formazione del segnale. Alcuni fattori di distorsione possoconcorro-no dipendere dal soggetto, altri dallo scanner. Il paziente può generare errori a causa, ad esempio, del suo posizionamento all'interno dello scanner o dei piccoli movimenti durante la scansione che introducono artefatti. Anche lo stato di idratazione inuenza l'inten-sità del segnale. Per quanto riguarda lo scanner, la sua inuenza sulle immagini può dipendere dalla casa produttrice in termini di software di elaborazione dati, calibrazione ed non uniformità del campo applicato.

L'intensità del segnale è inoltre inuenzata dall'intensità del campo magnetico e dal protocollo di acquisizione utilizzato e da ulteriori fonti di rumore oltre quelle sopra citate, come ad esempio quello dovuto all'elettronica. Questi errori

(18)

giscono in modo complesso ed inuenzano i risultati di diversi algoritmi di analisi delle immagini negli studi clinici tra siti.

Le immagini vengono spesso esaminate da valutatori esperti come parte del con-trollo di qualità, in modo tale che quelle contenenti errori o artefatti inaccettabili possano essere escluse dalle analisi successive. Tuttavia, l'esclusione delle immagini, e quindi dei soggetti, riduce il potere statistico degli studi e, cosa più importante, potrebbe introdurre dei bias qualora i risultati delle immagini escluse dierissero sistematicamente da quelle incluse[4, 6].

1.2 Il ruolo dell'MRI nei Disturbi dello Spettro

Au-tistico (DSA)

Il Disturbo dello Spettro Autistico è un disturbo del neurosviluppo le cui caratte-ristiche cliniche più evidenti sono rappresentate da dicoltà nelle interazioni sociali, nella comunicazione e tendenza ad assumere comportamenti ripetitivi e stereotipati. I sintomi sono estremamente eterogenei e la loro espressione è variabile durante lo sviluppo. La complessità del disturbo è stata n da subito evidente, ed è proprio a causa della considerevole gamma di comportamenti e gradi di funzionamento che il quadro clinico dell'autismo è cambiato radicalmente dalla sua scoperta, nel 1943, ai nostri giorni. Poiché non esistono indicatori biologici denitivi, la diagnosi si basa sul riconoscimento di una serie di sintomi comportamentali variabili notevolmente da caso a caso. Oltre che a causa dell'eterogeneità, la loro dicoltà di individuazione è data dall'età in cui si eettua la diagnosi che, nel corso degli anni, è diminuita notevolmente; i sintomi, inoltre, si sovrappongono a quelli di altri disturbi neuropsi-chiatrici dell'infanzia[7, 8]. Per maggiori informazioni sul contenuto di ricerca in cui

si inserisce l'elaborato si rimanda all'Appendice A: Storia ed epidemiologia dell'auti-smo. Data la sua natura, tendenzialmente non invasiva, la risonanza magnetica può essere utilizzata nella pratica clinica come parte della valutazione medica completa dei pazienti con DSA. Tuttavia, il ruolo dell'MRI è oggetto di dibattito. Una

(19)

mitazione importante per l'inserimento della risonanza magnetica come parte di un protocollo diagnostico standard è il fatto che talvolta deve essere eseguita in narcosi; infatti, in particolare i bambini piccoli e in generale gli individui non collaboranti, non sono in grado di rimanere fermi durante l'esame in maniera autonoma. In que-sto caso l'acquisizione della RM cerebrale diventa una procedura più complicata, inoltre le immagini che si ottengono sono generalmente di bassa qualità a causa degli artefatti da movimento. Una possibile opzione per ovviare a questa criticità è il metodo sleep MRI che consiste nell'eseguire la risonanza magnetica durante il sonno naturale, evitando così la sedazione, ma tale metodica in Italia non è ancora disponibile[9].

La diagnosi precoce rappresenta un tassello chiave per il trattamento dei soggetti DSA; attualmente, infatti, alcuni ricercatori stanno avanzando l'ipotesi che i soggetti possano essere curabili agendo in maniera tempestiva all'esordio. Questa conside-razione scaturisce dal recupero della normale funzione cognitiva di alcuni pazienti che, grazie ad una diagnosi precoce ed un successivo intervento comportamentale immediato ed intensivo, hanno cessato di soddisfare i criteri diagnostici per DSA[10].

Di conseguenza, la ricerca sull'identicazione precoce di questi disturbi rappresenta una priorità per la salute pubblica anche in termini di impatto economico, portando ad una riduzione del costo delle cure di una persona aetta da DSA, attualmente stimato essere di 3,2 milioni di dollari durante il corso della vita[11]. La

variabili-tà del disturbo, delle immagini acquisite e in generale le variazioni introdotte dai diversi scanner RM, rappresentano un ostacolo all'analisi multi-sito e alla diagnosi precoce. In termini statistici, analisi condotte su campioni più numerosi portano a misure più robuste ed adabili, ma ciò non è più vero se i dati non possono essere direttamente confrontabili. Il punto cruciale degli studi di MRI su DSA ed analo-ghi, è che le dierenze morfometriche tra soggetti aetti e soggetti sani di controllo non risultano essere marcate, come invece risultava per nel caso della malattia di Alzheimer. Piccole alterazioni in volume e spessori dei comparti cerebrali sono dif-cili da individuare; aumentare il numero dei soggetti del campione di studio può

(20)

rappresentare la chiave per la loro identicazione solo a patto che le immagini siano confrontabili tra loro. Da non sottovalutare è anche il fatto che nel contesto dei DSA la diagnosi non è del tutto oggettiva: si basa sull'assegnazione di punteggi, misure diagnostiche, cognitive e comportamentali[12]. Inevitabilmente questi metodi sono

contaminati da un grado non valutabile di soggettività, soprattutto quando ci si ada ai ricordi dei genitori riguardo i primi sintomi e se si considerano i bassi livelli di specicità diagnostica nei più piccoli. In particolare, può essere dicile non solo distinguere questi disturbi da altre disabilità dello sviluppo, ma anche dierenziare i proli comportamentali interni allo spettro dalle normali variazioni dello sviluppo e ritardi temporanei. Pertanto, esiste una pressante necessità di sviluppare metodi più obiettivi di rilevamento di DSA e, in denitiva, di identicare quantità diagno-stiche caratteridiagno-stiche del disturbo[11, 13]. Anche se negli ultimi decenni gli studi che

hanno utilizzato la risonanza magnetica strutturale hanno evidenziato alterazioni della neuroanatomia dei pazienti con DSA, deve ancora essere individuato un mo-dello un momo-dello univoco, coerente ed adabile che sia utile alla classicazione del disturbo[4].

1.3 Gli studi multicentrici

Gli studi condotti unendo informazioni provenienti da più siti clinici forniscono un modo ecace per comprendere le malattie e studiarne i trattamenti, tuttavia, spesso mancano informazioni sulla loro solidità. Per far fronte a questo problema, sono sorte diverse iniziative per creare database utili a raccogliere informazioni il più possibile coerenti tra loro. L'Alzheimer's Disease Neuroimaging Initiative (AD-NI), ad esempio, nasce nel 2004 per consentire la condivisione di dati tra ricercatori in tutto il mondo al ne di identicare metodologie per monitorare la progressione della malattia per mezzo di biomarcatori[14]. Similmente, nel 2012 nasce l'Autism

Brain Imaging Data Exchange (ABIDE) che ha aggregato i dati di imaging cerebrale funzionale e strutturale raccolti da 24 laboratori di tutto il mondo per accelerare la

(21)

comprensione dell'autismo. Per arontare la complessità e l'eterogeneità dei DSA i campioni su larga scala sono essenziali, ma i singoli laboratori non possono ot-tenere set di dati sucientemente grandi per rivelare i meccanismi sottostanti ai DSA[15]. Si è inoltre sviluppato ed appena concluso il progetto di Ricerca e Sviluppo

nato in Toscana, ARIANNA, (Ambiente di Ricerca Interdisciplinare per l'Analisi di Neuroimmagini Nell'Autismo) nalizzato allo sviluppo di una nuova piattaforma collaborativa per favorire la ricerca nell'ambito delle neuroscienze, con particolare riferimento alla comprensione dei meccanismi alla base dei Disturbi dello Spettro Autistico[16].

Rimane cruciale vericare se l'errore introdotto dagli scanner sulla morfometria cerebrale superi o meno l'eetto della malattia stessa, problema che si verica nel caso DSA. Di conseguenza, le incoerenze tra gli studi abbondano nella letteratura e la mancanza di consenso è particolarmente evidente quando ci si concentra sui dati strutturali nei DSA[4, 6].

1.4 La dicoltà nell'identicazione di biomarcatori

di patologia

La comunità scientica è di comune accordo nell'aermare la necessità di indivi-duare adeguati strumenti di ricerca al ne di isolare biomarcatori clinicamente utili in grado di predire il rischio di autismo precedentemente all'identicazione dei sintomi e persino strumenti in grado di prevedere la risposta al trattamento. Le analisi quan-titative basate sull'MRI hanno indicato l'esistenza di anomalie cerebrali diuse dei DSA, riportando ad esempio, dierenze nel volume cerebrale totale tra soggetti con DSA e controlli. In particolare, gli studi sull'MRI nei primi anni di vita dei soggetti DSA hanno identicato un pattern anormale di crescita del cervello, caratterizzato da un aumento postnatale accelerato, seguito da una progressiva attenuazione della dierenza tra pazienti e controlli con l'aumentare dell'età. Mentre alcuni ricercatori sostengono che l'anormale allargamento del cervello è principalmente spiegato da un

(22)

eccessivo aumento della materia bianca (WM)[7, 17], altri pensano che sia coinvolta

la materia grigia (GM)[18] da sola o in associazione alla bianca.

In generale, alcune incongruenze presenti tra gli studi possono essere causate dall'inuenza dello scanner sull'adabilità delle misurazioni; questo è un problema cruciale nel contesto delle applicazioni cliniche come i biomarcatori derivati dalle immagini. Nei DSA, gli studi si concentrano in particolar modo sullo spessore corti-cale e sui volumi di diverse strutture cerebrali, misure che risentono delle proprietà stesse delle immagini che, a loro volta, dipendono dello scanner RM utilizzato e dalle sequenze di acquisizione.

Biomarker sensibili e specici per l'autismo possono fornire informazioni biolo-giche potenzialmente utili alla diagnosi, prognosi e al processo decisionale di tratta-mento. Uno degli impedimenti per rispondere alle questioni aperte è il frazionamento dei dati disponibili in singoli studi specici del sito con campioni di dimensioni rela-tivamente piccole. C'è la necessità di analisi d'insieme di dati multisito coerenti per aumentare il potere statistico, rappresentare una varianza maggiore della malattia e dei controlli, permettere la replicazione attraverso molteplici siti con dierente selezione di soggetto, parametri di imaging e metodi di analisi[2].

(23)

Parte II

Standardizzazione delle immagini

MRI

(24)
(25)

CAPITOLO

2

La segmentazione delle immagini

Per valutare quantitativamente le dierenze nella morfometria cerebrale ricondu-cibili a una condizione neurologica o anche all'eetto di un trattamento, è necessario paragonare dati estratti da immagini neurologiche di due diversi gruppi. In genere, ci si riferisce ai soggetti aetti dal disturbo che si vuole studiare come casi e al campione di soggetti usati come riferimento come controlli.

L'estrazione di strutture anatomiche dalle immagini MRI da poter analizzare e confrontare, viene detta segmentazione. Nel nostro studio, prenderemo in esame i volumi dei tessuti cerebrali GM, WM e CSF. La segmentazione consiste nel denire delle linee o superci di separazione tra i tessuti, compito non banale se si considera che le immagini possono possedere risoluzioni più o meno buone, essere corrotte da artefatti, dal rumore e, non ultimo, è sempre necessario ricordare che i livelli di grigi in cui vengono riportate non hanno una corrispondenza sica diretta. La verità radiologica si ottiene mediante segmentazione manuale, voxel per voxel, da parte di un esperto. In questo modo, la discriminazione dei tessuti è accurata, ma è inevitabilmente inuenzata da soggettività e richiede un notevole impiego di tempo

(26)

ed energie. Nella prospettiva di eseguire studi su grandi campioni, è sicuramente di fondamentale utilità la segmentazione automatica delle neuroimmagini eseguita tra-mite algoritmi dedicati. I vantaggi sono evidenti in termini di tempo di elaborazione, inoltre le misure estratte non dipendono da un operatore. D'altra parte, le immagini acquisite hanno proprietà dierenti a seconda dello scanner utilizzato e del software di elaborazione delle immagini integrato. Il numero di fette, il conseguente numero di voxel ed il formato in cui l'immagine viene salvata sono parametri che inuenzano i software di segmentazione. Per questo motivo, nell'eettuare studi multicentrici, è solito introdurre dei passaggi preliminari al ne di limitare tale variabilità.

2.1 Le tecniche

Sulla base dei metodi di analisi dell'immagine applicati ai dati strutturali, gli stu-di su neuroimmagini possono essere classicati secondo le tecniche stu-di segmentazione[5]:

ˆ Region Of Intrest (ROI) based morphometry; ˆ Voxel based morphometry;

ˆ Surface based morphometry; ˆ Tensor based morphometry.

La morfometria basata su ROI richiede che l'esperto tracci in maniera manuale o semimanuale delle regioni di cervello. A seconda del grado di automazione, questo processo può richiedere molto lavoro e tempo. Un problema intrinseco nell'analisi basata sulla ROI è che tali studi possono analizzare solo un numero limitato di regioni cerebrali, e i risultati dipendono chiaramente dalle regioni selezionate. Tale metodo fornisce misure poco riproducibili, specialmente se le regioni in esame non sono anatomicamente distinguibili come accade spesso nel caso delle neuroimmagini. La morfometria basata sui voxel (VBM) mira a quanticare le proporzioni vo-lumetriche dei tessuti all'interno di una determinata regione. Nel nostro caso, GM,

(27)

WM e CSF vengono riconosciuti in base alle intensità registrate in ciascun voxel e alla loro distribuzione.

Nella morfometria basata sulle superci (SBM) vengono eettuate misurazioni topograche corticali, così da fornire informazioni complementari a quelle fornite dalla VBM. La topologia della corteccia cerebrale è, infatti, altamente complessa a causa delle convoluzioni, motivo per cui VBM non è in grado di individuare in modo diretto i limiti tra i tessuti.

Sia VBM che la morfometria basata sui tensori (TBM) misurano le variazioni di volume. Il vantaggio di TBM rispetto a VBM è che gli errori introdotti da allineamento errato dei tessuti sono meno probabili.

2.2 I software SPM e FreeSurfer

Per questo studio sono stati utilizzati due degli algoritmi di segmentazione di più ampio utilizzo nel campo dell'analisi delle neuroimmagini:

ˆ SPM (Statistical Parametric Mapping), sul quale in genere si basano gli studi di VBM, è stato sviluppato dal Wellcome Depart-ment of Imaging Neuroscien-ce at University College London, UK[19];

ˆ Freesurfer, basato sull'analisi delle superci corticali, è stato sviluppato in collaborazione tra il Massachussets Institute of Technology e l'Università di Harvard, USA[20].

Il confronto tra gli algoritmi non è semplice ed immediato a causa della loro intrinseca dierenza sul metodo di morfometria che implementano. In uno studio del 2016[21] in cui si indagavano le discrepanze tra i metodi nella stima di volumi

su DSA, è stato ipotizzato che le dierenze tra i metodi di segmentazione fossero una possibile causa alla base dei risultati contraddittori. Le stime dei volumi cere-brali sono state estratte con tre metodi, tra cui SPM e FreeSurfer. Si è concluso

(28)

che i volumi di cervello stimati erano correlati ma presentavano dierenze inter-metodo signicative. Per valutare quale degli algoritmi rispettasse maggiormente la realtà, i dati sono stati confrontati con la segmentazione manuale. E' risultato che SPM è l'algoritmo che restituisce stime più simili alla verità radiologica, seguito da FreeSurfer. In conclusione, lo studio ha dimostrato che le dierenze di volume cerebrale dipendono dal metodo utilizzato e che queste discrepanze possono contri-buire a risultati di neuroimaging incoerenti. Sulla base del precedente articolo, si può aermare che tra i due algoritmi presi in esame, SPM risulta quello che sti-ma meglio le grandezze volumetriche. Tuttavia, Freesurfer è di più ampio utilizzo in quanto permette la segmentazione di regioni corticali e sottocorticali a cui sono attribuiti ruoli chiave nelle funzioni cognitive. Da ciò si deduce facilmente che la complessità computazionale di tale algoritmo è maggiore, come anche le tempistiche di segmentazione.

2.2.1 SPM

SPM (https://www.l.ion.ucl.ac.uk/spm/software/) è un pacchetto software im-plementato in MatLab che consente la segmentazione dei dati strutturali del cervello in GM, WM e CSF in modo automatico. Prima di segmentare le strutture cerebrali, è necessario allineare le immagini sulla commissura anteriore (g. 2.1) per evitare che l'algoritmo di segmentazione fallisca.

SPM si basa sul Gaussian Mixture Model (GMM), un modello probabilistico che presuppone che tutti i punti dati siano generati da una combinazione di un numero nito di distribuzioni gaussiane con parametri sconosciuti.

La classicazione dei tessuti richiede che le immagini vengano registrate con mappe di probabilità tessutale a priori. E' possibile combinare queste probabilità a priori con le intensità dei voxel per fornire una probabilità a posteriori. La proce-dura è intrinsecamente circolare, poiché la registrazione richiede una classicazione iniziale dei tessuti e la classicazione dei tessuti richiede una registrazione iniziale.

(29)

Figura 2.1: Commissura anteriore. Punto secondo cui tutte le immagini devono essere allineate prima di eseguire la segmentazione con l'algoritmo SPM.

Per risolvere questa contraddizione SPM utilizza un algoritmo iterativo in cui il primo passaggio comporta la registrazione dell'immagine tramite una trasformazio-ne atrasformazio-ne ad uno spazio di riferimento. Le mappe di probabilità tessutale a priori sono fornite dal Montreal Neurological Institute (MNI), da cui il nome spazio MNI. La trasformazione rigida dell'immagine su tale spazio è resa possibile grazie all'esi-stenza di punti di riferimento facilmente individuabili che possiedono la proprietà di avere una posizione relativamente stabile tra i soggetti; la commissura anteriore ne è un esempio. Le strutture anatomiche vengono denite mediante una griglia di suddivisione dello spazio centrata sui punti di riferimento. Le mappe di probabilità a priori MNI attribuiscono a ciascun voxel, in relazione alla griglia, la probabilità di appartenere a uno dei tessuti:

ˆ GM; ˆ WM; ˆ CSF; ˆ Altro.

(30)

Figura 2.2: Mappe di probabilità a priori basate sulla disposizione spaziale dei voxel dell'immagine: a) GM; b) WM; c) CSF; d) Altro.

Le mappe risultanti sono quattro e, come si può notare in g. 2.2 , "Altro" rappre-senta lo spazio complementare alla somma dei tre precedenti.

Fino a questo momento, le intensità proprie di ogni voxel non sono entrare in gioco. Per dividere i tessuti, viene utilizzato l'algoritmo Mixture Model Clustering (MMC), basato sulle seguenti assunzioni:

1. numero di tessuti ssato a priori;

2. ciassun voxel appartiene univocamente ad un cluster identicativo del tessuto; 3. voxel appartenenti allo stesso tessuto seguono una distribuzione dei livelli di

grigio normale.

Vengono stimate le probabilità di ciascun voxel di appartenere ad uno dei tes-suti e la distribuzione delle disuniformità del campo da correggere. Attraverso il MMC, vengono calcolati media e deviazione standard dei livelli di grigio dei voxel appartenenti a ciascun cluster.

(31)

Sono nuovamente calcolate le probabilità di appartenenza dei voxel ai cluster appena deniti, e le si paragonano con le precedenti. Questo passaggio si ripete nchè le probabilità nali non coincidono con quelle ricalcolate.

Anchè venga tenuto conto dell'eetto del volume parziale, secondo cui in un voxel possono teoricamente coesistere due tessuti, è opportuno impostare il numero di gaussiane con cui si ricerca la probabilità di ciascun tessuto su 2.

2.2.2 FreeSurfer

Freesurfer (https://surfer.nmr.mgh.harvard.edu/) è un pacchetto software svi-luppato per lo studio dell'anatomia cerebrale che permette la segmentazione non solo dei tessuti GM, WM e CSF, ma anche delle regioni corticali e sottocorticali ritenute rilevanti per le funzioni cognitive che le caratterizzano. L'individuazione di tali regioni è possibile grazie al confronto delle immagini con atlanti cerebrali probabilistici in cui le coordinate hanno una corrispondenza anatomica, in modo da identicare ciascuna zona d'interesse con un set di coordinate spaziali. Per ese-guire la segmentazione, FreeSurfer si avvale di molte informazioni, come l'intensità dell'immagine, la posizione globale all'interno del cervello e posizione rispetto alle strutture vicine. L'algoritmo sfrutta il processo Surface−based (SBM) per l'indi-viduazione dei tessuti e delle strutture corticali. Similmente ad SPM, l'immagine viene registrata tramite una registrazione ane allo spazio MNI. Questo passaggio permette di ssare l'orientazione dell'immagine ed ottenere una prima distribuzione dei tessuti. Si identicano le regioni di voxel che con maggiore probabilità appar-tengono alla materia bianca e in base alla loro intensità e a quella dei voxel vicini. Mediante gradienti di intensità, si rana la classicazione no ad ottenere superci di separazione tra materia bianca e grigia e tra materia grigia e uido cerebrospinale (g. 2.3).

Una volta individuate le superci principali, tramite l'atlante di riferimento, è possibile individuare le regioni corticali da cui estrarre diverse grandezze siche come volume, area, spessore e curvatura. La segmentazione automatica di Freesufer ore

(32)

Figura 2.3: Individuazione delle strutture corticali con FreeSurfer. a) Immagine MRI T1-weighted; b) in giallo, la segmentazione della supercie di separazione CSF/GM, in blu la supercie GM/WM; c) individuazione delle regioni corticali e sottocorticali grazie all'applicazione dell'atlante di riferimento.

la possibilità di scegliere tra più atlanti di riferimento per la parcellizzazione del cervello in sottostrutture. In particolare, l'operatore può decidere il più adatto al proprio studio.

FreeSurfer permette inoltre l'individuazione delle regioni sottocorticali. Anche in questo caso il processo parte da una registrazione ane, per poi eseguire l'indivi-duazione grossolana dei volumi sull'atlante di riferimento, diversi passaggi correttivi volti ad una loro migliore denizione al ne di calcolarne il volume.

(33)

CAPITOLO

3

Standardizzazione di immagini MRI

La maggior parte dei metodi di visualizzazione e analisi delle immagini prevedono parametri; impostarne il valore diventa molto dicile senza lo stesso signicato di intensità specica, soprattutto se la scala di intensita' dell'immagine non ha valenza quantitativa e non si possono quindi impostare dei valori di riferimento a partire da quantità siche. L'ideale sarebbe che per protocolli simili o per immagini acquisite con lo stesso protocollo, le immagini risultanti siano simili.

Sono stati eettuati alcuni tentativi per calibrare le caratteristiche del segnale MR attraverso l'uso di fantocci. Sebbene sia fattibile eettuare la calibrazione per tutti i pazienti, questo processo risulta molto gravoso e non è chiaramente applicabile a dati già acquisiti. La procedura di standardizzazione a cui ci si riferisce in questa Tesi si congura dunque come un passaggio precedente all'analisi dati, ma successivo all'acquisizione dell'immagine.

Esiste una naturale tendenza a pensare che riscalare semplicemente il massimo e il minimo dell'intervallo di intensità dall'immagine in un range ssato standard possa risolvere il problema. Questo metodo si riduce in genere a una riscalatura lineare dei

(34)

livelli dell'immagine che aiuta il raggiungimento della somiglianza d'intensità o di contrasto. Tuttavia, la variazione lineare delle intensità non risulta essere adeguata allo scopo, in quanto l'obiettivo del processo di standardizzazione è riportare tutte le immagini nello stesso range di intensità e allo stesso tempo avere per ciascuna immagine un contrasto standard tra i diversi tessuti cerebrali.

3.1 La standardizzazione nella letteratura

In letteratura si trovano numerosi studi che basano la standardizzazione delle immagini sulla trasformazione dei livelli di grigio. Uno dei primi studi considerati è del 1999 ad opera di Nyùl e Udupa[22] che proposero un metodo di trasformazione di

intensità non lineare, brevettato nel 2003[23]. Lo studio si basa sulla

trasformazio-ne dell'istogramma di ciascuna immagitrasformazio-ne volumetrica in un istogramma standard. L'intero processo è arontato in due fasi: il primo di allenamento e il secondo di trasformazione.

L'allenamento ha lo scopo di individuare dei riferimenti, landmarks, sugli isto-grammi di un set di immagini per poi calcolare rispettivi parametri standard:

1. per ciascuna immagine del set di immagini originali, viene rappresentato l'i-stogramma;

2. si determinano i valori delle intensità di riferimento;

3. vengono calcolate le conseguenti nuove collocazioni dei riferimenti sulla scala di riferimento;

4. la media dei livelli di grigio dei riferimenti propri di ciascuna immagine ripor-tati sulla nuova mappatura, identica l'elenco dei landmarks medi da utilizzare come scala standard.

Nel passaggio di trasformazione i paramenti degli istogrammi originali vengono modicati in modo che corrispondano a quelli medi della scala standard (g. 3.1):

(35)

Figura 3.1: Mappatura dei riferimenti sulla scala standard. Le intensità di interesse delle immagini 1 e 2 vengono riportate su un'unica scala. Il riferimento rs è ricavato

mediando i valori dei livelli di grigio di r1 ed r2.

1. viene rappresentato l'istogramma dell'immagine originale; 2. calcolati i riferimenti propri dell'istogramma;

3. ciascun riferimento viene mappato sulla scala standard sul riferimento medio calcolato nella fase di allenamento;

4. tra i diversi punti di riferimento, i restanti livelli di grigio vengono trasformati in modo lineare.

La mappatura totale risulta dunque una spezzata (g. 3.2) e la diversa penden-za dei segmenti causa la variazione d'intensità per ciascuna immagine, rendendola standard.

La bontà della standardizzazione si basa in modo evidente sulla scelta dei ri-ferimenti, per questo motivo nella successiva revisione dello studio, ne sono stati considerati di diversi e più numerosi[24] anchè la mappatura sulla scala standard

fosse più precisa e si riducesse l'errore di miscelazione dei tessuti. Il metodo è spesso indicato con L4, nome rievocativo alla ultima congurazione dei riferimenti utilizzati

da Nyúl ed Udupa.

Successivamente a questi studi, sono stati ricercati altri metodi e tecniche di standardizzazione, tra cui la tiSsue−Based Standardization Technique (SBST)[1] La

(36)

Figura 3.2: Funzione di standardizzazione. I diversi parametri caratteristici di cia-scuna immagine vengono mappati sulla scala standard mediante una trasformazione non lineare data dalle diverse pendenze dei segmenti.

SBST è una tecnica che rimuove il problema della miscelazione dei tessuti segmen-tando a priori l'immagine per ciascuna immagine del set di allenamento. I passaggi della tecnica possono essere riassunti come segue:

1. scelta di un set di scansioni MRI originali;

2. utilizzo di SPM per la segmentazione dei tessuti GM, WM e CSF per ciascuna immagine appartenente al set;

3. rappresentazione dell'istogramma dei livelli di grigio per ciascun tessuto e per ogni immagine;

4. elaborazione delle trasformazioni per ciascun tipo di tessuto, similmente a Nyúl ed Udupa. Al ne di unire le trasformazioni ed ottenere una mappatura continua di intensità nelle zone di incertezza in cui i livelli di grigio risultano

(37)

condivisi tra i tessuti cerebrali, viene eseguita una levigatura spline per evitare discontinuità;

5. applicazione della trasformazione alle immagini del set di allenamento e ad altre originali in modo da ottenere immagini standardizzate SBST.

Il metodo SBST riduce notevolmente l'errore di miscelazione e produce immagini modicate in cui tutti i tessuti hanno intensità standardizzate. Tuttavia, il mag-gior limite di questa tecnica risiede proprio nel basare la standardizzazione sulla segmentazione a priori dell'immagine originale.

Un approccio totalmente diverso con lo scopo di rendere possibile le analisi multi-sito è l'utilizzo del deep learning ed in particolar modo le GAN[25]. Nel recente studio

di Nguyena et al., è stato proposto un metodo per correggere le ignote dierenze di sito tra due insiemi di immagini acquisite con hardware e protocolli diversi. L'al-goritmo proposto usa le GAN per trasformare un insieme di immagini appartenenti ad un sito in immagini con caratteristiche di un secondo sito diverso. L'algoritmo è stato in grado di rimuovere gran parte degli eetti del sito senza compromettere il contenuto di informazione. Questo metodo sore attualmente di importanti limi-tazioni; prima tra tutte, è la restrizione al 2D, ovvero le analisi sono state svolte su delle fette (ossia immagini bidimensionali) rappresentanti tessuti già segmentati, non su interi volumi MRI tridimensionali.

3.2 Il metodo di standardizzazione proposto e i dati

utilizzati

Nonostante gli sforzi per individuare le dierenze non lineari tra siti, ancora oggi non si hanno metodi risolutivi. L'obiettivo di questo elaborato è sviluppare un algoritmo per la standardizzazione di intensità e contrasto delle immagini RM strutturali e vericarne l'eetto sul calcolo dei volumi di GM, WM e CSF su SPM e FreeSurfer. Come spiegato nel capitolo 2, è stato necessario vericare manualmente

(38)

l'allineamento delle immagini sulla commissura anteriore per assicurare il corretto funzionamento di SPM. E' stato scelto un approccio basato sulla manipolazione non lineare degli istogrammi di immagini 3D, senza l'ausilio della segmentazione a priori. Il passaggio tramite un software, infatti, inuenza l'immagine anche solo allineandolo allo spazio MNI. Si vuole arrivare a paragonare i volumi dei tessuti calcolati da una immagine non elaborata in nessun modo con quelli delle stesse immagini che hanno subito un processo e sono state riportate su una scala d'intensità standard. Anchè il confronto fosse il più veritiero possibile, abbiamo avuto cura di riportate le immagini in una scala simile alla media dei range delle intensità e prestato attenzione che le immagini post elaborazione fossero salvate nello stesso formato delle originali.

3.2.1 Il database OASIS

Per questo studio è stato scelto di utilizzare immagini pesate in T1 di 20 soggetti sani appartenenti al dataset pubblico OASIS (https://www.oasis-brains.org), che è adatto ad eettuare studi di riproducibilità in quanto ogni soggetto è acquisito 2 volte (g. 3.3). L'età dei volontari è di 23.4 ± 3.9 anni. Tuttavia, la distanza temporale tra scan e rescan non è ssa, ma varia tra 1 ed 89 giorni, con una media di 21. Sebbene le immagini provengano dallo stesso sito ed abbiano tutte il voxel size di 1x1x1 mm, mentre le scan hanno tutte la stessa dimensione, 256x256x180 voxel, nelle rescan troviamo grande variabilità nel numero di slices, come riportato in tabella 3.1. A causa di queste dierenze si può ipotizzare una variazione nel protocollo di acquisizione o nello scanner. Le 40 immagini sono state segmentate con SPM e FreeSurfer e sono stati calcolati i volumi dei tessuti. Questi valori verranno paragonati a quelli delle immagini elaborate e si valuterà l'eetto della variazione di intensità sugli algoritmi di segmentazione.

(39)

n Scan Rescan 1 256x256x180 256x256x323 2 256x256x180 256x256x303 3 256x256x180 256x256x288 4 256x256x180 256x256x319 5 256x256x180 256x256x289 6 256x256x180 256x256x312 7 256x256x180 256x256x296 8 256x256x180 256x256x305 9 256x256x180 256x256x271 10 256x256x180 256x256x281 11 256x256x180 256x256x261 12 256x256x180 256x256x311 13 256x256x180 256x256x290 14 256x256x180 256x256x295 15 256x256x180 256x256x295 16 256x256x180 256x256x319 17 256x256x180 256x256x334 18 256x256x180 256x256x271 19 256x256x180 256x256x302 20 256x256x180 256x256x322

Tabella 3.1: Dimensioni x,y,z delle immagini del dataset OASIS. Mentre le imma-gini scan hanno le stesse dimensioni in voxel, le rescan hanno un numero di fette (dimensione z) variabile.

(40)

3.2.2 L'algoritmo implementato

L'algoritmo di standardizzazione per questo lavoro di Tesi è stato implementa-to in MatLab (https://it.mathworks.com/products/matlab.html) e si compone di diversi passaggi:

1. tutte le immagini sono state riscalate in un intervallo d'intensità compreso tra 0 e 1;

2. le immagini sono state riallineate in modo da estrarre una porzione di tessuto analoga (box) per tutti i soggetti;

3. per ogni box è stato rappresentato l'istogramma nel quale sono visibili i picchi dei diversi tessuti cerebrali: materia grigia (GM), materia bianca (WM) e uido cerebrospinale (CSF);

4. mediante un t a tre gaussiane sono stati identicati i livelli di grigio associati ad ogni picco, che sono poi stati riportati a una scala standard da noi stabilita; 5. la trasformazione non lineare specica per ogni soggetto viene utilizzata per modicare le immagini originali, immorig ottenendo quindi immagini con un

contrasto armonizzato.

L'intervallo di intensità proprio di ciascuna immagine non è un valore costante. Per considerare solo livelli contenenti intensità di segnale non nulla, come operazione preliminare è stata applicata alle immagini una riscalatura lineare. Le immagini riscalate, immr, sono ottenute attraverso la seguente relazione:

immr = imm

[min max]− x min

xmax− xmin

La precedente trasformazione non inuenza l'informazione poichè lineare. Le imma-gini immr saranno quelle su cui verrà applicata la funzione di standardizzazione.

Le immr sono state allineate con SPM allo spazio MNI utilizzando

l'immagi-ne di riferimento single_subj_T1.nii compresa l'immagi-nel pacchetto software spm12 l'immagi-nella sottocartella canonical mostrata in g. 3.4.

(41)

A questo punto per eliminare la variabilità nelle dimensioni e quindi semplicare l'implementazione di passaggi successivi, è stata utilizzata l'opzione di denizione di un bounding box (da non confondere col box di tessuto utilizzato successivamen-te) presente sotto il menù Normalise. A tutte le immagini sono state riportate alla dimensione di 256x256x256 voxel, sono allineate nello spazio MNI, ossia sono normalizzate, e verranno indicate in seguito con immN.

Terminati i passaggi preliminari, si passa alla costruzione della funzione di stan-dardizzazione. sull'idea di un precedente studio sul morbo di Alzheimer in cui veniva eseguita come pre-processing una standardizzazione d'intensità mediante cluster k-means dei tessuti su una porzione interna al cervello[26], è stato deciso di estrarre un

box di tessuto analogo da tutte le immagini (g. 3.5). Il box individuato all'interno del volume cerebrale ha la funzione primaria di escludere i voxel che possono cor-rompere l'individuazione dei tessuti. In particolar modo, il CSF risulta essere molto simile al fondo; considerando i voxel interni al box, si è sicuri che la intensità più basse siano relative al tessuto.

Sono stati rappresentati gli istogrammi interni ai box e su ognuno è stato ese-guito un t a tre gaussiane per individuare i massimi delle distribuzioni di intensità corrispondenti ai tessuti (g. 3.6).

La media dei massimi individuati per ciascun tessuto è riportata in tabella 3.2.

WM GM CSF

0.38±0.04 0.23±0.02 0.05±0.01

Tabella 3.2: Medie e deviazioni standard dei valori d'intensità riscalati calcolati tramite t gaussiano calcolato sull'istogramma del box.

I valori della scala standard sono stati stabiliti in modo tale che le intensità fossero distribuite nell'intero range. Per questo motivo, è stato scelto di mappare i livelli di grigio di ciascuna immagine sulla scala standard con i valori dei tessuti indicati in tabella 3.3.

(42)

GMs W Ms CSFs

0.7 0.4 0.1

Tabella 3.3: Valori di intensità dei tessuti sulla scala standard.

La nuova posizione dei punti di riferimento può essere visualizzata gracamente, inserendo sull'asse delle ascisse i valori [0 csf(i) gm(i) wm(i) 1] e sull'asse delle ordinate i valori standard [0 0.1 0.4 0.7 1]. La funzione di standardizzazione propria per ciascuna immagine si ricava come spline passante per tali punti. Un esempio della sua rappresentazione è riportato in g 3.7.

Arrivati a questo punto è stato raggiunto l'obiettivo di creare una funzione S non lineare per ogni immagine i, attraverso cui è possibile la standardizzazione. Le Si vengono applicate alle immri, ottenendo la trasformazione non lineare di intensità

e un set di immagini standardizzate in cui le intensità sono comprese nell'intervallo [0 1], indicate con immst∗

i . Perchè sia possibile un confronto diretto tra immorig

ed immst, è necessario che su queste ultime venga eseguita una riscalatura lineare

mediante moltiplicazione di immst∗ per un valore costante che riporti le immagini

nel range iniziale di valori di intensità. La media dei massimi livelli di grigio delle immorig è risultata essere nel nostro caso 4073, è dunque ragionevole porre il fattore

moltiplicativo uguale a 212=4096. Le immagini standard immst sono state riportate

nello stesso formato di dato delle originali, ossia numeri interi a 12 bit.

Per valutare in modo qualitativo la riuscita della standardizzazione delle intensi-tà, sono stati rappresentati gli istogrammi delle immorig e quelli delle immst, come

mostrato in g. 3.8. Gli istogrammi delle immst risultano visibilmente più simili e

sovrapponibili tra loro, mentre è facile notare come le immagini originali abbiano range di intensità variabile e valori medi di GM, WM CSF diversi, per cui dierenti valori di contrasto tra i tessuti. L'algoritmo di standardizzazione implementato è stato in grado di uniformare le intensità di segnale delle immagini MRI pesate in T1.

(43)

La g. 3.9 mostra alcune delle immagini del dataset prima e dopo l'armonizzazione del contrasto.

Le immst sono state segmentate con SPM e FreeSurfer per confrontare l'eetto

della standardizzazione sulle stime dei volumi da parte di questi due software, molto diusi negli studi di neuroimaging. I risultati verranno discussi nel capitolo seguente.

(44)

Figura 3.3: Alcune immagini del dataset OASIS. A sinistra le immagini scan, a destra le corrispondenti rescan.

(45)

Figura 3.4: Immagine di riferimento single_subj_T1.nii utilizzata per allineare le immagini del dataset allo spazio MNI.

(46)

Figura 3.5: Alcuni box estratti dalle immagini riscalate e normalizzate. La porzione di tessuto è analogo a tutte le immagini e contiene sia GM, che WM, che CSF.

(47)

Figura 3.6: Fit gaussiano di 6 immagini del dataset. Per ogni tessuto viene individuata l'intensità corrispondente al massimo della distribuzione.

(48)

Figura 3.7: Mappatura dei valori WM, GM e CSF di una immagine del dataset sulla scala standard.

(49)

Figura 3.8: Sovrapposizione degli istogrammi del dataset prima e dopo la standardizzazione standardizzazione.

(50)

Figura 3.9: Confronto di alcune immagini del dataset prima (a sinistra) e dopo (a destra) l'armonizzazione del contrasto.

(51)

Parte III

Analisi delle immagini

(52)
(53)

CAPITOLO

4

Analisi e risultati

Per valutare l'eetto dell'algoritmo di standardizzazione sulla stima delle quan-tità di GM, WM e CSF da parte dei software SPM e FreeSurfer, i volumi sono stati calcolati per tutti i soggetti sia prima che dopo aver applicato l'algoritmo di standardizzazione. La riproducibilità dei valori calcolati della segmentazione è stata stimata attraverso la dierenza d tra i volumi dei dati scan e rescan.

Per ogni coppia di soggetti la dierenza d considerata è una dierenza mediata tra le due misure, denita come:

d = Vscan− Vrescan Vscan+ Vrescan

2

Nella tabella 4.1 sono riportati i valori percentuali di d, s e il p-value ottenuto attraverso il test di Student confrontando i volumi di GM, WM e CSF ottenuti per le immagini originali e standard con SPM; nella tabella 4.2 quelli ottenuti con FreeSurfer. Il confronto d e relativo t-test è fatto tra valori scan e rescan. La rappresentazione graca di d ed s calcolati sui volumi stimati da SPM e da FreeSurfer è rispettivamente in g. 4.1 e in g. 4.2.

(54)

SPM Imm Originali d(%) s(%) p-value GM 0.1 1.4 0.87 WM -0.4 1.3 0.16 CSF 1 7 0.38 SPM Imm Standard d(%) s(%) p-value GM 0.1 1.6 0.78 WM 0.2 1.5 0.46 CSF 1 7 0.54

Tabella 4.1: Valori medi delle dierenze tra volumi di scan e rescan (d) e delle deviazioni standard s per volumi originali e standardizzati segmentati tramite SPM. Il p-value è calcolato secondo il test statistico t di Student.

FreeSurfer Imm Originali d(%) s(%) p-value GM 4.6 1.3 <0.001 WM -2.8 1.2 <0.001

CSF -2 12 0.61

FreeSurfer Imm Standard d(%) s(%) p-value GM 5.4 3.3 <0.001 WM -1.9 1.6 <0.001 CSF -13 14 0.001

Tabella 4.2: Valori medi delle dierenze tra volumi di scan e rescan (d) e delle devia-zioni standard s per volumi originali e standardizzati segmentati tramite FreeSurfer. Il p-value è calcolato secondo il test statistico t di Student.

Sulle immagini originali, SPM fornisce misure di GM, WM e CSF altamente riproducibili tra test e retest (si veda tab. 4.1), l'ipotesi nulla non è riutata al livello di signicatività del 5%; per tutti i tessuti il p-value è nettamente al di sopra di 0.05 e le medie risultano nulle entro l'errore. Si può concludere che le uttuazioni dei dati sono attribuibili al caso e che le stime dei valori appartengono alla stessa distribuzione. FreeSurfer, invece (si veda tab. 4.2), genera delle stime di volumi signicativamente diverse tra scan e rescan. Tale dierenza non è plausibile che rietta reali variazioni intercorse tra la prima e la seconda acquisizione RM nei corrispondenti tessuti. Il t-test è signicativo sia nel caso della GM che della WM nel caso delle immagini originali, indicando che le distribuzioni da cui provengono i dati sono separate. Il t-test eseguito sul CSF, invece, non risulta signicativo.

(55)

Figura 4.1: Dierenze percentuali tra scan e rescan per i volumi dei tessuti calcolati con SPM prima (sinistra) e dopo la standardizzazione (destra).

Sempre con riferimento alla tab. 4.1, si può vedere che sui dati standard, SPM restituisce valori di GM, WM e CSF riproducibili tra test e retest e altamente consistenti con i valori ottenuti sui dati originali. SPM si è rivelato essere robusto rispetto alla variazione di intensità. La standardizzazione rende i valori medi di d(%) di WM e CSF ancora più vicini allo zero, dunque complessivamente i volumi sono ancora più simili. Il p-value della GM diminuisce leggermente, rimanendo in ogni caso molto al di sopra del livello di signicatività; i p-value di WM e CSF, anch'essi già nettamente al di sopra, aumentano ulteriormente, confermando la riproducibilità

(56)

Figura 4.2: Dierenze percentuali per i volumi dei tessuti calcolati con FreeSurfer prima e dopo la standardizzazione.

tra dati test e retest.

In relazione alla tab. 4.2 si verica che sui dati standard, FreeSurfer, non fornisce risultati riproducibili (p-value molto piccoli) tra test e retest per nessuno dei tessuti al livello di signicatività del 5%. Nonostante ciò, la dierenza tra i volumi di materia bianca tra test e retest sui dati standardizzati si riduce rispetto a quella ottenuta sui dati originali. Pertanto, si ritiene che un'ottimizzazione dei livelli di contrasto nelle immagini standardizzate possa portare ad annullare le discrepanze tra i volumi di GM, WM e CSF tra test e retest e quindi favorire la riproducibilità

(57)

delle misure.

Appurato che SPM restituisce sempre misure riproducibili, con Freesurfer ciò non è quasi mai vero. E' stato deciso, allora, di indagare ulteriormente il comportamento di FreeSurfer mediante il confronto diretto tra originali e standard separatamente sui dati scan e lo stesso confronto tra dati rescan. I risultati sono riportati in tabella 4.3.

FreeSurfer originali vs standard Scan

d(%) s(%) p-value GM -0.8 2.6 0.17 WM 1.2 1.6 0.003 CSF -15 14 <0.001 FreeSurfer originali vs standard

Rescan

d(%) s(%) p-value GM -0.1 1.7 0.75 WM 2.2 1.4 <0.001 CSF -25 16 <0.001

Tabella 4.3: Valori medi delle dierenze percentuali, delle deviazioni standard e p-value calcolati tra le immagini scan originali e standard e tra immagini rescan originali e standard.

Dal t-test si osserva un p-value non signicativo per la GM sia nel confronto tra i volumi scan che tra quelli rescan, a dierenza del p-value di WM e CSF che in entrambi i casi risulta signicativo.

Il confronto diretto tra originali e standard sui dati scan fornisce dierenze quasi sempre compatibili con zero; ciò indica che non siamo riusciti a modicare il con-trasto in modo da avere un impatto sulle misure di volume della GM. Lo stesso

(58)

confronto sulle rescan evidenzia invece una dierenza visibile, grazie proprio al cam-biamento della stima della WM. Anche il CSF mostra una variazione nel confronto tra volumi calcolati su immagini originali e standardizzate sui dati rescan e rescan. Il precedente confronto è espresso gracamente in g. 4.3.

Figura 4.3: Confronto tra i dati scan originali e standard ed i dati rescan originali e standard calcolati con FreeSurfer.

Grazie a queste variazioni, pensiamo sia possibile trovare un contrasto ottimale, modicando i valori di riferimento della scala standard, al ne di annullare le die-renze di volume tra scan e rescan nelle segmentazioni di FreeSurfer e ottenere quindi stime riproducibili e più adabili.

(59)

CAPITOLO

5

Conclusioni

L'algoritmo di standardizzazione dell'intensità delle immagini MRI implementato riesce ad armonizzare il contrasto tra i tessuti cerebrali come dimostrato dall'ottima sovrapposizione degli istogrammi delle immagini standard che si ottiene per tutti i soggetti, inclusi gli esami di scan e rescan.

La segmentazione tramite SPM sia delle immagini originali che delle standard restituisce volumi di GM, WM e CSF altamente riproducibili.

Non può dirsi lo stesso con FreeSurfer che, anche sulle MRI originali, rileva die-renze di volumi non plausibili con la realtà. Il confronto tra le stime sui volumi scan originali e standard produce dierenze nulle entro l'errore; questo implica che l'al-goritmo implementato non è riuscito ad inuenzare la segmentazione di FreeSurfer come desiderato. Lo stesso confronto sulle stime dei volumi rescan invece eviden-zia variazioni. La stima di WM nelle immagini standard risulta sistematicamente minore rispetto alle originali. Viceversa, la stima del CSF risulta sistematicamente maggiore nelle standard. L'algoritmo è quindi riuscito ad apportare una variazione sulla stima dei volumi ed è dunque plausibile ipotizzare che attraverso la scelta di una

(60)

opportuna scala standard, sia possibile raggiungere la riproducibilità nel confronto test retest, quindi una maggiore adabilità dell'algoritmo di segmentazione.

In conclusione, nonostante sia necessario svolgere ulteriori indagini per validare l'eetto della procedura di standardizzazione su dati acquisiti con macchinari diversi in caso di studi multicentrici, l'approccio proposto, grazie alla sua semplicità di implementazione, può fornire uno strumento valido per migliorare la precisione e riproducibilità degli studi di morfometria sulle neuroimmagini.

(61)

Parte IV

Approfondimenti

(62)
(63)

APPENDICE

A

Storia ed epidemiologia dell'autismo

A.1 La storia e la clinica

Il termine autismo deriva dal greco αὐτός (aütós), stesso, e fu inizialmente introdotto dallo psichiatra svizzero Eugen Bleuler nel 1911 per indicare un sintomo comportamentale della schizofrenia.

L'americano Leo Kanner fu il primo a descrivere, nel 1943, il comportamento di alcuni soggetti come aetti da "autismo infantile precoce". Negli anni '40 il tedesco Hans Asperger scoprì una condizione simile, ma ad alto funzionamento, la Sindrome di Asperger.

Per diversi decenni dopo la sua identicazione, l'autismo fu pensato essere cau-sato dalla risposta dei bambini alla genitorialità anafettiva ed inecace, una visione inizialmente promossa da Kanner (1949) e più tardi da Bettelheim (1967). Agli albo-ri, infatti, si credeva che la causa scatenante fosse di natura prettamente psicologica e che fosse il risultato del comportamento distaccato delle madri nei confronti dei bambini[7, 8, 27]. Non essendo riconosciuto come un disturbo indipendente, durante

(64)

gli anni '50 e '60, intere generazioni di genitori con bambini aetti da autismo sof-frirono di stigmatizzazione. Al contrario e simultaneamente, prese piede un potente movimento che raccolse una ricchezza di risorse per le persone con ritardo mentale (MR). Infatti, tra il 1948 e il 1966, il numero di bambini con MR nelle aule delle scuole pubbliche aumentò di cinque volte grazie al successo politico ed amministra-tivo dei sostenitori nell'assicurare classi di educazione speciale. Nel 1973, la legge sulla riabilitazione, un precursore della legge sull'individuazione degli individui con disabilità, garantiva il diritto a un'educazione appropriata per le persone con disa-bilità riconosciute, che includevano dunque il MR ma non l'autismo. Furono inoltre assicurate la copertura medica, il reddito di sicurezza supplementare e una garanzia di servizi. Mentre i sostenitori della MR stavano facendo progressi nel garantire di-ritti e beneci per le persone con MR, nessuna risorsa era disponibile per le persone con autismo. In particolare, l'autismo non era escluso per omissione, piuttosto, i sostenitori di MR remavano per non disperdere risorse faticosamente conquistate ed assicurare che l'autismo fosse squalicato dalla legislazione federale[8].

Negli anni, la scoperta dell'autismo diede il via a diverse riviste internazionali, in particolare: The Journal of Autism and Developmental Disorders, 1971, con Leo Kanner e Stella Chess come editori fondatori e Autism: International Journal of Research and Practice che è apparso per la prima volta nel 1997. Successivamen-te, nacquero altri giornali incentrati su questo tema e progressivamente l'argomento divenne dilagante all'interno della comunità scientica. L'obiettivo principale degli editori era quello di raorzare l'interfaccia tra ricerca e pratica, spinti dalla convin-zione che i trattamenti erano spesso valutati in modo inadeguato e che i ricercatori avevano necessità di avvicinarsi maggiormente alla realtà del disturbo [27].

Con il senno di poi, possiamo riconoscere che l'autismo è stato sempre più destig-matizzato attraverso gli sforzi di mobilitazione di Bernard Rimland e della National Society for Autistic Children (NSAC), il cui lavoro ha confutato le teorie psicogeni-che dell'autismo e posto le basi per il programma di ricerca psicogeni-che avrebbe identicato l'autismo come disturbo neurologico (Dolnick 1998). Distribuendo prove empiriche

(65)

crescenti, la NSAC è stata in grado di garantire che l'autismo fosse riconosciuto nel-la riautorizzazione del Developmental Disability Act. Innanzitutto, questo disturbo è stato riclassicato con successo da una grave malattia emotiva a una disabilità dello sviluppo. In secondo luogo, le risorse dirette alla ricerca sull'autismo e alle terapie e cure per gli individui con autismo si sono espanse radicalmente, alimentate sia dall'aumento della prevalenza di autismo che dallo sforzo di un movimento in espansione. Le maggiori risorse dedicate alla comprensione dell'eziologia, al tratta-mento ed all'educazione dei soggetti colpiti dal disturbo, hanno fatto sì che i genitori che negli anni '60 e '70 avevano speso le proprie risorse per evitare una diagnosi di autismo e la relativa stigmatizzazione, non ebbero più bisogno di farlo. Alla luce dei nuovi e forti incentivi, i genitori interessati a fornire beneci ai loro gli avrebbero avuto motivo di impiegare le proprie risorse per una diagnosi di autismo[8].

La comprensione del quadro clinico dell'autismo è cambiata radicalmente negli ultimi anni grazie allo studio della possibile gamma di comportamenti osservati. In-fatti, si è successivamente raggiunta la consapevolezza che esistono diversi disordini strettamente correlati che condividono caratteristiche essenziali simili, ma dierisco-no su sintomi specici, età di esordio o storia ambientale. Sottolineare la profonda variabilità tra i soggetti spiega il motivo per cui è più corretto riferirsi al disturbo come spettro autistico. Nonostante la necessità di categorizzare aspetti clinici, sociali e comportamentali, ogni individuo aetto è unico e presenta caratteristiche proprie; alcuni bambini autistici hanno un alto funzionamento intellettivo, un QI addirittura superiore alla norma, mentre altri presentano ritardo cognitivo; alcuni acquisiscono autonomia nel gestire la loro vita quotidiana, altri non risultano esserne in grado[27].

A.1.1 La componente genetica

Sebbene ancora non sia chiaro quale combinazione di eventi strutturali, biochi-mici ed ambientali siano implicati nell'esordio del disturbo, è appurato che i fat-tori genetici abbiano un ruolo chiave. Sicuramente, ad oggi, è rigettata l'ipotesi

(66)

avanzata inizialmente che attribuiva la colpa della malattia unicamente alle madri "frigorifero".

Negli ultimi anni, si hanno forti indizi che l'ereditarietà genetica è alla base dei disturbi dello spettro autistico. Per valutare ciò, sono stati condotti studi su fratelli e in particolare sui gemelli. Infatti, questo risulta essere un modo per testare la validità dell'inuenza genetica calcolando la frequenza con cui si sviluppa la stessa malattia in caso di gemelli identici (monozigoti) e fraterni (dizigoti). Questo perché i monozigoti (MZ) hanno DNA identico, mentre il DNA dei gemelli dizigoti (DZ) dierisce. Col termine aggregazione familiare si intende l'occorrenza di un dato trat-to condiviso dai membri di una stessa famiglia. L'ipotesi dell'ereditarietà familiare consiste nel trasmettere geni difettosi alla progenie, supportata dalla statistica che i fratelli hanno un rischio 20 volte più elevato di sviluppare l'autismo rispetto alla popolazione generale. Recentemente, nel 2014, l'ereditabilità è stata misurata in uno studio condotto da Sandin confrontando il rischio di autismo nei bambini con fratelli diagnosticati con e senza autismo. Come base di riferimento, la prevalenza dell'ASD era dell'1,2% nei bambini senza un parente aetto. I risultati indicano che bambini con un fratello aetto hanno una probabilità dieci volte maggiore di avere la diagnosi. Allo stesso modo, anche i bambini con un fratellastro o cugino con autismo sono risultati essere a più alto rischio. Sandin ha concluso che il 54% del rischio per l'autismo è associato a fattori genetici ma attribuisce il restante 46% del rischio a fattori ambientali[28].

La correlazione biologica ha iniziato ad essere presa in considerazione in segui-to alla pubblicazione di uno studio di Susan Folstein e Michael Rutter nel 1977, condotto su 21 coppie di gemelli (11 MZ e 10 DZ), in cui per la prima volta veniva confermata l'importanza dei fattori genetici. Fu mostrato che il tasso di concordanza nei gemelli omozigoti era molto più alto che nei gemelli eterozigoti. In ogni coppia di gemelli un bambino era stato diagnosticato come autistico. In 4 coppie di gemelli identici, diversamente dagli dizigoti, la sindrome autistica è stata diagnosticata con certezza anche al secondo fratello. Inoltre, nell'82% dei fratelli e delle sorelle delle

Riferimenti

Documenti correlati

Quantitative differences in protein expression between the single groups (nurse, foragers, virgin queens, mated queens, and established queens) belonging to the different castes

Einer solchen Auslegung der Voraussetzung, daß eine Maßnahme dem Staat zurechenbar sein muß, die diese Zurechenbarkeit allein daraus ableitet, daß die Maßnahme von einem

Nella seconda sezione del capitolo, l’attenzione è stata incentrata sulla vita delle giovani donne istruite nella Cina urbana, figlie della prima generazione di genitori che

Per quanto riguarda la materia bianca, le lesioni sono sempre ben distinte dal corrispondente tessuto NA (Normal Appearing) nelle mappe di entrambe le costanti

temporale, giro temporale mediale); area Brodmann 17 (materia grigia, emisfero sinistro, corteccia visiva primaria, lobo occipitale, cuneus); area Brodmann 1 (ma- teria

Nonostante tale variabilità impiegando una maschera più selettiva rispetto a quella proposta da SPM, è stato possibile procedere con una analisi di secondo livello, con la quale

Impor- tanti aspetti sono il controllo di qualità interno e la valuta- zione esterna di qualità, ma devono anche prevedersi at- tenzione e controllo sulla raccolta ed etichettatura

Blood and head hair samples were collected from 175 subjects—objectively classified as non-drinkers (N=65), social drinkers (N=51) and active heavy drinkers