• Non ci sono risultati.

2.2 I software SPM e FreeSurfer

2.2.2 FreeSurfer

Freesurfer (https://surfer.nmr.mgh.harvard.edu/) è un pacchetto software svi- luppato per lo studio dell'anatomia cerebrale che permette la segmentazione non solo dei tessuti GM, WM e CSF, ma anche delle regioni corticali e sottocorticali ritenute rilevanti per le funzioni cognitive che le caratterizzano. L'individuazione di tali regioni è possibile grazie al confronto delle immagini con atlanti cerebrali probabilistici in cui le coordinate hanno una corrispondenza anatomica, in modo da identicare ciascuna zona d'interesse con un set di coordinate spaziali. Per ese- guire la segmentazione, FreeSurfer si avvale di molte informazioni, come l'intensità dell'immagine, la posizione globale all'interno del cervello e posizione rispetto alle strutture vicine. L'algoritmo sfrutta il processo Surface−based (SBM) per l'indi- viduazione dei tessuti e delle strutture corticali. Similmente ad SPM, l'immagine viene registrata tramite una registrazione ane allo spazio MNI. Questo passaggio permette di ssare l'orientazione dell'immagine ed ottenere una prima distribuzione dei tessuti. Si identicano le regioni di voxel che con maggiore probabilità appar- tengono alla materia bianca e in base alla loro intensità e a quella dei voxel vicini. Mediante gradienti di intensità, si rana la classicazione no ad ottenere superci di separazione tra materia bianca e grigia e tra materia grigia e uido cerebrospinale (g. 2.3).

Una volta individuate le superci principali, tramite l'atlante di riferimento, è possibile individuare le regioni corticali da cui estrarre diverse grandezze siche come volume, area, spessore e curvatura. La segmentazione automatica di Freesufer ore

Figura 2.3: Individuazione delle strutture corticali con FreeSurfer. a) Immagine MRI T1-weighted; b) in giallo, la segmentazione della supercie di separazione CSF/GM, in blu la supercie GM/WM; c) individuazione delle regioni corticali e sottocorticali grazie all'applicazione dell'atlante di riferimento.

la possibilità di scegliere tra più atlanti di riferimento per la parcellizzazione del cervello in sottostrutture. In particolare, l'operatore può decidere il più adatto al proprio studio.

FreeSurfer permette inoltre l'individuazione delle regioni sottocorticali. Anche in questo caso il processo parte da una registrazione ane, per poi eseguire l'indivi- duazione grossolana dei volumi sull'atlante di riferimento, diversi passaggi correttivi volti ad una loro migliore denizione al ne di calcolarne il volume.

CAPITOLO

3

Standardizzazione di immagini MRI

La maggior parte dei metodi di visualizzazione e analisi delle immagini prevedono parametri; impostarne il valore diventa molto dicile senza lo stesso signicato di intensità specica, soprattutto se la scala di intensita' dell'immagine non ha valenza quantitativa e non si possono quindi impostare dei valori di riferimento a partire da quantità siche. L'ideale sarebbe che per protocolli simili o per immagini acquisite con lo stesso protocollo, le immagini risultanti siano simili.

Sono stati eettuati alcuni tentativi per calibrare le caratteristiche del segnale MR attraverso l'uso di fantocci. Sebbene sia fattibile eettuare la calibrazione per tutti i pazienti, questo processo risulta molto gravoso e non è chiaramente applicabile a dati già acquisiti. La procedura di standardizzazione a cui ci si riferisce in questa Tesi si congura dunque come un passaggio precedente all'analisi dati, ma successivo all'acquisizione dell'immagine.

Esiste una naturale tendenza a pensare che riscalare semplicemente il massimo e il minimo dell'intervallo di intensità dall'immagine in un range ssato standard possa risolvere il problema. Questo metodo si riduce in genere a una riscalatura lineare dei

livelli dell'immagine che aiuta il raggiungimento della somiglianza d'intensità o di contrasto. Tuttavia, la variazione lineare delle intensità non risulta essere adeguata allo scopo, in quanto l'obiettivo del processo di standardizzazione è riportare tutte le immagini nello stesso range di intensità e allo stesso tempo avere per ciascuna immagine un contrasto standard tra i diversi tessuti cerebrali.

3.1 La standardizzazione nella letteratura

In letteratura si trovano numerosi studi che basano la standardizzazione delle immagini sulla trasformazione dei livelli di grigio. Uno dei primi studi considerati è del 1999 ad opera di Nyùl e Udupa[22] che proposero un metodo di trasformazione di

intensità non lineare, brevettato nel 2003[23]. Lo studio si basa sulla trasformazio-

ne dell'istogramma di ciascuna immagine volumetrica in un istogramma standard. L'intero processo è arontato in due fasi: il primo di allenamento e il secondo di trasformazione.

L'allenamento ha lo scopo di individuare dei riferimenti, landmarks, sugli isto- grammi di un set di immagini per poi calcolare rispettivi parametri standard:

1. per ciascuna immagine del set di immagini originali, viene rappresentato l'i- stogramma;

2. si determinano i valori delle intensità di riferimento;

3. vengono calcolate le conseguenti nuove collocazioni dei riferimenti sulla scala di riferimento;

4. la media dei livelli di grigio dei riferimenti propri di ciascuna immagine ripor- tati sulla nuova mappatura, identica l'elenco dei landmarks medi da utilizzare come scala standard.

Nel passaggio di trasformazione i paramenti degli istogrammi originali vengono modicati in modo che corrispondano a quelli medi della scala standard (g. 3.1):

Figura 3.1: Mappatura dei riferimenti sulla scala standard. Le intensità di interesse delle immagini 1 e 2 vengono riportate su un'unica scala. Il riferimento rs è ricavato

mediando i valori dei livelli di grigio di r1 ed r2.

1. viene rappresentato l'istogramma dell'immagine originale; 2. calcolati i riferimenti propri dell'istogramma;

3. ciascun riferimento viene mappato sulla scala standard sul riferimento medio calcolato nella fase di allenamento;

4. tra i diversi punti di riferimento, i restanti livelli di grigio vengono trasformati in modo lineare.

La mappatura totale risulta dunque una spezzata (g. 3.2) e la diversa penden- za dei segmenti causa la variazione d'intensità per ciascuna immagine, rendendola standard.

La bontà della standardizzazione si basa in modo evidente sulla scelta dei ri- ferimenti, per questo motivo nella successiva revisione dello studio, ne sono stati considerati di diversi e più numerosi[24] anchè la mappatura sulla scala standard

fosse più precisa e si riducesse l'errore di miscelazione dei tessuti. Il metodo è spesso indicato con L4, nome rievocativo alla ultima congurazione dei riferimenti utilizzati

da Nyúl ed Udupa.

Successivamente a questi studi, sono stati ricercati altri metodi e tecniche di standardizzazione, tra cui la tiSsue−Based Standardization Technique (SBST)[1] La

Figura 3.2: Funzione di standardizzazione. I diversi parametri caratteristici di cia- scuna immagine vengono mappati sulla scala standard mediante una trasformazione non lineare data dalle diverse pendenze dei segmenti.

SBST è una tecnica che rimuove il problema della miscelazione dei tessuti segmen- tando a priori l'immagine per ciascuna immagine del set di allenamento. I passaggi della tecnica possono essere riassunti come segue:

1. scelta di un set di scansioni MRI originali;

2. utilizzo di SPM per la segmentazione dei tessuti GM, WM e CSF per ciascuna immagine appartenente al set;

3. rappresentazione dell'istogramma dei livelli di grigio per ciascun tessuto e per ogni immagine;

4. elaborazione delle trasformazioni per ciascun tipo di tessuto, similmente a Nyúl ed Udupa. Al ne di unire le trasformazioni ed ottenere una mappatura continua di intensità nelle zone di incertezza in cui i livelli di grigio risultano

condivisi tra i tessuti cerebrali, viene eseguita una levigatura spline per evitare discontinuità;

5. applicazione della trasformazione alle immagini del set di allenamento e ad altre originali in modo da ottenere immagini standardizzate SBST.

Il metodo SBST riduce notevolmente l'errore di miscelazione e produce immagini modicate in cui tutti i tessuti hanno intensità standardizzate. Tuttavia, il mag- gior limite di questa tecnica risiede proprio nel basare la standardizzazione sulla segmentazione a priori dell'immagine originale.

Un approccio totalmente diverso con lo scopo di rendere possibile le analisi multi- sito è l'utilizzo del deep learning ed in particolar modo le GAN[25]. Nel recente studio

di Nguyena et al., è stato proposto un metodo per correggere le ignote dierenze di sito tra due insiemi di immagini acquisite con hardware e protocolli diversi. L'al- goritmo proposto usa le GAN per trasformare un insieme di immagini appartenenti ad un sito in immagini con caratteristiche di un secondo sito diverso. L'algoritmo è stato in grado di rimuovere gran parte degli eetti del sito senza compromettere il contenuto di informazione. Questo metodo sore attualmente di importanti limi- tazioni; prima tra tutte, è la restrizione al 2D, ovvero le analisi sono state svolte su delle fette (ossia immagini bidimensionali) rappresentanti tessuti già segmentati, non su interi volumi MRI tridimensionali.

3.2 Il metodo di standardizzazione proposto e i dati

Documenti correlati