CAPITOLO V
Metodi per l’elaborazione di immagini termografiche
vascolari.
5.1 Considerazioni preliminari all’elaborazione delle immagini
termografiche vascolari.
D
opo la descrizione dei modelli bioingegneristici generali, entriamo ora nel vivo dell’analisi delle immagini termografiche dei vasi sanguigni: ovviamente la modellistica descritta precedentemente ci sarà di enorme aiuto nella formulazione degli algoritmi che utilizzeremo. Prima di procedere con l’analisi vera e propria, faremo alcune considerazioni preliminari, dettate dalla morfologia dei vasi in esame e dalle tecnologie adottate per l’acquisizione delle immagini.In primo luogo, la visualizzazione mediante falsi colori o livelli di grigio non è una rappresentazione reale dell’immagine, ma un’estrapolazione puramente artificiosa basata sui valori stimati di temperatura: in pratica, i sensori della termocamera convertono la radiazione infrarossa in segnale elettrico secondo le relazioni (2), (3), valide per il corpo nero, stimando un valore di temperatura in base alla potenza termica radiante. Il valore del coefficiente di emissività (1), che indica le caratteristiche di radiazione termica della sorgente rispetto al corpo nero, viene impostato dall’utente in base ai materiali e all’angolo di incidenza della radiazione sull’array di sensori. L’elaborazione del segnale è fatta quindi mediante software fornito dal costruttore che utilizza algoritmi di correzione basati sui parametri forniti dall’utente; inoltre il software provvederà a compensare eventuali non-idealità dei sensori (ad esempio offset o derive termiche). È quindi importante ricordare che queste operazioni di correzione sono approssimate e dipendono dalle impostazioni in fase di acquisizione ed elaborazione; quindi la mappa di temperatura ottenuta risentirà della correttezza dei parametri di correzione e degli algoritmi inclusi nel software. Noi considereremo ininfluenti queste problematiche, assumendo di avere a disposizione immagini che rappresentino la reale distribuzione di temperatura della
sorgente; l’unica precisazione che faremo riguarda il problema della direzione di incidenza della radiazione e della sua influenza sul coefficiente di emissività.
Per chiarire i concetti, consideriamo un esempio di immagine vascolare che potrebbe essere oggetto di analisi (fig. 5-1). La struttura dei vasi sanguigni si presenta generalmente come un insieme, più o meno articolato, di ramificazioni chiare (in quanto attraversate da sangue “caldo”) su uno sfondo scuro, che rappresenta il tessuto circostante “freddo".
Fig. 5- 1 Esempio di immagine termografica vascolare.
Il problema fondamentale, tipico di qualsiasi tecnica di imaging 2D, è la rappresentazione su un piano di una struttura tridimensionale risente della tipologia di realizzazione delle immagini. Ad esempio, in una comune fotografia l’effetto prospettico consente di ricostruire, tramite considerazioni intuitive dell’osservatore, gli oggetti tridimensionali. Se l’immagine è ottenuta mediante tecniche strumentali che rilevano determinate caratteristiche del soggetto, sarà necessario esaminare la tecnica adottata per una corretta ricostruzione. Considerando le immagini infrarosse vascolari, sappiamo che le strutture visibili in figura sono, in prima approssimazione, condotti cilindrici e che l’immagine deriva da una conversione della radiazione termica emessa.
La situazione può essere riassunta dalla figura 5.2, che rappresenta una sezione del vaso sanguigno circondata dai tessuti adiacenti; le frecce continue rappresentano la radiazione infrarossa emessa in direzione della matrice di sensori (FPA), quelle tratteggiate la componente di calore trasmesso nei tessuti, considerando sia i fenomeni di conduzione che di irraggiamento. Infatti, assumendo che il vaso irradi in direzione radiale a causa della sua geometria e che il vaso stesso si trovi in una zona superficiale del tessuto, la radiazione inciderà sui vari sensori posti in diverse posizioni (chiamati sensore IR 1, 2 e 3 in figura), con angoli diversi. Inoltre, i tessuti circostanti, per effetto dei fenomeni di trasmissione del calore, diverranno più caldi ed emetteranno anch’essi una radiazione rilevabile.
Fig 5- 2 Rappresentazione dei fenomeni termici in un vaso sanguigno visto in sezione. Le frecce continue rappresentano le componenti di irraggiamento, dipendenti dall’angolo; quelle tratteggiate le componenti di conduzione ed irraggiamento nei tessuti.
Si può considerare, innanzitutto, che le componenti di irraggiamento attraverso i tessuti siano trascurabili (infatti rileviamo immagini termografiche di soli organi superficiali); quindi il modello si riduce ad un cilindro, con la parete supposta a temperatura costante, che irradia in direzione dei sensori. La radiazione rilevata dai sensori dipenderà dall’angolo di incidenza, ma si può supporre che, all’interno di un angolo sufficientemente grande (di ampiezza θmax), la matrice di sensori riceva la radiazione frontale in maniera uniforme; al contrario, per angoli di incidenza alti (> θmax), la radiazione ricevuta decrescerà fino ad annullarsi per angoli prossimi a 90°. In seguito a queste considerazioni, si può assumere che la distribuzione di temperatura risultante della parete del vaso (supposta a temperatura costante), anziché essere uniforme nella zona corrispondente alla proiezione del vaso sul piano dei sensori, abbia andamento dipendente dall’angolo di incidenza come mostrato in fig. 5-3 e si estenda nell’intorno riscaldato a causa dei fenomeni di conduzione. Di conseguenza, la dimensione apparente del vaso sarà maggiore di quella reale; la nostra approssimazione nella stima delle reali dimensioni del vaso consisterà nell’individuare la zona ad andamento uniforme, considerando il valore più alto di intensità come corrispondente alla situazione di emissività massima; per quanto riguarda la zona ad andamento non lineare, sarà ipotizzabile che si trovi parte nella
fascia di emissione per angoli > θmax e parte nei tessuti esterni al vaso (sarà quindi un artefatto1 della tecnica di imaging).
Fig 5- 3 Andamento della potenza termica rilevata dalla matrice di sensori in funzione dell’angolo di incidenza della radiazione.
In presenza di contenuto informativo distribuito su più immagini, ad esempio nel caso di immagini spazialmente complementari o di una sequenza temporale, sarà necessario integrare le diverse immagini per ottenere tutta l’informazione disponibile. Nel paragrafo seguente affronteremo il problema del contenuto informativo in immagini multiple e della cosiddetta “registrazione”.
5.2 Il problema della registrazione delle immagini mediche:
definizione e classificazione dei metodi.
Le tecniche di imaging nell’ambito medico stanno assumendo un’importanza sempre maggiore, non soltanto dal punto di vista diagnostico, ma anche nella valutazione e pianificazione delle procedure chirurgiche e terapeutiche. Le immagini mediche possono essere suddivise in due principali tipologie: anatomiche e funzionali; le prime rappresentano principalmente la morfologia degli organi, le seconde ci forniscono informazioni sul metabolismo e sul funzionamento degli organi stessi. Nella prima categoria rientrano, ad esempio, i raggi X, la TAC, la RMN, le tecniche ultrasoniche; nella seconda ricordiamo la SPECT e la PET.
1 Si definiscono artefatti quelle strutture presenti nelle immagini mediche che non trovano corrispondenza nella
In generale, visto che l’imaging medico considera una sequenza di eventi, ci aspettiamo di dover ricavare contenuto informativo da una serie temporale di immagini, che seguono l’evoluzione di un dato fenomeno. In alternativa, è possibile che le immagini siano parte di una rappresentazione globale che deriva dalla fusione del loro contenuto informativo. Il processo che mira ad ottenere informazioni utili da due o più immagini complementari (nel senso che tutte le immagini rappresentano una parte dell’informazione totale) si definisce “integrazione”.
La modalità più comune di integrazione tra immagini consiste nella cosiddetta “registrazione” (traduzione letterale del termine “registration”): per registrazione si intende quella serie di procedure che portano all’allineamento spaziale delle immagini.
Esistono vari criteri di classificazione degli algoritmi di registrazione, che brevemente possiamo elencare:
• Dimensionalità (2D, 3D, serie temporali). • Natura dell’elemento base della registrazione
Estrinseca (invasiva, non invasiva).
Intrinseca (segmentazione, landmarks, voxel). • Natura della trasformazione.
Rigida (rotazioni e traslazioni). Non rigida (deformazioni elastiche). • Interazione.
Metodi interattivi.
Metodi automatici (con o senza inizializzazione). Metodi semiautomatici (inizializzazione, correzione). • Dominio della trasformazione.
• Procedure di ottimizzazione
Il criterio della dimensionalità riguarda le dimensioni del problema, cioè principalmente considera se le immagini da analizzare sono in 2D o 3D e se entra in gioco la variabile tempo. Potremo quindi avere il caso di immagini bi- o tridimensionali registrate spazialmente, cioè fuse per ottenere immagini complessive; oppure immagini 2D allineate spazialmente in maniera proiettiva (come nella TAC) per avere immagini 3D; o, infine, sequenze temporali di immagini da allineare.
La natura dell’elemento base della registrazione può essere estrinseca od intrinseca: la registrazione si definisce estrinseca quando si basa su elementi estranei inseriti nell’area dell’immagine, mentre si considera intrinseca se è basata su immagini rappresentanti informazioni derivanti dal solo soggetto. Solitamente la registrazione estrinseca si avvale di trasformazioni rigide (rotazioni e traslazioni), mentre per quella estrinseca si ha la possibilità di applicare anche trasformazioni geometriche non rigide. La registrazione estrinseca si realizza, a sua volta, con varie modalità: essa si può basare su un insieme limitato di punti salienti dell’immagine
(landmarks) o su sull’allineamento di strutture segmentate (segmentazione) o su misure direttamente effettuate sui livelli di grigio dell’immagine (voxel).
Nella registrazione basata sui landmarks, l’insieme dei punti utilizzati è molto ridotto rispetto all’intera immagine, per cui questa è la procedura che dà i risultati migliori in termini di ottimizzazione dei tempi. Gli algoritmi più comuni consistono nella minimizzazione delle distanze tra ogni landmark e il suo corrispettivo nelle diverse immagini (un esempio è l’algoritmo ICP-iterative closest point).
I metodi di registrazione basati sulla segmentazione prevedono l’estrazione di determinate strutture anatomiche dalle immagini e l’allineamento delle stesse; si può procedere per rototraslazioni rigide o definire modelli di deformazione elastica per le strutture. Esistono varie applicazioni di queste metodiche, soprattutto basate sul modello di traslazione rigida, in neurologia ed ortopedia: ricordiamo il metodo “head-hat” come esempio di algoritmo.
I metodi di registrazione basati sui voxel si dividono in metodi che riducono l’immagine ed un insieme rappresentativo di scalari ed orientazioni e metodi che lavorano direttamente sull’immagine. Nel primo caso consideriamo metodi come quelli basati sugli assi principali: si tratta di individuare il baricentro dell’immagine e le sue principali orientazioni (assi principali) e, successivamente, di allineare questi punti ed orientazioni nelle varie immagini. Nonostante sia un metodo poco accurato, viene largamente utilizzato per la semplicità implementativa e la rapidità. I metodi basati sull’intero contenuto dell’immagine sono quelli attualmente più utilizzati e testati. A differenza dei metodi di segmentazione, essi non utilizzano un sottoinsieme ridotto dell’immagine, ma tutta l’informazione disponibile per il processo di allineamento. L’utilizzo è limitato soltanto dall’elevato costo computazionale che, specialmente nei casi di immagini 3D, li rende troppo lenti per la maggior parte delle applicazioni; d’altronde, l’esigenza di registrazioni accurate e retrospettive, unita allo sviluppo di computer sempre più potenti, ha incrementato notevolmente la diffusione di queste metodiche. Se consideriamo i metodi basati sul contenuto dell’intera immagine (“full-image-content-based”), possiamo rilevare una classificazione a seconda degli algoritmi utilizzati:
• Cross-correlation.
• Minimizzazione della varianza dei rapporti tra valori di intensità. • Minimizzazione della varianza dei valori di intensità nei segmenti. • Minimizzazione della differenza assoluta dei valori di intensità. • Minimizzazione della dispersione dell’istogramma.
• Massimizzazione dell’entropia relativa dell’istogramma. • Utilizzo implicito della registrazione di superfici.
L’interazione dell’utente può essere classificata in vari tipi: il metodo può essere definito interattivo, automatico o semi-automatico; i metodi interattivi comportano una registrazione effettuata dall’utente col supporto del software, quelli automatici provvedono alla registrazione una volta acquisiti dati e parametri, quelli
semi-automatici necessitano di inizializzazioni o correzioni da parte dell’utente durante la registrazione. Vista la complessità computazionale della maggior parte delle procedure di registrazione, che rende difficile un intervento umano diretto, i metodi risultano quasi tutti automatici.
Nel prossimo paragrafo indicheremo i metodi di registrazione scelti nella nostra analisi e i criteri che hanno portato a queste scelte.
5.3 Registrazione di immagini termografiche vascolari.
Esaminando le svariate metodiche esistenti in letteratura per la registrazione di immagini mediche, si osserva che i criteri di scelta dipendono, oltre che dalla tipologia delle immagini e delle informazioni ricercate, anche (e soprattutto) dalla complessità implementativa e computazionale che siamo disposti a sostenere: questi criteri hanno a che vedere quindi sui costi dell’analisi, in termini di lavoro di programmazione, potenza di calcolo e tempi di elaborazione dei calcolatori.
Dal nostro punto di vista, trattandosi di un’analisi strettamente teorica, abbiamo preferito puntare sull’accuratezza del risultato piuttosto che sulle risorse (umane e tecniche) richieste: in pratica abbiamo preferito la maggiore semplicità implementativa possibile (senza che la nostra metodica perdesse di rigore) e tempi relativamente alti di elaborazione, piuttosto che approdare a registrazioni approssimative.
Questo approccio al problema è stato dettato anche dalle caratteristiche delle immagini termografiche vascolari, in particolare da quelle relative alle coronarie: come precisato nei capitoli precedenti (par 3.3) il movimento di questi vasi è molto rapido in conseguenza del battito cardiaco e la morfologia dei vasi viene profondamente alterata in tempi brevissimi.
Quindi le tecniche più opportune per effettuare una corretta registrazione sarebbero quelle classificate come basate sui voxel, le più adatte ad inseguire cambiamenti così drastici e repentini. La tipologia ideale di registrazione comprenderebbe una segmentazione con trasformazione non rigida, capace di apprezzare le deformazioni del muscolo cardiaco, ma si andrebbe incontro a problemi di elevatissima complessità.
La soluzione da noi proposta è un algoritmo ibrido di registrazione, articolato in due fasi. La prima fase consiste in una registrazione basata sul contenuto dell’intera immagine, per allineare determinate zone dell’immagine: in particolare si cerca di ottenere l’allineamento dei “nodi” in cui i vasi sanguigni si intersecano.
Successivamente, partendo dai punti ricavati con il metodo “full-image”, si ricostruisce la morfologia del vaso con una tecnica di segmentazione che considera il percorso del vaso come una serie di segmenti consecutivi di lunghezza ed orientazione variabile. In questo modo si risolve il problema della trasformazione elastica riducendo il vaso ad una spezzata fatta di segmenti “snodati”. Le due fasi
della registrazione sono riassunte nella fig. 5-4, che descrive come vengono adottate (in maniera molto semplificata) le due tecniche esposte ad una biforcazione dei vasi sanguigni, procedura che si può estendere, in maniera del tutto analoga, ad una rete più complessa.
Fig 5- 4 Rappresentazione sintetica delle due fasi di registrazione di immagini vascolari: nella prima fase (a sinistra), si adotta un metodo “full-image-content-based” su un’area selezionata nella regione di confluenza dei vasi; nella seconda(a destra), si procede con un algoritmo di segmentazione per ricostruire la morfologia dei vasi.
La prima parte della procedura di registrazione consiste quindi in un algoritmo di allineamento basato sull’intera immagine: nel paragrafo precedente abbiamo provveduto ad elencare i modelli più diffusi di tali algoritmi. Tra questi, la nostra scelta è caduta su una tipologia semplice ma efficiente di algoritmi che sfruttano la cosiddetta cross-correlation.
Andremo ora a definire le caratteristiche di questa funzione e a descrivere il funzionamento dell’algoritmo proposto per la registrazione; le considerazioni che faremo, sebbene relative ad immagini termografiche di vasi sanguigni, hanno carattere del tutto generale e sono valide per qualsiasi tipo di immagine con determinate caratteristiche.
5.4 Algoritmi di cross-correlation.
Gli algoritmi di cross-correlation si basano su un confronto diretto (matching) tra l’immagine in esame ed una di confronto: solitamente si sceglie una regione di interesse (ROI) nell’immagine di confronto e si procede all’inseguimento (tracking) della posizione della regione corrispondente nelle immagini da analizzare. L’algoritmo di registrazione si riassume nella ricerca dello spostamento relativo della regione di interesse nelle varie immagini.
Dal punto di vista analitico, definiamo in generale due immagini, la prima di confronto e la seconda oggetto della registrazione, supponendo di iterare l’algoritmo
a più immagini in una fase successiva. Si può assumere, per semplicità, che la rappresentazione delle immagini sia a livelli di grigio e che ad ogni valore di intensità corrisponda un numero in una scala: si associa così ogni immagine ad una matrice i cui elementi sono codificati in base alla dinamica del segnale in un range di valori. Fatte queste considerazioni preliminari, definiamo C(n,m) la matrice associata all’immagine di confronto e A(n,m) quella associata all’immagine in esame, assumendo al momento che la dimensione di entrambe le matrici sia n x m.
Una misura del grado di “somiglianza” delle due matrici può essere data dallo scarto quadratico medio σ2: se consideriamo la procedura di registrazione, idealmente cercheremo di traslare la matrice di confronto valutando il valore di σ2 per ogni possibile spostamento in modo da rilevare lo spostamento che lo minimizzi.
Se supponiamo di traslare di p righe e q colonne la matrice di confronto, i valori dello scarto quadratico medio possono essere inseriti in una matrice:
( )
=
∑∑
[
( ) (
−
−
−
)
]
2=
2p
,
q
A
n
,
m
C
n
p
,
m
q
m nσ
=(
,
)
( )
,
2
(
,
)
(
,
);
2 2q
m
p
n
C
m
n
A
m
n
C
m
n
A
m n m n m n−
−
−
+
∑∑
∑∑
∑∑
(25)Il termine di doppio prodotto costituisce la matrice di cross-correlation e rappresenta una misura della correlazione tra le due immagini; in sostanza il nostro obiettivo sarà trovare i valori di p e q (corrispondenti alle traslazioni orizzontali e verticali dell’immagine di confronto) tali che lo scarto quadratico medio sia minimo. Per ottenere questa condizione si deve verificare che la cross-correlation abbia valore massimo.
Quindi tutti gli algoritmi che effettuano la registrazione per mezzo della cross-correlation operano una serie di traslazioni relative delle due immagini, con una procedura di massimizzazione di questa funzione. Il limite di questi algoritmi è quindi dato dalla possibilità di studiare l’allineamento di immagini con sole traslazioni, senza considerare le eventuali rotazioni.
L’algoritmo che abbiamo elaborato provvede a compensare questa carenza con una procedura iterativa che utilizza un algoritmo standard di cross-correlation, ripetuto per una serie di possibili rotazioni relative delle immagini da registrare.
Andremo ora ad esporre nei dettagli il nostro algoritmo, con una spiegazione esaustiva delle procedure e delle scelte implementative adoperate; in particolare, tutti gli adattamenti messi in atto rispondono alla particolare tipologia delle immagini esaminate. Quindi possiamo dire che questa procedura di registrazione sia stata creata ad hoc per le immagini termografiche vascolari coronariche, senza comunque precluderne l’utilizzo per altre immagini di diversa natura.
5.5 Implementazione
dell’algoritmo
di cross-correlation modificato
per l’analisi delle immagini vascolari.
Come accennato nel paragrafo precedente, gli algoritmi standard di cross-correlation realizzano il tracking delle immagini, tenendo conto delle possibili traslazioni tra immagini diverse.
Supponiamo di operare su una generica immagine termografica vascolare che rappresenta parte della circolazione coronarica arteriosa. La situazione tipo è rappresentata in figura 5-5, in cui sono rappresentate due diverse immagini acquisite tramite termocamera durante un intervento di cardiochirurgia: le immagini si riferiscono a due istanti diversi della stessa acquisizione, quindi si tratta della registrazione di una sequenza temporale e il nostro scopo sarà valutare l’evoluzione della morfologia dei vasi nel tempo.
Ci accorgiamo immediatamente che la rete vascolare subisce notevoli deformazioni tra un’immagine e l’altra, il che richiederebbe l’utilizzo di un modello che contempla trasformazioni non rigide. Per semplificare l’analisi, assumeremo che i vasi sanguigni si comportino come una serie di elementi rigidi snodati, applicando il modello di trasformazione rigida ad ogni sezione vascolare.
Fig 5- 5 Esempi di immagini termografiche vascolari , rappresentanti le arterie coronarie epicardiche in due diverse fasi del ciclo cardiaco. Si noti l’elevata deformabilità della rete vascolare.
In sostanza, sarà lecito considerare zone sufficientemente piccole dell’immagine modificate mediante sole traslazioni nelle immagini successive. Per chiarire, mostreremo sulle immagini rappresentate un esempio di traslazione di una zona limitata: prendendo una piccola regione dell’immagine a sinistra della fig. 5-5 e traslandola in modo da occupare la sezione corrispondente nell’immagine a destra, si ottiene quanto presentato in fig 5-6.
È possibile osservare una buona corrispondenza della sezione inserita (evidenziata con un riquadro) con il resto dell’immagine, operando semplici
operazioni di traslazione. È quindi ragionevole supporre che, per piccole aree, il modello di registrazione basato unicamente sull’algoritmo di cross-correlation risponda in maniera adeguata alle nostre esigenze.
Fig 5- 6 Esempio di registrazione di un’immagine effettuata con la semplice traslazione rigida di una sezione: l’area nel riquadro appartiene all’immagine a sinistra della fig. 5-4 che è stata posizionata in maniera opportuna nell’immagine a destra della stessa figura.
Il problema che si pone negli algoritmo di cross-correlation è di natura computazionale: infatti, si può rilevare che i risultati variano dipendentemente con la dimensione dell’area di confronto. Selezionando un’area piccola si ottengono le massime prestazioni del modello a sezioni rigide traslate, in quanto si considerano aree praticamente indeformate; d’altra parte, aree troppo piccole riducono il loro contenuto informativo e danno come risultato registrazioni non sempre affidabili. Quindi il compromesso nella scelta della sezione di confronto sta nel mediare queste opposte tendenze, ricordando anche che riducendo l’area si semplifica notevolmente la mole di calcoli da effettuare. Da queste considerazioni si ricava l’esigenza di introdurre un metodo di ottimizzazione della registrazione capace di migliorare le prestazioni per aree relativamente ridotte. La nostra soluzione consiste nel sostituire la matrice di cross-correlation per ogni immagine con una serie di matrici valutate per diversi angoli di rotazione imposti all’area di confronto; si ricava infatti, dalle analisi svolte, che le aree selezionate possono ruotare e traslare da un’immagine alla successiva. Con questa modifica dell’algoritmo, è possibile ottenere registrazioni più accurate a parità di area, pagando il prezzo di una maggiore complessità computazionale, dovuta al numero di matrici da considerare.
Riassumendo, i criteri di scelta dell’area di confronto possono essere schematizzati in tabella 5-A, che divide gli stessi in criteri che impongono un aumento o una riduzione dell’area di confronto.
L’implementazione dell’algoritmo è stata effettuata in ambiente Matlab (versione 6.1), utilizzando le funzioni predefinite nel toolbox per l’image processing. La procedura di registrazione standard mediante cross-correlation per immagini bidimensionali è disponibile in una funzione implementata definita “normxcorr2”.
Criteri che impongono un aumento delle dimensioni dell’area di confronto
Criteri che impongono una riduzione delle dimensioni dell’area di confronto.
• Precisione della registrazione
• Maggiore contenuto informativo dell’area di confronto
• Minore complessità computazionale
• Applicabilità del modello con trasformazioni rigide.
Tab. 5- A Criteri per la scelta delle dimensioni dell’area di confronto in algoritmi di registrazione che utilizzano la cross-correlation.
Tale funzione riceve come ingressi due matrici (che rappresentano le immagini) e calcola la matrice di cross-correlation normalizzata: tale matrice comprende i coefficienti di correlazione valutati traslando le posizioni relative delle matrici date ed assume valori in modulo ≤ 1. Dalla (25) si ricava che la cross-correlation assume valore massimo nel caso di immagini coincidenti (quando lo scarto quadratico medio è nullo) ed è proprio utilizzando questa definizione che si opera la normalizzazione.
La struttura tipica di una matrice di cross-correlation, per immagini con contenuto informativo correlato come quelle da registrare, può essere rappresentata da una funzione bidimensionale con un massimo locale corrispondente ai valori di traslazione per cui le immagini risultano meglio “allineate”. In figura 5-7 la matrice è rappresentata su un piano xy e la coordinata z corrisponde al valore degli elementi della matrice.
Fig 5- 7 Rappresentazione della struttura tipica della matrice di cross-correlation normalizzata per immagini correlate: si nota il massimo che corrisponde alla situazione di allineamento ottimale delle immagini.
Ovviamente la situazione rappresentata in figura corrisponde al caso ideale, in cui si rileva univocamente un punto di massimo nella matrice; in alcuni casi, specialmente se l’area di confronto è ridotta rispetto alla dimensione delle immagini, si ottiene un insieme di punti “candidati” che differiscono di poco tra loro: questa condizione porta ad un’ambiguità nella scelta del massimo, che pregiudica la correttezza della procedura di registrazione.
Le operazioni che compongono l’algoritmo modificato di cross-correlation che tiene conto delle rotazioni dell’area di confronto può essere schematizzato in una serie di passi elementari, da applicare alla nostra sequenza di immagini. Per chiarezza, esponiamo le operazioni eseguite mediante il diagramma in fig. 5-8.
Fig 5- 8 Diagramma di flusso che descrive sinteticamente la sequenza di operazioni effettuate nell’algoritmo modificato di cross-correlation. Il risultato della procedura, di tipo iterativo, è un vettore di “tracking”, che contiene gli spostamenti relativi necessari ad allineare le immagini.
La prima fase è, ovviamente, l’acquisizione delle immagini, che verranno trattate in maniera sequenziale: si sceglie un’immagine di riferimento ( che definiremo frame 0) ed in essa si seleziona un’area di confronto, adottando criteri dipendenti dalla tipologia di immagine e dalle esigenze di registrazione. Nel caso specifico delle immagini coronariche abbiamo considerato un’immagine di riferimento relativa alla fine della fase sistolica, in cui i vasi sono pieni di sangue e praticamente immobili; per quanto riguarda la regione di confronto abbiamo optato per zone di biforcazione dei vasi (in previsione dell’applicazione dell’algoritmo di segmentazione).
Una volta scelta l’area di confronto, possiamo applicare l’algoritmo standard di cross-correlation: l’applicazione sarà estesa alle matrici derivanti dalla rotazione della prima immagine della sequenza (frame 1), effettuate per tutti gli angoli compresi in un range (φ1, φN) valutato in base alla natura delle immagini. Il range di rotazione è suddiviso in N angoli elementari: ad esempio, per le immagini che abbiamo analizzato il ∆φ minimo utilizzato è stato di 1° e le rotazioni coprivano ampiezze tra i 15° e i 30°, valori trovati dopo varie esecuzioni dell’algoritmo e che si sono dimostrati più che sufficienti per rilevare gli spostamenti dei vasi. Si procede al calcolo del massimo di tutte le funzioni di cross-correlation e, in seguito, del valore massimo assoluto tra questi, che consente di ricavare gli spostamenti dell’area di confronto e l’angolo di rotazione che corrispondono al corretto allineamento.
Si effettua anche un’operazione di trasformazione del sistema di coordinate, in quanto il confronto effettuato nelle matrici ruotate fornisce il risultato nel sistema di coordinate ruotato dello stesso angolo (la procedura verrà descritta in dettaglio parlando della sua implementazione).
Dal punto di vista tecnico, il programma creato per la registrazione riceve in ingresso una sequenza di M immagini (che potrebbe essere tipicamente la serie di fotogrammi di un filmato), tra le quali la prima rappresenta il frame 0: questa impostazione è modificabile, nel caso si lavori con sequenze in cui la prima immagine non possieda i requisiti opportuni.
La fase successiva consiste nella scelta dell’area di confronto: abbiamo optato, per questa funzione, ad un metodo di scelta mediante interfaccia grafica. Il frame 0 viene visualizzato sullo schermo e l’utente può selezionare, tramite dispositivo di puntamento, la regione di interesse, che può essere una qualsiasi finestra rettangolare contenuta nell’immagine. Anche in questo caso è possibile un’impostazione manuale con inserimento delle coordinate della finestra.
Una volta confermata la scelta dell’area, il programma parte effettuando le rotazioni delle immagini in maniera sequenziale. La rotazione, utilizzando le funzioni fornite dal software, genera una matrice di dimensioni maggiori rispetto a quella originale dipendentemente dall’angolo di rotazione, in modo da ottenere comunque una matrice “diritta”, occupando con zeri le aree in eccesso. La figura 5-9 esprime bene questo concetto, rendendo evidente che le coordinate dell’area di confronto nel frame di destra subiscono una trasformazione e devono essere riportate al sistema originario mediante trasformazione inversa.
Fig 5- 9 Effetto della rotazione sulle immagini: l’operazione comporta una trasformazione delle coordinate.
Riportiamo per completezza le equazioni di trasformazione diretta in caso di rotazione in senso antiorario di un angolo φ per una matrice quadrata di dimensione L x L.
;
)
(
cos
'
ϕ
ϕ
L
Y
sen
X
X
=
+
−
⋅
(26);
cos
'
ϕ
ϕ
X
sen
Y
Y
=
+
⋅
Riconducendo le coordinate al sistema di riferimento non ruotato, mediante la trasformazione inversa, otteniamo gli spostamenti ∆x e ∆y dell’area di confronto.
Una precisazione va fatta relativamente al fatto che si suppone l’area di confronto sufficientemente piccola da non subire deformazioni (come già accennato in precedenza); quindi parlare di spostamenti dell’area equivale a parlare di spostamenti di qualsiasi punto ad essa appartenente.
Iterando la stessa procedura per tutte le immagini della sequenza si ottiene il vettore di “tracking”, contenente tutti gli spostamenti delle immagini della sequenza e pertanto costituito da M coppie di coordinate. Le coordinate sono, per la precisione, quelle di un punto selezionato all’interno della finestra di confronto e dei punti corrispondenti nelle immagini successive. Per l’esecuzione del programma è stato impostato il punto di coordinate X0,Y0 situato nell’angolo in alto a sinistra della finestra. La scelta delle coordinate del punto centrale della biforcazione è selezionata manualmente dall’utente: questa opzione rende più versatile l’algoritmo nel caso di applicazioni a sezioni vascolari con geometria differente, e, in ogni caso, le operazioni interattive sulla prima immagine consentono di minimizzare gli errori rispetto ad eventuali procedure automatiche. Infatti, la selezione esatta della finestra e del punto sono di fondamentale importanza per una corretta registrazione, specialmente nei casi di immagini a geometria altamente deformabile come quelle coronariche.
Una volta ottenuto il vettore di tracking per il punto scelto, la prima fase della registrazione può ritenersi conclusa: il risultato ottenuto servirà come dato di ingresso per la fase di segmentazione.
Una considerazione va fatta sui tempi di esecuzione dell’algoritmo: la fase di registrazione che utilizza la procedura di cross-correlation modificata è la parte più onerosa in termini computazionali, perché opera su tutti i pixel dell’immagine numerose operazioni di rototraslazione e calcoli sulle matrici.
Per fare una stima temporale, utile se si considera che le elaborazioni richieste devono avvenire nei tempi dell’intervento chirurgico, consideriamo,ad esempio, un caso di procedura non ottimizzata che ci darà una sovrastima della durata di esecuzione. Operiamo la registrazione di immagini acquisite tramite termocamera con una matrice di sensori 256x256 su 256 livelli di grigio: selezionando sottomatrici di 180x180, che rappresentano l’area epicardica di interesse, si sceglie all’interno della prima immagine una finestra di 30x30 pixel. Impostiamo i valori estremi degli angoli di rotazione (φ1,φN) a -20° e +20°, in modo da considerare rotazioni sia in senso orario che antiorario. Per una sequenza di 80 immagini i tempi di esecuzione si attestano sui 30 minuti, utilizzando un comune PC con prestazioni medio-basse.
La fase di ottimizzazione e verifica degli algoritmi sarà descritta in seguito, quando considereremo un caso reale di applicazione delle procedure di registrazione esposte in questo capitolo.
5.6 Algoritmi per la ricerca delle direzioni dei vasi confluenti.
La fase di registrazione effettuata mediante algoritmi basati sulla cross-correlation, descritta nella prima parte del capitolo, ha portato ad ottenere una serie di coordinate, corrispondenti alle posizioni di un punto prescelto nelle varie immagini che costituiscono una sequenza.
La nostra procedura prevede che, per l’analisi della morfologia dei vasi (e successivamente dei fenomeni legati al flusso sanguigno), i punti vengano scelti in corrispondenza di ramificazioni dei vasi stessi. Riferendoci alla particolare struttura delle arterie coronarie, e precisamente ai modelli elaborati nel par. 4-6, si rileva che la maggior parte delle ramificazioni all’interno di questo distretto circolatorio è costituito da biforcazioni, con scarsissima presenza di anastomosi.
Di conseguenza, ogniqualvolta si seleziona un punto corrispondente ad una ramificazione, d’ora in poi si considererà che tale punto sia al centro di una biforcazione.
La procedura di ricostruzione dei vasi partendo dalla locazione delle biforcazioni trova riscontri in letteratura e possiamo fornire un esempio relativo alla morfologia delle arterie della retina[29]: per visualizzare questi vasi, si iniettano mezzi di contrasto fluorescenti (ad esempio fluoresceina) e si fotografa il fondo oculare con
particolari fotocamere; le immagini ottenute hanno caratteristiche simili a quelle termografiche, con l’unica differenza che sono immagini ottiche nella banda del visibile. Un esempio di immagine delle arterie della retina è riportato in fig. 5-10, in cui si evidenzia una tipica struttura dei vasi che si biforcano; il problema della determinazione della morfologia dei vasi è quindi decisamente simile a quello esposto per la circolazione coronarica. Nella fonte citata è sviluppato un algoritmo che implementa la funzione di ricerca della direzione dei vasi che traggono origine dalla biforcazione: nella parte a destra della stessa figura si evidenzia un esempio di identificazione delle direzioni evidenziato da segmenti che percorrono il primo tratto dei vasi confluenti.
Fig 5- 10 Immagine rappresentante una sezione delle arterie della retina ottenuta mediante acquisizione fotografica successivamente ad iniezione di mezzi di contrasto ottici: a sinistra, immagine non elaborata di una biforcazione; a destra, esempio di visualizzazione dei risultati dell’algoritmo citato con visualizzazione dei tre segmenti generati.
L’algoritmo elaborato dagli autori ci interessa limitatamente alla possibilità di automatizzare la ricerca dei vasi che confluiscono nella biforcazione.
L’idea che sta alla base di tale algoritmo parte dalla considerazione che le immagini presentano un elevato contrasto tra la zona dei vasi e il fondo della retina: di conseguenza è possibile definire con vari metodi un valore di soglia ed ottenere un immagine a 2 livelli di intensità (bianco e nero) a seconda che l’intensità del punto sia maggiore o minore della soglia (operazione detta di thresholding). Su questa immagine binaria si applica un algoritmo che calcola il valore medio di intensità su segmenti di lunghezza data che si originano nel centro della biforcazione e coprono tutte le direzioni. In figura 5-11 è schematizzata una biforcazione cui si applica quest’operazione ed è riportato un grafico del valore medio di intensità in funzione dell’angolo (fig. 5-12). Come era ovvio aspettarci, nel grafico sono presenti 3 picchi corrispondenti alle direzioni dei vasi.
Fig 5- 11 Esempio dell’applicazione dell’algoritmo per la ricerca della direzione dei vasi: il segmento indicato ruota di un angolo α e si calcola per ogni angolo l’intensità media dei suoi punti.
Fig 5- 12 Grafico dell’intensità media dei punti del segmento ruotato in funzione dell’angolo di rotazione, calcolata per l’immagine in fig.5-10: sono evidenti i picchi corrispondenti ai tre vasi.
Tornando al caso della circolazione coronarica, possiamo rilevare che la difficoltà rispetto al caso precedente sta nella differente modalità di acquisizione: la tecnica dell’imaging infrarosso consente risoluzioni minori e comunque l’immagine è una ricostruzione di quella reale mediante algoritmi di stima e correzione della distribuzione di temperatura. Risulta molto più complessa ed ambigua l’applicazione di procedure di thresholding, come abbiamo avuto modo di testare direttamente su immagini termografiche della coronarie. Quindi, le metodiche esposte sono uno spunto per automatizzare la procedura di ricerca delle direzioni dei vasi che, nella nostra implementazione, è stata inclusa nella fase di riconoscimento della morfologia dei vasi, lasciando all’utente la determinazione delle direzioni “preferenziali” dei vasi da esaminare.
5.7 Metodi di segmentazione per il riconoscimento della morfologia
dei vasi.
Dopo una prima fase di registrazione della posizione delle biforcazioni dei vasi, e la descrizione di procedure accessorie per la ricerca dei punti centrali della biforcazione e delle direzioni di diramazione dei vasi, passiamo al riconoscimento vero e proprio della morfologia dei singoli vasi componenti la rete vascolare nelle sezioni in esame.
Trattandosi di un insieme di biforcazioni, le considerazioni che faremo saranno simili a quelle del paragrafo precedente: da ogni punto centrale delle biforcazioni partiranno 3 vasi in direzioni che, in prima approssimazione, saranno distanziate tra loro di angoli di 120°. Scegliendo una qualsiasi di queste biforcazioni, si può quindi rappresentare la situazione come quella vista in fig. 5-4.
Dai modelli esposti nel cap. IV e dalle considerazioni del par. 5-1, si può assumere che i valori di intensità, all’interno di un segmento di vaso in cui scorra fluido a velocità e temperatura costante, dipendano solo dall’angolo con cui la radiazione incide sul rivelatore: si assume in questa analisi che la situazione sia ideale, con assoluta assenza di transitori e di fenomeni di conduzione termica tra vaso e tessuti circostanti. In questo caso, esisterà una distribuzione di intensità lungo la sezione trasversale del vaso con una zona centrale a temperatura stimata massima e con le porzioni periferiche a temperature più basse.
La nostra analisi sarà fondata sull’assunzione che la direzione del segmento di vaso considerato, corrispondente all’asse longitudinale del vaso stesso, sarà ottenibile dai punti ad intensità massima contenuti nella fascia centrale.
Il metodo richiama, nella sostanza, l’algoritmo descritto per le immagini della retina (par. 5-5): si utilizzano, anche in questo caso, segmenti di lunghezza fissata che ruotano lungo angoli di determinata ampiezza; un estremo del segmento è posto nel centro della biforcazione, l’altro si muove in funzione dell’angolo di rotazione. L’angolo è compreso in un intervallo inserito in base alla conformazione della biforcazione nella prima immagine. Parallelamente alla selezione dell’area di confronto, questa è un’operazione affidata all’utente in base a considerazioni sull’immagine e a verifiche dell’algoritmo.
L’algoritmo è di tipo iterativo e, partendo dal punto centrale della biforcazione, genera un fascio di K segmenti ruotati di un angolo α (compreso in un intervallo (α1,αK) : per ogni segmento si valuta la media dell’intensità dei punti che lo compongono e si seleziona tra questi, come direzione del vaso, il segmento con valore massimo.
Fig 5- 13 Esempio di procedura di segmentazione applicata ad una biforcazione: i segmenti originati nel centro della biforcazione sono compresi in un angolo α. Si valuta il segmento avente intensità massima dei punti e si itera la procedura.
Si prende come punto fisso l’estremo di tale segmento e si ripete la procedura trovando una nuova direzione. In tal modo si riconosce la morfologia del vaso come una spezzata costituita dagli assi di sezioni di vaso; si fa l’ipotesi che tali sezioni siano perfettamente cilindriche e che gli unici cambiamenti di direzione avvengano in corrispondenza degli “snodi” della spezzata. L’operazione va ripetuta per i tre vasi che confluiscono nella biforcazione, generando tre diverse spezzate che seguono il loro percorso.
Ovviamente, ai fini di un corretto riconoscimento, si devono dimensionare correttamente sia le lunghezze dei segmenti che gli intervalli in cui è compreso l’angolo di rotazione. Supponendo che le scelte operate in tal senso siano valide (eventualmente l’ottimizzazione può avvenire in fase di verifica su immagini di prova), la spezzata ottenuta costituisce un’approssimazione del percorso del vaso; pertanto, i punti che appartengono a questa curva sono compresi nella regione centrale del vaso e possono essere utilizzati per le stime di temperatura.
Il programma che implementa la funzione di riconoscimento è stato creato in ambiente Matlab come quello relativo alla prima fase della registrazione; esso accetta in ingresso il vettore di tracking prodotto da quest’ultimo relativo al centro di una biforcazione. Dalle coordinate del punto centrale, per ogni immagine, si applica la procedura descritta, ottenendo una serie di coordinate, che identificano i punti delle spezzate: si organizzano i dati in una matrice che ha sulla riga n-esima le coordinate dei punti della spezzata dell’immagine n-esima. Viene creata inoltre una matrice che contiene i valori di intensità degli stessi punti, in modo da consentire un analisi quantitativa delle distribuzioni di temperatura all’interno dei vasi. La procedura implementata è costituita da una serie di operazioni che possono essere riassunte nel diagramma riportato in fig. 5-14.
I valori dell’intervallo in cui è compreso l’angolo α sono quindi inseriti dall’utente in base a varie considerazioni, ma ricordiamo la possibilità di inserire una procedura automatica sulla base dei dati forniti nel par. 5-6. Altre variabili del problema sono la lunghezza dei segmenti ed il numero di iterazioni: la loro stima è ancora una volta affidata all’utente che può adattare tali parametri alle caratteristiche delle immagini in esame, osservando comunque che la stima risulta abbastanza semplice da effettuare mediante un’analisi qualitativa dell’immagine e della morfologia dei vasi da riconoscere.
Fig 5- 14 Diagramma di flusso che indica la sequenza di operazioni effettuate nella seconda fase dell’algoritmo di registrazione: in questa fase si procede alla creazione di una spezzata che approssima il percorso del vaso.
I punti che compongono la spezzata vengono quindi considerati come punti significativi del vaso per le stime di temperatura; nell’ipotesi che i segmenti siano di lunghezza molto piccola rispetto all’intero percorso del vaso sanguigno, si può limitare l’analisi ai soli punti di snodo, evitando ulteriori calcoli a quelli già effettuati dall’algoritmo di segmentazione.
Una volta ottenuta la sequenza dei punti in ogni immagine possiamo passare all’analisi vera e propria delle distribuzioni di temperatura: assumendo un modello elastico deformabile, con punti fissi individuati dagli snodi, possiamo valutare la variazione di temperatura in ognuno di questi punti nelle varie immagini. Supponendo che la nostra analisi riguardi una sequenza temporale di fotogrammi
dello stesso fenomeno, possiamo misurare la funzione intensità-tempo, in modo da avere una rappresentazione dinamica dei fenomeni termici nei vasi in esame.
Selezionando uno dei punti e tracciando le curve di queste funzioni intensità-tempo, si può trarre contenuto informativo circa la distribuzione di temperatura della parete dei vasi: nell’ipotesi di stazionarietà del flusso e di idealità dei modelli possiamo approssimare la temperatura del vaso dipendente dal flusso sanguigno al suo interno. Prima di approfondire questo fenomeno, faremo alcune considerazioni sul filtraggio del segnale.
5.8 Tecniche di filtraggio per i segnali ottenuti da sequenze
temporali di immagini termografiche.
Dall’analisi temporale dei valori di intensità di un qualsiasi punto ottenuto dalla procedura di registrazione, non è possibile trarre, in generale, contributi informativi molto significativi. Il segnale si presenta, infatti, con fluttuazioni irregolari di varie ampiezze, caratterizzato presumibilmente da armoniche a frequenze relativamente alte.
A questo punto va fatta una precisazione riguardo le frequenze dei segnali ottenuti: i fenomeni di natura termica sono molto lenti e le frequenze che ci interessano per la loro analisi sono sicuramente le più basse tra quelle presenti nel segnale; inoltre, si deve considerare che, per la particolare situazione da analizzare, ci troviamo di fronte a variazioni meccaniche e fluidodinamiche che avvengono intorno alla frequenza cardiaca. Per chiarire quest’ultimo concetto, ribadiamo che tutte le strutture muscolari (compreso l’epicardio) si muovono con una serie di deformazioni elastiche periodiche che, supponendo condizioni regolari di attività psico-motoria, avvengono a frequenza costante. Quindi, tutti i contributi frequenziali a frequenze molto più alte di quella cardiaca derivano sicuramente da fenomeni estranei caratterizzabili come rumore.
Essendo il rumore, in questo caso, limitato alle alte frequenze, si impone un’operazione di filtraggio passa-basso per estrarre maggiore contenuto informativo dal segnale.
Trasformando un segnale ottenuto dalle immagini termografiche nel dominio della frequenza, si può studiare la tipica distribuzione dei contenuti frequenziali presenti: esisterà sicuramente una forte componente continua ed a frequenze inferiori a quella cardiaca (circa 1-2 Hz), che presumibilmente sarà espressione del segnale; troveremo poi contributi a frequenze prossime a quella cardiaca, dovute alle deformazioni imposte dal battito; infine, saranno presenti contributi a frequenza più alta, derivanti dalle ineliminabili fasi di trasduzione e manipolazione del segnale.
Riassumendo, le bande di interesse del segnale ottenuto mediante analisi termografica possono essere così distinte:
Frequenze molto inferiori alla FC (1-2 Hz) dovute a fenomeni termici.
• • •
Frequenze prossime alla FC, dovute a deformazioni meccaniche e a variazioni di flusso imposte dal ciclo cardiaco.
Frequenze maggiori della FC, dovute a fattori derivanti dalla trasduzione e trattamento del segnale.
La componente derivante dal battito cardiaco viene attenuata pesantemente dalla registrazione, che minimizza gli effetti delle deformazioni, inseguendo i punti nei loro spostamenti. Inoltre, l’effetto della pulsatilità del flusso si può supporre trascurabile perché comunque troppo rapido rispetto ai fenomeni termici: si può approssimare, quindi, che nelle coronarie scorra un flusso medio costante nel tempo.
Di conseguenza, effettuando una semplice operazione di filtraggio, si può ovviare agli inconvenienti derivanti dalla presenza del rumore nel segnale.
Il filtro può essere scelto in base alla forma del grafico della densità spettrale di potenza del segnale intensità, cercando di eliminare picchi a frequenze alte; una buona approssimazione della frequenza di taglio si può avere scegliendo valori intorno alla frequenza cardiaca, in modo da lasciare inalterati solo i contributi a bassissime frequenze. Non si rileva la necessità di specifiche stringenti sull’attenuazione o sull’ordine del filtro.
Un problema che può sorgere è l’impossibilità di eliminare eventuali derive dei dispositivi di acquisizione: non potendo separare in frequenza i fenomeni che avvengono con costanti di tempo simili a quelli di trasmissione termica, dobbiamo valutare nei singoli casi. Un’operazione proponibile potrebbe essere testare la termocamera e tutto l’hardware di rivelazione su una sorgente a temperatura costante e valutare le eventuali non idealità: in ogni caso si ricorda che, nei moderni sistemi per termografia, esistono meccanismi di compensazione e correzione.
Può essere utile, inoltre, per avere una stima migliore del segnale, elaborare la curva intensità-tempo e la sua densità spettrale di potenza per una regione dell’epicardio in cui non sono presenti vasi coronarici. Tale curva darà un segnale di riferimento (che definiremo “basale”) che terrà conto di tutte le variazioni temporali di temperatura non indotte dal flusso sanguigno coronarico; inoltre, sarà utile per conoscere la temperatura dei tessuti che circondano i vasi, in previsione dell’elaborazione dei modelli per valutare le variazioni di flusso.
5.9 Analisi delle variazioni di flusso nella circolazione coronarica.
Dal punto di vista fluidodinamico, tutte le valutazioni fatte in questo capitolo presupponevano una situazione di regime stazionario: si supponeva cioè che il sangue
scorresse a velocità costante in una sezione circolare del vaso, con la parete a temperatura costante e pari a quella del fluido.
Ovviamente, quest'analisi è stata molto utile dal punto di vista delle operazioni di registrazione e valutazione del contenuto informativo, e può essere effettuata anche in ambito intraoperatorio.
Si può, infatti, pensare di acquisire alcuni cicli cardiaci prima di intervenire chirurgicamente sulle coronarie e di elaborarli, per ottenere informazioni preliminari di interesse sulla morfologia e temperatura media di alcune sezioni vascolari selezionate.
Il vero scopo della tecnica intraoperatoria è però fornire valutazioni quantitative sul flusso coronarico, sia per evidenziare le zone con condizione di scarsa perfusione miocardica che per essere di ausilio al chirurgo nella stima del flusso nei tratti di vaso inseriti, in modo da garantire una corretta esecuzione dell’intervento.
Le valutazioni del flusso all’interno dei vasi non possono essere effettuate con le sole metodiche esposte, ma necessitano di condizioni particolari indotte durante l’intervento chirurgico. La tecnica adottata consiste nell’iniezione, nel ramo aortico, di soluzione salina fisiologica, con temperatura e volume noti. Questa soluzione, che, di solito, ha una temperatura di circa 20-25 °C, porta ad un raffreddamento dei vasi e dei tessuti in tempi molto rapidi. Solitamente, a questa fase segue un riscaldamento indotto dal flusso sanguigno, pilotato in modo da interessare solo i vasi in esame. Le modalità di questo riscaldamento dipendono dall’entità del flusso e seguono i modelli enunciati nel cap. IV. Andremo ora ad approfondire cosa avviene tipicamente in queste situazioni, estraendo un metodo di simulazione applicabile con l’ausilio delle tecniche esposte nei paragrafi precedenti.
Un modello di analisi delle variazioni termiche deriva da alcuni esperimenti effettuati su animali, durante i quali si inducevano variazioni di flusso mediante azione meccanica sui vasi e venivano valutati gli andamenti della temperatura nei vari regimi di flusso sanguigno imposti[28]. Gli esperimenti prevedevano iniezioni di soluzione salina fredda e cercavano di rilevare relazioni analitiche tra i tempi di riscaldamento delle arterie coronariche e la velocità del sangue nei vasi stessi.
Per la valutazione di queste relazioni, si devono fare alcune ipotesi semplificative, in relazione ai modelli esposti nel cap. IV. Innanzitutto, si trascurano, nell'analisi successiva, tutte le caratteristiche ondulatorie dei fenomeni vascolari: come esposto nel par. 4.4, essendo i vasi in esame piccole arterie, si può fare l'approssimazione di condotto rigido e profilo di velocità parabolico. Va precisato che trascureremo anche la modulazione del profilo di velocità dovuto alla pulsatilità del flusso, considerando una situazione stazionaria di flusso costante pari quello medio presente nel vaso.
Sotto queste ipotesi, si può considerare l'effetto dell'iniezione della soluzione fredda nei vasi: sperimentalmente si rileva che la temperatura dei vasi si abbassa fino ad un valore minimo. Non conoscendo la quantità di soluzione che entra nella circolazione coronaria rispetto al totale iniettato, non si possono fare considerazioni analitiche di alcun tipo sulla fase di raffreddamento dei vasi. Si può però rilevare che
l'abbassamento di temperatura è rapido e si ferma ad un valore di temperatura minimo (tipicamente intorno ai 30 °C), che definiremo T0.
L'evoluzione termica successiva sarà un riscaldamento indotto dal sangue caldo che porta calore alla parete vascolare, che viene rilevato dalla termocamera. I fenomeni di riscaldamento che possono avvenire sono stati esposti nel par. 4.5: nella nostra analisi trascureremo la conduzione del calore ed ipotizzeremo scambi termici di tipo convettivo forzato tra fluido e parete del condotto. Per condotti con parete sottile (come le piccole arterie) si può assumere che la distribuzione di temperatura sulla superficie della parete sia omogenea, ottenendo un modello relativamente semplice.
Il modello di scambio termico convettivo prevede un andamento esponenziale della temperatura della parete di tipo esponenziale:
;
)
(
)
(
t
T
sT
sT
0e
K tT
=
−
−
⋅
− ⋅ (27)in cui Ts è la temperatura del sangue a cui tende la parete del vaso nell'ipotesi di flusso costante, mentre 1/K è un'opportuna costante di tempo, che deriva dalla relazione:
;
V
c
A
h
K
p pρ
⋅
=
(28)Fig 5- 15 Grafico dell’andamento della temperatura epicardica del cuore di un cane nel tempo in seguito all’iniezione di soluzione fisiologica fredda (15 °C). La temperatura massima è di circa 33 °C a causa dell’esposizione del cuore durante l’intervento.
Un esempio dell’andamento termico descritto può essere rilevato in fig. 5-15, che rappresenta un grafico della temperatura rilevata su una sezione dell’epicardio nel corso di esperimenti condotti su animali, successivamente all’iniezione di soluzione fisiologica fredda[28].
Ci accorgiamo immediatamente che proprio la costante di tempo K, esprimendo la rapidità con cui si riscalda la parete, ci può fornire una stima quantitativa del flusso sanguigno. Per legare questa costante, rilevabile sperimentalmente dall'acquisizione di una sequenza temporale opportuna di immagini termografiche, al flusso realmente presente nel vaso dobbiamo fornire una relazione tra lo scambio termico convettivo e la velocità del sangue.
Richiamando l'equazione (20) che lega le costanti adimensionali tipiche dei fenomeni di scambio termico (vedi par. 4.5), e considerando le espressioni (5), (16), (17) e (19), si può ricavare che:
;
1 BD
w
A
D
h
⋅
⋅
=
⋅
∞ν
λ
(29)in cui il significato dei termini è stato spiegato nel capitolo precedente e la costante A1 comprende il termine A⋅PrC.
Dalla (28) si ottiene che il coefficiente di convezione può essere espresso in funzione di termini costanti e della portata media Q:
B
Q
A
h
=
2⋅
; (30)ottenuta accorpando i termini costanti in A2. Confrontando la (30) e la (28) si ricava l'espressione desiderata:
;
3 BQ
A
K
=
⋅
(31)Abbiamo così espresso la relazione tra la costante di tempo della variazione esponenziale di temperatura rilevabile mediante analisi termografica e il valore di flusso corrispondente. Dal punto di vista analitico è utile considerare che la relazione tra i logaritmi delle grandezze in esame è di tipo lineare. Esistono limiti applicativi al modello esposto, ma sono stati forniti buoni riscontri sperimentali delle relazioni trovate.
Utilizzando questo modello, la valutazione delle variazioni di flusso si riconduce alla stima della costante di tempo di una curva intensità-tempo, valutata dopo l'iniezione di soluzione fredda.
Non si effettueranno, in questa sede, reali esperimenti per la verifica del modello o la valutazione delle condizioni di flusso. La nostra intenzione sarà invece testare gli algoritmi descritti in questo capitolo su variazioni di flusso simulate:
considereremo quindi valido il modello di scambio termico convettivo e supporremo di apportare variazioni di flusso note in determinati vasi della circolazione coronaria. Valuteremo quindi le costanti di tempo proprie delle variazioni indotte nel flusso, considerando i valori tipici delle costanti per l'organismo umano in condizioni standard.
Il passo successivo sarà verificare le prestazioni degli algoritmi in termini di minime variazioni di flusso rilevabili, precisione nella stima del valore di flusso, tempi di elaborazione e possibilità di ottimizzazione per misure di questo genere.
La procedura di simulazione da adottare può essere schematizzata in alcuni passi elementari:
a) Registrazione della sequenza di immagini mediante gli algoritmi dati.
b) Selezione di uno o più punti tra quelli registrati.
c) Elaborazione della curva intensità tempo e relativa DSP. d) Simulazione di variazione di flusso imposta.
e) Calcolo della costante K dal flusso e dai parametri del sistema mediante la (31).
f) Stima dell'escursione termica prodotta dalla soluzione iniettata. g) Stima dei tempi necessari per l'elaborazione (in funzione della
costante di tempo 1/K).
h) Stima delle minime variazioni di flusso rilevabili. i) Ottimizzazione.
I passi a), b) e c) sono stati dettagliatamente descritti nel presente capitolo con tutte le problematiche inerenti ed è stata presentata un’implementazione delle procedure di registrazione adottate.
Per quanto riguarda il calcolo della costante K, bisogna innanzitutto fare delle stime sui parametri geometrici e fluidodinamici in gioco nel caso di regime stazionario e, successivamente, valutare le variazioni di flusso.
Da studi sperimentali, si sono ricavate relazioni lineari che legano K alla portata, in modo da ricavare i parametri della (31); in particolare, la relazione tra i logaritmi assume la forma:
);
ln(
)
ln(
)
ln(
K
=
B
⋅
Q
+
A
3 (32)Le costanti empiriche, nel caso di arterie coronarie di calibro medio-piccolo, esprimendo Q in ml/min e K in sec-1, hanno valore B=0.28÷0.47 e ln(A3)=-2.7 ÷ -2.1.
I valori di B coincidono, in linea di massima, con quelli in tabella 4-E corrispondenti a numeri di Reynolds non troppo elevati: questo conforta la nostra ipotesi di moto laminare e di profilo di velocità parabolico.
Per quanto concerne la stima del flusso sanguigno, considerando il range di portata tipica della circolazione coronarica (che per l’uomo varia, in funzione
dell’attività motoria e dei fattori psichici, tra i 250 e i 1000 ml/min) e limitandoci a sezioni rilevanti di questo distretto vascolare, possiamo riportare in tabella i relativi range dei parametri dell’equazione (32).
Portata (ml/min) K (sec-1) Costante di tempo (1/K) 25 0.305 3.27 sec 50 0.423 2.37 sec 100 0.585 1.71 sec 200 0.811 1.23 sec
Tab. 5- 1 Valori del parametro K e delle costanti di tempo per vari regimi di portata relativamente ad arterie coronarie ottenuti con l’applicazione del modello lineare.
Notiamo che, per valori bassi di portata, si hanno notevoli escursioni delle costanti di tempo, mentre si ha un appiattimento delle variazioni per valori più alti. Limitandoci a soggetti in condizioni di riposo, o addirittura con parametri circolatori rallentati da particolari condizioni operatorie (ad esempio uso di soluzione cardioplegica), possiamo ipotizzare di lavorare in condizioni di portate sicuramente molto inferiori ai 200 ml/min.
La valutazione della costante di tempo della funzione esponenziale (27) dipende ovviamente dalla risoluzione in temperatura della termocamera e dal numero di immagini acquisite al secondo, ma non può prescindere dalle procedure di registrazione adottate. Utilizzando dispositivi di moderna concezione, escursioni termiche dell’ordine di quella presente in fig. 5-15 (circa 2.5-3 °C) sono rappresentabili con un numero sufficientemente alto di livelli di intensità: se gli algoritmi di registrazione sono adeguatamente realizzati, gli errori dovuti alla fase di allineamento dei fotogrammi non costituiscono un problema ai fini della corretta valutazione della costante di tempo.
Supponendo di voler stimare una portata di 70 ml/min, con costante di tempo dell’ordine dei 2 secondi ed un’escursione termica massima (Ts-T0) di 2°C e che la registrazione produca un errore massimo di ±0.1 °C; si ha che il valore di temperatura corrispondente al 90% della variazione (cioè quello raggiunto dopo circa 2 costanti di tempo) è compreso tra 1.7 e 1.9 °C: i relativi valori della costante di tempo risultano 1.89 e 2.11 sec, con portate di 64 ed 80 ml/min. Quindi un errore di registrazione pari al 5% dell’escursione termica massima produce ad errori di valutazione della portata del 10-15%, che possiamo considerare tollerabile nell’ottica della rilevazione di stenosi coronariche che comportano pesanti riduzioni di flusso, considerando anche che le prestazioni del metodo migliorano per bassi regimi di portata.
Per quanto riguarda i tempi di elaborazione, va osservato che i fenomeni di riscaldamento del vaso andrebbero monitorati fino all’esaurimento del transitorio, quindi per intervalli corrispondenti ad alcune costanti di tempo. Se facciamo riferimento a portate anche abbastanza esigue, l’acquisizione può tranquillamente
essere effettuata nell’arco di 10-20 secondi, in modo da verificare il ripristino della temperatura di regime.
Ci rendiamo facilmente conto che, per valutare fenomeni così lenti non è necessario acquisire le immagini con frequenze elevate al pari delle procedure di registrazione: se l’allineamento, infatti, richiedeva il contributo di tutte le fasi del ciclo cardiaco per inseguire i movimenti dei vasi, per stimare le portate è sufficiente campionare un numero inferiore di eventi. In tal modo si effettuerà un numero di acquisizioni al secondo ottimizzate in relazione alle costanti di tempo viste.
Questa semplificazione può essere effettuata solo a patto di possedere algoritmi efficienti di registrazione, che verranno utilizzati in una fase precedente all’iniezione della soluzione per creare un modello dinamico della morfologia dei vasi.
Inoltre si deve disporre di meccanismi di temporizzazione delle acquisizione regolati dal ciclo cardiaco, ad esempio mediante utilizzo del segnale elettrocardiografico per la generazione di impulsi in determinate fasi del ciclo stesso.