• Non ci sono risultati.

4. Materiali e metod

4.4. Protocollo di analis

Sono state manualmente selezionate, all'interno delle diverse fasi del sonno, porzioni di segnale di tacogramma e respirogramma di 200 battiti cardiaci di lunghezza. Si è reso necessario utilizzare questo valore piuttosto contenuto per garantire la stazionarietà degli spezzoni analizzati, condizione necessaria per l’applicazione dei metodi di stima spettrale parametrica utilizzati. Le finestre vengono scelte in maniera tale da ottenere andamenti nel tempo stazionari e privi di artefatti o outliers. La metodologia utilizzata per l’analisi spettrale degli spezzoni di segnale selezionati è quella della stima parametrica. L'approccio parametrico per la stima della densità spettrale di potenza assume che la serie temporale analizzata sia l'output di un dato processo i cui parametri risultano sconosciuti. A volte sono note alcune informazioni a priori sul processo, o è almeno possibile prendere in considerazione alcune ipotesi sul meccanismo di generazione della serie, e ciò rende possibile una selezione più mirata della struttura del modello da usare. Più di frequente, invece, il modello è indipendente dalla fisiologia o dall'anatomia del processo biologico che genera i dati e la sua formulazione è basata su relazioni di tipo input-output, in accordo con l’approccio black-box. Per poter ottenere un'affidabile stima spettrale, è necessaria una validazione a posteriori del modello identificato. Questo tipo di approccio segue una procedura che può essere riassunta in tre step principali:

1. Scelta del modello corretto per la descrizione dei dati 2. Stima dei parametri del modello basata sui dati acquisiti

3. Calcolo della densità spettrale di potenza (power spectral density-PSD) attraverso delle equazioni proprie, in accordo al modello selezionato, nelle quali vengono inseriti i parametri del modello stimato.

35

La letteratura fornisce vari modelli che possono essere utilizzati a questo proposito [20]. Nella pratica vengono utilizzati più di frequente modelli lineari con funzioni di trasferimento razionali (figura 13), poiché questi ultimi possono descrivere affidabilmente un ampio range di segnali differenti. Tra questi vengono preferiti i modelli autoregressivi (AR) per via della loro funzione di trasferimento a tutti-poli: l'identificazione dei modelli AR si riduce infatti alla soluzione di un sistema di equazioni lineari. Questo comunque non è un limite: infatti come assicura il teorema di Wald, se l'ordine del modello è sufficientemente elevato è equivalente ad un modello ARMA (Autoregressive Moving Average) o ad un modello MA (Moving Average). Una corretta validazione del modello selezionato è comunque sempre richiesta [26].

Figura 13: schema di un modello AR.

I modelli AR sono applicabili solo a segnali stazionari, e ciò non rappresenta un problema, dal momento che a tal scopo, come già affermato, vengono selezionate solo finestre in cui è garantita la condizione di stazionarietà del processo.

Vi sono due ragioni principali sul perché l'approccio AR per l'analisi spettrale venga considerato superiore alle tecniche tradizionali basate sulla trasformata di Fourier:

1. la risoluzione in frequenza di uno spettro AR è infinita e non dipende dalla lunghezza del segmento di dati che viene analizzato, questo è un particolare vantaggio quando vengono considerati piccoli segmenti di dati [27];

2. lo spettro di potenza di un modello AR può essere visto come una sovrapposizione di termini, ognuno corrispondente ad una certa componente in frequenza [28], inoltre i tracciati appaiono meno frastagliati.

36

In ogni finestra è stata dunque effettuata un’analisi autoregressiva (AR) al fine di ottenere un modello AR di ordine p, la cui espressione generale è la seguente:

dove y(t) è la serie in esame, y(t-k) rappresentano i p campioni precedenti (con k che rappresenta un numero intero compreso tra 1 e p e che identifica istanti di tempo discreti ed equidistanti), ak rappresentano i coefficienti autoregressivi da stimare per l’ottenimento del

modello ottimo, ovvero del modello per il quale viene minimizzato l’errore di stima, e ε(t) è il segnale di rumore in ingresso al modello, la cui “bianchezza” deve essere sempre verificata, con media nulla e varianza σx2

.

La funzione di trasferimento nel dominio della trasformata Z è:

e lo spettro di potenza del processo è:

dove ω corrisponde alla frequenza di Nyquist (ovvero alla metà della frequenza di campionamento).

Il modello AR può anche essere visto come un filtro lineare avente come ingresso un rumore bianco. Il processo in uscita è stazionario se tutti i poli della funzione di trasferimento (ovvero le radici del denominatore) sono all'interno della circonferenza unitaria. Il rumore bianco è caratterizzato da uno spettro a banda piatta, lo spettro del processo in uscita è invece completamente determinato dai parametri dell'AR [29].

L'ordine del modello è stato scelto utilizzando il criterio di informazione di Akaike (Akaike Information Criterion, AIC): esso rappresenta una misura oggettiva dell’adeguatezza del modello scelto che considera la modalità di adattamento e la complessità di quest’ultimo [19]. Considerando una serie stazionaria tempo {Xt}, con t=1, 2,...,T, l’AIC consiste nella minimizzazione della funzione di costo:

(4.4) (4.2)

37

con P = {0,1,2,…m}. σ2 rappresenta la stima della varianza del residuo per un modello AR di ordine p, c(n) è un termine di penalità, n è il numero di osservazioni ed m è un ordine autoregressivo superiore pre-determinato. Derivando questa funzione, si ottiene l’espressione della formula di Akaike in relazione al p-esimo degli m ordini che si è deciso di considerare:

La selezione dell’ordine del modello viene quindi effettuata considerando il modello per il quale si ottiene il più basso valore di AIC. Un vantaggio dell’AIC risiede nel fatto che è utile non solo per dati di test, ma anche per la predizione di nuovi campioni da parte del modello: questo criterio è infatti progettato per ridurre al minimo la varianza dell'errore di predizione.

Per quanto riguarda i coefficienti del modello, essi sono stati ottenuti utilizzando il metodo dei minimi quadrati basato sulle equazioni di Yule-Walker [20]: (4.7) e (4.8)

con R che rappresenta la matrice dei coefficienti delle equazioni di Yule-Walker. (4.7)

(4.8)

(4.9) (4.5)

38

Il modello AR, come detto, è stato utilizzato per calcolare la densità spettrale di potenza (PSD) di ciascuna porzione di segnale, che può essere espressa anche nel modo seguente: (4.10)

dove H(ω) è la funzione di trasferimento del modello, z è definito come exp(2πifT), C(z) è la funzione che contempla gli zeri del sistema, Δt è il periodo di campionamento e pk

rappresentano i poli del processo. I poli sono stati identificati al fine di scomporre la PSD in singole componenti spettrali, secondo il metodo descritto da Baselli et al. [21], ottenendo poi tramite inviluppo l’andamento grafico complessivo (figura 15).

Figura 14: Poli del modello necessari alla decomposizione della PSD di ogni componente spettrale.

39

Figura 15: Spettro del segnale HRV come inviluppo delle campane corrispondenti alle singole componenti spettrali [10].

In seguito sono stati quantificati i valori di frequenza e potenza associati a ciascuna componente spettrale. Sono stati calcolati, per ciascuna porzione del segnale analizzato del tacogramma, i valori di potenza percentuale delle componenti LF e HF, mentre per il respirogramma è stato preso in considerazione solo il picco principale, corrispondente alla componente HF (calcolato come percentuale della potenza in banda HF del respirogramma sulla potenza totale del respirogramma). Per ciascuna porzione stazionaria del tacogramma e del respirogramma è stata inoltre eseguita un'analisi bivariata al fine di ottenere il cross- spettro tra i due segnali.

40

Figura 16: Serie temporali, autospettri e cross-spettri relativi ai segnali HRV e di respiro.

Secondo il metodo descritto in Bianchi et al. (1990) [14] è stato stimato un modello bivariato AR, la cui espressione generale è la seguente:

dove Y(t) è il vettore delle serie y(t) e x(t) sotto esame, A è la matrice dei coefficienti di autoregressione e W(t) è il vettore dei termini residui ε(t) e η(t). Il modello AR bivariato è stato utilizzato per calcolare il cross-spettro di ciascuna porzione di segnale, che può essere espresso come segue:

dove X(ω) e Y(ω) rappresentano gli autospettri dei segnali.

(4.11)

41

La coerenza quadratica tra i segnali nelle bande LF e HF è stata calcolata come:

dove il cross-spettro tra i segnali viene normalizzato in relazione alla PSD dei segnali. Infine sono state calcolate, per ogni porzione di segnale analizzata, le percentuali di potenza coerente e potenza non-coerente ed è stato inoltre calcolato il loro rapporto, che vuole rappresentare un indicatore dell’influenza del segnale respiratorio su quello di variabilità cardiaca.

Esempi di segnali nel dominio del tempo, di autospettri e cross-spettri, riferiti ad uno studio compiuto su soggetti sani [33], sono illustrati in figura 16. I parametri di interesse sono stati studiati, per tutta la notte, all'interno di ogni fase analizzata ed è stato calcolato, relativamente ad ognuna di esse, il loro valore medio e gli scostamenti. Le fasi indagate sono la veglia (W), la S2, la S4 e la REM. Sono state escluse dall’analisi le fasi S1 ed S3 poiché temporalmente troppo esigue. Per ciascun soggetto sono stati studiati la variazione del rapporto LF/HF per il tacogramma e la coerenza tra segnali di tacogramma e respirogramma nella banda HF in relazione con l’ipnogramma del soggetto, i valori medi in tutta la notte sono stati calcolati su tutti i soggetti. È stato infine condotto sui dati un test statistico implementando un’analisi di varianza ad una via (one way-ANOVA) al fine di identificare differenze statisticamente significative nelle potenze del tacogramma in LF e HF, nei valori del rapporto LF/HF, nella potenza percentuale del respirogramma in banda HF, e nella coerenza tacogramma-respirogramma.

Per l’analisi statistica dei dati, nella prima parte del lavoro si è proceduto dapprima svolgendo un test sulla gaussianità delle distribuzioni: si è utilizzato a questo scopo un test di Lilliefors, più robusto del più noto test di Kolmogorov-Smirnov, per il quale l’attendibilità dei risultati è assicurata in presenza di campioni numericamente consistenti. Gli step fondamentali sono i seguenti [41]:

1. Si stimano la media e la varianza della popolazione.

2. Si identifica la discrepanza massima tra la funzione di ripartizione empirica e la funzione di distribuzione cumulativa (CDF) della distribuzione normale caratterizzata da valore atteso stimata e varianza precedentemente stimate.

42

3. Infine si valuta se la discrepanza massima è abbastanza grande da essere statisticamente significativa, richiedendo così rifiuto l'ipotesi nulla.

L’ipotesi nulla di distribuzione gaussiana dei risultati viene rifiutata quando il risultato del test statistico assume un valore inferiore a 0.05.

A questo punto, si è voluto indagare sull’omogeneità delle varianze delle distribuzioni testate: a volte, infatti, valori globali di varianza ottenuti hanno fatto credere che tale condizione non venisse verificata. Verificata o meno la guassianità dei campioni esaminati, si è utilizzato il test di Bartlett nel primo caso, che è piuttosto sensibile agli scostamenti dalla normalità, e il test di Levene nel secondo, quest’ultimo in quanto risulta essere un test più robusto per effettuare le indagini statistiche nel caso non parametrico [42]. Nel caso di non omogeneità delle varianze si dovrebbe poi procedere con altri tipi di test (ad esempio test di Welch nel caso parametrico e test di Friedman in quello non-parametrico).

Dal momento che, attraverso l’uso dei test precedentemente descritti, non è mai stata verificata l’ipotesi di non omogeneità delle varianze, sono stati utilizzati solamente due test per cercare di identificare possibili differenze significative nella distribuzione dei campioni: il test parametrico ANOVA nel caso di gaussianità e il test di Kruskal-Wallis nel caso di gaussianità non verificata.

L'analisi della varianza (ANOVA) è un insieme di tecniche statistiche facenti parte della statistica inferenziale che permettono di confrontare due o più gruppi di dati confrontando la variabilità interna a questi gruppi con la variabilità tra i gruppi. L'ipotesi alla base dell'analisi della varianza è che dati n gruppi, sia possibile scomporre la varianza in due componenti: Varianza interna ai gruppi (anche detta within) e Varianza tra i gruppi (between). La ragione che spinge a compiere tale distinzione è la convinzione, da parte del ricercatore, che determinati fenomeni trovino spiegazione in caratteristiche proprie del gruppo di appartenenza. L’ipotesi nulla di partenza è che i due campioni presentino varianze interne simili in rapporto alla varianza tra gruppi già citata. Le ulteriori assunzioni che assicurano la validità dell’applicazione del test statistico Anova, oltre alle principali due già menzionate (omogeneità delle varianze e distribuzione approssimativamente normale) sono [22]:

43

1. Dimensione dei campioni superiore ai 10 elementi.

2. I risultati ottenuti con l’analisi di campioni si applicano alle popolazioni

3. Indipendenza fra media e varianza, ovvero l’errore di misura deve essere indipendente dal valore misurato.

L’analisi per ranghi effettuata dal Kruskal-Wallis può essere concepita come l’equivalente, nel caso non parametrico, dell’analisi della varianza Anova: in questo caso, l'ipotesi nulla è che le popolazioni da cui provengono i campioni abbiano la stessa mediana. Anche in questo caso, un valore di p_value inferiore a 0.05 tende a far rifiutare tale ipotesi.

Nella seconda parte del lavoro, volta al confronto tra gruppi di pazienti, sono state svolte delle analisi ANOVA e Kruskal-Wallis di tipo “unpaired”, ovvero tra campioni con diverso numero di elementi. A tale scopo, è stato in questa sede realizzato un codice in ambiente Matlab® che rende molto rapido e pratico questo tipo di analisi.

Documenti correlati