• Non ci sono risultati.

Correlazioni Long-Range e processi di rinnovo nelle serie EEG

N/A
N/A
Protected

Academic year: 2021

Condividi "Correlazioni Long-Range e processi di rinnovo nelle serie EEG"

Copied!
124
0
0

Testo completo

(1)

... il ume screziato, che scorre di continuo, e mai due volte nello stesso modo, uendo per molti luoghi, come se stesse immobile in uno.

... nell'atmosfera senz'ombra, la conoscenza delle cose è dappertutto ma non percepita.

(2)

Alle relazioni e alla possibilità di salvezza che ognuna porta in sé. Alla scelta autentica e alla potenza che essa ha di rendere liberi. Ad Assunta, alla sua profonda e trasparente bellezza che rende sempre più puro e reale il mio desiderio di amare.

(3)

Indice

1 Sistemi Complessi 7

2 Correlazioni long-range e DFA 17

2.1 Processi frattali . . . 17

2.2 Statistica delle serie temporali frattali . . . 21

2.2.1 Funzione di Autocorrelazione . . . 22

2.2.2 Power Spectrum . . . 24

2.2.3 Analisi Diusiva . . . 26

2.3 Auto-Similarità ed Analisi delle Fluttuazioni . . . 27

2.3.1 Il metodo della Detrended Fluctuations Analysis (dfa) 32 3 Risultati sulla DFA 39 3.1 Simulazioni . . . 39

3.1.1 Serie articiali . . . 39

3.1.2 Noise 1/f . . . 40

3.1.3 Processi free-scale . . . 45

3.2 Le uttuazioni nell' EEG . . . 52

3.2.1 BRAIN & EEG . . . 52

3.2.2 Materiali e Metodi . . . 53

3.2.3 Serie Temporali EEG . . . 56

3.2.4 Discussione . . . 59

4 Processi di rinnovo & Subordinazione 61 4.1 Processi di rinnovo non-Poissoniani . . . 62

4.1.1 Il concetto di rinnovo . . . 63

4.1.2 Modello per processi di rinnovo . . . 66

4.1.3 Processi nel dominio non-ergodico . . . 67

(4)

4.2 dfa e processi di rinnovo . . . 72

4.3 Invecchiamento . . . 74

4.4 Eventi di rinnovo . . . 77

5 Modello per le uttuazioni EEG 81 5.1 Equazione di Langevin . . . 82

5.2 simulazione dell'eq. di Langevin . . . 87

5.3 Subordinazione . . . 92

5.3.1 Espressione della survival probability . . . 94

5.3.2 Equazione di Langevin subordinata . . . 96

5.3.3 relazioni con la DFA . . . 100

6 Risultati sulla subordinazione e commenti 103 6.1 Punti essenziali . . . 103

6.2 Applicazione alle serie articiali ed EEG . . . 105

6.2.1 Simulazioni . . . 105

6.2.2 Registrazioni EEG . . . 110

6.3 Interpretazioni e proposte di ricerca . . . 114

6.3.1 Questioni aperte in Neuro-siologia . . . 114

6.3.2 Musica, cervello e processi di rinnovo . . . 115

7 Conclusioni 117

(5)

Introduzione

Un ampio numero di sistemi biologici mostra un comportamento free-scale (con invarianza di scala) di una o più variabili. Il comportamento free-scale riette una tendenza dei sistemi complessi di sviluppare correlazioni a lungo raggio, cioé correlazioni che decadono molto lentamente nel tempo e si estendono su grandi distanze nello spazio.

Le proprietà ed il ruolo funzionale delle correlazioni long-range nei sistemi biologici sono ancora poco conosciute.

Un primo obiettivo di questa tesi è quello di studiare questo comporta-mento nell'attività elettrica cerebrale registrata tramite elettroencefalogram-ma (EEG). I segnali prelevati sono stati studiati attraverso il metodo della Detrended Fluctuations Analysis DFA (basato sull' analisi della varianza del segnale) per la stima del coeciente di scaling delle serie temporali.

Tale metodo mette in luce l'andamento con legge a potenza delle corre-lazioni long-range nelle registrazioni dei singoli canali EEG.

Applicando l'analisi DFA a registrazioni EEG in cui i pazienti erano stati sottoposti a stimoli visivi di varia natura, si è osservato una variazione nell'indice di scaling tra condizione basale (minima stimolazione esterna) e condizione di stimolazione.

Questo risultato ha indotto ad approfondire la causa di tale variazione, e, partendo dalla congettura che il singolo elettrodo eredita la complessità del globale, si è proposto un modello sico che descriva la dinamica di un singolo canale EEG. Tale modello si basa su un processo diusivo stocastico (eq. Langevin) sottoposto ad una subordinazione nei tempi che introduce processi di rinnovo. Per subordinazione si intende un processo di trasformazione dei tempi che non segue una statistica di Poisson e per processi di rinnovo si

(6)

intende una dinamica la cui statistica non e' soggetta ad invecchiamento. La verica è avvenuta tramite il confronto tra un indice caratteristico della serie temporale articiale e il parametro di scaling calcolato attraver-so la DFA. Successivamente sulle registrazioni EEG, si è operata la ricerca dell'esponente della legge a potenza inversa a cui obbedisce la densità di probabilità dei tempi di recrossing. Attraverso operazioni di t si è ricavato un parametro che può essere messo in relazione con quello ricavato tramite la DFA.

Inne, come proposta di ricerca, si è iniziata una sperimentazione nella quale un segnale sonoro appositamente creato viene usato come stimolazio-ne uditiva esterna . Il tentativo è quello di investigare la possibilità che gli eventi critici generati nella musica portino le aree corticali ad un comporta-mento della dinamica cerebrale che segue le caratteristiche di complessità del segnale musicale rispondendo agli eventi critici.

(7)

Capitolo 1

Sistemi Complessi

Ogni cosa è causata e causante, aiutata e adiuvante . . .  (B.Pascal)

Fin dagli albori del pensiero scientico moderno i modelli matematici sono stati utilizzati per la descrizione dei fenomeni. Il loro successo è stato notevo-le nelnotevo-le scienze della natura, in particolare nella sica, tanto che i modelli in questo ambito sono intesi spesso come leggi universali. In altri ambiti scien-tici, ad esempio nelle scienze sociali, la ricerca di pretese leggi universali è stata infruttuosa e i modelli sono utilizzati come strumento per organizzare i dati e come ecace stimolo per sviluppare e approfondire le idee, ma senza pretese esplicative di portata generale.

A partire da Galileo in poi, il riduzionismo è stato il paradigma dominante nelle scienze naturali : secondo questo approccio allo studio della natura, i fenomeni appaiono complessi solo perché non li consideriamo nella maniera giusta. Ma liberandoci da nostri pregiudizi e sapendo leggere nel grande libro della natura, la complessità non è altro che apparente e, almeno in linea teorica, poche semplici leggi (equazioni matematiche) sono sucienti a spiegare la complessità del creato. Questa visione della natura ha portato al metodo riduzionista che ha contribuito in maniera essenziale allo sviluppo della scienza moderna.

Uno tra gli scienziati più di spicco all' interno del positivismo scientico è stato Laplace, per il quale il potere di previsione scientica è totale, nel senso che conoscendo lo spazio degli stati che compone un sistema, il risultato successivo è determinabile a priori e, quindi, in modo assoluto.

(8)

Il pensiero di Laplace costituisce un evidente esempio di riduzionismo deterministico; il compito della scienza consiste nel ricondurre tutte le leggi siche ad un principio universalmente valido, in questo caso la causalità meccanicistica. Ogni variabile aleatoria, ogni elemento di casualità viene, in questo senso, rigettato nell' ambito della fenomenologia (Prigogine, 1993, p. 84) e perciò considerato assolutamente trascurabile ed ininuente.

In ambito classico i sistemi troppo complessi vengono studiati dividen-doli in sottosistemi più semplici alla portata della nostra capacità di analisi. Ad esempio i fenomeni sociali ed economici vengono spiegati in termini di comportamento umano. A sua volta, questo comportamento viene spiegato in termini di processi biologici che a loro volta sono spiegati attraverso i processi chimici, ed essi, a loro volta, da quelli sici. È in questo senso che la scienza classica viene detta riduzionista.

Ma già nel 1903 Henri Poincarè comprese che anche se fossimo in grado di trovare la teoria nale non potremmo comunque calcolare le conseguenze: in altri termini si può dire che un conto è spiegare un altro prevedere.

Panoramica

una causa piccolissima che sfugga alla nostra attenzione determi-na un eetto considerevole che non possiamo mancare di vedere, e allora diciamo che l'eetto è dovuto al caso. Se conoscessimo esattamente le leggi della natura e la situazione dell'universo al-l'istante iniziale, potremmo prevedere esattamente la situazione dello stesso universo in un istante successivo. Ma se pure ac-cadesse che le leggi naturali non avessero più alcun segreto per noi, anche in tal caso potremmo conoscere la situazione iniziale solo approssimativamente. Se questo ci permettesse di prevede-re la situazione successiva con la stessa approssimazione, non ci occorrerebbe di più e dovremmo dire che il fenomeno è stato pre-visto. Ma non è sempre così; può accadere che piccole dierenze nelle condizioni iniziali ne producano di grandissime nei fenome-ni nali. Un piccolo errore nelle prime produce un errore enorme nei secondi. La previsione diviene impossibile (Poincaré, 1903). Henri Poincarè è il fondatore della teoria qualitativa (o topologica) dei

(9)

sistemi dinamici ovvero di un modo di studiare le leggi del moto che rinuncia a ogni pretesa di conoscenza analitica o numerica delle soluzioni e si basa su metodi di tipo geometrico-visivo. Poincaré non si pone più il problema della forma della soluzione di un'equazione, ma cerca di capire se questa soluzione è stabile o instabile. I modelli matematici di tipo deterministico vengono in genere associati all'idea di fenomeni regolari, prevedibili, che si ripetono nel tempo, mentre il termine caotico viene riferito a situazioni caratterizzate da assenza di regole e da imprevedibilità. La scoperta del caos determini-stico spezza questa dicotomia, in quanto mostra come modelli matematici deterministici (cioè privi di ogni elemento aleatorio nelle equazioni che li deniscono) sono in grado di generare andamenti estremamente complessi, sotto molti aspetti imprevedibili, tanto da risultare quasi indistinguibili da sequenze di eventi generati attraverso processi aleatori.

La complessità tratta sistemi il cui comportamento non può essere com-preso in maniera semplice a partire dal comportamento dei singoli elemen-ti che lo compongono, ovvero la cooperazione degli elemenelemen-ti determina il comportamento dei sistemi globali e fornisce loro delle proprietà che posso-no essere completamente estranee agli elementi che costituiscoposso-no il sistema. Questa proprietà è chiamata comportamento emergente, nel senso che dai comportamenti semplici e ben deniti dei singoli componenti del sistema, emerge un comportamento globale non previsto dalle singole parti.

I sistemi complessi sono un settore di ricerca straordinariamente aasci-nante: essi sono universalmente diusi, non solo in sica e chimica, ma anche in biologia, in economia e nelle scienze sociali. La scienza della complessità aronta anche domini che hanno a lungo frustrato i tentativi di descrizione quantitativa rigorosa.

Le principali caratteristiche che sono state associate alla complessità ri-guardano la presenza di numerosi elementi interagenti, la non linearità delle interazioni, e la capacità di auto-organizzazione. Una caratteristica comune ai sistemi che consideriamo complessi è la possibilità di amplicare un picco-lo fenomeno picco-locale portando tutto il sistema in uno stato qualitativamente nuovo. Lo stato nale può dipendere dalle caratteristiche di piccole uttua-zioni locali che sono presenti nel momento in cui il sistema diventa instabile, e che arrivano a dominarne le caratteristiche macroscopiche.

(10)

avere pochi gradi di libertà: la nozione di complessità suggerita in questo caso comprende anche sistemi di questo tipo, che non potrebbero essere inclusi in una denizione di complessità che richiedesse la presenza di un gran numero di elementi interagenti.

Lo studio dei modelli ha portato, in tutti i campi della scienza e della tecnica, enormi progressi con eetti di grandi miglioramenti nella compren-sione di molti processi naturali e sociali prima poco conosciuti. La sica di Galileo è stata un grande passo di sintesi esplicativa dei fenomeni naturali in cui l'esperimento costituisce la pietra miliare di verica delle teorie che vengono utilizzate nella spiegazione dei fenomeni studiati. Ultimamente su-scita grande interesse lo studio di modelli per i sistemi complessi, sistemi per i quali non è possibile utilizzare semplicazioni concettuali in grado di ricondurre il fenomeno in esame ad un modello semplice.

Esempi di sistemi complessi possono essere il sistema immunitario, un bo-sco in amme, il cervello umano, una comunità di persone che interagibo-scono tra loro, un usso di veicoli su una rete autostradale.

Concetto di sistemi caotici

La complessità è fortemente legata al caos nel senso che quest'ultima rap-presenta una condizione limite di un sistema dinamico complesso. Il con-catenarsi di piccole cause no a produrre grandi eetti, che fa apparire tali eetti come fortuiti ed imprevedibili pur essendo determinati da leggi ben precise, è la base del concetto moderno di caos, detto caos deterministico. In realtà il concetto era già noto a Filone di Bisanzio (scienziato del mondo ellenistico nel III a.c.)1 ma fu poi dimenticato no a tempi recenti quando è stato caratterizzato in termini quantitativi come crescita esponenziale delle

1Per esempio, se la freccia scoccata da un arciere si muove di moto rettilineo uniforme

e se si ha una piccola incertezza sulla mira dell'arciere, si avrà anche una certa incertezza sul punto in cui la freccia colpirà il bersaglio e tale incertezza crescerà linearmente con la distanza del bersaglio dall'arciere. Per un bersaglio abbastanza lontano si farà addirittura impossibile prevedere se la freccia colpirà il bersaglio o meno. La crescita lineare dell'in-certezza (doppia distanza implica doppia indell'in-certezza), fa sì che basti ridurre l'indell'in-certezza iniziale di un fattore n per migliorare la precisione n dello stesso fattore. Nel caos determi-nistico però le incertezze non crescono linearmente, ma con un tasso esponenziale, perciò un miglioramento nelle previsioni di un fattore n richiede una crescita nella precisione iniziale di un fattore en.

(11)

incertezze iniziali. A partire dal XIX secolo si è venuta a delineare l'idea che il caso, almeno in una sua possibile accezione, riguardi quei fenomeni che pur essendo deterministici e con leggi ben conosciute, a piccole variazioni nelle cause seguono grandi dierenze negli eetti.

La teoria del caos è la descrizione del comportamento non predicibi-le di un sistema dinamico deterministico a causa della sua sensibilità alpredicibi-le condizioni iniziali.

Accennando ad una impostazione formale, con il termine caos si indi-ca una classe di sistemi dinamici che hanno un comportamento intermedio tra un andamento regolare, periodico o quasi-periodico, ed un andamento stocastico2 e del tutto imprevedibile.

Il comportamento caotico di un sistema non è necessariamente dato da un grande numero di variabili (o gradi di libertà), ma in alcuni casi può essere dovuto alla particolare interazione tra poche variabili. Anche in siste-mi detersiste-ministici (per i quali esiste una trattazione in tersiste-mini di equazioni dierenziali che permette di calcolare il comportamento futuro da condizioni iniziali date) possono infatti mostrare un comportamento nel tempo molto complesso.

Il comportamento di un sistema si comprende utilizzando lo spazio delle fasi. L'evoluzione temporale del punto (stato del sistema) in questo spazio costituisce l'orbita che caratterizza la dinamica del sistema.

In generale l'evoluzione di un sistema caotico è determinata da un sistema di equazioni dierenziali non lineari con tre o più gradi di libertà o da una mappa discreta invertibile:

dx(t)

dt = F(x(t)) (1.1)

x(t + 1) = F(x(t)) (1.2)

e rappresentano entrambi la stessa legge di evoluzione ed il passaggio da eq. dierenziale e mappa non cambia la natura regolare oppure caotica del fenomeno studiato.

2un sistema stocastico è un sistema con un numero così grande di gradi di libertà e

il cui comportamento è determinato da un numero così elevato di equazioni che risulta impossibile darne una formulazione matematica anche approssimativa. Un tale sistema può essere descritto solo attraverso metodi statistici.

(12)

Il numero di gradi di libertà è rappresentato dal numero di equazioni dierenziali ordinarie del prim'ordine necessarie a descrivere l'evoluzione in un sistema continuo (ovvero dal numero di componenti del vettore di stato x(t)).

Indicando con x(t) e x0(t)le due traiettorie generate da x(0) e x0(0), in un sistema caotico si ha :

|δx(t)| = |x(t) − x0(t)| ∼ |x(0) − x0(0)|eλt (1.3) e λ dipende dal sistema. Si vede come una piccola incertezza  = |x(0)−x0(0)| sulle condizioni iniziali si amplica molto velocemente.

Un attrattore è un insieme verso il quale evolve un sistema dinamico dopo un tempo sucientemente lungo e quindi il luogo dei punti percorsi dalla traiettoria nello spazio delle fasi dopo un transiente di aggiustamento. L'insieme dei punti nello spazio delle fasi che verrebbero attratti nella loro evoluzione (traiettoria) dalle orbite dell'attrattore vengono detti bacini di attrazione.

I sistemi che possono presentare comportamenti caotici deterministici si possono dividere in sistemi conservativi (o Hamiltoniani) e sistemi non con-servativi (o dissipativi). Nei secondi vi è una dissipazione di energia nel tem-po (non si conserva il volume nello spazio delle fasi ma si contrae). Nel caso di sistemi caotici dissipativi si hanno degli attrattori strani oggetti non rego-lari di struttura frattale3. In questa situazione due traiettorie con condizioni iniziali molto vicine possono essere viste allontanarsi in modo esponenziale l'una dall'altra. Questo non implica che i due moti saranno diversi, ma che le due traiettorie ripercorrono gli stessi passi ma in ordini cronologicamente diversi. L'impredicibilità dei moti caotici riguarda l'impossibilità di predire quando un certo evento si vericherà.

Complessità in natura

Ordine e caos sono due situazioni estreme ma tutto sommato facilmente trattabili. Molto più complicato è invece lo studio delle situazioni intermedie

3I frattali sono gure matematiche dotate di dimensioni frazionarie e non intere, hanno

una regolarità geometrica, detta invarianza o autosomiglianza rispetto al cambiamen-to di scala, infatti, se si esaminano questi oggetti a scale diverse si incontrano sempre gli stessi elementi fondamentali. Questa congurazione ripetitiva denisce la dimensione frazionaria, o frattale, dell'oggetto.

(13)

ovvero dei sistemi fuori equilibrio e alla soglia del caos in cui il sistema viola l'ipotesi di ergodicità, visitando regioni dello spazio delle fasi in maniera diseguale, muovendosi su un attrattore frattale. E' possibile avere anche dei sistemi che si auto-organizzano verso uno stato critico: per esempio i terremoti mostrano delle caratteristiche compatibili con la criticità auto-organizzata.

Non esiste ancora una denizione generalmente accettata di sistema com-plesso, ma una caratteristica peculiare è la presenza in un sistema complesso di una struttura gerarchica interna che viene generalmente distrutta da mo-diche del sistema stesso4. Esempi di sistemi complessi sono i sistemi sici fuori dall'equilibrio, i sistemi biologici (il cervello, il DNA, il sistema immu-nitario), i sistemi ecologici (ecosistemi, catene alimentari), i sistemi sociali (comunità di individui di vario genere), i sistemi economici (mercati nan-ziari, reti di commercio), i sistemi di comunicazione (reti di computers, il world wide web, reti elettriche e telefoniche).

L'argomento di questo lavoro ha come campo di applicazione quello re-lativo ai sistemi biosici ed in particolari alle strutture cerebrali rilevabile attraverso l'analisi dell'elettroencefalogramma. I sistemi siologici sono sta-ti tradizionalmente trattasta-ti dalla scuola medica con una visione in cui il comportamento fosse periodico e regolare tale da minimizzare la variabilità funzionale e mantenere costanti le funzioni interne. La visione in termini di sistemi lineari ha portato dunque ad associare stati di buona salute a compor-tamenti regolari dove le variazioni dall'equilibrio dovono essere rapidamente riassorbite, e dall'altra parte, si associano stati patologici a comportamenti irregolari e alla perdita da parte dell'organismo della capacità di riportarsi allo stato di equilibrio.

Al contrario in stati patologici si osserva un comportamento molto regola-re, o addirittura costante, delle funzioni siologiche, ed una maggiore variabi-lità dei sistemi biologici corrisponde un comportamento sano dell'organismo con una maggiore essibilità funzionale.

La sda della teoria della complessità è di trovare un riferimento teorico per spiegare l'origine di questi fenomeni. Al centro del lavoro ci sarà lo

4In alcuni ambiti delle scienze umane viene usata spesso l'espressione che i sistemi

(14)

sviluppo di teorie e metodi per lo studio di segnali nel tempo dell'EEG ricercando le caratteristiche di complessità nel sistema biologico cervello. A tal ne, l'attenzione sarà indirizzata a quei comportamenti utili per rivelare gli indici di complessità di questi segnali tra i quali troviamo: l'invarianza di scala, le correlazioni a lungo raggio, l'andamento a legge a potenza della distribuzione temporale e altre relazioni ani.

Inoltre si esploreranno le modalità di risposta del cervello (considerato come sistema complesso) a stimoli esterni di varia natura per poter inizia-re ad aveinizia-re un'idea di come possano interagiinizia-re e comunicainizia-re più sistemi complessi.

Invarianza di scala nei sistemi biologici

La constatazione che i sistemi biologici siano composti da una grande va-rietà di componenti e che essi vivano in ambienti non all'equilibrio porta a raorzare l'idea che si possano considerare come sistemi complessi, in cui il comportamento dell'intero il sistema non può essere predetto da quello delle sue componenti elementari.

La biologia ha sviluppato, attraverso un approccio riduzionista, la cono-scenza del comportamento delle singole componenti (come un singolo neu-rone) mentre manca di un modello teorico robusto che descriva le proprietà emergenti dei sistemi biologici come un tutto.

Le proprietà di un sistema ad una certa scala temporale o spaziale sono correlate alle proprietà a dierenti scale, hanno cioé una natura multiscala; questo signica che non esiste nessuna scala in particolare oltre la quale il sistema può essere diviso in sottosistemi indipendenti. A questa descrizione corrisponde una descrizione matematica della condizione di multiscala, per cui i parametri caraterizzanti il sistema, dipendono da variabili indipendenti attraverso leggi a potenza, denite da uno specico esponente di scala.

Se la stessa legge a potenza si estende su tutti i possibili valori della variabile indipendente, allora si dice che il sistema possiede un'invarianza di scala.

Questa proprietà è il segno caratteristico dei sistemi frattali.

In tali sistemi, la funzione di autocorrelazione (che indica quanto un si-stema dipende dalla sua storia) è denita da un lento decadimento a potenza. Per cui i sistemi con invarianza di scala sono caratterizzati da correlazioni

(15)

che decadono secondo una legge a potenza, e vengono comunemente dette correlazioni a lungo raggio (LRC).

Un ampio numero di sistemi biologici mostra comportamenti di invarian-za di scala di uno o più parametri di controllo (sequenze dna, attività degli spikes dei singoli neuroni, dinamiche del battito cardiaco, attività eeg, etc) oppure dell'ambiente in cui vivono i sistemi biologici (l'andamento tempo-rale della variabilità meteoroligica, la propagazione degli incendi boschivi, l'andamento temporale delle magnitudini in un terremoto, etc). Perciò l'in-varianza di scala è presente sia nella struttura del sistema biologico, sia nei meccanismi che generano la struttura.

Questo suggerisce l'esistenza di un fondo, spesso considerato casuale, che mostra invece correlazioni molto forti e che induce ad ammettere l'esistenza di strutture sorprendentemente correlate ignorate no ad ora.

La questione centrale è quindi quella di trovare il ruolo che queste corre-lazioni a lungo raggio hanno nei sistemi biologici, e che tipo di informazioni danno queste strutture, per poter compensare la mancanza di una interpre-tazione robusta del ruolo che esse rivestono, e fornire, così, una teoria che possa descrivere e predire tali fenomeni.

Scopo della Tesi

L'obiettivo della tesi è quello di comprendere meglio le proprietà ed il ruolo di queste strutture di fondo che provocano la dinamica dei segnali elettroen-cefalograci (indicativi delle attività neuronali della corteccia cerebrale).

L'analisi è stata fatta prendendo in esame alcuni dei metodi che sembrano permettere un'esplorazione quantitativa dell'invarianza di scala, (la detrend-uctuation analysis) mostrandone le potenzialità e delineandone i limiti.

Inoltre allo scopo di tracciare un'associazione tra il comportamento del se-gnale EEG ed una interpretazione scientica dei processi sottostanti, è stato esplorato un nascente modello teorico per la dinamica dei segnali che si basa

(16)

sulla teoria dei processi di rinnovo non-poissoniani in dominio non-ergodico.

Il tutto al ne di denire meglio il ruolo funzionale di eventi critici di fondo che rendono questi segnali complessi.

Verranno di seguito arontati gli argomenti necessari alla comprensione del concetto di invarianza di scala e andamento a potenza, per poi arontare l'e-splorazione dell'EEG tramite questi concetti(dfa). In un secondo momento sarà introdotta un modello teorico, con la relativa implementazione speri-mentale, per la descrizione delle uttuazioni EEG, attraverso il paradigma di un moto browniano (espresso dall'equazione di Langevin) sottoposto ad una regola di subordinazione nei tempi.

(17)

Capitolo 2

Correlazioni long-range e DFA

2.1 Processi frattali

In teoria della probabilità un processo stocastico è una generalizzazione del-l'idea di variabile casuale, e può euristicamente essere interpretato come una variabile casuale che prenda valori in spazi più generali dei numeri reali (come ad esempio, Rn, o spazi funzionali, o successioni di numeri reali). Pertanto, è in genere possibile identicare un processo stocastico come una famiglia ad un parametro di variabili casuali reali.

Possiamo introdurre un processo stocastico come la collezione delle variabili casuali {Xt; t ∈ R}, dove per ogni valore della variabile tempo t, X(t) è semplicemente la variabile casuale (reale) che esprime la legge probabilistica del punto considerato al tempo t.

I processi stocastici si distinguono in markoviani e non markoviani a seconda che la legge di probabilità che determina il passaggio da uno stato all'altro (probabilità di transizione) dipenda unicamente dallo stato immediatamente precedente o anche dagli altri stati. Un processo stocastico markoviano è un processo stocastico nel quale la probabilità di transizione che determina il passaggio ad uno stato di sistema dipende unicamente dallo stato di siste-ma immediatamente precedente e non dal come si è giunti a tale stato (in quest'ultima ipotesi si parla di processo non markoviano).

Un tipo di equazione usata comunemente per descrivere processi presenti nel mondo sico è un'equazione dierenziale ordinaria del prim'ordine, del

(18)

tipo:

dX(t)

dt = A(X(t), t) (2.1)

dove A è una qualche funzione continua. Posto, per semplicità, che l'evolu-zione temporale (il tasso di cambiamento) della quantità X è una funl'evolu-zione sia di X sia di t. L'equazione (2.1) può anche essere espressa come una for-mula di aggiornamento. In questo formalismo equivalente, invece di denire dX/dt, il tasso di variazione di X rispetto al tempo, si scrive:

X(t + dt) = X(t) + A(X(t), t)dt (2.2) che essenzialmente deriva dal riarrangiamento della denizione newtoniana di derivata (come limite del rapporto incrementale).

Molti processi sici vengono descritti da questo tipo di equazione, tut-tavia altri processi possono presentare dei fattori casuali che quindi devono essere inclusi come componente stocastica nell'equazione.

Le equazioni dierenziali stocastiche hanno la forma generale: dX(t) dt = A(X(t), t) | {z } drif t + D · ξ(t))| {z } dif f usion (2.3)

dove ξ è la componente casuale Questa equazione, che sarà arontata più approfonditamente in seguito, è il tipo di equazione che descrive un processo continuo, stocastico e senza memoria. Tale processo è detto processo con-tinuo di Markov ed è un sottoinsieme di processi stocastici generali tra cui sono inclusi anche i processi cosiddetti frattali, auto-similari, o long-range dependent tra gli altri. Questi ultimi, come il nome suggerisce, hanno una memoria molto lunga, e la proprietà di Markov perde la sua proprietà per cui lo stato successivo dipende solo dallo stato precedente (short-range de-pendent). In questi lo stato successivo può dipendere dall'intera storia del processo, da cui la descrizione come dipendenza a lungo-raggio.

Per arontare le proprietà statistiche di questo tipo di serie temporali, si introduce prima il signicato di frattalità e autosimilarità:

Frattali e Auto-similarità

Intuitivamente, un punto è descritto come un oggetto di dimensione nulla; una linea, dimensione uno; una supercie, dimensione due; etc. Questa

(19)

caratterizzazione si riferisce a quella che formalmente si chiama dimensione topologica descrivibile come il numero di direzioni indipendenti accessibili ad un punto che si muove sull'oggetto.

Per cui la dimensione topologica è un numero intero non-negativo inferiore o uguale alla dimensione dello spazio in cui l'oggetto si trova. Però tale di-mensione non descrive completamente le caratteristiche geometriche di un generico oggetto, da qui la necessità di introdurre un indice capace di distin-guere oggetti con la stessa dimensione topologica. Gli oggetti in questione sono quelli che vengono detti frattali.

Presa una linea-spezzata formata da N segmenti di lunghezza r ciascuno, la lunghezza totale della curva sarà approssimativamente N × r. Aumentando N e diminuendo r, questa approssimazione converge alla reale lunghezza della curva. Mentre per gli oggetti 'tradizionali' questo limite converge per i frattali il limite invece diverge, seguendo però (almeno asintoticamente) una legge a potenza1. Perciò se riportiamo r ad una potenza l'approssimazione precedente può tornare a convergere. Chiaramente allora esiste un valore critico D che è il più piccolo esponente per cui il prodotto converge:

D = inf{d : lim r→0N r

desiste } (2.4)

dove D è detta dimensione di Hausdor. Tale denizione è in reltà valida solo per una classe di frattali che son però quelli che interessano la trattazione degli argomenti proposti. Negli oggetti frattali tale dimensione è maggiore della dimensione topologica.

Il segno caratteristico dei processi frattali è l'autosimilarità. Un oggetto auto-similare appare lo stesso a diverse scale2. Intuitivamente questo vuol dire che una parte dell'oggetto è la copia più piccola dell'intero oggetto. Però i processi del mondo reale e quelli casuali ovviamente non sono esattamente autosimilari. Essi sono, tuttavia, statisticamente autosimilari. Invece di essere rigorosamente gli stessi a dierenti scale, lo sono le loro proprietà statistiche. Inoltre per i processi reali l'invarianza di scala sarà limitata; sopra e sotto dei valori limite la loro invarianza di scala sarà interrotta. Rigorosamente, l'autosimilarità implica che l'invarianza di scala sia

isotro-1nel senso che il numero minimo di cubetti di lato innitesimo con cui ricoprire l'insieme

di punti racchiusi in un volume pluridimensionale va come N(ε) ∼ 1 εd

(20)

pica (indipendente dalla direzione), mentre per una serie temporale c'è una chiara distinzione tra il tempo e la variabile dipendente. In questo caso si parla di auto-anità, ma allo scopo di questa tesi, questi due termini verranno considerati come sinonimi.

Inoltre le serie temporali sono troncate (nite), per cui le variabili del pro-cesso possono prendere valori solo entro uno massimo ed uno minimo. Men-tre i frattali sono inniti. Per rimediare, la serie temporale viene integrata nel tempo (con somma cumulativa per il caso discreto). Questo elude il problema del troncamento ma introduce due altri eetti secondari. L'inte-grazione tenderà a rendere le serie più smooth (agendo come ltro passa basso, tagliando le variazioni più veloci), e degrada, di conseguenza, l'ef-fetto di qualsiasi rumore sperimentale nel sistema. Sebbene questo sia un benecio, l'integrazione introduce anche un eetto indesiderato che rende, probabilmente, le serie non-stazionarie.

Un' espressione esplicita di auto-similarità per una serie y(t) è: y(t) ∼= cβy

t c



(2.5) dove ∼=signica che le proprietà statistiche di ambo i membri dell'equazione, sono identiche. In altri termini, quando il tempo t è scalato di un fattore c, allora l'ampiezza della serie temporale è scalata di cβ.

Perciò l'invarianza di scala è una forma esatta di auto-similarità dove in un qualsiasi ingrandimento c'è un piccolo pezzo dell' oggetto che è simile al tutto.

Invarianza di scala e legge a potenza

Si passa ora ad esplorare la forma della serie temporali allorché si cambia la scala del sistema: la serie viene divisa in sottosequenze di s passi tem-porali, ed ogni sottosequenza viene sostituita dalla media sugli s-valori3. Si guarda così ad ingrandimenti s volte maggiori ma col peggioramento della risoluzione.

Il termine invarianza di scala è riferito al comportamento di una variabile che descrive il sistema rispetto al cambiamento di scala. Questa variabile è chiamata parametro di controllo, ed è una funzione di qualche proprietà statistica del sistema.

3si riduce cioé la risoluzione (la frequenza di campionamento della serie) di un fattore

(21)

Indico tale parametro con φ(t), ed un cambiamento di scala del sistema corrisponde alla trasformazione:

φ(t) = λs· φs(t0) (2.6)

con t0 = t/s e φ

s(t/s) è la φ(t) con una riduzione della risoluzione di un fattore s. Con λs= sa (legge a potenza).

Una legge a potenza è una relazione, infatti, che esibisce la proprietà dell' invarianza di scala.

Nella relazione del tipo f(x) = a · xk riscalando l'argomento x di un

fattore costante (y = c · x) si causa solo un riscalamento proporzionale alla funzione stessa, cioè:

f (y) = f (cx) = a(cx)k = ck· axk= ckf (x) ∝ f (x)

ovvero una funzione con la stessa legge a potenza, che può essere ben rappresentata attraverso un graco bilogaritmico

log(f (x)) = k · log(x) + log(a)

Per cui, tornando alla φ(t) si ha: φ(t) ∝ ta

Per questo motivo le leggi a potenza sono così importanti: un parametro di controllo che esibisce una legge a potenza è invariante per cambiamento di scala, ed è caratterizzato dell'esponente di scala a.

La ricerca di sistemi scale-invariant è perciò analogo alla ricerca dei para-metri di controllo caratterizzati da leggi a potenza.. In altre parole, il trovare un parametro di controllo che mostri un andamento a legge a potenza su un ampio insieme di valori, è il segno che siamo in presenza di un sistema con correlazioni a lungo raggio ed organizzazione free-scale.

Per questo motivo si è così interessati alle leggi a potenza nello studio dei sistemi biologici.

2.2 Statistica delle serie temporali frattali

Saranno qui presentate le principali proprietà statistiche delle serie temporali caratterizzate da correlazioni a lungo raggio.

(22)

Innanzi tutto deniamo brevemente il concetto di stazionarietà e di pro-cesso ergodico: se ogni elemento dell'insieme ξi esibisce lo stesso comporta-mento statistico dell'intero insieme {ξi}∞i=1 allora il processo è ergodico. In altre parole, la media temporale (< x(t) >) è identica alla media sull'insieme (Eξ[x(t)])4.

g. 2.1: esempio di processo ergodico

2.2.1 Funzione di Autocorrelazione

Presa una serie temporale x(t), ed assumendo essa sia a media nulla (hx(t)i = 0)5. La funzione di autocorrelazione è denita come:

4si deniscono per il momento n-esimo della distribuzione:

< Xn> = lim T →∞ 1 2T Z T −T xn(t)dt media temporale Eξ[Xn(t)] = Z ∞ −∞ xn(t) · fx(t)dx media sull'ensemble

per un processo ergodico, il momento n-esimo Eξ[Xn(t)]è indipendente dal tempo e si

può scrivere:

Xn= E[X. n

] ≡< Xn>

Un processo ergodico deve essere stazionario, ma un processo stazionario può non essere ergodico.

5non si perde nessuna generalità in quanto si può sempre usare la variabile x0

(t) = x(t) − hx(t)i

(23)

Cx(t1, t2) =

hx(t1)x(t2)i

V ar(x) (2.7)

Assumendo il segnale stazionario, Cx(t1, t2) = Cx(|t1 − t2|), l' espressione precedente diventa:

Cx(τ ) =

hx(t)x(t − τ )i V ar(x)

In questo senso, la funzione di autocorrelazione6 è una misura della me-moria della serie temporale, ed indica quanto il segnale x(t) dipende dal suo valore passato, τ passi prima. Questa memoria può essere quanticata attraverso il tempo di correlazione ,Tc, che rappresenta la scala caratteristica del sistema:

Tc= Z ∞

0

Cx(t)dt

Se questo tempo è nito, il sistema perde la sua memoria per tempi t  Tc, poiché l'autocorrelazione decade a zero.

A partire dal concetto di correlazione si possono, in primo luogo, dare delle denizioni sulla forza della memoria dei segnali e che può suggerire certi comportamenti sottostanti:

Uncorrelations. Per il rumore bianco7 ogni valore ad un istante è comple-tamente scorrelato con qualsiasi valore precedente, e l'auto-correlazione è

Cx(t) = 0, ∀t > 0

e quindi risulta Tc = 0. Il rumore bianco (white noise) è un segnale ideale che rappresenta bene molti processi sici e naturali (rumori de dispositivi elettronici, fruscio altoparlanti, pioggia battente e tanti altri esempi), ed è un utile metodo per incorporare uttuazioni casuali nelle equazioni che descrivono un processo, come verrà fatto più avanti. Short-Range Correlations. I processi con dipendenza a corto raggio,

so-no serie temporali che hanso-no la funzione di autocorrelazione che decade

6due importanti proprietà sono che l'autocorrelazione ha il suo valore massimo quando

il ritardo (τ) è zero, e per valori reali la funzione è dispari e si usa quindi rappresentarla solo per ritardi positivi includendo un fattore due se si vuole utilizzare l'area totale

7caso ideali in cui i valori della serie son distribuiti secondo una statistica gaussiana,

tale che il processo w(t) abbia media nulla (µw= E[w(t)] = 0) e correlazione Rww(t1, t2) =

(24)

esponenzialmente, per cui la misura della memoria è data dal tempo di correlazione:

Cx(t) = Ae−t/τ ⇒ Tc= τ

Molti fenomeni naturali hanno questa caratterizzazione in scala. I processi di Markov hanno questo tipo di dipendenza.

Long-Range Correlations. In questo caso, il sistema non ha una scala caratteristica in quanto le correlazioni si estendono a tutte le scale, in quanto la funzione di auto-correlazione è invariante di scala rispetto al tempo8; il tutto si denisce matematicamente:

Cx(t) ∝ t−β per t → ∞ e con 0 < β < 1

allora Tc diverge. Questo è il caso in cui rientrano i processi frattali. Nel caso di β > 1, il tempo di correlazione Tc è nito, ed il sistema riacquista una scala caratteristica.

La stima dell'esponente critico β attraverso la pendenza in scala bilogarit-mica della funzione di autocorrelazione, non è un metodo molto eciente in quanto il rumore e i trends rendono facilmente distorte le stime.

Un modo sicuramente più eciente è la stima dello spettro di potenza.

2.2.2 Power Spectrum

Lo spettro di potenza S(f) è il modulo quadro dello spettro di frequenza, denito come: S(f )=. F{x(t)} 2 = Z ∞ −∞ x(t)e−2πf ·idt 2 (2.8) Per denizione, lo spettro di potenza è la misura reale dell'energia spettrale (cioé l'energia per unità di intervallo frequenziale)9.

Lo spettro di potenza di un processo stazionario a media nulla, è legato alla funzione di autocorrelazione tramite la trasformata di Fourier:

S(f ) = F{Cx(t)} =

Z ∞

−∞

Cx(t)e−2πf ·idt

Se il tempo di correlazione Tcdel processo x(t) è nita, la potenza spettrale S(f ) tende ad un valore nito per f → 0.

8per quanto tempo si aspetti, le correlazioni saranno della stessa forma (anche se non

la stessa ampiezza)

(25)

Tuttavia se la funzione de autocorrelazione decade con legge a potenza Cx(t) ∝ 1/tβ per 0 < β < 1, la potenza spettrale diverge per f → 0:

S(f ) ∝ f1γ con γ = 1 − β (2.9)

Se le correlazioni sono più forti, nel regime non-ergodico10, la potenza spet-trale mantiene il comportamento della legge a potenza anche per γ > 1. Lo spettro di potenza da, così, la stima naturale dello scaling del regime non stazionario.

• Per processi scorrelati (white-noise) il power spectrum tramite la tra-sformata di Fourier dell'autocorrelazione è

S(f ) = F{Cx} = Z ∞

δD(t)e−i2πf tdt = 1

Il rumore bianco contiene la stessa quantità di energia ad ogni frequen-za. Cioé lo spettro di potenza del rumore bianco è costante a tutte le frequenze.

• Per le serie temporali short-range dependent11 si ha l'unico caso in cui è possibile stimare la memoria del processo e si ha che Cx(t) = Ae−t/τ ∀t ≥ 0per cui S(f ) = F{Cx(t)} = A · 2/τ 4π2f2+ 1/τ2 ∝ 1 f2 (2.10) In un graco log − log, dopo una prima regione piatta (white-noise region) si ha una pendenza diagonale corrispondente alla regione del-l'inverso del quadrato della frequenza.

• Per i processi frattali il power spectrum ha una legge a potenza della forma:

S(f ) ∝ 1

| f |γ (2.11)

Strettamente parlando, la potenza spettrale di questa forma non esiste, poiche per tutti i γ ≥ 1, c'è una divergenza per f = 0: limf →0|f |1γ = 10 Un processo x(t) è non-ergodico se è così fortemente dipendente che non soddisfa

la legge dei grandi numeri; mentre risulta stazionario se i momenti statistici del processo stocastico non dipendono dal tempo (tipicamente, la media e la varianza)

(26)

∞. Questo è generalmente attribuito alla non-stazionarietà del pro-cesso, quindi lo spettro di potenza non può essere denito; tutta-via l'equazione (2.11) può essere vista come una potenza spettrale troncata.

Un altro problema si incontra anche per γ < 1, dove il power spectrum, per f → ∞, decade troppo lentamente così che la potenza totale diven-ta innidiven-ta; pur avendo una denizione matematica rigorosa presendiven-ta un problema dal punto di vista sico.

In generale, i processi 1/f sono segnali con uno spettro in frequenza ta-le che la potenza spettrata-le è proporzionata-le al reciproco della frequenza. Tipicamente si indicano i tre processi con S(f) ∝ 1/fγ:

(0) White-noise ha γ = 0, (1) Pink-noise ha γ = 1, (2) Brown-noise ha γ = 2

(3) In più, molti sistemi in natura mostrano una potenza spettrale con scaling γ ∼ 1 tra i due regimi, rientrando tra quei processi che vengono detti long-range dependent.

Bisogna quindi descrivere le proprietà statistiche delle serie temporali con correlazioni a lungo raggio, ed introdurre i metodi con cui analizzarli.

Lo studio per quanticare le dipendenze a lungo range nelle serie tempo-rali che verrà qui presentato, e che è stato oggetto di studi e sperimentazioni negli ultimi anni, è quello della Detrended uctuations analysis (o dfa) che si aanca al metodo tradizionale della PSA (power spectrum analysis). L'utilizzo della DFA consta principalmente nello studio dell'evoluzione nel tempo della deviazione standard della serie temporale integrata.

2.2.3 Analisi Diusiva

Prima di addentrarci nella descrizione del metodo della DFA, accenniamo al concetto dell'analisi della varianza che sta alla base del principio di analisi delle uttuazioni.

Un modo molto utile ai ni della ricerca del comportamento di scaling di un segnale x(t) è lo studio del processo diusivo corrispondente,y(t), denito

(27)

come ( ˙y = x):

y(t) = y(0) + Z t

0

x(t0) dt0 (2.12)

Si è quindi interessati alla diusione dei cammini generati da x(t) (in termini di un modello random walk le somme y(t) possono essere viste come il prolo del cammino generato da x(t)).

Ricavando le uttuazioni quadratiche medie si ha: hy2(t)i = hy2(0)i + 2hx2(t)i

Z t 0 dτ1 Z τ1 0 Cx(τ2) dτ2 (2.13) (I) Per tempi grandi t  Tc, dove Tc è il tempo di correlazione (TC = R∞

0 Cx(t)dt), si ha la diusione standard con:

hy2(t)i = hy2(0)i + 2Dt dove D = hx2i · Tc (2.14) in cui le uttuazioni crescono linearmente col tempo (come il modello classico di random walk).

(II) Se il tempo di correlazione diverge, si è nel caso visto del decadimento asintotico della funzione di autocorrelazione (Cx(t) ∝ t−β con 0 < β < 1), in questo caso le uttuazioni per tempi grandi (t → ∞) sono:

hy2(t)i ∝ t(2−β) (2.15)

Questo è il caso della diusione anomala in cui correlazioni long-range in x(t) causano nelle uttuazioni quadratiche medie del cammino y(t) una crescita temporale più che lineare.

2.3 Auto-Similarità ed Analisi delle Fluttuazioni

Si è già accennato a come il concetto di struttura frattale, che manca di una lunghezza di scala caratteristica, può essere estesa all'analisi di processi temporali complessi.

Tuttavia, per scoprire e quanticare l'autosimilarità, la serie temporale, a dierenza delle curve geometriche, coinvolge due dierenti variabile siche (per esempio il tempo e l'ampiezza di un segnale). Mentre per le curve o gure frattali si prendono gli stessi ingrandimenti e si confrontano le pro-prietà statistiche degli oggetti riscalati rispetto a quelli originali, nelle serie

(28)

temporali bisogna prendere due fattori di ingrandimento,uno per ogni asse, anché si possa fare un confronto con la serie originale, e questo perché ognuno dei due assi rappresenta una diversa variabile sica.

In termini matematici, come si è gia visto, un processo (o serie temporale) è auto-similare se: y(t) ∼= cδα· y t c  (2.16) al ne di misurare il parametro δα di invarianza di scala.

In altre parole, un processo auto-similare,y(t) con parametro δαha la stes-sa distribuzione di probabilità del processo opportunamente riscalato,y(t/c): che è la serie temporale riscalata sulle ascisse di un fattore c (t → t/c) e sull'asse delle ordinate di un fattore cδα (y → cδαy).

In pratica, però, non è possibile determinare se due processi sono stati-sticamente identici, in quanto si dovrebbero conoscere e confrontare tutti i momenti delle funzioni di distribuzione. Perciò si usa approssimare questa uguaglianza con un criterio più debole che esamina solo le medie e le varian-ze (il momento primo e secondo) delle funzioni di distribuzione per ambo i membri dell' equazione (2.16).

Se applichiamo una riscalatura attraverso dei fattori di ingrandimento opportuni (I) per entrambi gli assi coordinati si avrebbe che (vedi gura (2.2)):

δα=

ln Iy

ln Ix

dove però non si conosce in anticipo il valore dell'esponente δα.

Per poterlo ricavare è necessario studiare la serie temporale su diverse nestre di osservazione ed adottare il criterio di auto-similarità sopra denita.

Bisogna quindi trovare i valori di ingrandimento corretti in modo che si possa riscalare la nestra 1 per renderla somigliante all nestra 2.

Per l'asse temporale (delle ascisse) basta sapere il rapporto tra le due grandezze delle nestre, per cui:

Ix= n2/n1

Per il fattore di ingrandimento nella direzione delle y, Iy, si ha bisogno di

deter-minare le scale caratteristiche delle due nestre. Questo si può fare esaminando le distribuzioni di probabilità (l'istogramma delle ampiezze) della variabile y per queste due nestre di osservazione.

(29)

che possono essere stimate attraverso le deviazioni standard dei due istogrammi; così da avere

Iy= σ2/σ1

.

Inne si può così determinare l'esponente di autosimilarità come: δα=

ln Iy

ln Ix

= ln σ2 − ln σ1 ln n2 − ln n1

Per le serie temporali del mondo reale, si eettuano i calcoli di cui sopra usando le seguenti procedure:

(1) Si divide la serie temporale in sottoinsiemi di nestre indipendenti della stessa larghezza, e si fanno le medie di tutti i singoli valori di σ ottenuti da questi sottoinsiemi.

(2) Si ripetono queste operazioni non solo per due larghezze delle nestre, ma per molte. L'esponente δαviene poi stimato attraverso un t log − log nello spazio

(n, σ).

Per un processo auto-similare con δα > 0, le uttuazioni crescono con legge a potenza all' aumentare della larghezza delle nestre. Perciò, le ut-tuazioni su larghe nestre di osservazione sono esponenzialmente più grandi delle uttuazioni a nestre più piccole. Di conseguenza le serie temporali sono illimitate. Tuttavia, la maggior parte delle serie temporali siologiche sono invece limitate, ed esse non possono avere ampiezze arbitrariamente grandi12. Questo introduce delle complicazioni per l'analisi in questione.

Un espediente che sici e matematici hanno sviluppato, è quello di stu-diare le proprietà frattali della serie temporale integrata , piuttosto che la serie originale13. In sintesi, il passo cruciale nell'analisi frattale delle se-rie temporali, è quello di mappare il processo originale limitato nel segnale integrato (processo diusivo).

12e quindi gli ingrandimenti I

y saranno di riscalamento unitario per cui secondo la

denizione δα sarebbe nullo

13Questo espediente nasce dal confronto delle serie temporali con la dinamica del moto

browniano. In questo caso la forza random (il rumore-forza stocastica) agente sulla parti-cella è limitata, similmente alle serie temporali biologiche. Tuttavia, la traiettoria (l'inte-grazione di tutte le forze precedenti) della particella browniana non è limitata ed esibisce proprietà frattali che possono essere determinate da un parametro di auto-similarità. In denitiva si analizza lo scaling frattale del processo diusivo generato dalla serie temporale originaria.

(30)

g. 2.2: illustrazione del concetto di autosimilarità per un processo di random walk. (con ssi indica la deviazione standard√σ2) (gura da [3])

(31)

Un altro accorgimento nello studio delle uttuazioni del processo (cioé della varianza della serie integrata) è che molto spesso i processi biologici sono altamente non-stazionari ed, in più, la procedura di integrazione ancor di più ingrandisce la non-stazionarietà dei dati originari.

Per ovviare a questa complicazione, si introduce una versione modicata dell'analisi della varianza14 che tiene conto dei trend (le tendenze) locali nelle serie temporali, causa anche di auto-similarità apparenti. A questo scopo, invece di considerare la somma degli scarti attorno alla media, si sommano gli scarti rispetto ad un trend stimato.

A questo punto sarà introdotto il metodo della dfa che, in alternativa ai metodi standard che utilizzano l'analisi della varianza, permette di rivela-re la proprietà di auto-similarità intrinseche anche in serie non-stazionarie, evitando, in più, la presenza di autosimilarità apparenti ( artefatti di trends estrinseci).

14brevemente si illustra l'analisi standard delle proprietà di scaling della varianza: Data

una serie storica stazionaria di variabili stocastiche casuali (che assumiamo con media nulla e varianza unitaria) la varianza della serie integrata Xn =Pni=1xiè (per n molto

grande) E[Xn2] = E  Xn i=1 xi 2 ≈ n ·E[x21] + 2 n−1 X k=1 E[x1, x1+k] 

Dato che E[x2

i] è indipendente da n, allora è il secondo termine (cioé la funzione di

autocorrelazione) che determina il comportamento della varianza rispetto a n. A questo punto si distinguono due casi:

(1) Correlazioni a corto range, la varianza della serie integrata dipende da n in modo lineare;

(2) correlazioni a lungo range, la varianza dipende da n in modo più che lineare nel senso che E[X2

n] ∼ nη+1 con 0 < η < 1 e ponendo η + 1 ≡ α.

Studiare la dipendenza da n della varianza della serie temporale, equivale a stimare le proprietà di scaling. Ora, dall'osservare la funzione-varianza in una nestra larga N, ci si restringe ad osservazioni in una nestra larga N/λ, da cui λ = N/n che è il numero di nestre larghe n. Se prendiamo il caso che la varianza dipenda da n con una sua potenza, ossia V ar(n) = E[X2

n] ∼ nα si può allora scrivere

V ar N λ  =V ar(N ) Nα ·  N λ α

che riporta ad un comportamento autosimilare come introdotto in (2.16), ove la funzione y(t)è la varianza.

Questo, a conti fatti, è il metodo (detto diusion analysis equivalentemente a come visto in precedenza ) con cui si indaga il comportamento dello scaling di un segnale attraverso il processo di diusione associato.

(32)

2.3.1 Il metodo della Detrended Fluctuations Analysis (dfa)

Come in molti altri contesti biologici, i segnali EEG mostrano caratteristi-che altamente non-stazionarie e non-lineari. Il metodo sico-statistico della detrended uctuations analysis è stato introdotto per analizzare questo tipo di parametri siologici. La dfa si adatta bene allo studio delle correlazioni long-range con legge a potenza che si trovano in molte serie temporali non stazionarie.

Il vantaggio di tale metodo è che esso può sistematicamente eliminare i trends di varie specie causati da vari eetti esterni e può ridurre il rumo-re causato da misurumo-re imperfette; esso consiste principalmente nello studio dell'evoluzione nel tempo della varianza della serie temporale integrata.

Si espone, di seguito, il metodo nei suoi passi essenziali:

step 1 La serie viene resa a media nulla, e poi trasformata con una somma cumulativa in un processo a banda di frequenze innita, determinando così il prolo: y(i) = i X k=1 (x(k) − hxi) , con i = 1, . . . , N

con N è la lunghezza della serie. Si studia, così, il processo diusivo associato al segnale originario.

step 2 Il Prolo y(i) viene diviso in M = int(N/n) segmenti non-sovrapposti di uguale lunghezza n. Successivamente si calcolano il trend locale per ognuno dei segmenti attraverso un t ai minimi-quadrati dei dati. E inne si determina la varianza tramite la formula che racchiude tutte queste operazioni: Fn2(ν) ≡ 1 n n X i=1  y  (ν−1)n+i  − pν(i) 2

, per ogni segmento ν = 1, ..., M

dove pν(i) è il t polinomiale15 nel segmento ν, e Fn2(ν) è il residuo, nel singolo segmento, ottenuto dalla sottrazione del trend (il t) e la serie integrata.

15il metodo nella sua implementazione standard usa il t lineare, ma ci sono versioni

(33)

step 3 Si fa, poi, la media su tutti i segmenti e integrando si ottiene la funzione di uttuazione: F (n) = 1 M n X i=1 Fn2(ν) 1/2

step 4 Al ne di determinare come F (n) dipenda dalla scala temporale n, la larghezza dei segmenti viene incrementata e la procedura viene ripetuta varie scale temporali n.

La larghezza dei segmenti di divisioni (block-size) minima e massima vine di scelta a seconda del tipo di segnale e di come è stato acquisito16 e per serie di simulazione si scelgono nmin= 4 e nmax= N/4.

Tipicamente la F (n) cresce al crescere di n, in quanto le deviazioni dai t crescono per segmenti più ampi.

Se i dati presentano correlazioni long-range con legge a potenza si ha il comportamento asintotico:

F (n) ∝ nδα (2.17)

La relazione lineare in un graco log − log indica, quindi, la presenza di scaling (auto-similarità); le uttuazioni in segmenti piccoli sono legate alle uttuazioni in segmenti più grandi tramite una legge a potenza. La pendenza della linea che lega log(F (n)) a log(n) determina l'esponente si scaling (il parametro di auto-similarità), δα, discusso in precedenza.

Comportamenti della DFA e legami con la PSA

Il valore del parametro di scaling inquadra un comportamento specico del processo sotto esame, vale per cui la pena mettere in relazione questa meto-dologia con quelle più note e quindi più intuitive della funzione di autocor-relazione e dello spettro di potenza. Vale però ricordare che queste tecniche sono esatte per serie temporali stazionarie. Sommariamente, in base al valore di δα si possono distinguere diversi andamenti:

Scorrelati. δα = 0.5

Il processo che guida la serie temporale è un rumore bianco, dove il valo-re ad un istante è completamenti scorvalo-relato a valori a tempi successivi; l'autocorrelazione è nulla ed il power spectrum costante.

16per esempio nei dati EEG fornitoci dall'istituto di siologia umana dell'università di

(34)

(a) box-size

(b) local detrending

g. 2.3: Illustrazione della procedura di detrending e tting. (a) Si determinano i segmenti equi-spaziati non sovrapposti in cui fare poi la stima ai minimi quadrati. (b) Per segmenti larghi 100 campioni, operazioni di t lineare ai minimi quadrati del prolo y(i) in ciascun segmento. Successivamente si calcolano i quadrati delle dierenze tra il prolo ed i t, per calcolare la uttuazione F (n) come nella procedura della DFA.

(35)

Correlati. 0.5 < δα< 1

[Short Range Correlations] δα→ 0.5+

Sono processi caratterizzati da correlazioni con un time-scale carat-teristico, per cui l' auto-correlazione è descritta da una funzione di tipo esponenziale (C(t) ∼ exp(−t/τ)); la pendenza iniziale di log n − log F (n)è diversa da 0.5 ma si avvicina a questo valore per nestre di larghezza maggiore, ed il tempo di memoria del processo diviene piccolo con appunto un andamento dell'autocorrelazione esponenziale. [Long Range Correlations] δα→ 1−

Questi valori indicano la presenza di processi con legge a potenza, per cui la funzione di auto-correlazione diviene C(t) ∼ t−β con 0 < β < 1.

Il legame con lo spettro di potenza è molto interessante in quanto è la relazione può essere racchiusa da un'unica legge che riassume l'andamento del power spectrum per questo intervallo di valori di δα:

S(f ) ∼ 1

fγ con 1 > γ > 0

dove se γ = 2 abbiamo forte correlazione, S(f) ∼ 1/f2, e dal lato opposto se γ = 1, si hanno correlazioni a lungo raggio, S(f) ∼ 1/f, di cui fanno parte quei processi che vengono detti 1/f-noise.

In generale sussiste, in questo intervallo di valori, la relazione δα =

1 + γ

2 se γ ∈ [0, 1] Long-range → Scale-Free. 1 < δα< 1.5

È la regione in cui cessa la trattazione esatta della funzione di autocor-relazione, ed entrano in gioco processi in cui la dinamica del sistema è free-scale. Tuttavia sia i residui della dfa sia il power spectrum mostra-no un comportamento con legge a potenza nel regime mostra-non-ergodico17, che corrisponde ad un valore dell'esponente γ maggiore di 1.

Il limite di δα= 1.5 è raggiunto per un processo Browniano (brown-noise).

Dato che le serie EEG esibiscono uno scaling temporale con legge a potenza con δα > 1, questa proprietà è cruciale per il nostro studio; in

17a questo proposito bisogna osservare che seppur la dfa mantenga lo scaling per δ α> 1,

la transizione dal regime ergodico a quello non ergodico non è ancora supportata da una robusta teoria.

(36)

quanto questi segnali sono sistemi, in cui entrano in campo processi in domini non-ergodici18.

g. 2.4: esempio di graco log − log della relazione F (n) = nδα, dove con α ≡ δ

α per due

diversi tipi di processi (gura da [3]).

Questo mostra come il metodo della detrended uctuations analysis rap-presenta un buon metodo per stimare lo scaling temporale delle serie con dinamiche frattali anche in regime non-stazionario come i segnali elettroen-cefalograci.

Accorgimenti tecnici riguardanti la DFA

La detrended uctuations analysis è essenzialmente una rappresentazione nel dominio del periodo del processo (diversamente dalle più familiari rappresen-tazioni nel tempo e nella frequenza).

La larghezza del segmento (block-size) n denisce un periodo T che dipende dalla frequenza di campionamento (Fs):

T = n

Fs con T ≡ 1/f (2.18)

f = Fs

n (2.19)

18in questo dominio, tuttavia, sia la PSA sia la DFA sono misure in teoria equivalenti

(37)

descrivendo così una scala di frequenze. Se per esempio si ha un rate di ac-quisizione di r = 250points/sec e ci interessa la scala con ln n = 3.45, stiamo osservando, grosso modo, la frequenza f = r/n = 7.94Hz. Questa osserva-zione servirà quando nell'osservaosserva-zione dei graci reali della DFA, avremo dei ginocchi che dovremo individuare per capire a cosa siano dovute su queste va-riazioni di pendenza, se a comportamenti intrinseci del processo, ad artefatti (o comunque non di interesse per l'indagine) o semplicemente alle modalità di acquisizione del segnale (come eventuali ltraggi dell' apparecchiatura in uso).

Importante è, pure, la lunghezza della serie temporale (N); difatti au-mentando la lunghezza della serie (cioé campionando per un periodo di tem-po più lungo), si tem-posizionano più punti nella parte nale del graco DFA, orendo così dei dati a frequenze più basse.

(38)
(39)

Capitolo 3

Risultati sulla DFA

3.1 Simulazioni

Al ne di comprendere quali informazioni porta l'analisi della DFA, per la quale manca ancora un quadro teorico che descriva il suo comportamento per un processo generico, si riportano di seguito le applicazioni a processi prima derivanti da simulazioni computazionali, e successivamente da serie stocastiche direttamente ottenute tramite acquisizione elettroencefalograca.

3.1.1 Serie articiali

La descrizione dei segnali articiali di base ci permetterà poi di capire qua-li tipi di informazioni si possono leggere da serie stocastiche di cui non si conoscono ancora bene i processi sottostanti che le generano.

Segnali Periodici

I segnali puramente periodici non hanno ne trends ne uttuazioni. Perciò l'applicazione della DFA a tali segnali può sembrare controversa. Seppure in contrasto con le ipotesi della denizione, è tuttavia possibile applicare il metodo anche a segnali periodici.

Osserviamo un segnale sinusoidale di cui si possono controllare bene tutti i parametri.

Sinusoidale. Prendo i parametri il rate di campionamento-Fsla frequenza-f, la fase φ e l'ampiezza-A, preso il vettore dei tempi t = (0 : N)/Fs, ottengo

(40)

la serie temporale sinusoidale

y = A · sin(2π f t + φ)

Si ottiene un graco (3.1) in cui si nota: un transiente lineare dove si trovano le nestre di dimensione minore del periodo della sinusoide, la F (n) mostra uno scaling apparente, con esponente δα ' 2, poiché per piccole scale (block-size n) la funzione sinusoidale è dominata da un termine lineare. Quando la larghezza della nestra si avvicina al periodo della sinusoide si trova la zona del ginocchio a nk = Fs· T = Fs/f. Per block-size maggiori del periodo si ha l'andamento piatto in cui il valore dell' esponente è δα ≈ 0.

g. 3.1: Andamento della DFA per un segnale sinusoidale con A = 1; freq= F = 1/T = 10Hz, Fs= 1000p/sec, si ha una prima zona (A) lineare per n < T . C'è poi il ginocchio

(nk≈ e4.65) per cui si ha T = nk/Fs≈ 10Hz, come ci si aspettava. Ed inne, nella zona

(B) si l'andamento tipico di una funzione periodica sinusoidale con δα' 0.

3.1.2 Noise 1/f

Vengono detti segnali 1/f quella classe di processi con una caratteristica scala in frequenza, dove lo spettro di potenza ha un andamento a potenza

(41)

S(f ) ∝ f−γ. La classicazione1 attraverso la densità spettrale dierenzia, al variare di γ, la pendenza della retta in un graco bi-logaritmico del power spectrum.

I segnali tipici sono descritti di seguito: White Noise

Un altro segnale tipico è il rumore bianco (w(t)), che ha uno spettro in fre-quenza piatto (γ = 0). La funzione di autocorrelazione è data da hw(t)w(t + τ )i = δ(τ ), e, quindi il power spectrum è dato da

S(f ) = Z +∞

−∞

δ(τ )e−j 2πτ fdτ = 1

g. 3.2: DFA su un segnale di rumore bianco normalizzato (a media nulla e varianza unitaria), come si vede il valore di scaling è δα≈ 0.5

Brown Noise

È il segnale generato dal moto browniano2, esso è caratterizzato da una dipendenza del power spectrum: S(f) ∼ 1/f2.

1questa classicazione viene data in termini di colore del segnale, con dierenti tipi,

caratterizzati dal valore intero di γ: white-noise (γ = 0), pink-noise (γ = 1), brown-noise (γ = 2), ed altri.

(42)

g. 3.3: Spettro del brown noise (l'integrazione del white-noise) generato tramite algoritmo. In questo caso è γ = 2

L'applicazione della detrended uctuation analysis a questo genere di serie temporali, da, come si è visto, uno scaling di δα = 1.5, in accordo con la relazione chela lega con la legge a potenza della potenza spettrale (δα = (1 + γ)/2) = 3/2)

g. 3.4: DFA su un segnale generato da moto browniano, ha il parametro di scaling δα= 1.5

(43)

Pink Noise

Questo è il rumore 1/f presente in molti sistemi sici, biologici, economici ed in molti altri campi. È caratterizzato dalla linearità log − log della potenza spettrale.

(a) spettro di potenza γ = 1

(b) detrended uctuation analysis δα' 1

g. 3.5: Graci del power spectrum (a) e della DFA (b). Si vede che sussiste la relazione δα=1+γ2 = 1

(44)

Noise con trend sinusoidali

Mentre l'ecacia della DFA, per come è pensata, elimina completamente i trend lineari, con quelli periodici è invece dicile il riconoscimento del processo di rumore rispetto al segnale sinusoidale. I comportamenti dei va-ri noise va-rispetto a trend sinusoidali rendono vana l'applicazione diretta del metodo e forzano ad avere una particolare accortezza nell' uso della DFA in presenza di segnali derivanti da processi 1/f in cui vi è una forte componente armonica [8], che renderebbero inutilizzabile il metodo.

In gura (3.1.2) è dato un esempio.

g. 3.6: esempio di due segnali con due scaling diversi, in presenza di un trend sinusoidali (gura presente in [3]).

(45)

3.1.3 Processi free-scale

Di seguito, verrà fatta una panoramica sui processi che presentano la carat-teristica di auto-similarità, e studiare quelle serie che hanno una spettro di potenza con legge a potenza della forma S(f) ∝ 1

|f |γ.

Come prima cosa si accenna a quei processi che presentano esattamente l'invarianza di scala descritta da un parametro esatto di auto-similarità. Fractional Noises

Il modello per eccellenza [Mandelbrot and Van Ness,1968] che descrive pro-cessi long-range dependent è il Fractional Brownian Motion. Esso è un processo BH(t)non-stazionario, descritto dalla funzione di correlazione:

C(t1, t2) = 1 2  |t1|2H+ |t1|2H − |t1− t2|2H 

in cui H è il parametro di autosimilarità, legato al power spectrum tramite γ = 2H + 1.

Mentre per molti processi con correlazioni a lungo raggio l'invarianza di scala è soddisfatta asintoticamente, il moto Browniano frazionario ha la caratteristica di essere esattamente invariante per scala (B(at) ∼= aHBH(t)).

Un altro modello per serie temporali con correlazioni long-range è il fractional Gaussian noise che è l'incremento del moto Browniano frazionario:

GH(t) = BH(t + 1) − BH(t) ed è descritta dalla funzione di autocorrelazione:

C(t) = 1 2 

|t + 1|2H+ |t − 1|2H− 2|t|2H

dove il ritardo è t. Perciò il rumore Gaussiano frazionario è stazionario. L'esponente H è legato al power spectrum tramite γ = 2H − 1.

Nelle gure (3.7) è ragurata l'applicazione della DFA a questi due tipi di processi long-range dependent ricordando la relazione δα= (1 + γ)/2.

In denitiva, il moto Browniano frazionario è il processo diusivo asso-ciato al rumore Gaussiano frazionario3.

3si può applicare lo studio dell'analisi diusiva da cui si ricaverebbero le relazioni tra

il parametro H (di Hurst) e i parametri dell' autocorrelazione β, dello spettro di potenza γe della DFA δα per processi long-range correlated.

(46)

(a) Fractional Brownian motion (H = 0.75)

(b) Fractional Gaussian Noise

g. 3.7: Analisi della DFA. (a) Per il fBm si nota che δα = H + 1 = 1.75(b) Per il fGn

(GH = dif f (BH)) si ha δα = H = 0.75; entrambi i valori sono compatibili con quelli

(47)

Processi con diusione anomala - intermittenza

Si genera ora una mappa discreta (la Mappa di Manneville) denita come una mappa ad intermittenza che modella un processo diusivo anomalo.

Questa mappa fu introdotta da Manneville nel 1980 come esempio di un sistema dinamico discreto dissipativo con intermittenza, cioé con un'alter-nanza tra lunghe fasi regolari (laminari) e brevi fasi irregolari (turbolenti).

La mappa è denita nell'intervallo [0 1] dall'equazione:

f (x) = x + xz (mod1) z > 1 (3.1) al variare di z vi sono tre tipi di dinamiche diverse:

z ∈ [1, 3/2) dinamica normale (uttuazioni gaussiane) z ∈ [3/2, 2) dinamica transiente anomala

z ≥ 2 dinamica anomala (uttuazioni di Lévy)

g. 3.8: fenomeno dell'intermittenza nella mappa discreta di Manneville, denita come xn+1= M (xn) = xn+ xzn. Si notano le fasi laminari a lungo periodo e improvvisi bursts

caotici.

Più avanti verranno arontate in dettaglio le proprietà di questa mappa e della sua distribuzione dei tempi. Per ora basti sapere che per questa funzione si denisce un parametro µ=. z−1z che caratterizza il sistema.

Una stima dello scaling temporale nel regime non ergodico (valori di 1 < µ < 2) può essere fatta attraverso la DFA tenendo presente la relazione4: δα = 4−µ2 .

Se prendiamo z < 2 ritroviamo la DFA per segnali gaussiani con δα' 0.5.

(48)

(a)

(b)

g. 3.9: Graci della DFA al variare della dinamica della mappa di Manneville. Come si vede in tutte e quattro le gure i parametri stimati sono molto vicini a quelli scelti per generare le serie temporali.

(49)

(a)

(b)

g. 3.10: Graci della DFA per processi con dinamica (a) transiente, (b) ordinaria-gaussiana.

Figura

Tabella 3.2: valori di δ α al variare degli elettrodi per paziente
Tabella 6.1: valori dei parametri per il calcolo del ginocchio nella DFA per i quali si avverte l'inuenza della subordinazione nella DFA

Riferimenti

Documenti correlati

répression. Presses du CNRS. European University Institute. Available Open Access on Cadmus, European University Institute Research Repository... illicites ne se trouve

Ad esempio la qualità, tema sul quale i television studies si sono misurati sin dagli esordi, senza tuttavia arrivare ad una prospettiva condivisa 2 ; il concetto recente di

Because sorption and degradation are the two most impor- tant processes affecting the fate and behavior of pesticides in soil, therefore, sorption of Atrazine to various components

Questa via è più flessibile, (rispetto all'ereditare dalla classe Thread) in quanto consente di definire classi di thread che non siano per forza sottoclassi di Thread ma che

r più processi possono trovarsi negli stati ready e waiting. necessità di strutture dati per mantenere in memoria le informazioni su processi

 Nel processo padre la funzione fork() restituisce un valore diverso da 0; normalmente tale valore indica il pid del figlio appena generato, tranne -1, che indica un errore e

«Come già previsto per le vittime di violenza sessuale — propone Giordano — si dovreb- be estendere il gratuito patroci- nio anche alle vittime degli infortuni sul lavoro.. Che

La tecnica CT e’ usata anche nella Single Photon Emission Computed Tomography (SPECT) Questa tecnica utilizza i raggi gamma, emessi da un radioisotopo internamente al soggetto,