• Non ci sono risultati.

3.2 Le uttuazioni nell' EEG

3.2.4 Discussione

Come si è visto, l'elettroencefalogramma misura il potenziale elettrico tempo- variante sullo scalpo, tramite un insieme di elettrodi. L' EEG fornisce una misura dell'attività elettrica del cervello con un' ottima risoluzione temporale (∼ msec), sebbene con una risoluzione spaziale relativamente bassa (∼ cm). La rivelazione di correlazioni long-range richiede delle serie temporali piuttosto lunghe per avere una stima statisticamente eciente.

Lo studio sullo scaling attraverso la DFA determina l'esponente critico δα delle registrazioni EEG. Come risultato si è ottenuto che δα> 0.5, il che rivela inequivocabilmente l'esistenza di correlazioni long-range. In più queste correlazioni long-range sono molto forti (difatti hδαi ∼ 1.1\1.25), per cui ci si inserisce in un regime non-ergodico. Questi dati sono talmente correlati che non è possibile applicare ne la funzione di autocorrelazione, ne l'analisi diusiva standard. Questo suggerisce che per la maggior parte degli studi sullo scaling dell' EEG si debba impiegare la DFA e l'analisi dello spettro di potenza, in quanto sono gli unici metodi che possono trovare un valore adabile per l'esponente di scaling in questo regime.

Si è quindi constatato che le serie EEG in condizione basale (riposo) hanno un indice di scaling mediamente più basso di quello ricavato dalle registrazioni fatte mentre i pazienti osservavano dei videoclip.

La nalità di questi dati sperimentali è quella di iniziare un nuovo approccio alla variabilità9 dell' indice di scaling dell' EEG, rispetto a diverse condizioni di stimolazioni esterni.

9la variabilità in diagnostica è un indice che permette di individuare lo stato di salute

del paziente e rivelare la presenza di certe patologie. Una maggiore variabilità è spesso associata ad un migliore stato di salute.

Capitolo 4

Processi di rinnovo &

Subordinazione

Nello studio dei sistemi complessi si considerano spesso le distribuzioni di probabilità come una caratterizzazione quantitativa della complessità.

Lo studio delle dinamiche fuori dall' equilibrio e dei sistemi eterogenei ha reso progressivamente popolare in sica il concetto di sistemi complessi e l'importanza di approcci strutturali: sistemi con un grande numero di parti mutualmente interagenti, spesso aperto al loro ambiente, auto-organizzano la struttura interna e le loro dinamiche con proprietà macroscopiche (emer- genti) nuove e talvolta improvvise.

Una proprietà centrale di un sistema complesso è il possibile vericarsi di un comportamento collettivo coerente su larga scala con una struttura mol- to articolata, che viene fuori dalle interazioni non-lineari reiterate dei suoi costituenti.

La maggior parte dei sistemi complessi intorno a noi mostrano rare tran- sizioni improvvise, che avvengono su intervalli di tempo brevi rispetto al- le scale temporali caratteristiche della loro evoluzione susseguente. Questi eventi estremi (crisi) hanno un notevole importanza nei fenomeni naturali come i terremoti, eruzioni vulcaniche, uragani e tornado, come anche nel campo dell'economia dei mercati, dell' epidemiologia e tanti altri campi.

Nei sistemi che presentano dinamiche complesse, il tentativo di quanticare e classicare le caratteristiche ed i possibili dierenti regimi consiste nell'

identicazione degli eventi discreti, per poi misurarne la loro grandezza, ed inne costruire la loro distribuzione di probabilità.

L'interesse per le distribuzioni di probabilità nei sistemi complessi ha le radici nel fatto che la loro forma matematica può orire restrizioni e linee guida per identicare i meccanismi sottostanti alla loro origine e ricondurci all' origine del comportamento del sistema complesso sotto studio.1

Ricercare le origini della relazioni delle leggi a potenza, è lo sforzo prin- cipale in molti campi delle scienze moderne. Il motivo è che lo studio dei fenomeni critici nella sica statistica suggerisce che leggi a potenza aorano vicini a punti (eventi) critici o di biforcazione che separano due diversi fasi o regimi del sistema.

L'esistenza di molte scale che conducono alle proprietà geometriche com- plesse è spesso associata ai frattali. Sebbene sia vero che i punti critici e i frattali condividono le relazioni con legge a potenza, le relazioni con legge a potenza e le distribuzioni con legge a potenza non sono loa stessa cosa. La se- conda, che è l'oggetto in esame, descrive la funzione di densità di probabilità o la frequenza dell' occorrenza di oggetti o eventi.

Dall' altra parte le relazioni con legge a potenza tra due variabili (come visto nel caso della DFA) descrive un'astrazione funzionale appartenente a queste due variabili.

Ma, sia le relazioni con legge a potenza, sia le distribuzioni con legge a potenza possono derivare dall'esistenza di un evento critico.

Inne si sottolinea che quando si trattano sistemi biologici, ci si trova sempre in presenza di processi stocastici, i quali vengono usualmente ca- ratterizzati da due quantità fondamentali: la densità di probabilità (che descrive l'ampiezza delle uttuazioni) e la funzione di autocorrelazione (che indica quanto una data uttuazione inuisce su quelle successive).

4.1 Processi di rinnovo non-Poissoniani

Lo studio dei sistemi neuronali è oggi una sda per la sica statistica, in quanto l'evidenza sperimentale mostra che per trattare questi sistemi l'uso

1La sica statistica è ricca di distribuzioni di probabilità; la più popolare è la distri-

buzione di Boltzmann, che descrive la probabilità che ha la congurazione dello stato all'equilibrio termico ad una data energia.

del modello ordinario Poissoniano2 è inadeguato.

Più precisamente, le prove sperimentali mostrano3 che i singoli neuroni sono fondamentalmente processi non-Poissoniani. In letteratura viene comunque fatta l'ipotesi implicita che anche se l'attività di spiking del singolo neurone è non-Poissoniana, l'attività di un insieme di neuroni è Poissoniana. Questo presupposto può portare a concludere che il cervello umano è un sistema Poissoniano. Alcuni autori [12] hanno mostrato che questa supposizione non è esatta.

Attraverso l' analisi dell' elettroencefalogramma si arriva alla conclusione che il cervello umano è un sistema non-Poissoniano. A questo proposito val la pena sottolineare che in questo lavoro il termine processo non-Poissoniano indica una forte deviazione dal decadimento esponenziale. Questo tipo di comportamento non-Poissoniano implica l'emergere di grosse code con com- portamento a legge a potenza inversa. Per molte ragioni, che vanno dal tempo nito di osservazione all' inuenza di uttuazioni spurie casuali, nella regione a tempi lunghi queste code sono troncate.

In questo lavoro verrà visto come le funzioni cerebrali, rivelate dall' analisi dell'elettroencefalogramma (EEG), sono rappresentabili tra- mite processi di rinnovo non-Poissoniano nel dominio non-ergodico.

Verrà proposto quindi un modello sico per descrivere dinamiche delle uttuazioni EEG registrate ai singoli elettrodi.

Documenti correlati