• Non ci sono risultati.

CAPITOLO 2: IL PROBLEMA DEGLI ARTEFATTI NEL SEGNALE

2.2 ANALISI DELLE COMPONENTI INDIPENDENTI (ICA)

2.2.4 ALGORITMI PER LA STIMA DELLE COMPONENT

INDIPENDENTI

Sulla base di quanto detto precedentemente, il problema ICA si esprime come la ricerca della matrice ๐‘Šฬƒ ortogonale tale che la trasformazione

๐‘ฆ = ๐‘Šฬƒ ๐‘ฅ ฬƒ (2.12)

abbia componenti ๐‘ฆ1, ๐‘ฆ2, โ€ฆ , ๐‘ฆ๐‘› massimamente indipendenti. Una volta trovato ๐‘Šฬƒ gli algoritmi restituiscono ๐‘Š = ๐‘Šฬƒ ๐‘„.

Risolvere il problema appena espresso richiede la definizione di criteri quantitativi di indipendenza delle ๐‘ฆ๐‘–. In particolare il problema di stimare il modello ICA puรฒ essere

scomposto in due punti chiave:

๐‘ฐ๐‘ช๐‘จ = ๐’‡๐’–๐’๐’›๐’Š๐’๐’๐’† ๐’„๐’๐’”๐’•๐’ + ๐’‚๐’๐’ˆ๐’๐’“๐’Š๐’•๐’Ž๐’ ๐’…๐’Š ๐’๐’•๐’•๐’Š๐’Ž๐’Š๐’›๐’›๐’‚๐’›๐’Š๐’๐’๐’†

1) Identificazione di una determinata funzione costo ๐น(โˆ™) (o funzione obiettivo) legata alla indipendenza statistica delle ๐‘ฆ๐‘–.

2) Identificazione di un opportuno algoritmo per ottimizzare la funzione costo (per massimizzare o minimizzare, a seconda dei casi, la funzione costo).

Esistono diversi metodi per stimare le componenti indipendenti che si basano sullโ€™utilizzo di diverse funzioni costo. Tra essi si possono citare:

52

๏ƒ˜ metodi basati su misure di non gaussianitร  (la curtosi e la negentropia), detti

algoritmi FastICA;

๏ƒ˜ il principio Infomax (formalizzato in termini di rete neurale).

Di seguito si descrive brevemente il principio teorico alla base di questi due metodi, senza entrare nei dettagli degli algoritmi di ottimizzazione utilizzati.

I due principali algoritmi che permettono di eseguire il metodo ICA sono lโ€™Infomax e la FastICA.

1) Lโ€™algoritmo Infomax, รจ una formalizzazione basata su una rete neurale; si basa sul fatto che massimizzando lโ€™entropia (e quindi la quantitร  di informazione) in uscita da una rete neurale caratterizzata da neuroni non lineari si puรฒ ottenere la determinazione del modello.

Lโ€™entropia di una variabile aleatoria รจ una quantitร  statistica interpretabile come una misura dellโ€™informazione acquisita a seguito di ogni osservazione. Qualitativamente si puรฒ affermare che lโ€™entropia di una variabile รจ tanto maggiore quanto piรน essa รจ casuale o impredicibile.

Lโ€™entropia (๐‘ฏ) di una variabile aleatoria discreta รจ formalizzata nel seguente modo:

๐ป(๐‘Œ) = โˆ’ โˆ‘ ๐‘ƒ(๐‘Œ = ๐‘Ž๐‘–) log ๐‘ƒ(๐‘Œ = ๐‘Ž๐‘–) (2.13) ๐‘–

๐‘Œ รจ una variabile aleatoria discreta che puรฒ assumere unicamente i valori ๐‘Ž๐‘–. Nel caso di variabili aleatorie continue e multi-dimensionali si parla di entropia

differenziale definita come:

๐ป (๐‘ฆ) = โˆ’ โˆซ ๐‘๐‘ฆ(๐‘ฆ) log2๐‘๐‘ฆ(๐‘ฆ) ๐‘‘๐‘ฆ +โˆž

โˆ’โˆž

(2.14)

Lโ€™entropia congiunta si ottiene generalizzando le definizione di entropia differenziale al caso multidimensionale e puรฒ essere interpretata come una misura dellโ€™impredicibilitร  legata allโ€™osservazione congiunta delle ๐‘› variabili.

53

La rete รจ costituita da ๐‘› neuroni in ingresso (cerchi piccoli azzurri) che rappresentano le variabili ๐‘ฅ๐‘– (centrate e sbiancate) e da ๐‘› neuroni in uscita (cerchi grandi grigi). Ogni neurone di uscita riceve come input una somma pesata degli ingressi, ovvero ๐‘ฆ๐‘– = ๐‘ค๐‘–๐‘‡๐’™ e calcola attraverso una funzione di attivazione ๐œ‘๐‘–(โˆ™) non lineare, una variabile di uscita ๐‘ข๐‘–. ๐‘ค๐‘– รจ il vettore corrispondente alla riga i-esima della matrice ๐‘Š. Le funzioni ๐œ‘๐‘–(โˆ™) sono funzioni scalari, monotone crescenti di valore compreso tra 0 e 1 con un andamento simile a una sigmoide.

La matrice dei pesi ๐‘Š viene fatta variare in questa rete cosรฌ da massimizzare la funzione costo ๐ป(๐‘ˆ) che รจ lโ€™entropia congiunta delle variabili di uscita. Si puรฒ dimostrare infatti che trovare la matrice ๐‘Š che massimizza ๐ป(๐‘ˆ) equivale a trovare la matrice ๐‘Š che minimizza la mutua informazione tra le variabili ๐‘ฆ๐‘–; ovvero, visto che la mutua informazione tra variabili รจ nulla se e solo se le variabili sono statisticamente indipendenti, significa trovare la matrice ๐‘Š che rende le ๐‘ฆ๐‘– massimamente indipendenti.

. . .

Funzione Costo

54

Pertanto la ICA basata sul principio Infomax puรฒ essere formalizzata come la ricerca della matrice ๐‘Š che risolve il seguente problema:

{ max ๐‘Š ๐น๐‘–๐‘›๐‘“๐‘œ๐‘š๐‘Ž๐‘ฅ(๐‘Š) = max๐‘Š ๐ป (๐œ™1(๐‘ค1 ๐‘‡๐’™), ๐œ™ 2(๐‘ค2๐‘‡๐’™), โ€ฆ , ๐œ™๐‘›(๐‘ค๐‘›๐‘‡๐’™)) ๐‘Š๐‘‡๐‘Š = ๐ผ

Lโ€™imposizione di matrice ๐‘Š ortogonale corrisponde a imporre componenti indipendenti a varianza unitaria a partire dai dati sbiancati. [11]

2) Lโ€™algoritmo FastICA opera su dati sbiancati ed รจ di semplice implementazione per la ricerca delle componenti indipendenti. Alla base dellโ€™algoritmo FastICA vi รจ un algoritmo iterativo che cerca le proiezioni ๐‘ฆ๐‘– = ๐‘ค๐‘–๐‘‡๐‘ฅ che massimizzano la non

gaussianitร  delle componenti ๐‘ฆ๐‘–, dove ๐‘ฅ รจ la matrice dei segnali osservati organizzati per riga (ogni riga รจ un segnale, ogni variabile รจ una osservazione) e ๐‘ค๐‘– รจ una riga della matrice di demixing ๐‘Š.

Una giustificazione alla massimizzazione della non-gaussianitร  per la stima delle componenti indipendenti deriva dal teorema del limite centrale. Il teorema del limite centrale afferma che la combinazione lineare di k variabili aleatorie indipendenti converge ad una distribuzione gaussiana al crescere di k qualunque sia la funzione densitร  di probabilitร  delle singole variabili. In base a questo teorema, se le variabili indipendenti che si combinano sono non gaussiane (come ipotizziamo siano le sorgenti del modello ICA), allora la loro combinazione lineare รจ certamente piรน gaussiana delle singole variabili indipendenti. In particolare, anche la combinazione lineare di due sole variabili indipendenti non gaussiane รจ piรน gaussiana di ciascuna delle due variabili originali. Pertanto, massimizzare la non gaussianitร  di ๐‘ฆ๐‘– significa separarla dalle altre componenti indipendenti (se fosse

ancora combinazione di piรน componenti indipendenti la sua non gaussianitร  non sarebbe massima).

55

Esistono due versioni dellโ€™algoritmo FastICA, in base alla misura di non gaussianitร  utilizzata: la curtosi (๐‘˜๐‘ข๐‘Ÿ๐‘ก) e la negentropia ( ๐ฝ).

La curtosi di ๐‘ฆ รจ definita da ๐‘˜๐‘ข๐‘Ÿ๐‘ก (๐‘ฆ) = ๐ธ {๐‘ฆ4} โˆ’ 3(๐ธ {๐‘ฆ2})2 che si semplifica in

๐ธ {๐‘ฆ4} โˆ’ 3, avendo supposto che la variabile aleatoria ๐‘ฆ รจ centrata (ossia a media

nulla) e a varianza unitaria. Poichรฉ, per una gaussiana, il momento di ordine 4 ๐ธ {๐‘ฆ4} รจ pari a 3(๐ธ {๐‘ฆ2})2, allora la curtosi di una variabile casuale gaussiana รจ uguale a zero. Per la maggior parte delle variabili non gaussiane, la curtosi รจ diversa da zero, e puรฒ essere sia positiva che negativa. Le variabili casuali che hanno una curtosi negativa sono chiamate subgaussiane, mentre quelle che hanno una curtosi positiva sono chiamate supergaussiane. Come funzione costo nel metodo ICA basato sulla curtosi, si utilizza la curtosi al quadrato.

Unโ€™altra variabile usata per misurare la non gaussianitร  รจ la negentropia. La negentropia ๐ฝ (๐‘ฆ) di una variabile casuale ๐‘ฆ misura di quanto si discosta lโ€™entropia della variabile da quella una variabile gaussiana di pari varianza (tra tutte le variabili di pari varianza, la variabile gaussiana ha entropia massima). La negentropia ๐ฝ (๐‘ฆ) di una variabile casuale ๐‘ฆ รจ sempre non negativa, ed รจ nulla se e solo se ๐‘ฆ รจ gaussiana; quindi quanto piรน una variabili casuale ๐‘ฆ ha negentropia diversa da 0 tanto piรน si allontana da una distribuzione gaussiana.

Gli algoritmi FastICA basati sulla negentropia utilizzano una approssimazione della negentropia definita mediante lโ€™utilizzo di una funzione ๐บ non lineare e non quadratica nel seguente modo:

๐ฝ (๐‘ฆ) โˆ (๐ธ {๐บ (๐‘ฆ)} โˆ’ ๐ธ{๐บ(๐œ€)})2 (2.15)

Il simbolo โˆ denota la proporzionalitร , ma a noi interessano le direzioni ๐‘ค๐‘– che

massimizzano la negentropia ๐ฝ(๐‘ค๐‘–๐‘‡๐‘ฅ). In base al problema che si ha difronte si sceglie una funzione ๐บ(๐‘ฆ) diversa, le piรน usate comunemente sono:

๐บ1(๐‘ฆ) = 1

๐‘Ž1log (cosh (๐‘Ž1๐‘ฆ)) ๐บ2(๐‘ฆ) = โˆ’exp (โˆ’ 1 2๐‘ฆ

2) ๐บ

3(๐‘ฆ) = ๐‘ฆ4 (2.16)

56

Quindi, in base a quanto detto, i metodi FastICA ricercano la generica componente indipendente ๐‘ฆ๐‘– = ๐‘ค๐‘–๐‘‡๐‘‹, utilizzando a seconda dei casi la seguente funzione costo:

๐น๐‘˜๐‘ข๐‘Ÿ๐‘ก(๐‘ค๐‘–) = (๐‘˜๐‘ข๐‘Ÿ๐‘ก(๐‘ค๐‘–๐‘‡๐‘‹)) 2

= (๐ธ {(๐‘ค๐‘–๐‘‡๐‘‹)4} โˆ’ 3)2

๐น๐‘›๐‘’๐‘”(๐‘ค๐‘–) = ๐ฝ๐‘Ž๐‘๐‘(๐‘ค๐‘–๐‘‡๐‘‹) = [๐ธ{๐บ(๐‘ค๐‘–๐‘‡๐‘‹)} โˆ’ ๐ธ{๐บ(๐œ€)}] 2

Tale funzione deve essere massimizzata sotto i vincoli di ๐‘ค๐‘– a norma unitaria ed ortogonale alle direzioni ๐‘ค๐‘—, ๐‘— = 1,2, โ€ฆ , ๐‘– โˆ’ 1 di massima curtosi giร  stimate (in questo modo si stima una matrice ๐‘Š ortogonale). Pertanto, la ricerca della i-esima componente indipendente (๐‘– = 1, 2, โ€ฆ ๐‘›), puรฒ essere formalizzata come:

{ max ๐‘Š๐‘–โˆˆโ„๐‘› ๐น๐‘˜๐‘ข๐‘Ÿ๐‘ก(๐‘Š๐‘–) ๐‘œ๐‘๐‘๐‘ข๐‘Ÿ๐‘’ max ๐‘Š๐‘–โˆˆโ„๐‘› ๐น๐‘›๐‘’๐‘”(๐‘Š๐‘–) โ€–๐‘Š๐‘–โ€–2 = 1 ๐‘Š๐‘–๐‘‡๐‘Š๐‘— = 0, ๐‘— = 1, 2, โ€ฆ , ๐‘– โˆ’ 1

Ovviamente, allโ€™atto pratico i valori attesi vanno sostituiti da medie sui campioni e vanno applicati opportuni metodi di ottimizzazione alle funzioni costo. [11]

Nel presente lavoro รจ stato usato lโ€™algoritmo basato sul principio Infomax disponibile nel toolbox EEGLab di Matlab. Lโ€™uso di Infomax rispetto ad altri algoritmi ICA รจ consigliato dagli autori del Toolbox.

57 Lโ€™ICA Per la rimozione degli artefatti.

Le seguenti figure (Figura 2.8 a, b, c) illustrano lโ€™uso della ICA per la rimozione degli artefatti.

riconoscimento

sorgenti da

artefatto

Es. s

5

ICA sul segnale

stimiamo W e A

Sโ€™= S a meno della 5

ยฐ

riga

(la sorgente da artefatto)

che poniamo = 0

T (T = numero di osservazioni)

Xโ€™=ASโ€™

ricostruzione

del segnale

libero

dallโ€™artefatto

segnale EEG contaminato da artefatti

soluzione : ICA sul segnale, riconoscimento delle sorgenti di artefatto,

rimozione tramite cancellazione

EEG - Problema degli artefatti: ICA /1

A)

58

C)

Figura 2.8: A) schema a blocchi del modello ICA; B) decomposizione del segnale in componenti indipendenti; C) rimozione delle componenti degli

59

CAPITOLO 3: MATERIALI E METODI

Lโ€™obbiettivo di questo lavoro รจ valutare gli effetti prodotti da uno stimolo di stress (attraverso lo svolgimento ripetitivo di conti matematici per un certo lasso di tempo finito), sullโ€™attivitร  cerebrale, attraverso EEG, e valutare il comportamento della bilancia simpato-vagale, attraverso lo studio spettrale del segnale di variabilitร  della frequenza cardiaca.

Documenti correlati