• Non ci sono risultati.

Insulina Insulina media tot

4.1 Stima parametrica

4. TECNICHE DI

IDENTIFICAZIONE

In questo capitolo vengono spiegati i metodi utilizzati per l’identificazione dei modelli trattati precedentemente nel cap. 3, prima dal punto di vista teorico della stima parametrica e poi da quello pratico dell’applicazione in Matlab.

4.1 Stima parametrica

Dopo avere definito, grazie a conoscenze fisiologiche e assunzioni, le equazioni che costituiscono il modello di un sistema endocrino-metabolico, per completare il modello è necessario dare dei valori ai parametri { } che vi compaiono. Concretamente viene sfruttata la conoscenza di uno o più segnali di misura. Pensando ora di avere un solo segnale di misura, in funzione del vettore dei parametri, esso ha una forma:

(Eq. 4.1)

dove g(t,p) lega il modello alle misure, e p è il vettore dei parametri.

L’uscita predetta y(t) è disponibile solo in un certo numero di campioni N ai tempi { } affetti da errore di misura spesso additivo:

= + k=1, 2, … , N (Eq. 4.2) in cui è l’errore compiuto sulla k-esima misura assimilabile a una variabile aleatoria a valore atteso nullo. Spesso su sono disponibili informazioni statistiche come la varianza del processo, essa può essere costante k ( ) oppure no ( dipende da k).

Una grandezza spesso comoda a valutare l’entità dell’errore di misura relativamente ai dati è il coefficiente di variazione CV, dato dal rapporto tra standard deviation σ dell’errore di misura e misura stessa:

50

L’Eq. 4.2 si può scrivere per le N misure in forma vettoriale:

(Eq. 4.4) dove G(p) = .

La matrice di covarianza del vettore v è quindi esprimibile come:

= (Eq. 4.5)

in cui è uno scalare noto o incognito, e B è una matrice quadrata di dimensione N che supporremo sempre nota e che in caso di rumore a campioni scorrelati risulta diagonale [1]. Ad esempio possiamo distinguere la forma di B in alcuni casi:

 Varianza generica non costante: ,

 Varianza costante nota o incognita:

CV costante (noto o incognito): , .

4.1.1 Metodo Fisheriano: stimatore ai minimi

quadrati pesati

Nel caso dello stimatore ai minimi quadrati pesati, il vettore dei parametri p, di cui si ipotizza esista un valore vero, è stimato sfruttando solo i dati dell’esperimento. Dall’Eq. 4.2, per un valore p del vettore dei parametri possiamo definire l’errore di predizione del modello:

e(p) = z – G(p) (Eq. 4.6)

E’ intuitivo che tale errore su una misura è tanto più significativo quanto più questa è attendibile. Lo scalare:

= [z – G(p)] (Eq. 4.7) misura la distanza tra i dati z e le predizioni del modello G(p) per il valore p del vettore dei parametri, con pesi inversi alla varianza dell’errore di misura. Pensando ora a p incognito nell’Eq. 4.7, la tecnica dei minimi quadrati pesati (weighted least squares WLS) ne determina il valore ottimo minimizzando la distanza tra predizione fornita dal modello e dati:

= (Eq. 4.8) p p funzione costo J(p)

dove spesso il vettore predizioni G(p) non è lineare in p, e quindi si parla di stima ai minimi quadrati non lineari pesati WNLS (come accade infatti nei modelli utilizzati in questa tesi).

51

Quando il problema è formulato come in Eq. 4.8, cioè con matrice interamente nota, si parla di pesi assoluti, mentre se di tale matrice è nota solo B, come nel caso di SD costante e incognita che si presenta nel modello per l’EGP descritto al cap. 3, si parla di pesi relativi e si utilizza questa espressione:

= – (Eq. 4.9) p p

in cui si nota che la variabile dell’Eq. 4.5 non influenza la minimizzazione della funzione costo rispetto al valore p, quindi anche quando tale grandezza è nota si può considerare direttamente il problema in Eq. 4.9. Se il valore di è incognito, una volta risolta l’Eq. 4.9, esso è stimabile a posteriori dividendo il valore della funzione costo (weighted residual sum of squares, WRSS) nel punto di minimo per il numero di gradi di libertà (ovvero numero di dati usati N nell’identificazione, e numero di parametri M del modello):

(Eq. 4.10)

Una volta stimati i parametri come appena spiegato, è importante valutare la precisione di tali stime; infatti i dati da cui si ottiene la stima risultano incerti a causa dell’errore di misura, perciò anche il vettore delle stime dei parametri è incerto.

L’errore di stima è definito come:

(Eq. 4.11)

in cui p è il valore vero ma incognito del vettore parametri. Se E[ ] ha media nulla, ovvero E[ ] = p, si misura la precisione delle stime dalla matrice di covarianza dell’errore di stima:

(Eq. 4.12) Questa matrice dà un’informazione quantitativa sul range di valori che l’errore di stima può assumere, fornendo dunque una misura della precisione con cui stimiamo il vettore p [1].

Possiamo a questo punto definire:

 Standard deviation della stima:

 Intervallo di confidenza:

 Coefficiente di variazione della stime:

52

Nel caso non lineare in esame detta matrice di covarianza delle stime ha la seguante espressione:

(Eq. 4.13) dove F(p) è la matrice di informazione di Fisher e S matrice di elementi:

(Eq. 4.14)

4.1.2 Metodo Bayesiano: stimatore Maximum a

Posteriori (MAP)

Contrariamente al metodo Fisheriano, quello Bayesiano utilizza delle informazioni statistiche e considera p un vettore aleatorio di cui si stima una realizzazione usando non solo i dati sperimentali (informazione a posteriori), ma che dell’informazione

a priori indipendente dai dati.

Con il metodo Bayesiano il vettore p ha una densità di probabilità a priori data da: (Eq. 4.15) E’ possibile definire anche la densità di probabilità a posteriori di tale vettore:

(Eq. 4.16) dove z è il vettore aleatorio delle misure. In base alla regola di Bayes la densità di probabilità a posteriori del vettore p può essere anche scritta come:

=

(Eq. 4.17) in cui: = (Eq. 4.18) è la densità di probabilità a priori del vettore delle misure z.

A questo punto si può utilizzare uno stimatore Bayesiano di tipo Maximun a Posteriori (MAP), definito come quello per cui, fissato il valore z del vettore dei dati l’Eq. 4.16 è massima:

(Eq. 4.19) p

Sfruttando ora la regola di Bayes si verifica che trovare il vettore p che massimizza l’Eq. 4.17, essendo (z) indipendente da p, equivale a massimizzarne il solo numeratore:

53

(Eq. 4.20) p

La funzione è strettamente legata alla densità di probabilità del vettore errore di misura v. Nel caso poi di rumore v gaussiano, a media nulla e matrice di covarianza dell’Eq. 4.5, il vettore aleatorio z noto p è gaussiano con valore atteso G(p) e matrice di covarianza sempre data dall’Eq. 4.5, per cui:

(Eq. 4.21) La funzione è invece legata all’informazione a priori disponibile sul vettore

p incognito; assumendo poi che p sia estratto da una distribuzione gaussiana con

media e varianza si ha:

(Eq. 4.22) Poiché la funzione da massimizzare rispetto a p è data dal prodotto delle Eq. 4.21 e 4.22, componendo col logaritmo e cambiando il segno si ottiene che il problema di Eq. 4.20 equivale qui a:

(Eq. 4.23) p

E’ bene notare che anche in caso di gaussianità la funzione costo di Eq. 4.23 non è quadratica a causa della non linearità in p di G(p) e per la sua soluzione è quindi necessario impiegare algoritmi iterativi.

Anche nel caso Bayesiano è possibile valutare la precisione delle stime tramite la matrice:

(Eq. 4.24) A differenza dell’approccio Fisheriano, la matrice F(p) risulta ora:

S + con (Eq. 4.25) Appare evidente che la funzione costo rappresentata in Eq. 4.23 è costituita da due addendi che realizzano un compromesso tra informazione a posteriori e informazione a priori. Se l’informazione a priori è “vaga” ( molto elevata, al limite tendente a ), la stima di p tende a basarsi sul solo contributo dell’informazione a posteriori, come accade nel metodo WLS [1].

54

Documenti correlati