• Non ci sono risultati.

IDENTIFICAZIONE DEI MODELLI E ANALISI DEI DATI (IMAD)

N/A
N/A
Protected

Academic year: 2022

Condividi "IDENTIFICAZIONE DEI MODELLI E ANALISI DEI DATI (IMAD)"

Copied!
107
0
0

Testo completo

(1)

IDENTIFICAZIONE DEI MODELLI E ANALISI DEI DATI (IMAD)

SPEAKER

Prof. Mirko Mazzoleni

PLACE

Università degli Studi di Bergamo

Corso di Laurea Magistrale in INGEGNERIA INFORMATICA

Lezione 12: Identificazione – analisi

e complementi

(2)

Syllabus

Parte II: sistemi dinamici

8. Processi stocastici

8.1 Processi stocastici stazionari (pss) 8.3 Rappresentazione spettrale di un pss 8.4 Stimatori campionari media\covarianza 8.5 Densità spettrale campionaria

11. Identificazione

11.3 Identificazione di modelli ARX 11.4 Identificazione di modelli ARMAX 11.5 Metodo di Newton

10. Predizione

10.1 Filtro passa-tutto

9. Famiglie di modelli a spettro razionale

9.1 Modelli per serie temporali (MA, AR, ARMA)

9.2 Modelli per sistemi input/output (ARX, ARMAX)

12.Identificazione: analisi e complementi 12.1 Analisi asintotica metodi PEM

12.2 Identificabilità dei modelli

12.3 Valutazione dell’incertezza di stima 10.2 Forma canonica

10.3 Teorema della fattorizzazione spettrale 10.4 Soluzione al problema della predizione

(3)

• 𝜽deterministico

o NO assunzioni su ddp dei dati

Modelli lineari di pss

Predizione

Identificazione

Persistente eccitazione

Analisi asintotica metodi PEM

Analisi incertezza stima (numero dati finito)

Valutazione del modello

Parte I: sistemi statici Parte II: sistemi dinamici

Stima parametrica ෡𝜽 Stima parametrica ෡𝜽

IMAD

Machine learning

• 𝜽deterministico

o NO assunzioni su ddp dei dati

Stima parametri popolazione

Stima modello lineare: minimi quadrati o SI assunzioni su ddp dei dati

Stima massima verosimiglianza parametri popolazione

Stima modello lineare: massiva verosimiglianza

Regressione logistica

• 𝜽variabile casuale

o SI assunzioni su ddp dei dati

Stima Bayesiana

(4)

Outline

1. Analisi asintotica dei metodi PEM

2. Identificabilità dei modelli e persistente eccitazione

3. Valutazione dell’incertezza della stima PEM

4. Robustezza dei metodi PEM e prefiltraggio

5. Empirical Transfer Function Estimate (ETFE)

(5)

Outline

1. Analisi asintotica dei metodi PEM

2. Identificabilità dei modelli e persistente eccitazione 3. Valutazione dell’incertezza della stima PEM

4. Robustezza dei metodi PEM e prefiltraggio

5. Empirical Transfer Function Estimate (ETFE)

(6)

Analisi asintotica dei metodi PEM

Nella lezione precedente, abbiamo visto come ottenere una stima ෡𝜽𝑁 data una singola sequenza di 𝑁 dati 𝑢 1 , … , 𝑢 𝑁 , 𝑦 1, ҧ𝑠 , … , 𝑦 𝑁, ҧ𝑠 , utilizzando l’approccio PEM.

Abbiamo esplicitato l’esito 𝑠 = ҧ𝑠 per indicare che lavoriamo con delle sequenze di numeri L’idea dell’approccio predittivo è la seguente: data una famiglia di modelli ℳ 𝜽 |𝜽 ∈ 𝚯 , la stima ෡𝜽𝑁 è ottenuta minimizzando la funzione di costo

𝐽𝑁 𝜽 = 1

𝑁 ෍

𝑡=1 𝑁

𝜀1 𝑡; 𝜽 2

dove 𝜀1 𝑡; 𝜽 = 𝑦 𝑡 − ො𝑦 𝑡|𝑡 − 1; 𝜽 è l’errore di predizione ad un passo

(7)

Analisi asintotica dei metodi PEM

Problema: la stima ෡𝜽𝑁, calcolata in questo modo, ci fornisce un «buon» modello?

Per poter rispondere a questa domanda, non possiamo limitarci ad una specifica realizzazione dei dati corrispondente ad un particolare esito ҧ𝑠: dobbiamo studiare quello che succede «in generale», ovvero considerando tutte le possibili realizzazioni di sequenze di dati

IPOTESI DI LAVORO

• Sia l’ingresso 𝑢 𝑡, 𝑠 sia l’uscita 𝑦 𝑡, 𝑠 sono processi stocastici stazionari ed ergodici (il che implica che tutte le funzioni di trasferimento sono asintoticamente stabili)

(8)

Analisi asintotica dei metodi PEM

Di conseguenza, i dati misurati saranno una realizzazione dei processi 𝑢 𝑡, 𝑠 e 𝑦 𝑡, 𝑠 in corrispondenza di un particolare esito ҧ𝑠

𝑢 1, ҧ𝑠 , … , 𝑢 𝑁, ҧ𝑠 𝑦 1, ҧ𝑠 , … , 𝑦 𝑁, ҧ𝑠

da cui otterrò la stima ෡𝜽𝑁 ҧ𝑠

Ne consegue che, in generale, la stima ෡𝜽𝑁 𝑠 è una variabile casuale perché il suo valore dipende dai dati, i quali dipendono dall’esito 𝑠

La funzione di costo dipende anch’essa dall’esito ҧ𝑠 poiché utilizza i dati misurati

𝐽𝑁 𝜽, ҧ𝑠 = 1

𝑁 ෍

𝑡=1 𝑁

𝜀1 𝑡; 𝜽, ҧ𝑠 2

(9)

Analisi asintotica dei metodi PEM

𝜃 𝐽

𝑁

𝜃, 𝑠

𝜃 ෠ 𝑠

Ogni curva corrisponde

ad una diversa

realizzazione di 𝑁 dati La funzione di costo 𝐽𝑁 𝜃, 𝑠 dovrebbe essere interpretata come un insieme di curve, e la stima ෡𝜽𝑁 𝑠 come un insieme di punti ➔ difficile da descrivere per 𝑁 finito!

(10)

Analisi asintotica dei metodi PEM

𝜃 𝐽𝑁 𝜃, 𝑠

𝜃𝑁 𝑠 𝜃

𝐽𝑁 𝜃, 𝑠

𝜃𝑁 𝑠

𝜃 ҧ𝐽 𝜃

ҧ

𝑁 → +∞

(11)

Analisi asintotica dei metodi PEM

Grazie all’ipotesi di ergodicità di 𝑢 𝑡, 𝑠 e 𝑦 𝑡, 𝑠 , abbiamo che i momenti temporali convergono ai rispettivi momenti di insieme. Di conseguenza:

𝐽

𝑁

𝜽, 𝑠 = 1

𝑁 ෍

𝑡=1 𝑁

𝜀

1

𝑡; 𝜽, 𝑠

2

ҧ𝐽 𝜽 ≡ 𝔼

𝑠

𝜀

1

𝑡, 𝜽

2

𝑁 → +∞

cioè, le curve 𝐽𝑁 𝜽, 𝑠 convergono ad un’unica (deterministica) curva ҧ𝐽 𝜽 Definiamo l’insieme dei punti di minimo globale di ҧ𝐽 𝜽 come

Δ

𝜽

= ഥ 𝜽 | ҧ𝐽 𝜽 ≥ ҧ𝐽 ഥ 𝜽 , ∀𝜽

(12)

Analisi asintotica dei metodi PEM

Caso particolare: Δ𝜽 = ഥ𝜽, ovvero ҧ𝐽 𝜽 ha un unico minimo globale

𝐽𝑁 𝜽, 𝑠 ҧ𝐽 𝜽

𝑁 → +∞

𝜽෡𝑁

Δ

𝜽

𝑁 → +∞

Ne segue che se Δ𝜽 = ഥ𝜽, allora ෡𝜽𝑁 𝜽ഥ

𝑁 → +∞

Teorema

Sotto le ipotesi correnti, man mano che il numero di dati 𝑁 tende all’infinito, si ha che

(13)

Analisi asintotica dei metodi PEM

Osservazioni

Analizzare la singola curva ҧ𝐽 𝜽 è molto più facile che analizzare un insieme di curve!

Idea: per studiare le proprietà della stima, studiamo le sue caratteristiche asintotiche, ovvero studiamo il modello stimato asintotico ℳ ഥ𝜽 oppure l’insieme di modelli stimati asintotici ℳ 𝜽 |𝜽 ∈ Δ𝜽

• Il teorema dice che il risultato dell'identificazione PEM è lo stesso, indipendentemente dalle realizzazioni misurate dei processi 𝑢 𝑡 , 𝑦 𝑡 purché il numero di dati 𝑁 sia abbastanza grande

Se le proprietà di ℳ ഥ𝜽 sono buone, posso pensare che lo siano anche quelle di ℳ ෡𝜽𝑁 , fintanto che 𝑁 è grande

(14)

Analisi asintotica dei metodi PEM

IPOTESI DI LAVORO AGGIUNTIVA

Assumiamo che 𝒮 ∈ ℳ 𝜽 , ovvero che esista 𝜽0 ∈ 𝚯 tale che 𝒮 = ℳ 𝜽0

Domanda: il vettore «vero» dei parametri 𝜽0 appartiene all’insieme Δ𝜽 dei minimi globali della cifra di costo ҧ𝐽 𝜽 ? Ciò è equivalente a chiedersi se ෡𝜽𝑁 tende asintoticamente a 𝜽0

Se ciò fosse vero, vorrebbe dire che i metodi PEM sono in grado di trovare la parametrizzazione «vera» del modello

Dimostriamo che, sotto le ipotesi fatte, 𝜽0 appartiene sempre a Δ𝜽

(15)

Analisi asintotica dei metodi PEM

Dimostrazione

Consideriamo un generico modello ℳ 𝜽 , per il quale

Supponiamo che i dati siano generati dal sistema 𝒮, tale che

𝑦 𝑡 = ො 𝑦 𝑡|𝑡 − 1; 𝜽 + 𝜀

1

𝑡; 𝜽

𝑦 𝑡 = ො 𝑦 𝑡|𝑡 − 1; 𝜽

0

+ 𝑒 𝑡 , 𝑒 𝑡 ∼ WN 0, 𝜆

2

Non è detto che 𝜀1 𝑡; 𝜽 sia bianco…

L’errore di predizione ad un passo commesso dal modello ℳ 𝜽 è dunque

𝜀

1

𝑡; 𝜽 = 𝑦 𝑡 − ො 𝑦 𝑡|𝑡 − 1; 𝜽

(16)

Analisi asintotica dei metodi PEM

Aggiungiamo e togliamo ො𝑦 𝑡|𝑡 − 1; 𝜽0 , ovvero il predittore del sistema 𝒮 che genera i dati

𝜀

1

𝑡; 𝜽 = 𝑦 𝑡 − ො 𝑦 𝑡|𝑡 − 1; 𝜽

0

+ ො 𝑦 𝑡|𝑡 − 1; 𝜽

0

− ො 𝑦 𝑡|𝑡 − 1; 𝜽

Errore di predizione «ottimo»

𝜀1 𝑡; 𝜽0 = 𝑒 𝑡 Pertanto

𝜀

1

𝑡; 𝜽 = 𝑒 𝑡 + ො 𝑦 𝑡|𝑡 − 1; 𝜽

0

− ො 𝑦 𝑡|𝑡 − 1; 𝜽

Calcoliamo la varianza dell’errore di predizione (che è a media nulla poiché il predittore è corretto):

𝔼 𝜀

1

𝑡; 𝜽

2

= 𝔼 𝑒 𝑡 + ො 𝑦 𝑡|𝑡 − 1; 𝜽

0

− ො 𝑦 𝑡|𝑡 − 1; 𝜽

2

(17)

Analisi asintotica dei metodi PEM

𝔼 𝜀

1

𝑡; 𝜽

2

= 𝔼 𝑒 𝑡 + ො 𝑦 𝑡|𝑡 − 1; 𝜽

0

− ො 𝑦 𝑡|𝑡 − 1; 𝜽

2

ҧ𝐽 𝜽 = 𝔼 𝑒 𝑡

2

+ 𝔼 𝑦 𝑡|𝑡 − 1; 𝜽 ො

0

− ො 𝑦 𝑡|𝑡 − 1; 𝜽

2

+2𝔼 𝑒 𝑡 ⋅ ො 𝑦 𝑡|𝑡 − 1; 𝜽

0

− ො 𝑦 𝑡|𝑡 − 1; 𝜽

2

Le quantità ො𝑦 𝑡|𝑡 − 1; 𝜽0 e ො𝑦 𝑡|𝑡 − 1; 𝜽 sono predittori, e quindi dipendono solo dai dati (e dal rumore bianco) a tempi passati. Per cui, sono incorrelati con 𝑒 𝑡

(18)

Analisi asintotica dei metodi PEM

ҧ𝐽 𝜽 = 𝔼 𝑒 𝑡

2

+ 𝔼 𝑦 𝑡|𝑡 − 1; 𝜽 ො

0

− ො 𝑦 𝑡|𝑡 − 1; 𝜽

2

ҧ𝐽 𝜽 = 𝜆

2

+ 𝔼 𝑦 𝑡|𝑡 − 1; 𝜽 ො

0

− ො 𝑦 𝑡|𝑡 − 1; 𝜽

2

È una varianza, quindi una quantità ≥ 0. In particolare, si annulla solo per 𝜽 = 𝜽0

ҧ𝐽 𝜽 ≥ 𝜆

2

= ҧ𝐽 𝜽

0

, ∀𝜽

ҧ𝐽 𝜽 ≥ ҧ𝐽 𝜽 0 , ∀𝜽

𝜽0 è un minimo di ҧ𝑱 𝜽

(19)

Analisi asintotica dei metodi PEM

Conclusione (fondamentale)

Se 𝒮 ∈ ℳ 𝜽 e 𝑢 𝑡 , 𝑦 𝑡 sono pss ergodici, allora, per 𝑁 → +∞ , un metodo PEM garantisce che il modello stimato è quello «vero»

Osservazioni

• Se 𝒮 ∈ ℳ 𝜽 , allora in corrispondenza di 𝜽0 si ha che 𝜀1 𝑡; 𝜽0 = 𝑒 𝑡 ∼ WN

Quindi, possiamo verificare a posteriori se il modello identificato è quello vero facendo un test di bianchezza sui residui 𝜀1 𝑡; ෡𝜽𝑁

• Se 𝒮 ∉ ℳ 𝜽 , allora i metodi PEM non garantiscono di stimare correttamente TUTTE le componenti del sistema 𝒮 (i.e. modello I\O e modello del rumore)

(20)

Quando identifichiamo un modello ℳ 𝜽 , possono capitarci quattro casi possibili:

𝒮 = ℳ 𝜽

0

ℳ ෡ 𝜽

𝑁

1) 𝒮 ∈ ℳ 𝜽 e Δ

𝜽

= ഥ 𝜽, allora ഥ 𝜽 = 𝜽

0

ℳ 𝜽

𝜽෡𝑁

𝜽 = 𝜽 ഥ

0

𝑁 → +∞

𝒮 ℳ ෡ 𝜽

𝑁

2) 𝒮 ∈ ℳ 𝜽 e Δ

𝜽

contiene più valori

ℳ 𝜽

𝜽෡𝑁

𝜽 ≠ 𝜽 ഥ

0

𝑁 → +∞

𝑁 → +∞

𝑁 → +∞

Δ

𝜽

Ma ℳ ഥ𝜽 ha la stessa capacità di

0 nello spiegare i dati

ℳ ഥ 𝜽

(21)

ℳ ෡ 𝜽

𝑁

3) 𝒮 ∉ ℳ 𝜽 e Δ

𝜽

= ഥ 𝜽 , allora ഥ 𝜽 ≠ 𝜽

0

ℳ 𝜽

𝜽෡𝑁

𝜽 ≠ 𝜽 ഥ

0

𝑁 → +∞

ℳ ෡ 𝜽

𝑁

4) 𝒮 ∉ ℳ 𝜽 e Δ

𝜽

contiene più valori

ℳ 𝜽

𝜽෡𝑁

𝜽 ≠ 𝜽 ഥ

0

𝑁 → +∞

𝑁 → +∞

𝑁 → +∞

ℳ ഥ𝜽 è la miglior approssimazione di 𝒮 nella famiglia di modelli ℳ 𝜽

ℳ ഥ 𝜽

𝒮 ℳ ഥ 𝜽

𝒮 Δ

𝜽

ℳ ഥ𝜽 con ഥ𝜽 ∈ Δ𝜽 sono i migliori

approssimanti (equivalenti) di 𝒮 nella famiglia di modelli ℳ 𝜽

(22)

Outline

1. Analisi asintotica dei metodi PEM

2. Identificabilità dei modelli e persistente eccitazione 3. Valutazione dell’incertezza della stima PEM

4. Robustezza dei metodi PEM e prefiltraggio

5. Empirical Transfer Function Estimate (ETFE)

(23)

Identificabilità dei modelli

L’ analisi asintotica vista precedentemente ci dice che, se 𝒮 ∈ ℳ 𝜽 , allora i metodi PEM stimano asintoticamente il modello vero 𝒮 = ℳ 𝜽0 o un insieme equivalente di modelli ℳ 𝜽 |𝜽 ∈ Δ𝜽

Questa seconda situazione, in cui troviamo un modello all’interno di ℳ 𝜽 |𝜽 ∈ Δ𝜽 , porta ad un legittima domanda:

In quali condizioni il sistema 𝒮 può essere identificato univocamente dai dati?

(24)

Identificabilità dei modelli

Affinché un modello sia univocamente identificabile è necessario avere:

1. Identificabilità «strutturale»: il modello ℳ 𝜽 non deve essere sovra- parametrizzato rispetto al sistema 𝒮

2. Identificabilità «sperimentale»: i dati 𝑢 𝑡 , 𝑦 𝑡 𝑡=1𝑁 devono contenere sufficiente informazione

ll problema di non identificabilità più critico è quello sperimentale: se non abbiamo sufficiente informazione nei dati, non possiamo fare nulla (se non ripetere l’esperimento) La non identificabilità strutturale è, invece, facilmente risolvibile riducendo l’ordine del

(25)

Esempio: problema di identificabilità strutturale

Supponiamo che i dati siano generati da

un sistema (deterministico) del tipo 𝒮: 𝐺0 𝑧 = 𝑧

𝑧 + 0.5 𝑧 + 0.8

Per l’identificazione, usiamo un modello del tipo

ℳ 𝜽 : 𝐺 𝑧 = 𝑧 𝑏1𝑧 + 𝑏2

𝑧 + 𝑎1 𝑧 + 𝑎2 𝑧 + 𝑎3 𝜽 = 𝑏1 𝑏2 𝑎1 𝑎2 𝑎3

Notiamo che 𝒮 ∈ ℳ 𝜽 . Infatti, posso ottenere 𝐺0 𝑧 imponendo, per esempio, che 𝑏1𝑧 + 𝑏2 = 𝑧 + 𝑎3 , in modo che il modello diventi

ℳ 𝜽 : 𝐺 𝑧 = 𝑧

𝑧 + 𝑎1 𝑧 + 𝑎2

(26)

Esempio: problema di identificabilità strutturale

Nonostante riusciamo a identificare un modello che è simile al sistema che genera i dati, tale modello identificato non è unico in quanto la condizione 𝑏1𝑧 + 𝑏2 = 𝑧 + 𝑎3 è soddisfatta da un numero infinito di triplette di valori 𝑏1, 𝑏2, 𝑎3

Questo accade perché la struttura del modello è sovra-parametrizzata rispetto alla struttura del sistema vero

(27)

𝐻 𝑧; 𝜽

Esempio: problema di identificabilità sperimentale

Supponiamo che i dati siano generati da un sistema del tipo 𝒮: 𝑦 𝑡 = 𝑏0𝑧−1

1 + 𝑓0𝑧−1 𝑢 𝑡 + 1

1 + 𝑑0𝑧−1 𝑒 𝑡

Consideriamo un ingresso 𝑢 𝑡 = 0 ∀𝑡, cioè un ingresso costante a zero, e un modello

ℳ 𝜽 : 𝑦 𝑡 = 𝑏𝑧−1

1 + 𝑓𝑧−1 𝑢 𝑡 + 1

1 + 𝑑𝑧−1 𝜂 𝑡 𝐺 𝑧; 𝜽

𝐻0 𝑧 𝐺0 𝑧

Notiamo che 𝒮 ∈ ℳ 𝜽

𝜽 = 𝑏 𝑓 𝑑

(28)

Esempio: problema di identificabilità sperimentale

𝜀1 𝑡; 𝜽 = 𝐻−1 𝑧, 𝜽 𝑦 𝑡 − 𝐺 𝑧, 𝜽 𝑢 𝑡 = 𝐻−1 𝑧, 𝜽 𝐺0 𝑧 𝑢 𝑡 + 𝐻0 𝑧 𝑒 𝑡 − 𝐺 𝑧, 𝜽 𝑢 𝑡

= 𝐺0 𝑧 − 𝐺 𝑧, 𝜽

𝐻 𝑧, 𝜽 𝑢 𝑡 + 𝐻0 𝑧

𝐻 𝑧, 𝜽 𝑒 𝑡 Calcoliamo l’errore di predizione a un passo

= 0

= 𝐻0 𝑧

𝐻 𝑧, 𝜽 𝑒 𝑡 𝜀1 𝑡; 𝜽 = 1 + 𝑑𝑧−1

1 + 𝑑0𝑧−1 𝑒 𝑡

La quantità 𝔼 𝜀1 𝑡; 𝜽 2 è minimizzata quando 𝜀1 𝑡; ഥ𝜽 = 𝑒 𝑡 . Questo accade quando 𝐻0 𝑧 = 𝐻 𝑧, ഥ𝜽 , ovvero quando

𝜽 = 𝑏 𝑑 ഥ

0

𝑓

, ∀𝑏, 𝑓 ∈ ℝ

Abbiamo stimato il vero parametro 𝑑0!

(29)

Esempio: problema di identificabilità sperimentale

Misurando l’uscita 𝑦 𝑡 quando l’ingresso 𝑢 𝑡 = 0 ci consente di «misurare l’effetto prodotto dal rumore 𝑒 𝑡 sull’uscita». Ciò permette di identificare correttamente il modello dell’errore (sotto l’ipotesi che 𝐻0 𝑧 ∈ 𝐻 𝑧, 𝜽 , implicito nel fatto che 𝒮 ∈ ℳ 𝜽 ) Però, questi dati non ci consentono di identificare i parametri di 𝐺0 𝑧 ! Infatti, la funzione di costo è minimizzata indipendentemente da 𝑏 ed 𝑓, che possono assumere qualsiasi valore. Ancora una volta, il modello non viene stimato in modo univico

Diciamo quindi che i dati non sono abbastanza informativi per stimare in modo completo ed univoco tutto il sistema (cioè, sia 𝐺0 𝑧 che 𝐻0 𝑧 )

(30)

Identificabilità sperimentale dei modelli ARX

Investighiamo il problema di identificabilità sperimentale, considerando per semplicità l’identificazione di un modello ARX 𝑛𝑎, 𝑛𝑏, 1 , avendo 𝑁 dati 𝑢 1 , … , 𝑢 𝑁 , 𝑦 1 , … , 𝑦 𝑁

ℳ 𝜽 : 𝑦 𝑡 = 𝐵 𝑧, 𝜽

𝐴 𝑧, 𝜽 𝑢 𝑡 − 1 + 1

𝐴 𝑧, 𝜽 𝑒 𝑡 , 𝑒 𝑡 ∼ WN 0, 𝜆

2

• 𝐴 𝑧 = 1 − 𝑎1𝑧−1 − 𝑎2𝑧−2 − ⋯ − 𝑎𝑛𝑎𝑧−𝑛𝑎

• 𝐵 𝑧 = 𝑏0 + 𝑏1𝑧−1 + ⋯ + 𝑏𝑛𝑏𝑧−𝑛𝑏

Sappiamo che la stima può essere ottenuta tramite il metodo dei minimi quadrati

𝜽 ෡

𝑁

= ෍

𝑁

𝝋 𝑡 𝝋

𝑡

−1

⋅ ෍

𝑁

𝝋 𝑡 𝑦 𝑡

1 × 𝑑 𝑑 × 1

𝑑 × 1 𝑑 × 1

(31)

Identificabilità sperimentale dei modelli ARX

Problema di identificabilità: quando ෡𝜽𝑁 esiste ed è unico?

Definiamo:

quando ෍ è invertibile?

𝑡=1 𝑁

𝝋 𝑡 𝝋 𝑡

1 × 𝑑 𝑑 × 1

𝑆 𝑁 = ෍

𝑡=1 𝑁

𝝋 𝑡 𝝋 𝑡

𝑑 × 𝑑

𝜽෡𝑁 = 𝑆 𝑁 −1 ⋅ ෍

𝑡=1 𝑁

𝝋 𝑡 𝑦 𝑡

𝑑 × 1 𝑑 × 1 𝑑 × 𝑑

𝑅 𝑁 = 1

𝑁 𝑆 𝑁

𝑑 × 𝑑

𝜽෡𝑁 = 𝑅 𝑁 −1 ⋅ 1

𝑁 ෍

𝑡=1 𝑁

𝝋 𝑡 𝑦 𝑡

𝑑 × 1 𝑑 × 1 𝑑 × 𝑑

(32)

Identificabilità sperimentale dei modelli ARX

Le matrici 𝑆 𝑁 e 𝑅 𝑁 sono semidefinite positive in quanto prodotto di un vettore per sé stesso. Affinché ෡𝜽𝑁 esista ed sia unico, è però necessario che 𝑆 𝑁 ≻ 0 o 𝑅 𝑁 ≻ 0, cioè che

Analizziamo la matrice 𝑅 𝑁 per 𝑁 → +∞. Consideriamo come punto di partenza un modello ARX 1, 0, 1 , ovvero con 𝑛𝑎 = 1, 𝑛𝑏 = 0, 𝑘 = 1

𝑦 𝑡 = 𝑎1𝑦 𝑡 − 1 + 𝑏0𝑢 𝑡 − 1 + 𝑒 𝑡 , 𝑒 𝑡 ∼ WN 0, 𝜆2 dove 𝑦 𝑡 e 𝑢 𝑡 sono pss ergodici a media nulla

det 𝑅 𝑁 > 0

𝑑 × 𝑑

(33)

Identificabilità sperimentale dei modelli ARX

𝑦 𝑡 = 𝑎1𝑦 𝑡 − 1 + 𝑏0𝑢 𝑡 − 1 + 𝑒 𝑡 , 𝑒 𝑡 ∼ WN 0, 𝜆2

Notiamo che 𝑅 𝑁 contiene

«somme temporali»

𝝋 𝑡 𝝋 𝑡 =

𝑦 𝑡 − 1 2 𝑦 𝑡 − 1 𝑢 𝑡 − 1 𝑢 𝑡 − 1 𝑦 𝑡 − 1 𝑢 𝑡 − 1 2

2 × 1 1 × 2

𝑅 𝑁 = 𝑆 𝑁

𝑁 =

1

𝑁 ෍

𝑡=1 𝑁

𝑦 𝑡 − 1 2 1

𝑁 ෍

𝑡=1 𝑁

𝑦 𝑡 − 1 𝑢 𝑡 − 1

1

𝑁 ෍

𝑡=1 𝑁

𝑢 𝑡 − 1 𝑦 𝑡 − 1 1

𝑁 ෍

𝑡=1 𝑁

𝑢 𝑡 − 1 2

2 × 2

𝑆 𝑁 = ෍

𝑡=1 𝑁

𝝋 𝑡 𝝋 𝑡

2 × 2

𝜽 = 𝑎 𝑏

2 × 1

𝝋 𝑡 =

𝑦 𝑡 − 1 𝑢 𝑡 − 1

2 × 1

(34)

Identificabilità sperimentale dei modelli ARX

Grazie all’ipotesi di ergodicità, abbiamo che 𝑅 𝑁

𝑅 ത

𝑁 → +∞

La matrice ത𝑅 è la matrice di autocovarianze del processo congiunto 𝑦 𝑡 , 𝑢 𝑡

Idea: trovare le condizioni per cui ത𝑅 è invertibile. Quando queste condizioni valgono, allora possiamo supporre con ragionevole certezza che, per 𝑁 grande, anche 𝑅 𝑁 è invertibile

𝑅 =ത

𝛾𝑦𝑦 0 𝛾𝑦𝑢 0 𝛾𝑢𝑦 0 𝛾𝑢𝑢 0

2 × 2

Anche perché 𝑦

e 𝑢 hanno media nulla

(35)

Identificabilità sperimentale dei modelli ARX

In generale, per un generico modello ARX 𝑛𝑎, 𝑛𝑏, 1 abbiamo che la matrice ത𝑅 può essere divisa in quattro sotto-matrici

𝑅 = ത

𝑛𝑎+ 𝑛𝑏 + 1 × 𝑛𝑎+ 𝑛𝑏 + 1

𝑛𝑎 × 𝑛𝑎

𝑛𝑏 + 1 × 𝑛𝑏 + 1 𝑛𝑏 + 1 × 𝑛𝑎

𝑛𝑎× 𝑛𝑏 + 1

𝑅 ത

𝑦𝑦

𝑅 ത

𝑢𝑦

𝑅 ത

𝑦𝑢

𝑅 ത

𝑢𝑢

Matrice autocovarianza di ordine 𝑛𝑎 − 1 di 𝑦 𝑡

Struttura Toeplitz

Dimensioni 𝑛𝑎 × 𝑛𝑎 𝑅ത𝑦𝑦 =

𝛾𝑦𝑦 0 𝛾𝑦𝑦 1 𝛾𝑦𝑦 2 ⋯ ⋯ 𝛾𝑦𝑦 𝑛𝑎 − 1 𝛾𝑦𝑦 1 𝛾𝑦𝑦 0 𝛾𝑦𝑦 1 𝛾𝑦𝑦 2 ⋯ 𝛾𝑦𝑦 𝑛𝑎 − 2 𝛾𝑦𝑦 2 𝛾𝑦𝑦 1 𝛾𝑦𝑦 0 𝛾𝑦𝑦 1 ⋯ 𝛾𝑦𝑦 𝑛𝑎 − 3

⋯ ⋯ ⋯ ⋯ ⋯ ⋯

𝛾𝑦𝑦 𝑛𝑎 − 1 ⋯ ⋯ ⋯ ⋯ 𝛾𝑦𝑦 0

𝑛𝑎 × 𝑛𝑎

(36)

Identificabilità sperimentale dei modelli ARX

𝑅ത𝑢𝑢 =

𝛾𝑢𝑢 0 𝛾𝑢𝑢 1 𝛾𝑢𝑢 2 ⋯ ⋯ 𝛾𝑢𝑢 𝑛𝑏 𝛾𝑢𝑢 1 𝛾𝑢𝑢 0 𝛾𝑢𝑢 1 𝛾𝑢𝑢 2 ⋯ 𝛾𝑢𝑢 𝑛𝑏 − 1 𝛾𝑢𝑢 2 𝛾𝑢𝑢 1 𝛾𝑢𝑢 0 𝛾𝑢𝑢 1 ⋯ 𝛾𝑢𝑢 𝑛𝑏 − 2

⋯ ⋯ ⋯ ⋯ ⋯ ⋯

𝛾𝑢𝑢 𝑛𝑏 ⋯ ⋯ ⋯ ⋯ 𝛾𝑢𝑢 0

𝑛𝑏 + 1 × 𝑛𝑏 + 1

Matrice autocovarianza di ordine 𝑛𝑏 di 𝑢 𝑡

Struttura Toeplitz

Dimensioni 𝑛𝑏 + 1 × 𝑛𝑏 + 1

Matrice autocovarianza tra 𝑦 e 𝑢

𝑅𝑦𝑢 = ത𝑅𝑢𝑦

Dimensioni 𝑛𝑎 × (𝑛𝑏+1) 𝑅ത𝑦𝑢 =

𝛾𝑦𝑢 0 𝛾𝑦𝑢 1 𝛾𝑦𝑢 2 ⋯ ⋯ 𝛾𝑦𝑢 𝑛𝑎 − 1 𝛾𝑦𝑢 1 𝛾𝑦𝑢 0 𝛾𝑦𝑢 1 𝛾𝑦𝑢 2 ⋯ 𝛾𝑦𝑢 𝑛𝑎 − 2 𝛾𝑦𝑢 2 𝛾𝑦𝑢 1 𝛾𝑦𝑢 0 𝛾𝑦𝑢 1 ⋯ 𝛾𝑦𝑢 𝑛𝑎 − 3

⋯ ⋯ ⋯ ⋯ ⋯ ⋯

𝛾𝑦𝑢 𝑛𝑎 − 1 ⋯ ⋯ ⋯ ⋯ 𝛾𝑦𝑢 0

𝑛𝑎× 𝑛𝑏 + 1

Cerchiamo una condizione per l’invertibilità di ത𝑅

(37)

Identificabilità sperimentale dei modelli ARX

Lemma di Schur

Data una matrice 𝑀 nella forma 𝑀 = , con 𝐹 e 𝐾 simmetriche. Condizione necessaria e sufficiente per l’invertibilità di 𝑀 è che valgano:

• 𝐻 ≻ 0

• 𝐹 − 𝐾𝐻

−1

𝐾

≻ 0

𝐹 𝐾

𝐾 𝐻

Ricordando che

𝑅 = ത

𝑅 ത

𝑦𝑦

𝑅 ത

𝑢𝑦

𝑅 ത

𝑦𝑢

𝑅 ത

𝑢𝑢

Condizione necessaria per l’invertibilità di ത𝑅 è che ത𝑅𝑢𝑢 ≻ 0

(38)

Identificabilità sperimentale dei modelli ARX

La condizione (solo necessaria) sulla matrice ത𝑅𝑢𝑢 è interessante perché riguarda solo il segnale di ingresso 𝑢 𝑡 , che tipicamente progettiamo noi!

Possiamo quindi tenere conto di questa condizione in fase di progettazione dell’esperimento, e scegliere il segnale di eccitazione più opportuno al fine di ottenere dati informativi

(39)

Persistente eccitazione

Definizione (Persistente eccitazione)

𝑅ത𝑢𝑢𝑖 =

𝛾𝑢𝑢 0 𝛾𝑢𝑢 1 ⋯ 𝛾𝑢𝑢 𝑖 − 1 𝛾𝑢𝑢 1 𝛾𝑢𝑢 0 ⋯ 𝛾𝑢𝑢 𝑖 − 2

⋯ ⋯ ⋯ ⋯

𝛾𝑢𝑢 𝑖 − 1 𝛾𝑢𝑢 𝑖 − 2 ⋯ 𝛾𝑢𝑢 0

𝑖 × 𝑖

Definiamo la matrice ത𝑅𝑢𝑢𝑖 di autocovarianza di 𝑢 𝑡 di ordine 𝑖 come

Il segnale 𝑢 𝑡 è detto persistentemente eccitante di ordine 𝑛 se:

• ത𝑅𝑢𝑢1 ≻ 0, ത𝑅𝑢𝑢2 ≻ 0, … , ത𝑅𝑢𝑢𝑛 ≻ 0

• ത𝑅𝑢𝑢𝑛+1 ≽ 0, ത𝑅𝑢𝑢𝑛+2 ≽ 0, … ≽ 0

Ovvero se 𝑛 è il massimo ordine per cui ത𝑅𝑢𝑢𝑖 è invertibile

(40)

Persistente eccitazione

Possiamo quindi dire che condizione necessaria per l’identificabilità sperimentale di un modello ARX 𝑛𝑎, 𝑛𝑏, 1 è che il segnale 𝑢 𝑡 , usato per produrre i dati, sia

«persistentemente eccitante» di ordine pari ad almeno 𝑛𝑏 + 1 (infatti, ത𝑅𝑢𝑢 ha dimensione 𝑛𝑏 + 1 × 𝑛𝑏 + 1 )

Tale conclusione si può generalizzare nel modo seguente. Supponendo che 𝒮 ∈ ℳ 𝜽 , definiamo il numero di parametri di 𝐺 𝑧, 𝜽 come 𝑛𝑔. Allora, la soluzione del problema di identificazione ഥ𝜽 = arg min

𝜽 𝔼 𝜀1 𝑡, 𝜽 2 ha un’unica soluzione 𝜽 = 𝜽ഥ 0 se il segnale 𝑢 𝑡 che genera i dati è persistentemente eccitante di ordine ≥ 𝑛𝑔

(41)

Persistente eccitazione

Osservazioni

• Se un segnale 𝑢 𝑡 è persistentemente eccitante di ordine 𝑛 , allora è anche persistentemente eccitante di ordine 𝑛 − 1

• Ribadiamo che la condizione vista è solamente necessaria: anche se ത𝑅𝑢𝑢 ≻ 0, la ത𝑅 potrebbe comunque non essere invertibile per ragioni di non identificabilità strutturale, per le quali il minimo di ҧ𝐽 𝜽 non è unico

• Il concetto di persistente eccitazione che abbiamo visto è stato esemplificato per la stima di modelli ARX, ma avere un segnale eccitante è importante in ogni caso si voglia identificare un modello dinamico

(42)

Esempio: ingresso impulsivo

Consideriamo come ingresso 𝑢 𝑡 = imp 𝑡 = ቐ 1 se 𝑡 = 0

0 se altrimenti 1 2

𝑢 𝑡

−2 −1 𝑡

𝑅𝑢𝑢 𝑁 = 1 𝑁

𝑡=1 𝑁

𝑢 𝑡 − 1 2

𝑡=1 𝑁

𝑢 𝑡 𝑢 𝑡 − 1 ⋯ ෍

𝑡=1 𝑁

𝑢 𝑡 𝑢 𝑡 − 𝑛𝑏

𝑡=1 𝑁

𝑢 𝑡 𝑢 𝑡 − 1

𝑡=1 𝑁

𝑢 𝑡 − 1 2

𝑡=1 𝑁

𝑢 𝑡 𝑢 𝑡 − 𝑛𝑏

𝑡=1 𝑁

𝑢 𝑡 − 1 2

= 1

𝑁 0 0 0 1

𝑁 ⋯ ⋯

⋯ ⋯ ⋯ 0 0 ⋯ ⋯ 1 𝑁 La matrice 𝑅𝑢𝑢 𝑁 assume la forma seguente:

𝑛𝑏 + 1 × 𝑛𝑏 + 1

(43)

Esempio: ingresso impulsivo

Dato che 𝑅𝑢𝑢 𝑁 = 1

𝑁 0 0 0 1

𝑁 ⋯ ⋯

⋯ ⋯ ⋯ 0 0 ⋯ ⋯ 1 𝑁

allora lim

𝑁→∞ 𝑅𝑢𝑢 𝑁 = ത𝑅𝑢𝑢 =

0 0 ⋯ 0

0 0 ⋯ ⋯

⋯ ⋯ ⋯ 0

0 ⋯ ⋯ 0

Per cui l’impulso non è persistentemente eccitante di nessun ordine

Questo non vuol dire che la risposta all’impulso non può essere usata per stimare modelli, anzi ci dà molte informazioni sul sistema 𝐺0 𝑧 . La nozione di persistente eccitazione serve però a garantire stime consistenti anche in presenza di disturbi

In questo caso, il problema è che «osservo solo una volta» ogni valore della risposta all’impulso, e quindi se quel valore è corrotto da rumore «non posso confrontarlo» con altri valori analoghi, e me lo devo tenere sporcato dal rumore

𝑛𝑏 + 1 × 𝑛𝑏 + 1 𝑛𝑏 + 1 × 𝑛𝑏 + 1

(44)

Esempio: ingresso scalino

Consideriamo come ingresso 𝑢 𝑡 = sca 𝑡 = ቐ 1 se 𝑡 ≥ 0

0 se altrimenti 1 2

𝑢 𝑡

−2 −1 𝑡

𝑅𝑢𝑢 𝑁 = 1 𝑁

𝑡=1 𝑁

𝑢 𝑡 − 1 2

𝑡=1 𝑁

𝑢 𝑡 𝑢 𝑡 − 1 ⋯ ෍

𝑡=1 𝑁

𝑢 𝑡 𝑢 𝑡 − 𝑛𝑏

𝑡=1 𝑁

𝑢 𝑡 𝑢 𝑡 − 1

𝑡=1 𝑁

𝑢 𝑡 − 1 2

𝑡=1 𝑁

𝑢 𝑡 𝑢 𝑡 − 𝑛𝑏

𝑡=1 𝑁

𝑢 𝑡 − 1 2

1 1 1 1 1 ⋯ ⋯

⋯ ⋯ ⋯ 1 1 ⋯ ⋯ 1 La matrice 𝑅𝑢𝑢 𝑁 assume la forma seguente:

È persistentemente eccitante di ordine 1

𝑛𝑏 + 1 × 𝑛𝑏 + 1

(45)

Esempio: ingresso impulso e scalino

Come informazione ulteriore, notiamo che impulso e scalino caratterizzano completamente un sistema dinamico lineare (a meno della sua condizione iniziale), grazie anche al periodo di transitorio della risposta a questi segnali

È utile ricordare che il framework PEM che stiamo studiando qui non è adatto all’utilizzo di segnali con transitori (infatti richiede che essi siano realizzazioni di pss)

Altri metodi, come quelli di identificazione a sottospazi, possono utilizzare segnali con transitorio

(46)

Esempio: ingresso rumore bianco

Consideriamo ora come ingresso 𝑢 𝑡 = WN 0, 𝜆2 .In questo caso, la matrice ത𝑅𝑢𝑢𝑖 risulta essere:

𝑅ത𝑢𝑢𝑖 =

𝛾𝑢𝑢 0 𝛾𝑢𝑢 1 ⋯ 𝛾𝑢𝑢 𝑖 − 1 𝛾𝑢𝑢 1 𝛾𝑢𝑢 0 ⋯ 𝛾𝑢𝑢 𝑖 − 2

⋯ ⋯ ⋯ ⋯

𝛾𝑢𝑢 𝑖 − 1 𝛾𝑢𝑢 𝑖 − 2 ⋯ 𝛾𝑢𝑢 0

=

𝜆2 0 0 ⋯ 0

0 𝜆2 0 ⋯ 0 0 0 𝜆2 ⋯ 0

⋯ ⋯ ⋯ ⋯ 0

0 0 0 0 𝜆2

= 𝜆2 ⋅ 𝐼𝑖 ≻ 0

𝑖 × 𝑖

Quindi, un white noise è un segnale persistentemente eccitante di ordine ∞. Se usiamo un WN per eccitare il sistema, i dati generati saranno molto informativi. Questo perché eccitiamo tutte le frequenze del sistema (con la stessa «energia»)

(47)

Persistente eccitazione nel dominio delle frequenze

La nozione di persistente eccitazione di un segnale di ingresso 𝑢 𝑡 può essere interpretata anche nel dominio delle frequenze

A tale fine, consideriamo un processo stocastico stazionario generato nel modo seguente:

𝑦 𝑡 = 𝑐0𝑢 𝑡 + 𝑐1𝑢 𝑡 − 1 + 𝑐2𝑢 𝑡 − 2 + ⋯ + 𝑐𝑛𝑢 𝑡 − 𝑛

dove 𝑢 𝑡 è un processo stazionario a media nulla e con funzione di autocovarianza 𝛾𝑢𝑢 𝜏 (𝑢 𝑡 non è per forza un WN)

Questo processo è anche chiamato Generalized Moving Average (GMA) data la sua somiglianza al processo MA

(48)

Persistente eccitazione nel dominio delle frequenze

Calcoliamo la varianza di 𝑦 𝑡

Var 𝑦 𝑡 = 𝔼 𝑦 𝑡 2 = 𝑐02𝔼 𝑢 𝑡 2 + 𝑐12𝔼 𝑢 𝑡 − 1 2 + ⋯ + 𝑐𝑛2𝔼 𝑢 𝑡 2 +

+𝑐0𝑐1𝔼 𝑢 𝑡 𝑢 𝑡 − 1 + 𝑐1𝑐2𝔼 𝑢 𝑡 − 1 𝑢 𝑡 − 2 + ⋯ +𝑐0𝑐2𝔼 𝑢 𝑡 𝑢 𝑡 − 2 + 𝑐1𝑐3𝔼 𝑢 𝑡 − 1 𝑢 𝑡 − 2 + ⋯

Per cui

Var 𝑦 𝑡 = 𝑐02 + 𝑐12 + ⋯ + 𝑐𝑛2 𝛾𝑢𝑢 0 + 𝑐0𝑐1 + 𝑐1𝑐2 + ⋯ 𝛾𝑢𝑢 1 + 𝑐0𝑐2 + 𝑐1𝑐3 + ⋯ 𝛾𝑢𝑢 2 + ⋯

(49)

Persistente eccitazione nel dominio delle frequenze

Definiamo ora la matrice ത𝑅𝑢𝑢𝑖 di ordine 𝑖 = 𝑛 + 1

𝑅ത𝑢𝑢𝑛+1 =

𝛾𝑢𝑢 0 𝛾𝑢𝑢 1 ⋯ 𝛾𝑢𝑢 𝑛 𝛾𝑢𝑢 1 𝛾𝑢𝑢 0 ⋯ 𝛾𝑢𝑢 𝑛 − 1

⋯ ⋯ ⋯ ⋯

𝛾𝑢𝑢 𝑛 𝛾𝑢𝑢 𝑛 − 1 ⋯ 𝛾𝑢𝑢 0 𝑅ത𝑢𝑢𝑖 =

𝛾𝑢𝑢 0 𝛾𝑢𝑢 1 ⋯ 𝛾𝑢𝑢 𝑖 − 1 𝛾𝑢𝑢 1 𝛾𝑢𝑢 0 ⋯ 𝛾𝑢𝑢 𝑖 − 2

⋯ ⋯ ⋯ ⋯

𝛾𝑢𝑢 𝑖 − 1 ⋯ ⋯ 𝛾𝑢𝑢 0

𝑖 × 𝑖

Ponendo 𝒄 = 𝑐0 𝑐1 𝑐2 … 𝑐𝑛 ∈ ℝ 𝑛+1 ×1, possiamo scrivere che

Var 𝑦 𝑡 = 𝒄

⋅ ത 𝑅

𝑢𝑢𝑛+1

⋅ 𝒄

𝑛 + 1 × 𝑛 + 1

𝑛 + 1 × 𝑛 + 1 𝑛 + 1 × 1

(50)

Esempio: autocovarianza di un processo GMA

Consideriamo il seguente processo GMA di ordine 𝑛 = 1, dove 𝑢 𝑡 pss a media nulla 𝑦 𝑡 = 𝑐0𝑢 𝑡 + 𝑐1𝑢 𝑡 − 1

Var 𝑦 𝑡 = 𝔼 𝑦 𝑡 2 = 𝑐02𝔼 𝑢 𝑡 2 + 𝑐12𝔼 𝑢 𝑡 − 1 2 + 𝑐0𝑐1𝔼 𝑢 𝑡 𝑢 𝑡 − 1 Calcoliamo la varianza di 𝑦 𝑡

= 𝑐02𝛾𝑢𝑢 0 + 𝑐12𝛾𝑢𝑢 0 + 𝑐0𝑐1𝛾 1 + 𝑐1𝑐0𝛾 1

𝑅ത𝑢𝑢1+1 = 𝛾𝑢𝑢 0 𝛾𝑢𝑢 1 𝛾𝑢𝑢 1 𝛾𝑢𝑢 0 La matrice di autocovarianze di 𝑢 𝑡 è:

(51)

Esempio: autocovarianza di un processo GMA

Definiamo 𝒄 = 𝑐0 𝑐1 ∈ ℝ2×1 Per cui

Var 𝑦 𝑡 = 𝒄 ⋅ ത𝑅𝑢𝑢1+1 ⋅ 𝒄 = 𝑐0 𝑐1 ⋅ 𝛾𝑢𝑢 0 𝛾𝑢𝑢 1

𝛾𝑢𝑢 1 𝛾𝑢𝑢 0 ⋅ 𝑐0 𝑐1 =

= 𝑐0 𝑐1 ⋅ 𝑐0

𝛾𝑢𝑢 0 𝛾𝑢𝑢 1

+ 𝑐1

𝛾𝑢𝑢 1 𝛾𝑢𝑢 0

= 𝑐0 𝑐1 ⋅ 𝑐0 ⋅ 𝛾𝑢𝑢 0 + 𝑐1 ⋅ 𝛾𝑢𝑢 1 𝑐0 ⋅ 𝛾𝑢𝑢 1 + 𝑐1 ⋅ 𝛾𝑢𝑢 0

= 𝑐02𝛾𝑢𝑢 0 + 𝑐12𝛾𝑢𝑢 0 + 𝑐0𝑐1𝛾 1 + 𝑐1𝑐0𝛾 1

(52)

Persistente eccitazione nel dominio delle frequenze

Consideriamo quindi un generico vettore 𝜶 = 𝛼1 𝛼2 … 𝛼𝑛 ∈ ℝ𝑛×1, 𝜶 ≠ 𝟎, ed il segnale

𝑢 𝑡 generato filtrando il pss 𝑢 𝑡 a media nulla come

𝑢 𝑡 = 𝛼1𝑢 𝑡 − 1 + 𝛼2𝑢 𝑡 − 2 + ⋯ + 𝛼𝑛𝑢 𝑡 − 𝑛 La funzione 𝐻𝛼 𝑧 di trasferimento del filtro è

𝐻𝛼 𝑧 = 𝛼1𝑧𝑛−1 + ⋯ + 𝛼𝑛 𝑧𝑛

Possiamo quindi scrivere

𝑢 𝑡 = 𝐻𝛼 𝑧 𝑢 𝑡

(53)

Persistente eccitazione nel dominio delle frequenze

Essendo ෤𝑢 𝑡 un processo GMA, la sua varianza è

Var ෤𝑢 𝑡 = 𝜶 ⋅ ത𝑅𝑢𝑢𝑛 ⋅ 𝜶 È però possibile esprimere la varianza di ෤𝑢 𝑡 anche come

Var ෤𝑢 𝑡 = 1

2𝜋 න

−𝜋 +𝜋

Γ𝑢෥𝑢 ω 𝑑𝜔 = 1

2𝜋 න

−𝜋 +𝜋

𝐻𝛼 𝑒𝑗𝜔 2 ⋅ Γ𝑢𝑢 ω 𝑑𝜔 Da cui segue che

𝜶 ⋅ ത𝑅𝑢𝑢𝑛 ⋅ 𝜶 = 1

2𝜋 න

−𝜋 +𝜋

𝐻𝛼 𝑒𝑗𝜔 ⋅ Γ𝑢𝑢 ω 𝑑𝜔

(54)

Persistente eccitazione nel dominio delle frequenze

Il fatto che ത𝑅𝑢𝑢𝑛 ≻ 0 (e quindi che 𝑢 𝑡 sia persistentemente eccitante di ordine 𝑛) equivale a dire che 𝜶 ⋅ ത𝑅𝑢𝑢𝑛 ⋅ 𝜶 > 0. Quindi ത𝑅𝑢𝑢𝑛 è non singolare se e solo se

𝜶 ⋅ ത𝑅𝑢𝑢𝑛 ⋅ 𝜶 = 1

2𝜋 න

−𝜋 +𝜋

𝐻𝛼 𝑒𝑗𝜔 2 ⋅ Γ𝑢𝑢 ω 𝑑𝜔

𝜶𝑅ത𝑢𝑢𝑛 𝜶 = 0 ⟹ 𝜶 = 𝟎 La precedente implicazione può essere riscritta come

1

2𝜋 න

−𝜋 +𝜋

𝐻𝛼 𝑒𝑗𝜔 2 ⋅ Γ𝑢𝑢 ω 𝑑𝜔 = 0 ⟹ 𝐻𝛼 𝑒𝑗𝜔 = 0 ∀𝜔

(55)

Persistente eccitazione nel dominio delle frequenze

Quando succede che 𝜶 ⋅ ത𝑅𝑢𝑢𝑛 ⋅ 𝜶 = 0 nonostante sia 𝜶 ≠ 𝟎? Notiamo che la funzione di trasferimento 𝐻𝛼 𝑧 può avere al massimo 𝑛 − 1 zeri

Però, se Γ𝑢𝑢 𝜔 ≠ 0 per almeno 𝑛 pulsazioni distinte nell’intervallo 𝜔 ∈ −𝜋, 𝜋 , allora

׬−𝜋+𝜋 𝐻𝛼 𝑒𝑗𝜔 ⋅ Γ𝑢𝑢 ω 𝑑𝜔 ≠ 0 e quindi 𝜶 ⋅ ത𝑅𝑢𝑢𝑛 ⋅ 𝜶 > 0

Quindi, 𝐻𝛼 𝑧 può annullarsi se 𝑧𝑘 = 𝑒𝑗𝜔𝑘 è uno dei suoi zeri, con 𝑘 = 1, … , 𝑛 − 1

Questa interpretazione ci permette di dare una definizione equivalente di persistente eccitazione

(56)

Persistente eccitazione nel dominio delle frequenze

Definizione (Persistente eccitazione)

Un segnale 𝑢 𝑡 , con spettro Γ𝑢𝑢 𝜔 , è persistentemente eccitante di ordine 𝑛 se e solo se, per tutti i filtri della forma

𝐻𝛼 𝑧 = 𝛼1𝑧−1 + 𝑎2𝑧−2 + ⋯ + 𝑎𝑛𝑧−𝑛 la relazione

𝐻𝛼 𝑒𝑗𝜔 2 ⋅ Γ𝑢𝑢 ω = 0 ∀𝜔 implica che 𝐻𝛼 𝑒𝑗𝜔 = 0 ∀𝜔

(57)

Persistente eccitazione nel dominio delle frequenze

Possiamo quindi concludere che:

2. Un processo ARMA è persistentemente eccitante di ogni ordine

1. Un pss 𝑢 𝑡 a media nulla (media non nulla) è persistentemente eccitante di ordine 𝑛 (𝑛 + 1) se Γ𝑢𝑢 𝜔 ≠ 0 in almeno 𝑛 pulsazioni 𝜔 ∈ −𝜋, 𝜋 distinte

Infatti, Γ𝑦𝑦 𝜔𝑘 = 0 solo se 𝑧𝑘 = 𝑒𝑗𝜔𝑘 è uno degli zeri di 𝐶 𝑧 , e vi sono altre infinite frequenze per cui la sua densità spettrale di potenza non si annulla

Esempio: il segnale 𝑢 𝑡 = sin 𝜔0𝑡 è persistentemente eccitante di ordine 𝑛 = 2 (Γ𝑢𝑢 𝜔 ha contributi alle pulsazioni ±𝜔0)

(58)

Persistente eccitazione nel dominio delle frequenze

Considerazioni ulteriori

• Un segnale 𝑢 𝑡 , periodico di periodo 𝑇, è al massimo (potrebbe essere anche minore) persistentemente eccitante di ordine 𝑛 = 𝑇

𝜔 Γ𝑢𝑢 𝜔

−𝜋 𝜋

Esempio: consideriamo un pss completamente predicibile periodico di periodo 𝑇, con media non nulla

𝜔 = −𝜋 e 𝜔 = 𝜋 sono lo stesso punto e vanno contati una volta sola 1

2 3

4

5 6

(59)

Esempio: effetto dell’ingresso sulla stima

Consideriamo il seguente meccanismo di generazione dei dati 𝒮

𝒮: 𝑦 𝑡 = 0.103 + 0.181𝑧−1

1 − 1.991𝑧−1 + 2.203𝑧−2 − 1.841𝑧−3 + 0.894𝑧−4 𝑧−3𝑢 𝑡 + 𝑒 𝑡 , 𝑒 𝑡 ∼ WN 0,0.52 Notiamo che il sistema è del tipo Output Error OE 𝑛𝑏, 𝑛𝑓, 𝑘 , con 𝑘 = 3, 𝑛𝑏 = 1, 𝑛𝑓 = 4

Utilizziamo una famiglia di modelli tali che 𝒮 ∈ ℳ 𝜽 , ovvero

ℳ 𝜽 : 𝐺 𝑧, 𝜽 = 𝑏0 + 𝑏1𝑧−1

1 + 𝑓1𝑧−1 + 𝑓2𝑧−2 + 𝑓3𝑧−3 + 𝑓4𝑧−4 𝑧−3; 𝐻 𝑧, 𝜽 = 1

I parametri sono 𝜽 = 𝑏0 𝑏1 𝑓1 𝑓2 𝑓3 𝑓4 ∈ ℝ6×1. Il numero di parametri di 𝐺 𝑧, 𝜽 è 𝑛𝑔 = 6

(60)

Esempio: effetto dell’ingresso sulla stima

Misuriamo 𝑁 = 2000 dati con ingresso sinusoidale 𝑢sin 𝑡 = sin 0.1𝑡 , p.e. di ordine 2

(61)

Esempio: effetto dell’ingresso sulla stima

Misuriamo 𝑁 = 2000 dati con ingresso rumore bianco 𝑢wn 𝑡 ∼ WN 0,0.52 , p.e. di ordine ∞

(62)

Segnali di eccitazione ulteriori

Abbiamo visto che un rumore bianco è un ottimo segnale di eccitazione. Nella pratica, però, è impossibile generare un rumore bianco «perfetto»:

• al più, le sequenze di numeri saranno pseudo-casuali, e non casuali

• a causa di limiti dell’elettronica (e.g. capacità parassite), il segnale generato e trasmesso agli attuatori sarà «filtrato passa-basso», per cui non si avrà uno spettro

«perfettamente piatto». Inoltre, talvolta non si vuole sollecitare troppo gli attuatori ad alta frequenza per non rovinarli

Inoltre, l’ampiezza del rumore bianco non è «limitata». Talvolta, è necessario garantire che l’attuatore non saturi l’ingresso, al fine di non introdurre nonlinearità nell’esperimento e nei dati misurati

(63)

Pseudo-Random Binary Signal (PRBS)

Il segnale di tipo PRBS è un segnale deterministico, periodico, a tempo discreto, che commuta tra due livelli

L’ utente deve definire i due livelli −ത𝑢, +ത𝑢 , il periodo e l’intervallo di clock (il numero minimo di intervalli di tempo dopo i quali il segnale può cambiare livello)

(64)

Pseudo-Random Binary Signal (PRBS)

Di solito il periodo viene posto uguale al numero di dati 𝑁 che si vuole collezionare, e l’intervallo di clock a un tempo di campionamento

I tool per la generazione dei segnali (come Matlab) generano automaticamente dei PRBS di lunghezza massima, ovvero dei segnali il cui periodo è 𝑇 = 2𝑛prbs − 1, dove 𝑛prbs è detto ordine del PRBS. È poi possibile ripetere più volte il segnale con tale periodo

Per cui, se settiamo 𝑇 = 𝑁 e 𝑁 non è esprimibile come 2𝑛prbs − 1, il periodo effettivamente generato non sarà di 𝑁 ma del valore 2𝑛prbs − 1 più vicino a 𝑁

In matlab

idinput([N 1 3], 'prbs', Band, Range) Periodo di lunghezza 𝑁 ripetuto 3 volte

(65)

Pseudo-Random Binary Signal (PRBS)

Tali «maximum length PRBS» hanno proprietà interessanti. Infatti, si dimostra come la funzione di autocovarianza di un max. length PRBS può essere espressa come

Notiamo che quando 𝑇 → ∞ il PRBS approssima un rumore bianco. Il PRBS è persistentemente eccitante di ordine 𝑀 (e non può esserlo di più essendo periodico)

𝛾𝑢𝑢 𝜏 = 1

𝑀 ෍

𝑡=1 𝑀

𝑢 𝑡 − 𝑚𝑢 𝑢 𝑡 + 𝜏 − 𝑚𝑢 =

𝑢2 1 − 1

𝑇 se 𝜏 = 0, ±𝑀, ±2𝑀, …

−𝑢ത2

𝑇 1 + 1

𝑇 se altrimenti

𝑚𝑢 è la media del PRBS, che non è esattamente zero

(66)

Esempio: effetto dell’ingresso sulla stima

Riprendiamo l’esempio precedente e misuriamo 𝑁 = 2000 dati con ingresso PRBS −2, +2

(67)

Multiseno

Il segnale multiseno è un segnale periodico, definito come una media pesata di sinusoidi, con frequenze multiple della risoluzione in frequenza della DFT 𝑓0 = 𝑓𝑠/𝑁

𝑢 𝑡 = ෍

𝑘=0 𝐹

𝐴𝑘 ⋅ cos 2𝜋 ⋅ 𝑘𝑓0 ⋅ 𝑡 + 𝜙𝑘

• ll numero 𝐹 di componenti in frequenza deve soddisfare il teorema del campionamento

• Gli sfasamenti 𝜙𝑘 sono in generale scelti in modo casuale, e si possono anche ottimizzare per minimimizzare il valore di picco del segnale

(68)

Multiseno

Molto spesso le ampiezze 𝐴𝑘 vengono scelte ad un valore costante nella banda di frequenze di interesse, e 0 altrove. Per esempio, se 𝐴𝑘 = 1 ∀𝑘, l'ampiezza dello spettro in frequenza dell’ uscita 𝑦 𝑡 assume la forma dell'ampiezza della funzione di trasferimento alle frequenze eccitate

(69)

Multiseno

Quando l’ingresso 𝑢 𝑡 da un multiseno, anche il segnale di uscita 𝑦 𝑡 di un sistema LTI è un multiseno (dopo un transitorio), come conseguenza del principio di sovrapposizione degli effetti

• Di solito si scartano i primi periodi del segnale multiseno generato

Quando si progetta un multiseno, si può fissare la risoluzione in frequenza desiderata e la massima frequenza eccitata, per calcolare automaticamente la lunghezza 𝑁 ⋅ 𝑃 del segnale, dove 𝑁 = numero dati per periodo e 𝑃 = numero di periodi del multiseno

(70)

Multiseno

Visivamente, un multiseno è molto simile ad un rumore bianco

White noise Multiseno

(71)

Esempio: multiseno

Progettiamo un multiseno con 𝑁 = 1000 campioni per periodo, campionato a

𝑓𝑠 = 1 Hz

Misuriamo 𝑃 = 2 periodi. Ogni periodo del multiseno è un segnale che eccita le frequenze da 1 bin = 𝑓𝑠/𝑁 = 10−3 fino a 0.5 Hz, con una risoluzione di 1 bin = 𝑓𝑠/𝑁 (la componente DC non è eccitata)

Riferimenti

Documenti correlati

• Input_mart_di_carico.m: costituisce il file di ingresso per effettuare la simulazione nel modello Simulink relativo al capitolo 5 (controllo_sul_carico.mdl).. Durante la prova

Si denota come “integrale generale” dell’equazione differenziale un’espressione analitica che al variare di un parametro fornisca tutte o.. quasi le soluzioni

Due insiemi hanno lo stesso numero di elementi (la stessa Cardinalità) se esiste una corrispondenza biunivoca fra loro. Non tutti gli insiemi infiniti hanno la

Negli <<Acta Eruditorum>> del 1696 Johann Bernoulli propose, come sfida agli altri matematici, il problema in seguito diventato famoso come problema

Il problema di non identificabilità più critico è quello sperimentale: se non abbiamo sufficiente informazione nei dati, non possiamo fare nulla (se non ripeter l’esperimento)..

L’applicazione di una procedura decorrelativa alternativa, basato sulla ricostruzione della rete di legami successiva alla regressione di un modello lineare per ogni

rappresenta una classe di fatti, nel modello Entity-Relationship; tradotto anche con. associazione

Visto che molto di questo traffico è ge- nerato da utenti dotati di connessioni ADSL con tassazione di tipo flat (a canone, indipen- dentemente dal volume di traffico