• Non ci sono risultati.

delle prestazion

2.2 definizione di errore di predizione

L’errore di predizione al tempo k (ek) è la differenza tra il valore

reale degli output del processo in quell’istante e i valori predetti dal modello interno del controllore all’istante k − 1. Analizzando questa definizione, è ovvio che ogni problema che può sorgere nel control- lore e che può allontanarlo dall’ottimalità ha influenza sull’errore di predizione, in quanto yk e, di conseguenza, ek, dipendono diretta-

mente dal modello del processo e dal filtro (observer) impiegato nel modulo di stima. Questo fa intuire che l’errore di predizione può essere un parametro utile per valutare il comportamento del control- lore. Il problema principale deriva dal fatto che l’errore di predizione è generato da diverse componenti; inoltre, esso dipende dagli stati reali xk e dai disturbi reali dk, ma anche dagli stati del modello xk|k

e dai disturbi fittizi dk|k, e dal rumore di misura vk. Si capisce quindi

che risulta difficile discernere quale di questi termini sia la causa del problema.

2.3

tecniche basate sull’errore di predi-

zione

Un approccio diverso da quello adottato nelle metodologie do moni- toraggio descritte precedentemente, è quello che prevede il monito- raggio delle prestazioni attraverso l’analisi dell’errore di predizione. Kesavan e Lee [22], [23] hanno proposto due test diagnostici basati

sull’errore di predizione per il riconoscimento del degrado delle pre- stazioni ed il riconoscimento delle possibili cause. Essi suggeriscono una metodologia in cui, inizialmente, vengono effettuati dei semplici test statistici (come il test del χ2) sull’errore di predizione per gene- rare una lista delle possibili cause di malfunzionamento. 3

. Successi- vamente, per un’analisi quantitativa, essi propongono lo sviluppo di un modello di malfunzionamento (fault model), attraverso l’impiego di statistiche di tipo gaussiano. I risultati di questa diagnosi posso- no essere sfruttati in due modi: primo, possono servire come guida per apportare un’adeguata azione correttiva; secondo, le informazio- ni possono essere processate in quantità tali da servire come feedback

3 Tuttavia, richiedono un modello dinamico completo, quale quello implementato nel controllore MPC.

per il controllore al fine di migliorarne le prestazioni.

Diversa è la filosofia adottata da Harrison e Qin [1], la cui tecnica di

diagnostica può essere schematizzata nei seguenti punti:

1. valutazione della bianchezza di ek attraverso lo studio dell’au- tocorrelazione (descritta successivamente); se da questa analisi ek risulta bianco, allora le matrici del processo sono esatte e il filtro K è ottimale;

2. si valuta l’ordine della matrice di osservabilità estesa del pro- cesso che genera l’errore di predizione: se tale ordine è pari all’ordine del processo (n), il modello del processo è corretto ma il filtro K è subottimale: si procede, quindi, con il calcolo di Kattraverso una nuova stima delle covarianze dei rumori;

3. se l’ordine della matrice di osservabilità estesa del processo che genera l’errore di predizione è maggiore di n, il mismatch tra modello e processo reale è significativo e si rende perciò necessaria una reidentificazione del modello.

Un approccio analogo è quello adottato da Micchi [2], sulla scia del

quale De Luca [3] ha proposto alcune variazioni illustrate in seguito

e sulle quali si basa questo lavoro di tesi.

2.4

rumore bianco

Come riportato in [3] il termine rumore bianco è ambiguo. Brown [24]

lo definisce come:

“un processo stazionario casuale avente una funzione di densità spettrale costante.”

Questa definizione implica che una sequenza di rumore bianco abbia media nulla.

Papoulis [25] fornisce un’altra definizione:

“Si può dire che un processo v(t) è un rumore bianco se i suoi valori v(ti)e v(tj)sono scorrelati per ogni tie tj6= ti:

C(ti, tj) = 0, ti6= tj.”

Nella pratica, la caratteristica di maggior rilievo è quella rimarca- ta nella seconda di queste due definizioni; in altre parole se v rap- presenta una sequenza di rumore bianco, vk sarà indipendente da

v0. . . vk−1. In Figura 8 è mostrata una sequenza di rumore bianco. Per maggiori dettagli sulla caratterizzazione di un rumore bianco si può consultare [26].

Figura 8: Sequenza di rumore bianco a varianza unitaria.

2.4.1 Test di bianchezza

Un primo passo nella valutazione delle prestazioni può essere effet- tuato analizzando la sequenza dell’errore di predizione per valutarne la bianchezza, dato che, se un controllore predittivo opera in condizio- ni ottimali4

la sequenza dell’errore di predizione ek è rappresentata

da un rumore bianco.

Questo vuol dire che valutando la bianchezza della sequenza dell’erro- re di predizione di un sistema è possibile stabilire se questo opera in condizioni ottimali o no. Occorre tuttavia sottolineare che il solo test di bianchezza non è sufficiente per identificare la causa di malfunzio- namento.

Per valutare la bianchezza, un parametro fondamentale è l’autocorre- lazione; tale parametro è basato sull’autocovarianza di un sistema. Nel caso di un sistema SISO, data una variabile scalare a media nul- la, registrata per N istanti di campionamento,  ∈ R1×N, fissato un numero intero τ (lag), si definisce autocovarianzaR(τ):

R(τ) = E[

k Tk−τ]

dove E[. . . ] rappresenta l’operatore valore atteso. In altre parole l’au- tocovarianza rappresenta la covarianza5

della variabile rispetto ad

4 Le matrici del processo sono perfettamente note e il filtro di Kalman associato al sistema è ottimale.

5 La covarianza di due variabili aleatorie X e Y è il valore atteso dei prodotti delle loro distanze dalla media:

una versione shiftata di τ lag della stessa. Normalizzando per il valo- reR(0)(cioè la covarianza di ) si ottiene il valore del parametro di autocorrelazione r(τ):

r(τ) = E[k 

T k−τ]

E[k Tk]

Questa definizione può essere estesa anche al caso di processi multi- variabili, in cui  non è uno scalare, ma un vettore, cioè  ∈ Rp×N, dove p rappresenta il numero di output. Questo può essere fatto semplicemente considerando un’uscita per volta allo stesso istante di campionamento, cioè l’autocorrelazione dell’i-esimo canale di , che verrà indicata con i, sarà:

ri(τ) = E[

i

k (ik−τ)T]

E[ik (ik)T]

In caso di diversi canali, ognuno di essi deve essere considerato singo- larmente nella definizione dell’autocorrelazione. Qui di seguito, per semplicità, si considererà un sistema SISO, tuttavia i risultati valgono anche nel caso MIMO.

I test di bianchezza sono sostanzialmente di due tipi: 1. test basati sulla sola funzione di autocorrelazione; 2. test portmonteau.

Un esempio del primo tipo di test si può trovare in [27]. Esso prevede

la definizione di un intervallo di confidenza, all’interno del quale si può ritenere valida l’ipotesi di bianchezza; definito ¯r(τ) = E[r(τ)], l’intervallo di confidenza è rappresentato da ¯r(τ) ± εF, dove εF è la banda di confidenza. Tale banda dipende dal numero (N) di campioni di  e dalla funzione cumulativa (ι) della distribuzione di : εF = √ιF

N.

Solitamente si ipotizza che  segua una distribuzione gaussiana e si assume F = 95%: poiché, sotto tali ipotesi, ι95 = 1.96, si ha ε95 =

1.96

N. Il test quindi consiste nel verificare che:

|r(τ)| 6 1√.96 N

Se questa disuguaglianza viene soddisfatta, la sequenza in questione è un rumore bianco, altrimenti no. Una variante di questo test, che tiene conto anche del numero di violazioni della banda di confidenza e della loro ampiezza, è impiegata in [2].

I test portmonteau sfruttano il concetto di autocorrelazione per l’e- laborazione di una statistica (Q), il cui valore va confrontato con il valore della funzione cumulativa della distribuzione6

del χ2; infatti,

6 In statica, la distribuzione cumulativa del χ2con k gradi di libertà è la distribuzione della somma dei quadrati di k variabili indipendenti standard normalizzate random. Questa distribuzione è una tra le più utilizzate in statistica inferenziale ad esempio nell’hypothesis testing o nella costruzione di intervalli di confidenza (come nel caso in esame).

se una sequenza è un rumore bianco, la statistica elaborata segue una distribuzione del χ2con un numero di gradi di libertà pari al numero di lag considerati nel calcolo dell’autocorrelazione. I tre test più dif- fusi di questa classe sono: Box-Pierce, Ljung-Box e McLeod-Li [28],

[29].

Il metodo di monitoraggio sviluppato da De Luca [3] ed applicato

in questo lavoro di tesi, impiega il test di Ljung-Box, che prevede la valutazione del seguente parametro statistico:

Q = N(N + 2) m X k=1 [r(k)]2 T − k (2.1)

dove N è il numero di campioni, m è il numero di lag considerati (solitamente 20) e r(k) è l’autocorrelazione del campione al k-simo lag. Fissato un livello di tolleranza α (solitamente il 5%), il che equivale a fissare un livello di confidenza pari a 1 − α si confronta il valore di Q con quello della distribuzione del χ2 con un numero di gradi di libertà pari a m (indicata con χ2

1−α,m) e si valuta la bianchezza della

sequenza secondo il seguente criterio:

Q : 

> χ21−α,m NON bianco

6 χ21−α,m bianco

(2.2)

In Figura 9 è diagrammata una distribuzione cumulativa del χ2 con 20 gradi di libertà in funzione di Q. In particolare fissato un livello di confidenza pari a 0.95 si ricava che il valore soglia di Q al di sotto del quale una sequenza è considerata bianca è Qχ2 = 31.41. Si

evidenzia che nei test di Ljung-Box condotti in questo lavoro di tesi è stato utilizzato tale valore di soglia per distinguere una sequenza bianca da una non bianca.

Un’importanza notevole, ai fini dell’attendibilità del test, è ricoper- ta dalla lunghezza della sequenza analizzata (N) e dal numero di lag (m): mentre la prima non è un problema, dato che le sequenze di dati da monitorare hanno sempre un numero di campioni N eleva- to, la scelta del numero di lag richiede maggiore attenzione. Infatti, mentre un numero di lag troppo piccolo può non garantire risultati accettabili, un numero di lag troppo elevato richiede tempi di calcolo maggiori. I risultati delle simulazioni condotte da De Luca [3] sug-

geriscono di utilizzare un numero di lag m = 20 che risulta essere un buon compromesso tra una buona attendibilità dei risultati e un costo computazionale ridotto.

0 10 20 30 40 50 60 70 80 90 100 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Q χ 2

Figura 9: Distribuzione cumulativa del χ2con 20 gradi di libertà.

2.5

procedura di diagnostica applicata

2.5.1 Introduzione

La procedura di diagnostica proposta da De Luca [3] ed applicata in

questa tesi deriva dai lavori di Harrison e Qin [1] e Micchi [2] che si

basano sull’analisi del processo che genera l’errore di predizione. Tut- tavia, la strategia sviluppata da De Luca, presenta alcune significative variazioni rispetto ai lavori precedenti. Queste differenze verranno evidenziate nel seguito.

• la procedura proposta da Harrison e Qin elimina di fatto l’ef- fetto degli ingressi uk sulla sequenza dell’errore di predizione

per mezzo di una legge affine a tratti; il metodo applicato in questa tesi valuta direttamente, in sede di diagnostica, l’effet- to degli ingressi deterministici uk sulla sequenza dell’errore di

predizione; tale effetto viene invece di fatto eliminato, nella pro- cedura proposta Harrison e Qin mediante una legge affine a tratti;

• gli interventi correttivi suggeriti dal metodo di diagnostica di Harrison e Qin richiedono la conoscenza della covarianza della covarianza del rumore per la progettazione del filtro ottimale secondo Kalman

In Figura 10 è riportato il diagramma a blocchi che illustra la pro- cedura di diagnostica applicata; questa può essere riassunta, in gene- rale, nei seguenti punti:

1. Si effettua il test di bianchezza sulle sequenze dell’errore di predizione{ek} relative ad ogni uscita.

2. Se tutte le sequenze {ek} sono bianche, il controllore lavora in condizioni ottimali; altrimenti, si valuta l’ordine del processo che genera l’errore di predizione ( ord(uk→ ek)).

3. Se ord (uk → ek) = 0, allora si passa direttamente al punto 5, altrimenti si procede al punto4.

4. Si reidentificano le matrici del processo (uk → yk). 5. Si ricalcola il filtro Kaottimale.

Di seguito vengono presentati i punti salienti della procedura di dia- gnostica in esame evidenziando le differenze rispetto ai lavori prece- denti.

2.5.2 Analisi del processo che genera l’errore di predizione

Harrison e Qin [1] hanno mostrato che è possibile ottenere informa-

zioni sull’adeguatezza dei modelli del processo e del disturbo e del filtro dall’analisi del processo che genera l’errore di predizione ek.

Tuttavia hanno considerato sistemi non offset-free e, inoltre, hanno assunto di poter esprimere gli ingressi ukcon una legge affine a tratti

del tipo:

uk = −Lxˆxk+ fk (2.3)

Di conseguenza hanno assunto di poter valutare l’ordine del processo che genera l’errore di predizione attraverso lo studio della matrice di osservabilità estesa ottenuta riscrivendo la formulazione del sistema tenendo conto dell’equazione2.3.

Micchi [2] ha esteso questo concetto per sistemi offset-free, rimuoven-

do l’ipotesi sugli ingressi descritta dall’equazione2.3ed ha proposto la valutazione dell’ordine del processo da uk a ek attraverso l’analisi

della seguente matrice di osservabilità estesa7 :

7 Il termine estesa fa riferimento al fatto che si considera un processo in variabili di stato affetto da disturbi esterni, espresso nella forma:

     xk+1= Axk+ Buk+ Bddk+ Kxvk dk+1= Addk+ Kdvk yk= Cxk+ Dddk+ vk

Definendo un nuovo stato (˜xk) che includa stati e disturbi del processo (xak) e stati e

disturbi del modello del processo (ˆxak), è possibile riscrivere il sistema così esteso in una forma più compatta come:

˜xk+1= ˜A˜xk+ ˜Buk+ ˜Kvk

ek= ˜Cxk+ vk

Figura 10: Diagramma a blocchi della procedura globale. O =      ˜ C ˜ C ˜A .. . ˜ C ˜An−1˜      dove n = 2(n + p)˜ (2.4)

Questo tipo di analisi conduce ai seguenti risultati:

• se l’ordine della matrice di osservabilità del processo uk → ek

che includa quindi anche i disturbi nel vettore degli stati), allora le matrici del modello del processo sono corrette;

• se l’ordine della matrice di osservabilità uk→ ek è maggiore di

n + p, allora le matrici del modello del processo sono affette da mismatch significativo.

Tuttavia, come osservato da De Luca, questo criterio presenta un punto debole. Nella pratica, infatti, l’ordine n del processo molto spesso non è noto o, comunque, va determinato mediante una tecni- ca di identificazione. Appare quindi evidente che i risultati ottenuti dipenderebbero dalla particolare tecnica utilizzata.

Nel lavoro di De Luca questa limitazione è stata invece superata attraverso la determinazione dell’ordine minimale del processo che genera l’errore di predizione (anziché l’ordine della sola matrice di osservabilità). Nei testi di Teoria dei Sistemi (ad esempio [8]) si può

trovare la seguente definizione di realizzazione minimale:

Realizzazione minimale 1. Una realizzazione di un processo è minimale

se e solo se essa è controllabile ed osservabile.

Pertanto, la sola analisi della matrice di osservabilità potrebbe in- cludere stati osservabili ma non controllabili con conseguente possi- bile identificazione di un ordine maggiore. Determinando l’ordine della minima realizzazione del processo uk → ek il criterio di distin-

zione dei i casi in cui le matrici del modello sono corrette da quelli in cui queste sono errate è il seguente:

• se l’ordine minimale del processo che genera l’errore di pre- dizione è 0, allora le matrici del modello del processo sono corrette;

• se l’ordine è maggiore di 0, allora le matrici del modello del processo sono affette da mismatch significativo.

Per determinare l’ordine del processo che genera l’errore di predi- zione si fa ricorso alla tecnica di identificazione PARSIM-K descritta nel Capitolo precedente. Inoltre, per tenere conto dell’influenza del contributo stocastico sui risultati di identificazione, è stato affinato il criterio di taglio, implementato all’interno della tecnica PARSIM-K, per la valutazione dell’ordine del processo.

Implementazione del criterio di taglio

Nella versione originaria, la tecnica PARSIM-K prevede un solo cri- terio di troncamento per la decomposizione SVD sulla base del para- metro par.order:

• se par.order < 1, vengono mantenuti soltanto i valori singolari σiper i quali σi

σ1 > par.order (dove σ1 è il valore singolare più

• se par.order > 1, vengono mantenuti i primi par.order valori singolari.

In genere, si impone par.order > 1 soltanto quando si ha già una qualche informazione riguardo l’ordine del processo da identificare; diversamente, si fissa un valore di par.order < 1, demandando la de- terminazione dell’ordine del processo alla tecnica di identificazione. Questo criterio, tuttavia, risulta inefficiente nel riconoscere processi di ordine 0: in tal caso, infatti, i valori singolari derivanti dalla decom- posizione SVD risultano tutti molto vicini tra loro e perciò nessuno di essi può essere scartato in quanto piccolo rispetto a σ1. Un aspetto

molto importate del lavoro di de Luca [] è stato quello di affianca- re a questo criterio un altro che fissi un valore soglia al di sotto del quale i valori singolari possono essere ritenuti tutti comparabili tra loro. Questo secondo criterio si basa sul confronto sul confronto tra il valore singolare più grande (σ1) e quello più piccolo (σN). L’idea

di base è che, per processi di ordine 0, poiché i valori singolari sono tutti confrontabili tra loro, σN non risulta molto più piccolo di σ1.

Pertanto, fissato un valore di soglia α per il rapporto σ1

σN, si stabilisce che: rs = σ1 σN 6 α ⇒ idord = 0 rs= σ1 σN > α ⇒ idord 6= 0 (2.5)

Nello studio condotto da De Luca [3] si ha che il valore di α otti-

male per il riconoscimento, tanto dei processi di ordine 0 quanto per quelli con ordine diverso da 0 è intorno a 15 ÷ 20.

2.5.3 Ricalcolo del filtro

Come affermato in precedenza, un’adeguata modellazione del filtro ha un’importanza notevole. Nei lavori finora presentati da Harri- son e Qin [1] e Micchi [2], la progettazione del filtro è stata sempre

effettuata secondo Kalman come descritto di seguito.

Filtraggio di Kalman

Il criterio di Kalman fa riferimento al sistema:

xk+1 = Axk+ Buk+ ξk (2.6)

yk = Cxk+ ζk (2.7)

con le seguenti assunzioni:

• ξkRn (rumore di processo) è un rumore bianco (E[ξ

kξTj] =

0 ∀k 6= j), con media nulla (E[ξk] = 0) e covarianza E[ξkξTk] =

• ζk ∈ Rp (rumore di misura) è un rumore bianco (E[ζkζTj] =

0 ∀k 6= j), con media nulla (E[ζk] = 0) e covarianza E[ζkζTk] =

R > 0;

• x0 (vettore degli stati al tempo 0) è un vettore random con le

seguenti caratteristiche: E[x0] = ¯x0, E[(x0− ¯x0)(x0 − ¯x0)T] =

var[x0] = P0 > 0;

• i vettori ξk, ζke x0 sono scorrelati, cioè: E[ξkζTj] = 0, E[ξkxT0] =

0, E[ζkxT0] = 0∀k, j ∈Z

• i vettori ξk, ζk e x0 seguono la distribuzione normale (gaussia-

na) di probabilità: ξk∼ N(0, Q), ζk ∼ N(0, R), x0 ∼ N(¯x0, P0)

Si assume inoltre che la predizione dello stato secondo il modello sia:

ˆxk+1|k= Aˆxk|k+ Buk (2.8)

e si definiscono l’errore di predizione:

k+1|k= xk+1−ˆxk+1|k (2.9)

e la sua covarianza:

Pk+1|k= E[k+1|kTk+1|k] (2.10) La dinamica del predittore è la seguente:

ˆxk+1|k= Aˆxk|k−1+ Buk+ Lk[yk− Cˆxk|k−1] (2.11)

con partenza dalla stima dello stato iniziale ˆx0|−1= ˆx0. Il predittore

di Kalman, che minimizza la matrice di covarianza Pk+1|kdell’errore

di predizione k+1|k, è dato da:

Lk= APk|k−1CTCPk|k−1CT+ R−1 (2.12) dove Pk|k−1 è la soluzione dell’equazione iterativa:

Pk+1|k= APk|k−1AT+ Q − APk|k−1CTCPk|k−1CT+ R−1

CPk|k−1AT (2.13) con la condizione iniziale:

P0|−1= P0 (2.14)

Questo predittore, in generale, è tempo-variante, dato che Lk dipen-

de dall’indice temporale k; tuttavia, nella maggior parte dei casi, si usa la sua versione tempo-invariante per evitare di calcolare in linea Pk+1|kad ogni istante di tempo k.

Come si può notare, questa tipologia di predittore non può prescin- dere dalla conoscenza, seppur approssimata, delle covarianze dei rumori.

Come descritto di seguito, un passo avanti nella tecnica sviluppata da De Luca [3] è stato quello di proporre un approccio alternativo che

non richieda alcuna conoscenza delle proprietà statistiche dei termini stocastici.

Ricalcolo del filtro via SQP

L’idea proposta è quella di ricalcolare le matrici del filtro ottimale risolvendo un problema di ottimizzazione non lineare che minimizzi la norma dell’errore. Il problema, formulato come segue:

min Ka,xa0 k=NptsX k=1 ek 2 (2.15) soggetto a: ek = yk− Caxak xak+1 = AaKxka+ Bauk+ Kayk (2.16)

viene risolto attraverso la risoluzione di sotto-problemi di tipo qua- dratico, secondo un approccio SQP. I risultati ottenuti da De Luca hanno mostrato che questo metodo, sicuramente più dispendioso del- la risoluzione di un problema di ottimizzazione ai minimi quadrati, garantisce comunque la stabilità e la diminuzione della norma del- l’errore di predizione. Per maggiore generalità il problema SQP da risolvere per il calcolo del filtro ottimale è stato modificato da De Luca in modo da ottenere direttamente Lxe Ldcome segue:

min Lx,Ld,xa0 j=NsimX j=1 ej 2 2 (2.17) soggetto a:  ˆx ˆd  k+1|k = ˆ A − ˆALxC − ˆˆ BdLdCˆ ˆBd− ˆALxd− ˆBdLdd −LdCˆ I − LdCˆd   ˆx ˆd  k|k−1 + ˆB 0  uk+ ˆ ALx+ ˆBdLd Ld  yk (2.18) ek = yk−Cˆ Cˆd ˆx ˆd  k|k−1 (2.19)

3

I L P R O C E S S O D I T O P P I N G

L’obiettivo principale di questa tesi è quello di applicare ed estendere la tecnica di diagnostica proposta da De Luca [3] a modelli dinamici

complessi in termini di numero di variabili manipolate (MV) e con- trollate (CV). Si è deciso di prendere come caso studio il processo di distillazione del grezzo (topping) per i seguenti motivi:

• diffusione e rilevanza del processo in esame;

• ampia diffusione della tecnologia MPC per il controllo delle unità di topping;

• elevato numero di MV e CV che permette di testare la validità della tecnica di diagnostica proposta.

In questo capitolo vengono spiegate inizialmente le principali ope- razioni che costituiscono il processo di topping per poi descrivere il modello di simulazione dinamica utilizzato in questo lavoro di te- si. Infine vengono presentate le variabili che il controllo MPC deve gestire per condurre in maniera ottimale l’impianto.

3.1

introduzione

Per ottenere i diversi prodotti finiti, le raffinerie effettuano due succes- sivi gruppi di operazioni: il primo consiste in una serie di trattamenti fisici e chimici sui grezzi, che consente di ottenere dei prodotti base detti semilavorati; il secondo è costituito da un complesso di misce- lazioni (blending) di semilavorati, di additivazioni, etc. . . che porta ai prodotti finiti.

Il primo trattamento al quale sono sottoposti i grezzi è normalmente costituito dalla distillazione frazionata a pressione atmosferica detta anche topping; essa è preceduta in genere da un processo di dissala- zione e può essere seguita da una distillazione sottovuoto del residuo. Nelle unità di distillazione atmosferica, il grezzo viene frazionato in diversi tagli (gas, benzina, ragia, cherosene, gasolio, residuo). Passan- do dalle frazioni più volatili a quelle altobollenti, e cioè all’aumentare

Documenti correlati