• Non ci sono risultati.

I segnali aleatori. Teoria dei Segnali. Giuseppe Scarpa. 1 Caratterizzazione completa 1. 2 Caratterizzazione sintetica 6

N/A
N/A
Protected

Academic year: 2022

Condividi "I segnali aleatori. Teoria dei Segnali. Giuseppe Scarpa. 1 Caratterizzazione completa 1. 2 Caratterizzazione sintetica 6"

Copied!
16
0
0

Testo completo

(1)

I segnali aleatori

Teoria dei Segnali

Giuseppe Scarpa

Indice

1 Caratterizzazione completa 1

2 Caratterizzazione sintetica 6

3 Caratterizzazione congiunta 8

4 Stazionarietà 10

1 Caratterizzazione completa

In termini molto generici una possibile definizione di segnale aleatorio è la seguente.

Processo aleatorio

Unsegnale aleatorio(oprocesso) è un modello matematico atto a descrivere in termini prob- abilistici un segnale non noto ma caratterizzato da determinate specificità.

Alla luce delle nozioni di probabilità aquisite, un segnale aleatorio può esser definito anche come segue.

Processo aleatorio

Unsegnale aleatorio(oprocesso) è un esperimento aleatorio il cui generico risultato è un segnale determinato.

 Oss.: La seconda definizione evidenzia il legame (di generalizzazione) tra vettore e segnale aleatorio.

La seconda definizione data suggerisce che un segnale aleatorio (ad esempio monodimensionale, scalare, TC) può vedersi come funzione bidimensionale. Detto ω ∈ Ω il risultato dell’esperimento aleatorio, esso sarà associato ad uno specifico segnale che presenta un’ulteriore variabilità, il tempo t o n, dunque:

X(t; ω) ovvero X(n; ω)

(2)

Realizzazione di un processo

Una singola istanza ω ∈ Ω di un processo, X(t; ω),

viene anche dettafunzione membroorealizzazionedel processo.

 Oss.: Se si riguarda invece un processo aleatorio limitatamente ad un fissato istantet, X(t; ω),

si ottiene unavariabile aleatoria.

L’esempio seguente chiarisce i concetti introdotti.

Esempio: Segnale aleatorio

t0 X(t01)

t X(t; ω1)

t0

X(t02) t

X(t; ω2)

t0

X(t03) t

X(t;ω3)

X(t0,ω): variabile aleatoria

X(t, ω3):realizzazione o funzione membro

 Oss.: Notazioni Come è prassi per le variabili aleatorie nascondere la dipendenza daω, laddove non si generi ambiguità, anche per i segnali aleatori si ometterà tale dipendenza preferendo una notazione in cui si lascia esplicita la dipendenza dat o n, e si usano denominazioni minuscole per indicare specifiche realizzazioni:

 X(t) o X(n): segnale aleatorio

 x(t) o x(n): realizzazione del segnale aleatorio X(t) o X(n)

 Def.: Processo parametrico: un segnale aleatorio espresso in forma “parametrica”, cioè, il cui andamento è completamente determinato da un insieme di parametri modellabili come variabili aleatorie.

(3)

Esempio: Processi parametrici

Alcuni esempi di segnali aleatori parametrici:

 X(t) =A, A∼ U(a1, a2)

 X(t) = e−Atu(t), A∼ U(a1, a2)

 X(t) = a cos(2πf0t +Θ), Θ∼ U(θ1, θ2)

 X(t) = p(t−T), T ∼ U(0, T0)

 X(t) =S0+V0t, S0∼ U(−1, 1), V0∼ N(0, σ)

Esempio: Segnalazione binaria ON-OFF

L’insieme dei parametri di un processo parametrico può essere anche infinito numerabile, come nel caso di una segnalazione binaria ON-OFF, la cui espressione è la seguente:

X(t) =

X

k=−∞

Akp (t− kT )

in cui p(t) , Πt−T /2

T

eAk ∼ Bern(p), ∀ k.

T 2T 3T 4T 5T 6T 7T 8T 9T 10T t

x(t)

T: intervallo di simbolo

1 0 1 1 0 1 0 1 1 1

una realizzazione di una segnalazione ON-OFF

Esempio: Rumore impulsivo salt-and-pepper

Il rumore impulsivo salt-and-pepper è un ulteriore esempio di processo modellabile in maniera parametrica:

I(t) =

X

k=−∞

Akp (t−Tk)

in cui p(t) , Λ Tt,Ak ∼ Bern(p), ∀ keTk− Tk−1∼ Exp(λ), ∀ k.

Tk−1 Tk t

i(t)

Tk− Tk−1

 Oss.: La caratterizzazione di processi parametrici è, almeno in linea di principio, più agevole potendosi ricondurre alla caratterizzazione delle variabili aleatorie (i parametri) coinvolte.Più complessa è invece la caratter- izzazione di processi non parametrici.

(4)

Esempio: Rumore termico

Uno dei più comuni segnali aleatori non parametrici è il rumore termico di cui si riporta una ipotetica realizzazione in figura.

t n(t)

La caratterizzazione dei processi si determina mediante funzioni di distribuzione analoghe a quelle introdotte per variabili o vettori aleatori. Essa inoltre potrà essere più o meno completa. In particolare si distinguono tre casi:

 caratterizzazione del primo ordine;

 caratterizzazione di ordine n;

 caratterizzazione completa.

Caratterizzazione del primo ordine

Un processo X(t) si dice caratterizzato al primo ordine se è nota una delle distribuzioni (CDF, pdf o DF) della variabile aleatoria X(t0) per ogni possibile scelta di t0. La dis- tribuzione considerata, espressa anche al variare di t0, prende il nome didistribuzione del primo ordine del processo:

 FX(x; t), FX(t)(x)

 fX(x; t), fX(t)

 pX(x; t), pX(t)(x)

Caratterizzazione di ordinen

Un processo X(t) si dice caratterizzato all’ordine n se è nota una delle distribuzioni con- giunte del vettore aleatorio Xt= [X(t1), X(t2), . . . , X(tn)]T per ogni possibile scelta della n-pla t , [t1, t2, . . . , tn]T. La distribuzione considerata, espressa anche al variare del vet- tore dei tempi t, prende il nome didistribuzione di ordine n del processo:

 FX(x; t) = FX(x1, . . . , xn; t1, . . . , tn), FXt(x)

 fX(x; t) = fX(x1, . . . , xn; t1, . . . , tn), fXt(x)

 pX(x; t) = pX(x1, . . . , xn; t1, . . . , tn), pXt(x)

 Oss.: Naturalmente pdf e CDF di processi sono legate in virtù dei legami analoghi validi per i vettori:

fX(x; t) = fXt(x) = ∂nFXt(x1, . . . , xn)

∂x1· · · ∂xn = ∂nFX(x1, . . . , xn; t1, . . . , tn)

∂x1· · · ∂xn

(5)

 Oss.: Si noti anche, per inciso, che se un processo è caratterizzato all’ordinen, allora esso è caratterizzato anche all’ordinen− 1, stante il legame che consente di ricavare una distribuzione congiunta di un sottoinsieme di vv.aa. a partire da quella dell’intero insieme considerato.

Infatti, definitiX(k)t , [X(t1), . . . , X(tk)]T et(k), [t1, . . . , tk]T, si ha:

fX(x1, . . . , xn−1; t1, . . . , tn−1) = fX(n−1)

t (x1, . . . , xn−1)

=

Z

−∞

fX(n)

t (x1, . . . ,xn) dxn

=

Z

−∞

fX(x1, . . . ,xn; t1, . . . ,tn) dxn

in cui si è scelto un arbitrariotn per completare lan-pla di istanti, cosa che evidentemente non incide sul risultato finale.

Caratterizzazione completa di un processo aleatorio

Un processo X(t) si dicecaratterizzato completamentese è nota la sua caratterizzazione di ordine n per qualsiasi valore di n.

Processi a campioni indipendenti

Un processo X(t) si dice a campioni indipendenti se per qualsiasi scelta di n, t e x si ha:

fX(x; t) = fX(x1; t1)· fX(xn; tn) ovvero

FX(x; t) = FX(x1; t1)· FX(xn; tn) cioè la fattorizzazione della distribuzione

 Oss.: Per processi a campioni indipendenti la conoscenza della distribuzione del primo ordine consente di caratterizzare completamente il processo.

Processi i.i.d.

Un processo X(t) a compioni indipendenti si dice i.i.d. (campioniindipendenti ed identica- mente distribuiti) se la sua distribuzione del primo ordine non dipende dal tempo, cioè:

fX(x;t) = fX(x) ovvero

fX(x;t) = fX(x)

 Oss.: La caratterizzazione di un processo i.i.d. si riconduce a distribuzioni del tipo impiegato per le variabili aleatorie.

(6)

 Oss.: Rumore termico Il rumore termico, di cui si è proposto un esempio in precedenza, è uno di quei processi che ben si sposa con un modello di tipo i.i.d. Nello specifico la distribuzione dei singoli campioni è di tipo gaussiano.

 Oss.: Processi continui vs processi discreti Si osservi che non esistono differenze concettuali di rilievo tra il caso continuo ed il caso discreto tali da giustificare una puntuale comparazione dei due casi su aspetti di carattere teorico. La sola e costante differenza tra i due casi sta nel fatto che le variabili temporali coinvolte sono ovviamente discrete nel secondo caso. Sulla scorta di tale osservazione, onde evitare inutili replicazioni, nel prosieguo di questa trattazione ci si riferirà al caso TC nella formulazione di concetti e risultati generali, salvo riferirsi anche a casi TD in specifici esempi.

2 Caratterizzazione sintetica

L’analisi dei segnali aleatori mediante distribuzioni risulta spesso impraticabile o comunque complesso quando non sono verificate determinate condizioni, ad esempio l’indipendenza dei sui campioni. Inoltre, una caratterizzazione completa di un fenomeno aleatorio può risultare non necessaria in molte applicazioni. Per tali ragioni si fa ricorso invece frequentemente alle caratterizzazioni di tipo sintetico introdotte qui di seguito.

A partire dalla caratterizzazione delprimo ordinedi un processo è possibile calcolare le seguenti medie statistiche, funzioni del tempo,caratteristiche sintetiche del primo ordinedel processo:

 Def.: Media: µX(t) , E [X(t)]=

R

−∞

x fX(x; t) dx

 Def.: Valore quadratico: X2(t) , EX2(t)

=

R

−∞

x2fX(x; t) dx

 Def.: Varianza: σX2(t) , E(X(t) − µX(t))2

=

R

−∞

(x− µX(t))2fX(x; t) dx Vale inoltre il seguente legame tra varianza e valore quadratico:

 Prop.: σX2(t) = X2(t)− µ2X(t) (di facile verifica)

 Oss.: Media temporale Si noti che le “statistiche” introdotte, sono in generale funzioni del tempo. Ci si può

“liberare” da tale dipendenza mediante una operazione di media temporale ottenendo le corrispondenticaratteris- tiche sintetichemedie(temporali). Ad esempio, con riferimento alla media (statistica)µX(t) del processo, mediando anche temporalmente si perviene ad un descrittore comunemente chiamato componente continua. Se invece si media il valore quadratico si ottiene la potenza.

 Def.: Componente continua diX(t): Xdc,hµX(t)i = hE[X(t)]i

Se applicata a segnali deterministici, la definizione data si riconduce a quella già vista per i segnali deterministi poichè l’operatore di media statistica è pleonastico e può essere rimosso. Pertanto questa è una generalizzazione della precedente definizione di componente continua.

 Def.: Potenza diX(t): PX,D X2(t)E

=E[X2(t)]

 Def.: Valore efficace diX(t): Xrms,√

PX =phE[X2(t)]i

Disponendo della caratterizzazione delsecondo ordinedi un processo si possono calcolare ulteriori funzioni statis- tiche: lecaratteristiche sintetiche del secondo ordinedel processo.

(7)

 Def.: Funzione di autocorrelazione:

 in tempo-tempo:

RX(t1,t2) , E [X(t1)X(t2)]=

x

R2

x1x2fX(x1, x2; t1, t2) dx1dx2

 in tempo-ritardo:

RX(t,τ) , E [X(t)X(t−τ)]=

x

R2

x1x2fX(x1, x2; t, t− τ) dx1dx2

 Def.: Funzione di autocovarianza:

 in tempo-tempo:

CX(t1,t2) , E [(X(t1)− µX(t1))(X(t2)− µX(t2))]

=

x

R2

(x1− µX(t1))(x2− µX(t2))fX(x1, x2; t1, t2) dx1dx2

 in tempo-ritardo:

CX(t,τ) , E [(X(t)− µX(t))(X(t−τ)− µX(t−τ))]

=

x

R2

(x1− µX(t))(x2− µX(t− τ))fX(x1, x2; t, t− τ) dx1dx2

Da notare che essendo le funzioni di autocorrelazione ed autocovarianza riconducibili alla correlazione ed alla covarianza di una coppia di vv.aa., nello specifico X(t1)e X(t2), sussiste il seguente legame di banale verifica:

 Prop.: CX(t1, t2) = RX(t1, t2)− µX(t1X(t2)

Definizione di processo gaussiano

Un precesso X(t) si dice gaussiano se e solo se comunque si scelgano n istanti temporali t1, . . . , tn, con n qualsiasi, il vettore di vv.aa. [X(t1), . . . , X(tn)]T risulta congiuntamente gaussiano.

Di conseguenza, la caratterizzazione di un qualsiasi processo gaussiano si ottiene come segue.

(8)

Caratterizzazione completa di un processo gaussiano

Se X(t) è un processo gaussiano, posto x , [x1, . . . , xn]T e t , [t1, . . . , tn]T, allora la sua pdf di ordine qualsiasi vale:

fX(x; t) = 1

(2π)n/2|Ct|1/2exp



−1

2(x− µt)TC−1t (x− µt)



dove

µt, [µX(t1), . . . , µX(tn)]T, Ct,

CX(t1, t1) · · · CX(t1, tn)

... ... ...

CX(tn, t1) · · · CX(tn, tn)

 essendo

µX(ti) , E[X(ti)], CX(ti, tj) , E[(X(ti)− µX(ti))(X(tj)− µX(tj))]

 Oss.: Da notare che le statistiche del primo e del secondo ordine,µX(t) e CX(t1, t2) consentono di caratteriz- zare completamente un processo gaussiano.

 Oss.: Le statistiche del secondo ordine di un processo dipendono in generale da da entrambi gli istanti temporali dei campioni del processo considerati o, equivalentemente, dalla distanza temporaleτ tra campioni oltre che da uno dei due tempi “assoluti”. Sotto opportune condizioni (stazionarietà) la dipendenza dal tempo assoluto scompare e resta quella più ovvia dal ritardo relativo. Laddove non scomparisse la dipendenza dal tempo assoluto, potrebbe comunque essere di interesse non considerare la dipendenza dal tempo assoluto e ciò può essere fatto eliminando tale dipendenza mediante una media temporale. In altri termini si definiscono le seguentifunzioni di autocorrelazione o autocovarianzamedie(media riferita at).

 Def.: Funzione di autocorrelazione media RX(τ ) ,hE[X(t)X(t − τ)]it= lim

T →∞

1 2T

Z T

−T

E[X(t)X(t−τ)] dt

 Def.: Funzione di autococovarianza media CX(τ ) ,hCX(t, τ )it= lim

T →∞

1 2T

Z T

−T

CX(t, τ ) dt

3 Caratterizzazione congiunta

Caratterizzazione congiunta completa

La caratterizzazione completa di una coppia (o più in generale di una n-pla) di segnali aleatori, richiede in principio la conoscenza della pdf (o altra distribuzione) congiunta di un numero qualsiasi di campioni scelti arbitrariamente sui due (o in generale n) segnali.

 Oss.: Ancora una volta, salvo casi particolarmente semplici, l’uso delle distribuzioni congiunte risulta tipica- mente impraticabile. Per tale ragione giocano un ruolo chiave le statistiche sintetiche per coppie di segnali aleatori.

(9)

Per caratterizzare sinteticamente una coppia di segnali aleatori, X(t) e Y (t) oltre a disporre delle medie statistiche marginali, ad esempio

E[X(t)], E[Y (t)], RX(t, τ ), RY(t, τ ), . . . ,

il cui calcolo richiede la conoscenza delle distribuzioni marginali fino al secondo ordine, bisogna considerare momenti di coppia, quali la funzione di mutua correlazione e quella di mutua covarianza, che richiedono la pdf congiunta del secondo ordinefXY(x, y; t1, t2):

 Def.: Funzione di mutua correlazione:

 in tempo-tempo:

RXY(t1, t2) , E [X(t1)Y (t2)]=

x

R2

xyfXY(x, y; t1, t2)dx dy

 in tempo-ritardo:

RXY(t, τ ) , E [X(t)Y (t− τ)]=

x

R2

xyfXY(x, y; t, t− τ)dx dy

 Def.: Funzione di mutua covarianza:

 in tempo-tempo:

CXY(t1, t2) , E [(X(t1)− µX(t1))(Y (t2)− µY(t2))]

=

x

R2

(x− µX(t1))(y− µY(t2))fXY(x, y; t1, t2)dx dy

 in tempo-ritardo:

CXY(t, τ ) , E [(X(t)− µX(t))(Y (t− τ) − µY(t− τ))]

=

x

R2

(x− µX(t))(y− µY(t− τ))fXY(x, y; t, t− τ)dx dy

dove

 Def.: pdf congiunta del secondo ordine della coppia(X(t), Y (t)):

fXY(x, y; t1, t2) , fX(t1)Y (t2)(x, y)

 Oss.: Segnali complessi Le definizioni date si riferiscono a segnali aleatori reali. Tuttavia esse si generalizzano facilmente al caso di segnali complessi coniugando il secondo fattore, ad esempio per la funzione di mutua covarianza in tempo-tempo si ha:

CXY(t1, t2) , E[(X(t1)− µX(t1))(Y (t2)− µY(t2))]

=

x

R2

(x− µX(t1))(y− µY(t2))fXY(x, y; t1, t2) dx dy

Come nei casi precedenti, si possono mediare temporalmente le versioni tempo-ritardo pervenendo alle funzioni di mutua correlazione o mutua covarianza medie:

(10)

 Def.: Funzione di mutua correlazione media RXY(τ ) ,hE[X(t)Y (t − τ)]it = lim

T →∞

1 2T

Z T

−T

E[X(t)Y (t− τ )] dt

 Def.: Funzione di mutua covarianza media CXY(τ ) ,hCXY(t, τ )it= lim

T →∞

1 2T

Z T

−T

CXY(t, τ ) dt È possibile a questo punto introdurre anche il concetto di potenza mutua tra segnali aleatori.

 Def.: Potenza mutua traX(t) ed Y (t): PXY = RXY(0)= lim

T →∞

1 2T

Z T

−T

E[X(t)Y (t)]dt

 Oss.: Per le funzioni auto/mutua correlazione/covarianzamedie si omette spesso il termine media laddove ciò non generi confusione con le funzioni non mediate. Ciò avviene in particolare quando sussistono determinate condizioni (di stazionarietà, che verranno approfondite nella prossima sezione) in cui la media temporale risulta pleonastica e dunque i due concetti coincidono.

 Oss.: Lo spazio dei segnali aleatori Per segnali deterministici è stato introdotto il concetto di spazio, ed in particolare quello di prodotto scalare. Per i segnali di potenza si ha ad esempio:

hx(t), y(t)i = hx(t)y(t)i = limT →∞ 1 2T

Z T

−T

x(t)y(t) dt =Pxy

Facendo leva su tale concetto si è anche introdotto uno strumento molto importante per la misura della similitudinde tra segnali che è la funzione di mutua correlazione per segnali deterministici:

rxy(τ ) =hx(t), y(t − τ)i = hx(t)y(t− τ)i = limT →∞ 1 2T

Z T

−T

x(t)y(t− τ) dt

Allo stesso modo i segnali aleatori costituiscono un spazio lineare sul quale può definirsi un prodotto scalare come segue:

hX(t), Y (t)i , hE[X(t)Y(t)]i= lim

T →∞

1 2T

Z T

−T

E[X(t)Y(t)]dt =PXY

Pertanto, la funzione di mutua correlazione media può alternativamente definirsi come:

RXY(τ ) ,hX(t), Y (t − τ)i=hE[X(t)Y(t− τ)]i = limT →∞ 1 2T

Z T

−T

E[X(t)Y(t− τ)]dt

4 Stazionarietà

Il concetto di stazionarietà

 Un processo X(t) è stazionario nella misura in cui esso è indistinguibile dalle sue ver- sioni traslate XT(t) = X(t + T ), ∀T , sotto il profilo della caratterizzazione statistica.

 Più informative e complete sono le statistiche rispetto alle quali X(t) ed XT(t) si equivalgono, più forte è la stazionarietà.

(11)

La stazionarietà più forte è quella insenso stretto:

Stazionarietà in senso stretto (SSS)

Un processo X(t) si dice stazionario in senso stretto quando ∀T , il segnale aleatorio XT(t) , X(t + T ) ha la stessa distribuzione di X(t) per qualsiasi ordine n, cioè:

fX(x; t) = fXT(x; t), ∀n, x, t, T dove

x , [x1, . . . , xn]T, t , [t1, . . . , tn]T

Una definizione più esplicita della stazionarietà SSS è data dalla seguente proprietà.

 Prop.: X(t) SSS⇔ fX(x; t1, . . . , tn) = fX(x; t1+ T, . . . , tn+ T ), ∀n, x, t, T Infatti, postoXT(t) , X(t + T ), allora X(t) è SSS se e solo se:

fX(x; t) = fXT(x; t)

= fXT(t1),...,X0(tn)(x)

= fX(t1+T ),...,X(tn+T )(x)

= fX(x; t1+ T, . . . , tn+ T )

Stazionarietà di ordinen

Un processo X(t) si dice stazionario di ordine n (fissato) se

fX(x; t) = fX(x; t1+ T, . . . , tn+ T ), ∀x, t, T dove

x , [x1, . . . , xn]T, t , [t1, . . . , tn]T

 Prop.: X(t) stazionario di ordine n⇒ X(t) stazionario di ordine n − 1

La verifica si ottiene passando dalla distribuzione di ordinen a quella di ordine n− 1 per integrazione.

La stazionarietà del primo ordine si riflette in particolare nella costanza rispetto al tempo della pdf del primo ordine.

 Prop.: X(t) stazionario del 1oordine⇔ fX(x; t) = fX(x) Infatti, poichè

fX(x; t) = fX(x; t + T ) ∀T, scelti due istanti arbitrarit1et2, e postoT = t2− t1si ha:

fX(x;t2) = fX(x; t1+ T ) = fX(x;t1) dunquefX(x; t) è costante rispetto a t.

Conseguenza immediata della stazionarietà del 1oordine è che le statistiche del primo ordine sono indipendenti dal tempo:

(12)

 Prop.: X(t) stazionario del 1oordine⇒





µX(t) = µX = Xdc

X2(t) = X2=PX σ2X(t) = σX2

Passando alla stazionarietà del secondo ordine, essa si traduce in una semplificazione della dipendenza della pdf (del 2oordine) dalle sue variabili temporali.

 Prop.: X(t) stazionario del 2oordine⇔ fX(x1, x2;t1,t2) = fX(x1, x2;t2− t1)

Infatti, una pdf del2oordine può anche porsi in formatempo-ritardo, cioè, postoτ = t2− t1: fX(x1, x2; t1, t2− t1) = fX(x1, x2; t1, τ ) , fX(t1)X(t1+τ )(x1, x2) Dunque la stazionarietà del secondo ordine si traduce in

fX(x1, x2;t1, τ ) = fX(x1, x2; t1+ T, t2+ T − (t1+ T )) = fX(x1, x2;t1+ T, τ ), ∀T pertanto la pdf non dipende dat1ma solo dalla differenzaτ = t2− t1.

Conseguenza immediata della stazionarietà del 2o ordine è che le statistiche del 2oordine dipendono solo dalla differenza τ = t2− t1:

 Prop.: X(t) stazionario del 2oordine⇒

(RX(t1, t2) = RX(τ )|τ =t1−t2

CX(t1, t2) = CX(τ )|τ =t1−t2

La stazionarietà di primo o secondo ordine risultano spesso comunque stringenti in molti casi pratici. Inoltre, svariati risultati teorici notevoli richiedono un grado di stazionarietà meno stringente, la cosiddettastazionarietà in senso lato,SSL, (o, wide sense stationarity, WSS).

Stazionarietà in senso lato (SSL)

Un processoX(t) si dice stazionario in senso lato se e solo se µX(t) = µX e RX(t1, t2) = RX(t1− t2) ovvero

µX(t) = µX e RX(t1, t2) = RX(t1− t2)

Le due condizioni sono equivalenti dal momento che sussiste il legame:

CX(t1, t2) = RX(t1, t2)− µX(t1X(t2)

Vale inoltre la seguente implicazione.

 Prop.: X(t) stazionario del 2oordine⇒ X(t) SSL

Infatti la media risulta costante in virtù della sazionarietà del1oordine (implicata da quella del2o).

 Oss.: Si osservi che la precedente implicazione, in generale, non vale in senso contrario, cioè la stazionarietà SSL non è una condizione sufficiente per la stazionarietà del2oordine:

SSL⇒ stazionarietà 2 oordine

(13)

Per la funzione di autocorrelazione di segnali SSL valgono proprietà analoghe a quelle riscontrate per l’autocorrelazione di segnali deterministici.

Proprietà della f. di autocorrelazione di segnali SSL (no dim.)

P1 Valore nell’origine: RX(0) =PX ≥ 0 P2 Simmetria coniugata: RX(τ ) = RX(−τ) P3 Limitazione: |RX(τ )| ≤ PX

P4 Incorrelazione asintotica: Se non vi sono componenti periodiche in X(t) allora

τ →±∞lim RX(τ ) = µ2X ⇔ lim

τ →±∞CX(τ ) = 0

 Oss.: L’ultima proprietà si esprime in gergo dicendo che i campioni di un processo aleatorio SSL sono asintoti- camente incorrelati, cioè:

|τ |→∞lim Cov [X(t), X(t− τ)] = 0

Come nel caso dei segnali deterministici, anche per i segnali aleatori la funzione di autocorrelazione fornisce indi- cazioni sulla rapidità di variazione del segnale. In particolare, nel caso SSL, si può definire un tempo di correlazione come segue:

 Def.: Tempo di correlazione Per un segnale SSL con campioni asintoticamente incorrelati si definiscetempo di correlazionela quantità

τcor , min{τ ≥ 0 : CX(τ )≤ }, con ≥ 0

Tale definizione può ovviamente estendersi anche al caso dei segnali deterministici. Se i campioni X(t) diventano incorrelati al finito, cioè CX(τ ) = 0,∀τ ≥ τc allora può porsi semplicemente  = 0 e si ha τcor = τc. Se invece CX(t)non ha durata rigorosamente finita, allora si sceglierà un valore di  6= 0 sufficientemente piccolo.

 Oss.: Intuitivamente si comprende che i campioni di un processo che varia lentamente risultano “correlati” su un arco temporale più ampio, dunqueτcor sarà più elevato:

 τcor↑⇒ X(t)lentamentevariabile

 τcor↓⇒ X(t)rapidamentevariabile

Esempio: Segnale costante (aleatoria)

Sia X(t) = A, con A ∼ U(a, b). Verificare che trattasi di segnale SSL.

∼ • ∼

Risulta immediato calcolare la distribuzione del 1oordine:

fX(x; t) , fX(t)(x) = fA(x) = 1

b− aΠ x−a+b2

b− a

!

(14)

Dunque il processo è stazionario almeno del 1oordine. In particolare si ha:

µX = µX(t) = E[X(t)] = E[A] = a + b 2 =cost.

Inoltre:

RX(t1, t2) = E[X(t1)X(t2)] = E[A2] = Z

−∞

x2fA(x) dx = 1 b− a

b3− a3 3 =cost.

Pertantoil processo è SSL. Non è difficile dimostrare che il segnale considerato è in realtà SSS.

Esempio: Sinusoide con fase aleatoria

Sia X(t) = a cos(2πf0t + Θ), con Θ ∼ U(θ1, θ2). Stabilire se X(t) è SSL.

∼ • ∼

Si ha:

µX(t) = E[a cos(2πf0t + Θ)] = a θ2− θ1

Z θ2

θ1

cos(2πf0t +θ) dθ

= a

θ2− θ1[sin(2πf0t + θ1)− sin(2πf0t + θ2)]

Dunque, in generale, µX(t)non è costante, anche se per particolari scelte dei parametri θ1e θ2può esserlo. A titolo di esempio si ha:

 Θ ∼ U(0, 2π) ⇒ µX(t) = 0

 Θ ∼ U(0, π) ⇒ µX(t) =−2 aπ sin(2πf0t)⇒NON SSL!

Per quanto riguarda l’autocorrelazione RX(t, t− τ) essa vale:

RX(t, t− τ) = E[a2cos(2πf0t + Θ) cos(2πf0(t− τ) + Θ)]

= a2 2

E[cos(4πf0t− 2πf0τ + 2Θ)]+@E [cos(2πf0τ )]

= a2

2(θ2− θ1) Z θ2

θ1

cos(4πf0t− 2πf0τ + 2Θ) dθ+a2

2 cos(2πf0τ )

= a2[sin(4πf0t− 2πf0τ + 2θ2)− sin(4πf0t− 2πf0τ + 2θ1)]

4(θ2− θ1) +a2

2 cos(2πf0τ ) In particolare si ha:

 Θ ∼ U(0, π) ⇒ RX(t, τ ) = RX(τ ) =a22cos(2πf0τ )

 Θ ∼ U(0, 2π) ⇒ RX(t, τ ) = RX(τ ) = a22cos(2πf0τ )⇒X(t)SSL!

(15)

Esempio: Segnale PAM (Pulse Amplitude Modulation) Sia X(t) = P

n=−∞

VnΠt−nT −T /2

T

, con {Vn} vv.aa. i.i.d. con media nulla e valore quadratico medio E[Vn2] = Var [Vn] = σV2.

Stabilire se il segnale è SSL.

∼ • ∼

Si ha:

µX(t) = E

" X

n=−∞

VnΠ t− nT − T/2 T

#

=

X

n=−∞* 0

E[Vn] Π t− nT − T/2 T



= 0

Inoltre:

RX(t1, t2) = E[X(t1)X(t2)]

= E

" X

n=−∞

VnΠ t1− nT − T/2 T



X

k=−∞

VkΠ t2− kT − T/2 T

#

=

X

n=−∞

X

k=−∞

E[VnVk] Π t1− nT − T/2 T



Π t2− kT − T/2 T



Poichè le vv.aa. Vnsono indipendenti, allora esse sono anche incorrelate per cui:

Vnindip. ⇒ Vnincorr. ⇒ E[VnVk] =

(E[Vn]E[Vk]= 0, n6= k E[Vn2] = σ2V, n = k In definitiva si ha,

RX(t1, t2) = σV2

X

n=−∞

Π t1− nT − T/2 T



Π t2− nT − T/2 T



Dunque X(t) non è SSLdal momento che non è possibile scrivere RX(t1, t2)come funzione della sola differenza t1− t2.

Esempio: Eco radar

Sia X(t) = p(t−T ), con T ∼ U(0, T0)e p(t) periodico di periodo T0. Stabilire se il segnale considerato è SSL.

∼ • ∼

(16)

Si ha:

µX(t) = E[X(t)] = E[p(t− T )] = Z

−∞

p(t− τ)fT(τ ) dτ

= 1

T0

Z T0 0

p(t− τ) dτ = 1 T0

Z t t−T0

p(α)dα = pdc

Per quanto riguarda l’autocorrelazione, invece:

RX(t, t− τ) = E[p(t − T )p(t − τ − T )] = 1 T0

Z T0 0

p(t− α)p(t − τ − α)dα

= 1

T0

Z t t−T0

p(β)p(β− τ)dβ = rp(τ )

Dunque X(t) è SSL.

A conclusione di questa sezione incentrata sulla spazionarietà dei segnali aleatori si evidenzia una importante implicazione relativa al caso gaussiano.

 Prop.: X(t) gaussiano SSL⇒ X(t) Stazionario in senso stretto (SSS) Tale proprietà è conseguenza imme- diata del fatto che la media statistica e la funzione di covarianza caratterizzano completamente il processo. Se dunque X(t) ha media costante e covarianza dipendente solo dalla differenza tra istanti di tempo, allora non v’è dipendenza da tempi “assoluti” delle pdf di ordine comunque elevato.

Il concetto di stazionarietà può far riferimento anche alle caratterizzazioni di coppie di segnali aleatori. In partico- lare, il concetto di stazionarietà in senso lato si generalizza alle coppie come segue.

 Def.: Segnali congiuntamente SSL Due segnali aleatoriX(t) ed Y (t) si dicono congiuntamente stazionari in senso lato (SSL) se sono singolarmente SSL ed inoltre:

RXY(t1, t2) = E[X(t1)Y (t2)] = RXY(t1− t2)

All’altro estremo, la stanzionarietà più stringente in assoluto (SSS) si generalizza come segue.

 Def.: Segnali congiuntamente SSS Due segnali aleatoriX(t) ed Y (t) si dicono congiuntamente stazionari in senso stretto (SSS) se comunque si scelga un insieme di campioni diX(t) ed Y (t), la loro distribuzione (pdf) congiunta è invariante rispetto ad una traslazione, di pari entità, di tutti gli istanti di tempo considerati per la selezione dei campioni.

Riferimenti

Documenti correlati

operare/non operare (1) a qualsiasi titolo in e/o per conto di presidi, stabilimenti, istituzioni private convenzionate o che abbiano accordi contrattuali con le

Il metodo usato nella dimostrazione della disuguaglianza di Huygens, dis- cussa nella prima parte di questi approfondimenti, pu`o essere usato per di- mostrare il cosiddetto

A questo proposito, il problema di fondo è il seguente: i campioni che arrivano, in forma binaria, all’interpolatore, non arrivano in modo continuo, ma intervallati tutti di uno

Facendo passare il segnale campionato attraverso un filtro passa basso ideale avente banda [−2f 0 , 2f 0 ], in uscita dal filtro lo spettro S c 0 (f ) risulta modificato come in

Questo modo si basa sull’utilizzo del valore assoluto. Il concetto da associare a valore as- soluto ´ e quello

Questo angolo, nella maggior parte dei casi, si ricava facilmente dalle tabelle degli angoli notevoli o da una figura fatta bene, altrimenti si ricava con

Osservazione : Valgono le stesse considerazioni fatte per il teorema precedente , cioè il limite della differenza di due funzioni può condurre alla forma indeterminata + ∞

`e soddisfatta solo per x=3, valore per il quale il primo membro assume