Sia
T
[
⋅
]
{\displaystyle T[\cdot ]}
un sistema tempo invariante,
X
(
t
)
{\displaystyle X(t)}
WSS e
Y
(
t
)
=
X
3
(
t
)
{\displaystyle Y(t)=X^{3}(t)}
. Sia
X
(
t
)
=
A
sin
(
ω
t
)
+
B
cos
(
ω
t
)
+
C
{\displaystyle X(t)=A\sin \left(\omega t\right)+B\cos(\omega t)+C}
con
ω
{\displaystyle \omega }
e
C
{\displaystyle C}
costanti, mentre
A
{\displaystyle A}
e
B
{\displaystyle B}
due variabili casuali indipendenti e a media nulla. Allora, si ha
E
[
Y
(
t
)
]
=
E
[
A
3
sin
3
(
ω
t
)
+
B
3
cos
3
(
ω
t
)
+
⋯
]
=
e
(
t
)
{\displaystyle E[Y(t)]=E\left[A^{3}\sin ^{3}(\omega t)+B^{3}\cos ^{3}(\omega t)+\cdots \right]=e(t)}
Siccome la media è una funzione del tempo,
μ
Y
(
0
)
=
E
[
B
3
]
≠
μ
Y
(
π
2
ω
)
=
E
[
A
3
]
{\displaystyle \mu _{Y}(0)=E[B^{3}]\neq \mu _{Y}\left({\frac {\pi }{2\omega }}\right)=E[A^{3}]}
allora il sistema è sicuramente non-lineare.
Teorema :
Per un sistema lineare tempo-invariante (LTI) vale
E
[
T
[
X
(
t
)
]
]
=
T
[
E
[
X
(
t
)
]
]
{\displaystyle E\left[T[X(t)]\right]=T\left[E[X(t)]\right]\ }
μ
Y
(
t
)
=
T
[
μ
X
(
t
)
]
{\displaystyle \mu _{Y}(t)=T[\mu _{X}(t)]}
Nel caso di sistemi LTI, si ha
Y
(
t
)
=
∫
−
∞
+
∞
h
(
τ
)
X
(
t
−
τ
)
=
∫
−
∞
+
∞
X
(
τ
)
h
(
t
−
τ
)
d
τ
=
h
(
t
)
∗
X
(
t
)
=
X
(
t
)
∗
h
(
t
)
{\displaystyle Y(t)=\int _{-\infty }^{+\infty }h(\tau )X(t-\tau )=\int _{-\infty }^{+\infty }X(\tau )h(t-\tau )d\tau =h(t)*X(t)=X(t)*h(t)}
dove
h
(
t
)
∀
t
∈
T
{\displaystyle h(t)\ \forall t\in T}
è la risposta all'impulso del sistema
T
[
⋅
]
{\displaystyle T[\cdot ]}
. Si ha, inoltre,
H
(
f
)
=
∫
−
∞
+
∞
h
(
t
)
e
−
j
2
π
f
t
d
t
{\displaystyle H(f)=\int _{-\infty }^{+\infty }h(t)e^{-j2\pi ft}dt}
che è la risposta in frequenza del sistema. Se
X
(
t
)
{\displaystyle X(t)}
è stazionario in senso lato, si può affermare che
Y
(
t
)
{\displaystyle Y(t)}
è ancora stazionario in senso lato; infatti, si ha
μ
Y
(
t
)
=
E
[
Y
(
t
)
]
=
E
[
h
(
t
)
∗
X
(
t
)
]
=
E
[
∫
−
∞
+
∞
h
(
τ
)
X
(
t
−
τ
)
d
τ
]
=
∫
−
∞
+
∞
h
(
τ
)
E
[
X
(
t
−
τ
)
]
d
τ
=
∫
−
∞
+
∞
h
(
τ
)
μ
X
d
τ
=
μ
X
∫
−
∞
+
∞
h
(
τ
)
d
τ
=
μ
X
H
(
0
)
{\displaystyle {\begin{aligned}\mu _{Y}(t)&=E[Y(t)]\\&=E[h(t)*X(t)]\\&=E\left[\int _{-\infty }^{+\infty }h(\tau )X(t-\tau )d\tau \right]\\&=\int _{-\infty }^{+\infty }h(\tau )E\left[X(t-\tau )\right]d\tau \\&=\int _{-\infty }^{+\infty }h(\tau )\mu _{X}d\tau \\&=\mu _{X}\int _{-\infty }^{+\infty }h(\tau )d\tau =\mu _{X}H(0)\end{aligned}}}
dove
μ
X
(
t
)
=
μ
X
{\displaystyle \mu _{X}(t)=\mu _{X}}
perché
X
(
t
)
{\displaystyle X(t)}
è, per ipotesi, stazionario.
H
(
0
)
{\displaystyle H(0)}
è la risposta all'impulso del sistema alla frequenza
f
=
0
{\displaystyle f=0}
, cioè è il guadagno di sistema .
Autocorrelazione del second'ordine
modifica
Per i sistemi LTI, vale
R
Y
(
t
,
t
+
τ
)
=
E
[
Y
(
t
)
Y
(
t
+
τ
)
]
=
E
[
∫
−
∞
+
∞
h
(
t
′
)
X
(
t
−
t
′
)
d
t
′
⋅
∫
−
∞
+
∞
h
(
t
″
)
X
(
t
+
τ
−
t
″
)
d
t
″
]
=
R
X
(
τ
)
∗
h
(
τ
)
∗
h
(
−
τ
)
{\displaystyle {\begin{aligned}R_{Y}(t,t+\tau )&=E\left[Y(t)Y(t+\tau )\right]\\&=E\left[\int _{-\infty }^{+\infty }h(t')X(t-t')dt'\cdot \int _{-\infty }^{+\infty }h(t'')X(t+\tau -t'')dt''\right]\\&=R_{X}(\tau )*h(\tau )*h(-\tau )\end{aligned}}}
Se il processo di partenza
X
(
t
)
{\displaystyle X(t)}
è stazionario in senso lato (WSS) del second'ordine, e se il sistema è lineare tempo-invariante (LTI), allora l'uscita del sistema
Y
(
t
)
{\displaystyle Y(t)}
è anch'essa WSS.
In frequenza, si ha
S
Y
(
f
)
=
F
[
R
Y
(
τ
)
]
=
S
X
(
f
)
⋅
H
(
f
)
⋅
H
∗
(
f
)
=
S
X
(
f
)
⋅
|
H
(
f
)
|
2
{\displaystyle S_{Y}(f)=F\left[R_{Y}(\tau )\right]=S_{X}(f)\cdot H(f)\cdot H^{*}(f)=S_{X}(f)\cdot \left|H(f)\right|^{2}}
I processi
X
(
t
)
{\displaystyle X(t)}
e
Y
(
t
)
{\displaystyle Y(t)}
sono anche congiuntamente stazionari, infatti
R
X
Y
(
t
,
t
+
τ
)
=
E
[
X
(
t
)
Y
(
t
+
τ
)
]
=
E
[
X
(
t
)
∫
−
∞
+
∞
h
(
t
′
+
τ
−
t
′
)
d
t
′
]
=
∫
−
∞
+
∞
h
(
t
′
)
E
[
X
(
t
)
X
(
t
+
τ
−
t
′
)
]
d
t
′
=
h
(
τ
)
∗
R
X
(
τ
)
=
R
X
Y
(
τ
)
{\displaystyle {\begin{aligned}R_{XY}(t,t+\tau )&=E[X(t)Y(t+\tau )]\\&=E\left[X(t)\int _{-\infty }^{+\infty }h(t'+\tau -t')dt'\right]\\&=\int _{-\infty }^{+\infty }h(t')E\left[X(t)X(t+\tau -t')\right]dt'\\&=h(\tau )*R_{X}(\tau )=R_{XY}(\tau )\end{aligned}}}
In termini di densità spettrali, si ha
S
X
Y
(
f
)
=
H
(
f
)
⋅
S
X
(
f
)
{\displaystyle S_{XY}(f)=H(f)\cdot S_{X}(f)}
Covarianza di
Y
(
t
)
{\displaystyle Y(t)}
modifica
Per quanto riguarda
X
(
t
)
{\displaystyle X(t)}
, abbiamo che vale
C
X
(
t
,
t
+
τ
)
=
R
X
(
t
,
t
+
τ
)
−
μ
X
(
t
)
μ
X
(
t
+
τ
)
=
R
X
(
τ
)
+
μ
X
2
=
C
X
(
τ
)
{\displaystyle C_{X}(t,t+\tau )=R_{X}(t,t+\tau )-\mu _{X}(t)\mu _{X}(t+\tau )=R_{X}(\tau )+\mu _{X}^{2}=C_{X}(\tau )}
Consideriamo il sistema
h
(
t
)
{\displaystyle h(t)}
che accetta in ingresso il processo
X
~
(
t
)
{\displaystyle {\tilde {X}}(t)}
e restituisce il processo
Y
~
(
t
)
{\displaystyle {\tilde {Y}}(t)}
, con
X
~
(
t
)
=
X
(
t
)
−
μ
X
{\displaystyle {\tilde {X}}(t)=X(t)-\mu _{X}}
Y
~
(
t
)
=
Y
(
t
)
−
μ
Y
{\displaystyle {\tilde {Y}}(t)=Y(t)-\mu _{Y}}
dove
X
(
t
)
{\displaystyle X(t)}
e
Y
(
t
)
{\displaystyle Y(t)}
sono stazionari in senso lato (WSS). Si ha
R
X
~
(
t
,
t
+
τ
)
=
E
[
X
~
(
t
)
⋅
X
~
(
t
+
τ
)
]
=
C
X
(
t
,
t
+
τ
)
=
R
X
~
(
τ
)
=
C
X
(
τ
)
{\displaystyle R_{\tilde {X}}(t,t+\tau )=E[{\tilde {X}}(t)\cdot {\tilde {X}}(t+\tau )]=C_{X}(t,t+\tau )=R_{\tilde {X}}(\tau )=C_{X}(\tau )}
R
Y
~
(
τ
)
=
R
X
~
(
τ
)
∗
h
(
τ
)
∗
h
(
−
τ
)
=
C
X
(
τ
)
∗
h
(
τ
)
∗
h
(
−
τ
)
{\displaystyle R_{\tilde {Y}}(\tau )=R_{\tilde {X}}(\tau )*h(\tau )*h(-\tau )=C_{X}(\tau )*h(\tau )*h(-\tau )}
Abbiamo che
Y
~
(
t
)
=
h
(
t
)
∗
X
~
(
t
)
=
h
(
t
)
∗
(
X
(
t
)
−
μ
X
)
=
Y
(
t
)
−
μ
Y
{\displaystyle {\tilde {Y}}(t)=h(t)*{\tilde {X}}(t)=h(t)*(X(t)-\mu _{X})=Y(t)-\mu _{Y}}
da cui si ottiene
R
Y
~
(
τ
)
=
C
Y
(
τ
)
{\displaystyle R_{\tilde {Y}}(\tau )=C_{Y}(\tau )}
ossia
C
Y
(
τ
)
=
C
X
(
τ
)
∗
h
(
τ
)
∗
h
(
−
τ
)
{\displaystyle C_{Y}(\tau )=C_{X}\left(\tau \right)*h(\tau )*h(-\tau )}
che è la stessa relazione che esiste per l'autocorrelazione.
Esempio :
Esercizio : Esercizio per casa
Si ha il processo stocastico
Y
(
t
)
=
X
(
t
)
+
X
(
t
−
t
0
)
{\displaystyle Y(t)=X(t)+X(t-t_{0})}
con
X
(
t
)
{\displaystyle X(t)}
un processo gausiano WSS. Calcolare:
μ
Y
{\displaystyle \mu _{Y}}
R
Y
(
τ
)
{\displaystyle R_{Y}(\tau )}
f
X
(
α
,
t
)
{\displaystyle f_{X}(\alpha ,t)}
f
X
1
,
X
2
(
α
1
,
α
2
;
t
1
,
t
2
)
{\displaystyle f_{X_{1},X_{2}}(\alpha _{1},\alpha _{2};t_{1},t_{2})}
Nota: se
X
(
t
)
{\displaystyle X(t)}
è gaussiano e WSS, allora è anche stazionario in senso stretto (SSS). Se poi filtriamo tale processo SSS con un sistema lineare tempo-invariante (LTI), allora anche
Y
(
t
)
{\displaystyle Y(t)}
sarà stazionario in senso lato (WSS).
Definizione : Processo bianco
Nella realtà, i processi bianchi continui non esistono, perché la potenza sarebbe infinita con
N
0
≠
0
{\displaystyle N_{0}\neq 0}
.
P
X
=
∫
−
∞
+
∞
S
X
(
f
)
d
f
=
+
∞
{\displaystyle P_{X}=\int _{-\infty }^{+\infty }S_{X}(f)df=+\infty }
Quindi, dobbiamo restringere la trattazione ai processi bianchi in banda, cioè con densità spettrale di potenza costante su una banda limitata
B
>
0
{\displaystyle B>0}
.
Definizione : Processo bianco in banda
Un processo bianco in banda ha la trasformata di Fourier della covarianza,
C
X
(
f
)
{\displaystyle C_{X}(f)}
, costante nell'intervallo
[
−
B
,
B
]
{\displaystyle [-B,B]}
.
Si ha
S
X
(
f
)
=
N
0
2
⋅
r
e
c
t
(
f
2
B
)
+
μ
X
2
δ
(
f
)
{\displaystyle S_{X}(f)={\frac {N_{0}}{2}}\cdot rect\left({\frac {f}{2B}}\right)+\mu _{X}^{2}\delta (f)}
In questo caso, la potenza è
P
X
=
∫
−
∞
+
∞
S
X
(
f
)
d
f
=
∫
−
B
B
(
N
0
2
+
μ
X
2
δ
(
f
)
)
d
f
=
N
0
⧸
2
(
⧸
2
B
)
+
μ
X
2
=
N
0
B
+
μ
X
2
{\displaystyle P_{X}=\int _{-\infty }^{+\infty }S_{X}(f)df=\int _{-B}^{B}\left({\frac {N_{0}}{2}}+\mu _{X}^{2}\delta (f)\right)df={\frac {N_{0}}{\not 2}}(\not 2B)+\mu _{X}^{2}=N_{0}B+\mu _{X}^{2}}
Si ha, quindi,
N
0
=
P
X
−
μ
X
B
=
σ
X
B
{\displaystyle N_{0}={\frac {P_{X}-\mu _{X}}{B}}={\frac {\sigma _{X}}{B}}}
Nel caso di processi bianchi in banda limitata, la funzione di autocorrelazione è
C
X
(
τ
)
=
F
−
1
[
N
0
2
r
e
c
t
(
f
2
B
)
]
=
N
0
⧸
2
⧸
2
B
⋅
s
i
n
c
(
2
B
τ
)
=
σ
X
2
s
i
n
c
(
2
B
τ
)
{\displaystyle C_{X}(\tau )=F^{-1}\left[{\frac {N_{0}}{2}}rect\left({\frac {f}{2B}}\right)\right]={\frac {N_{0}}{\not 2}}\not 2B\cdot sinc(2B\tau )=\sigma _{X}^{2}sinc(2B\tau )}
Se un processo è bianco e discreto (per esempio, può essere la versione campionata di un processo continuo), si ha sempre potenza finita nel periodo:
P
X
=
R
X
(
0
)
=
∫
−
1
2
+
1
2
S
X
(
f
)
d
f
{\displaystyle P_{X}=R_{X}(0)=\int _{-{\frac {1}{2}}}^{+{\frac {1}{2}}}S_{X}(f)df}
Un processo bianco discreto, essendo la versione campionata di un processo bianco continuo, è sempre implicitamente considerato come in banda: per il teorema di Shannon, infatti, un segnale deve essere campionato ad una frequenza almeno doppia della banda del segnale,
f
C
≥
2
B
{\displaystyle f_{C}\geq 2B}
quindi, deve esistere il valore
B
<
∞
{\displaystyle B<\infty }
Esempio : Esempio di tema d'esame
Sia
{
X
(
t
)
,
t
∈
R
}
{\displaystyle \{X(t),t\in \mathbb {R} \}}
un processo gaussiano, stazionario in senso lato (WSS) e bianco in banda
B
{\displaystyle B}
, con:
B
=
10
{\displaystyle B=10}
μ
X
=
2
{\displaystyle \mu _{X}=2}
P
X
=
24
{\displaystyle P_{X}=24}
Soluzione :
Il processo
X
(
t
)
{\displaystyle X(t)}
è WSS e gaussiano, il che vuol dire che è anche stazionario in senso stretto (SSS). Per calcolare la funzione di autocovarianza, basta calcolare il valore di
N
0
{\displaystyle N_{0}}
:
N
0
=
P
X
−
μ
X
B
=
24
−
4
10
=
2
{\displaystyle N_{0}={\frac {P_{X}-\mu _{X}}{B}}={\frac {24-4}{10}}=2}
da cui
N
0
2
=
1
{\displaystyle {\frac {N_{0}}{2}}=1}
Si ottiene
C
X
(
τ
)
=
F
−
1
[
S
X
(
f
)
]
=
F
−
1
[
r
e
c
t
(
f
20
)
]
=
20
⋅
s
i
n
c
(
20
τ
)
{\displaystyle C_{X}(\tau )=F^{-1}\left[S_{X}(f)\right]=F^{-1}\left[rect\left({\frac {f}{20}}\right)\right]=20\cdot sinc(20\tau )}
Da notare che nel calcolo di
F
−
1
[
S
X
(
f
)
]
{\displaystyle F^{-1}\left[S_{X}(f)\right]}
non bisogna inserire la
δ
{\displaystyle \delta }
del valore continuo, altrimenti si trova la funzione di autocorrelazione
R
X
(
τ
)
{\displaystyle R_{X}(\tau )}
.
Definizione : Processo ciclostazionario
Un processo
{
X
(
t
)
,
t
∈
T
}
{\displaystyle \{X(t),t\in T\}}
è ciclostazionario quando c'è invarianza alla traslazione periodica.
Un classico esempio di processo ciclostazionario è
X
(
t
)
=
V
sin
(
t
)
{\displaystyle X(t)=V\sin(t)}
dove
V
{\displaystyle V}
è una variabile casuale.