In molti casi pratici interessa conoscere alcune caratteristiche sintetiche, dette momenti, di una variabile casuale. Queste caratteristiche possono essere calcolate dalla funzione di densità di probabilità.
Valor medio delle variabili casuali
modifica
Definizione : Valor medio
Sia
X
{\displaystyle X}
una variabile casuale con
f
X
(
x
)
{\displaystyle f_{X}(x)}
. Si definisce il valor medio (o valore atteso) di
X
{\displaystyle X}
la quantità
μ
X
=
E
[
X
]
=
∫
−
∞
+
∞
x
f
X
(
x
)
d
x
{\displaystyle \mu _{X}=E[X]=\int _{-\infty }^{+\infty }xf_{X}(x)dx}
Nel caso di variabili casuali discrete, invece, è definito come
μ
X
=
E
[
X
]
=
∑
i
x
i
p
i
{\displaystyle \mu _{X}=E[X]=\sum _{i}x_{i}p_{i}}
visto che si ha
f
X
(
x
)
=
∑
i
p
i
δ
(
x
−
x
i
)
{\displaystyle f_{X}(x)=\sum _{i}p_{i}\delta (x-x_{i})}
Esempio : Funzione indicatrice
Sia lo spazio di probabilità
{
Ω
,
F
,
P
}
{\displaystyle \{\Omega ,F,P\}}
, con
A
∈
F
{\displaystyle A\in F}
e
X
=
I
A
{\displaystyle X=I_{A}}
la funzione indicatrice. Si ha
E
[
X
]
=
0
⋅
P
(
X
=
0
)
+
1
⋅
P
(
X
=
1
)
=
0
⋅
(
1
−
P
(
A
)
)
+
1
⋅
P
(
A
)
=
P
(
A
)
{\displaystyle E[X]=0\cdot P(X=0)+1\cdot P(X=1)=0\cdot (1-P(A))+1\cdot P(A)=P(A)}
Quindi, il valor medio della funzione indicatrice è la probabilità di successo.
Si noti che il valor medio della funzione può non essere un risultato possibile per l'esperimento.
Esempio : Variabile casuale di Bernoulli
Si ha
f
X
(
x
)
=
p
⋅
δ
(
x
−
1
)
+
(
1
−
p
)
⋅
δ
(
x
)
{\displaystyle f_{X}(x)=p\cdot \delta (x-1)+(1-p)\cdot \delta (x)}
da cui
E
[
X
]
=
1
⋅
p
+
0
⋅
(
1
−
p
)
=
p
{\displaystyle E[X]=1\cdot p+0\cdot (1-p)=p}
Esempio : Variabile casuale di Poisson
Si ha
f
X
(
x
)
=
∑
k
=
0
+
∞
e
−
λ
λ
k
k
!
δ
(
x
−
k
)
λ
>
0
{\displaystyle f_{X}(x)=\sum _{k=0}^{+\infty }e^{-\lambda }{\frac {\lambda ^{k}}{k!}}\delta (x-k)\ \lambda >0}
da cui si ha
E
[
X
]
=
∑
k
=
0
∞
k
e
−
λ
λ
k
k
!
{\displaystyle E[X]=\sum _{k=0}^{\infty }ke^{-\lambda }{\frac {\lambda ^{k}}{k!}}}
Siccome vale la proprietà
e
λ
=
∑
k
=
0
∞
λ
k
k
!
⋅
d
e
λ
d
λ
=
e
λ
=
∑
k
=
0
∞
k
λ
k
−
1
k
!
{\displaystyle e^{\lambda }=\sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}\cdot {\frac {de^{\lambda }}{d\lambda }}=e^{\lambda }=\sum _{k=0}^{\infty }k{\frac {\lambda ^{k-1}}{k!}}}
allora si ottiene
E
[
X
]
=
(
∑
k
=
0
∞
k
λ
k
−
1
k
e
−
λ
λ
)
=
e
λ
e
−
λ
λ
=
λ
{\displaystyle E[X]=\left(\sum _{k=0}^{\infty }k{\frac {\lambda ^{k-1}}{k}}e^{-\lambda }\lambda \right)=e^{\lambda }e^{-\lambda }\lambda =\lambda }
Esempio : Variabile casuale uniforme
Si ha
f
X
(
x
)
=
{
1
b
−
a
x
∈
(
a
,
b
)
0
altrove
{\displaystyle f_{X}(x)=\left\{{\begin{matrix}{\frac {1}{b-a}}&x\in (a,b)\\0&{\text{altrove}}\end{matrix}}\right.}
Allora, il valore atteso sarà
E
[
X
]
=
∫
−
∞
+
∞
x
f
X
(
x
)
d
x
=
∫
a
b
x
b
−
a
d
x
=
1
b
−
a
[
x
2
2
]
a
b
=
(
b
2
−
a
2
)
b
−
a
⋅
1
2
=
(
b
−
a
)
(
b
+
a
)
2
(
b
−
a
)
=
a
+
b
2
{\displaystyle {\begin{aligned}E[X]&=\int _{-\infty }^{+\infty }xf_{X}(x)dx\\&=\int _{a}^{b}{\frac {x}{b-a}}dx\\&={\frac {1}{b-a}}\left[{\frac {x^{2}}{2}}\right]_{a}^{b}\\&={\frac {(b^{2}-a^{2})}{b-a}}\cdot {\frac {1}{2}}\\&={\frac {(b-a)(b+a)}{2(b-a)}}\\&={\frac {a+b}{2}}\end{aligned}}}
Esercizio per casa : La variabile casuale gaussiana
Trovare il valor medio
E
[
X
]
{\displaystyle E[X]}
di una variabile casuale gaussiana,
X
N
(
μ
X
,
σ
X
)
{\displaystyle X~N(\mu _{X},\sigma _{X})}
Teorema : Teorema fondamentale del valore atteso
Data la variabile casuale
X
_
{\displaystyle {\underline {X}}}
n-dimensionale con funzione di densità di probabilità
f
X
_
(
⋅
)
{\displaystyle f_{\underline {X}}(\cdot )}
e la trasformazione
g
:
R
n
→
R
{\displaystyle g:\mathbb {R} ^{n}\to \mathbb {R} }
(una funzione di Borel)
si ha che, per la variabile casuale
Y
=
g
(
X
_
)
{\displaystyle Y=g({\underline {X}})}
vale
E
[
Y
]
=
∫
−
∞
+
∞
f
Y
(
y
)
d
y
=
∫
−
∞
+
∞
g
(
x
1
,
x
2
,
⋯
,
x
n
)
f
X
_
(
x
1
,
x
2
,
⋯
,
x
n
)
d
x
1
d
x
2
⋯
d
x
n
{\displaystyle E[Y]=\int _{-\infty }^{+\infty }f_{Y}(y)dy=\int _{-\infty }^{+\infty }g(x_{1},x_{2},\cdots ,x_{n})f_{\underline {X}}(x_{1},x_{2},\cdots ,x_{n})dx_{1}dx_{2}\cdots dx_{n}}
Nel caso particolare in cui
n
=
1
{\displaystyle n=1}
e con una variabile casuale discreta, si ha
f
X
(
x
)
=
∑
i
p
i
δ
(
x
−
x
i
)
{\displaystyle f_{X}(x)=\sum _{i}p_{i}\delta (x-x_{i})}
da cui
Y
=
g
(
X
)
{\displaystyle Y=g(X)}
ha
f
Y
(
y
)
=
∑
i
p
i
δ
(
y
−
g
(
x
i
)
)
=
∑
j
(
∑
i
|
g
(
x
i
)
=
y
j
p
i
)
δ
(
y
−
y
j
)
{\displaystyle f_{Y}(y)=\sum _{i}p_{i}\delta (y-g(x_{i}))=\sum _{j}\left(\sum _{i\ |\ g(x_{i})=y_{j}}p_{i}\right)\delta (y-y_{j})}
da cui si ottiene
E
[
Y
]
=
∫
−
∞
+
∞
y
f
Y
(
y
)
d
y
=
∑
j
y
j
(
∑
i
|
g
(
x
i
)
=
y
j
p
i
)
=
∑
i
g
(
x
i
)
p
i
=
∫
−
∞
+
∞
g
(
x
)
f
X
(
x
)
d
x
{\displaystyle {\begin{aligned}E[Y]&=\int _{-\infty }^{+\infty }yf_{Y}(y)dy\\&=\sum _{j}y_{j}\left(\sum _{i\ |\ g(x_{i})=y_{j}}p_{i}\right)\\&=\sum _{i}g(x_{i})p_{i}\\&=\int _{-\infty }^{+\infty }g(x)f_{X}(x)dx\end{aligned}}}
Proprietà : Proprietà di linearità
Una variabile casuale n-dimensionale può essere vista come combinazione lineare di
n
{\displaystyle n}
variabili casuali monodimensionali pesate
Y
=
a
1
g
1
(
x
)
+
a
2
g
2
(
x
)
+
⋯
+
a
n
g
n
(
x
)
{\displaystyle Y=a_{1}g_{1}(x)+a_{2}g_{2}(x)+\cdots +a_{n}g_{n}(x)}
Questo porta alla proprietà
E
[
Y
]
=
∑
i
=
1
n
a
i
E
[
g
i
(
x
)
]
{\displaystyle E[Y]=\sum _{i=1}^{n}a_{i}E[g_{i}(x)]}
se poi si impone
a
i
=
1
∀
i
{\displaystyle a_{i}=1\ \forall i}
, allora si ha che
X
=
(
X
1
,
X
2
,
⋯
X
n
)
{\displaystyle X=(X_{1},X_{2},\cdots X_{n})}
e vale
Y
=
X
1
+
X
2
+
⋯
+
X
n
{\displaystyle Y=X_{1}+X_{2}+\cdots +X_{n}}
da cui
E
[
Y
]
=
∑
i
=
1
n
E
[
X
i
]
{\displaystyle E[Y]=\sum _{i=1}^{n}E[X_{i}]}
Varianza delle variabili casuali
modifica
Definizione : Varianza di una variabile casuale
Data una variabile casuale
X
{\displaystyle X}
con una funzione di densità di probabilità
f
X
(
x
)
{\displaystyle f_{X}(x)}
, si dice varianza la grandezza
σ
X
2
=
∫
−
∞
+
∞
(
x
−
μ
X
)
2
f
X
(
x
)
d
x
{\displaystyle \sigma _{X}^{2}=\int _{-\infty }^{+\infty }(x-\mu _{X})^{2}f_{X}(x)dx}
con
μ
X
=
E
[
X
]
{\displaystyle \mu _{X}=E[X]}
La varianza si può definire anche come
σ
X
2
=
E
[
(
x
−
μ
X
)
2
]
{\displaystyle \sigma _{X}^{2}=E[(x-\mu _{X})^{2}]}
Se la variabile casuale è discreta anziché continua, allora si ha
σ
X
2
=
∑
i
p
i
(
x
i
−
μ
X
)
2
{\displaystyle \sigma _{X}^{2}=\sum _{i}p_{i}(x_{i}-\mu _{X})^{2}}
con
μ
X
=
∑
i
x
i
p
i
{\displaystyle \mu _{X}=\sum _{i}x_{i}p_{i}}
Esempio : Variabile casuale binomiale
Si ha:
σ
X
2
=
E
[
(
X
−
μ
X
)
2
]
=
E
[
(
X
2
−
2
μ
X
X
+
μ
X
2
)
]
=
E
[
X
2
]
−
μ
X
2
+
2
E
[
X
]
μ
X
μ
X
=
E
[
X
2
]
−
μ
X
2
=
E
[
X
2
]
−
E
2
[
X
]
{\displaystyle {\begin{aligned}\sigma _{X}^{2}&=E[(X-\mu _{X})^{2}]\\&=E[(X^{2}-2\mu _{X}X+\mu _{X}^{2})]\\&=E[X^{2}]-\mu _{X}^{2}+2E[X]\mu _{X}\mu _{X}\\&=E[X^{2}]-\mu _{X}^{2}=E[X^{2}]-E^{2}[X]\end{aligned}}}
Esempio : Variabile casuale di Bernoulli
Si ha
f
X
(
x
)
=
p
δ
(
x
−
1
)
+
q
δ
(
x
)
{\displaystyle f_{X}(x)=p\delta (x-1)+q\delta (x)}
da cui
E
[
X
]
=
p
{\displaystyle E[X]=p}
E
[
X
2
]
=
1
2
⋅
p
+
0
⋅
q
=
p
{\displaystyle E[X^{2}]=1^{2}\cdot p+0\cdot q=p}
di conseguenza
σ
X
2
=
E
[
X
2
]
−
E
2
[
X
]
=
p
−
p
2
=
p
(
1
−
p
)
=
p
q
{\displaystyle \sigma _{X}^{2}=E[X^{2}]-E^{2}[X]=p-p^{2}=p(1-p)=pq}
Esempio : Variabile casuale uniforme
Sia
X
U
(
a
,
b
)
{\displaystyle X~U(a,b)}
. Allora:
E
[
X
]
=
b
+
a
2
{\displaystyle E[X]={\frac {b+a}{2}}}
E
[
X
2
]
=
∫
a
b
1
b
−
a
x
2
d
x
=
1
b
−
a
[
x
3
3
]
a
b
=
⋯
=
1
3
(
b
2
+
a
b
+
a
2
)
{\displaystyle {\begin{aligned}E[X^{2}]&=\int _{a}^{b}{\frac {1}{b-a}}x^{2}dx\\&={\frac {1}{b-a}}\left[{\frac {x^{3}}{3}}\right]_{a}^{b}\\&=\cdots \\&={\frac {1}{3}}(b^{2}+ab+a^{2})\end{aligned}}}
da cui si ottiene
σ
X
2
=
E
[
X
2
]
−
E
2
[
X
]
=
1
3
(
a
2
+
a
b
+
b
2
)
−
1
4
(
a
2
+
a
b
+
b
2
)
=
(
a
2
+
a
b
+
b
2
)
12
{\displaystyle {\begin{aligned}\sigma _{X}^{2}&=E[X^{2}]-E^{2}[X]\\&={\frac {1}{3}}(a^{2}+ab+b^{2})-{\frac {1}{4}}(a^{2}+ab+b^{2})\\&={\frac {(a^{2}+ab+b^{2})}{12}}\end{aligned}}}
Esempio : Variabile casuale gaussiana
Momenti delle variabili casuali
modifica
Definizione : Momenti di una variabile casuale
Sia
X
{\displaystyle X}
una variabile casuale con funzione di densità di probabilità
f
X
(
x
)
{\displaystyle f_{X}(x)}
. Si dice momento di ordine
n
{\displaystyle n}
della variabile casuale
X
{\displaystyle X}
la quantità
m
n
,
X
=
E
[
X
n
]
=
∫
−
∞
+
∞
α
n
f
X
(
α
)
d
α
{\displaystyle m_{n,X}=E[X^{n}]=\int _{-\infty }^{+\infty }\alpha ^{n}f_{X}(\alpha )d\alpha }
Definizione : Momento centrale di una variabile casuale
Data una variabile casuale
X
{\displaystyle X}
con funzione di densitù di probabilità
f
X
(
x
)
{\displaystyle f_{X}(x)}
, si dice momento centrale di ordine
n
{\displaystyle n}
di
X
{\displaystyle X}
la quantità
m
n
,
X
c
=
E
[
(
X
−
μ
X
)
n
]
=
∫
−
∞
+
∞
(
α
−
μ
X
)
n
f
X
(
α
)
d
α
{\displaystyle m_{n,X}^{c}=E[(X-\mu _{X})^{n}]=\int _{-\infty }^{+\infty }(\alpha -\mu _{X})^{n}f_{X}(\alpha )d\alpha }
Il valore atteso di una funzione di due variabili casuali
X
{\displaystyle X}
e
Y
{\displaystyle Y}
, con
densità di probabilità
f
X
,
Y
(
x
,
y
)
{\displaystyle f_{X,Y}(x,y)}
g
:
R
2
→
R
{\displaystyle g:\mathbb {R} ^{2}\to \mathbb {R} }
(funzione di Borel)
è dato da
E
[
g
(
X
,
Y
)
]
=
∫
−
∞
+
∞
∫
−
∞
+
∞
g
(
α
,
β
)
f
X
,
Y
(
α
,
β
)
d
α
d
β
{\displaystyle E[g(X,Y)]=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }g(\alpha ,\beta )f_{X,Y}(\alpha ,\beta )d\alpha d\beta }
Inoltre, se vale
g
(
α
,
β
)
=
a
g
1
(
α
,
β
)
+
b
g
2
(
α
,
β
)
{\displaystyle g(\alpha ,\beta )=ag_{1}(\alpha ,\beta )+bg_{2}(\alpha ,\beta )}
allora
E
[
g
(
X
,
Y
)
]
=
a
E
[
g
1
(
α
,
β
)
]
+
b
E
[
g
2
(
α
,
β
)
]
{\displaystyle E[g(X,Y)]=aE[g_{1}(\alpha ,\beta )]+bE[g_{2}(\alpha ,\beta )]}
Siano
X
{\displaystyle X}
e
Y
{\displaystyle Y}
due variabili casuali. Allora il valore atteso è
E
[
X
+
Y
]
=
E
[
X
]
+
E
[
Y
]
=
μ
X
+
μ
Y
{\displaystyle E[X+Y]=E[X]+E[Y]=\mu _{X}+\mu _{Y}}
mentre la varianza è
E
[
(
(
X
+
Y
)
−
(
μ
X
+
μ
Y
)
)
2
]
=
E
[
(
X
−
μ
X
)
2
]
+
E
[
(
Y
−
μ
Y
)
2
]
+
2
E
[
(
X
−
μ
X
)
(
Y
−
μ
Y
)
]
=
σ
X
2
+
σ
Y
2
+
2
E
[
(
X
−
μ
X
)
(
Y
−
μ
Y
)
]
≠
σ
X
2
+
σ
Y
2
{\displaystyle E[((X+Y)-(\mu _{X}+\mu _{Y}))^{2}]=E[(X-\mu _{X})^{2}]+E[(Y-\mu _{Y})^{2}]+2E[(X-\mu _{X})(Y-\mu _{Y})]=\sigma _{X}^{2}+\sigma _{Y}^{2}+2E[(X-\mu _{X})(Y-\mu _{Y})]\neq \sigma _{X}^{2}+\sigma _{Y}^{2}}
nel caso di indipendenza, si ha
E
[
(
X
+
Y
−
(
μ
X
+
μ
Y
)
)
2
]
=
σ
X
2
+
σ
Y
2
{\displaystyle E[(X+Y-(\mu _{X}+\mu _{Y}))^{2}]=\sigma _{X}^{2}+\sigma _{Y}^{2}}
Siano
X
{\displaystyle X}
e
Y
{\displaystyle Y}
due variabili casuali. Allora il valore atteso del loro prodotto è
E
[
X
Y
]
=
∫
−
∞
+
∞
∫
−
∞
+
∞
α
β
f
X
Y
(
α
,
β
)
d
α
d
β
≠
E
[
X
]
⋅
E
[
Y
]
{\displaystyle E[XY]=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }\alpha \beta f_{XY}(\alpha ,\beta )d\alpha d\beta \neq E[X]\cdot E[Y]}
Se poi
X
{\displaystyle X}
e
Y
{\displaystyle Y}
sono indipendenti, allora si ha
E
[
X
Y
]
=
E
[
X
]
⋅
E
[
Y
]
{\displaystyle E[XY]=E[X]\cdot E[Y]}
La varianza, invece, è
σ
X
Y
2
=
E
[
(
X
Y
−
E
[
X
Y
]
)
2
]
=
E
[
X
2
Y
2
]
−
E
[
X
Y
]
2
{\displaystyle \sigma _{XY}^{2}=\mathbb {E} {\Big [}{\big (}XY-\mathbb {E} [XY]{\big )}^{2}{\Big ]}=\mathbb {E} [X^{2}Y^{2}]-\mathbb {E} [XY]^{2}}
Ancora una volta, nel caso di indipendenza, si ha
σ
X
Y
2
=
E
[
(
X
Y
−
E
[
X
Y
]
)
2
]
=
E
[
X
2
Y
2
]
−
E
[
X
Y
]
2
=
σ
X
2
⋅
σ
Y
2
+
E
[
Y
]
2
⋅
σ
X
2
+
E
[
X
]
2
⋅
σ
Y
2
{\displaystyle \sigma _{XY}^{2}=\mathbb {E} {\Big [}{\big (}XY-\mathbb {E} [XY]{\big )}^{2}{\Big ]}=\mathbb {E} [X^{2}Y^{2}]-\mathbb {E} [XY]^{2}=\sigma _{X}^{2}\cdot \sigma _{Y}^{2}+\mathbb {E} [Y]^{2}\cdot \sigma _{X}^{2}+\mathbb {E} [X]^{2}\cdot \sigma _{Y}^{2}}
Definizione : Variabili casuali incorrelate
Due variabili casuali
X
{\displaystyle X}
e
Y
{\displaystyle Y}
con densità di probabilità
f
X
Y
{\displaystyle f_{XY}}
si dicono incorrelate se
E
[
X
Y
]
=
E
[
X
]
⋅
E
[
Y
]
{\displaystyle E[XY]=E[X]\cdot E[Y]}
Si ha
X
,
Y
indipendenti
⇒
incorrelate
X
,
Y
incorrelate
⇏
indipendenti
{\displaystyle {\begin{aligned}X,Y{\text{ indipendenti }}&\Rightarrow &{\text{ incorrelate }}\\X,Y{\text{ incorrelate }}&\not \Rightarrow &{\text{ indipendenti }}\end{aligned}}}
Si ricordano le definizioni:
incorrelazione
⇒
E
[
X
Y
]
=
E
[
X
]
⋅
E
[
Y
]
{\displaystyle \Rightarrow \ E[XY]=E[X]\cdot E[Y]}
indipendenza
⇒
f
X
Y
(
α
,
β
)
=
f
X
(
α
)
⋅
f
Y
(
β
)
{\displaystyle \Rightarrow \ f_{XY}(\alpha ,\beta )=f_{X}(\alpha )\cdot f_{Y}(\beta )}
Esempio :
Siano
X
{\displaystyle X}
e
Y
{\displaystyle Y}
due variabili casuali con
f
X
Y
(
α
,
β
)
=
{
1
4
(
α
,
β
)
=
(
1
,
1
)
oppure
(
α
,
β
)
=
(
−
1
,
1
)
1
2
(
α
,
β
)
=
(
0
,
0
)
0
altrimenti
{\displaystyle f_{XY}(\alpha ,\beta )=\left\{{\begin{matrix}{\frac {1}{4}}&(\alpha ,\beta )=(1,1){\text{ oppure }}(\alpha ,\beta )=(-1,1)\\{\frac {1}{2}}&(\alpha ,\beta )=(0,0)\\0&{\text{ altrimenti }}\end{matrix}}\right.}
Allora, si ha
E
[
X
Y
]
=
∫
−
∞
+
∞
∫
−
∞
+
∞
α
β
f
X
,
Y
(
α
,
β
)
d
α
d
β
=
(
−
1
)
⋅
(
−
1
)
⋅
1
4
+
0
⋅
0
⋅
1
2
+
(
−
1
)
⋅
(
1
)
⋅
1
4
=
0
{\displaystyle E[XY]=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }\alpha \beta f_{X,Y}(\alpha ,\beta )d\alpha d\beta =(-1)\cdot (-1)\cdot {\frac {1}{4}}+0\cdot 0\cdot {\frac {1}{2}}+(-1)\cdot (1)\cdot {\frac {1}{4}}=0}
f
X
(
α
)
=
∫
−
∞
+
∞
f
X
Y
(
α
,
β
)
d
β
=
⋯
=
{
1
/
4
x
=
−
1
1
/
2
x
=
0
1
/
4
x
=
1
0
altrove
{\displaystyle f_{X}(\alpha )=\int _{-\infty }^{+\infty }f_{XY}(\alpha ,\beta )d\beta =\cdots =\left\{{\begin{matrix}1/4&x=-1\\1/2&x=0\\1/4&x=1\\0&{\text{ altrove }}\end{matrix}}\right.}
Allo stesso modo, si ha
f
Y
(
β
)
=
{
1
/
2
y
=
0
1
/
2
y
=
1
0
altrove
{\displaystyle f_{Y}(\beta )=\left\{{\begin{matrix}1/2&y=0\\1/2&y=1\\0&{\text{ altrove }}\end{matrix}}\right.}
Si ha
E
[
X
]
=
∫
−
∞
+
∞
x
f
X
(
x
)
d
x
=
0
{\displaystyle E[X]=\int _{-\infty }^{+\infty }xf_{X}(x)dx=0}
E
[
Y
]
=
∫
−
∞
+
∞
y
f
Y
(
y
)
d
y
=
1
2
{\displaystyle E[Y]=\int _{-\infty }^{+\infty }yf_{Y}(y)dy={\frac {1}{2}}}
da cui si deduce che le due variabili casuali sono incorrelate. Non si può dire, però che vi sia indipendenza.
Se due variabili casuali sono congiuntamente gaussiane e sono incorrelate, allora sono anche indipendenti; vale il viceversa.
Definizione : Variabili casuali ortogonali
Due variabili casuali
X
{\displaystyle X}
e
Y
{\displaystyle Y}
con funzione di denstità di probabilità congiunta
f
X
Y
{\displaystyle f_{XY}}
si dicono ortogonali se
E
[
X
Y
]
=
0
{\displaystyle E[XY]=0}
e si indicano con
X
⊥
Y
{\displaystyle X\perp Y}
.
Si ha:
X
,
Y
incorrelate
⇏
X
⊥
Y
{\displaystyle X,Y{\text{ incorrelate }}\not \Rightarrow X\perp Y}
X
⊥
Y
⇏
X
,
Y
incorrelate
{\displaystyle X\perp Y\not \Rightarrow X,Y{\text{ incorrelate}}}
{
X
,
Y
incorrelate
μ
X
=
0
e/o
μ
Y
=
0
⇒
X
⊥
Y
{\displaystyle \left\{{\begin{matrix}X,Y{\text{ incorrelate}}\\\mu _{X}=0{\text{ e/o }}\mu _{Y}=0\end{matrix}}\right.\Rightarrow X\perp Y}
{
X
⊥
Y
μ
X
=
0
e/o
μ
Y
=
0
⇒
X
,
Y
incorrelate
{\displaystyle \left\{{\begin{matrix}X\perp Y\\\mu _{X}=0{\text{ e/o }}\mu _{Y}=0\end{matrix}}\right.\Rightarrow X,Y{\text{ incorrelate}}}
X
,
Y
indipendenti
⇏
X
⊥
Y
{\displaystyle X,Y{\text{ indipendenti}}\not \Rightarrow X\perp Y}
{
X
,
Y
indipendenti
μ
X
=
0
e/o
μ
Y
=
0
⇒
X
⊥
Y
{\displaystyle \left\{{\begin{matrix}X,Y{\text{ indipendenti}}\\\mu _{X}=0{\text{ e/o }}\mu _{Y}=0\end{matrix}}\right.\Rightarrow X\perp Y}
X
,
Y
indipendenti
⇒
(
X
−
μ
X
)
⊥
(
Y
−
μ
Y
)
{\displaystyle X,Y{\text{ indipendenti}}\Rightarrow (X-\mu _{X})\perp (Y-\mu _{Y})}
Definizione : Covarianza di variabili casuali
Siano
X
{\displaystyle X}
e
Y
{\displaystyle Y}
due variabili casuali con funzione di densità di probabilità congiunta
f
X
Y
{\displaystyle f_{XY}}
. Si definisce la covarianza come
C
X
,
Y
=
∫
−
∞
+
∞
∫
−
∞
+
∞
(
x
−
μ
X
)
(
y
−
μ
Y
)
f
X
Y
(
x
,
y
)
d
x
d
y
{\displaystyle C_{X,Y}=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }(x-\mu _{X})(y-\mu _{Y})f_{XY}(x,y)dxdy}
dove si ha
μ
X
=
E
[
X
]
{\displaystyle \mu _{X}=E[X]}
μ
Y
=
E
[
Y
]
{\displaystyle \mu _{Y}=E[Y]}
Una definizione alternativa è
C
X
,
Y
=
E
[
(
X
−
μ
X
)
(
Y
−
μ
Y
)
]
=
E
[
X
Y
]
−
μ
X
E
[
Y
]
+
μ
X
μ
Y
−
μ
Y
E
[
X
]
=
E
[
X
Y
]
−
E
[
X
]
⋅
E
[
Y
]
{\displaystyle {\begin{aligned}C_{X,Y}&=E[(X-\mu _{X})(Y-\mu _{Y})]\\&=E[XY]-\mu _{X}E[Y]+\mu _{X}\mu _{Y}-\mu _{Y}E[X]\\&=E[XY]-E[X]\cdot E[Y]\end{aligned}}}
Si ha che due variabili casuali
X
{\displaystyle X}
e
Y
{\displaystyle Y}
sono incorrelate quando
C
X
,
Y
=
0
{\displaystyle C_{X,Y}=0}
.
Definizione : Coefficiente di correlazione
Date
X
{\displaystyle X}
e
Y
{\displaystyle Y}
due variabili casuali con funzione di densità di probabilità congiunta
f
X
Y
{\displaystyle f_{XY}}
, si dice coefficiente di correlazione di
X
{\displaystyle X}
e
Y
{\displaystyle Y}
la grandezza
r
=
C
X
,
Y
σ
X
σ
Y
{\displaystyle r={\frac {C_{X,Y}}{\sigma _{X}\sigma _{Y}}}}
Esempio :
Sia
X
{\displaystyle X}
una variabile casuale con funzione di densità di probabilità
f
X
{\displaystyle f_{X}}
e sia
Y
=
a
X
+
b
{\displaystyle Y=aX+b}
Mostrare che
r
=
1
{\displaystyle r=1}
se
a
>
0
{\displaystyle a>0}
e
r
=
−
1
{\displaystyle r=-1}
se
a
<
0
{\displaystyle a<0}
.
Soluzione :
Il coefficiente di correlazione è una misura della forza della relazione lineare che intercorre tra
x
{\displaystyle x}
e
Y
{\displaystyle Y}
. Si ha
r
=
0
⇒
X
,
Y
incorrelate
{\displaystyle r=0\Rightarrow X,Y{\text{ incorrelate}}}
r
=
1
⇒
X
,
Y
non incorrelate
{\displaystyle r=1\Rightarrow X,Y{\text{ non incorrelate}}}
Si ha
C
X
Y
=
E
[
(
X
−
μ
X
)
(
Y
−
μ
Y
)
]
{\displaystyle C_{XY}=E[(X-\mu _{X})(Y-\mu _{Y})]}
dove
μ
Y
=
E
[
Y
]
=
E
[
a
X
+
b
]
=
a
μ
X
+
b
{\displaystyle \mu _{Y}=E[Y]=E[aX+b]=a\mu _{X}+b}
da cui
C
X
Y
=
E
[
(
X
−
μ
X
)
(
a
X
+
b̸
−
(
a
μ
X
+
b̸
)
)
]
=
E
[
(
X
−
μ
X
)
a
(
X
−
μ
X
)
]
=
a
E
[
(
X
−
μ
X
)
2
]
=
a
⋅
σ
X
2
{\displaystyle {\begin{aligned}C_{XY}&=E[(X-\mu _{X})(aX+\not b-(a\mu _{X}+\not b))]\\&=E[(X-\mu _{X})a(X-\mu _{X})]\\&=aE[(X-\mu _{X})^{2}]\\&=a\cdot \sigma _{X}^{2}\end{aligned}}}
Si ha
σ
Y
2
=
E
[
(
Y
−
μ
Y
)
2
]
=
E
[
a
2
(
X
−
μ
X
)
2
]
=
a
2
σ
X
2
{\displaystyle \sigma _{Y}^{2}=E[(Y-\mu _{Y})^{2}]=E[a^{2}(X-\mu _{X})^{2}]=a^{2}\sigma _{X}^{2}}
da cui si può calcolare il coefficiente di correlazione
r
=
C
X
Y
σ
X
σ
Y
=
a
σ
X
2
σ
X
|
a
|
σ
X
=
a
|
a
|
=
{
1
a
>
0
−
1
a
<
0
{\displaystyle r={\frac {C_{XY}}{\sigma _{X}\sigma _{Y}}}={\frac {a\sigma _{X}^{2}}{\sigma _{X}|a|\sigma _{X}}}={\frac {a}{|a|}}=\left\{{\begin{matrix}1&a>0\\-1&a<0\end{matrix}}\right.}