Definizione : Valor medio
Sia
X
{\displaystyle X}
una variabile casuale con
f
X
(
x
)
{\displaystyle f_{X}(x)}
. Si definisce il valor medio (o valore atteso) di
X
{\displaystyle X}
la quantità
μ
X
=
E
[
X
]
=
∫
−
∞
+
∞
x
f
X
(
x
)
d
x
{\displaystyle \mu _{X}=E[X]=\int _{-\infty }^{+\infty }xf_{X}(x)dx}
Nel caso di variabili casuali discrete, invece, è definito come
μ
X
=
E
[
X
]
=
∑
i
x
i
p
i
{\displaystyle \mu _{X}=E[X]=\sum _{i}x_{i}p_{i}}
visto che si ha
f
X
(
x
)
=
∑
i
p
i
δ
(
x
−
x
i
)
{\displaystyle f_{X}(x)=\sum _{i}p_{i}\delta (x-x_{i})}
Esempio : Funzione indicatrice
Sia lo spazio di probabilità
{
Ω
,
F
,
P
}
{\displaystyle \{\Omega ,F,P\}}
, con
A
∈
F
{\displaystyle A\in F}
e
X
=
I
A
{\displaystyle X=I_{A}}
la funzione indicatrice. Si ha
E
[
X
]
=
0
⋅
P
(
X
=
0
)
+
1
⋅
P
(
X
=
1
)
=
0
⋅
(
1
−
P
(
A
)
)
+
1
⋅
P
(
A
)
=
P
(
A
)
{\displaystyle E[X]=0\cdot P(X=0)+1\cdot P(X=1)=0\cdot (1-P(A))+1\cdot P(A)=P(A)}
Quindi, il valor medio della funzione indicatrice è la probabilità di successo.
Si noti che il valor medio della funzione può non essere un risultato possibile per l'esperimento.
Esempio : Variabile casuale di Bernoulli
Si ha
f
X
(
x
)
=
p
⋅
δ
(
x
−
1
)
+
(
1
−
p
)
⋅
δ
(
x
)
{\displaystyle f_{X}(x)=p\cdot \delta (x-1)+(1-p)\cdot \delta (x)}
da cui
E
[
X
]
=
1
⋅
p
+
0
⋅
(
1
−
p
)
=
p
{\displaystyle E[X]=1\cdot p+0\cdot (1-p)=p}
Esempio : Variabile casuale di Poisson
Si ha
f
X
(
x
)
=
∑
k
=
0
+
∞
e
−
λ
λ
k
k
!
δ
(
x
−
k
)
λ
>
0
{\displaystyle f_{X}(x)=\sum _{k=0}^{+\infty }e^{-\lambda }{\frac {\lambda ^{k}}{k!}}\delta (x-k)\ \lambda >0}
da cui si ha
E
[
X
]
=
∑
k
=
0
∞
k
e
−
λ
λ
k
k
!
{\displaystyle E[X]=\sum _{k=0}^{\infty }ke^{-\lambda }{\frac {\lambda ^{k}}{k!}}}
Siccome vale la proprietà
e
λ
=
∑
k
=
0
∞
λ
k
k
!
⋅
d
e
λ
d
λ
=
e
λ
=
∑
k
=
0
∞
k
λ
k
−
1
k
!
{\displaystyle e^{\lambda }=\sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}\cdot {\frac {de^{\lambda }}{d\lambda }}=e^{\lambda }=\sum _{k=0}^{\infty }k{\frac {\lambda ^{k-1}}{k!}}}
allora si ottiene
E
[
X
]
=
(
∑
k
=
0
∞
k
λ
k
−
1
k
e
−
λ
λ
)
=
e
λ
e
−
λ
λ
=
λ
{\displaystyle E[X]=\left(\sum _{k=0}^{\infty }k{\frac {\lambda ^{k-1}}{k}}e^{-\lambda }\lambda \right)=e^{\lambda }e^{-\lambda }\lambda =\lambda }
Esempio : Variabile casuale uniforme
Si ha
f
X
(
x
)
=
{
1
b
−
a
x
∈
(
a
,
b
)
0
altrove
{\displaystyle f_{X}(x)=\left\{{\begin{matrix}{\frac {1}{b-a}}&x\in (a,b)\\0&{\text{altrove}}\end{matrix}}\right.}
Allora, il valore atteso sarà
E
[
X
]
=
∫
−
∞
+
∞
x
f
X
(
x
)
d
x
=
∫
a
b
x
b
−
a
d
x
=
1
b
−
a
[
x
2
2
]
a
b
=
(
b
2
−
a
2
)
b
−
a
⋅
1
2
=
(
b
−
a
)
(
b
+
a
)
2
(
b
−
a
)
=
a
+
b
2
{\displaystyle {\begin{aligned}E[X]&=\int _{-\infty }^{+\infty }xf_{X}(x)dx\\&=\int _{a}^{b}{\frac {x}{b-a}}dx\\&={\frac {1}{b-a}}\left[{\frac {x^{2}}{2}}\right]_{a}^{b}\\&={\frac {(b^{2}-a^{2})}{b-a}}\cdot {\frac {1}{2}}\\&={\frac {(b-a)(b+a)}{2(b-a)}}\\&={\frac {a+b}{2}}\end{aligned}}}
Esercizio per casa : La variabile casuale gaussiana
Trovare il valor medio
E
[
X
]
{\displaystyle E[X]}
di una variabile casuale gaussiana,
X
N
(
μ
X
,
σ
X
)
{\displaystyle X~N(\mu _{X},\sigma _{X})}
Teorema : Teorema fondamentale del valore atteso
Data la variabile casuale
X
_
{\displaystyle {\underline {X}}}
n-dimensionale con funzione di densità di probabilità
f
X
_
(
⋅
)
{\displaystyle f_{\underline {X}}(\cdot )}
e la trasformazione
g
:
R
n
→
R
{\displaystyle g:\mathbb {R} ^{n}\to \mathbb {R} }
(una funzione di Borel)si ha che, per la variabile casuale
Y
=
g
(
X
_
)
{\displaystyle Y=g({\underline {X}})}
vale
E
[
Y
]
=
∫
−
∞
+
∞
f
Y
(
y
)
d
y
=
∫
−
∞
+
∞
g
(
x
1
,
x
2
,
⋯
,
x
n
)
f
X
_
(
x
1
,
x
2
,
⋯
,
x
n
)
d
x
1
d
x
2
⋯
d
x
n
{\displaystyle E[Y]=\int _{-\infty }^{+\infty }f_{Y}(y)dy=\int _{-\infty }^{+\infty }g(x_{1},x_{2},\cdots ,x_{n})f_{\underline {X}}(x_{1},x_{2},\cdots ,x_{n})dx_{1}dx_{2}\cdots dx_{n}}
Nel caso particolare in cui
n
=
1
{\displaystyle n=1}
e con una variabile casuale discreta, si ha
f
X
(
x
)
=
∑
i
p
i
δ
(
x
−
x
i
)
{\displaystyle f_{X}(x)=\sum _{i}p_{i}\delta (x-x_{i})}
da cui
Y
=
g
(
X
)
{\displaystyle Y=g(X)}
ha
f
Y
(
y
)
=
∑
i
p
i
δ
(
y
−
g
(
x
i
)
)
=
∑
j
(
∑
i
|
g
(
x
i
)
=
y
j
p
i
)
δ
(
y
−
y
j
)
{\displaystyle f_{Y}(y)=\sum _{i}p_{i}\delta (y-g(x_{i}))=\sum _{j}\left(\sum _{i\ |\ g(x_{i})=y_{j}}p_{i}\right)\delta (y-y_{j})}
da cui si ottiene
E
[
Y
]
=
∫
−
∞
+
∞
y
f
Y
(
y
)
d
y
=
∑
j
y
j
(
∑
i
|
g
(
x
i
)
=
y
j
p
i
)
=
∑
i
g
(
x
i
)
p
i
=
∫
−
∞
+
∞
g
(
x
)
f
X
(
x
)
d
x
{\displaystyle {\begin{aligned}E[Y]&=\int _{-\infty }^{+\infty }yf_{Y}(y)dy\\&=\sum _{j}y_{j}\left(\sum _{i\ |\ g(x_{i})=y_{j}}p_{i}\right)\\&=\sum _{i}g(x_{i})p_{i}\\&=\int _{-\infty }^{+\infty }g(x)f_{X}(x)dx\end{aligned}}}
Proprietà : Proprietà di linearità
Una variabile casuale n-dimensionale può essere vista come combinazione lineare di
n
{\displaystyle n}
variabili casuali monodimensionali pesate
Y
=
a
1
g
1
(
x
)
+
a
2
g
2
(
x
)
+
⋯
+
a
n
g
n
(
x
)
{\displaystyle Y=a_{1}g_{1}(x)+a_{2}g_{2}(x)+\cdots +a_{n}g_{n}(x)}
Questo porta alla proprietà
E
[
Y
]
=
∑
i
=
1
n
a
i
E
[
g
i
(
x
)
]
{\displaystyle E[Y]=\sum _{i=1}^{n}a_{i}E[g_{i}(x)]}
se poi si impone
a
i
=
1
∀
i
{\displaystyle a_{i}=1\ \forall i}
, allora si ha che
X
=
(
X
1
,
X
2
,
⋯
X
n
)
{\displaystyle X=(X_{1},X_{2},\cdots X_{n})}
e vale
Y
=
X
1
+
X
2
+
⋯
+
X
n
{\displaystyle Y=X_{1}+X_{2}+\cdots +X_{n}}
da cui
E
[
Y
]
=
∑
i
=
1
n
E
[
X
i
]
{\displaystyle E[Y]=\sum _{i=1}^{n}E[X_{i}]}
Definizione : Varianza di una variabile casuale
Data una variabile casuale
X
{\displaystyle X}
con una funzione di densità di probabilità
f
X
(
x
)
{\displaystyle f_{X}(x)}
, si dice varianza la grandezza
σ
X
2
=
∫
−
∞
+
∞
(
x
−
μ
X
)
2
f
X
(
x
)
d
x
{\displaystyle \sigma _{X}^{2}=\int _{-\infty }^{+\infty }(x-\mu _{X})^{2}f_{X}(x)dx}
con
μ
X
=
E
[
X
]
{\displaystyle \mu _{X}=E[X]}
La varianza si può definire anche come
σ
X
2
=
E
[
(
x
−
μ
X
)
2
]
{\displaystyle \sigma _{X}^{2}=E[(x-\mu _{X})^{2}]}
Se la variabile casuale è discreta anziché continua, allora si ha
σ
X
2
=
∑
i
p
i
(
x
i
−
μ
X
)
2
{\displaystyle \sigma _{X}^{2}=\sum _{i}p_{i}(x_{i}-\mu _{X})^{2}}
con
μ
X
=
∑
i
x
i
p
i
{\displaystyle \mu _{X}=\sum _{i}x_{i}p_{i}}
Esempio : Variabile casuale binomiale
Si ha:
σ
X
2
=
E
[
(
X
−
μ
X
)
2
]
=
E
[
(
X
2
−
2
μ
X
X
+
μ
X
2
)
]
=
E
[
X
2
]
−
μ
X
2
+
2
E
[
X
]
μ
X
μ
X
=
E
[
X
2
]
−
μ
X
2
=
E
[
X
2
]
−
E
2
[
X
]
{\displaystyle {\begin{aligned}\sigma _{X}^{2}&=E[(X-\mu _{X})^{2}]\\&=E[(X^{2}-2\mu _{X}X+\mu _{X}^{2})]\\&=E[X^{2}]-\mu _{X}^{2}+2E[X]\mu _{X}\mu _{X}\\&=E[X^{2}]-\mu _{X}^{2}=E[X^{2}]-E^{2}[X]\end{aligned}}}
Esempio : Variabile casuale di Bernoulli
Si ha
f
X
(
x
)
=
p
δ
(
x
−
1
)
+
q
δ
(
x
)
{\displaystyle f_{X}(x)=p\delta (x-1)+q\delta (x)}
da cui
E
[
X
]
=
p
{\displaystyle E[X]=p}
E
[
X
2
]
=
1
2
⋅
p
+
0
⋅
q
=
p
{\displaystyle E[X^{2}]=1^{2}\cdot p+0\cdot q=p}
di conseguenza
σ
X
2
=
E
[
X
2
]
−
E
2
[
X
]
=
p
−
p
2
=
p
(
1
−
p
)
=
p
q
{\displaystyle \sigma _{X}^{2}=E[X^{2}]-E^{2}[X]=p-p^{2}=p(1-p)=pq}
Esempio : Variabile casuale uniforme
Sia
X
U
(
a
,
b
)
{\displaystyle X~U(a,b)}
. Allora:
E
[
X
]
=
b
+
a
2
{\displaystyle E[X]={\frac {b+a}{2}}}
E
[
X
2
]
=
∫
a
b
1
b
−
a
x
2
d
x
=
1
b
−
a
[
x
3
3
]
a
b
=
⋯
=
1
3
(
b
2
+
a
b
+
a
2
)
{\displaystyle {\begin{aligned}E[X^{2}]&=\int _{a}^{b}{\frac {1}{b-a}}x^{2}dx\\&={\frac {1}{b-a}}\left[{\frac {x^{3}}{3}}\right]_{a}^{b}\\&=\cdots \\&={\frac {1}{3}}(b^{2}+ab+a^{2})\end{aligned}}}
da cui si ottiene
σ
X
2
=
E
[
X
2
]
−
E
2
[
X
]
=
1
3
(
a
2
+
a
b
+
b
2
)
−
1
4
(
a
2
+
a
b
+
b
2
)
=
(
a
2
+
a
b
+
b
2
)
12
{\displaystyle {\begin{aligned}\sigma _{X}^{2}&=E[X^{2}]-E^{2}[X]\\&={\frac {1}{3}}(a^{2}+ab+b^{2})-{\frac {1}{4}}(a^{2}+ab+b^{2})\\&={\frac {(a^{2}+ab+b^{2})}{12}}\end{aligned}}}
Esempio : Variabile casuale gaussiana
Definizione : Momenti di una variabile casuale
Sia
X
{\displaystyle X}
una variabile casuale con funzione di densità di probabilità
f
X
(
x
)
{\displaystyle f_{X}(x)}
. Si dice momento di ordine
n
{\displaystyle n}
della variabile casuale
X
{\displaystyle X}
la quantità
m
n
,
X
=
E
[
X
n
]
=
∫
−
∞
+
∞
α
n
f
X
(
α
)
d
α
{\displaystyle m_{n,X}=E[X^{n}]=\int _{-\infty }^{+\infty }\alpha ^{n}f_{X}(\alpha )d\alpha }
Definizione : Momento centrale di una variabile casuale
Data una variabile casuale
X
{\displaystyle X}
con funzione di densitù di probabilità
f
X
(
x
)
{\displaystyle f_{X}(x)}
, si dice momento centrale di ordine
n
{\displaystyle n}
di
X
{\displaystyle X}
la quantità
m
n
,
X
c
=
E
[
(
X
−
μ
X
)
n
]
=
∫
−
∞
+
∞
(
α
−
μ
X
)
n
f
X
(
α
)
d
α
{\displaystyle m_{n,X}^{c}=E[(X-\mu _{X})^{n}]=\int _{-\infty }^{+\infty }(\alpha -\mu _{X})^{n}f_{X}(\alpha )d\alpha }
Il valore atteso di una funzione di due variabili casuali
X
{\displaystyle X}
e
Y
{\displaystyle Y}
, con
densità di probabilità
f
X
,
Y
(
x
,
y
)
{\displaystyle f_{X,Y}(x,y)}
g
:
R
2
→
R
{\displaystyle g:\mathbb {R} ^{2}\to \mathbb {R} }
(funzione di Borel)è dato da
E
[
g
(
X
,
Y
)
]
=
∫
−
∞
+
∞
∫
−
∞
+
∞
g
(
α
,
β
)
f
X
,
Y
(
α
,
β
)
d
α
d
β
{\displaystyle E[g(X,Y)]=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }g(\alpha ,\beta )f_{X,Y}(\alpha ,\beta )d\alpha d\beta }
Inoltre, se vale
g
(
α
,
β
)
=
a
g
1
(
α
,
β
)
+
b
g
2
(
α
,
β
)
{\displaystyle g(\alpha ,\beta )=ag_{1}(\alpha ,\beta )+bg_{2}(\alpha ,\beta )}
allora
E
[
g
(
X
,
Y
)
]
=
a
E
[
g
1
(
α
,
β
)
]
+
b
E
[
g
2
(
α
,
β
)
]
{\displaystyle E[g(X,Y)]=aE[g_{1}(\alpha ,\beta )]+bE[g_{2}(\alpha ,\beta )]}
Somma di variabili casuali Modifica
Siano
X
{\displaystyle X}
e
Y
{\displaystyle Y}
due variabili casuali. Allora il valore atteso è
E
[
X
+
Y
]
=
E
[
X
]
+
E
[
Y
]
=
μ
X
+
μ
Y
{\displaystyle E[X+Y]=E[X]+E[Y]=\mu _{X}+\mu _{Y}}
mentre la varianza è
E
[
(
(
X
+
Y
)
−
(
μ
X
+
μ
Y
)
)
2
]
=
E
[
(
X
−
μ
X
)
2
]
+
E
[
(
Y
−
μ
Y
)
2
]
+
2
E
[
(
X
−
μ
X
)
(
Y
−
μ
Y
)
]
=
σ
X
2
+
σ
Y
2
+
2
E
[
(
X
−
μ
X
)
(
Y
−
μ
Y
)
]
≠
σ
X
2
+
σ
Y
2
{\displaystyle E[((X+Y)-(\mu _{X}+\mu _{Y}))^{2}]=E[(X-\mu _{X})^{2}]+E[(Y-\mu _{Y})^{2}]+2E[(X-\mu _{X})(Y-\mu _{Y})]=\sigma _{X}^{2}+\sigma _{Y}^{2}+2E[(X-\mu _{X})(Y-\mu _{Y})]\neq \sigma _{X}^{2}+\sigma _{Y}^{2}}
nel caso di indipendenza, si ha
E
[
(
X
+
Y
−
(
μ
X
+
μ
Y
)
)
2
]
=
σ
X
2
+
σ
Y
2
{\displaystyle E[(X+Y-(\mu _{X}+\mu _{Y}))^{2}]=\sigma _{X}^{2}+\sigma _{Y}^{2}}
Prodotto di variabili casuali Modifica
Siano
X
{\displaystyle X}
e
Y
{\displaystyle Y}
due variabili casuali. Allora il valore atteso del loro prodotto è
E
[
X
Y
]
=
∫
−
∞
+
∞
∫
−
∞
+
∞
α
β
f
X
Y
(
α
,
β
)
d
α
d
β
≠
E
[
X
]
⋅
E
[
Y
]
{\displaystyle E[XY]=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }\alpha \beta f_{XY}(\alpha ,\beta )d\alpha d\beta \neq E[X]\cdot E[Y]}
Se poi
X
{\displaystyle X}
e
Y
{\displaystyle Y}
sono indipendenti, allora si ha
E
[
X
Y
]
=
E
[
X
]
⋅
E
[
Y
]
{\displaystyle E[XY]=E[X]\cdot E[Y]}
La varianza, invece, è
σ
X
Y
2
=
E
[
(
X
Y
−
E
[
X
Y
]
)
2
]
=
E
[
X
2
Y
2
]
−
E
[
X
Y
]
2
{\displaystyle \sigma _{XY}^{2}=\mathbb {E} {\Big [}{\big (}XY-\mathbb {E} [XY]{\big )}^{2}{\Big ]}=\mathbb {E} [X^{2}Y^{2}]-\mathbb {E} [XY]^{2}}
Ancora una volta, nel caso di indipendenza, si ha
σ
X
Y
2
=
E
[
(
X
Y
−
E
[
X
Y
]
)
2
]
=
E
[
X
2
Y
2
]
−
E
[
X
Y
]
2
=
σ
X
2
⋅
σ
Y
2
+
E
[
Y
]
2
⋅
σ
X
2
+
E
[
X
]
2
⋅
σ
Y
2
{\displaystyle \sigma _{XY}^{2}=\mathbb {E} {\Big [}{\big (}XY-\mathbb {E} [XY]{\big )}^{2}{\Big ]}=\mathbb {E} [X^{2}Y^{2}]-\mathbb {E} [XY]^{2}=\sigma _{X}^{2}\cdot \sigma _{Y}^{2}+\mathbb {E} [Y]^{2}\cdot \sigma _{X}^{2}+\mathbb {E} [X]^{2}\cdot \sigma _{Y}^{2}}
Definizione : Variabili casuali incorrelate
Due variabili casuali
X
{\displaystyle X}
e
Y
{\displaystyle Y}
con densità di probabilità
f
X
Y
{\displaystyle f_{XY}}
si dicono incorrelate se
E
[
X
Y
]
=
E
[
X
]
⋅
E
[
Y
]
{\displaystyle E[XY]=E[X]\cdot E[Y]}
Si ha
X
,
Y
indipendenti
⇒
incorrelate
X
,
Y
incorrelate
⇏
indipendenti
{\displaystyle {\begin{aligned}X,Y{\text{ indipendenti }}&\Rightarrow &{\text{ incorrelate }}\\X,Y{\text{ incorrelate }}&\not \Rightarrow &{\text{ indipendenti }}\end{aligned}}}
Si ricordano le definizioni:
incorrelazione
⇒
E
[
X
Y
]
=
E
[
X
]
⋅
E
[
Y
]
{\displaystyle \Rightarrow \ E[XY]=E[X]\cdot E[Y]}
indipendenza
⇒
f
X
Y
(
α
,
β
)
=
f
X
(
α
)
⋅
f
Y
(
β
)
{\displaystyle \Rightarrow \ f_{XY}(\alpha ,\beta )=f_{X}(\alpha )\cdot f_{Y}(\beta )}
Esempio :
Siano
X
{\displaystyle X}
e
Y
{\displaystyle Y}
due variabili casuali con
f
X
Y
(
α
,
β
)
=
{
1
4
(
α
,
β
)
=
(
1
,
1
)
oppure
(
α
,
β
)
=
(
−
1
,
1
)
1
2
(
α
,
β
)
=
(
0
,
0
)
0
altrimenti
{\displaystyle f_{XY}(\alpha ,\beta )=\left\{{\begin{matrix}{\frac {1}{4}}&(\alpha ,\beta )=(1,1){\text{ oppure }}(\alpha ,\beta )=(-1,1)\\{\frac {1}{2}}&(\alpha ,\beta )=(0,0)\\0&{\text{ altrimenti }}\end{matrix}}\right.}
Allora, si ha
E
[
X
Y
]
=
∫
−
∞
+
∞
∫
−
∞
+
∞
α
β
f
X
,
Y
(
α
,
β
)
d
α
d
β
=
(
−
1
)
⋅
(
−
1
)
⋅
1
4
+
0
⋅
0
⋅
1
2
+
(
−
1
)
⋅
(
1
)
⋅
1
4
=
0
{\displaystyle E[XY]=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }\alpha \beta f_{X,Y}(\alpha ,\beta )d\alpha d\beta =(-1)\cdot (-1)\cdot {\frac {1}{4}}+0\cdot 0\cdot {\frac {1}{2}}+(-1)\cdot (1)\cdot {\frac {1}{4}}=0}
f
X
(
α
)
=
∫
−
∞
+
∞
f
X
Y
(
α
,
β
)
d
β
=
⋯
=
{
1
/
4
x
=
−
1
1
/
2
x
=
0
1
/
4
x
=
1
0
altrove
{\displaystyle f_{X}(\alpha )=\int _{-\infty }^{+\infty }f_{XY}(\alpha ,\beta )d\beta =\cdots =\left\{{\begin{matrix}1/4&x=-1\\1/2&x=0\\1/4&x=1\\0&{\text{ altrove }}\end{matrix}}\right.}
Allo stesso modo, si ha
f
Y
(
β
)
=
{
1
/
2
y
=
0
1
/
2
y
=
1
0
altrove
{\displaystyle f_{Y}(\beta )=\left\{{\begin{matrix}1/2&y=0\\1/2&y=1\\0&{\text{ altrove }}\end{matrix}}\right.}
Si ha
E
[
X
]
=
∫
−
∞
+
∞
x
f
X
(
x
)
d
x
=
0
{\displaystyle E[X]=\int _{-\infty }^{+\infty }xf_{X}(x)dx=0}
E
[
Y
]
=
∫
−
∞
+
∞
y
f
Y
(
y
)
d
y
=
1
2
{\displaystyle E[Y]=\int _{-\infty }^{+\infty }yf_{Y}(y)dy={\frac {1}{2}}}
da cui si deduce che le due variabili casuali sono incorrelate. Non si può dire, però che vi sia indipendenza.
Se due variabili casuali sono congiuntamente gaussiane e sono incorrelate, allora sono anche indipendenti; vale il viceversa.
Definizione : Variabili casuali ortogonali
Due variabili casuali
X
{\displaystyle X}
e
Y
{\displaystyle Y}
con funzione di denstità di probabilità congiunta
f
X
Y
{\displaystyle f_{XY}}
si dicono ortogonali se
E
[
X
Y
]
=
0
{\displaystyle E[XY]=0}
e si indicano con
X
⊥
Y
{\displaystyle X\perp Y}
.
Si ha:
X
,
Y
incorrelate
⇏
X
⊥
Y
{\displaystyle X,Y{\text{ incorrelate }}\not \Rightarrow X\perp Y}
X
⊥
Y
⇏
X
,
Y
incorrelate
{\displaystyle X\perp Y\not \Rightarrow X,Y{\text{ incorrelate}}}
{
X
,
Y
incorrelate
μ
X
=
0
e/o
μ
Y
=
0
⇒
X
⊥
Y
{\displaystyle \left\{{\begin{matrix}X,Y{\text{ incorrelate}}\\\mu _{X}=0{\text{ e/o }}\mu _{Y}=0\end{matrix}}\right.\Rightarrow X\perp Y}
{
X
⊥
Y
μ
X
=
0
e/o
μ
Y
=
0
⇒
X
,
Y
incorrelate
{\displaystyle \left\{{\begin{matrix}X\perp Y\\\mu _{X}=0{\text{ e/o }}\mu _{Y}=0\end{matrix}}\right.\Rightarrow X,Y{\text{ incorrelate}}}
X
,
Y
indipendenti
⇏
X
⊥
Y
{\displaystyle X,Y{\text{ indipendenti}}\not \Rightarrow X\perp Y}
{
X
,
Y
indipendenti
μ
X
=
0
e/o
μ
Y
=
0
⇒
X
⊥
Y
{\displaystyle \left\{{\begin{matrix}X,Y{\text{ indipendenti}}\\\mu _{X}=0{\text{ e/o }}\mu _{Y}=0\end{matrix}}\right.\Rightarrow X\perp Y}
X
,
Y
indipendenti
⇒
(
X
−
μ
X
)
⊥
(
Y
−
μ
Y
)
{\displaystyle X,Y{\text{ indipendenti}}\Rightarrow (X-\mu _{X})\perp (Y-\mu _{Y})}
Definizione : Covarianza di variabili casuali
Siano
X
{\displaystyle X}
e
Y
{\displaystyle Y}
due variabili casuali con funzione di densità di probabilità congiunta
f
X
Y
{\displaystyle f_{XY}}
. Si definisce la covarianza come
C
X
,
Y
=
∫
−
∞
+
∞
∫
−
∞
+
∞
(
x
−
μ
X
)
(
y
−
μ
Y
)
f
X
Y
(
x
,
y
)
d
x
d
y
{\displaystyle C_{X,Y}=\int _{-\infty }^{+\infty }\int _{-\infty }^{+\infty }(x-\mu _{X})(y-\mu _{Y})f_{XY}(x,y)dxdy}
dove si ha
μ
X
=
E
[
X
]
{\displaystyle \mu _{X}=E[X]}
μ
Y
=
E
[
Y
]
{\displaystyle \mu _{Y}=E[Y]}
Una definizione alternativa è
C
X
,
Y
=
E
[
(
X
−
μ
X
)
(
Y
−
μ
Y
)
]
=
E
[
X
Y
]
−
μ
X
E
[
Y
]
+
μ
X
μ
Y
−
μ
Y
E
[
X
]
=
E
[
X
Y
]
−
E
[
X
]
⋅
E
[
Y
]
{\displaystyle {\begin{aligned}C_{X,Y}&=E[(X-\mu _{X})(Y-\mu _{Y})]\\&=E[XY]-\mu _{X}E[Y]+\mu _{X}\mu _{Y}-\mu _{Y}E[X]\\&=E[XY]-E[X]\cdot E[Y]\end{aligned}}}
Si ha che due variabili casuali
X
{\displaystyle X}
e
Y
{\displaystyle Y}
sono incorrelate quando
C
X
,
Y
=
0
{\displaystyle C_{X,Y}=0}
.
Definizione : Coefficiente di correlazione
Date
X
{\displaystyle X}
e
Y
{\displaystyle Y}
due variabili casuali con funzione di densità di probabilità congiunta
f
X
Y
{\displaystyle f_{XY}}
, si dice coefficiente di correlazione di
X
{\displaystyle X}
e
Y
{\displaystyle Y}
la grandezza
r
=
C
X
,
Y
σ
X
σ
Y
{\displaystyle r={\frac {C_{X,Y}}{\sigma _{X}\sigma _{Y}}}}
Esempio :
Sia
X
{\displaystyle X}
una variabile casuale con funzione di densità di probabilità
f
X
{\displaystyle f_{X}}
e sia
Y
=
a
X
+
b
{\displaystyle Y=aX+b}
Mostrare che
r
=
1
{\displaystyle r=1}
se
a
>
0
{\displaystyle a>0}
e
r
=
−
1
{\displaystyle r=-1}
se
a
<
0
{\displaystyle a<0}
.
Soluzione :
Il coefficiente di correlazione è una misura della forza della relazione lineare che intercorre tra
x
{\displaystyle x}
e
Y
{\displaystyle Y}
. Si ha
r
=
0
⇒
X
,
Y
incorrelate
{\displaystyle r=0\Rightarrow X,Y{\text{ incorrelate}}}
r
=
1
⇒
X
,
Y
non incorrelate
{\displaystyle r=1\Rightarrow X,Y{\text{ non incorrelate}}}
Si ha
C
X
Y
=
E
[
(
X
−
μ
X
)
(
Y
−
μ
Y
)
]
{\displaystyle C_{XY}=E[(X-\mu _{X})(Y-\mu _{Y})]}
dove
μ
Y
=
E
[
Y
]
=
E
[
a
X
+
b
]
=
a
μ
X
+
b
{\displaystyle \mu _{Y}=E[Y]=E[aX+b]=a\mu _{X}+b}
da cui
C
X
Y
=
E
[
(
X
−
μ
X
)
(
a
X
+
b̸
−
(
a
μ
X
+
b̸
)
)
]
=
E
[
(
X
−
μ
X
)
a
(
X
−
μ
X
)
]
=
a
E
[
(
X
−
μ
X
)
2
]
=
a
⋅
σ
X
2
{\displaystyle {\begin{aligned}C_{XY}&=E[(X-\mu _{X})(aX+\not b-(a\mu _{X}+\not b))]\\&=E[(X-\mu _{X})a(X-\mu _{X})]\\&=aE[(X-\mu _{X})^{2}]\\&=a\cdot \sigma _{X}^{2}\end{aligned}}}
Si ha
σ
Y
2
=
E
[
(
Y
−
μ
Y
)
2
]
=
E
[
a
2
(
X
−
μ
X
)
2
]
=
a
2
σ
X
2
{\displaystyle \sigma _{Y}^{2}=E[(Y-\mu _{Y})^{2}]=E[a^{2}(X-\mu _{X})^{2}]=a^{2}\sigma _{X}^{2}}
da cui si può calcolare il coefficiente di correlazione
r
=
C
X
Y
σ
X
σ
Y
=
a
σ
X
2
σ
X
|
a
|
σ
X
=
a
|
a
|
=
{
1
a
>
0
−
1
a
<
0
{\displaystyle r={\frac {C_{XY}}{\sigma _{X}\sigma _{Y}}}={\frac {a\sigma _{X}^{2}}{\sigma _{X}|a|\sigma _{X}}}={\frac {a}{|a|}}=\left\{{\begin{matrix}1&a>0\\-1&a<0\end{matrix}}\right.}