Variabili casuali: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
mNessun oggetto della modifica
Riga 115:
{{Matematica voce|Esercizio|Esercizio per lo studente|Dato <math>\mathbb{R}, \mathbb{B(R)}, P</math>, verificare che <math>X(s) = s^2</math> è una variabile casuale, usando quest'ultimo metodo.}}
 
=== Variabili casuali n-dimensionali =e vettori di variabili casuali ==
 
Se abbiamo una variabile casuale n-dimensionale, allora abbiamo n variabili casuali & viceversa. Questo non vuol dire che se abbiamo la densità congiunta di due variabile casuale, queste sono indipendenti. Bisogna prima calcolare le marginali e poi lavorare su quelle.
 
 
{{Matematica voce|Teorema||Consideriamo la variabile casuale n-dimensionale X su <math>\{\Omega, F, P\} | X : \Omega \rightarrow \mathbb{R}^n</math> misurabile da <math>(\Omega, F)</math> a <math>(\mathbb{R, B(R}^n))</math>, X ha n componenti lungo gli assi coordinati <math>X = (X_1, X_2, \cdots, X_n)</math> con <math>X_i : \Omega \rightarrow \mathbb{R}</math>, allora ogni componente <math>X_i</math> è una variabile casuale.
 
{{Matematica voce|Dimostrazione||Sia <math>B \in \mathbb{B(R)}</math>. Dimostriamo che <math>\{s \in \Omega | X(s) \in B \} \in F \rightarrow (l,F,P)</math>.
 
<math>X_i(s) \in B \Leftrightarrow X_1(s) \in \mathbb{R}, X_2(s) \in \mathbb{R}, \cdots X_{i-1}(s) \in \mathbb{R}, X_i(s) \in \mathbb{R}, X_{i+1}(s) \in \mathbb{R}, \cdots X_n(s) \in \mathbb{R}</math>
 
Questo è vero se e solo se
 
:<math>X(s) = (X_1(s), X_2(s), \cdots X_n(s)) \in \mathbb{R \times R \times \cdots \times R}</math>
 
Da cui si deve avere
 
:<math>B = \mathbb{R \times \cdots \times B \times \cdots R} \in \mathbb{B(R}^n) \Rightarrow \{s \in \Omega | X(s) \in B' \} \in F</math>
 
cioè
 
:<math>\{s \in \Omega | X_i(s) \in B\} = \{s \in \Omega|X(s) \in B' \} \in F</math>
 
da cui segue la tesi.}}
 
{{Matematica voce|Dimostrazione del viceversa||Se consideriamo n variabili casuali
 
:<math>X_1, X_2, \cdots X_n</math>
 
definite su
 
:<math>(\Omega, F, P) | X_i : \Omega \rightarrow \mathbb{R} </math>
 
misurabili da <math>(\Omega, F)</math> a <math>(\mathbb{R,B(R}^n))</math>, allora il vettore
 
:<math>(X_1, X_2, \cdots X_n)</math>
 
è una variabile casuale n-dimensionale. Questa verifica è banale ed è lasciata per esercizio. }} }}
 
{{Matematica voce|Definizione|Distribuzione di una variabile casuale|Dato <math>(\Omega, F, P)</math>, sia <math>X</math> una variabile casuale, <math>X : \Omega \rightarrow \mathbb{R}</math>. Si defisce funzione di distribuzione della variabile casuale <math>X</math>
 
:<math>F_X : \mathbb{R} \rightarrow [0,1]</math>
 
data da
 
:<math>F_X(\alpha) = P(X \le \alpha) = P(\{ s \in \Omega | X(s) \le \alpha\})</math>
 
E' esattamente la stessa cosa che avevamo fatto per la funzione di distribuzione delle distribuzioni di probabilità. }}
 
Nella maggior parte dei casi la <math>F_X</math> si definisce direttamente nella definizione di variabile casuale.
 
<math>F_X</math> soddisfa le seguenti proprietà:
:1. <math>F_X</math> è non decrescente
:2. <math>F_X(-\infty) = \lim_{\alpha \rightarrow -\infty} F_X(\alpha) = 0</math>
:3. <math>F_X(\infty) = \lim_{\alpha \rightarrow \infty} F_X(\alpha) = 1</math>
:4. <math>F_X(\alpha^+) = \lim_{\epsilon \rightarrow 0^+} F_X(\alpha + \epsilon) = F_X(\alpha) \ \forall \alpha \in \mathbb{R}</math>, cioè <math>F_X</math> è continua a destra;
:5. <math>F_X</math> ammette limite sinistro, ossia
::<math>\exists \lim_{\epsilon \rightarrow 0^+}F_X(\alpha-\epsilon) = F_X(\alpha^-)</math>
 
Tutte le funzioni che soddisfano queste proprietà sono funzioni di distribuzione di <math>X</math>.
 
Abbiamo visto che ad ogni funzione di distribuzione <math>F_X</math> su <math>\mathbb{R}</math> è associata una ed una sola misura di probabilità <math>P</math> che soddisfa <math> P \left( \left( a , b \right) \right) = F ( b ) - F ( a ) </math>. Per estensione, indichiamo con <math>P_X</math> la misura di probabilità associata alla <math>F_X</math>,
 
:<math>(P_X, \mathbb{B(R)}) \rightarrow [0,1]</math>
 
è la misura di probabilità su <math>(\mathbb{R,B(R)})</math> tale che <math>P_X((a,b]) = F_X(b) -F_X(a)</math> e <math>P_X((-a,b)) = F_X(b)</math>.
 
Proprietà di <math>P_X</math> e <math>F_X</math>
* <math>P_X\left( \left\{ a \right\} \right) = F_X(a) -F_X(a^{-})</math>
* <math> P_X \left( \left[ a,b \right] \right) = F_X ( b ) - F_X ( a^{-} ) </math>
* <math>P_X\left( \left( a,b\right) \right) = F_X(b^{-}) - F_X(a)</math>
* <math>P_X\left( \left[a,b\right)\right) = F_X(b^{-}) - F_X(a^{-})</math>
 
{{Matematica voce|Teorema|Teorema di esistenza della variabile casuale|Data una funzione di distribuzione <math>F</math> su <math>\mathbb{R}</math>, si può definire su <math>(\mathbb{R,B(R)})</math> una misura di probabilità <math>P</math> e su <math>(\mathbb{R,B(R)},P)</math> una variabile casuale <math>X</math> che ammette <math>F</math> come funzione di distribuzione.
 
{{Matematica voce|Dimostrazione||Sia <math>P</math> la misura di probabilità su <math>(\mathbb{R,B(R)})</math> tale che
 
:<math>P((a,b]) = F(b)-F(a) \text{ con }a,b \in \mathbb{R} \ a < b</math>
 
Sappiamo che essa esiste ed è unica. Definiamo
 
:<math>X:\mathbb{R \rightarrow R}</math> come <math>X(s)=s \ \forall s \in \mathbb{R}</math>
 
X è una variabile casuale su <math>\{ \mathbb{R,B(R)},P\}</math>; inoltre,
 
:<math>F_X(b) = P(\{ s \in \mathbb{R} | X(s) = s \le b\}) = P((-\infty,b]) \ \forall b \in \mathbb{R}</math> }} }}
 
=== Funzione di distribuzione continua ===
{{Matematica voce|Definizione|Funzione di distribuzione continua|Ad <math>F</math> posso associare <math>\{\Omega, F, P\}</math> spazio di probabilità con
* <math>\Omega =\mathbb{R}</math>
* <math>F = \mathbb{B(R)}</math>
* <math>P | P((a,b])=F(b) -F(a) \ \forall a,b \in \mathbb{R}, \ a < b</math>.
Sappiamo che tale <math>P</math> esiste ed è unica. Allora <math>X(s)=s \ \forall s \in \mathbb{R}</math> è una variabile casuale che ammette <math>F</math> come distribuzione. Se esiste <math>f : \mathbb{R \rightarrow R}^+</math> tale che
 
:<math>F(b) = \int_{-\infty}^{\infty} f(\alpha) d\alpha</math>
 
allora <math>F</math> è detta assolutamente continua ed <math>f</math> è detta funzione di densità di probabilità (pdf).}}
 
Consideriamo l'evento
* <math>B\in \mathbb{B(R)}</math>
* <math>P(X \in B) = P(\{ s \in \Omega | X(s) \in B\}) = \int_B f(\alpha) d\alpha</math>
 
Solitamente, si caratterizza la variabile casuale X indicando la densità di probabilità.
 
=====Esempi di funzioni di densità di probabilità=====
 
:1 Variabile casuale uniforme; <math>X</math> è uniformemente distribuita in <math>(a,b), \ -\infty < a < b < \infty</math> e
 
::<math>f(x) = \left\{ \begin{matrix} \frac{1}{ab} & x \in (a,b) \\ 0 & \text{altrove} \end{matrix}\right.</math>
 
:2- La variabile casuale gaussiana
 
::<math>f(x) = \frac{1}{\sigma \sqrt{2 \pi}} e^{-\frac{(x-\mu)^2}{2 \sigma^2}}</math>
 
con <math>\sigma > 0</math>. Si ha
 
::<math>F(x) = \int_{-\infty}^{\infty} f(\alpha)d\alpha = G(\frac{x-\mu}{\sigma})</math>
 
con
 
::<math>G(x) = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^x e^{-\frac{\beta^2}{2}} d\beta</math>
 
:3. <math> Q ( x ) = 1 - G ( x )</math> è la coda della gaussiana, usata per calcolare le probabilità di errore.
 
=== Funzione di distribuzione discreta ===
 
{{Matematica voce|Definizione|Funzione di distribuzione discreta|
}}
 
<math>F</math> è costante a tratti
<math>P_i = F(x_i) -F(X_i^-)</math>
<math>\sum P_i = 1</math>
<math>F(x) = \sum_{i : x_i \le x} P_i</math>
 
In questo caso conviene introdurre <math>\Omega = \{x_1,x_2\}</math>, <math>F = 2^\Omega</math> e <math>P(\{x_i\}) = P_i</math>..
 
Consideriamo lo spazio <math>\{\Omega, F, P\}</math> e definiamo la funzione
 
:<math>X : \Omega \rightarrow \mathbb{R} | X(s)=s \ \forall s \in \Omega</math>
 
<math>X</math> è una variabile casuale discreta con funzione di distribuzione <math>F_X = F</math>, <math>P(x = x_i) =P_i</math>. A questo punto, possiamo scrivere che
 
:<math>F_X(\alpha) = P(x \le \alpha) = P(\{ s \in \Omega | X(s) \le \alpha \}) = P(\{s \in \Omega | s \le \alpha\}) = \left\{ \begin{matrix} P_1 + P_2 & \alpha > x_2 \\ P_1 & x_1 \le \alpha < x_2 \\ 0 se \alpha < x_1 \end{matrix}\right. = \sum_{i : x_i \le \alpha} P_i</math>
 
=====Esempio=====
 
Banalmente, se avete il lancio di una moneta
 
:X(T) = 1
 
:X(C) =0
 
con <math>P(T) = p</math> e <math>P(C) =q</math>. Allora la funzione di distribuzione è
 
<math>F_X(\alpha) = \left\{ \begin{matrix} 1 & \alpha > 1 \\ q & 0 \le \alpha < 1 \\ 0 se \alpha < 0 \end{matrix}\right. </math>
 
===== Esercizio =====
 
Dato lo spazio di probabilità <math>\{\Omega, F, P\}</math>, lancio di un dado non truccato, con <math>\Omega = \{\omega_1, \omega_2, \cdots , \omega_6\}</math>, considerare la seguente variabile casuale e caratterizzarla:
 
:<math>X(\omega_1) = 2</math>
 
:<math>X(\omega_2) = 10</math>
 
:<math>X(\omega_3) = 2</math>
 
:<math>X(\omega_4) = 4</math>
 
:<math>X(\omega_5) = 0</math>
 
:<math>X(\omega_6) = -2</math>
 
Il risultato è quello in figura:
 
[[Immagine:Scalini_dado.jpg|center|Funzione di probabilità della variabile casuale discreta modificata "dado".]]
 
[[Categoria:Lezioni]]