è una variabile casuale.
Un amplificatore con saturazione è un oggetto che implementa la funzione
Calcolare la
e la
nel caso di
generica lungo tutto l'asse di
.
Soluzione:
In generale, la
può avere supporto in
e potrà essere discontinua.
File:TFA esercizio amplificatore con saturazione F X.png
Si ha
![{\displaystyle f_{Y}(y)={\frac {dF_{x}\left({\frac {y}{a}}\right)}{dy}}+F_{X}(-T_{X})\delta (y+aT_{X})+(1-F_{X}(T_{X}))\delta (y-aT_{X})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1f2e4d45cfa40c8f31d046c1700703999ff3af03)
File:TFA esercizio amplificatore con saturazione f X.png
In questo caso, la funzione di densità di probabilità non è né continua né discontinua, ma è mista.
Esempio: Il limitatore ideale
![{\displaystyle g(x)=\left\{{\begin{matrix}T_{Y}&x\geq 0\\-T_{Y}&x<0\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/793cada45c107053d7d37908f103096c186d4a22)
File:TFA esercizio sul limitatore ideale.png
![{\displaystyle F_{Y}(y)=\left\{{\begin{matrix}0&y<-T_{Y}\\1&y\geq T_{Y}\\P(Y\leq y)=P(X<0)=F_{X}(0)&-T_{Y}\leq y>T_{y}\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2e17159ef1e850517ac8873d5984b652b3d0cec8)
La funzione di densità di probabilità discreta è:
Calcolo della densità di probabilità
modifica
Vediamo un metodo che permette di calcolare la densità di probabilità di una variabile casuale
ottenuta dalla trasformazione
![{\displaystyle Y=g(X)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/84fd834147d6175f13477acff6567727265d0000)
con
variabile casuale e
funzione misurabile.
Sia
una variabile casuale discreta, con
![{\displaystyle f_{X}(x)=\sum _{i}p_{i}\delta (x-x_{i})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1201d744833ec014a2b484acbe244078d24d36a4)
Allora, dato che
, si ha
![{\displaystyle f_{Y}=\sum _{i}p_{i}\delta (y-g(x_{i}))}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ad3f34df595bdc6fe528a5ebf6bc0a161e61fa9b)
Può darsi che due
vadano nella stessa
, quindi si possono anche ottenere meno valori possibili, nella
.
Sia
una variabile casuale continua con
continua. Sia
continua e derivabile. Consideriamo tutta la probabilità nell'intervallo
:
![{\displaystyle P(a<x<b)=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b41e8120fc3d47070c46a00d5384be61f2a3d07b)
Identifichiamo vari sottocasi:
monotona crescente
modifica
Se
è monotona crescente, allora ci interessano i valori di probabilità in
.
![{\displaystyle F_{Y}(y)=P(Y\leq y)=P(a<X\leq x)=\int _{a}^{x}f_{X}(\alpha )d\alpha }](https://wikimedia.org/api/rest_v1/media/math/render/svg/dea66e51e8d13a3323df08448c7b9f8e2ba3f998)
Si definisce la funzione
![{\displaystyle x=\psi (y)=g^{-1}(y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/325e754e44b4699b0da3f718158ee75ce22756f2)
inversa di
. Allora,
.
Sappiamo che
![{\displaystyle f_{Y}(y)={\frac {dF_{Y}(y)}{dy}}=f_{X}(\psi (y))\cdot {\frac {d\psi (y)}{dy}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a970d94326d9fe8baa2639c096dbb8252858e773)
dove
![{\displaystyle {\frac {d\psi (y)}{dy}}=\left[{\frac {dg}{dx}}\cdot \left[g^{-1}(y)\right]\right]^{-1}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bb324f9d3d25981ad5e1836ca5d90b68f7c059f0)
che è la derivata inversa, che coincide con l'inversa della derivata, calcolata in
. Quindi, abbiamo ottenuto
![{\displaystyle f_{Y}(y)={\frac {f_{X}\left(g^{-1}(y)\right)}{{\frac {dg}{dx}}\left(g^{-1}(y)\right)}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ef957a9d5ab0c584030f1f9529de5f7863e77e5c)
monotona decrescente
modifica
Nel caso in cui
è decrescente, ci interessa il supporto
. Si ha
![{\displaystyle F_{Y}(y)=\int _{g^{-1}(y)}^{b}f_{X}(\alpha )d\alpha =\cdots \Rightarrow f_{Y}(y)=-f_{X}\left(g^{-1}(y)\right)\cdot {\frac {1}{{\frac {dg}{dx}}\left(g^{-1}(y)\right)}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/256a5e6b18c7dda5b561e7f888eda0a1fe6f06bd)
monotona
modifica
In generale, se
è monotona, si ha
![{\displaystyle f_{Y}(y)=f_{X}\left(g^{-1}(y)\right)\cdot {\frac {1}{\left|{\frac {dg}{dx}}\left(g^{-1}(y)\right)\right|}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/26e2042ec9021d2a68759d1399e41cd4c1cd8880)
Questa è l'espressione generale per le funzioni di tipo monotono. Si ha che
se
![{\displaystyle Y\not \in {\text{ codominio di }}g(\cdot )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f01f31c3e39449ed2ba6eddaa7deb6180cfdab63)
non monotona
modifica
Ipotizziamo che sia possibile partizionare
in un numero finito di sottointervalli
in cui
è monotona (crescente o decrescente che sia). Allora,
![{\displaystyle F_{Y}(y)=P(Y\leq y)=P(X\in \Delta _{1})+P(X\in \Delta _{2})+\cdots }](https://wikimedia.org/api/rest_v1/media/math/render/svg/8bf4d75a6911014dbbd6e4c32090b825b203e7af)
dove
![{\displaystyle P(X\in \Delta _{1})=\int _{x_{1}}^{x_{2}}f_{X}(\alpha )d\alpha }](https://wikimedia.org/api/rest_v1/media/math/render/svg/96c2daab587b77c7a18edb65503dec1bb1c17e58)
![{\displaystyle P(X\in \Delta _{2})=\int _{x_{3}}^{x_{4}}f_{X}(\alpha )d\alpha }](https://wikimedia.org/api/rest_v1/media/math/render/svg/c1f53d018ff6a643c2ba6204f93d8ddddf0b0d8c)
Derivando in
, si ha
![{\displaystyle {\frac {d}{dy}}\left(\int _{x_{1}}^{x_{2}}f_{X}(\alpha )d\alpha +\int _{x_{3}}^{x_{4}}f_{X}(\alpha )d\alpha \right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c3b19715a1ad45e00ad799b10adaa5215538d8c1)
da cui si ottiene
![{\displaystyle {\frac {d}{dy}}\left(\int _{x_{1}}^{x_{2}}f_{X}(\alpha )d\alpha \right)=f_{X}(x_{2}(y))\cdot {\frac {1}{\frac {dg(x_{i})}{dx}}}-f_{X}(x_{1}(y))\cdot {\frac {1}{\frac {dg(x_{1}(y))}{dx}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7d77023857ae66c0004dfa1e3524b28d66d332c1)
da cui si ha la formula fondamentale (da ricordare)
![{\displaystyle F_{Y}(y)=\sum _{i=1}^{N}{\frac {f_{X}(x_{i})}{\frac {dg(x_{i})}{dx}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/11b2340c85af7fd896215bba944bc06bc40d2f7d)
Questa è la formula più generale, dove
![{\displaystyle N=\left|\{g^{-1}(y)\}\right|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e17f3ac9b86bdddc931c2bd7b338a5aa751b98c8)
cioè il numero di risultati restituiti da
.
Esempio: La trasformazione lineare
![{\displaystyle g(x)=ax+b=y\Rightarrow x=g^{-1}(y)={\frac {y-b}{a}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2c646985449e60e02026045936f21fe59b6f3615)
Si ha
Esempio: La trasformazione quadratica
Nel caso
![{\displaystyle g(x)=ax^{2}+b}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a398ce6ee9730ff97cf105ee6dcd19487183eae1)
si ottiene
![{\displaystyle F_{Y}(y)={\frac {f_{X}\left({\frac {y-b}{a}}\right)}{\left|{\frac {a}{2}}\left({\frac {y-b}{a}}\right)\right|}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3be376e0eba8d288c9f45cdd837573b44a79bc8d)
Questo caso si differenzia da quello lineare, perché la
![{\displaystyle x}](https://wikimedia.org/api/rest_v1/media/math/render/svg/87f9e315fd7e2ba406057a97300593c4802b53e4)
compare anche al denominatore di
![{\displaystyle F_{Y}(y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8ade26248134c98c84c3d87814b59d65c2c694d6)
, non essendo eliminato dalla derivata.
Esempio: La trasformazione coseno
Trasformazioni di tipo ![{\displaystyle 2\to 2}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4df1221bddf87579c80cda567a6597f80a47d55f)
modifica
Abbiamo un vettore di variabili casuali in partenza e vogliamo avere un vettore anche per la destinazione,
![{\displaystyle \left\{{\begin{matrix}Y_{1}=g_{1}(X_{1},X_{2})\\Y_{2}=g_{2}(X_{1},X_{2})\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/190e50a66c1e9a3c740a3b91ec81773982596182)
Definizione: Funzione di densità di probabilità congiunta
Si dice funzione di densità probabilità congiunta la funzione
Siano le
continue e derivabili, per cui esistono le derivate parziali
![{\displaystyle \exists {\frac {\partial g_{1}}{\partial x_{i}}},{\frac {\partial x_{2}}{\partial x_{i}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ea9ecb3e496b6858495f728f06c5b6959bdc9f02)
Consideriamo l'intervallo
![{\displaystyle (a_{1},b_{1})\times (a_{2},b_{2})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/645d79683b5003203a7a72fe2ffa2dbda73ed4fb)
che contiene tutta la probabilità
![{\displaystyle P\left((x_{1},x_{2})\in (a_{1},b_{1})\times (a_{2},b_{2})\right)=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fd7e7de520ca2c6970e7568c524eedef8f2623a8)
Se
, allora
![{\displaystyle f_{Y}(y_{1},y_{2})=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3df36cc358527a5d857f2d0fda1b6d16a600bf7b)
Supponiamo che esista una partizione di
all'interno della quale le
siano monotone nei sottointervalli individuati. Siano le
tali che
![{\displaystyle \left\{y_{1}=g_{1}(x_{1i},x_{2i}),\ y_{2}=g_{2}(x_{1i},x_{2i})\right.,\ i=1,2,\cdots ,n}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4fb017acaae5b7b7b3085dadf3ce01837517001d)
Con tutte queste premesse, si ha la funzione di densità di probabilità congiunta
![{\displaystyle f_{Y_{1},Y_{2}}(y_{1},y_{2})=\sum _{i=1}^{N}{\frac {f_{X_{1},X_{2}}(x_{1i},x_{2i})}{\left|\det \left[J_{g}(x_{1i},x_{2i})\right]\right|}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a7e1d5667710f000e1f566430a1f80b210246423)
dove
è lo jacobiano
![{\displaystyle J_{g}(x_{1},x_{2})=\left[{\begin{matrix}{\frac {\partial g_{1}}{\partial x_{1}}}&{\frac {\partial g_{1}}{\partial x_{2}}}\\{\frac {\partial g_{2}}{\partial x_{1}}}&{\frac {\partial g_{2}}{\partial x_{2}}}\end{matrix}}\right](x_{1},x_{2})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1d9de6472a665376603309f92512da44bbd52b70)
Nota:
Se
![{\displaystyle g(\cdot )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/421d5ab89ea154ac75586bdfb687db2160d1ea33)
è invertibile, allora si ha
![{\displaystyle \left\{{\begin{matrix}X_{1}=\psi _{1}(Y_{1},Y_{2})\\X_{2}=\psi _{2}(Y_{1},Y_{2})\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/17720cdc34fc9c9cef8c04cb859dd0b04f106598)
Allora si ha
![{\displaystyle J_{g}(x_{1},x_{2})=\left[J_{\psi }(Y_{1},Y_{2})\right]^{-1}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/46c3b494313821d47de02b90bd11d947916af48d)
da cui si ha
Esercizio:
Provare a calcolare la
![{\displaystyle f_{Z},W(z,w)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/900c0f8736fdebbaf1796dea82007a93689c5705)
con
![{\displaystyle \left\{{\begin{matrix}Z=X+Y\\W=X-Y\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/edc654f313850bc817731a3ca043358d6b325cd1)
e con la funzione di densità di probabilità uniforme su
Non si sfrutti il fatto che le due variabili casuali sono indipendenti.
Esercizio:
Come il precedente, ma con supporto triangolare
![{\displaystyle D=[0,m]\times [0,n]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c88579c9787d29421d133f0d5536e4aa149eccc1)
dove
![{\displaystyle m+n=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/380f4cfdabdcde0d07541aa160a7d564e087c53b)
.
Trasformazioni di tipo ![{\displaystyle 2\to 1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8db5b63591bd9c91608600b47d9fd338a4c95c3e)
modifica
Siano
due variabili casuali con densità di probabilità congiunta
![{\displaystyle f_{X_{1},X_{2}}(x_{1},x_{2})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/20649cafd41006d927c1e64d24e3df5d157c5a58)
continua e definita su
. Sia
![{\displaystyle g:\mathbb {R} ^{2}\to \mathbb {R} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/173e018de55afb832222e874bc6e018b0270848f)
una funzione misurabile continua e derivabile. Data la variabile casuale
![{\displaystyle Z=g(X_{1},X_{2})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/90f8ef8c6d48cd8ab242a3ebc796ce4870773dd5)
qual è la sua distribuzione
?
Primo metodo, somma di variabili casuali
modifica
Si ha
![{\displaystyle F_{Z}(z)=P(Z\leq z)=P(g(X_{1},X_{2})\leq z)=P((X_{1},X_{2})\in D_{Z})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/697d6f574a8766d41824e028c2b3c003c2e6ae76)
dove
![{\displaystyle D_{Z}=\left\{(x_{1},x_{2})\in \mathbb {R} ^{2}\ |\ g(X_{1},X_{2})\leq z\right\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4bdbd4336d62eaf4c95951d015255f4ec496546b)
Si ha
![{\displaystyle F_{Z}(z)=\iint _{D_{Z}}f_{X_{1},X_{2}}(x_{1},x_{2})dx_{1}dx_{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9d07f074912689802d40b03609a3bdf979884f34)
Partendo da qui, si può derivare per ottenere la funzione di densità di probabilità
.
Esempio: Somma di variabili casuali
Sia
![{\displaystyle Z=X+Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/027e2401e3e3c81e9dcbd9ebba1e758913eb3880)
con
nota e continua. Si ha
![{\displaystyle F_{Z}(z)=P(Z\leq z)=P(X+Y\leq z)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e87184896ed565c821d17c4f0c9569c75d43608b)
Fissato
, si ha
![{\displaystyle D_{Z}=\{(x,y)\in \mathbb {R} ^{2}\ |\ x+y\leq z\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5a70dca2a28eb3c750bf42b3ae9530742a8fd56a)
Si ha
![{\displaystyle F_{Z}(z)=\int _{-\infty }^{+\infty }\left(\int _{-\infty }^{z-x}f_{X,Y}(x,y)dy\right)dx}](https://wikimedia.org/api/rest_v1/media/math/render/svg/64d93be6521ecf50bc0d202ff2d1cd54a97d1816)
da cui si ha
Si aggiunge una variabile casuale ausiliaria in modo da portare la trasformazione in una
:
![{\displaystyle \left\{{\begin{matrix}Y=g(X_{1},X_{2})\\Z=h(X_{1},X_{2})&{\text{ variabile casuale ausiliaria }}\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/225e8d4148b41b4828c8e1f65ae5b54bc78afcbf)
Si applica a questo punto la tecnica risolutiva per le trasformazioni
ed otteniamo
In alternativa, si determina
integrando la
rispetto a
,
![{\displaystyle f_{Y}(y)=\int _{-\infty }^{+\infty }f_{YZ}(y,\alpha )d\alpha }](https://wikimedia.org/api/rest_v1/media/math/render/svg/0f1c1fe8f1210af70e1fb842fd36de7784c918af)
Esempio: Somma di variabili casuali
Si ha
![{\displaystyle \left\{{\begin{matrix}Z=X+Y\\W=X&{\text{ variabile casuale ausiliaria }}\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e89d86da18d3a81180c6203db81b006fb49db312)
Si ha
![{\displaystyle |\det(J_{g})|=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/30c8f6bb3db4f668b2914a1c824904bc1af1df18)
quindi posso trovare l'inversa
![{\displaystyle \left\{{\begin{matrix}Y=Z-W\\X=W\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f3c95a1414071ad806eb7f0be48de3d49bcf39ff)
Si ha quindi
![{\displaystyle f_{Z,W}(z,w)={\frac {f_{X,Y}(w,z-w)}{1}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c00ef41f9bc456ceab8c7030159d13cddd8a9d64)
da cui
Osservazione: il secondo metodo è più semplice da utilizzare rispetto al primo, a patto che si scelga la variabile ausiliaria migliore possibile.
Esercizio:
Sia
![{\displaystyle Z={\sqrt {X^{2}+Y^{2}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/328e3e1e109d8f0cf69a2768de879c4c0bf58e79)
qual è la
migliore?
La soluzione è
Determinazione di ![{\displaystyle g()}](https://wikimedia.org/api/rest_v1/media/math/render/svg/470796058e31f0716079ef2047568896bdd748ac)
modifica
Sia data una variabile casuale
con distribuzione
. Determinare la funzione
![{\displaystyle g:\mathbb {R} \to \mathbb {R} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/bdfd1e16b7f932cdc2716a1b6bbe345089b250cf)
tale che la
![{\displaystyle Y=g(X)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/84fd834147d6175f13477acff6567727265d0000)
abbia la distribuzione assegnata
.
La soluzione di questo problema si articola in due passi:
- passaggio dalla
monotona alla variabile casuale
uniforme in ![{\displaystyle (0,1)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c79c6838e423c1ed3c7ea532a56dc9f9dae8290b)
- passaggio da
alla variabile casuale
con
monotona.
Con uno schema a blocchi:
Si verifica che:
è uniforme.
- Infatti, si ha
![{\displaystyle F_{U}(u)=P(U\leq u)=P(F_{X}(x)\leq u)=P(X\leq x)=U}](https://wikimedia.org/api/rest_v1/media/math/render/svg/127f85b222046489d8c2127b88867caf99a69d08)
![{\displaystyle Y=F_{Y}^{-1}(u)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d6ac2b0198929860f6a3ddf1fa1df92f061c46a7)
- Infatti, si ha
![{\displaystyle F_{Y}(y)=P(Y\leq y)=P(F_{Y}^{-1}(u)\leq y)=P(U\leq F_{Y}(y))=F_{U}(F_{Y}(y))=F_{Y}(y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7c4ac0ab590fd8f58d86f693d0f3aed13ceea44f)
Indipendenza tra variabili casuali
modifica
Definizione: Variabili statisticamente indipendenti
Date due variabili casuali
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
e
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
definite su
![{\displaystyle (\Omega ,F,P)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c6612687e4bdc3bdc02e47fe4c79316fc9e90e4)
, queste si dicono statisticamente indipendenti se:
Teorema:
Se due variabili casuali
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
e
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
sono indipendenti, allora
![{\displaystyle F_{XY}(x,y)=F_{X}(x)F_{Y}(y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/aaa23165d2144a62a3db5a920cc3aa104fab4f99)
Dimostrazione:
Teorema:
Se
![{\displaystyle F_{XY}(\cdot )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/db389f5cf802ce06e18ac9ff6f80314aeedef617)
ammette densità di probabilità, questa è
Teorema:
Se
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
e
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
sono indipendenti e
![{\displaystyle g,h:\mathbb {R} \to \mathbb {R} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/857c9cb466e063e054976654c0d5a95efe46aac7)
sono funzioni di Borel, allora
![{\displaystyle Z=g(X)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/662fbed1b0f9398eca2a4ea7bdeb958f51b3d7f2)
![{\displaystyle W=h(Y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/77b3469f88ad89461fadaefdf4127eb5ad342262)
sono indipendenti.
Osservazione: abbiamo fatto trasformazioni
, in cui si mantiene l'indipendenza.
Teorema:
Dati
![{\displaystyle R_{Z}=\{x\in \mathbb {R} |g(x)\leq z\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/82aa4f512cb5e708471d321650520de5db5eaeeb)
![{\displaystyle R_{W}=\{y\in \mathbb {R} |h(y)\leq w\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4ddd1ffd038fef8ee99f283f4aa17079f076f8ff)
![{\displaystyle R_{Z},R_{W}\in \mathbb {B(R)} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/88fe3aa2c32857cd5e4a9e60391078f418b5bd4f)
con
e
funzioni misurabili, allora
![{\displaystyle F_{Z,W}=P(Z\leq z,\ W\leq w)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a11ffa0355ed4ba282032f344f83bc32dd89987c)
Dimostrazione:
Si ha
Teorema:
Dati
![{\displaystyle X}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68baa052181f707c662844a465bfeeb135e82bab)
e
![{\displaystyle Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/961d67d6b454b4df2301ac571808a3538b3a6d3f)
variabili casuali indipendenti, allora la variabile casuale
![{\displaystyle Z=X+Y}](https://wikimedia.org/api/rest_v1/media/math/render/svg/027e2401e3e3c81e9dcbd9ebba1e758913eb3880)
ha una funzione di densità di probabilità
![{\displaystyle f_{Z}(z)=f_{X}(x)\cdot f_{Y}(y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c1ed98ba2421251f5f28c921e97eefe902f9cff8)
Dimostrazione:
![{\displaystyle f_{Z}(z)=\int _{-\infty }^{+\infty }f(\alpha ,z-\alpha )d\alpha =\int _{-\infty }^{+\infty }f(\alpha )\cdot f(z-\alpha )d\alpha }](https://wikimedia.org/api/rest_v1/media/math/render/svg/503c58e1836a571c513f626541d63dd576704b51)
Questa è la definizione di convoluzione. La separabilità delle due funzioni di densità di probabilità è data dal fatto che le variabili casuali sono indipendenti.