Il modello OLS: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m correzioni comuni e formattazione using AWB
SamueleBOT (discussione | contributi)
m sostituzioni tag obsoleti
 
Riga 12:
Dal grafico di esempio e dal buon senso è lecito aspettarsi una qualche correlazione positiva tra anni di istruzione e stipendio guadagnato.
 
Per "previsione il più precisa possibile" in questa sede intendiamo una '''retta''' che '''minimizza gli errori di previsione'''. Nel caso di funzioni lineari, come quelle a cui facciamo riferimento in questa lezione, il modello OLS è dunque così composto:<div align="center"><math>y_i=\beta_0+\beta_1 x_i+u_i</math></centerdiv>
dove:
* <math>y_i</math> è l'i-esimo livello della variabile <math>Y</math>, che è il fenomeno che vogliamo spiegare;
Riga 25:
 
Per esempio, supponiamo di voler spiegare la quantità prodotta di arance attraverso il prezzo delle arance sul mercato, prefigurandoci una qualche correlazione positiva tra prezzo <math>P</math> e quantità <math>Q</math>. Il modello di regressione lineare con i minimi quadrati ordinari è
<div align="center"><math>q_i=\beta_0+\beta_1 p_i + u_i</math></centerdiv>
Supponiamo ora un qualsiasi shock su <math>u_i</math>, per esempio l'avvento di un parassita che distrugge una rilevante parte del raccolto. Si ha ovviamente che la quantità <math>q_i</math>, '''ma questo ha effetto anche sul prezzo''' <math>p_i</math> (che nell'esempio dovrebbe aumentare, ma ciò è irrilevante nel caso generale). Questo mostra che gli errori sono correlati con la variabile esplicativa.
 
Riga 45:
Gli stimatori OLS sono variabili casuali <math>\hat{\beta}_0</math> e <math>\hat{\beta}_1</math> tali che la somma degli ''i'' residui è minimizzata. Denotando per comodità <math>\bar{X}=\mathbb{E}(X)</math> e <math>\bar{Y}=\mathbb{E}(Y)</math>, si ha:
 
<div align="center"><math>\hat{\beta}_1=\frac{\text{Cov}(X,Y)}{\text{Var}(X)}=\frac{\sum_{i=1}^n (x_i-\bar{X})(y_i-\bar{Y})}{\sum_{i=1}^n (x-\bar{X})^2}</math></centerdiv>
<div align="center"><math>\hat{\beta}_0 = \bar{Y}-\hat{\beta}_1 \bar{X}</math></centerdiv>
 
'''Se valgono le condizioni sopra''', allora i due stimatori OLS sono i migliori stimatori lineari non distorti (Best Linear Unbiased Estimator). I '''residui della regressione''' sono:
<div align="center"><math>\hat{u}_i=y_i-\hat{y_i}=y_i-\hat{\beta_0}-\hat{\beta_1} x_i</math></centerdiv>
{{cassetto
|titolo = Dimostrazione