Il modello OLS: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m correzioni comuni e formattazione using AWB
Riga 1:
{{Templatedanielg
|avanzamento = 00
|materia1 = Econometria
|precedente1 = Analisi preliminare delle variabili
|successivo1 = Il modello GLS
}}
 
{{risorsa|tipo = lezione|materia1 = Econometria|avanzamento = 00%}}
 
Supponiamo di avere disposizioni dati campionari relativi a due fenomeni: ''salario mensile'', che chiamiamo <math>Y</math>, e ''anni di istruzione'', che chiamiamo <math>X</math>. Potremmo essere interessati a sapere se è vero che "studiare di più serve a guadagnare di più in futuro", e cercare di scoprire anche "quanto". In altri termini, cerchiamo una funzione che associa a ogni quantità di anni impiegati nello studio una '''previsione''' il più precisa possibile di quello è lecito aspettarsi di guadagnare in futuro, non sulla base di teorie ma a partire da dati campionari raccolti.
Riga 18:
* i vari <math>\beta</math> che sono '''parametri''' costanti '''oggetto della nostra stima OLS''';
* <math>u_i</math> è '''l'errore''' associato, cioè quella parte di <math>y_i</math> che è incorrelata con <math>x_i</math> e che dunque '''non so spiegare'''.
Naturalmente non sappiamo quali siano <math>\beta_0</math> e <math>\beta_1</math>, e dobbiamo stimarli attraverso dati campionari e opportuni '''stimatori''' (che in questa lezione sono appunto gli stimatori OLS). Trovati delle '''stime''' di <math>\beta_0</math> e <math>\beta_1</math> a partire da osservazioni campionarie di <math>Y</math> e <math>X</math>, che chiamiamo <math>\hat{\beta_0}</math> e <math>\hat{\beta}_1</math>, abbiamo la stima di <math>y_i</math> che chiamiamo <math>\hat{y}_i</math> e anche una la stima degli errori, cioè i '''residui''' <math>\hat{u}_i=y_i-\hat{y}_i=y_i-\hat{\beta}_0-\hat{\beta}_1 x_i</math> che banalmente rappresentano quanto la retta di regressione non è stata capace di spiegare.
 
== Condizioni di applicabilità degli OLS ==
=== Gli errori non sono correlati con la variabile esplicativa ===
Si deve avere che <math>\mathbb{E}(u_i|x_i)=0</math> e conseguentemente che <math>\text{Cov}(u_i,x_i)=0</math>. In altri termini, per ogni livello della variabile esplicativa <math>X</math>, <math>x_i</math>, possono esserci errore più o meno grossi, ma devono comunque compensarsi, cioè avere media nulla. Se ciò non avviene è perché la variabile esplicativa è influenzata a sua volta dalla variabile dipendente che deve spiegare, generando una specie di loop. Se uno shock di <math>u_i</math>, incrementando <math>y_i</math>, modifica a sua volta <math>x_i</math>, allora la prima condizione degli OLS è violata.
 
Per esempio, supponiamo di voler spiegare la quantità prodotta di arance attraverso il prezzo delle arance sul mercato, prefigurandoci una qualche correlazione positiva tra prezzo <math>P</math> e quantità <math>Q</math>. Il modello di regressione lineare con i minimi quadrati ordinari è
Riga 51:
<center><math>\hat{u}_i=y_i-\hat{y_i}=y_i-\hat{\beta_0}-\hat{\beta_1} x_i</math></center>
{{cassetto
|titolo = Dimostrazione
|testo = da fare. Mostrare che gli stimatori OLS sono il risultato della minimizzazione ottima.
}}