vuoi
o PayPal
tutte le volte che vuoi
Valore atteso e varianza β3
Sostituisco y = zβ2 + xβ3 + μ
Risolvo
Presa al valore atteso
β3 è corretto anche non condizionatamente:
- E[β3] = L.A.I.
- Var[β3 | X]
- Senza condizionare applico legge scomposizione Var:
- NB: Questo procedimento è lo stesso per valor atteso e varianza del modello partizionato con 2 variabili.
Collinearità Perfetta
Quando 2 o più regressori forniscono informazioni simili, può verificarsi collinearità perfetta.
Nel caso di collinearità perfetta, 2 o più regressori sono combinazione lineare perfetta degli altri.
Sono informazioni perfette:
D1 + 1 D2 − D2 = 1 D2 + D1Con 4 individui:
Y1 = STIPENDIO Y2 Y3 Y4 2 X 1 4 0 9 1 0 1 A B CA = B + C
Può conservare A ma non avere collinearità perf., deve togliere una dummy.
R2 Corretto
R2 ∈ [0; 1]R2 aumenta sempre quando viene aggiunto un nuovo regressor. Tuttavia, l’aumento di R2 non corrisponde necessariamente ad un miglioramento dei modelli di regressione. R2 sovrastima quindi le bontà del modello.
Problema di adattamento
Per risolvere questo problema si utilizza R̅2 che penalizza l’inserimento di un regressor aggiuntivo, aumentando solo nel caso di un effettivo guadagno di fitting.
R̅2 = 1 − (NOBSERV SSR / m - k - 1 TSS)R̅2 R2 per costruzione tuttavia quando k è molto alto o molto basso, i due valori sono simili.
Come R2, anche R̅2 più tende ad 1 più indica che i parametri introdotti nel modello forniscono buone previsioni della Y.
R̅2 rileva due effetti quando k ⊕
m − 1 / (m - k - 1) ⟬ SSRX TSS ⟭L'effetto finale su R2 dipende da quale dei due effetti prevale.
la matrice allora
Assumiamo
Onde posso all'altro passo:
lo posso riscrivere
Vogliamo applicare TLC:
Per applicare TLC devo appattare condizioni su σ2
Dato
Uso
La condizione non viene rispettata
Applico allora TLC per generalizzazione
Metto insieme il tutto:
Per Cramer Scluzky
simmmetrica