Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Modello statistico Modello lineare classico
Un modello è uno schema teorico che si concentra sugli aspetti strutturali più importanti. Un modello statistico tiene conto della relazione tra teoria e dati, e ha due componenti deterministico e sistematico (regola) e casuale (rumore).
I dati non seguono mai un'espressione matematica esatta a causa dell'errore di misurazione e di campionamento (es: le osservazioni di St, il rumore su una retta perfetta).
In generale un modello statistico è un modello per una variabile di risposta o dipendente Y:
Y = f(Xobj, Xunobs)
= f(Xobj) + Eunobs
in cui f = funzione non nota,
Xobj, Xunobs = variabili esplicative o indipendenti o covariate,
Eunobs = errori causati dalle Xunobs.
Solitamente assumiamo un modello statistico:
Y = x'β + Eunobs = β0 + β1x1 + ... + βkxk + e
(appena modelli non vanno fuori guida)
β0, ..., βk = k+1 coefficienti di regressione,
β0 = intercetta,
e = componente casuale con distribuzione c∞ma di 1g più parametri (≡N(0,σ))
Per modello lineare si intende lineare nei parametri, cioè che può essere ricondotto a lineare tramite trasformazione:
y = β0 + β1x + e →
y = β0 + β1x2 + e →
y = β0x + e →
log(y) = (β) ; β1 (x) + (1/e) →
y = β0 + β1xe
Ma si può linearizzare
Se abbiamo campioni di grandezze m assumiamo che la relazione valga per ogni unità campionaria:
Yi = β0xi + ... + βkxik + ei
(Vettore col hall
(unità campionarie)
| x11 | .... | xk1 |
| x12 | .... | xk2 |
| y1 | .... | ym | variabili colonna definizione
Regressione lineare semplice
È il modello con una sola variabile esplicativa (k=1).
In cui:
- γ1 = coefficiente angolare (pendenza)
- σ2 = ^ver=Yi = varianza residua
Pendenza γ1 = parametro più importante dei dati di
- cambia con xi =...
- Yi
Pend=σY / σX = risultato.
- cambia con ...
Metodo dei minimi quadrati
arg minβ0,β1 Σ (yi - (y0 + y1xi))2
- v 4,a .club = è riprova la ...
Pend = (y2 - y1) / (x2 - x1)
Perché si utilizzano modelli statistici?
Generalmente sono utilizzati per spiegare fenomeni: per capire come si influenzano e. Ma possono essere utilizzati anche per prevedere una certa risposta. Infatti, la spiegazione e previsione possono essere ottenute diverse perchè per la spiegazione preferisco una struttura semplice, comprensibile, mentre per la previsione devo minimizzare l'errore di previsione tenendo conto della complessità. Assumerò di non voler trattare modelli con complessità estreme che sono piccoli black box cioè tanto complessi da non sapere cosa fanno (come in reti neurali).
Si sono create due strade:
- scopo di spiegazione → statistica semplice
- scopo di previsione → statistica e machine learning
La distinzione tra parametri e bassa stima: i dati del campione (β hat) parametri di regressione sono spesso stimati usando il metodo dei minimi quadrati.
La stima della media: ĥ = E(yi) = xiβ̂
Il vettore dei residui e = y - ẏβ possono essere residui parziali ei = yi - xi β̂ - yj = eiβ̂0 + ei β̂1: ei β̂1
Secondo metodo dei massimi quadrati coefficienti di regressione β non esaltare sono stimati massimizzando la somma delle deviazioni al quadrato.
L(3β) = Σ [y2 + Σ β]2 + e2
Altrimenti si può utilizzata rmma cosiddetta 3β(β) = Σ: della regressione moderna (caso speciale della repressione normale)
Somme a minimizzare L3(β) | Divisibile e complessione necessaria)
L3(β) = e e = X(3β)(Y - X(β) = y'Z Y Σ βX)β: (β) X(β) al X(β)X(Y) = Σy'Z X. X.B(Y) X(β) = Σ X(β)-12 X(β)X(β): a l a sum: ando normotra scalare
con β = vettore (p+1)
X = matrice (nXp)
X = matrice (nXp)=
y = vettore (nx1)
con l’facile dell' derivata rispetto x β β: