Anteprima
Vedrai una selezione di 10 pagine su 109
Teoria e Pratica di Modelli Statistici + Stata Pag. 1 Teoria e Pratica di Modelli Statistici + Stata Pag. 2
Anteprima di 10 pagg. su 109.
Scarica il documento per vederlo tutto.
Teoria e Pratica di Modelli Statistici + Stata Pag. 6
Anteprima di 10 pagg. su 109.
Scarica il documento per vederlo tutto.
Teoria e Pratica di Modelli Statistici + Stata Pag. 11
Anteprima di 10 pagg. su 109.
Scarica il documento per vederlo tutto.
Teoria e Pratica di Modelli Statistici + Stata Pag. 16
Anteprima di 10 pagg. su 109.
Scarica il documento per vederlo tutto.
Teoria e Pratica di Modelli Statistici + Stata Pag. 21
Anteprima di 10 pagg. su 109.
Scarica il documento per vederlo tutto.
Teoria e Pratica di Modelli Statistici + Stata Pag. 26
Anteprima di 10 pagg. su 109.
Scarica il documento per vederlo tutto.
Teoria e Pratica di Modelli Statistici + Stata Pag. 31
Anteprima di 10 pagg. su 109.
Scarica il documento per vederlo tutto.
Teoria e Pratica di Modelli Statistici + Stata Pag. 36
Anteprima di 10 pagg. su 109.
Scarica il documento per vederlo tutto.
Teoria e Pratica di Modelli Statistici + Stata Pag. 41
1 su 109
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Modello statistico Modello lineare classico

Un modello è uno schema teorico che si concentra sugli aspetti strutturali più importanti. Un modello statistico tiene conto della relazione tra teoria e dati, e ha due componenti deterministico e sistematico (regola) e casuale (rumore).

I dati non seguono mai un'espressione matematica esatta a causa dell'errore di misurazione e di campionamento (es: le osservazioni di St, il rumore su una retta perfetta).

In generale un modello statistico è un modello per una variabile di risposta o dipendente Y:

Y = f(Xobj, Xunobs)

= f(Xobj) + Eunobs

in cui f = funzione non nota,

Xobj, Xunobs = variabili esplicative o indipendenti o covariate,

Eunobs = errori causati dalle Xunobs.

Solitamente assumiamo un modello statistico:

Y = x'β + Eunobs = β0 + β1x1 + ... + βkxk + e

(appena modelli non vanno fuori guida)

β0, ..., βk = k+1 coefficienti di regressione,

β0 = intercetta,

e = componente casuale con distribuzione c∞ma di 1g più parametri (≡N(0,σ))

Per modello lineare si intende lineare nei parametri, cioè che può essere ricondotto a lineare tramite trasformazione:

y = β0 + β1x + e →

y = β0 + β1x2 + e →

y = β0x + e →

log(y) = (β) ; β1 (x) + (1/e) →

y = β0 + β1xe

Ma si può linearizzare

Se abbiamo campioni di grandezze m assumiamo che la relazione valga per ogni unità campionaria:

Yi = β0xi + ... + βkxik + ei

(Vettore col hall

(unità campionarie)

| x11 | .... | xk1 |

| x12 | .... | xk2 |

| y1 | .... | ym | variabili colonna definizione

Regressione lineare semplice

È il modello con una sola variabile esplicativa (k=1).

In cui:

  • γ1 = coefficiente angolare (pendenza)
  • σ2 = ^ver=Yi = varianza residua

Pendenza γ1 = parametro più importante dei dati di

  • cambia con xi =...
  • Yi

Pend=σY / σX = risultato.

  • cambia con ...

Metodo dei minimi quadrati

arg minβ0,β1 Σ (yi - (y0 + y1xi))2

  • v 4,a .club = è riprova la ...

Pend = (y2 - y1) / (x2 - x1)

Perché si utilizzano modelli statistici?

Generalmente sono utilizzati per spiegare fenomeni: per capire come si influenzano e. Ma possono essere utilizzati anche per prevedere una certa risposta. Infatti, la spiegazione e previsione possono essere ottenute diverse perchè per la spiegazione preferisco una struttura semplice, comprensibile, mentre per la previsione devo minimizzare l'errore di previsione tenendo conto della complessità. Assumerò di non voler trattare modelli con complessità estreme che sono piccoli black box cioè tanto complessi da non sapere cosa fanno (come in reti neurali).

Si sono create due strade:

  • scopo di spiegazione → statistica semplice
  • scopo di previsione → statistica e machine learning

La distinzione tra parametri e bassa stima: i dati del campione (β hat) parametri di regressione sono spesso stimati usando il metodo dei minimi quadrati.

La stima della media: ĥ = E(yi) = xiβ̂

Il vettore dei residui e = y - ẏβ possono essere residui parziali ei = yi - xi β̂ - yj = eiβ̂0 + ei β̂1: ei β̂1

Secondo metodo dei massimi quadrati coefficienti di regressione β non esaltare sono stimati massimizzando la somma delle deviazioni al quadrato.

L(3β) = Σ [y2 + Σ β]2 + e2

Altrimenti si può utilizzata rmma cosiddetta 3β(β) = Σ: della regressione moderna (caso speciale della repressione normale)

Somme a minimizzare L3(β) | Divisibile e complessione necessaria)

L3(β) = e e = X(3β)(Y - X(β) = y'Z Y Σ βX)β: (β) X(β) al X(β)X(Y) = Σy'Z X. X.B(Y) X(β) = Σ X(β)-12 X(β)X(β): a l a sum: ando normotra scalare

con β = vettore (p+1)

X = matrice (nXp)

X = matrice (nXp)=

y = vettore (nx1)

con l’facile dell' derivata rispetto x β β:

Dettagli
Publisher
A.A. 2020-2021
109 pagine
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher nicolacalca di informazioni apprese con la frequenza delle lezioni di Teoria e Pratica di Modelli Statistici e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Firenze o del prof Grilli Leonardo.