Estratto del documento

Teoria Statistica

Tipo 1

  • Quali sono i vantaggi del campionamento rispetto al censimento?

    • riduzione costi
    • risparmio di tempo
    • maggiore qualità delle info
    • maggiore quantità delle info
  • Elencare le proprietà della frequenza relativa fj

    1. 0 ≤ fj ≤ 1   ∀j=1,...,h
    2. j=1h fj = 1
  • Elencare le proprietà della frequenza percentuale pj

    1. 0 ≤ pj ≤ 100   ∀j=1,...,h
    2. j=1h pj = 100
  • Proprietà della frequenza assoluta nj

    1. 0 ≤ nj ≤ m   ∀j=1,...,h
    2. j=1h nj = n
  • Proprietà della media aritmetica

    x̄ = (1/m) ∑i=1m xi

    1. internalità: x(1) ≤ x̄ ≤ x(m)
    2. somma a zero degli scarti: ∑i (xi - x̄) = 0

TEORIA STATISTICA

TIPO 1

(non è detto che ci sia)

  • Quali sono i vantaggi del campionamento rispetto al censimento?
    • Riduzione costi
    • Risparmio di tempo
    • Maggiore qualità delle info
    • Maggiore quantità delle info
  • Elencare le proprietà della frequenza relativa fj
    1. 0 ≤ fj ≤ 1   ∀ j = 1,...,k
    2. kj=1 fj = 1
    fj = mj+ / m
  • Elencare le proprietà della frequenza percentuale pj
    1. 0 ≤ pj ≤ 100   ∀ j = 1,...,k
    2. kj=1 pj = 100
    pj = fj · 100
  • Proprietà della frequenza assoluta mj
    1. 0 ≤ mj ≤ m   ∀ j = 1,...,k
    2. kj=1 mj = n
    nj = fj · m
  • Proprietà della media aritmetica
    1. ̄x = 1/m · mi=1 xi
    2. Intensità: x(u) < ̄x < x(m)
    3. Somma a zero degli scarti: mi=1 (xi - ̄x) = 0
  1. somma dei quadrati degli scarti è minima1
    1. 1
  2. invarianza alle trasformazioni lineari2

  1. associatività, obtiamo la ope

    • definizione la mediana x0
      • 1) internazionali(x), x →
      • 2) x0 = minim c∑
      • 3) distribuzione x = di de -
        • proprietà della varianza(x)
        • v(x)=
  1. v(x) > 0
  2. v(x)= 0 e
  3. se   yi = a + bx

Proprietà della SD

  • SD(x) > 0
  • SD(x) = 0 se x è costante
  • ∀i, i = a + bx ⇒ SD(y) = |b| SD(x)

Definire il k-esimo percentile

xp è quel valore t.c. F(xp) = p

Tipo 2 (c'è ma sempre 1)

Sia dato uno spazio di probabilità Σ e sia A un evento di Σ, indagare le proprietà della funzione di probabilità P(A)

  • 0 ≤ P(A) ≤ 1
  • P(∅) = 0 , P(Σ) = 1

Enunciare il postulato empirico del caso (cioè del frequentismo della probabilità)

In un gruppo di prove ripetute più volte nelle stesse condizioni, ciascuno degli eventi A presenta con una frequenza relativa che tende alla probabilità dell'aumento del numero di prove

P(A) = M/M + ε, dove ε → 0 per m → ∞

Elencare i postulati del calcolo delle probabilità

  • Gli eventi formano un'algebra (di Boole)
  • ∀A ⊆ Σ P(A) ≥ 0
  • P(Σ) = 1
  • ∀ A, B disgiunti: A∩B = ∅, la loro unione P(A∪B) = P(A) + P(B)

TIPO 3

  • Definire in generale il supporto di una VC x

    Il supporto SX è l'insieme dei possibili valori che la VC x può assumere

  • Definire in generale il valore atteso di una VC x

    E(x) = Σx∈Sx x P(X=x)

  • Elencare le proprietà del valore atteso
    1. xmin ≤ E(x) ≤ xmax
    2. E[x - E(x)] = 0
    3. E(x) = argminc E[(x-c)2]
    4. Se y = a + bx allora E(y) = a + bE(x)
  • Elencare le proprietà della funzione di prob. f(x)
    1. 0 ≤ f(x) ≤ 1
    2. Σx∈Sx f(x) = 1
  • Elencare le proprietà della funzione di ripartizione F(x)

    F(x) = P(X ≤ x)

    1. Monotonia: ∀x1 < x2, F(x1) ≤ F(x2)

2)0

limx→−∞F(x)=0, limx→+∞F(x)=1

3)

continuità a dx

limx→x0+ F(x)=F(x0)

(la funz. ci ripeteremo più fort. anche i der.)

4)

P(a<x≤b) = F(b) - F(a)

Definire la V.C Bernoulli e tutte le sue proprietà

X ~ Ber (π)

  1. X = {0, 1}
  2. f(X) = πX (−π)1−X oppure f(X) = {bπ ,͠se Χ=11−π, se Χ=0}
  3. Θ = [0, 1], cioè 0≤π≤1, dove m∈ℤ+
  4. E(X) = π
  5. V(X) = π(1-π)

Definire la binomiale con tutte le sue proprietà

X ~ Bin (m, π)

  1. X = {0, 1, ..., m}
  2. f(x) = ( mx) πx (1−π)m−x
  3. Θ = [0, 1], cioè 0≤π≤1, dove m∈ℤ+
  4. E(X) = mπ
  5. V(X) = mπ(1-π)
  6. Proprietà riproduttiva della binomialesono Χ1, ...,ΧkV.C indi. pendenti, dove Χi ~ Bin (ℳ, π)posto ℒ = Χ1 + ... + Χk, alloraℒk ~ Bin (ℓk + ... + ℓk, π)

1. Definire la Poisson con tutte le sue proprieta

  1. SX = {0, 1, 2, ..., n}
  2. fX(x) = 1/x! λx e
  3. Θ = ℝ+, cioe λ > 0
  4. E(x) = λ
  5. V(x) = λ
  6. Proprieta riproduttiva: siano x1, ..., xm m VC indip. ident. dove xi ~ Poiss(λi) , Sm = x1 + ... + xm ~ Poiss(λ1 + ... + λm)

2. Definire la Normale con tutte le sue proprieta

  1. Sx = ℝ, cioe (-∞, +∞)
  2. fx(x) = 1/√(2π)σ² e-½ (x-µ/σ)²
  3. Θ = ℝ x ℝ+, cioe Θ = { -∞ < µ < +∞ ; 0 < σ² < +∞ }
  4. E(x) = µ
  5. V(x) = σ²
  6. X ~ N(µ, σ²), Y = a + bX → Y ~ N(a+bµ, b²σ²)
  7. X ~ N(µx, σx²) , Y ~ N(µy, σy²)
  8. X e Y indipendenti → X + Y ~ N(µx + µy, σx² + σy²)

Proprieta della normale

Definire la variabile χ2 (Chi-Quadro)

Siano z1, ..., zm m VC IID, dovezi ~ N(0,1)

  1. χ12 = z12 + ... + zm2 = ∑i=1m zi2
  2. Sm = ℝ+
  3. Θ = { 1, 2, ..., } = m, dove m sono i gradi di libertà
  4. E(χ12) = m
  5. V(χ12/m) = 2m

Definire la t-Student

Sia Z ~ N(0,1), con y ~ χ2m,Z e y indipendenti

  1. tm = Z/√(y/m)
  2. Stm = ℝ
  3. è campanulare, simmetrica rispetto allo zero, e con code più alte rispetto alla Normale e l'andamento dipende dai gradi di libertà
  4. E(tm) = 0
  5. V(tm) = m/(m-2)
  6. Θ = { 1, 2, 3, ..., m }

TCL per la somma

Def: sono \( x_1, x_2, \ldots, x_m \) m VC IID, t.c.

\( V(x_i) = \sigma^2 \) e \( E(x_i) = \mu \)

posso

\( S_m = x_1 + x_2 + \ldots + x_m \)

allora,

\( S_m \sim N(m \mu, m \sigma^2) \)

Osservazioni:

  1. \( E(S_m) = E(x_1 + x_2 + \ldots + x_m) \) \( = E(x_1) + E(x_2) + \ldots + E(x_m) \) ma visto che sono IID, il valore di \( E = \mu \) \( = \mu + \mu + \ldots + \mu = M\mu \)
  2. \( V(S_m) = V(x_1 + x_2 + \ldots + x_m) \) \( = V(x_1) + V(x_2) + \ldots + V(x_m) \) \( = \sigma^2 + \sigma^2 + \ldots + \sigma^2 \) \( = m \sigma^2 \) quindi fare \( \sqrt{m} \sigma \)
  3. Se \( x_1, x_2, \ldots, x_m \) fossero tutte normali indipendenti \( x_i \sim N( \mu, \sigma^2 ) \) \( S_m \sim N(m \mu, m \sigma^2 ) \)

TCL per la media

Def: siano \( x_1, x_2, \ldots, x_m \) m VC IID t.c.

\( E(x_i) = \mu \) e \( V(x_i) = \sigma^2 \)

posso

\( \overline{x} = \frac{x_1 + x_2 + \ldots + x_m}{m} = \frac{S_m}{m} \)

allora

\( \overline{x} \xrightarrow{a} N \left( \mu, \frac{\sigma^2}{m} \right) \)

OSSERVAZIONI:

1o. E(x) = E(M) = 1m E(Sm) = 1m E(cSm) = mum = u

2o. V(x) = V(M) = V(Smm) = 1m2 V(Sm) = 1m2 var s2 = S2m2

....

TCL per la PROPORZIONE (o fateri relat trebui)

Det: Siamo x1, x2, ..., xm a VC di Bernoulli (o di coloniiche); xi ~ Bern (prog)

poso

- = x1 + x2 + .... + xmm

Inoltre

- ~ N (u, uu(1-u)m)

----------

TIPO 5

Induzione il volore atteso e varianza della media campionia ne del caso di un campionamento casuale semplice senza nēimmirtione (OOS-SLE)

E(x̄) = Su2 m

V(x̄) = O2m [N - mN - 1]

in cui N è la numerasita tole defta popolnecione

..........

Deservere le propriete desideraili per cue vtinatoren per un esseroso

1O CORRETTEZZA: Se h uno enmmatorio per m, uh e corretto se e solo se E(h) = o

2O EFFICIENZA

Se h stimatore per ufl, e uk0 e h ha piena efficienza se CE(h-ref) = 1, wornost ≠ u

h ha piena efficienza se CE(h) = C⁄E(81)

.....

Definire l'errore quadratico medio (MSE) di uno stimatore e le sue decomposizione

MSE(h) = E[(h - θ)2] = V(h) + β2(h) dove β(h) = E(h) - θ

Se h è corretto, MSE(h) = V(h).

Definire le proprietà asintotiche degli stimatori (solo per m → ∞)

Sia h uno stimatore per θ:

  1. Correttezza asintotica: h è corretto asintotico se

E(h) → θ

m → ∞

  1. Consistenza: h è consistente (in media quadratica) per θ, se

MSE(hm) → 0

m → ∞

V(hm) → 0 , β2(hm) → 0

m → ∞

  • Riportare le proprietà degli stimatori di massimo verosimiglianza

Sia Θ̂ uno stimatore di massimo verosimiglianza per Θ:

  1. E(Θ̂) → Θ

m → ∞

  1. V(Θ̂) → I-1(Θ) (dove I-1 è la minima varianza possibile)

m → ∞

  1. Θ̂ ≃ N(Θ, I-1(Θ))
  1. È invariante alle trasformazioni monotone, cioè se

ψ = g(Θ) → φ = g(Θ̂) ∀ g incompleta

dove si può scrivere g(Θ̂) = g(̂Θ)

Definire e spiegare gli errori del I e del II tipo

Accetto H0 Accetto H1 Ho vera Errore I tipo α Ha vera Errore II tipo β

Errore I tipo è rifiutare H0 quando è vera e si commette con probabilità α

Errore II tipo è accettare H0 quando è falsa e si commette con probabilità β

Definire la potenza del test

Accetto H0 Accetto H1 Ho vera Errore I tipo α Ha vera Errore II tipo β

La potenza del test è 1-β ovvero la probabilità di accettare H1 quando è vera

Definire il livello di confidenza

Il livello di confidenza della stima di un parametro θ è la "fiducia" che si ripone nel fatto che l'intervallo di confidenza cada sul parametro. In altri termini è la probabilità che il tale contenga θ. 1-α = P(θ ∈ IC) = P(θ| X̄ ± zα se(X̄)) = P(θ ∈ (H(X̄) ± hseX̄))

Riportare la definizione del livello di significatività di un test statistico specificando il suo significato

P(T > tos | H0 vera)

Distinzione tra SD e SE

SD(x): σ = √(1/m Σ (xi - ̅)2)

SE(θ̂) = √V(θ̂)

SE = σ/√m

V(̅) = σ2/m

Importante la definizione di funzione di verosimiglianza

sia f(x, Θ), un modello e sia x1, ..., xm i componenti, si definisce la funzione di verosimiglianza per Θ

L(Θ) ∝ ∏i=1m f(xi, Θ)

... e misura la verosimiglianza dei valori Θ alle basi

Tipo 8

Elencare e descrivere gli assunti del modello di regressione

  1. = 0 + + corretta specificazione
  2. E() = 0
  3. V() = 2 ∀, omoschedasticità
  4. COV(, ) = 0, esogeneità
  5. La covarianza tra i vari residui è nulla COV(, ) = 0 ∀ ≠ , i residui sono tra loro indipendenti
  6. ∼ (, 2) ⟷ ∼ (0, , 2)

Elencare e descrivere le proprietà degli stimatori della retta di regressione

  1. ̂0 e ̂1 sono stimatori corretti E(̂0) = 0 , E(̂1) = 1
  2. Teorema di Gauss-Markov Nella classe degli stimatori corretti per 0 e 1, ̂0 e ̂1 hanno varianza minima

Indicare le proprietà del coefficiente di correlazione

  1. -1 ≤ ≤ 1
  2. è un numero puro
  3. è simmetrico =
  4. è invariabile alle trasformazioni lineari = + ⟶ [ℎ | ]

5. Rxy misura l'associazione lineare tra x e y; se l'associazione è non lineare allora R non funziona.

• Descrivere l'analisi dei residui nella verifica degli assunti del modello di regressione

ei = yi - ŷi = yi - (β0 + β1 i)

  • 1) E(ei) = 0
  • 2) V(ei) = σ2 costante si osserva la nube dei residui e si valuta se questi hanno una forma oblungata
  • 3) COV(ei, ej) = 0
  • 4) COV(ei, x) = 0
  • 5) ei ~ N(0, σ2) si verifica osservando l'istogramma dei residui, se tale istogramma assomiglia

• Riportare la scomposizione della varianza della variabile y e lo schema di analisi della varianza nel modello di regressione

TSS = RSS + ESS

TSS = mΣi=1 (yiA - y̅)2

residual sum of squares → RSS = nΣi=1 (yi - ŷi)

explained sum of squares → ESS = mΣj=1j - ÿj)2

Schema di analisi della varianza

SS GDL Var. stimatore F Regressione ESS 1 ESS/1 (ESS/1) / (RSS/m-2) Residua RSS m - 2 RSS/m-2
Anteprima
Vedrai una selezione di 4 pagine su 15
Statistica - Formule, proprietà, postulati, definizioni Pag. 1 Statistica - Formule, proprietà, postulati, definizioni Pag. 2
Anteprima di 4 pagg. su 15.
Scarica il documento per vederlo tutto.
Statistica - Formule, proprietà, postulati, definizioni Pag. 6
Anteprima di 4 pagg. su 15.
Scarica il documento per vederlo tutto.
Statistica - Formule, proprietà, postulati, definizioni Pag. 11
1 su 15
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher birillo44 di informazioni apprese con la frequenza delle lezioni di Statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Modena e Reggio Emilia o del prof Frederic Patric.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community