Anteprima
Vedrai una selezione di 7 pagine su 30
Statistica: teoria ed esercizi Pag. 1 Statistica: teoria ed esercizi Pag. 2
Anteprima di 7 pagg. su 30.
Scarica il documento per vederlo tutto.
Statistica: teoria ed esercizi Pag. 6
Anteprima di 7 pagg. su 30.
Scarica il documento per vederlo tutto.
Statistica: teoria ed esercizi Pag. 11
Anteprima di 7 pagg. su 30.
Scarica il documento per vederlo tutto.
Statistica: teoria ed esercizi Pag. 16
Anteprima di 7 pagg. su 30.
Scarica il documento per vederlo tutto.
Statistica: teoria ed esercizi Pag. 21
Anteprima di 7 pagg. su 30.
Scarica il documento per vederlo tutto.
Statistica: teoria ed esercizi Pag. 26
1 su 30
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

STATISTICA III PARTE: Variabili Casuali, Capitoli 2, 3, 4

  • Variabile casuale

  • Immagine supporto: "insieme dei valori che la variabile casuale può assumere e la funzione di ripartizione"

  • Funzione di ripartizione

FX(t) = P(X ≤ t) = P(At)

FX(t): ℝ → [0, 1]

  • lim t→ -∞ FX(t) = 0

  • lim t→ +∞ FX(t) = 1

Continua da dx

FX(x0) = P(X ≤ x0) = lim t → x0 FX(t)

< /sub> discreta: v.c. assume numero finito di valori /sub> continua: v.c. assume valori di un intervallo ⊆ ℝ

Distribuzioni di variabili aleatorie

  • Caso discreto:

pi(x) = P(X = xi)

  • Caso continuo:

P(a < X ≤ b) = ∫ab fX(x) dx

  • Valore atteso

E(X) = ∫-∞+∞ (1 - FX(t)) dt = ∫-∞+∞ fX(t) dt

Caso discreto: E(X) = Σ xi P(X = xi)

Caso continuo: E(X) = ∫-∞+∞ x fX(x) dx

  • Valore atteso di una funzione di una variabile casuale

E(g(X)) = Σ g(xi) P(X = xi)

E(g(X)) = ∫-∞+∞ g(x) fX(x) dx

Varianza

  • Se E(X) = m, Var(X) = E((X - m1)2)

  • Moda: valore per cui la densità è massima

  • Quantile: dato α ∈ (0,1) si dice quantile di ordine α il più piccolo numero Xα tale che P(X ≤ Xα) = α si ≤ P(X ≤ Xα)

  • Mediana: X0.50

  • Scarto quadratico medio: σ = √(V(X)) (deviazione standard)

Momenti

μk = E(Xk) = Σi xik pX(xi)

μk = E(Xk) = ∫-∞+∞ xk fX(x) dx

Variabili casuali notevoli

  • Normale/gaussiana

X ~ N(μ, σ2)

fX(x) = 1/√(2π σ2) e-(x-μ)2 / 2σ2

Bernoulli

X ~ Ber (p) 1: successo, 0: altremati

  • P(X=1) = p
  • P(X=0) = q
  • E(X) = p
  • V(X) = pq

Binomiale

X ~ Bin (n, p)

P(X=k) = (n k) pk qn-k , k ∈ {0, 1, ..., n}

E(X) = np

Ψ(X) = npq

Geometrica

X ~ Geo(p)

P(X=k) = qk-1 p

E(X) = 1/p

V(X) = q/p2

Ipergeometrica

X ~ iper(N, K, n)

P(X=k) = (K k)(N-K n-k) / (N n)

E(X) = n K / N

V(X) = n K / N (N-K/N)(N-n/N-1)

Poisson

X ~ poi (μ)

P(X=k) = e μk / k!

E(X) = μ

Var(X) = μ

Funzione di ripartizione:

FX = P (X ≤ x) = ∑t ≤ x P(t)

  1. 0   x < -5
  2. 1/36   -5 ≤ x < -4
  3. 3/36   -4 ≤ x < -3
  4. 6/36   -3 ≤ x < -2
  5. 10/36   -2 ≤ x < -1
  6. 15/36   -1 ≤ x < 0
  7. 21/36   0 ≤ x < 1
  8. 26/36   1 ≤ x < 2
  9. 30/36   2 ≤ x < 3
  10. 33/36   3 ≤ x < 4
  11. 35/36   4 ≤ x < 5
  12. 1   x > 5

Funzione di probabilità

Funzione di ripartizione

b) P(- 2 < x < 0) = P(X = -1) + P(X = 0) = 11/36

c) E(x) = ∑x=-5 x P(x) = -5 . 1/36 - 4 . 2/36 + ... + 5 . 1/36 = 0

V(x) = E(X2) - [E(X)]2 = ∑x=-55 x2 P(x) = 25 . 1/36 + 16 . 2/36 + ... + 25 . 1/36 - 35/6

d) Z = X2

Szx = {0, 1, 4, 9, 15, 25}

P(Z = 0) = P(X = 0) = 6/36

P(Zzx = zj) = P({x = -i} ∪ {x = i}) = P(x = -i) + P(x = i)   i = 1, ..., 5

Variabili Casuali

9

PX(x) = exp(-5) 5x/x!     x = 0, 1, 2, 3, ...

  1. Y ~ Po(5)

    P(y = 0) = e-5 50/0! = 0,00673

  2. X ~ Bi(25, p)     p = P(y = 0) = 0,00673

    P(X ≥ 2) = 1 - P(X ≤ 2) = 1 - [P(X = 0) + P(X = 1) + P(X = 2)] =

    = 1 - [0,844 + 0,1432 + 0,0116] = 0,0012

10

X ~ N(1, 0,0092)

  1. P(X < 0,980)

    P(X < 0,980) = P (X - 1)/0,009 < (0,980 - 1)/0,009

    = Φ(-2,22) = 1 - Φ(2,22) = 1 - 0,9868 = 0,0132

    Φ(2,22) = P(Z ≤ 2,22) = trova nelle tavole

  2. Y = v.c. che conta le scatole che pesano meno di 980 g su 10

    Y ~ Bin(10, 0,0132)

    P(Y ≥ 2) = 1 - P(Y ≤ 2) = 1 - P(Y = 0) - P(Y = 1) =

    = 1 - (10)/0 0,0130 0,986810 - (10)/1 0,01321 0,98689 = 0,031

  3. Y1 ~ Bin(200, 0,0132)

    P(Y1 = 3) = (200)/3 0,01323 0,9868197 = 0,2204

c) Cov(X,Y) = E(XY) - E(X)E(Y) = 11 - ( 8/3 ⋅ 4) = 1/3

E(XY) = 2⋅3⋅1/3 + 2⋅4⋅0 + 2⋅5⋅0 + 3⋅2⋅0 + 3⋅4⋅1/3 + 3⋅5⋅1/3 = 11

E(X) = 2⋅1/3 + 3⋅2/3 = 8/3

E(Y) = 3⋅1/3 + 4⋅1/3 + 5⋅1/3 = 4

V(XY)/(V(X)V(Y)) = 1/3 / √2/3 ⋅ √2/3 = √3/2 ≈ 0,866

V(X) = E(X2) - E(X)2 = 22/3 - 64/9 = 2/9

V(Y) = E(Y2) - E(Y)2 = 50/3 - 16 = 2/3

d) Due variabili sono indipendenti se Cov(X,Y) = 0. In questo caso non è così (Cov(XY)=1/3)

e) Z = 2X + 3Y

E(Z) = E(2X + 3Y) = 2E(X) + 3E(Y) = 2⋅8/3 + 3⋅4 = 52/3

V(Z) = 22V(X) + 32V(Y) + 2⋅3⋅2⋅Cov(X,Y) = = 222/9 + 322/3 + 12⋅1/3 = 98/9

14

X = {numero di croci ottenute}Y = {numero di variazioni nei lanci}

a)

X012 y 001/401/2 101/20 1/41

b) Cov(X,Y) = E(X,Y) - E(X)E(Y) = 0 → variabili incorrelate

E(XY) = 0⋅1/4 + 0⋅1/2 + 1⋅0⋅1/4 + 1⋅1⋅1/2 + 2⋅0⋅1/4 = 1/2

E(X) = 0⋅1/4 + 1⋅1/2 + 2⋅1/4 = 1

E(Y) = 0⋅1/2 + 1⋅1/2 = 1/2

Dettagli
Publisher
A.A. 2017-2018
30 pagine
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher nicole.1997_ di informazioni apprese con la frequenza delle lezioni di Statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli studi Ca' Foscari di Venezia o del prof Tonellato Stefano.