Anteprima
Vedrai una selezione di 12 pagine su 52
Probabilità e statistica - Appunti Pag. 1 Probabilità e statistica - Appunti Pag. 2
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 6
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 11
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 16
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 21
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 26
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 31
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 36
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 41
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 46
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 51
1 su 52
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

X Y

Cov , Cov X,Y

⎜ ⎟

σ σ σ σ

⎝ ⎠ XY

X Y X Y

Probabilità condizionate

Formula di disintegrazione

Per probabilità condizionate si ha che

P(E)=P(EH )+...+P(EH )=P(H )P(E|H )+...+P(H )P(E|H )

1 n 1 1 n n

Indipendenza stocastica

Se P(E|H)=P(E) allora E è da H.

stocasticamente indipendente

Teoema di Bayes

P(EH)=P(E|H)P(H)=P(H|E)P(E)

!

allora

P(E | H ) P(E | H )

= =

P(H | E) + c c

P(E) P(H )P(E | H ) P(H )P(E | H )

se H rappresenta un’ipotesi incerta ed E un fatto osservabile di probabilità

condizionata ad H, allora il teorema di Baye ci dice che il grado di fiducia rispetto ad

H si modifica supposto di aver osservato E.

Distribuzione Binomiale

Se ho n eventi indipendenti ed equiprobabili con P(E )=p e P(E )=(1-p)=q.

c

i

X=E +E +...+E è il numero aleatorio di successi sulle n prove con codominio

1 2 n 1,2,3...n

La distribuzione di probabilità di X:

P(X=0)=P(E E ...E )=(1-p) =q

c c c n n

1 2 n

P(X=n)=P(E E ...E )=p

c c c n

1 2 n

X B(n, p)

⎛ ⎞

n

= = h n−h

P(X h) p q

⎜ ⎟

⎝ ⎠

h

Previsione

n

= =

Pr(X) P(E ) np

i

i=1

Varianza

Per l’indipendenza degli eventi E ,...,E si ha Cov(|E |,|E )=P(E E )-P(E )P(E )=0

1 n i j| i j i j

Quindi la varianza di X Var(X)=npq coincide con la somma delle varianze.

Estrazione con restituzione da urna di composizione nota

Si effettuano n estrazioni con restituzione da un urna contenente N palline, di cui

pN bianche e qN nere.

Se E = l’i-esama pallina estratta è bianca con i=1,...,n

i n

=

X | E |

i

i=1

numero aleatorio di palline bianche estratte nelle n prove.

Gli eventi sono indipendenti ed equiprobabili quindi

X B(n, p)

Estrazione senza restituzione da urna di composizione nota

Si effettuano n estazioni d aun urna contenete N palline di cui pN bianche e qN

nere. Valutando una serie di eventi allora

pN

= =

P(E ) p

1 N −

pN 1 pN

= + = + =

c

P(E ) P(E | E )P(E ) P(E | E ) p q p

− −

2 2 1 1 2 1 N 1 N 1

( ) ( ) ( )

− − − +

N 1 N 2 ... N i 1 pN

= =

P(E ) p

( ) ( )

− − +

i N N 1 ... N i 1

Se si fanno estrazioni in blocco si avra una distribuzione di probabilità

Ipergeometrica

( )

X H N,n, p

⎛ ⎞ ⎛ ⎞

pN qN

⎜ ⎟ ⎜ ⎟

⎝ ⎠ ⎝ ⎠

h n h

( )

= =

P X h ⎛ ⎞

N

⎜ ⎟

⎝ ⎠

n

Previsione

Come per la binomiale si ha Prev(X)=np

Covarianza pq

= − = −

Cov( E , E ) P(E E ) P(E )P(E ) −

i j i j i j N 1

Varianza −

⎛ ⎞

n 1

= ⎜ ⎟

Var(X) npq 1−

⎝ ⎠

N 1

Estrazioni con restituzione da un urna di composizione incognita

Considero n estrazioni da un urna contenete N palline di cui r bianche con r

incognito. Se introduco la partizione H che indica che nell’urna ci sono r palline

r

bianche

( ) r

=

P E H

i r N

Come si vede E ..E sono equiprobabili perchè

1 n r

( ) ∑ ∑

= = ⋅

P E P(E H )P(H ) P(H )

i i r r r

N

r r

Gli eventi E E sono correlati positivamente.

1 2 ⎛ ⎞ −

h n−h

⎛ ⎞ ⎛ ⎞

N N r N r

∑ ∑ n

= = = = ⎜ ⎟ ⎜ ⎟

P(X h) P(X h | H )P(H ) P(H )

⎜ ⎟ ⎝ ⎠ ⎝ ⎠

r r r

⎝ ⎠

h N N

r=0 r=0 binomiale.

Ovvero la distribuzione di probabilità di X è una distribuzione

Estrazioni senza restituzione da un’urna di composizione incognita

Gli eventi sono sempre equiprobabili

r

=

P(E ) P(H )

i r

N

r r

=

P(E | H )

i r N

⎛ ⎞ ⎛ ⎞

r N r

⎜ ⎟ ⎜ ⎟

⎝ ⎠ ⎝ ⎠

h n h

= =

P(X h | H ) ⎛ ⎞

r N

⎜ ⎟

⎝ ⎠

n ipergeometrica.

Perciò X|H ha una distribuzione

r ⎛ ⎞ ⎛ ⎞

r N r

⎜ ⎟ ⎜ ⎟

⎝ ⎠ ⎝ ⎠

N h n h

= =

P(X h) P(H )

⎛ ⎞ r

N

r=0 ⎜ ⎟

⎝ ⎠

n

la distribuzione di probabilità di X è una mistura di distribuzioni ipergeometriche

Numeri aleatori discreti

Un numero aleatorio si dice discreto se l’insieme dei suoi possibili valori è finito o

infinito numerabile

= ≤ =

F(x) P(X x) p

i

≤x

x

i

la funzione F(x) si chiama funzione di ripartizione di X.

[ ]

∈ ∈

F(x) 0,1 ,∀x

Distribuzione geometrica

Siano E ,E ,E ...E una successione di eventi indipendenti ed equiprobabili con

1 2 3, n

P(E )=p

i

!

X è un numero aleatorio di prove fino al primo successo

!

P(X=n)=q p

n-1

X ha una distribuzione Geometrica di parametro p e si indica

X G( p)

Proprioetà di assenza di memoria

Un numero aleatorio discreto ha una distribuzione geometrica se e solo se

> + > = >

P(X n m | X m) P(X n)

Il che significa:”supposto di non aver avuto successo fino alla prova m-esima, la

probabilità di non avere successo nelle successive n prove è la stessa di non aver

avuto successo nelle prime n prove.”

Funzione di Sopravvivenza

Definita come S(x)=1-F(x) cioè la probabilità P(X>x)

Previsione e Varianza

∞ ∞ ∞

n

d(q ) d 1

∑ ∑ ∑

= = = =

n−1 n

Pr(X) npq p p q

dq dq p

n=1 n=1 n=1

∞ 1+ q

= =

2 2 n−1

Pr(X ) n pq 2

p

n=1 1+ q 1 q

[ ]

2

= − = − =

2

Var(X) Pr(X ) Pr(X) 2 2 2

p p p

Distribuzione di Pascal

E E E ...E successione di eventi indipendenti ed equiprobabili con P(E )=p

1 2 3 n i

X è il numero aleatorio fino al k successo. Posto P(X=n)=p si ha

0 n

p =P(E E E ..E )=p k

k 1 2 3 k

p =P(E E ..E )+..+P(E E ..E )=kp q

c k

k+1 1 2 k+1 1 2 k+1

⎛ ⎞

n 1

= k n−k

p p q

⎜ ⎟

n ⎝ ⎠

k 1

X ha una distribuzione di Pascal di parametri k,p

X rappresenta il numero di prove fino al primo successo

1

X ...X hanno tutti una distribuzione geometrica di parametro p

1 k allora la Previsione

k

=

Pr(X) p

Inoltre sfruttando l’indipendenza degli eventi di verifica che

kq

=

Var(X) 2

p

Distribuzione di Poisson

Un numero aleatroio X ha una distribuzione di Poisson di parametro lamda e si

indica

λ

X P( )

λ n λ

= = =

P(X n) p e

n n!

Previsione Varianza

Nella distribuzione di Poisson la e la coincidono infatti

λ

=

Pr(X) λ λ

= +

2 2

Pr(X ) [ ] λ

2

= − =

2

Var(X) Pr(X ) P(X)

Distribuzioni assolutamente

continue

Un numero aleatorio si dice continuo se non esistono probabilità concentrate cioè

densità di probabilità.

se P(X=0)=0, e se esiste una funzione f chiamata

= ∈A) =

P(A) P(X f (x)dx

A

Se A è infinito la probabilità coincide con 1

( )

= +∞,−∞

A

Data una densità di probabilità f(x)

= < = ∈] − ∞,

F(x) P(X x) P(X x])

x

=

F(x) f (t)dt

−∞

F(x) è la funzione di ripartizione

Distribuzione di Uniforme

uniforme

Un numero aleatorio ha una distribuzione nell’intervallo [a,b]

( )

[ ]

X U a,b

se ha distribuzione f(x)=k nell’intervallo a,b e 0 altrove, k si determina integrando

+∞ b

∫ ∫

= = = − =

F(x) f (x)dx k dx k(b a) 1

−∞ a

1

=

k −

b a

funzione di ripartizione

La ⎧ <

0, x a

⎪ −

x a [ ]

x

= = ∈

F(x) f (t)dt , x a,b

−∞ b a

⎪ >

⎪ 1, x b

Previsione

La previsione di un numero aleatorio con densità f(x)

+∞

=

Pr(X) xf (x)dx

−∞ Uniforme

Se un numero ha una distribuzione +

x a b

+∞ b

∫ ∫

= = =

Pr(X) xf (x)dx dx

−∞ b a 2

a

Varianza

La varianza di un numero aleatorio continuo con densità di probabilità f(x), ponendo

la previsione come m allora si può definire la varianza come

( ) ( )

⎡⎣ ⎤⎦

2 2

= − = −

Var(x) Pr X m x m f (x)dx

−∞

Lo scarto quadratico medio

Si definisce scarto quadratico medio

σ = Var(X)

X

Se X ha una distribuzione uniforme

− 2

(b a)

+∞ ( )

σ 2

= = − =

2

Var(X) x m f (x)dx

−∞ 12

b a

σ = 2 3

Distribuzione Esponenziale

Un numero aleatorio continuo con una densità di probabilità

⎧ λ

λ −

⎪ ≥

e , x 0

= ⎨

f (x) ≤

0, x 0

si dice che ha una distribuzione esponenziale di parametro lamda

λ

X Exp( )

La distribuzione esponenziale viene utilizzata ad esempio per indicare il tempo di

durata di un dispositivo non soggetto ad usura.

+∞ +∞ +∞

∫ ∫ λ λ

λ − −

= = −e =

x x

f (x) e dx 1

−∞ 0

0

Esponenziale

la distribuzione è l’analogo nel continuo della distribuzione

Geometrica

funzione di ripartizione:

La ⎧ x

∫ λ

λ − >

⎪ t

e dt, x 0

= ⎨

F(x) 0

⎪ ≤

0, x 0

⎩ x

x

∫ λ λ λ

λ − − −

= −e =

t t x

e dt 1− e

0 0

⎧ λ

⎪ ≥

x

1− e , x 0

= ⎨

F(x) ≤

0, x 0

⎩ Funzione di Sopravvivenza

La funzione 1-F(x)=P(X>x) è definita

⎧ λ

− >

x

e , x 0

= ⎨

S(x) ≤

1, x 0

Previsione 1

+∞

∫ λ

λ −

= =

x

Dettagli
A.A. 2012-2013
52 pagine
1 download
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher alessandrotrap di informazioni apprese con la frequenza delle lezioni di Probabilità e Statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Roma La Sapienza o del prof Gilio Angelo.