Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

Tornando alla distribuzione binomiale, possiamo vederla anche come somma di n variabili

, dove la singola variabile assume il valore 1

aleatorie, chiamiamole per X

X i 1

, 2

, , n

= K i

i

oppure 0 a seconda che nell’i-esima ripetizione dell’esperimento si sia avuto un successo od

n

un insuccesso. Con questa definizione è chiaro che la variabile Y X assumerà il valore

= i

i 1

=

del numero totale di successi nel complesso degli n tentativi.

Calcoliamo la media e la varianza delle singole variabili , ricordando che ad ogni

X i

ripetizione (quindi anche la la i-esima) la probabilità del successo è sempre p, e quella

[ ] [ ]

dell’insuccesso sempre , o in altri termini, , e .

q 1 p P X 1 p P X 0 q

= − = = = =

i i

Calcoliamo la media: ( )

E X 1 p 0 q p

= × + × =

i

calcoliamo la varianza: [ ]

( ) ( )

2 2 2

( ) ( )

V X E X p 1 p p 0 p q p q

= − = − × + − × =

i i

Applichiamo quanto sappiamo per la somma di variabili indipendenti (infatti le ripetizioni

dell’esperimento sono tutte indipendenti), vale a dire che la media della somma è la somma

delle medie (come è sempre), e la varianza della somma è uguale alla somma delle varianze

(perché le variabili sono indipendenti). Poiché hanno tutte la stessa media p, la somma delle

medie è data da p moltiplicato per n, e analogamente per la varianza, quindi:

n n

( ) ( )

∑ ∑

( ) ( )

E Y E X n p V Y V X n p q

= = = =

i i

i 1 i 1

= =

È chiaro che allo stesso risultato si perviene a partire dall’espressione della probabilità

binomiale: n

 

j j  

∑ ∑ k n k

( ) ( )

E K k P k k p q n p

= × = × =

K  

k

 

k 0 k 0

= =

e analogamente per la varianza (esercizio: dimostrare l’espressione appena scritta ha il

risultato ivi indicato, e ripetere per la varianza). I-23

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

X

Nota: le viste sopra sono , (frase in genere

INDIPENDENTI E IDENTICAMENTE DISTRIBUITE

i i.i.d.):

abbreviata con infatti le ripetizioni dell’esperimento sono tutte indipendenti, e tutte

hanno la stessa identica distribuzione di probabilità: probabilità di successo p, probabilità di

insuccesso q.

Esempio 1

Si è determinato che un certo albero se soggetto ad un certo carico assiale ha una probabilità di cedere pari a

0.05. Qual è la probabilità che su 16 alberi così caricati:

a) al massimo 2 cedano;

b) almeno 4 cedano?

Esempio 2

Un fabbricante di caffettiere elettriche dichiara che solo nel 10% dei casi i suoi apparecchi richiedono interventi

manutentivi durante il periodo di garanzia, che è di un anno. Se su un certo campione di 20 caffettiere 5

richiedono riparazioni durante l’anno di garanzia, siete portati a credere oppure no alla dichiarazione del

fabbricante?

Esempio 3

Un certo studio sostiene che il 75% degli incidenti sul lavoro potrebbero essere evitati semplicemente tramite

l’osservanza delle regole relative alla sicurezza. Nel caso in cui tale affermazione risponda a verità, trovate la

probabilità che:

a) meno di 16 incidenti su 20 sarebbero evitati

b) 12 incidenti su 15 potrebbero essere evitati

Esempio 4

In un certo quartiere si è registrata una probabilità 0.20 che le interruzioni elettriche, quando siverificano,

superino la durata di 2 minuti. Se in un mese si hanno 8 interruzioni, trovare la probabilità che 3 di esse superino

i 2 minuti

Esempio 5

Un fabbricante di vernici ritiene che 10% delle confezioni da lui prodotte contengano meno vernice di quanto

riportato sull’etichetta. Per verificare tale circostanza, vengono selezionate in modo casuale 16 latte di vernice ed

il contenuto viene misurato esattamente; se non più di 2 latte contengono meno vernice di quanto prescritto, la

circostanza si ritiene provata. Sarà vero? Per farvi un’idea, calcolate la probabilità di superare tale test se in

realtà la percentuale di latte con contenuto insufficiente è:

a) 5% c) 15%

b) 10% d) 20% I-24

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

I.12 La distribuzione di Poisson

Questa distribuzione si presenta quando si ha a che fare con certi tipi di processi di conteggio,

detti appunto processi di Poisson. Tipicamente, si tratta di contare un numero di eventi in un

dato tempo (numero di decadimenti radioattivi in un minuto, numero di TIR che passano in

un’ora, numero di persone che arrivano all’ufficio postale in una mattinata e simili). Diciamo

( )

N t il numero di eventi registrati nel tempo t. Vediamo sotto quali condizioni il processo in

esame è definito “di Poisson”.

1) Incrementi a) e b)

indipendenti stazionari

a) - significa che la probabilità che nel tempo si verifichi un dato

t

Indipendenti

numero di eventi è indipendente dal numero di eventi verificatisi in precedenza, o

che si verificheranno in futuro: ogni lasso di tempo fa storia a sé

b) – significa che uguali lassi di tempo hanno uguali probabilità

Stazionari

indipendentemente dal momento in cui iniziano: nel senso che

{ ( ) ( )

} { ( ) ( )

}

P N t s N t s P N t N t

+ − + = −

2 1 2 1

( )

2) N 0 0 (che è ovvio in realtà)

=

{ ( ) } ( )

3) P N h 1 h o h

= = λ +

{ ( ) } ( )

P N h 2 o h

4) ≥ =

i punti 3 e 4 combinati significano semplicemente che gli eventi sono separati nel tempo,

quindi prendendo un tempuscolo h abbastanza piccolo siamo sicuri di trovare al massimo un

evento durante h e mai più di uno.

Osserviamo che i punti 3 e 4 discende anche la seguente relazione:

  ∞

  ∑

{ ( ) } ( ) { ( ) }

U

P N h 0 1 P N h i 1 P N h i

= ≡ − = = − = =

 

  i

i =1

∞ ∞

∑ ∑

[ ]

{ ( ) } { ( ) } ( ) ( ) ( )

1 P N h 1 P N h i 1 h o h o h 1 h o h

= − = − = = − λ + − = − λ +

i 2 i 2

= =

Per comodità introduciamo la seguente notazione:

( ) { ( ) }

P t P N t n

= =

n

Possiamo così riscrivere l’ultimo risultato come:

( ) ( )

P h 1 h o h

= − λ +

0 I-25

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

( )

Deriviamo ora un’espressione che ci permetta di calcolare . Per fare ciò partiamo dal

P t

0

( )

calcolo di P t h

+

0 ( ) { ( ) } { ( ) ( ) ( ) }

P t h P N t h 0 P N t 0 N t h N t 0

+ = + = = = ∩ + − =

0

poiché gli incrementi sono indipendenti, la probabilità dell’intersezione entro parentesi graffe

è pari al prodotto delle probabilità dei singoli eventi, inoltre sono stazionari, quindi:

( ) { ( ) } { ( ) ( ) } { ( ) } { ( ) } ( ) ( )

P t h P N t 0 P N t h N t 0 P N t 0 P N h 0 P t P h

+ = = × + − = = = × = =

0 0 0

( )

Introducendo l’espressione ricavata sopra per la probabilità troviamo quindi

P h

0

[ ]

( ) ( ) ( )

P t h P t 1 h o h

+ = × − λ +

0 0

Riordinando e dividendo per h otteniamo quindi

( ) ( )

P t h P t ( )

+ − o h

0 0 ( ) ( )

P t P t

= − λ +

0 0

h h

da cui, facendo il limite per h tendente a zero, otteniamo l’equazione differenziale

( )

dP t

0 ( )

P t

= − λ 0

dt

( ) ( )

che risolta con la condizione (infatti dalla condizione numero 2 si ha che è

P 0 1 N 0 0

= =

0

un evento certo) dà infine il risultato cercato: t

− λ

( )

P t e

=

0 ( ) , sempre facendo dapprima riferimento

Procediamo in modo simile per calcolare P t

n ( )

all’intervallo . In questo caso però abbiamo n modi di ottenere : e quindi si

t h N t h n

+ + =

avrà ( ) { ( ) }

P t h P N t h n

+ = + = =

n

 

n

 

[ ] [ ] [ ]

( ) ( ) ( ) ( ) ( ) ( )

U

P N t n N h 0 N t n 1 N h 1 N t n i N h i

= = ∩ = ∪ = − ∩ = ∪ = − ∩ = =

 

 

i 2

=

n

{ ( ) } { ( ) } { ( ) } { ( ) } { ( ) } { ( ) }

P N t n P N h 0 P N t n 1 P N h 1 P N t n i P N h i

= = × = + = − × = + = − × = =

i 2

= I-26

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

n

( ) ( ) ( ) ( ) ( ) ( )

P t P h P t P h P t P h

= × + × + × =

n 0 n 1 1 n i i

− −

i 2

= n

[ ] [ ]

( ) ( ) ( ) ( ) ( ) ( )

P t 1 h o h P t h o h P t o h

= × − λ + + × λ + + ×

n n 1 n i

− −

i 2

=

[ ]

( ) ( ) ( )

P t 1 h P t h o h

= × − λ + λ +

n n 1

Ancora una volta riordiniamo e dividiamo per h, quindi facciamo il limite per h tendente a

zero, ottenendo: ( )

dP t

n ( ) ( )

P t P t

= − λ + λ

n n 1

dt ( ) ( )

Questa può essere integrata (ricordando che ) per trovare una volta noto

P 0 0 P t

=

n n

( ) :

P t

n 1

− t

t ∫

− λ λτ

( ) ( )

P t e P e d

= λ τ τ

n n 1

0

Ad esempio, troviamo subito che

t t

t t t

∫ ∫

− λ λτ − λ − λτ λτ − λ

( ) ( )

P t e P e d e e e d te

= λ τ τ = λ τ = λ

1 0

0 0

Procedendo in modo analogo per i valori successivi di n troviamo l’espressione generale:

n

( )

t

λ t

− λ

( )

P t e

=

n n

!

Se chiamiamo il prodotto possiamo riscrivere la distribuzione appena vista come

t

µ λ n

µ −

µ

( )

P t e

=

n n

!

che è la forma in cui viene generalmente scritta la distribuzione di probabilità di Poisson. Si

vede facilmente che la somma vale 1, correttamente; infatti:

n n

∞ ∞

µ µ

∑ ∑

− µ − µ − µ + µ

e e e e 1

= = =

n

! n

!

n 0 n 1

= =

È chiaro infatti che la sommatoria a secondo membro è proprio lo sviluppo in serie di

McLaurin della funzione esponenziale. I-27

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

A cosa corrisponde la quantità Proviamo a calcolare la media, o valore atteso di n che dir

µ?

si voglia: n n n n 1 k

∞ ∞ ∞ ∞ ∞

µ µ µ µ µ

∑ ∑ ∑ ∑ ∑ ∑

− µ − µ − µ − µ − µ

( )

n nP t n e n e e e e

= = = = = µ = µ = µ

n ( ) ( )

n

! n

! n 1 ! n 1 ! k

!

− −

n 0 n 1 n 1 n 1 k 0

= = = = =

quindi il parametro coincide con il valor medio di n. Procedendo in modo analogo, con un

µ

calcolo appena più laborioso, si trova che la varianza di tale distribuzione è anch’essa pari a µ.

Questa è una peculiarità della distribuzione di Poisson.

Esempio 1

Una banca incassa in media 6 assegni scoperti al giorno. Qual è la probabilità che

a) in un giorno ne incassi 4;

b) in due giorni ne incassi 10.

Esempio 2

Il controllo su di una produzione di latta stagnata rivela in media 0.2 difetti al minuto. Calcolare la probabilità di

trovare:

a) un difetto in 3 minuti;

almeno due difetti in 5 minuti;

b)

c) al massimo un difetto in 15 minuti.

Esempio 3 0 . 3

λ =

Il numero di guasti settimanali di un certo computer è una distribuzione di Poisson con . Si calcoli la

probabilità che operi senza guasti per due settimane consecutive.

Esempio 4 5 . 8

λ =

Il numero di fotoni gamma al secondo emessi da un dato isotopo è una distribuzione di Poisson con .

Se un contatore satura se riceve più di 12 fotoni in un secondo, si calcoli la probabilità che saturi in un dato

secondo.

Esempio 5

Il centralino di un ufficio riceve in media 0.6 chiamate al minuto. Si calcoli la probabilità che

a) in un minuto ci sia almeno una chiamata;

b) in 4 minuti arrivino almeno 3 chiamate.

Esempio 6

Una compagnia vende tempo macchina sul proprio computer in lotti di t ore, e questo al prezzo di 600 €/hr.

Il numero di guasti del computer è una variabile aleatoria con distribuzione di Poisson con , e se il

0

.

8 t

λ = ×

2

computer ha X guasti in un periodo di t ore, costa € di riparazione.

50× X

Che valore di t conviene scegliere per massimizzare l'aspettativa di profitto?

Esempio 7

In una certa città mediamente 4 guidatori prendono almeno una multa in un mese. Si usi la distribuzione di

Poisson per trovare la probabilità che:

a) 2 guidatori prendano almeno una multa in un dato mese;

b) almeno 4 guidatori prendano almeno una multa in un dato mese;

c) da 2 a 4 guidatori prendano almeno una multa in un dato mese;

d) nessun guidatore prenda almeno multe in un dato mese. I-28

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

I.12.1 Una proprietà interessante

Si abbiano due intervalli consecutivi t e t , tali che il numero di successi nel primo intervallo

1 2

sia retto da una distribuzione di Poisson con media ed il numero di successi nel secondo

µ,

intervallo sia retto da una distribuzione di Poisson con media Qual è la distribuzione di

ν.

probabilità per il numero complessivo di successi nell’intervallo T = t + t ? Innanzitutto la

1 2

, vi siano k successi (con k m) è data da

probabilità che nel primo intervallo, l’intervallo t ≤

1 k

− µ

e µ

( )

P k ; t =

1 k

!

se nel primo intervallo si sono avuti k successi, perché nella somma dei due intervalli ve ne

siano m occorre che ve ne siano m-k nel secondo intervallo, l’intervallo t . La probabilità di

2

tale evento è data da m k

− ν −

e ν

( )

P m k ; t

− =

2 ( )

m k !

Poiché i due eventi sono indipendenti (come è sempre per eventi retti dalla poissoniana) la

probabilità che nell’intervallo t1 vi siano k successi e inoltre nell’intervallo t2 vi siano m-k

successi, per quanto già sappiamo, è il prodotto delle probabilità k m k

− µ − ν −

e e

µ ν

( ( ) ) ( ) ( )

P k ; t m k ; t P k ; t P m k ; t

∩ − = × − = ×

1 2 1 2 ( )

k

! m k !

D’altra parte, m successi nell’intervallo t +t si possono avere con qualunque ripartizione tra

1 2

e t : 0 ed m, 1 ed m-1, 2 ed m-2 e via dicendo. E naturalmente tutte le combinazioni sono

t 1 2

incompatibili tra di loro. Quindi  

k m k m

= =

 

[ ]

( ) ( ) ( ( ) )

la probabilità U

P m

; t t P k ; t m k ; t P k ; t m k ; t

+ = ∩ − = ∩ −

1 2 1 2 1 2

 

  k 0

k 0 =

=

Pertanto la probabilità richiesta è data da

k m k

k m k m − µ − ν −

= = e e

µ ν

∑ ∑

( ) ( ) ( )

P m

; t t P k ; t P m k ; t

+ = × − = ×

1 2 1 2 ( )

k

! m k !

k 0 k 0

= =

Vediamo con qualche passaggio:

( )

k m k k m k

k m k m k m

− µ − ν − − − µ − ν − µ + ν

= = = m

 

e e e e e

µ ν µ ν

∑ ∑ ∑ m

k m k

µ − ν − ( )

 

e e

× = = µ ν = µ + ν

 

( ) ( ) k

k

! m k ! k

! m k ! m

! m

!

− −  

k 0 k 0 k 0

= = = I-29

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

Cioè, la distribuzione di probabilità per il numero di successi nella somma dei due intervalli è

data da una poissoniana con parametro . Il valore atteso naturalmente è

λ = µ + ν

, cioè: il valore atteso del numero di successi nella somma degli intervalli

m

< >= λ = µ + ν

T t t è pari alla somma dei valori attesi del numero di successi nel primo e nel secondo

= +

1 2

intervallo.

Applichiamo questo principio che abbiamo scoperto al caso t = t , cioè T = 2t .

1 2 1

Pertanto , e la distribuzione di probabilità diviene:

2

λ = µ 2

− µ

e m

( ) ( ) ( )

P m

; 2 t b m

; 2 2

= µ = µ

1 p m

!

Il valore atteso naturalmente è .

m 2

< >= µ

I.12.2 Un’altra proprietà interessante

Riprendiamo la distribuzione binomiale, e immaginiamo di aumentare il numero di prove N e

diminuire la probabilità di successo in una singola prova p, ma in maniera coordinata:

vogliamo che il prodotto np, cioè la media della distribuzione, si mantenga costante. Quindi

µ

se raddoppiamo n dimezziamo p, se dividiamo p per 10 decuplichiamo n e via dicendo. Per

comodità e per non dimenticare la coordinazione tra numero n di prove e probabilità p di

successo in una prova, riscriviamo quest’ultima quantità come rapporto tra la media (che

µ

manteniamo ferma) e il numero n (che lasciamo crescere):

k n k

n

!    

µ µ

[ ]

P k 1

   

= −

( )

n k ! k

! n n

   

Possiamo riscrivere il rapporto tra i fattoriali, e ottenere k n k

( ) ( )

n n 1

) ... n k 1    

× − × × − + µ µ

[ ]

P k 1

   

= −

k

! n n

   

e fin qui abbiamo fatto solo qualche passaggio. Ora lasciamo crescere n, come detto, e

consideriamo valori di k che siano molto piccoli rispetto ad n: in tal caso possiamo

approssimare i prodotti a numeratore con il prodotto di k volte n, e nell’esponente n-k

trascurare k. Otteniamo k n

k

n    

µ µ

[ ]

P k 1

   

≅ −

k

! n n

    I-30

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

n

Facendo ora il limite per , e osservando che

→ ∞ n

 

µ −

µ

lim 1 e

 

− =

n →

∞ n

 

come certo ricorderemo dal corso di analisi, possiamo scrivere infine

k

µ

[ ] −

µ

e

P k 

n k

!

→ ∞

cioè: la distribuzione binomiale per n con dato e fisso, tende alla distribuzione

np

→ ∞ µ =

poissoniana, almeno per valori di k finiti.

Un esempio particolarmente interessante per noi è il decadimento radioattivo. Infatti ci

troviamo generalmente in presenza di un grande numero di atomi, solo una parte dei quali

decade in un tempo prefissato. Descriviamolo così: fissiamo un tempo di osservazione T; ogni

, di decadere nel corso di questo intervallo di

atomo ha una probabilità, che chiameremo T

λ

tempo T; sono presenti N atomi tutti uguali, che dal punto di vista del decadimento sono

indipendenti l’uno dall’altro (le distanze tra un nucleo e l’altro sono immense rispetto al

raggio d’azione delle forze nucleari responsabili del decadimento); quanti atomi decadranno

nel tempo T? Questo è un classico esperimento binomiale, infatti abbiamo:

N repliche indipendenti dello stesso esperimento

Per ogni replica la probabilità di “successo” (il decadimento durante T) è nota e fissa: T

λ

Quindi possiamo scrivere subito la distribuzione di probabilità per il numero di decadimenti k

nel tempo T: N

  k N k

[ ] ( ) ( ) ( )

 

P k b k ; N , T T 1 T

= λ = λ − λ

 

k

 

Proviamo a valutare N e , e per far questo consideriamo 1 g di radio-226. In 1 g di radio

T

λ

sono presenti 23

6 . 022 10

N × 21

A

N 2 . 665 10

= = = ×

A 226

Ra 10

atomi. Inoltre sappiamo che 1 g di radio-226 dà luogo (mediamente) a 3

.

7 10 decadimenti

×

al secondo, quindi vediamo che la frazione degli atomi presenti che decade (mediamente) nel

lasso di tempo di un secondo è pari a 10

3

.

7 10

× 11

1

.

388 10

= ×

21

2

.

665 10

× I-31

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

e questo è pari alla probabilità che un singolo atomo decada nel predetto lasso di tempo, cioè

(infatti, si deve avere ). Ci troviamo precisamente nelle condizioni ideali

np N T

T

λ µ = = ⋅ λ

per approssimare l’originale distribuzione binomiale con una distribuzione poissoniana, ed in

particolare: k

( )

N

  N T

⋅ λ

k N k N T

− − ⋅

λ

( ) ( ) ( )

 

b k ; N , T T 1 T e

λ = λ − λ →

 

k k

!

  10

ove il prodotto assume il valore visto di 3

.

7 10 decadimenti.

N T ×

⋅ λ

Esempio 1

Approssimare b(3; 100, 0.03) con la distribuzione di Poisson.

Esempio 2

Un'assicurazione ha 3840 assicurati contro il furto. Se la probabilità che un cliente chieda almeno un indennizzo

in un anno è di 1/1200, esprimere la probabilità che in un dato anno lo chiedano 0, 1, 2, 3, 4.... clienti.

Approssimare b(3; 100, 0.03) con la distribuzione di Poisson.

Esempio 3

In una certa città il 6% dei guidatori prende almeno una multa al mese. Si usi la distribuzione di Poisson per

calcolare la probabilità che:

a) 4 guidatori prendano almeno una multa in un dato anno almeno;

b) 3 guidatori prendano almeno una multa in un dato anno;

c) da 3 a 6 guidatori prendano almeno una multa in un dato anno.

Esempio 4

Si è trovato che la probabilità che un'auto buchi una gomma mentre transita in una certa galleria è 0.00004. Si

calcoli la probabilità che almeno 2 di 10000 auto buchino una gomma mentre transitano nella galleria.

Esempio 5

Lo 0.8% delle spolette consegnate ad un arsenale sono difettose. Si calcoli la probabilità che ve ne siano 4

difettose su un campione casuale di 400.

Esempio 6

Si è trovato che la probabilità che un'auto buchi una gomma mentre transita in una certa galleria è 0.00004. Si

calcoli la probabilità che almeno 2 su 10000 auto buchino una gomma mentre transitano nella galleria.

Esempio 7

Se il 5% dei libri che escono da una legatoria hanno rilegatura difettosa, trovare la probabilità che 2 di 100 tali

libri abbiano rilegatura difettosa usando:

a) la distribuzione Binomiale;

b) la distribuzione di Poisson. I-32

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

I.13 Le variabili aleatorie continue

Veniamo alle v.a. continue, che presentano molte somiglianze ma anche alcune peculiarità

rispetto alle v.a. discrete che abbiamo considerato finora.

Una variabile aleatoria continua, ripetiamolo, assume valori lungo un segmento dell’asse reale

(eventualmente anche tutto l’asse). È subito evidente che non possiamo associare eventi a

valori della v.a. con la facilità avuta nel caso delle v.a. discrete. Proviamo a fare un esempio

pratico. Diciamo che mettiamo fuori un secchio (di capacità Z litri) sotto la pioggia e dopo

un’ora lo ritiriamo e misuriamo quanta acqua ha raccolto. Qui faremo l’ipotesi assai astratta di

poter misurare l’acqua contenuta nel secchio con esattezza, con un numero illimitato di cifre

decimali (anche se nella realtà nessuno strumento ha una precisione infinita). Se ripetiamo

questa prova ogni volta che piove, troveremo tanti valori diversi, sicuramente sempre

compresi in un intervallo che va da zero (secchio vuoto, non piove) alla capacità Z del secchio

(secchio pieno). Se pure non è facile trovare una relazione chiara, semplice ed esatta come nel

caso dei dadi, possiamo con un po’ di sforzo di immaginazione pensare a tutte le possibili

intensità di pioggia come eventi casuali, e quindi ai litri di acqua raccolta come a una variabile

aleatoria, che però in questo caso è continua: infatti può assumere qualunque valore

nell’intervallo reale [0,Z].

Veniamo alla differenza sostanziale colle v.a. discrete: in quel caso ripetendo un esperimento

a sufficienza, possiamo trovare ripetuto un certo risultato (ad esempio il risultato “12” per una

coppia di dadi) un qualunque numero di volte; nel caso delle v.a. continue, invece, non si

possono in linea di principio ritrovare due risultati identici in tutte le infinite cifre decimali:

due risultati possono essere vicinissimi, ma mai identici. Questo ha una conseguenza

importante ma per capirla bene dobbiamo fare una digressione e parlare della

Interpretazione della probabilità come limite della frequenza

Chi adotta questo punto di vista ragiona in questo modo: se io lancio una moneta bilanciata

100 volte, potrò non ottenere esattamente 50 teste e 50 croci, magari saranno, che so, 53 e

47, vale a dire il 53 ed il 47 %; se la lancio 1000 volte non saranno proprio 500 e 500 ma

forse, diciamo, 507 e 493, cioà il 50,7 ed il 49,3 % rispettivamente. Verosimilmente se la

lancio 10000 volte, avrò un risultato come 5031 e 4969, pari al 50,31 e 49,69 % - insomma,

man mano che cresce il numero di lanci la proporzione, che in questo contesto viene

chiamata , si avvicina sempre più al 50%, sia per le teste che per le croci.

FREQUENZA RELATIVA

Nel limite di infiniti lanci la tende ad un valore asintotico – e questa è la

FREQUENZA RELATIVA

Fine dell’inciso

PROBABILITÀ

. I-33

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

Ora se guardiamo da questo punto di vista il problema posto poco sopra, qual è la probabilità

di ottenere un preciso valore della nostra v.a.? bene, sappiamo già che un valore (un valore

esatto, ricordiamolo) che si presenta una volta non si ripresenta più, per quante n ripetizioni

n è

facciamo del nostro esperimento, quindi la frequenza relativa è 1/n, il cui limite per → ∞

chiaramente zero. Quindi prima GRANDE differenza con la v.a. discrete: la probabilità di

.

è sempre nulla

ottenere un preciso valore [ ]

Consideriamo invece un intervallo, diciamo x , x : qui il discorso è diverso, molte misure

1 2

possono cadere in un intervallo, non si tratta più di dovere far coincidere infinite cifre

decimali per avere due numeri identici, ma basta farne coincidere alcune, le prime, per avere

due numeri sufficientemente vicini. Prendiamo ad esempio l’intervallo tra 1,1 litri e 1,2 litri:

tutte le misure che iniziano con 1,1 entrano in questo intervallo indipendentemente dalle cifre

decimali successive: 1,12; 1,1004; 1,12345678900000000000000000; e via dicendo. Si

capisce che al crescere del numero di ripetizioni n dell’esperimento anche il numero di casi in

cui si riscontra un valore rientrante in questo intervallo cresce! Quindi definendo la

probabilità come limite della frequenza relativa otteniamo un numero che può benissimo

essere diverso da zero.

Stando così le cose, cioè potendo associare una probabilità ad un intervallo di valori ma mai

ad un preciso valore specifico, non ha senso chiaramente definire una distribuzione di

probabilità analoga a quella vista per le v.a. discrete: si avrebbe infatti

( )

P x 0

=

X

identicamente per qualunque valore di x, e dunque non servirebbe assolutamente a nulla. Si

potrebbe dare una tabella che ad ogni intervallo associa un valore di probabilità? Molto

indaginoso, diciamo pure impossibile visto che i possibili intervalli sono infiniti. Si preferisce

( )

procedere così: si definisce una funzione f x che dà la probabilità di trovare un risultato in

X

un intervallo infinitesimo, cioè tale che: [ ]

( ) ( )

f x dx P X x , x dx

= ∈ +

X

( )

f x dx

ma attenzione, è che ha le dimensioni di una probabilità (cioè un

X 1

( ) ( )

f x X f x

numero puro) e non , che ha invece le dimensioni di :

X X

DENSITÀ DI PROBABILITÀ

NON è una distribuzione di probabilità bensì una ,

una probabilità per unità di X. I-34

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

Nota la densità di probabilità, è facilissimo trovare la probabilità su un dato intervallo finito o

infinito sommando su tutti gli intervalli infinitesimi dx che lo compongono, vale a dire

integrando su dx: x 2

[ ] ∫

( ) ( )

P X x , x f x dx

∈ =

1 2 X

x

1

È facile definire anche la funzione di ripartizione (spesso detta anche probabilità cumulativa),

infatti: x

[ ] ∫

( ) ( )

F x P X x f x ' dx '

= ≤ =

X X

− ∞

cioè, la funzione di ripartizione non è che una primitiva della densità di probabilità, ovvero

(cosa che torna spesso comoda per il calcolo) la densità di probabilità altro non è che la

derivata della funzione di ripartizione. ( )

Analogamente possiamo definire il valore atteso di g x : calcoliamo il contributo di ogni

( )

intervallo infinitesimo (e in cui quindi g x è costante) e sommiamo su tutti gli intervalli, cioè

ancora una volta integriamo: +∞

[ ] ∫

( ) ( ) ( )

E g x g x f x dx

= X

− ∞ ( )

f x dx ed alla

In pratica, alla distribuzione di probabilità sostituiamo il prodotto X

sommatoria sostituiamo l’integrale.

Anche in questo contesto possiamo definire una densità di probabilità congiunta di due

( )

variabili: , e anche qui possiamo calcolare la densità di probabilità marginale,

f x , y

X , Y

semplicemente integrando rispetto alla variabile che non interessa. Con le opportune

modifiche (integrali invece di sommatorie), valgono tutte le relazioni trovate in precedenza.

[ ]

Vediamo ora la più semplice densità di probabilità, la probabilità uniforme su a , b :

1

 [ ]

x a , b

 b a

( )

f x = 

X [ ]

 0 x a , b

che vuol dire: la v.a. ha identica probabilità di finire in un qualsiasi intervallino dx compreso

[ ] [ ]

a , b ; viceversa non può assumere valori al di fuori di a , b .

in I-35

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

Affrontiamo la più importante di tutte le densità di probabilità: la Gaussiana.

I.14 La densità di probabilità Gaussiana

Questa densità si presenta in innumerevoli situazioni, ed è importantissimo conoscerla bene.

Tra le altre cose, vedremo che un importante teorema (il ) le

teorema del limite centrale

attribuisce un valore particolare ed unico tra tutte le densità.

Essa è definita su tutto e la sua forma matematica è la seguente:

ℜ, 2

 

( )

1 x − µ

( ) ( )

f x G x ; , exp  

= µ σ = −

X 2

2 2

 

σ π σ

 

Essa dipende da due parametri, e il cui significato vedremo tra breve. Vediamo

µ σ, 2

l’andamento di questa funzione per alcuni valori di e di :

σ

µ

I.14.1 Una proprietà molto utile

Sappiamo già che per calcolare una probabilità occorrerà integrare una densità su un

intervallo. Domandiamoci qual è la probabilità che una v.a. gaussiana avente parametri e

µ

[ ]

assuma valori nell’intervallo a , b :

σ b

[ ] ∫

{ } ( )

P x a , b G x ; , dx

∈ = µ σ

X a I-36

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

Proviamo a svolgere l’integrale, ricordando il metodo “per sostituzione”. Troviamo

x − µ

successivamente, definendo una nuova variabile :

z = σ 2

z

z

b b

2 2

   

( ) ( ) b 2

1 x 1 x x e

 

− µ − µ − µ

∫ ∫ ∫

exp dx exp d dz

   

− = − =

 

2 2  

2 2 2

σ

2 2

   

σ π π π

σ σ

   

a a z a

a b

− µ − µ

con e .

z z

= =

a b

σ σ

La funzione rimasta sotto l’integrale si vede coincidere con una gaussiana avente parametri

e : questa è detta gaussiana normalizzata, o normale, solitamente indicata con

0 1

µ = σ =

( )

N x (non occorre specificare i parametri perché sono appunto sempre e ):

0 1

µ = σ =

2

x

1 −

( ) 2

N x e

= 2 π [ ]

( )

Il vantaggio è che un integrale di qualunque gaussiana G x ; su un intervallo a , b può

µ, σ [ ]

essere calcolato come integrale della gaussiana normale sull’intervallo z , z

a b

corrispondente. In pratica questo corrisponde a sostituire ad un’area sotto la gaussiana data,

compresa tra le ascisse a e b, una corrispondente area (di identico valore numerico) sotto la

gaussiana normalizzata compresa tra le ascisse z e z .

a b

Questa proprietà può essere messa a frutto nel seguente modo. Riprendiamo l’integrale:

z z z

b b a

∫ ∫ ∫

( ) ( ) ( ) ( ) ( )

N z dz N z dz N z dz z z

= − = Φ − Φ

b a

z − ∞ − ∞

a

z

( ) ( )

La funzione z N x dx si trova tabulata, e dunque basta leggerne il valore per z e per

Φ = b

− ∞

z e fare la differenza. La strategia è quindi la seguente:

a

1. a partire dagli estremi di integrazione a e b (finiti o infiniti che siano) si calcolano gli

estremi “normalizzati” z e z

a b ( )

2. si leggono i valori della funzione z in corrispondenza di z e z

Φ a b

3. si fa la differenza

Un esempio di tabella è dato alla fine di questi appunti. Si noterà che questa fornisce il valore

( )

di z solo per valori positivi di z. Se servono valori negativi come ci si regola?

Φ I-37

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

Manipoliamo ancora un po’ l’integrale, ammettendo per esemplificare che z si negativo e z

a b

positivo: z

z z z

0 a

b b b ( )

∫ ∫ ∫ ∫ ∫

( ) ( ) ( ) ( ) ( ) ( )

N z dz N z dz N z dz N z dz N z dz z 0 . 5 z 0 . 5

= + = + = Φ − + Φ −

b a

z 0 z 0 0

a a

In definitiva si tratta di sostituire l’area compresa tra z (cioè, z ) e 0, l’area tra 0 e

a a

( )

z , chiaramente identica in virtù della simmetria della N z rispetto al cambio di segno.

+ a a 0 vale, appunto, 0.5, e quindi:

I termini 0.5 derivano dal fatto che l’integrale da − ∞

z z 0

∫ ∫ ∫

( ) ( ) ( ) ( )

N z dz N z dz N z dz z 0

.

5

= − = Φ −

0 − ∞ − ∞

In definitiva in questo caso troviamo

z b ( )

∫ ( ) ( )

N z dz z z 1

.

0

= Φ + Φ −

b a

z

− a

Svolgendo ragionamenti analoghi, che lasciamo a chi legge, si può esaminare il caso in cui

ambedue gli estremi siano negativi, giungendo quindi all’espressione

z z

z − b a

b ( ) ( )

∫ ∫ ∫

( ) ( ) ( )

N z dz N z dz N z dz z z

= = = Φ − Φ

a b

z z z

a a b

Esempio 1

La dose di radiazione cosmica ricevuta da un viaggiatore in volo da New York a Los Angeles è una variabile

43 . 5 Sv 5

. 9 Sv

µ = µ σ = µ

aleatoria con una distribuzione di densità normale con media e d.s. . Si calcoli la

probabilità che la dose ricevuta da un viaggiatore sia

Sv

µ

a) tra 40 e 50 ;

Sv

µ

b) almeno 55 .

Esempio 2

La quantità di prodotto che una inscatolatrice mette in un barattolo da 4 etti può essere considerata una variabile

aleatoria con . Volendo che non più del 2% dei barattoli contenga meno dei nominali 4 etti di prodotto,

4 .

0 g

σ =

a) per quale valore medio di riempimento bisogna regolare la macchina?

b) Ripetere per .

2

. 5 g

σ =

Esempio 3

Una variabile aleatoria ha una distribuzione normale con . Quale ne è la deviazione standard se ha una

62 .

4

µ =

probabilità di 0.20 di assumere un valore maggiore di 79.2? I-38

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

Esempio 4

Certe sbarre di plastica estrusa vengono tagliate automaticamente in lunghezze di 60 cm. In realtà questa è solo

la media poiché le lunghezze ricavate sono distribuite intorno a questo valore con una deviazione standard di 6

mm.

a) che frazione delle sbarrette eccede la tolleranza specificata 59.0 - 61.0 cm?

b) a che valore occorre ridurre la deviazione standard perché il 99% rientri nella tolleranza?

Esempio 5

Le misure del peso specifico di un certo metallo possono essere considerate come una campionatura da una

popolazione normale con d.s. 0.04. Qual è la probabilità che la media di un campione casuale di 25 misure sia

entro 0.02 dal valore “vero” µ?

Esempio 6

La distribuzione dei pesi dei viaggiatori (comprensivi di abiti e bagaglio a mano) sulla linea aerea Bologna-

e d.s. . Qual è la probabilità che il peso complessivo di 36

Palermo sia normale con media 80 kg 9 kg

µ = σ =

passeggeri sia maggiore di ?

3000 kg

I.14.1 Un’altra utile proprietà

Consideriamo la distribuzione binomiale con probabilità p e numero di ripetizioni n:

n

! k n k

( ) ; pqn

b k ; n , p p q np σ =

= µ =

( )

n k ! k

!

Ricordiamo la formula di Stirling per l’approssimazione del fattoriale di n (valida per n

grande): n n

n

! 2 n e n

≅ π

e applichiamola alla precedente espressione n n k n k

− −

2 n e n p q

π

( )

b k ; n , p ≅ ( )

( ) n k

k k n k −

− − −

( ) ( )

2 k e k 2 n k e n k

π π − −

Semplificando le esponenziali e raccogliendo le potenze omologhe otteniamo

( )

k n k

− − −

   

1 n k n k

( )    

b k ; n , p ≅    

( )

k n k np nq

2 −    

π

Introduciamo la variabile ridotta k np

z = pqn

ed esprimiamo quindi le quantità nella precedente formula in funzione di z:

k np z pqn ; n k nq z pqn

= + − = − I-39

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

k q n k p

;

1 z 1 z

= + = −

np np nq nq

Passando ai logaritmi troviamo così:

     

( )

k n k q p

− ( ) ( )

     

( )

ln b k ; n , p 2 np z npq ln 1 z nq z npq ln 1 z

π ≅ − + + − − −

   

 

n np nq

   

 

Fin qui l’unica approssimazione fatta è stato utilizzare la formula di Stirling, quindi

( )

implicitamente considerare n, k ed n k grandi. Limitiamoci ora alla situazione

[ ]

k np min np

, nq per cui

− << q p

z , z 1

<<

np nq

In tal caso possiamo utilizzare una nota approssimazione per i logaritmi per , a partire

x 1

<<

dallo sviluppo n serie di McLaurin: 1 [ ]

2 3

( ) x O x

ln 1 x x

± = ± − +

2

Applichiamola quindi al nostro caso, e otteniamo:

 

( )

k n k

 

( )

ln b k ; n , p 2 π ≅

 

n

 

   

q q p p

[ ] [ ]

( ) ( )

2 3 2 3

   

np z npq z z O z nq z npq z z O z

≅ − + − + − − − − +

   

np np nq nq

   

Svolgendo i prodotti e combinando i termini omologhi si ottiene (lasciamo al lettore il

compito di derivarlo):  

( )

k n k 1 [ ]

− 2 3

 

( )

ln b k ; n , p 2 z O z

π ≅ − +

 

n 2

 

e qui trascureremo il secondo termine in quanto di ordine superiore. Valutiamo anche la

radice quadrata:  

 

( )

k n k k n k q p

− −  

 

npq npq 1 z 1 z

= = + −

 

 

n np nq np nq

 

 

e ricordando che i termini con z sono <<1, vediamo che la seconda radice vale all’incirca 1.

In definitiva troviamo quindi, esponenziando il logaritmo e ricordando il valore di z I-40

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

2

 

( )

1 1 k np

( )

b k ; n , p exp  

≅ − 2 npq

2 npq  

π  

che è naturalmente la gaussiana avente media e d.s. pqn , vale a dire le stesse

np σ =

µ =

della distribuzione binomiale di partenza.

Esempio 1

La probabilità che un certo tipo di componente elettronico si guasti in meno di 1000 ore di funzionamento

continuativo è del 25%. Si calcoli la probabilità che in un campione casuale di 200 pezzi, meno di 45 si guastino

in meno di 1000 ore di funzionamento continuativo.

Esempio 2

Il 20% dei diodi fabbricati da una ditta presenta dei difetti. Si calcoli la probabilità che in un campione casuale

di 100 diodi

a) al massimo 15 siano difettosi;

b) 15 siano difettosi.

I.15 La disuguaglianza di Chebishev

Si abbia una qualunque variabile aleatoria X, con la sola condizione che esista finito il valore

atteso del suo quadrato, cioè la quantità

( ) ∑

2 2 ( )

E X x P x

= X

x

se la v.a. è discreta, ovvero +∞

( )

2 2

∫ ( )

E X x f x dx

= X

− ∞ +

se la v.a. è continua. Dato un qualunque valore introduciamo una nuova v.a. Y così

α ∈ ℜ

definita  0 X

 ≤ α

Y =  2 X



α > α 2

Y X , e quindi analoga relazione varrà

Con questa definizione si ha chiaramente sempre ≤

tra i valori attesi, cioè certamente ( )

2

( )

E Y E X

≤ I-41

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

Calcoliamo facilmente il valore atteso di Y, infatti questa v.a. assume solo 2 valori, con

probabilità legate alla distribuzione/densità di X:

[ ] [ ] [ ]

2 2

( )

E Y 0 P X P X P X

= × ≤ α + α × > α = α × > α

Mettendo insieme le ultime due relazioni troviamo:

( ) [ ]

2 2

E X P X

≥ α × > α

ovvero, girando un po’ l’equazione ( )

2

E X

[ ]

P X > α ≤ 2

α

e questo risultato è appunto la disuguaglianza di Chebishev.

Giochiamo un po’ con questa disuguaglianza. Per una v.a. X per cui esista finito il valore

atteso del quadrato, avrà valore finito anche il valore atteso di X stessa, cioè la sua media

( )

E X

µ =

è a sua volta una v.a., e dunque anche per essa vale la disuguaglianza

La quantità Z X

= − µ

di Chebishev. Scriviamola: ( )

( ) 2

2 [ ] ( )

E Z E X V X

− µ

[ ] [ ]

P Z P X

> α ≤ − µ > α ≤ =

2 2 2

α α α

cioè, detto in parole: la probabilità che il valore di X si discosti dalla propria media di più

µ

2

è pari alla varianza di X divisa per . Da notare che questo vale per qualunque v.a.,

di α α

comunque distribuita, alla sola condizione che esista finita la varianza (ad esempio, la

distribuzione di Cauchy non ha varianza, o meglio, questa è infinita). Possiamo vedere ancora

2

un aspetto divertente, se utilizziamo il quadrato della d.s. (quadrato che è come sappiamo

σ

la stessa cosa della varianza). Allora possiamo definire la v.a. W nel seguente modo:

X − µ

W = σ

Applicando la disuguaglianza: 2

 

X

 

− µ

 

E  

( )  

 

2 σ

 

E W X 1

 

− µ

[ ] ⇒

P W P

> α ≤ > α ≤ =

 

2 2 2

σ

 

α α α I-42

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

poiché infatti: 2

  ( )

X 1 V X

( )

 

− µ

  2

[ ]

E E X 1

= − µ = ≡

 

  2 2

 

σ σ σ

  X − µ

Esprimiamo anche questo in parole: la probabilità che la variabile ridotta assuma

σ

1

[ ]

valori esterni all’intervallo , è inferiore a . Nota che la variabile ridotta in

− α α 2

α

questione è la distanza dalla media espressa in unità di d.s.

I.16 Legge dei grandi numeri 2

Si abbiano n v.a. iid. X (k=1,2,…,n), aventi ognuna media e varianza . Formiamo una

σ

µ

k

nuova v.a. Y così definita: k n

=

1 ∑

Y X

= k

n k 1

=

Calcoliamo media e varianza di tale v.a.: ricordando le regole viste al § I.10 troviamo subito

k n k n k n

 

= = =

1 1 1

∑ ∑ ∑

 

( ) ( )

E Y E X E X

= = = µ = µ

 

k k

n n n

 

k 1 k 1 k 1

= = = 2

k n k n k n k n

   

= = = =

1 1 1 1 σ

∑ ∑ ∑ ∑ 2

   

( ) ( )

V Y V X V X V X

= = = = σ =

   

k k k

2 2 2

n n

n n n

   

k 1 k 1 k 1 k 1

= = = =

Applichiamo la disuguaglianza di Chebishev: 2

( )

V Y σ

[ ]

P Y − µ > α ≤ =

2 2

n

α α

Questo qualunque sia la distribuzione delle X (purché ammetta varianza finita) e qualunque

k

sia il numero Come al solito potremmo anche considerare la v.a.

α.  

k n

 

=

1 1 ∑

 

W X

 

= − µ

 

k

n

σ  

 

 

k 1

=

e col solito procedimento trovare  

Y − µ 1

P > α ≤

  2

σ n α

  I-43

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

In ambo i casi, troviamo che il secondo membro diminuisce al crescere di n (tende a zero per

n ). Ovvero: per qualunque numero per quanto piccolo, la probabilità che la variabile

→ ∞ α,

Y si discosti dal suo valor medio tende a zero all’aumentare di n.

µ

Possiamo dare a questa affermazione una veste più tecnica.

X ,..., X µ

Legge (debole) dei grandi numeri: Siano v.a iid., aventi ognuna media e

1 n

2

σ

varianza . Sia Y la v.a.così definita k n

=

1 ∑

Y X

= k

n k 1

=

+

, N : n N

∀ α δ ∈ ℜ ∃ ∀ >

Siano , piccoli a piacere. si ha

[ ]

P Y − µ > δ ≤ ε

2

σ

Dim.: basta porre N e utilizzare la relazione trovata prima.

= 2

εδ

Nota che la stessa relazione si può scrivere anche come

[ ]

P Y 1

− µ ≤ δ ≥ − ε

Applichiamola ad un caso pratico. Le famose v.a. iid. X ,..., X siano così definite: X

1 n k

. Possiamo

assume il valore 1 ovvero 0 con probabilità, rispettivamente, p ovvero q 1 p

= −

pensarle come collegate ad un esperimento ripetuto n volte, ogni volta con due esiti possibili:

successo o insuccesso, quindi la k-esima v.a. assume i valori 1 e 0 rispettivamente a seconda

che il k-esimo esperimento abbia dato luogo ad un successo oppure no. In tal caso la somma

∑ X coincide con il numero di successi in n tentativi, chiamiamolo n . Pertanto, la

k S

variabile aleatoria Y è il rapporto tra il numero di successi ed il numero di tentativi, cioè la

dei successi.

frequenza relativa k n

= n

1 ∑ S

Y X

= =

k

n n

k 1

=

Calcoliamo il valore atteso e la varianza della generica X :

k

2 2

( ) ( ) ( ) ( )

( )

E X 1 p 0 q p V X 1 p p 0 p q pq p q pq

= × + × = = − × + − × = + =

k k

Da qui, applicando le regole ormai note, troviamo:

 

n pq

S

P p 0

− > α ≤ 

  2 n

n →

n

  α I-44

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

n S

Come dire: , la frequenza relativa tende a coincidere con la probabilità al

p

n

n → ∞

crescere di n. Per esempio, il numero di croci nel lancio di una moneta si avvicina sempre più

alla metà esatta dei lanci man mano che il numero di questi ultimi cresce. Ecco, a posteriori,

la giustificazione della definizione di probabilità come limite per n della frequenza

→ ∞

relativa, che abbiamo visto al § I.13

I.17 Il teorema del limite centrale

Premettiamo che “estrarre un campione di taglia n” vuol dire pescare a caso n elementi, cioè

nel caso che esamineremo ora in maniera casuale

generare n valori della variabile aleatoria

. Ciò detto:

in esame

si abbia una distribuzione ovvero densità (non è necessario che sia gaussiana),

qualunque

2

avente media e varianza . Da questa si estrae un campione di taglia n, dopodiché si

µ σ

calcola la media aritmetica di tale campione: n

1 ∑

x x

= i

n i 1

=

Ripetiamo l’esperimento: estraiamo un nuovo campione di taglia n e calcoliamone la media

aritmetica: in generale questa sarà differente da quella del primo campione (solo

occasionalmente potranno capitare due valori uguali). Ripetiamo il processo un gran numero

di volte: il valore di x assumerà tanti possibili valori, x stesso è infatti una variabile aleatoria

(in quanto somma di variabili aleatorie). Domandiamoci: che distribuzione avrà tale variabile

aleatoria? Il teorema del limite centrale afferma che:

la media aritmetica di un campione di taglia n proveniente da una popolazione

2

avente media e varianza dà origine ad una popolazione che, al crescere di n,

µ σ 2

σ

tende ad una gaussiana avente media e varianza

µ n

In parole povere: è gaussiana (almeno per n abbastanza grande), la sua media è uguale a

quella della popolazione da cui si è campionato, la sua varianza è n volte più piccola della

varianza della popolazione da cui si è campionato.

Non affronteremo la dimostrazione di questo teorema, tuttavia possiamo facilmente provare

quanto afferma a proposito della varianza. Infatti, sappiamo che la varianza della somma di

v.a. indipendenti è pari alla somma delle singole varianze, e inoltre ogni costante

moltiplicativa si può portare fuori dalla varianza elevandola al quadrato, quindi, poiché si

I-45

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

tratta di una somma di v.a. i.i.d. (indipendenti ed identicamente distribuite) che hanno

ovviamente tutte la stessa varianza:

n n n n

    ( )

1 1 1 1 1 V x

( )

∑ ∑ ∑ ∑

   

( ) ( ) ( )

V x V x V x V x V x n V x

= = = = = =

   

i i i

2 2 2 2

n n

n n n n

  

i 1 i 1 i 1 i 1

= = = = I-46

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

2

I.15 La densità di probabilità del (Chi-quadro)

χ

Abbiamo visto la densità di probabilità gaussiana, consideriamo ora una v.a. X distribuita

secondo una gaussiana standard, vale a dire con media nulla e d.s. unitaria.

2

Se definiamo una nuova v.a. Y X , come sarà distribuita? Bene, essa seguirà una densità di

= 2

probabilità nota come chi quadrato a 1 grado di libertà, in simboli . Questa densità ha

χ [

1

]

un’espressione analitica, che non riporteremo perché esula dai nostri scopi. Prendiamo ora n

v.a. i.i.d., tutte aventi densità gaussiana standard, chiamiamole X , X , ... , X , e formiamo la

1 2 n

n

∑ 2k

Z X . Come sarà distribuita? Essa avrà una densità di probabilità detta chi

nuova v.a. = k 1

= 2

quadrato a n gradi di libertà, in simboli . Anche di questa non diamo qui l’espressione

χ [ n ]

analitica. Vediamo però un grafico dell’andamento di tale densità per diversi valori di n.

2

Come tutte le densità, l’integrale di su tutto il dominio di definizione è pari a 1. Anche in

χ [ n ]

questo caso possiamo cercare il valore della z per cui l’integrale da z a risulti pari ad un

valore specificato ad esempio 0.05 o 0.01, cioè quel valore di z tale che la probabilità di

α:

trovare un valore maggiore di questo sia pari ad (ad esempio 5% o 1%).

α I-47

Prof. Ing. Domiziano Mostacci – Appunti di probabilità e statistica di conteggio

Tali valori vengono chiamati . Vediamo una tabella con vari valori critici:

VALORI CRITICI

Immaginiamo ora il seguente esperimento: si gettano 2 dadi e si registra il risultato, che sarà

un numero intero compreso tra 2 e 12, poi si gettano nuovamente e così via, finché si sono

fatti un certo numero di lanci, ad esempio 180. A questo punto contiamo quante volte è uscito

il 2, quante il 3 e via dicendo. Naturalmente, sappiamo qual è la probabilità per ognuno dei

risultati possibili, che possiamo riepilogare in una tabellina:

k 2 3 4 5 6 7 8 9 10 11 12

P(k) 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 I-48


PAGINE

59

PESO

1.11 MB

AUTORE

Atreyu

PUBBLICATO

+1 anno fa


DESCRIZIONE DISPENSA

Materiale didattico per il corso di Protezione dalle radiazioni del Prof. Domiziano Mostacci, all'interno del quale sono affrontati i seguenti argomenti: calcolo delle probabilità; richiami di calcolo combinatorio; legge di addizione delle probabilità; distribuzioni multivariate; distribuzione binomiale; distribuzione di Poisson; densità di probabilità Gaussiana; disuguaglianza di Chebishev; teorema del limite centrale.


DETTAGLI
Corso di laurea: Corso di laurea in ingegneria energetica
SSD:
Università: Bologna - Unibo
A.A.: 2009-2010

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Atreyu di informazioni apprese con la frequenza delle lezioni di Protezione dalla radiazioni e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Bologna - Unibo o del prof Mostacci Domiziano.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Protezione dalla radiazioni

Radioprotezione - Elementi
Dispensa
Radioattività
Dispensa
Radiazioni - Dosimetria
Dispensa
Raggi X - Schermaggio
Dispensa