Che materia stai cercando?

Matematica - Introduzione alla Probabilità Appunti scolastici Premium

Appunti di Matematica sulla probabilità. Nello specifico gli argomenti trattati sono: probabilita` discrete, che cos'e`la probabilita`? Operazioni sugli insiemi, la definizione di probabilita`, alcuni problemi d’urna, variabili aleatorie assolutamente continue, l'estensione al caso continuo.

Esame di Matematica docente Prof. E. De Giorgi

Anteprima

ESTRATTO DOCUMENTO

CAPITOLO 1. PROBABILITÀ DISCRETE 15

Si dice che una famiglia finita o numerabile, di eventi è un sistema di costituenti se sono

{A },

n

verificate le due condizioni:

(a) per ogni indice

P (A ) > 0 n;

n

è una partizione misurabile di vale a dire che per ogni indice che

(b) ∈ F ∪

Ω, A n, Ω = A

A n n n

n

e che gli insiemi sono a due a due disgiunti (A se

∩ ∅ 6

A A = i = j).

n i j

Lemma 1.5.3. Se è un sistema di costituenti, vale il teorema delle probabilit à totali:

{A }

n X (1.5.3)

P (B|A ) P (A ).

P (B) = n n

n

Dim. che è un’unione disgiunta; di qui l’asserto.

∩ ∩ ∪ ∩

B = B Ω = B (∪ A ) = (B A ),

n n n n

Teorema 1.5.1. (di B ). Nelle ipotesi del lemma 1.5.3, se vale

P (B) > 0,

AYES P (B|A ) P (A )

i i (1.5.4)

P

|B) .

P (A =

i P (B|A ) P (A )

n n

n

Dim. Segue dalla (1.5.1) che ∩

P (A B) P (B|A )P (A )

i i i

|B)

P (A = =

i P (B) P (B)

e perciò, mediante la (1.5.3), si ha l’asserto.

Il teorema di B è solitamente usato per calcolare la probabilità delle cause; se è noto che piú

AYES

cause, , possono provocare lo stesso effetto e se sono note tanto le probabilit à

A , A , . . . , A , . . . B

1 2 n

delle cause (probabilità che sono dette a priori) quanto le probabilità condizionate

P (A ) P (B|A )

n n

(che sono dette probative) la (1.5.4) consente di calcolare la probabilit à delle cause avendo osservato

l’effetto B.

Il concetto di indipendenza è fondamentale nel Calcolo delle Probabilità. Siano e eventi

A B

e sia sicché restano definite entrambe le probabilità condizionate

P (B) ]0, 1[, α := P (A|B)

e Se l’evento ha maggior probabilità di manifestarsi se si realizza

c

β := P (A|B ). α > β A B

piuttosto che il suo complementare ; il realizzarsi di “favorisce” il realizzarsi di Il contrario

c

B B A.

accade se Se si presume che il realizzarsi di non dipenda da quello di occorre richiedere

α < β. A B,

che sia In tal caso si ha:

α = β. c c c

P (A) = P (A|B) P (B) + P (A|B ) P (B ) = αP (B) + βP (B ) = α

cioè onde Quanto precede giustifica la seguente

P (A) = P (A|B), P (A B) = P (A)P (B).

Definizione 1.5.2. Due eventi e si dicono (stocasticamente) indipendenti rispetto alla probabi-

A B

lità se verificano

P (1.5.5)

P (A B) = P (A) P (B).

La nozione di indipendenza è legata alla particolare probabilità . Due eventi indipendenti

P

rispetto ad una probabilità possono non esserlo piú se si cambia la probabilità.

Due eventi disgiunti sono indipendenti se, e solo se, almeno uno di essi è trascurabile.

A∩B =

CAPITOLO 1. PROBABILITÀ DISCRETE 16

Definizione 1.5.3. Sia una probabilità definita in tribú di sottoinsiemi di e siano

F,

P Ω,

F F F

, , . . . ,

1 2 n

tribú contenute in queste si dicono indipendenti se, per ogni scelta di eventi

F; ∈ F

n A (i =

i i

1, 2, . . . , n) n

Y

ni=1 (1.5.6)

P (∩ A ) = P (A ).

i i

i=1

Le ultime due definizioni sono legate dal seguente teorema

Teorema 1.5.2. Due eventi e sono indipendenti se, e solo se, tali sono le trib ú e

F(A) F(B)

A B

che essi generano.

Dim. Se e sono indipendenti, basta scegliere e nella (1.5.6) per

F(A) F(B) ∈ F(A) ∈ F(B)

A B

avere la (1.5.5). Viceversa, se e sono indipendenti, occorre stabilire la (1.5.6) per ogni possibile

A B

scelta di due insiemi uno dei quali appartenga a e l’altro a Basta, evidentemente,

F(A) F(B).

eseguire le verifiche per le coppie ora,

c c c ∅);

(A, B ), (A , B ), (A, Ω), (A,

∩ ·

P (A Ω) = P (A) = P (A) 1 = P (A) P (Ω);

∩ ∅) ·

P (A = P (∅) = 0 = P (A) 0 = P (A) P (∅) ;

c

∩ − ∩ −

P (A B ) = P (A) P (A B) = P (A) P (A)P (B)

c

= P (A) [1 P (B)] = P (A) P (B );

c c c

∩ ∪ − ∪

P (A B ) = P ((A B) ) = 1 P (A B)

− − ∩

= 1 P (A) P (B) + P (A B)

− −

= 1 P (A) P (B) + P (A) P (B)

c c

− −

= (1 P (A)) (1 P (B)) = P (A )P (B ),

che conclude la dimostrazione.

Definizione 1.5.4. Si dice che eventi sono indipendenti se sono tali le tribú

n A , A , . . . , A

1 2 n

che essi generano. Una successione si dice costituita da

F(A F(A F(A {A ∈

), ), . . . , ) : n N}

1 2 n n

eventi indipendenti se, per ogni scelta di in sono indipendenti gli eventi .

n N, A , A , . . . , A

1 2 n

Secondo la (1.5.6), per verificare che siano indipendenti occorre controllare che

A , A , . . . , A

1 2 n

risulti n

Y

n

P P (A

A ),

=

i i

i=1 i=1

ove, per ogni indice può essere uno degli insiemi (non vi è nulla da verificare se

ci

i, A A , A , Ω

i i

∅).

A =

i

Teorema 1.5.3. Dati eventi sono equivalenti le condizioni:

n A , A , . . . , A

1 2 n

(a) essi sono indipendenti;

(b) per ogni numero naturale e per ogni scelta di numeri in

≤ {1,

k n k i , i , . . . , i 2, . . . , n},

1 2 k

si ha k

Y

kj=1 (1.5.7)

P A ).

P (A

=

i i

j j

j=1

CAPITOLO 1. PROBABILITÀ DISCRETE 17

Dim. L’implicazione (a) (b) è ovvia perché basta prendere se (j

6

=⇒ A = Ω s = i = 1, 2, . . . , k)

s j

nella (1.5.6).

(b) (a) Si ha, ad esempio,

=⇒ !

n−1

Y

c cn

∩ ∩ · · · ∩ ∩

P (A A A A ) = P (A ) P (A )

1 2 n−1 i

n i=1

perché

n−1

cn n

∩ ∩ · · · ∩ ∩ ∩ \

A A A A = A (∩ A )

1 2 n−1 i i

i=1

i=1

sicché

n−1 n−1

c n

∩ ∩ ∩ −

P A A = P A P (∩ A )

i i i

n i=1

i=1 i=1

( )

n−1

Y cn

= P (A ) P (A ).

i

i=1

Le altre relazioni si dimostrano in maniera analoga.

Le verifiche da eseguire per controllare che eventi siano indipendenti sono

n A , A , . . . , A

1 2 n

si osservi che il numero di verifiche da eseguire cresce esponenzialmente con Si

n − −

2 n 1; n.

vedrà nella prossima sezione come, di solito, si eviti di eseguire tali verifiche e si cerchi, invece, di

costruire il modello in maniera che opportune classi di eventi risultino indipendenti.

Se si hanno tre eventi, occorre compiere verifiche; tre eventi possono essere a due a due

4

indipendenti senza che siano globalmente indipendenti.

Esempio 1.5.2. Sia con se e

{ω } }) {ω }, {ω }

Ω = , ω , ω , ω P ({ω = 1/4; A = , ω B = , ω

1 2 3 4 i 1 2 1 3

si ha e

{ω }, ∩ ∩ ∩

C = , ω P (A) = P (B) = P (C) = 1/2 P (A B) = P (A C) = P (B C) =

1 4 sicché gli eventi a due a due indipendenti, senza per ò essere indipendenti

})

P ({ω = 1/4, A, B, C

1

perché ∩ ∩ }) 6

P (A B C) = P ({ω = 1/4 = 1/8 = P (A) P (B) P (C).

1

1.6 Prove indipendenti

Siano insiemi finiti non vuoti; ciascuno di essi sia munito di una probabilit à

Ω , Ω , . . . , Ω P

1 2 n i

definita sulla famiglia delle parti Si può definire una probabilità sul

P

(i = 1, 2, . . . , n) (Ω ). P

i

prodotto cartesiano come segue. Si ponga

× × · · · ×

Ω Ω Ω

1 2 n n

Y }),

P (ω , ω , . . . , ω ) := P ({ω

1 2 n i i

i=1

ove . Sia, ora, la proiezione canonica su ,

∈ →

ω Ω π : Ω Ω Ω

i i i i i

π (ω , ω , . . . , ω ) := ω ,

i 1 2 n i −1

e sia la tribú dei sottoinsiemi di generata dagli insiemi Le tribú

F {π ∈ }.

Ω (ω ) : ω Ω

i i i i

i è in , si

sono indipendenti rispetto alla probabilità definita sopra. Infatti, se F

F F F

, , . . . , P A i

1 2 n i

può trovare un insieme tale che si possa scrivere come

B Ω A

i i i

× · · · × × × × · · · ×

A = Ω Ω B Ω Ω .

i 1 i−1 i i+1 n

Perciò, se sono scelti in , rispettivamente, si ha

F F F

A , A , . . . , A , , . . . ,

1 2 n 1 2 n

∩ ∩ · · · ∩ × × · · · ×

A A A = B B B .

1 2 n 1 2 n

CAPITOLO 1. PROBABILITÀ DISCRETE 18

Ora, scende dalla definizione di che

P

X P ({ω})

P (A ) =

j ω∈A j n

Y

X

X

X

X

X })

···

··· P ({ω

= i i

∈Ω

∈Ω

∈B

∈Ω

∈Ω i=1

ω

ω

ω

ω

ω n n

j+1 j+1

j j

j−1 j−1

1 1 

 X

Y X 

 })

}) P ({ω

P ({ω

= j j

i i ∈B

∈Ω ω

ω

i6 =

j j j

i i

X })

P ({ω = P (B ),

= j j j j

∈B

ω j j

sicché ni=1 × × · · · ×

P (∩ A ) = P (B B B )

i 1 2 n n

Y

X

X

X })

··· P ({ω

= j j

∈B

∈B

∈B j=1

ω

ω

ω n n

2 2

1 1 n

n n Y

Y X Y

}) P (A ).

P (B ) =

= P ({ω = j

j j

j j

∈B j=1

j=1 j=1

ω j j

La costruzione che precede si applica quando si vogliano descrivere i risultati di pi ú prove che si

ritengono indipendenti; naturalmente, si pu ò trattare della ripetizione della stessa prova, se le singole

è costituita dagli eventi che

prove sono indipendenti (in tal caso e ). La tribú F

Ω = Ω P = P

i 1 i 1 i

dipendono solo dalla prova. Cosı́, nell’estrazione con restituzione di due palline da un’urna,

i–esima

è l’evento si estrae una pallina bianca all’i–esima estrazione, dipendono

gli eventi e , ove

B B B

1 2 i

rispettivamente dalla prima e dalla seconda prova, sicché e ; invece l’evento nelle

∈ F ∈ F

B B

1 1 2 2

due prove si estrae esattamente una pallina bianca non appartiene n é a , né a .

F F

1 2

La costruzione che precede vale solo nel caso di spazı̂ di probabilità discreti.

1.7 Variabili aleatorie discrete

Lo spazio dei risultati non è, di per sé, sempre lo strumento ideale per trattare tutti i problemi di

Probabilità; uno strumento assai piú flessibile è costituito dalle variabili aleatorie. Per esempio, se si

lanciano due dadi, è piú semplice considerare la funzione somma del punteggio dei due dadi, anzich é

scrivere la tabella dei risultati possibili nel lancio dei due dadi; ci ò sarebbe facile in questo caso,

36

ma sarebbe già assai piú lungo e complicato se i dadi fossero icosaedri regolari ed avessero perci ò 20

facce ognuno. Ciò giustifica la seguente definizione che è data, per il momento, nel caso particolare

degli spazı̂ con un numero finito o numerabile di punti.

Definizione 1.7.1. Dato uno spazio misurabile si chiama variabile aleatoria discreta ogni

F),

(Ω,

funzione definita in che assuma un numero finito o un’infinità numerabile di valori e

{x }

X Ω n

tale che, per ogni valore , il sottoinsieme di nel quale assume il valore , {X }

x Ω X x = x =

n n n

sia misurabile, appartenga cioè alla tribú

−1 }) F.

X ({x n

Se poi è esso stesso finito o numerabile una variabile aleatoria discreta sar à una qualsiasi

funzione a valori in definita in Una variabile aleatoria è dunque, in realtà, una funzione.

R Ω.

Si scriverà quasi sempre v.a.. Le v.a. si indicano solitamente con le ultime lettere maiuscole dell

’alfabeto.

CAPITOLO 1. PROBABILITÀ DISCRETE 19

Dalle proprietà di una tribú si vede poi che sono misurabili, per ogni indice anche gli insiemi

n,

che sono tutti costituiti da unioni finite o numerabili di insiemi

{X ≤ }, {X }, {X 6 },

x > x = x

n n n

di F.

Se è assegnata una probabilità su un problema tipico della Probabilità (anzi il problema

P Ω,

tipico) è di rispondere alla domanda: Qual è la probabilità che una v.a. assuma valori nell’insieme

X

Si tratta quindi di calcolare la probabilità dell’insieme, contenuto in A questo

−1

A? Ω, X (A).

proposito occorre avvertire che si usa in maniera sistematica la notazione pi ú espressiva {X ∈ A}

invece di analogamente si scrive, per esempio, o in luogo di

−1 {a {X

X (A); < X < b} = x}

o di rispettivamente.

−1 −1

X (]a, b[) X ({x}),

Dato uno spazio di probabilità si parlerà di v.a. discreta, anche quando non sia finito

F,

(Ω, P ) Ω

o numerabile, se la funzione assume un numero finito o un’infinit à numerabile di valori

X : Ω R

distinti, purché, per ognuno di tali valori appartenga a l’insieme −1

F {X } }).

x = x = X ({x

n n n

Si può rappresentare una v.a. discreta nella forma

X X (1.7.1)

X = ,

x 1

i A i

i

è l’insieme di nel quale assume il valore .

ove gli sono i valori che essa assume e Ω X x

x A i

i i

Gli insiemi costituiscono una partizione (misurabile) di Spesso, nell’assegnare una v.a., si fa

A Ω.

i

riferimento ai valori che essa assume e alle probabilità con le quali li assume, tacendo lo spazio Ω

sul quale è definita.

I tre esempı̂ che seguono sono fondamentali.

Esempio 1.7.1. (V.a. di B ). Si consideri la v.a. che assume i valori e con probabilit à

1 0 p

ERNOULLI

e rispettivamente; è ovvio che descrive i risultati del lancio di una moneta,

− ∈

q := 1 p, p [0, 1]. X

ponendo e

X(T ) = 1 X(C) = 0.

Le v.a. bernoulliane si incontrano tutte le volte che si è interessati al realizzarsi di un evento E.

È in tal caso naturale considerare la partizione di data da e dal suo complementare ; quindi

c

Ω E E

con e La coppia si dice legge o distribuzione di

c −

X = 1 p = P (E) q = P (E ). (p, 1 p) = (p, q)

E

B di parametro p.

ERNOULLI

Esempio 1.7.2. (V.a. binomiale). Si considerino prove indipendenti, ciascuna delle quali abbia

n

due soli risultati possibili; questi sono denominati, per convenzione, successo e fallimento, oppure

e (il successo può essere il risultato testa nel lancio di una moneta, l’estrazione di una pallina

1 0

bianca da un’urna che ne contiene di diversi colori, l’uscita di un certo numero nel gioco della

roulette,. . . ). In generale, sia e e sia la v.a. che conta il numero

P (1) = p P (0) = q(= 1 p) S n

dei successi in prove. Nella stessa maniera dell’esempio 1.4.4, si mostra che

n

n j n−j

P (S = j) = b(j; n, p) := p q (j = 0, 1, . . . , n).

n j

Una v.a. binomiale è legata alle v.a. ove si riferisce al risultato della

X (i = 1, 2, . . . , n), X

i i

P n è una v.a. di

. Si noti che ciascuna delle v.a.

prova, mediante la relazione X X

i–esima S = i i

n i=1

B . Se una v.a. è binomiale con parametri e si scrive

∈ ∈ ∼

X n N p [0, 1], X Bi(n, p)

ERNOULLI

e si dice che ha legge o distribuzione binomiale.

X

Esempio 1.7.3. (V.a. di P ). Una v.a. di P è definita sopra un insieme numerabile

X

OISSON OISSON

e dipende da un parametro assume i valori con probabilit à

λ > 0; 0, 1, . . . , n, . . .

n

λ

−λ ∈

P (X = n) := e (n Z ).

+

n!

Se è una v.a. di P di parametro si scrive e si dice che ha legge o

∼ P(λ)

X λ, X X

OISSON

distribuzione di P .

OISSON

CAPITOLO 1. PROBABILITÀ DISCRETE 20

Definizione 1.7.2. Nello spazio di probabilità sia una v.a. discreta; se converge la

F,

(Ω, P ), X

serie X (1.7.2)

|x | P (X = x ),

n n

n

si dice speranza (matematica) o valor medio o media, o, ancora valore atteso, o anche previsione di

la somma

X, ! X

X

X x P (X = x ).

x P (A ) =

=

x 1

E(X) = E j j

i i

i A i j

i

i

Qualche volta si attribuisce significato alla speranza di una v.a. discreta, anche quando la serie

(1.7.2) non sia convergente, ma la v.a. sia positiva o negativa in tal caso, si ha

≥ ≤

X 0 X 0;

oppure −∞.

E(X) = +∞ E(X) =

Se è la funzione indicatrice di un insieme , essa è, ovviamente, una v.a. bernoul-

X A, X = 1 A

liana, poiché assume solo i valori e con probabilità date rispettivamente da e per

c

1 0, P (A) P (A );

la sua speranza si ha E (1 ) = P (A).

A

Se invece è costante, si ha

X X = c, E(c) = c.

Se è una funzione, si ha

ϕ : R R X

◦ ϕ(x ) 1

ϕ X = i A i

i

e X

X

◦ ϕ(x ) P (X = x ),

ϕ(x ) P (A ) =

E (ϕ X) = i i

i i i

i

se è assolutamente convergente la serie in questione, vale a dire se

X |ϕ(x

◦ )| P (X = x ) < +∞.

E (|ϕ X|) = n n

n

Si definiscono in particolare, per una v.a. X:

(a) il momento (o di ordine

r–esimo r), X rj

r x P (X = x ),

E (X ) := j

j

(b) il momento centrale r–esimo, X

r r

− −

E [(X E(X)) ] := (x E(X)) P (X = x ),

j j

j

(c) il momento assoluto r–esimo, X

r r

|x |

E (|X| ) := P (X = x );

j j

j

s’intende che, se assume un’infinità numerabile di valori, occorre verificare che le serie in esame

X

convergano assolutamente, prima di affermare che esistono i rispettivi momenti.

Siano ora e due v.a. discrete; ponendo e esse si

{X } {Y },

X Y A := = x B := = y

i i j j

possono scrivere nella forma X

X e y 1 ,

x 1 Y =

X = j B

i A j

i j

i

CAPITOLO 1. PROBABILITÀ DISCRETE 21

o anche, facendo riferimento alla stessa partizione di Ω,

X X

e

X = Y =

x 1 .

y 1

∩B ∩B

i A j A

i j i j

i,j i,j

Per il seguito è importante sottolineare che, date due v.a. e sul medesimo spazio di probabilit à

X Y

le probabilità

F,

(Ω, P ), p := P (X = x , Y = y )

ij i j

definiscono al variare degli indici e la legge congiunta delle v.a. e . Questa contiene l’infor-

i j X Y

mazione completa sulle due v.a. considerate nelle loro individualit à; infatti le leggi di e di , che

X Y

si dicono marginali si ricavano facilmente dalla legge congiunta {p }:

ij X

X e p .

p q := P (B ) = P (Y = y ) =

p := P (A ) = P (X = x ) = ij

ij j j j

i i i i

j

Si noti che, in genere, se sono note le leggi marginali di e di non è possibile ricostruire

{p } {q }

X Y

i j

la legge congiunta {p }.

ij

Vogliamo dimostrare due proprietà importanti dei momenti.

Teorema 1.7.1. (a) Sia un reale positivo, Se la v.a. ha finito il momento di ordine

s s > 1. X s,

allora, per ogni esiste finito il momento di ordine

s r

E(|X| ) < +∞, r ]1, s[, r, E(|X| ) < +∞.

(b) Se due v.a. e hanno entrambe finito il momento di ordine con allora è finito

X Y s, s 1,

anche il momento di ordine della v.a. , vale a dire se

s s

|

s X + Y E (|X + Y ) < +∞ E(|X| ) < +∞

e s

|

E(|Y ) < +∞.

Dim. (a) Occorre dimostrare che è convergente la serie

X r

|x | p ,

n n

n r

ove si è posto Ora se si ha mentre, se allora

|x | ≤ |x | ≤ |x |

p := P (X = x ). 1 1, > 1,

n n n n n

r s . Pertanto

|x | ≤ |x |

n n X

X

X

X s

s

r s

|x |

|x |

|x | ≤ p = 1 + E (|X| ) < +∞,

p +

(1 + ) p =

p n n

n

n n

n n n

n

n

n

sicché ha finito il momento di ordine per ogni ∈

X r r ]1, s[.

(b) Facendo riferimento alla notazione introdotta sopra, per mostrare che ha finito il momento

X +Y

occorre, e basta, mostrare che è convergente la serie

s–esimo, X s

|x |

+ y p .

i j ij

ij

Dalla convessità della funzione , con si ricava immediatamente la diseguaglianza

s

7→ ≥

t t t 0

s s−1 s s

|x ≤ |y|

+ y| 2 (|x| + )

sicché X X

s s−1 s s

|x | ≤ | |y |

+ y p 2 (|x + ) p

i j ij i j ij

ij ij X

X s

s s−1

s−1 |y |

|x | p

p + 2

=2 j ij

i ij ij

ij X

X s

s s−1

s−1 |y |

|x | q

p + 2

=2 j j

i i j

i

s−1 s s

{E

< 2 (|X| ) + E (|X| )} < +∞,

ciò che conclude la dimostrazione.

CAPITOLO 1. PROBABILITÀ DISCRETE 22

Poiché segue immediatamente dalla definizione che, se la v.a. discreta ha speranza finita e se

X

è un numero reale, anche la v.a. ha speranza finita e vale

α α X E (α X) = α E(X),

si può dire che le speranze delle v.a. discrete sono lineari, anche se non abbiamo ancora specificato

l’insieme nel quale le speranze sono definite.

Segue immediatamente dalla defizione di speranza che, se è una v.a. positiva, vale a dire, se

X

per ogni indice allora anche la speranza di è positiva,

≥ ≥

x 0 n, X E(X) 0.

n Si osservi che se e sono v.a. discrete con , ed entrambe con speranza finita, si ha

X Y X Y

anche proprietà che si dice di isotonı́a delle speranze. Basta infatti notare che la

E(X) E(Y ),

v.a. discreta è positiva; dunque

X Y − − ≥

E(X) E(Y ) = E(X Y ) 0.

Ha particolare importanza il momento centrale di ordine che si chiama varianza di (se esiste) e

2 X

si denota con Si ha

V (X). X

2

2 −

− (x E(X)) P (X = x )

V (X) := E (X E(X)) = j j

j

X (1.7.3)

2 2

= x 2x E(X) + E (X) P (X = x )

j j

j

j 2 2 2 2 2

− −

= E(X ) 2 E (X) + E (X) = E(X ) E (X).

La (1.7.3) avrà validità generale quando esiste la varianza. Il significato della varianza sar à studiato

nella prossima sezione.

Esempio 1.7.4. (Speranza e varianza della v.a. di B ). Sia una v.a. bernoulliana di

X

ERNOULLI

parametro allora

p; 2 2

· · · −

E(X) = 1 p + 0 q = p, V (X) = 1 p p = pq.

Esempio 1.7.5. (Speranza e varianza della v.a. binomiale). Sia una v.a. binomiale, ∼

S S

n n

Bi(n, allora

p);

n

X n j n−j

j p q

E (S ) =

n j

j=0 n

X −

(n 1)! j−1 n−j

= np p q

− −

(j 1)! (n k)!

j=1

n−1

X −

n 1 j n−j n−1

= np p q = np(p + q) = np.

j

j=0

Per calcolare la varianza è opportuno ricorrere all’identità

2 −

= E [S (S 1)] + E (S ) .

E S n n n

n

n

X n j n−j

− j(j 1) p q

E [S (S 1)] =

n n j

j=0 n

X −

(n 2)!

2 j−2 n−j

= n(n 1)p p q

− −

(j 2)!(n j)!

j=2

n−2

X −

n 2

2 k n−2−k 2

− −

= n(n 1)p p q = n(n 1)p ,

k

k=0

CAPITOLO 1. PROBABILITÀ DISCRETE 23

sicché segue dalla (1.7.2) che 2 2 2 2 2

− − − −

V (S ) = n(n 1)p + np n p = np n p = np(1 p) = npq.

n

Esempio 1.7.6. (Speranza e varianza della v.a. di P ). Data la v.a. con legge di P

X

OISSON OISSON

di parametro si ha

∼ P(λ),

λ > 0, X ∞ ∞

X X

n n−1

λ λ

−λ −λ

E(X) = e n = e λ = λ.

n! (n 1)!

n=0 n=1

Procedendo come nell’esempio precedente, si ha ∞

∞ X

X n−2

n λ

λ −λ

−λ 2 2

− − = e λ = λ ,

E [X (X 1)] = e n(n 1) −

n! (n 2)!

n=2

n=0

sicché Il parametro che compare nei termini della distribuzione di

2 2

V (X) = λ + λ λ = λ. λ

P dà, quindi, sia la speranza sia la varianza.

OISSON

Sullo spazio di probabilità si consideri una v.a. discreta che assume i valori

F,

(Ω, P ), X

. Si indichi con il sottoinsieme di definito da

x , x , . . . , x , . . . S N

1 2 n {n ∈

S := N : P (X = x ) > 0} .

n

Per ogni indice è possibile definire la probabilità condizionata

n S ∩ {X })

P (A = x n ∈ F).

Q (A) := (A

n P (X = x )

n

Sia una v.a. discreta,

Y X

Y = y 1 ;

j B j

n

è possibile definire la speranza di rispetto alla probabilità , ottenendo

E (Y ) Y Q

n n

X

X ∩ {X })

P (B = x

j n

y

y Q (B ) =

E (Y ) = .

j

j n j

n P (X = x )

n

j

j

Di qui si ottiene X

X

X ∩ {X })

P (B = x

y

y P (B ) =

E(Y ) = j n

j

j j j

j n∈S

X X ∩ {X })

y P (B = x

= j j n

j

n∈S

X X X

= P (X = x ) y Q (B ) = P (X = x ) E (Y ),

n j n j n n

j

n∈S n∈S

nota come formula di disintegrazione per le speranze.

Definizione 1.7.3. Sia una probabilità sull’insieme finito o numerabile e siano e due v.a.

P Ω X Y

su si dice che esse sono indipendenti (rispetto a ) se sono indipendenti gli eventi e

{X }

Ω; P = x k

per ogni possibile scelta dei valori e .

{Y }

= y x y

j k j

CAPITOLO 1. PROBABILITÀ DISCRETE 24

Teorema 1.7.2. Se le v.a. e (definite sullo stesso spazio di probabilit à finito o numerabile)

X Y Ω,

ammettono speranza finita e sono indipendenti, ha speranza finita anche la v.a. prodotto Z := X Y

e si ha (1.7.4)

E(X Y ) = E(X) E(Y ).

Dim. Se assume i valori (anche è una v.a. discreta), è

Z z Z

n } ∩ {Y })

{Z } ∪ ({X = x = y ,

= z = r s

n r,s:x y =z

r s n

onde, poiché l’unione è disgiunta, X P (X = x ) P (Y = y ).

P (Z = z ) = r s

n r,s:x y =z

r s n

Pertanto, poiché tutte le serie sono assolutamente convergenti,

X

E(X Y ) = E(Z) = z P (Z = z )

n n

n

X

X P (X = x ) P (Y = y )

= z r s

n r,s:x y =z

n r s n

X x y P (X = x ) P (Y = y )

= r s r s

r,s !

! X

X y P (Y = y ) = E(X) E(Y ).

x P (X = x )

= s s

r r s

r

1.8 La diseguaglianza di Čebyšev

La dimostrazione che segue è scritta usando le proprietà formali delle speranze. Poiché le proprietà

alle quali faremo ricorso continueranno a valere anche nel caso generale, la dimostrazione e quindi il

risultato varranno immutati anche nel caso generale; basterà solo tenere conto del diverso significato

dei simboli.

Teorema 1.8.1. (Diseguaglianza di M ). Sia una v.a. discreta su se è positiva

X Ω; X

ARKOV

si ha, quale che sia il numero reale

(X 0) b > 0, 1 (1.8.1)

≥ ≤

P (X b) E(X).

b

Dim. Poiché la somma, o serie, che definisce la speranza è a termini positivi, si ha ≤ ≤

0 E(X)

Se non vi è nulla da dimostrare. Si supponga, quindi, che sia

+∞. E(X) = +∞, E(X) < +∞

e si ponga Poiché è evidente che , risulta, dalla definizione di

{X ≥ ·

A(b) := > b}. X X 1 A(b)

speranza, che ≥ · ≥ ·

E(X) E(X 1 ) E(b 1 )

A(b) A(b) ≥

= b E(1 ) = b P (A(b)) = b P (X b),

A(b)

cioè l’asserto.

CAPITOLO 1. PROBABILITÀ DISCRETE 25

Corollario 1.8.1. Siano una v.a. discreta, un numero reale, e Allora

X c > 0 n N.

n

E (|X c| ) (1.8.2)

− ≥ ≤ .

P (|X c| ) n

Se la v.a. ammette speranza e varianza finite si ha, per ogni numero reale

X k > 0,

p 1 (1.8.3)

|X − ≥ ≤

P E(X)| k ,

V (X) 2

k

come subito si vede ponendo e nella (1.8.2). La (1.8.3) è nota con il nome

c = E(X) = V (X)

di diseguaglianza di Č e consente di interpretare la varianza come misura della dispersione

EBY ŠEV

dei valori assunti dalla v.a. attorno alla sua speranza La diseguaglianza di Č si

X E(X). EBY ŠEV

può scrivere in una delle forme equivalenti V (X) (1.8.4)

− ≥ ≤

P (|X E(X)| ) ,

2

oppure V (X) (1.8.5)

− ≥ − .

P (|X E(X)| < ) 1 2

Usando la diseguaglianza di Č , si può dimostrare il seguente celebre risultato, che è anche

EBY ŠEV

il primo esempio di Legge dei Grandi Numeri (LGN).

Teorema 1.8.2. (LGN di B ). Sia una v.a. binomiale, essendo la pro-

S (n N) p

ERNOULLI n

babilità di un successo. Posta la frequenza dei successi in prove, risulta, per ogni

T := S /n n

n n

> 0, (1.8.6)

lim P (|T p| < ) = 1.

n

n→+∞

Dim. Poiché e è e

E(S ) = np V (S ) = np(1 p), E(T ) = p

n n n

2

E (S np) −

V (S ) p(1 p)

n n

2

V (T ) = E (T p) = = = .

n n 2 2

n n n

Scende ora dalla (1.8.5) che −

p(1 p) 1

− ≥ ≤ ≤

P (|T p| )

n 2 2

n 4n

per ogni e per ogni

p [0, 1] > 0.

1.9 Alcune distribuzioni di probabilità discrete

Parleremo di distribuzione o legge discreta per indicare il vettore di probabilit à (p , p , . . . , p , . . . )

1 2 n

con le quali una v.a. assume i valori ,

X x , x , . . . , x , . . .

1 2 n

p = P (X = x ) . (j = 1, 2, . . . , n)

j j

Naturalmente sarà X (1.9.1)

e

≥ p = 1.

p 0 (j = 1, 2, . . . , n, . . . ) j

j j

Spesso si omette di far riferimento ad una v.a. ed allora per distribuzione o legge (discreta) si intende

un insieme finito o numerabile di numeri positivi che soddisfacciano alle (1.9.1).

{p }

n

Esiste il seguente legame tra la distribuzione binomiale e quella di P .

OISSON

CAPITOLO 1. PROBABILITÀ DISCRETE 26

Teorema 1.9.1. Se, per ogni si ha allora è

n N, p n = λ,

n k

λ

−λ ∈

lim b(k; n, p ) = e (k Z ).

n +

k!

n→+∞

Dim.

k n−k

λ

n λ

b(k; n, p ) = 1

n k n n

n−k

k k

− −

λ λ

λ n(n 1) . . . (n k + 1) −λ

= e ,

1 k

k! n n k!

che dà l’asserto.

Gli esempı̂ che seguono danno altri importanti leggi di probabilità.

Esempio 1.9.1. (La legge geometrica). Si consideri una sequenza, a priori infinita, di prove ber-

noulliane indipendenti, tutte con probabilità di successo eguale a In tal caso parleremo, ora e

p.

nel seguito, di processo di B , vale dire di una successione indipendenti

{X ∈

: n N}

ERNOULLI n

e tutte con la stessa legge di B di parametro Ci si domanda quanto “tempo” occorra

p.

ERNOULLI

aspettare perché si abbia il primo successo; l’espressione “tempo” equivale a “numero di prove”, ma

è piú intuitiva. Si consideri la v.a. discreta al quale si ha il primo successo”, definita

T :=“tempo

1

sull’insieme , cioè l’insieme delle successioni costituite di e di È noto che tale

N

{0,

Ω = 1} 0 1.

insieme ha la cardinalità del continuo sicché, a rigore, tale esempio esce dalla schema che abbiamo

costruito sin qui. Tuttavia, non è difficile calcolare la probabilità dell’evento visto che

{T = n},

1

tale evento fa intervenire solo un numero finito di prove. Facendo riferimento alle v.a. indipendenti

con e per ogni naturale si ottiene

{X } P (X = 1) = p P (X = 0) = q n,

n n n

n−1

{T ∩ {X ∩ {X

= n} = = 0} = 1},

1 j n

j=1

sicché . Si chiama distribuzione geometrica quella i cui termini sono dati da

n−1

P (T = n) = p q

1 con Si controlla subito che

n−1 ∈ ∈

p = p q (n N) p ]0, 1[.

n ∞

X X 1

n−1

− = 1.

p = p (1 p) = p

n − −

1 (1 p)

n=1

n∈N

Poiché è facile controllare che esiste finita, si può calcolare in modo indiretto come segue,

E(T )

1 ∞

∞ X

X k

n−1 (k + 1)q

nq =

E(T ) = p

1 n=1 k=0

∞ X

X k

k q

kq + p

= p k=0

k=0 ∞

X k−1

kq = 1 + q E(T ),

= 1 + pq 1

k=0

sicché è soluzione dell’equazione

E(T )

1 E(T ) = 1 + q E(T );

1 1

perciò È questa la risposta alla domanda iniziale: in media occorre aspettare un

E(T ) = 1/p.

1

tempo prima di avere un successo.

1/p

Questo risultato risolve il cosiddetto paradosso di B , che consiste in questo. Si osservi

OREL

che, in una serie di prove bernoulliane indipendenti con probabilit à non nulla è certo che

p > 0,

CAPITOLO 1. PROBABILITÀ DISCRETE 27

prima, o poi, si realizzerà un successo. Infatti, la probabilità che in prove non si realizzi alcun

n

successo è data da , che, al tendere di all’infinito, tende a Il paradosso di B consiste nel

n

q n 0. OREL

fatto che, pur di aspettare abbastanza a lungo, anche un evento con probabilit à piccola si realizzerà;

per esempio, una scimmia che estraesse, con restituzione, lettere da un sacchetto che contiene tutte

le lettere dell’alfabeto italiano, minuscole e maiuscole, la punteggiatura, lo spazio tra una parola e

la successiva (dunque in tutto 50 simboli), prima o poi estrarrà in successione il primo verso della

Divina Commedia. Tuttavia, perché ciò accada, occorre attendere un tempo eguale al reciproco della

probabilità dell’evento in questione. Nell’esempio appena dato, se si suppone che la scimmia estrag-

ga una lettera al secondo, occorre aspettare in media secondi prima che la scimmia estragga in

35

50

successione le lettere che compongono il primo verso. Ora

35 35×1.69 59

50 > 10 > 10

e, poiché un anno contiene meno di secondi, occorrerà aspettare, in media, piú di anni prima

9 50

10 10

di veder comparire Nel mezzo del cammin di nostra vita; si tenga presente che la vita dell’Universo

è stimata in anni.

10

10

Per la varianza di si ha

T 1 ∞

X X

2 2 n−1 2 k

E(T ) = p n q = p (k + 1) q

1 n∈N k=0 ∞

∞ X

X

X k

k

2 k kq

q + 2p

k q + p

= p k=0

k=0

k=0 2

= q E(T ) + 1 + 2q E(T ),

1

1

sicché −

1 2q 2 p

1+ q

2

E(T ) = =

+1 =

1 2 2

p p p p

e − 1 q

2 p − = .

V (T ) =

1 2 2 2

p p p

Una proprietà importante della legge geometrica è la cosiddetta mancanza di memoria. Sapendo

che non si è realizzato un successo sino al tempo cioè sapendo che la probabilità

n, T > n,

1

condizionata che non si realizzi un successo sino al tempo con e numeri naturali, non

n + j, n j

dipende da Infatti, dovendo calcolare si ha, per ∈

n. P (T > n + j|T > n), k N,

1 1 ∞

∞ X

X

X h k

s−(k+1) k

s−1 k q = q

q = pq

pq = pq

P (T > k) =

1 h=0

s=k+1

s=k+1

e dunque n+j

P (T > n + j) q

1 j

P (T > n + j|T > n) = = = q .

1 1 n

P (T > n) q

1

Esempio 1.9.2. (La legge ipergeometrica). Sia un numero naturale e sia un altro numero

N n

naturale tale che . Se è uno dei numeri la legge ipergeometrica di

n N p 0, 1/N, 2/N, . . . , 1,

parametri , e è data da

N n p

Np Nq

k n k

p = (k = 0, 1, ..., n);

k N

n

CAPITOLO 1. PROBABILITÀ DISCRETE 28

è, come si è già visto, la probabilità di estrarre palline bianche in un’estrazione senza restitu-

k

p k

zione di palline da un’urna che ne contiene bianche.

n N p

Esempio 1.9.3. (La distribuzione binomiale negativa). Se si domanda quanti siano i fallimenti F k

che, in un processo di B , si hanno prima di avere successi si ottiene per

k n = 0, 1, . . .

ERNOULLI

−k

k + n 1 k n

k n (1.9.2)

p (−q) ,

p q =

p := P (F = n) =

n k n

n

ove l’ultima espressione si ottiene ricordando che

−k(−k − −

−k 1) . . . (−k n + 1)

=

n n!

− k + n 1

k(k + 1) . . . (k + n 1) n

n .

= (−1)

= (−1) n! n

Si dice legge binomiale negativa quella i cui termini sono dati dalla (1.9.2).

Alla legge binomiale negativa è legata la legge di P ; questa è la legge della v.a. (=istan-

T

ASCAL k

è discreta a valori nell’insieme

te del successo in un processo di B ). La v.a.

k–esimo T

ERNOULLI k

ed è quasi certamente finita, vale a dire Si osservi

{n ∈ ≥ ∪ {+∞}

N : n k} P (T = +∞) = 0.

che Perciò, per ≥

T = F + k. n k,

k k

− n 1

n 1 k n−k

k n−k

− p q .

p q =

P (T = n) = P (F = n k) =

k k −

− k 1

n k

1.10 Alcuni problemi classici di probabilità

Esempio 1.10.1. Si esamina il sangue di donatori per scoprire se sia presente una malattia

nk

che si riscontra con probabilità nella popolazione. Si suddividono i flaconi in gruppi di e

p k n

in ogni gruppo si mescolano piccoli campioni di ogni flacone. Se l’esito dell’esame su tutto il

gruppo è negativo, tutti i flaconi possono essere usati per le trasfusioni; si procede invece alle analisi

individuali quando l’esame di un gruppo ha dato esito positivo. Quanti esami si eseguono in media?

Sia l’evento “l’analisi dell’i–esimo gruppo ha dato esito positivo”. Il numero di analisi

A N

i

che si compiono è dato da k

X ,

1

N = k + n A i

i=1

P

k poiché ogni gruppo ha la stessa probabilità di

onde P (A ) = k + kn P (A ),

E(N ) = k + n i 1

i=1

dare esito positivo. Supponiamo che gli individui che compongono ogni gruppo siano indipendenti;

è questa l’ipotesi piú forte che si faccia, ma non è possibile altrimenti perché è, di solito, impossibile

compiere un’indagine sui legami dei donatori. In condizioni d’indipendenza, risulta, se −

q = 1 p,

, onde Se

c n n n n

− − −

− ) = 1 q E(N ) = k + nk nkq = nk + (1 nq ). q > 1/n,

P (A ) = 1 P (A

1 1

allora è minore di che è il numero di esami che si dovrebbero eseguire se si analizzassero

E(N ) nk,

i flaconi di sangue ad uno ad uno. Per esempio, se e si ha

n = 10, k = 100 p = 1/100, E(N ) =

e onde 10 '

195.6 < 1000 q = 0.99, q 0.904 > 0.1.

Non è impossibile risolvere numericamente con l’aiuto di un calcolatore il seguente problema

di ottimizzazione: dati il numero di donatori e la probabilita qual è il numero di donatori per

p, n

gruppo che rende minimo il numero di esami da eseguire?

CAPITOLO 1. PROBABILITÀ DISCRETE 29

Esempio 1.10.2. (Il paradosso delle urne). Due urne contengono, entrambe, palline bianche e

palline nere. Si estraggano due palline seguendo una delle due strategie:

(a) si sceglie a caso un’urna, si estrae una pallina che quindi si reintroduce nell’urna dalla quale

è stata estratta, si sceglie di nuovo a caso un’urna dalla quale si estrae un’altra pallina;

(b) si procede come nella strategia (a), per la scelta della prima pallina, la si reintroduce nell’urna,

ma si estrae la seconda pallina dalla stessa urna.

Con quale delle due strategie è maggiore la probabilità di estrarre due palline bianche?

Siano e il numero delle palline bianche e quello delle palline nere, rispettivamente, nella

0 0

b n

prima urna e e i corrispondenti numeri per la seconda urna. Perci ò la probabilità di estrarre

00 00

b n

una pallina bianca è per la prima urna e per la seconda. La

0 0 0 0 00 00 00 00

p = b /(b + n ) p = b /(b + n )

probabilità che la prima pallina estratta sia bianca è dunque, in entrambe le strategie 0

p = (p +

1

Poiché in entrambe le strategie le due estrazioni sono indipendenti, la probabilit à di estrarre

00

p )/2.

due palline bianche è, con la strategia (a),

2

1 1

0 00

p = p + p

a 2 2

e, con la seconda strategia, 1 1

2 2

0 00

p = p + p .

b 2 2

Ora

2

1 1 1

1

2 2

0 00 0 00

− −

p p = p + p p + p

b a 2 2 2 2

1 1 1

1 2 2 2

0 00 0 00 0 00

− −

p + p p p = (p p ) ,

= 4 4 2 4

sicché la strategia (b) è preferibile. Si osservi che se si ha e che la strategia (b) è

0 00

6

p = p p > p

b a

preferibile quale che sia la composizione delle urne (che pu ò essere incognita).

Esempio 1.10.3. (Il raccoglitore di figurine). Un bambino vuole riempire un album con figurine.

N

Se le figurine si comprano una alla volta, quante figurine dovrà comprare in media per completare

l’album?

Si supporrà che le figurine siano poste in vendita ad una ad una e in maniera casuale. La prima

figurina acquistata troverà senz’altro posto nell’album. La seconda figurina che si compra sar à

collocata nell’album se è differente dalla prima, cioè se è una delle figurine non ancora

N 1

collocate nell’album. La probabilità che la seconda figurina acquistata non sia già posseduta è

. Pertanto, ricordando i risultati riguardanti la distribuzione geometrica, e tenendo

p = (N 1)/N

2

presente che, se per contare il tempo, si usano gli acquisti delle figurine, occorre acquistare in

media figurine prima di collocare la seconda figurina; per sistemare la terza,

1/p = N/(N 1)

2

bisognerà comprarne e cosı́ via. In generale per collocare la figurina

1/p = N/(N 2) r–esima

3

sarà necessario acquistare figurine. Perci ò, il numero medio di acquisti necessarı̂

N/(N r + 1) e N

per completare l’album è

N N N 1 1 1

··· ···

e = 1 + .

+ + + = N 1 + + + +

N − −

N 1 N 2 1 2 3 N

Si riconosce facilmente che l’espressione tra parentesi è la somma parziale –esima, della serie

N s N

armonica che, notoriamente, diverge. Si ha, a titolo d’esempio,

e = 29.29, e = 71.95, e = 171.14,

10 20 40

e = 518.74, e = 2178.59.

100 340

CAPITOLO 1. PROBABILITÀ DISCRETE 30

Si voglia ora stabilire quante figurine vi saranno in un secondo album, identico al primo, se nel

secondo si raccolgono solo le figurine non utilizzate per il primo: in altre parole, il bimbo di prima

passa i “doppioni” al fratellino minore.

Si possono trascurare le figurine che non servono per alcuno dei due album, perch é già presenti

in entrambi. È comodo rispondere alla domanda preliminare: quante figurine conterr à il secondo

album quando il primo ne contiene Per la risposta alla domanda originale baster à porre .

r? r = N

Una figurina sarà collocata nel secondo album solo se è una delle prime figurine; ciò accade

α r 1

è l’evento “si colloca la figurina Nel

ove

con probabilità − α”.

], A

(r 1)/N = P (A ) = E [1 1

1 A 1

secondo album si collocherà la seconda figurina se essa è stata già collocata nel primo album e se

β

è uno dei primi acquisti, ciò che accade con probabilità − −

− ] = (r 2)/(N 1),

r 2 P (A ) = E [1

2 A 2

perché la figurina è già stata sistemata e perciò le figurine candidate ad essere sistemate sono

α

Si proceda in questo modo sino alla figurina, perch é ci si ferma quando nel

− −

N 1. (r 1)–esima

primo album sono state inserite figurine; l’r–esima figurina non è quindi disponibile per il secondo

r

album. Il numero di figurine presenti nel secondo album quando il primo ne contiene si pu ò

n r

r

scrivere, con ovvio significato dei simboli:

· · ·

+ + 1

+ 1

n = E 1 A

A

r A r−1

2

1 −

− r 2 1

r 1 ···

+ + +

= − −

N N 1 N r +2

− − − − −

N (N r + 1) (N 1) (N r + 1) ···

= + + +

N N 1

− − −

(N r + 2) (N r + 1)

+ −

N r +2

1 1

1 ···

− − − + + +

= (r 1) (N r + 1) − −

N N 1 N r +2

1 1 1

− − ···

= r (N r + 1) .

+ + +

− −

N N 1 N r +1

La risposta alla domanda originale si ha ponendo :

r = N

1 1 1

− −

· · ·

n = N 1 + = N s .

+ + +

N N

2 3 N

Si ha, per esempio, Si osservi che come si vede usando il

n = 94.813. lim n /N = 1,

→+∞

100 N N

teorema di C .

ES ÀRO

Esempio 1.10.4. (Estrazioni senza restituzione). Riprendendo in esame la situazione dell’esempio

1.4.1, vogliamo dimostrare un risultato dovuto a P .

OISSON

Se un’urna contiene palline bianche e colorate, vogliamo calcolare la probabilit à che l’n–

b c

esima pallina estratta sia bianca.

Supponiamo, dapprima, che sia Sia la v.a. che dà il risultato dell’n–esima

n b + c. X n

estrazione: è l’evento “estrazione di una pallina bianca all’n–esima estrazione”. La

{X = 1}

n P k

domanda che ci siamo posti è allora: qual è la probabilità Se, al solito,

P (X = 1)? S = X

n k i

i=1

rappresenta il numero di palline bianche tra le prime estratte, si pu ò ricorrere al teorema delle

k

CAPITOLO 1. PROBABILITÀ DISCRETE 31

probabilità totali e scrivere b

X

P (X = 1) = P (X = 1|S = j) P (S = j)

n n n−1 n−1

j=0

c

b

b

X −

− − b j

n 1 j

j

= −

b + c b + c n +1

j=0 −

n 1

− n 1

b + c n

n 1

b + c n b−1

b X

X − −

− − j

b j 1

j

b j 1

=

= b + c b + c

j=0

j=0 b b

b−1

X −

− n 1

b + c n

1

= − −

b + c j

b j 1

j=0

b

b + c 1 −

− b

b! c!

(b + c 1)!

b 1

= = .

= −

b + c (b 1)! c! (b + c)! b + c

b

Qui abbiamo usato un’identità tra i coefficienti binomiali che è lasciata come esercizio.

Si osservi che che è la probabilità che la prima pallina estratta sia

P (X = 1) = P (X = 1),

n 1

bianca.

Se allora perché dopo le prime estrazioni l’urna è vuota.

n > b + c, P (X = 1) = 0, b + c

n

1.11 Passeggiata aleatoria di Bernoulli

In una serie di prove Bernoulliane indipendenti, o, con dizione equivalente, in processo di B -

ER

, si considerino, accanto alle v.a. che assumono i valori con probabilità

X (n N) 1

NOULLI n

e con probabilità anche le v.a. che assumono i valori

∈ − −

p [0, 1] 0 q = 1 p, Y := 2 X 1 1

n n

P n

e rispettivamente con probabilità e e le v.a. ove, al solito,

−1 −

p q, G := Y = 2 S n,

k n

n

P k=1

n .

S := X

n k

k=1

Si può interpretare nella maniera che segue, e che giustifica il nome di passeggiata aleatoria.

G n

Ad ogni istante, si lancia una moneta che ha probabilità di dare come risultato testa; si conviene

p

che, a partire da una posizione prefissata assunta come origine, una pallina si sposti di un passo, nel

verso positivo di una retta orientata se il risultato del lancio è testa, nel verso negativo se il risultato

è croce. La v.a. dice se all’n–esimo lancio la pallina si sposta nel verso positivo (Y oppure

Y = 1)

n n

nel verso negativo (Y mentre la v.a. dà la posizione della pallina al tempo (ov-

−1),

= G t = n

n n

viamente sia i tempi sia le posizioni possono assumere solo valori interi). È possibile anche un’altra

interpretazione di ; ad ogni istante, si punta una posta unitaria in una gioco d’azzardo nel quale

G n

all’n–esima giocata si vince (Y con probabilità o si perde (Y con probabilità in

−1)

= 1) p = q;

n n

questa interpretazione, rappresenta il “guadagno” complessivo sino al tempo Rifacendosi

G t = n.

n

all’interpretazione della passeggiata aleatoria, riportando in ascissa i tempi (o, ci ò che è lo stesso, i

numeri d’ordine dei lanci della moneta) e in ordinata le posizioni della pallina e unendo i punti, si

ottiene un grafico costituito da una spezzata.

Ogni grafico di questo tipo rappresenta una possibile traiettoria della passeggiata aleatoria. Le

v.a. , , e sono definite sullo spazio se è fissato o in ; in

N

n

{0, {0,

X Y S G Ω = 1} n Ω = 1}

n n n n

quest’ultimo caso si presentano problemi tecnici, che per ò non causeranno difficoltà di calcolo.

CAPITOLO 1. PROBABILITÀ DISCRETE 32

È facile calcolare la legge di . La probabilità che la pallina occupi la posizione

G P (G = k)

n n

di ascissa al tempo è se altrimenti è

|k|

x = k t = n 0, > n,

n

n + k (n+k)/2 (n−k)/2 (1.11.1)

− =

P (G = k) = P (2 S n = k) = P S = p q ,

n + k

n n n 2 2

se e hanno la stessa parità, vale a dire se e sono entrambi pari o entrambi dispari; in caso

n k n k

contrario Infatti, ci si convince rapidamente che la pallina non pu ò occupare una

P (G = k) = 0.

n

posizione pari in un tempo dispari o viceversa. Per esempio, perché per trovarsi

P (G = 0) = 0

2n+1

nell’origine la pallina deve aver compiuto un egual numero di passi nel verso positivo e nel verso

negativo, ciò che è possibile solo in un numero pari di passi. Vale la relazione ricorsiva (1.11.2)

P (G = k) = p P (G = k 1) + q P (G = k + 1),

n n−1 n−1

che si giustifica facilmente attraverso il teorema delle probabilit à totali, considerando che la pallina

può essere nella posizione al tempo solo se al tempo era in

− −

x = k t = n t = n 1 x = k 1

e all’n–esimo passo si muove nel verso positivo, con probabilità oppure se era in e

p, x = k + 1

all’n–esimo passo si muove nel verso negativo, con probabilità La dimostrazione formale della

q.

(1.11.2) è lasciata per esercizio.

La (1.11.1) si può scrivere in forma piú semplice, ponendo

e (1.11.3)

n = α + β k = α β;

qui, rappresenta il numero di passi nel verso positivo e quello nel verso negativo. Allora,

α β

α + β α β (1.11.4)

p q .

P (G = k) =

n α

Prima di procedere con la passeggiata aleatoria di B simmetrica, vale a dire, con p = q =

ERNOULLI

introduciamo, nella sua forma piú semplice, il principio di riflessione.

1/2,

Siano e due punti di una traiettoria che rappresenta la passeggiata aleatoria simmetrica e

A B

se ne considerino le coordinate, e con e

A = (m, j) B = (n, k), n > m 0 k > 0, j > 0.

Supponiamo qui che i due punti considerati e giacciano nello stesso semipiano (quello delle

A B

ascisse positive). Si consideri il punto simmetrico di rispetto all’asse dei tempi.

0 −j),

A = (m, A t

Il principio di riflessione consiste nell’affermazione che le traiettorie che passano per e per e

A B

che hanno un punto in comune con l’asse dei tempi sono tante quante sono le traiettorie che passano

per e per

0

A B.

Infatti, si consideri una traiettoria che unisce a e che abbia un punto in comune con l’asse

A B

dei tempi. Sia il primo, in ordine di tempo, dei punti che tale traiettoria ha in comune con l’asse

C t.

Si prenda in esame la traiettoria ottenuta riflettendo, rispetto all’asse la parte della traiettoria che

t,

unisce a questa passa necessariamente per e per Alla traiettoria si fa corrispondere

0

A C; A C. ACB

la traiettoria Viceversa, ogni traiettoria che unisce a ha necessariamente un punto in

0 0

A CB. A B

comune con l’asse dei tempi, poiché e giacciono da bande opposte rispetto a tale asse; sia

0

A B C

il primo di tali punti. Riflettendo, attorno all’asse la parte di traiettoria tra e si ottiene una

0

t, A C,

traiettoria che unisce a e che ha un punto in comune con l’asse dei tempi. Esiste, dunque,

ACB A B

una corrispondenza biunivoca tra i due tipi di traiettoria considerati.

Si osservi che, tenendo conto delle (1.11.3) e (1.11.4), si pu ò scrivere il numero di

N (n, k)

traiettorie che uniscono l’origine con il punto nella forma

(n, k)

n α + β (1.11.5)

= .

N (n, k) = n + k α

2

CAPITOLO 1. PROBABILITÀ DISCRETE 33

Lemma 1.11.1. In una passeggiata aleatoria simmetrica, posto eguale a il numero di

N (n, k)

cammini che uniscono l’origine al punto ove e vi sono esattamente

(n, k), n > 0 k > 0,

k N (n, k)

n

traiettorie dall’origine al punto che non hanno punti in comune con l’asse dei tempi tranne

(n, k)

che nell’origine, vale a dire, le traiettorie per le quali si ha G > 0, G > 0, . . . , G > 0.

1 2 n−1

Dim. Le traiettorie che interessano passano tutte per il punto le traiettorie da a

(1, 1); (1, 1) (n, k)

sono in numero di A tale numero deve essere sottratto quello delle traiettorie che

− −

N (n 1, k 1).

passano per e che hanno almeno un punto in comune con l’asse dei tempi. Per il principio di

(1, 1)

riflessione, quest’ultime traiettorie sono tante quante sono le traiettorie da a che sono

−1)

(1, (n, k),

Il numero delle traiettorie con le proprietà specificate è, perciò, ricorrendo alla

N (n 1, k + 1).

(1.11.5),

− − − −

N (n 1, k 1) N (n 1, k + 1)

− k

α β

α + β

α + β 1

α + β 1 − = N (n, k),

=

= − α + β n

α

α

α 1

sicché l’asserto è provato.

Sia ora un numero naturale e si consideri la v.a.

j {n ∈ ∪ {+∞}

T := inf N : G = j} ,

j n

che rappresenta il tempo di primo passaggio per la posizione cio è il primo istante nel quale il

x = j,

processo si trova in Useremo il principio di riflessione per calcolare la probabilit à

x = j. P (T = n);

j

si considerino gli eventi n−1

∪ ∩ {G

E (k) := ({G = k} = j})

n,j n s

s=1

(=“il processo è in al tempo ed è già passato per la posizione in un istante

x = k t = n x = j

precedente Ogni traiettoria nell’insieme tocca il livello per una prima volta.

t = n”). E (k) x = j

n,j

In Fig. 11.1 è riportato l’esempio di una traiettoria in E (k).

n,j

Fig. 11.1

Per ogni traiettoria in con si consideri quella che si ottiene riflettendo, attorno

E (k), k < j,

n,j

alla retta il tratto sino al primo istante nel quale essa tocca la retta Si ottiene cosı́ una

x = j, x = j.

traiettoria da a

(0, 2j) (n, k).

CAPITOLO 1. PROBABILITÀ DISCRETE 34

Viceversa, poiché ogni traiettoria che unisca questi due punti attraversa la retta si stabili-

x = j,

sce una corrispondenza biunivoca tra e le traiettorie da a Si porti, mediante

E (k) (0, 2j) (n, k).

n,j

una traslazione, l’origine degli assi in e si consideri una nuova passeggiata aleatoria di B -

(0, 2j) ER

con (passeggiata simmetrica). La v.a. che dà la posizione in questa seconda

p = q = 1/2

NOULLI

passeggiata aleatoria sarà indicata con . Nel nuovo riferimento, il punto ha coordinate

0

G (n, k)

n

perciò

(n, k 2j);

n

0 −n (1.11.6)

P [E (k)] = P (G = k 2j) = 2 .

n + k

n,j n − j

2

Per calcolare si osservi che vale la relazione tra insiemi

P (T = n),

j

{T {G − \ − ∩ {g

= n} = = j 1} E (j 1) = 1}

j n−1 n−1,j n

che si interpreta facilmente: il processo si trova nella posizione al tempo non

− −

x = j 1 t = n 1,

è mai passato per negli istanti precedenti e, inoltre, al tempo compie un passo nel verso

x = j t = n

positivo andando in Risulta, perciò,

x = j.

{G − \ −

P (T = n) = P = j 1} E (j 1) P (g = 1)

j n−1 n−1,j n

1 {G − \ −

= P = j 1} E (j 1) .

n−1 n−1,j

2

Dimostreremo che la distribuzione dei tempi di primo passaggio è data da

n

j (1.11.7)

.

P (T = n) = n + j

j n

n2 2

Infatti, poiché è contenuto in la (1.11.6) dà:

− {G −

E (j 1) = j 1}

n−1,j n−1

{G − \ −

P = j 1} E (j 1)

n−1 n−1,j

− − −

= P ({G = j 1}) P (E (j 1))

n−1 n−1,j

− −

n 1 n 1

−(n−1) −(n−1)

= 2 2

n + j n + j

− − −

1 1 j

2 2 

− n 1

n 1 

−(n−1) −

= 2 −

n j

n + j − −

1 1

2 2 

− n 1

n 1 

−(n−1) −

= 2 n + j

n + j − 1

2 2

(n 1)! 1 1 −(n−1)

= 2

n j n + j

n j

n + j − −

1 ! 1 ! 2 2

2 2

n

− j

(n 1)!j −(n−1) −(n−1)

2 = 2 ,

= n + j

n + j n j n

! ! 2

2 2

Affrontiamo ora il problema del tempo del primo ritorno nell’origine.

CAPITOLO 1. PROBABILITÀ DISCRETE 35

Si ponga

2n−1

e

{G ∩ ∩ {G 6

A := = 0} R := A = 0} .

2n 2n 2n 2n j

j=1

Gli insiemi e rappresentano rispettivamente gli eventi “il processo al tempo si trova

A F t = 2n

2n 2n

nell’origine” e “il processo ritorna nell’origine per la prima volta al tempo Poniamo ora

t = 2n”.

u := P (A ), r := 0, r := P (F ).

2n 2n 0 2n 2n

Si noti che, usando la formula di S , che dimostreremo nel seguito, ma che supporremo gi à

TIRLING

nota, si ha

1

2n (2n)! 1

u = =

2n 2n 2n

n 2 n! n! 2 (1.11.8)

1 −2n

2n+ e

(2n) 1

1

1 2

√ √

' .

=

1

1 −n −n 2n

e e 2 nπ

n+

n+

2 π n

n 2 2

Fig. 11.2

Il seguente lemma fornisce il legame tra queste probabilità.

Lemma 1.11.2. Con le notazioni appena introdotte è (1.11.9)

· · ·

u = u r + u r + + u r + u r .

2n 0 2n 2 2n−2 2n−2 2 2n 0

Dim. La (1.11.9) è una semplice conseguenza del teorema delle probabilità totali e dell’indipenden-

za delle v.a. di o, che è lo stesso, di

{f }, {g }.

n n

n

X ∩

P (A R )

P (A ) = 2n 2j

2n j=0 n

n X

X r u

P (R ) P (A ) =

= 2j 2n−2j

2j 2n−2j j=0

j=0

di modo che la (1.11.9) è provata.

Può giungere come una sorpresa che valga il seguente

CAPITOLO 1. PROBABILITÀ DISCRETE 36

Lemma 1.11.3. In una passeggiata aleatoria simmetrica è

nj=1 (1.11.10)

∩ {G 6

P = 0} = P (G = 0) = u .

2j 2n 2n

Dim. Si osservi che, poiché implica che sia per un opportuno la (1.11.10) si

G = 0 k = 2j j N,

k

potrebbe scrivere anche nella forma

2n (1.11.11)

∩ {G 6

P = 0} = P (G = 0) = u .

j 2n 2n

j=1

Si osservi anche che, necessariamente, si ha

2n 2n 2n

∩ {G 6 ∩ {G ∪ ∩ {G

= 0} = > 0} < 0} ,

j j j

j=1 j=1 j=1

e che, essendo la passeggiata simmetrica, basta mostrare che

1

2n

∩ {G

P > 0} = u .

j 2n

j=1 2

Ora, considerando tutti i possibili valori assunti da , si ha

G 2n

n

X

2n−1

2n

∩ {G ∩ {G ∩ {G

P > 0} = P > 0} = 2k} .

j j 2n

j=1 j=1

k=1

Per il Lemma 1.11.1, il numero di traiettorie che terminano nel punto e che non hanno punti

(2n, 2k)

in comune con l’asse dei tempi, salvo che nell’origine, è

− − − −

N (2n 1, 2k 1) N (2n 1, 2k + 1),

sicché, tenendo conto della (1.11.4) e della (1.11.5), si ha

1

2n−1 {P − −

∩ {G ∩ {G (G = 2k 1) P (G = 2k)} .

P > 0} = 2k} = 2n−1 2n

j 2n

j=1 2

Perciò 2n

X

1

2n

∩ {G {P − −

P > 0} = (G = 2k 1) P (G = 2k)}

j 2n−1 2n

j=1 2 k=1

1 1 2n 1 1

= P (G = 1) =

2n−1 2n

2 2 n 2

(2n 1)! 1

= 2n

n!(n 1)! 2

(2n)! n 1 1 1

1 = P (G = 0) = u

= 2n 2n

2n−1

2 n!n! 2n 2 2 2

che conclude la dimostrazione.

Corollario 1.11.1. Valgono le relazioni (1.11.12)

r = u u ,

2n 2n−2 2n

1 (1.11.13)

r = u ,

2n 2n

2n 1

X (1.11.14)

r = 1.

2n

n∈N

CAPITOLO 1. PROBABILITÀ DISCRETE 37

Dim. L’insieme che esprime che il primo ritorno nell’origine avviene al tempo è

t = 2n

2n−1 2n−1 c

∩ {G 6 ∩ {G ∩ {G 6 \ {G 6

= 0} = 0} = = 0} = 0}

j 2n j 2n

j=1 j=1

onde

2n−2

∩ {G 6 ∩ {G

r = P = 0} = 0}

2n j 2n

j=1

2n−2 2n

∩ {G 6 − {G 6 −

= P = 0} P (∩ = 0} = u u .

j j 2n−2 2n

j=1

j=1

La (1.11.13) si ottiene dopo qualche conto che non presenta alcuna difficolt à:

− 1

2n 2 1

2n

− −

r = u u =

2n 2n−2 2n 2n−2 2n

n 1 n

2 2

− 1 1

(2n)!

(2n 2)! −

= 2n−2 2n

− −

(n 1)! (n 1)! 2 n! n! 2

− 1

1 2n (2n 1)

(2n 2)! −

1

= 2n−2 2

− −

(n 1)! (n 1)! 2 4 n

− − −

1

2n 2 2n (2n 1)

= 2n−2

n 1 2 2n

(2n 2)! 1

2n

1 1

= = .

2n−1 2n

− − n

n! (n 1)! 2 2n 1 2

Infine, per la (1.11.14), è X

X −

(u u ) = u = 1

r = 2n−2 2n 0

2n n∈N

n∈N

che conclude la dimostrazione.

Corollario 1.11.2. Il tempo medio d’attesa per il primo ritorno nell’origine è infinito,

X (1.11.15)

2 n r = +∞.

2n

n∈N

Dim. Segue dalla (1.11.13) e dalla (1.11.8) che, per abbastanza grande, il termine generale della

n

serie in (1.11.15) si può scrivere nella forma 1

2n 2n √

'

2n r = u ,

2n 2n

− −

2n 1 2n 1 n π

che rende ovvio l’asserto.

Consideriamo ora l’evento “sino al tempo il processo è passato per l’origine

L t = 2n,

2k,2n

l’ultima volta al tempo t = 2k”;

nj=k+1

{G ∩ ∩ {G 6

L := = 0} = 0} .

2k,2n 2k 2j

Teorema 1.11.1. La probabilità di è

L 2k,2n (1.11.16)

α := P (L ) = u u .

2k,2n 2k,2n 2k 2n−2k

CAPITOLO 1. PROBABILITÀ DISCRETE 38

Dim. Si può scrivere ( )!

2j

X

nj=k

{G ∩ ∩ 6

L = = 0} g = 0 .

2k,2n 2k i

i=2k+1

Poiché le sono indipendenti e isonome, la (1.11.11) implica

g n

nj=k+1

∩ {G 6

P (L ) = P (G = 0) P = 0} = u u

2k,2n 2k 2j 2k 2n−2k

che è la (1.11.16).

La distribuzione di probabilità discreta sui punti data da si dice

{0, 2, 4, . . . , 2n} p := α

2k 2k,2n

distribuzione discreta dell’arcoseno di ordine perché la funzione arcoseno costituisce un’ottima

n

approssimazione. Si tratta di una distribuzione simmetrica attorno a n,

α = α .

2k,2n 2n−2k,2n

e

Sia il tempo dell’ultimo passaggio per l’origine sino al tempo Allora

T t = 2n.

2n e

P ( T = 2k) = α .

2n 2k,2n

e e

La simmetria dà, allora, Dalle (1.11.8) e (1.11.16) segue che

≤ ≥

P ( T n) = P ( T n).

2n 2n 1 1

p

'

α 2k,2n π −

k (n k)

e, di qui j j

X X

1 1

e p

'

≤ α

P ( T 2j) = .

2k,2n

2n π −

k (n k)

k=0 k=0

Se è sufficientemente grande,

n Z

j

X j

1 1 dx

1

e p p

'

≤ '

P ( T 2j)

2n π π

− −

k (n k) x (n x)

0

k=0 2

(ricorrendo al cambio di variabile )

x = ns

√ √

Z Z

x/n x/n

1 2ns ds

1 √

p

= ds =

π π 2

2 2 2 −

− 1 s

n s (1 s )

0 0

r j .

= arcsin n

Infine, vogliamo studiare il massimo raggiunto dalla passeggiata aleatoria: introdotta la v.a.

si domanda quale sia la probabilità Si osservi

M := max{j : G = j (k n)}, P (M = j).

n k n

che l’evento corrisponde all’essere processo al tempo in senza

E (k) E (k) t = n x = k

n,j n,j+1

essere mai passato per ma essendo passato per Poichè può essere un qualsiasi

x = j + 1, x = j. k

intero compreso tra e si ha

−n j, jk=−n (1.11.17)

{M ∪ \

= j} = (E (k) E (k)) .

n n,j n,j+1

CAPITOLO 1. PROBABILITÀ DISCRETE 39

Si è, cosı́, espresso l’evento come unione disgiunta; poiché, inoltre, è

{M = j} E (k)

n n,j+1

contenuto in si ottiene, ricorrendo alla (1.11.2),

E (k),

n,j j

X −

P (M = j) = (P (E (k)) P (E (k)))

n n,j n,j+1

k=−n

j

X 0 0

− − − −

= (P (G = k 2j) P (G = k 2j 2))

n n

k=−n

0 0 0

−j) − −j − −j −

= P (G = P (G = 2) + P (G = 1)

n n n

0 0 0

− −j − −j − − −j −

P (G = 3) + P (G = 2) P (G = 4)

n n n

0 0

−j − − −j −

+ P (G = 3) P (G = 5) + . . .

n n

0 0

−j) −j −

= P (G = + P (G = 1).

n n

Per quanto osservato precedentemente solo uno di questi due ultimi termini differisce da zero.

In definitiva nella passeggiata aleatoria simmetrica risulta

 

 

n n

−n

P (M = j) = 2 .

+

n + j n + j +1

n  

2 2

Il metodo di riflessione può essere usato per rispondere ad altre questioni, come nell’esempio

che segue.

Esempio 1.11.1. In un ballottaggio tra due candidati, e , che riportano rispettivamente e

0 00 0 00

c c n n

voti, vince il candidato (n ); se lo spoglio dei voti avviene aprendo le schede ad una ad una,

0 0 00

c > n

qual è la probabilità che il candidato vincente sia sempre in vantaggio nel corso dello scrutinio?

Si può rappresentare lo scrutinio mediante un grafico, riportando in ascissa il numero dei voti

scrutinati; in ordinata, i voti del candidato sono considerati positivi mentre quelli del candidato

0 00

c c

sono considerati negativi. Le posizioni di ordinata positiva corrispondono dunque ad una situazione

di vantaggio del candidato . Tutti i possibili scrutinı̂ sono rappresentati da spezzate che sono

0

c

comprese tra le rette e e che congiungono l’origine con il punto di coordinate

00 0

−n

x = x = n O B

Si conviene di non contare i voti nulli o le schede bianche. Il numero di “storie”

0 00 0 00

(n + n , n n ).

differenti è dunque

0 00 0 00

n + n n + n

= .

0 00

n n

Gli scrutinı̂ nei quali il candidato vincente è sempre in vantaggio sono quelli che uniscono ad

0

c O B

senza toccare l’asse dei “tempi” in punti diversi dall’origine. Si pone il problema di contare quanti

siano tali scrutinı̂ o, equivalentemente, quante siano le spezzate che li rappresentano. Ognuna di tali

spezzate passa necessariamente per il punto di coordinate Le spezzate che congiungono

A (1, 1). A

ad sono complessivamente

B

0 00 −

n + n 1

0 −

n 1

Tra queste non sono da considerare quelle che toccano l’asse delle ascisse. Il numero di queste

ultime si determina ricorrendo al metodo di riflessione. Sia il punto simmetrico di rispetto

0

A A

all’asse dei tempi. Esiste una corrispondenza biunivoca tra i cammini che uniscono ad (con

0 0

A B n

e fissati).

00

n

CAPITOLO 1. PROBABILITÀ DISCRETE 40

0 00 −1

n +n

I cammini da a sono in numero di . La probabilità cercata è, perciò,

0

A B 0

n

0 00 0 00

− −

n + n 1 n + n 1

0 0

n 1 n

p = 0 00

n + n

0

n

0 00

1 n !n !

1

0 00 − −

= (n + n 1)! 0 00 0 00 0 00

− −

(n 1)!n ! n !(n 1)! (n + n )!

0 00

n n

= .

0 00

n + n

Scrivendo tale probabilità nella forma 0 00

n n

p = ,

0 00 0 00

n + n n + n

ci si accorge subito che essa è la differenza tra le percentuali dei voti validi riportati dai candidati.

Esempio 1.11.2. (La rovina del giocatore). Si torni alla passeggiata aleatoria con l’interpretazione

del giocatore che ad ogni istante gioca una partita nella quale vince o perde un euro con probabilit à

o Si ha quindi una successione con e Se

{Y ∈ } −1)

p q. : n Z P (Y = +1) = p P (Y = = q.

n + n n

il giocatore dispone inizialmente di euro e se si vuole sapere quale sia la probabilt à

a 0 < a < c,

che il giocatore arrivi ad avere euro prima di perdere tutto il suo capitale iniziale di euro.

c a

Formalizziamo come segue la questione. Si introducano le dua v.a.

{n ∈ ∪ {+∞} −a} {n ∈ ∪ {+∞}

T := inf Z : G = T := inf Z : G = c} .

0 + n c + n

Il problema noto come “la rovina del giocatore” consiste nel calcolare la probabilit à P (T < T ).

c 0

Si ponga tale probabilità eguale a indicando esplicitamente la dipendenza da

p(a) a, p(a) :=

in modo da avere la possibilità di variare Ricorrendo al teorema delle probabilità

P (T < T ), a.

c 0

totali, si ha

p(a) = P (T < T )

c 0 (1.11.18)

| −1) −1) |

= P (T < T Y = P (Y = + P (T < T Y = +1) P (Y = +1)

c 0 1 1 c 0 1 1

= q p(a 1) + p p(a + 1).

Si è cosı́ ottenuta l’equazione alle differenze (1.11.19)

p(a) = q p(a 1) + p p(a + 1),

che deve essere risolta tenendo conto delle condizioni al contorno,

e (1.11.20)

p(0) = 0 p(c) = 1.

Si può risolvere la (1.11.19), ricorrendo all’equazione caratteristica

−1

1 = q t + p t,

vale a dire q

1

2 (1.11.21)

− t + = 0.

t p p

Se la (1.11.21) ha due radici distinte, e La soluzione generale della (1.11.18)

6

p = q, t = 1 t = q/p.

a

q

p(a) = A + B ,

p

CAPITOLO 1. PROBABILITÀ DISCRETE 41

ove le costanti e si determinano mediante le condizioni al contorno (1.11.20). Tenendo conto

A B

di queste ultime, si ottiene a

q

1 1

p (1.11.22)

6 .

, p =

p(a) = c 2

q

1 p

Se, invece, è la (1.11.21) ha una soluzione doppia sicché la (1.11.18) ha come

p = 1/2, t = 1,

soluzione generale p(a) = A + B a.

Di nuovo, si calcolano le costanti e con l’ausilio delle condizioni al contorno (1.11.20),

A B

ottenendo la soluzione a 1

p(a) = , p = .

c 2

In un gioco equo, è eguale a la probabilità che il giocatore riesca ad avere euro,

p = 1/2, a/c c

partendo da un capitale iniziale di euro.

a

È interessante fare un esempio concreto. Si supponga che il giocatore abbia un capitale iniziale

di 9700 euro e che il suo scopo sia di vincere 10,000 euro, prima di perdere tutto. Se ci ò

p = 1/2,

accade con probabilità che è molto grande; se, invece, sostituendo nella (1.11.22) si

0.97, p = 0.49,

ottiene approssimativamente . Si osservi come un piccolo cambio della probabilità di

−6

×

6.1 10 p

vittoria provochi, a lungo andare, un grande cambiamento.

1.12 La funzione generatrice delle probabilità

Interrompiamo lo studio della passeggiata aleatoria per introdurre un concetto che riveste importanza

per suo conto.

Sia una probabilità definita sulla famiglia delle parti di e si ponga con

P Z p := P ({n})

+ n

. Si dice funzione generatrice della probabilit à la funzione definita in mediante

n Z P ψ [0, 1]

+ X n (1.12.1)

ψ(t) := p t .

n

n∈Z +

In tal caso si parla anche di funzione generatrice della legge di probabilit à La serie (1.12.1) è

{p }.

n

convergente in la sua somma è continua, crescente e verifica le relazioni

[0, 1]; ψ(t) e

ψ(0) = p ψ(1) = 1,

0

ed ammette in derivate di ogni ordine. È noto dai corsi di analisi matematica che due serie

[0, 1]

di potenze che abbiano la stessa somma in tutti i punti di un insieme infinito avente l’origine come

punto di accumulazione sono identiche, nel senso che hanno gli stessi coefficienti. Da ci ò si deduce

che due distribuzioni di probabilità con la stessa funzione generatrice sono eguali.

Per estensione si parla di funzione generatrice di una v.a. se questa assume valori interi

X

positivi; in questo caso si ha con e

p := P (X = n) n Z

n +

X

n X

P (X = n) t = E t .

ψ (t) :=

X n∈Z +

Siano e due v.a. indipendenti a valori in ; allora, per ogni il valore della

X X Z t [0, 1],

1 2 +

è, per quanto appena visto,

funzione generatrice della loro somma X + X

1 2

X X

X +X = E t

ψ t

(t) = E t 1 2

1 2

X +X

1 2 (1.12.2)

X X

= E t E t = ψ (t) ψ (t);

1 2 X X

1 2

essa è, dunque, il prodotto delle funzioni generatrici di e di .

X X

1 2

CAPITOLO 1. PROBABILITÀ DISCRETE 42

Esempio 1.12.1. Se la v.a. ha legge di B di parametro si ha

X p,

ERNOULLI

− −

ψ (t) = q + pt = 1 p + pt = 1 + p (t 1).

X

Esempio 1.12.2. Sia una v.a. con legge binomiale segue facilmente dall’esempio

S Bi(n, p);

n

precedente e dalla (1.12.2) n

{1 −

(t) = + p (t 1)} .

ψ S n

Esempio 1.12.3. Se la v.a. ha legge geometrica di parametro è

X p,

∞ X

X pt

n−1

n−1 n .

(qt) =

pq t = pt

ψ (t) =

X −

1 qt

n=1

n=1

Esempio 1.12.4. Sia una v.a. con legge di P , allora,

∼ P(λ);

X X

OISSON

X n n

λ t

−λ −λ λ t −

e

ψ (t) = = e e = exp{λ (t 1)}.

X n!

n=0

Si osservi che, se e sono due v.a. indipendenti con leggi di P di parametri e

X X λ λ

OISSON

1 2 1 2

rispettivamente, e allora la (1.12.2) dà

∼ P(λ ∼ P(λ

X ) X ),

1 1 2 2 −

(t) = exp{(λ + λ ) (t 1)},

ψ X +X 1 2

1 2

è una v.a. con legge di P di parametro .

sicché λ + λ

X + X OISSON 1 2

1 2

La (1.12.1) è una serie di potenze con raggio di convergenza che è almeno eguale a Perciò essa

1.

ammette derivate di tutti gli ordine nell’intervallo queste si ottengono, com’ è noto, derivando

[0, 1];

a termine a termine la serie di potenze (1.12.1). Si osservi che, per ogni la derivata

k N, k–esima

della funzione generatrice è, a sua volta, una serie di potenze con i coefficienti positivi, sicch é la

ψ

somma di tale serie è una funzione crescente in ed ammette, quindi, limite a sinistra nel punto

[0, 1]

(tale limite può essere finito o eguale a Useremo la notazione

t = 1 +∞).

(k) (k)

ψ (1) := lim ψ (t).

t→1

t<1

Ovviamente, se è la funzione generatrice della v.a. si ha

ψ X,

(k) − −

ψ (1) = E [X (X 1) . . . (X k + 1)] .

In particolare, risulta 0 00

e (1.12.3)

ψ (1) = E(X) ψ (1) = E [X (X 1)] ,

e, quindi, 0 00

2

E X = ψ (1) + ψ (1).

Vediamo come usare la funzione generatrice per completare lo studio della passeggiata aleatoria

che abbiamo intrapreso nella sezione precedente, elimando, ora, l’ipotesi che sia p = q = 1/2.

Ritenendo la notazione già introdotta, la probabilità di ritorno all’origine al tempo è data da

t = 2n

2n n n ∈

u = p q (n Z );

2n +

n

CAPITOLO 1. PROBABILITÀ DISCRETE 43

naturalmente, è perché il processo si trova nell’origine all’istante iniziale. Non è difficile

u = 1

0

calcolare la funzione generatrice della legge ricordando lo sviluppo della serie

{u ∈ };

: n Z

2n +

binomiale, si trova

∞ ∞

X X (2n)!

2n n n 2n 2 n

ψ (t) = p q t = (pqt )

u n n! n!

n=0 n=0

X (2n)! 2 n

n (−4pqt )

(−1)

= (2n)!! (2n)!!

n=0

X −

(2n 1)!! −1/2

2 n 2

n −

(−4pqt ) = (1 4pqt ) .

(−1)

= (2n)!!

n=0

Pertanto 1

p

ψ (t) = .

u 2

1 4pqt

Si consideri ora la probabilità che il primo ritorno nell’origine avvenga al tempo Già si

r t = 2n.

2n

sa che e che vale la relazione

r = 0

0 n

X u r .

u = 2n−2j 2j

2n j=1

Di qui ∞

∞ n

X

X

X 2n

2n t u r

u t = 1 +

ψ (t) = 1 + 2n−2j 2j

2n

u n=1

n=1 j=1

∞ ∞

X X

2j 2n−2j

=1+ r t u t = 1 + ψ (t) ψ (t).

2j 2n−2j u r

j=1 n=j

È ora facile calcolare p

1 (1.12.4)

2

− −

= 1

ψ (t) = 1 1 4pqt .

r ψ (t)

u

La probabilità che la passeggiata aleatoria torni nell’origine è, dunque,

e

p X p −

e 1 4pq;

r = ψ (1) = 1

p = 2n r

n∈Z +

ma 2 2 2

− − − − − −

1 4pq = 1 4p (1 p) = 1 4p + 4p = (1 2p) = (q p) ,

sicché la probabilità di ritorno nell’origine è − |q −

e

p = 1 p|.

Tale probabilità è eguale a se, e solo se, vale a dire se, e solo se, la passeggiata

e

1, p = 1, p = q,

aleatoria è simmetrica. In caso contrario è e

p < 1.

Vogliamo, infine, calcolare il tempo medio di ritorno nell’origine nel caso simmetrico q = p.

Detta la v.a. che dà il tempo del primo ritorno nell’origine, si ha, evidentemente,

T P (T = 2n) =

0 0

, (n ). Perciò, tenendo conto delle (1.12.3) e della (1.12.4), si trova

r Z

2n + ∞

X t

0 √ = +∞,

E (T ) = 2n r = ψ (1) = lim

0 2n r 2

1 t

t→1

n=0 t<1

sicché il tempo medio di ritorno nell’origine è infinito.

CAPITOLO 1. PROBABILITÀ DISCRETE 44

1.13 Passeggiata aleatoria in d

Z

Si consideri, nello spazio euclideo , un sistema di assi cartesiani ortogonali, e, su ciascuno di

d

R

essi, si segnino le posizioni intere. Si ottiene, cosı́, un reticolo di punti, a coordinate intere, che

rappresenta . Consideriamo il caso di una passeggiata aleatoria su ; esamineremo il solo caso

d d

Z Z

simmetrico.

Si scelga a caso, quindi con probabilità uno degli assi, per esempio il sia assegnata

1/d, j–esimo;

la successione di v.a. bernoulliane indipendenti,

j j j

{X ∈ = 1) = 1/2,

: n N} P (X = 0) = P (X

n n n

(j) (j)

e la successione associata ove Supponiamo che le successioni

j

{Y ∈ −

: n N}, Y := 2 X 1.

n n n

(1) (2) (d)

. . ,{Y siano complessivamente formate da v.a. indipendenti, sicché, per esem-

{Y }, {Y },. }

n n n

(j) (k)

pio e sono indipendenti quali che siano e in con e e in

6 {1,

Y Y m n N m = n j k 2, . . . , d}

n m è individuata dal vettore aleatorio

con La posizione del processo in d

6 d–dimensionale

j = k. Z

(1) (2) (d) .

G := G , G , . . . , G

n n n n

Calcoliamo la probabilità che il processo ritorni nell’origine al tempo

P (G = 0) 0 = (0, 0, . . . , 0)

2n

t = 2n.

Perché il processo ritorni nell’origine, supponiamo che compia passi lungo il

2 k j–esimo

j

asse; come nel caso unidimensionale, abbiamo già usato il fatto che, lungo ogni asse, il proces-

so dovrà compiere un egual numero di passi nel verso positivo che nel verso negativo. Si avr à,

necesseriamente, Noti i numeri , si ha

· · ·

k + k + + k = n. k , k , . . . , k

1 2 d 1 2 d

2 k 1

j

(j)

P G = 0 = ;

2k 2k

k 2

j j

j , si ha, ricorrendo ai

inoltre, poiché la probabilità di scegliere volte il asse è 2k

2 k j–esimo 1/d j

j

coefficienti multinomiali, X (2 n)!

1

P (G = 0) =

2n 2n

(2 d) k !k !k !k ! . . . k !k !

1 1 2 2 d d

k ,k ,...,k

1 2 d

k +k +···+k =n

1 2 d

X 2

(n!)

2 n 1

= (1.13.1)

2n 2 2 2

(2 d) (k !) (k !) . . . (k !)

n 1 2 d

k ,k ,...,k

1 2 d

k +k +···+k =n

1 2 d

2

X

2 n 1 n

= 2n

n (2 d) k , k , . . . , k

1 2 d

k ,k ,...,k

1 2 d

k +k +···+k =n

1 2 d

Per si ottiene nuovamente la (1.11.8), mentre, per si trova

d = 1, d = 2,

n 2

X

2 n 1 n

P (G = 0) =

2n 2n

n 4 k

k=0

n 2

X

2 n 1 n n 2 n 1 22n

= = u ,

=

2n 2n

n 4 2

k n k n

k=0

è dato ancora dalla (1.11.8). Ricorrendo alla formula di S , si ha

ove u TIRLING

2n  1

 se

 √ , d = 1,

n π (1.13.2)

P (G = 0) =

2n 1

 se

, d = 2.

CAPITOLO 1. PROBABILITÀ DISCRETE 45

Consideriamo, infine, il caso Poiché,

d 3.

X 1 n = 1,

n k , k , . . . , k

d 1 2 d

k ,k ,...,k

1 2 d

k +k +···+k =n

1 2 d

e, poiché tutti i termini sono positivi, si ha

n

2 n 1

≤ max .

P (G = 0)

2n 2n

(2 d) k , k , . . . , k

n k ,k ,...,k 1 2 d

1 2 d

k +k +···+k =n

1 2 d

Un facile calcolo mostra che il minimo del denominatore è raggiunto quando

k !k ! . . . k ! k =

1 2 d j

costante, vale a dire, approssimativamente, per (j Ricorrendo ancora alla

'

k n/d = 1, 2, . . . , d).

j

formula di S , si ottiene

TIRLING

n! n!

n ≤

= o

n n d

k ! k ! . . . k !

k , k , . . . , k 1 2 d

1 2 d !

d

−n

n n d/2

2π n

n e d d

' = ,

r

2 d−1

√ (2 π n)

n n

n/d 2

−n/d 2 π

e

d d

onde, ricordando la (1.11.8), ed essendo un’opportuna costante, che si potrebbe calcolare espli-

C d

citamente, n d/2 C

d d

1 d (1.13.3)

√ ≤

≤ .

P (G = 0)

2n d−1

d−1 3/2

n π n

n

(2 π) 2 2

In virtú della (1.13.2) e della (1.13.3) la serie

X P (G = 0)

2n

n∈N

è, dunque, divergente se oppure convergente se ≥

d = 1, d = 2, d 3.

Siamo ora in grado di enunciare il seguente teorema, la cui dimostrazione dipende dai lemmi di

B –C .

OREL ANTELLI

Teorema 1.13.1. (di P ). In una passeggiata aleatoria simmetrica su con è nulla la

d ≥

Z d 3

ÓLYA

probabilità che il processo ritorni infinite volte nell’origine.

1.14 Probabilità di un assegnato numero di eventi

Nel considerare il problema delle coincidenze (esempio 1.4.3), ci si pu ò domandare quale sia la

probabilità che si realizzino esattamente coincidenze. Il problema pu ò essere schematizzato in

k

generale come segue. Siano dati eventi ; qual è la probabilità che se ne realizzino

n A , A , . . . , A

1 2 n

con

k k = 0, 1, ..., n?

Il risultato che segue è basato sull’osservazione, già piú volte usata, che, se è un evento, allora

A

E(1 ) = P (A).

A

CAPITOLO 1. PROBABILITÀ DISCRETE 46

Teorema 1.14.1. Dati eventi , la probabilità dell’evento , “si realizzano esat-

n A , A , . . . , A B

1 2 n k

tamente degli eventi dati” con è

k n k = 0, 1, . . . , n

n

X j

j−k (1.14.1)

P (B ) = S ,

(−1)

k j

k

j=k

ove si è posto, per j = 0, 1, . . . , n,

X

∩ ∩ · · · ∩

A A A

P

S :=

j k(1) k(2) k(j)

k(1),k(2),...,k(n)

n n n

X X X

∩ ∩ · · · ∩

:= P A A A ,

k(1) k(2) k(j)

k(1)=1 k(2)=k(1)+1 k(j)=k(j−1)+1

n

ove si intende che la somma si esegua sopra tutti i sottoinsiemi di numeri,

j

j

{k(1), k(2), ..., k(j)},

scelti in {1, 2, . . . , n}.

La (1.14.1) va sotto il nome di principio di inclusione–esclusione.

Dim. Si può scrivere

ni(n)

ci(k+1) ∩

∩ ∩ · · · ∩ ∩

∪ A A A A . . . A

B =

k i(1) i(2) i(k)

J(k)

ove è una permutazione di e con si indica il generico sot-

{i(1), {1,

i(2), . . . , i(n)} 2, . . . , n} J(k)

toinsieme di elementi di resta, quindi, espresso come

{i(1), {1,

i(2), . . . , i(k)} k 2, . . . , n}; B

k

nk insiemi. Operando con le funzioni indicatrici, anziché con gli insiemi, si ha

l’unione di X (1.14.2)

− −

1 = 1 1 . . . 1 1 1 . . . 1 1 .

B A A A A A

k i(1) i(2) i(k) i(k+1) i(n)

J(k)

Ogni termine di quest’ultima somma si può scrivere nella forma che segue, ottenuta moltiplicando i

fattori contenuti nelle parentesi,

{1 − · · ·

1 . . . 1 H (J(k)) + H (J(k)) + +

A A 1 2

i(1) i(k) r n−k (1.14.3)

· · ·

+ (−1) H (J(k)) + + (−1) H (J(k))},

r n−k

P , espressione nella quale la somma deve essere

ove 1 1 . . . 1

H (J(k)) := A A A

r J(n−k,r) j(1) j(2) j(r)

n−k sottoinsiemi di elementi scelti in

eseguita sopra tutti i −

J(n k, r) r

r {i(k + 1), i(k + 2), . . . , i(n)}.

Sostituendo nella (1.14.2), si ha

n−k

X X

r

1 = (−1) 1 1 . . . 1 H (J(k)).

B A A A r

k i(1) i(2) i(k)

r=0 J(k)

Ora,

X X X (1.14.4)

1 1 . . . 1 H (J(k) = 1 . . . 1 1 . . . 1 .

A A A r A A A A

i(1) i(2) i(k) i(1) i(k) j(1) j(r)

J(k) J(k) J(n−k,r)

CAPITOLO 1. PROBABILITÀ DISCRETE 47

Si introduca X (1.14.5)

H := 1 ,

r+k r+k

∩ A j(i)

i=1

J(n,k+r)

n sottoinsiemi di indici scelti tra

ove la somma è eseguita sopra tutti i J(n, k + r) k + r

k+r

Alle somme (1.14.4) e (1.14.5) contribuiscono termini che possono assumere solo

{1, 2, . . . , n}.

n termini; i termini della

i valori e Si è già detto che nella somma (1.14.5) compaiono

0 1. k+r

somma (1.14.4) sono invece

n k

n .

r

k

Poiché

n k

n

− − −

(n k)!n!(k + r)!(n k r)! k + r

r

k

= .

=

− − −

n k

r!(n k r)!k!(n k)!n!

k + r

scende dalle (1.14.3), (1.14.4) e (1.14.5) che

n

n−k X

X k + r j

r j−k

H = H ,

(−1)

1 = (−1)

k+r j

B k k k

r=0 j=k

dalla quale segue, considerando la speranza,

n n

X X

j j

j−k j−k

P (B ) = E(1 ) = (−1) E(H ) = (−1) S ,

k B j j

k k k

j=k j=k

che conclude la dimostrazione.

Corollario 1.14.1. Dati gli eventi , la probabilità che non si realizzi alcuno è

A , A , . . . , A

1 2 n

n

X j

P (B ) = (−1) S .

0 j

j=0

Corollario 1.14.2. Dati gli eventi , la probabilità che se ne realizzino almeno è

A , A , . . . , A k

1 2 n

n

X −

j 1

j−k (1.14.6)

· · · S .

(−1)

P (B ) + P (B ) + + P (B ) = j

k k+1 n −

k 1

j=k

Dim.

j

n n

n

n X X

X

X

X j

j j−r

j−r (−1)

(−1)

P (B ) = S

S =

r j

j r

r

j=r

r=k r=k

j=k

r=k

j

n

X X j

−r

j

(−1) S (−1)

= .

j r

j=k r=k

Ora, si ha, tenendo presente che ,

−r r

(−1) = (−1)

j

X j

r

(−1) r

r=k

j

j

j

j j−k

k · · ·

− + + (−1)

+

= (−1) j

k +2

k +1

k

− − −

j 1 j 1 j 1 j

k j−k

− · · ·

= (−1) + + + (−1)

k 1 k k j

j 1

k

= (−1) ,

k 1

CAPITOLO 1. PROBABILITÀ DISCRETE 48

vale a dire l’asserto.

Esempio 1.14.1. Ritornando all’esempio (4.3) si ha

(n j)!

jr=1

∩ ,

P A =

k(r) n!

(n−j)!

n

sicché si può calcolare . Pertanto la probabilità cercata, se è grande, è

1 −

S = = n k

j j n! j!

n n−k

X X

1

j 1

1 1 −1

j−k r '

(−1) (−1)

P (B ) = = e .

k k j! k! r! k!

r=0

j=k

La probabilità di avere almeno una coincidenza è, per grande,

n

n

n X

X − 1

1

j 1 j−1

j−1 = (−1)

(−1) j! j!

0 j=1

j=1 ∞

X 1 −1

j−1

' − '

+ 1 = 1 e 0.63212.

(−1) j!

j=0

1.15 La definizione soggettiva della probabilità

In queste lezioni abbiamo sistematicamente adottato il punto di vista assiomatico, che per ò prescinde

dal significato da attribuirsi alle probabilità. Ritornando alla domanda della sezione iniziale — Che

cos’è la probabilità? — esporrò brevemente il punto di vista soggettivo.

La definizione di probabilità, secondo F , si basa sul concetto di scommessa coerente.

DE INETTI

Per ogni si parla di scommessa di quota e di importo su un evento se versata una

p R, p S E,

somma con arbitrario, si riceve una la somma se, e solo se, si verifica Se non si

6

pS S = 0 S E. E

verifica, si perde la somma Il guadagno della scommessa su è dunque

pS. E

G(E) = (1 p)S.

E

Esplicitamente, si guadagnerà se si realizza, se non si realizza. Nulla si pu ò dire

− −pS

(1 p)S E E

a questo punto del segno del guadagno. Si intende che se è negativo in effetti si pagherà la somma

S

|S|. Una scommessa su si dice coerente se non esiste alcun valore di tale che i due guadagni

6

E S = 0

possibili legati all’alternativa sul realizzarsi di siano entrambi positivi o entrambi negativi; in altra

E

parole, una scommessa è coerente se non vi è la certezza che una delle due parti contraenti vinca

quale che sia il risultato. La coerenza richiede dunque che, per ogni sia

6

S = 0,

2

−p(1 − ≤

p)S 0,

vale a dire o, ancora,

2 − ≤ ∈

p p 0, p [0, 1].

Vi sono due casi nei quali l’esito della scommessa è scontato, se oppure se

∅,

E = E = Ω,

vale a dire quando è l’evento impossibile oppure l’evento certo nel primo caso si perde

E Ω;

certamente, nel secondo si vince certamente. In ciascuna di queste due situazioni la condizione di

coerenza richiede che i guadagni siano nulli; infatti per il guadagno è onde

∅, −pS,

E = G(∅) =

mentre se il guadagno è onde

p = 0, E = Ω, G(Ω) = (1 p)S p = 1.

Secondo la definizione di F , si dice probabilità di un evento un numero

E p = P (E)

DE INETTI

tale che sia coerente la scommessa di quota su

p E.

CAPITOLO 1. PROBABILITÀ DISCRETE 49

Questa definizione può apparire deludente, perché tutto quello che dice è che la probabilità di

un evento è un numero di Occorre, però, fissare l’attenzione non solo su ma anche su

E [0, 1]. E,

altri eventi che possono contribuire a determinare e a modificare le informazioni che su si hanno.

E

A tal fine, giova supporre che la famiglia degli eventi abbia una struttura algebrica; la pi ú naturale è

quella di algebra. Si vedrà nel seguito che supporre che la probabilità sia definita in un’algebra di

A

sottoinsiemi di non è restrittivo.

Invece di una sola scommessa sull’evento si consideri una qualunque sottoclasse finita di

E,

si considerino scommesse coerenti e simultanee sugli eventi di importi

A, {E };

, E , . . . , E n E

1 2 n j

arbitrarı̂, e differenti da zero, e di quote . Il guadagno sarà dato dalla

S , S , . . . , S p , p , . . . , p

1 2 n 1 2 n

v.a. n

X

− p S .

1

G := j j

E j

j=1

In particolare, se gli eventi costituiscono una partizione,

E , E , . . . , E

1 2 n nj=1 (1.15.1)

∩ ∅ 6 ∪

E E = (i = j), E = Ω,

i j j

la combinazione di scommesse considerate equivale ad un’unica scommessa sull’evento certo Ω.

Allora, scegliendo gli importi si ha sicché

· · · − · · ·

S = S = = S = 1, G = 1 (p + p + + p ),

1 2 n 1 2 n

la scommessa è coerente se, e solo se, (1.15.2)

· · ·

P (E ) + P (E ) + + P (E ) = 1.

1 2 n

A questo punto, potremmo definire come probabilità qualsiasi funzione da in che sod-

A

P [0, 1]

disfaccia alle proprietà e alla (1.15.2) se sono verificate le condizioni

P (∅) = 0, P (Ω) = 1

(1.15.1).

Possiamo ora dare il seguente teorema.

Teorema 1.15.1. Se e sono due eventi incompatibili (A allora

∩ ∅),

A B B = (1.15.3)

P (A B) = P (A) + P (B).

Dim. Si consideri l’evento e l’evento . Allora, la famiglia costituisce una

c c

∪ {E, }

E = A B E E

partizione, onde, per la (1.15.2), cioè

c

P (E) + P (E ) = 1, c (1.15.4)

P (E) = 1 P (E ).

Ma anche è una partizione, onde e di qui

c c

{A, }

B, E 1 = P (A) + P (B) + P (E )

c (1.15.5)

P (A) + P (B) = 1 P (E ).

Dall’eguaglianza dei secondi membri scende quella dei primi.

Alla luce dell’ultimo teorema dimostrato, la probabilità è una funzione positiva, definita su

P

un’algebra di sottoinsiemi di e finitamente additiva anziché numerabilmente additiva, com’è

A Ω

invece nella definizione di K . Si vedrà nel seguito che è sempre possibile estendere

OLMOGOROV

una probabilità finitamente additiva a la famiglia dei sottoinsiemi di

P(Ω), Ω.

Vogliamo mostrare che una valutazione coerente di probabilit à è unica. Si supponga che una

stessa persona effettui due diverse scommesse sullo stesso evento rispettivamente di quote e 0

E, p p

e di importi e , arbitrarı̂ e non nulli. I guadagni che corrispondono al realizzarsi di e di

0 c

S S E E

sono rispettivamente 0 0 se si realizza

− −

G = (1 p)S + (1 p )S E,

CAPITOLO 1. PROBABILITÀ DISCRETE 50

e 0 0 0 se non si realizza

−pS −

G = p S E.

Ora, si considerino le ultime due come due equazioni nelle incognite e , vale a dire

0

S S

( 0 0

− −

(1 p)S + (1 p )S = G

0 0

−pS − p S = G

Se fosse diverso da zero il determinante dei coefficienti, tale sistema avrebbe soluzione per ogni

coppia di valori di e di , anche entrambi positivi o entrambi negativi. Perci ò la richiesta che la

0

G G

scommessa sia coerente comporta che si annulli il determinante dei coefficienti, cio è

0

− −

1 p 1 p 0 0 0 0

−p − −

= + pp + p pp = p p .

det 0

−p −p

La coerenza impone dunque che sia 0

p = p.

È particolarmente interessante l’approccio soggettivo alle probabilit à condizionate. Sia data

un’algebra di sottoinsiemi di un insieme non vuoto e si ponga Si dice evento

A A A \ {∅}.

Ω, :=

0

condizionato con e un evento che è vero se sono veri sia sia è falso se

∈ A ∈ A

E/H E H H E,

0

è vero, mentre è falso e che, infine, è indeterminato se è falso. Per si ha

H E H H = Ω E/Ω = E.

In una scommessa condizionata su di quota e di importo si versa la somma

6

E/H, p S = 0, pS

per ricevere se si verificano sia sia si perde se si verifica ma non se non si verifica

S E H, pS H E;

la scommessa è annullata e si riprende quindi la somma versata Una scommessa condizionata

H pS.

su si dice coerente se la funzione su definita da è una probabilità

A × A 7→

E/H (E, H) P (E/H)

0

su tutte le volte che sia fissato .

A, ∈ A

H 0

Teorema 1.15.2. Se e allora

∈ A 6 ∅,

E H = (1.15.6)

P (E H) = P (E/H) P (H).

Dim. Si ponga e e si considerino due scommesse

0 00

p := P (H E), p := P (H) p := P (E/H)

simultanee: una di quota e importo su e l’altra di quota e di importo su Vale

0 0 00 00

p S H p S E/H.

la partizione di in corrispondenza del realizzarsi dei tre insiemi

c c

∪ ∩ ∪ ∩

Ω, Ω = H (H E) (H E );

della partizione si hanno rispettivamente i guadagni

0 0 0 0 00 00 0 00 0 0 00 00 0

−p −p − −p −

G = S , G = S p S + S + S , G = S p S + S .

1 2 3

Si scelgano gli importi e allora

0 00 00

S = p S = 1;

0 00 0 00 0 00

−p − −p

G = p , G = 1 p p , G = p ;

1 2 3

si ha, cosı́, un guadagno , se si realizza ed un guadagno , se si realizza

0 00 0 00

− ∩ −p

1 p p H E, p

c c c c c c c c

∪ ∩ ∪ ∩ ∪ ∪ ∩

H (H E ) = (H H) (H E ) = (H E ) = (H E) .

Perciò, le due scommesse equivalgono ad un’unica scommessa di quota sull’evento La

0 00 ∩

p p H E.

coerenza impone cosı̀ , vale a dire l’asserto.

0 00

p = p p

CAPITOLO 1. PROBABILITÀ DISCRETE 51

1.16 Esercizı̂

(1.1) Si dimostrino le seguenti relazioni:

(a) \ \ ∩ ∪ \

A B = A (A B) = (A B) B;

(b) ∩ \ ∩ \ ∩ ∩ \

A (B C) = (A B) (A C) = (A B) C;

(c) \ \ \ ∪

(A B) C = A (B C);

(d) \ \ \ ∪ ∩

A (B C) = (A B) (A C);

(e) \ ∩ \ ∩ \ ∪

(A B) (C D) = (A C) (B D);

(f) ∪ \ \ ∪ \

(A B) C = (A C) (B C).

(1.2) La differenza tra insiemi non è associativa,

\ \ 6 \ \

(A B) C = A (B C).

(1.3) Si dimostrino le seguenti relazioni:

(a) A∆∅ = A;

(b) ;

c

A∆Ω = A

(c) c

A∆A = Ω;

(d) ∅;

A∆A =

(e) ∪ \ ∩

A∆B = (A B) (A B);

(f) ;

c c

A∆B = A ∆B

(g) ∩ ∩ ∩

A (B∆C) = (A B)∆(A C);

(h) A∆B = B∆A;

(i) (A∆B)∆C = A∆(B∆C).

(1.4) Se si calcoli è invertibile questo risultato?

A B, A∆B;

(1.5) Si dimostrino le seguenti relazioni:

(a) ;

1 = 1 1

c

A A

(b) {ω ∈

A = Ω : 1 (ω) = 1};

A

(c) ;

⊂ ⇐⇒ ≤

A B 1 1

A B

(d) ;

·

1 = 1 1

A∩B A B

(e) ;

1 = 1 + 1 1

A∪B A B A∩B

(f) −

1 = 1 (1 1 );

A B

A\B

(g) 2);

− · |1 − |

1 = 1 + 1 21 1 = 1 = (1 + 1 )(mod

A∆B A B A B A B A B

(h) ;

1 = min 1

∩ A n∈N A

n n

n∈N

CAPITOLO 1. PROBABILITÀ DISCRETE 52

(i) .

1 = max 1

∪ A n∈N A

n n

n∈N

(1.6) (a) In la relazione equivale a

P(Ω) ∅.

A = B A∆B =

(b) L’equazione nell’incognita (un insieme), ove e sono assegnati sottoinsiemi

X A∆X = B, A B

di ammette sempre soluzione in e la soluzione è unica.

P(Ω)

Ω,

(1.7) Rispetto a quale delle tre operazioni la famiglia è un gruppo?

∪, ∩, P(Ω)

(1.8) ove svolge il ruolo di addizione e quello di moltiplicazione è un anello

∩) ∩

(P(Ω), ∆, ∆

commutativo con unità. Si caratterizzino gli insiemi per i quali tale anello è un dominio d’integrità.

(1.9) Sia una tribú di sottoinsiemi di e sia È allora una tribú di sottoinsiemi di

F ⊂

Ω Ω Ω.

1

, detta traccia di in , la famiglia Inoltre se è

F F {A ∩ ∈ F}. ∈ F,

Ω Ω := Ω : A Ω

1 1 1 1

F {A ∈ F ⊂ }.

= : A Ω 1

(1.10) Sia una famiglia di sottoinsiemi di che goda delle seguenti propriet à:

A Ω

(a) ∈ A;

(b) c

∈ A ∈ A;

A =⇒ A

(c.1) ∈ A ∪ ∈ A;

A , A =⇒ A A

1 2 1 2

(c.2) se per ogni e se gli insiemi della successione sono disgiunti, allora

∈ A ∈ {A }

A n N

n n

∪ ∈ A.

A

n∈N n

Allora è una tribú.

A

(1.11) Sia un insieme infinito non numerabile, cioè card(Ω) . Sia la famiglia dei

ℵ F

Ω > 0

sottoinsiemi di che sono numerabili o tali che sia numerabile il loro complementare

Ω c

card(A) oppure card(A

F {A ⊂ ≤ ℵ ≤ ℵ }

:= Ω : ) .

0 0

Allora è una tribú.

F

(1.12) Data la famiglia di sottoinsiemi di si definiscono massimo limite e minimo

{A ∈

: n N} Ω

n

limite di rispettivamente gli insiemi

{A }

n e

∩ ∪ ∪ ∩

lim sup A := A lim inf A := A .

n n∈N k≥n k n n∈N k≥n k

n→+∞

n→+∞

Si dice che la successione converge se in tal

{A } lim sup A = lim inf A = A;

n n n→+∞ n

n→+∞

caso si scrive lim A = A.

n

n→+∞

Si mostri che, se è una successione crescente, , per ogni allora

{A } ⊂ ∈

A A n N,

n n n+1

lim A = A ,

n n∈N n

n→+∞

mentre, se è decrescente, , per ogni allora

{A } ⊃ ∈

A A n N,

n n n+1 ∩

lim A = A .

n n∈N n

n→+∞

(1.13) Data la successione di insiemi se ne calcolino il massimo e il minimo

{A, },

B, A, B, . . .

limite.

CAPITOLO 1. PROBABILITÀ DISCRETE 53

(1.14) Si dia l’esempio di una successione di insiemi per la quale siano tutte strette le inclusioni

∩ ⊂ ⊂ ⊂ ∪

A lim inf A lim sup A A .

n∈N n n n n∈N n

n→+∞ n→+∞

(1.15) Si dimostrino le seguenti relazioni:

c

(a) ;

cn

(lim inf A ) = lim sup A

n→+∞ n n→+∞

c

(b) .

cn

lim sup A = lim inf A

n n→+∞

n→+∞

(1.16) Si dimostrino le seguenti relazioni:

(a) \ \

B lim inf A = lim sup (B A );

n→+∞ n n

n→+∞

(b) \ \

B lim sup A = lim inf (B A );

n n→+∞ n

n→+∞

(c) \ \

(lim sup A ) B = lim sup (A B);

n n

n→+∞ n→+∞

(d) \ \

(lim inf A ) B = lim inf (A B);

n→+∞ n n→+∞ n

(1.17) Si dimostrino le seguenti relazioni:

(a) ;

∪ ∪

lim sup (A B ) = lim sup A lim sup B

n n n n

n→+∞ n→+∞ n→+∞

(b) .

∩ ∩

lim inf (A B ) = lim inf A lim inf B

n→+∞ n n n→+∞ n n→+∞ n

(1.18) Si stabiliscano le due inclusioni che seguono e si diano esempı̂ atti a mostrare che le inclusioni

possono essere strette.

(a) ;

∩ ⊂ ∩

lim sup (A B ) lim sup A lim sup B

n n n n

n→+∞ n→+∞ n→+∞

(b) .

∪ ⊃ ∪

lim inf (A B ) lim inf A lim inf B

n→+∞ n n n→+∞ n n→+∞ n

(1.19) Una successione di insiemi disgiunti converge.

(1.20) .

cn c

→ ⇐⇒ →

A A A A

n

(1.21) e implicano

→ →

A A B B

n n

(a) ∪ → ∪

A B A B;

n n

(b) ∩ → ∩

A B A B;

n n

(c) \ → \

A B A B;

n n

(d) →

A ∆B A∆B.

n n

(1.22) Se è vero che

\ → ∅, →

A A A A?

n n

(1.23) → ⇐⇒ → ∅.

A A A ∆A

n n

(1.24) Per un’arbitraria successione d’insiemi risulta

{A }

n

e

1 = lim inf 1 1 = lim sup 1 .

lim inf A A lim sup A A

n→+∞ n n n n

n→+∞

n→+∞ n→+∞

CAPITOLO 1. PROBABILITÀ DISCRETE 54

(1.25) − ≤ ∩ ≤

max{P (A) + P (B) 1, 0} P (A B) min{P (A), P (B)}.

(1.26) |P − ≤

(A) P (B)| P (A∆B).

(1.27) Siano e eventi. Si esprima in funzione di di e di la probabilit à

A B P (A), P (B) P (A B)

che, per si verifichino

k = 0, 1, 2,

(a) esattamente dei due eventi e

k A B,

(b) almeno k,

(c) al piú k.

(1.28) Siano e eventi. Si esprima in funzione di ∩ ∩

A, B C P (A), P (B), P (C), P (A B), P (A C),

e la probabilità che, per dei tre eventi e se ne

∩ ∩ ∩

P (B C) P (A B C) k = 0, 1, 2, 3, A, B C

verifichino

(a) esattamente dei due eventi e

k A B,

(b) almeno k,

(c) al piú k.

(1.29) (Teorema multinomiale)

!

n

r X

X n k k k

=

α α α . . . α ,

1 2 r

k r

1 2

k , k , . . . , k

1 2 r

k ,k ,...,k

k=1 1 2 r

k +k +···+k =n

1 2 r

ove la somma è estesa a tutte le di interi positivi tali che

r–ple (k , k , . . . , k ) (k Z )

1 2 r j +

r

X k = n

j

j=1

e il coefficiente multinomiale è definito da

n!

n := .

k , k , . . . , k k !k ! . . . k !

1 2 r 1 2 r P n

(1.30) Se quante soluzioni con numeri naturali ha l’equazione

∈ ∈

n N, x (x N) x = n?

k k k

k=1

quante soluzioni con interi positivi quante con (con

∈ ≥ ∈

x (x Z )? x s s N)?

k k + k

(1.31) Un’urna contiene palline numerate da a Per qual è la probabilità

6 1 6. (k = 1, 2, . . . , 12),

che la somma dei numeri di due palline, estratte con o senza restituzione, sia eguale a k?

(1.32) Un’urna contiene palline numerate da a Si estraggano, con o senza restituzione, tre

10 0 9.

palline. Mettendo i numeri l’uno accanto all’altro nell’ordine nel quale sono stati estratti, si forma

un numero compreso tra e Qual è la probabilità che il numero cosı́ formato sia

0(= 000) 999.

divisibile per (Lo zero è considerato divisibile per

39? 39).

(1.33) In un gruppo di quattro persone, qual è la probabilità che almeno due di esse abbiano il

compleanno nello stesso giorno? (Nel rispondere si mettano bene in evidenza le ipotesi che si

fanno).

CAPITOLO 1. PROBABILITÀ DISCRETE 55

(1.34) (Probabilità che un dato giorno sia il 29 febbraio). Si sa che degli anni dei secoli solo quelli

divisibili per 400 sono bisestili; quindi il 2000 è stato bisestile, mentre non lo sono stati né il 1700,

né il 1800, né il 1900. In un periodo di 400 anni vi sono, allora, 97 anni bisestili, e, quindi, com-

plessivamente giorni che corrispondono ad esattamente 20871 settimane.

×

400 365 + 97 = 146097

I giorni della settimana si ripetono, dunque, ogni 400 anni; baster à, perciò, fare riferimento ad un

ciclo di 400. La probabilità di un giorno bisestile, vale a dire la probabilità di un 29 febbraio, è

p b

dunque 97 ' 0.000664 = 0.0664 %.

p =

b 146097

La probabilità di un giorno normale è 400 '

p = 0.002738 = 0.2378 %,

n 146097

che è da confrontarsi con che è la probabilità che verrebbe

'

1/365 0.002740 = 0.2740 %,

spontaneo usare nel modello piú ingenuo possibile.

(1.35) Si mescolano separatamente due mazzi di carte da gioco formati da carte ciascuno. Se si

52

gira una carta alla volta da ciascun mazzo, qual è la probabilità che coincidano le carte girate

(a) per prime,

(b) per 52–esime,

(c) sia per prime sia per 52–esime?

(1.36) Un’urna contiene palline di colori, precisamente del primo colore, del secondo

r m m

1 2

colore e cosı́ via. Si calcoli la probabilità che, estraendo, con o senza restituzione, palline ve ne

n

siano del primo colore, del secondo colore,. , dell’r–esimo colore.

k k . . k

1 2 r

(1.37) Due urne e hanno la medesima composizione; entrambe contengono palline delle

U U n

1 2

quali sono bianche. Si estragga una pallina da (senza guardarne il colore) e la si ponga in .

b U U

2 1

Qual è ora la probabilità di estrarre una pallina bianca da ?

U 1

(1.38) Si lancia una moneta per volte. Se qual è la probabilità

10 P (T ) = P (C) = 1/2,

(a) di avere testa nei primi lanci e croce nei successivi

5 5?

(b) di avere teste e croci?

5 5

(c) di avere almeno teste?

5

(d) di ottenere non piú di teste?

5

(1.39) Un’urna contiene palline bianche e colorate. Ad ogni istante si estrae una pallina, se ne

b c

nota il colore e la si rimette nell’urna insieme a palline dello stesso colore di quella estratta. Si

d

calcolino le probabilità

(a) che la seconda pallina estratta sia bianca;

(b) che la prima pallina sia bianca sapendo che la seconda pallina estratta è bianca.

(1.40) In un teatro si vendono a caso biglietti per le poltrone di una fila (n Qual è la

k n > k)).

probabilità che, in quella fila, non vi siano persone sedute l’una accanto all’altra?

CAPITOLO 1. PROBABILITÀ DISCRETE 56

(1.41) Se gli eventi sono indipendenti si ha

A , A , . . . , A

1 2 n n

Y

ni=1 ci

P (∪ A ) =1 P (A ).

i i=1

(1.42) Se gli eventi sono indipendenti e qual

A , A , . . . , A P (A ) = p (i = 1, 2, . . . , n),

1 2 n i i

è la probabilità che non se ne verifichi alcuno? Si mostri che tale probabilità è maggiorata da

P n .

− p

exp j

j=1

(1.43) Da un’urna che contiene palline bianche e nere si estraggono, con o senza restituzione,

4 2

palline. Si considerino gli eventi :=“l’i–esima pallina estratta è bianca”, estrae esatta-

4 A B:=“si

i

mente una pallina bianca nelle prime due estrazioni” e estrazioni si estraggono palline

C:=“nelle 4 2

bianche”. Allora

(a) sono indipendenti e ?

A A

1 4

(b) sono indipendenti e ?

B A 4

(c) sono indipendenti e ?

C A 4

(1.44) Si dia l’esempio di una probabilità e di tre eventi e tali che

A, B C

∩ ∩

P (A B C) = P (A)P (B)P (C)

senza che essi siano indipendenti.

(1.45) Si lancino contemporaneamente monete eguali per ognuna delle quali è la

n (n 3) p

probabilità di testa. Qual è la probabilità che una moneta mostri una faccia diversa da quella di tutte

le altre?

Se qual è la distribuzione della v.a :=numero del primo lancio nel quale si verifica

p = 1/2, T 1

la situazione della domanda precedente?

(1.46) Siano e due eventi con probabilità e entrambe in Si mostri che sono,

A B P (A) P (B), ]0, 1[.

in generale, false le relazioni

(a) c

P (A|B) + P (A|B ) = 1;

(b) c c

|B

P (A|B) + P (A ) = 1.

(1.47) Se è un evento tale che sia si dia una condizione necessaria e sufficiente

B 0 < P (B) < 1,

affinché valga la (b) dell’esercizio precedente.

(1.48) (a) Siano e eventi tali allora

A B P (A) > 0;

∩ | ∪ ≤ ∩ |

P (A B A B) P (A B A) .

(b) Siano e tre insiemi con allora

A, B C P (C) > 0;

∩ | |

P (A B) = P (A B, C) P (B C) .

(1.49) Un’urna contiene palline delle quali sono bianche; se ne estraggono in successione con

N b n,

o senza restituzione. Si calcoli, nei due casi, la probabilità condizionata se è l’evento

|

P (B A ), B

j k

è l’evento “si estraggono palline bianche”.

“la pallina estratta è bianca”, mentre k

j–esima A k

(1.50) Un’urna contiene un egual numero di palline bianche e colorate. Si estraggono con restitu-

zione due palline. Si calcolino le probabilità condizionate che entrambe le palline siano bianche

sapendo:

CAPITOLO 1. PROBABILITÀ DISCRETE 57

(a) che la prima pallina estratta è bianca;

(a) che almeno una delle due palline estratte è bianca.

Si risponda ai medesimi quesiti se l’estrazione è senza restituzione.

(1.51) Nell’estrazione senza restituzione di tre palline da un’urna che inizialmente ne contiene b

bianche e colorate, si calcoli la probabilità che la terza pallina estratta sia bianca.

c

(1.52) Si mostrino le diseguaglianze

(a) ≤

P (A∆C) P (A∆B) + P (B∆C);

(b) ∪ ∪ ≤

P [(A B)∆(C D)] P (A∆C) + P (B∆D).

(1.53) Al momento della nascita vi è probabilità che il neonato sia maschio. Qual è la probabi-

0.51

lità che una famiglia con figli abbia

4

(a) esattamente un maschio?

(b) esattamente una femmina?

(c) almeno un maschio?

(d) almeno una femmina?

(1.54) Nelle condizioni dell’esercizio precedente qual è il numero minimo di figli che una coppia

deve avere perché sia maggiore di la probabilità di avere almeno due maschi?

0.75

(1.55) In una famiglia con figli, qual è la probabilità condizionata che tutti i figli siano maschi se

4

(a) il primo figlio è maschio?

(b) se almeno uno dei figli è maschio?

(1.56) Due squadre giocano una serie di partite; vince il torneo la squadra che per prima vince quattro

partite. Nessuna partita può terminare in pareggio. Se la squadra ha probabilità (con ∈]0,

S p p 1[)

1

di vincere, si calcoli la probabilità che il torneo termini in o partite per (a) (b)

4, 5, 6 7 p = 2/3,

Nei due casi si calcoli anche la lunghezza media del torneo.

p = 1/2.

(1.57) Quante volte si deve lanciare una moneta con perch é sia almeno

P (T ) = P (C) = 1/2, 0.9

la probabilità che il rapporto tra il numero delle teste e quello dei lanci sia compreso tra e

0.4 0.6?

(1.58) Si controlli che effettivamente la distribuzione geometrica ha speranza finita.

(1.59) Si dimostri la seguente identità

k

X −

i n i

n ∈

(n N; i, k = 0, 1, . . . , n).

= −

r k r

k r=0

(1.60) Per la distribuzione ipergeometrica si ha effettivamente

n

X p = 1.

k

k=0

CAPITOLO 1. PROBABILITÀ DISCRETE 58

Si calcolino speranza e varianza di tale distribuzione.

(1.61) Per la distribuzione binomiale negativa si mostri che

X p = 1,

k

k∈Z +

e se ne calcolino speranza e varianza.

(1.62) La distribuzione di P è effettivamente una distribuzione di probabilità. Se ne calcoli la

ASCAL

speranza.

(1.63) In un processo di B sullo spazio di probabilità con

{X } F,

(Ω, P ), P (X =

ERNOULLI n 1

siano e gli istanti del primo e del secondo successo, rispettivamente. Si calcoli la

1) = p, T T

1 2

probabilità di sapendo che

{T {T

= k} = n}.

1 2

(1.64) Si calcoli la costante in modo che

λ n ∈

p = λ q /n (q ]0, 1[)

n

(n sia una distribuzione di probabilità (distribuzione logaritmica). Si calcolino speranza e

∈ N)

varianza della distribuzione logaritmica.

(1.65) In un processo di B sullo spazio di probabilità con

{X } F,

(Ω, P ), P (X = 1) =

ERNOULLI n 1

si calcoli la probabilità condizionata di avere un successo all’i–esima prova

p, (i = 1, 2, . . . , n)

sapendo che in prove si hanno successi, cioè |

n k P (X = 1 S = k).

i n

(1.66) In un processo di B sullo spazio di probabilità con

{X } F,

(Ω, P ), P (X = 1) =

ERNOULLI n 1

si calcoli

p, (a) per la probabilità (condizionata) di avere esattamente successi se si è

k = 0, 1, . . . , n, m + k

avuto un successo in ognuna delle prime prove, cioè |

m P (S = m + k S = m);

m+n m

(b) la probabilità (condizionata) di avere successi se nella serie di prove si sono

m + k m + n

ottenuti almeno successi cioè ≥

m P (S = m + k|S m).

m+n m+n

(1.67) (a) Per assegnati valori di e di si studii il comportamento dei termini della

∈ ∈

n N p ]0, 1[,

legge binomiale al variare di in {k

b(k; n, p) k = 0, 1, . . . , n};

(b) perché risulti occorre e basta che sia un numero naturale,

b(k; n, p) = b(k + 1; n, p), (n + 1)p

cioè ∈

(n + 1)p N.;

(c) per assegnati valori di in e di in si cerchi il massimo di al variare di (con

k N p ]0, 1[, b(k; n, p) n

n k).

(1.68) Siano date nel medesimo spazio di probabilità due v.a e , indipendenti ed

F,

(Ω, P ) X Y

entrambe di legge geometrica, rispettivamente di parametro e . Si determini la legge della v.a

p p

1 2

∨ }.

Z := X Y = max{X, Y

(1.69) Sia una v.a binomiale di parametro Quale che sia è

S p. b > 0,

n ≤

lim P (S b) = 0.

n

n→+∞

(1.70) Si calcoli la probabilità che una v.a binomiale di parametro assuma valore pari. Si mostri

S p

n

che, quale che sia tale probabilità tende a al tendere di a

p ]0, 1[, 1/2 n +∞.

CAPITOLO 1. PROBABILITÀ DISCRETE 59

(1.71) Se è una v.a geometrica di parametro si calcoli

X p E(1/X).

(1.72) Si calcoli la speranza − −

E [X (X 1) . . . (X k + 1)]

nei due casi:

(a) è una v.a con legge di P di parametro ∼ P(λ);

X λ, X

OISSON

(b) è una v.a geometrica di parametro

X p.

(1.73) Qual è l’andamento delle probabilità nella distribuzione di P al variare di in ?

p n Z

OISSON

n +

(λ è fissato).

> 0

(1.74) Se è una v.a con legge di P di parametro con numero naturale, si

X λ, λ λ N,

OISSON

calcoli −

E (|X λ|).

(1.75) Sullo spazio di probabilità si consideri un processo di B e si

F, {X }

(Ω, P ), ERNOULLI n

calcoli la probabilità che il primo successo avvenga ad un istante dispari.

Si mostri, inoltre, se che per ogni si pu ò trovare un sottoinsieme

∈ ⊂

p = 1/2, x [0, 1] J N

x

tale che sia eguale a la probabilità che il primo successo avvenga in un tempo che appartiene a ;

x J x

in simboli ∀ ∈ ∃J ⊂ ∈

x [0, 1] N P (T J ) = x.

x 1 x

(1.76) Sullo stesso spazio di probabilità si considerino due processi di B in-

F,

(Ω, P ) ERNOULLI

i tempi del primo

e

di parametri e rispettivamente. Siano

e

dipendenti 00

0

00

0 }

} {X

{X p p T T

1 2 1

1

n

n e si determini la legge di

successo nei due processi. Si calcoli la probabilità dell’evento 00

0 }

{T < T 1

1

condizionata da questo, vale a dire si calcolino, per le probabilit à

0 ∈

T k N,

1 0 0 00

|

P (T = k T < T ) .

1 1 1

(1.77) Sullo spazio di probabilità si consideri un processo di B si calcoli

F, {X }

(Ω, P ) ERNOULLI n

la probabilità condizionata di avere fallimenti prima di avere successi, subordinatamente al

k n

sapere che vi sono successi prima di avere successi.

0

k n + 1

(1.78) Un giocatore lancia volte una moneta con probabilità di ottenere testa. Tutte le volte che

n p

ottiene testa, un secondo giocatore lancia una moneta identica alla prima.

(a) Si costruiscano due v.a e che diano rispettivamente il numero di teste ed il numero di

U V

croci ottenute dal secondo giocatore;

(b) si determinino le leggi di e di ;

U V

(c) sono indipendenti e ?

U V

(1.79) (a) Si consideri un processo di B di parametro e, sullo stesso spazio

{X } p

ERNOULLI n

di probabilità la v.a indipendente da quelle della successione ha legge di

F, {X }.

(Ω, P ) N N

n

P n per e si determinino le leggi

P di parametro Si ponga ∈

X n N S = 0,

λ. S :=

OISSON i 0

n i=1

delle v.a. X S 1

S := n

N {N =n}

n∈Z +

che dà il numero di successi nelle prove e della v.a che conta il numero dei

N R := N S

N N

fallimenti nelle stesse prove.

N

CAPITOLO 1. PROBABILITÀ DISCRETE 60

(b) Le v.a e sono indipendenti.

S R

N N

(1.80) (Il paradosso delle due buste). Ci è chiesto di scegliere una busta tra due, sapendo che una del-

le due buste contiene il doppio del denaro dell’altra. Nella busta scelta vi sono 100 euro. Avendone

la possibilià, conviene lasciare quella busta e scegliere invece l’altra?

La risposta è apparentemente affermativa: infatti il guadagno medio provocato dal cambio è,

poiché l’altra busta può contenere 50 o 200 euro,

12 1

− −

50 + 100 = 50 25 = 25 > 0

2

dunque positivo.

Una risposta piú precisa. Vi sono due buste e la prima contiene dollari, la seconda A

A B; x 2x.

noi è incognito il valore di Si indichi con la probabilità che in vi siano dollari. Si scelga

x. p A x

x

ora una busta, che sarà con probabilità e si guardi il suo contenuto. Sia la v.a che indica

A 1/2 X

questo numero e si denoti con la probabilità condizionata che si sia scelta la busta

q P (A|X = x)

x

avendo osservato che Allora

A X = x. ∩ {X p

P (A = x}) x

| = .

P (A X = x) = P (X = x) P (X = x)

Ora ∩ {X ∩ {X

P (X = x) = P (A = x}) + P (B = x}) = p + p .

x x/2

Perciò p x

q = .

x p + p

x x/2

Allora il valore medio del denaro contenuto nell’altra busta è

1 −

x(1 q ).

e = 2xq + x

x 2

Si studii la diseguaglianza vale a dire che dà come soluzione

1 −

e > x, 2xq + x(1 q ) > x,

x x

2

.

1 p

p >

x x/2

2

La risposta in effetti dipende dai parametri e : poiché questi non sono dati, non esiste

p p

x x/2

una risposta “corretta”. Si veda a questo proposito L (1994).

INZER

(1.81) Una particella può muoversi lungo una retta occupando le posizioni con coordinate intere. Ad

ogni istante la particella si muove a destra o a sinistra secondo che il lancio di una moneta dia testa

o croce Se qual è la probabilità che al tempo la particella

(T ) (C). P (T ) = P (C) = 1/2, t = 10

sia

(a) al punto di partenza (l’origine delle coordinate)?

(b) al piú a distanza dall’origine?

1

(c) a distanza dall’origine?

2

Si risponda alle stesse domande se P (T ) = 0.51.

(1.82) Con riferimento all’esercizio precedente, si supponga che in corrispondenza del risultato C

la particella non si muova.

(a) Qual è la probabilità che al tempo la particella si trovi in

P (k) t = n x = k?

n

(b) Si mostri che ove e

− −

P (k) = p P (k 1) + q P (k), P (T ) = p P (C) = q := 1 p.

n n−1 n−1

(c) Qual è la probabilità che la particella si trovi alla destra del punto al tempo o al

x = 2 t = 3

tempo t = 4?

(d) Qual è la speranza della posizione della particella al tempo t = 3?

CAPITOLO 1. PROBABILITÀ DISCRETE 61

(e) Se qual è la posizione nella quale la particella ha maggior probabilit à di trovarsi

p = q = 1/2,

al tempo t = 4?

(1.83) Siano assegnate due urne e esteriormente indistinguibili. contiene palline bianche

U U U b

1 2 1 1

e palline colorate, mentre ne contiene rispettivamente e . Si scelga a caso un’urna e da

c U b c

1 2 2 2

questa si estragga con restituzione una successione di palline. Sia la successione di v.a che

{X }

n

dà il risultato dell’n–esima estrazione, in altre parole se all’n–esima estrazione si è estratta

X = 1

n

una pallina bianca, se si è estratta una pallina colorata.

X = 0

n

(a) sono indipendenti le v.a ?

X n

(b) si supponga e se la prima pallina estratta è bianca mentre

b = 2, c = 4, b = 5 c = 1;

1 1 2 2

la seconda è colorata, qual è la probabilità che le palline sia state estratte dall’urna ? e

U 1

dall’urna ?

U 2

(1.84) La Legge dei grandi numeri di B pu ò essere estesa al caso di una successione

ERNOULLI

di v.a indipendenti e isonome a valori nell’insieme finito nel caso delle

{X } {s };

S := , s , . . . , s

n 1 2 r

v.a di B è e oppure Si ponga

{s, } {0,

r = 2 S = f S = 1}. p := P (X = s ),

ERNOULLI j n j

probabilità che non dipende da perché le v.a della successione hanno tutte la stessa distribuzione,

n

e si considerino le v.a. n

X

(n)

N := 1 ,

{X }

=s

j j

k

k=1

ciascuna delle quali conta quante volte le prime v.a della successione abbiano assunto il valore ,

n s j

(n)

sicché rappresenta la frequenza del risultato nelle prime prove. Allora, per ogni

N /n s n > 0,

j

j

vale  )

( (n)

r

[ N j

 

− ≥

lim P = 0.

p

j

n

n→∞ j=1

(1.85) Se designa una curva regolare del piano complesso che contenga al suo interno l’origine,

C

si mostri l’eguaglianza Z Z

2 n n

1 1

(1 + z ) (1 + u)

dz = du,

2k+1 k+1

2πi z 2πi u

C C

e la si usi per stabilire la relazione

Z 2 n n

1 (1 + z ) dz = .

2k+1

2πi z k

C

Quest’ultima relazione si trova usata, senza commento né derivazione, in nel famoso articolo K AC

(1956).

(1.86) (Le scatole di fiammiferi di B ) Un matematico distratto, B , teneva una scatola

ANACH ANACH

di fiammiferi in ciascuna delle due tasche della giacca e quando aveva bisogno di accendere la

pipa sceglieva a caso la scatola da una delle due tasche. Se ciascuna delle due scatole inizialmente

contiene fiammiferi, si calcoli la probabilità

N

(a) che, quando B si accorge che una scatola è vuota, l’altra contenga fiammiferi;

p j

ANACH

j

(b) che, quando una scatola è vuota, l’altra contenga fiammiferi;

q j

j

(c) che la scatola che per prima è stata trovata vuota non sia stata la prima a svuotarsi.

CAPITOLO 1. PROBABILITÀ DISCRETE 62

(1.87) Si consideri un poligono convesso con lati, ove è una v.a con legge

N N

1 ≥

(n 3).

P (N = n) = n−2

2

Si calcolino e la speranza del numero delle diagonali del poligono considerato.

E(N ) E(D)

(1.88) Siano e due v.a isonome ed indipendenti tali che

X Y 1 ∈

P (X = n) = P (Y = n) = (n N)

n

2

Si calcolino:

(a) ∧ ≤

P (X Y n);

(b) P (X = Y );

(c) P (Y > X);

(d) divide

P (X Y );

(e) con

≥ ∈

P (X k Y ) k N.

(1.89) Un’urna contiene inizialmente palline bianche e palline colorate (b, Si estrae a

6

b c c = 0).

caso una pallina: se questa è colorata, non si effettuano piú estrazioni, se invece è bianca la si rimette

nell’urna insieme ad un’altra pallina bianca e si procede ad una nuova estrazione con le medesime

regole. Si indichi con la v.a. che conta il numero di estrazioni fino all’estrazione della prima

N

pallina colorata.

(a) Se si mostri che è finito e se ne calcoli il valore;

c > 1, E(N )

(b) se si mostri che

c = 1, E(N ) = +∞. 105,

(Esercizio adattato dal Problema 10504 in Amer. Math. Monthly 181–182

(1.90) In uno spazio di probabilità se le probabilità e sono entrambe in

F,

(Ω, P ), P (A) P (B) ]0, 1[

sono equivalenti le affermazioni:

(a) e sono a due a due indipendenti;

A, B A∆B

(b) .

1

P (A) = P (B) = 2 P (A B) = 2

(1.91) La seguente proprietà caratterizza la distribuzione geometrica: se e sono v.a discrete,

X Y

non sono costanti e sono indipendenti e se e sono indipendenti allora

∧ −

U := X Y V := X Y X

e hanno legge geometrica.

Y

(1.92) Siano e due v.a discrete e sia la loro densit à congiunta,

X Y p(x, y) := P (X = x, Y = y)

dove e assumono valori in due insiemi finiti o numerabili.

x y

(a) Si mostri che la somma ha densità data

X + Y X −

p(x, z x).

q(z) = x

(b) Se le v.a e sono, inoltre, indipendenti ed hanno entrambe legge di P di parametri

X Y OISSON

e rispettivamente, anche la somma ha legge di Poisson.

µ > 0 ν > 0 X + Y


PAGINE

107

PESO

658.23 KB

AUTORE

luca d.

PUBBLICATO

+1 anno fa


DETTAGLI
Esame: Matematica
Corso di laurea: Corso di laurea in matematica
SSD:
A.A.: 2005-2006

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher luca d. di informazioni apprese con la frequenza delle lezioni di Matematica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Roma Tre - Uniroma3 o del prof De Giorgi Ennio.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in matematica

Algebra - Schema studio di funzione
Appunto
Tesi - Studio dei polinomi di quinto grado
Tesi