Che materia stai cercando?

Matematica - Introduzione alla Probabilità Appunti scolastici Premium

Appunti di Matematica sulla probabilità. Nello specifico gli argomenti trattati sono: probabilita` discrete, che cos'e`la probabilita`? Operazioni sugli insiemi, la definizione di probabilita`, alcuni problemi d’urna, variabili aleatorie assolutamente continue, l'estensione al caso continuo.

Esame di Matematica docente Prof. E. De Giorgi

Anteprima

ESTRATTO DOCUMENTO

CAPITOLO 1. PROBABILITÀ DISCRETE 29

Esempio 1.10.2. (Il paradosso delle urne). Due urne contengono, entrambe, palline bianche e

palline nere. Si estraggano due palline seguendo una delle due strategie:

(a) si sceglie a caso un’urna, si estrae una pallina che quindi si reintroduce nell’urna dalla quale

è stata estratta, si sceglie di nuovo a caso un’urna dalla quale si estrae un’altra pallina;

(b) si procede come nella strategia (a), per la scelta della prima pallina, la si reintroduce nell’urna,

ma si estrae la seconda pallina dalla stessa urna.

Con quale delle due strategie è maggiore la probabilità di estrarre due palline bianche?

Siano e il numero delle palline bianche e quello delle palline nere, rispettivamente, nella

0 0

b n

prima urna e e i corrispondenti numeri per la seconda urna. Perci ò la probabilità di estrarre

00 00

b n

una pallina bianca è per la prima urna e per la seconda. La

0 0 0 0 00 00 00 00

p = b /(b + n ) p = b /(b + n )

probabilità che la prima pallina estratta sia bianca è dunque, in entrambe le strategie 0

p = (p +

1

Poiché in entrambe le strategie le due estrazioni sono indipendenti, la probabilit à di estrarre

00

p )/2.

due palline bianche è, con la strategia (a),

2

1 1

0 00

p = p + p

a 2 2

e, con la seconda strategia, 1 1

2 2

0 00

p = p + p .

b 2 2

Ora

2

1 1 1

1

2 2

0 00 0 00

− −

p p = p + p p + p

b a 2 2 2 2

1 1 1

1 2 2 2

0 00 0 00 0 00

− −

p + p p p = (p p ) ,

= 4 4 2 4

sicché la strategia (b) è preferibile. Si osservi che se si ha e che la strategia (b) è

0 00

6

p = p p > p

b a

preferibile quale che sia la composizione delle urne (che pu ò essere incognita).

Esempio 1.10.3. (Il raccoglitore di figurine). Un bambino vuole riempire un album con figurine.

N

Se le figurine si comprano una alla volta, quante figurine dovrà comprare in media per completare

l’album?

Si supporrà che le figurine siano poste in vendita ad una ad una e in maniera casuale. La prima

figurina acquistata troverà senz’altro posto nell’album. La seconda figurina che si compra sar à

collocata nell’album se è differente dalla prima, cioè se è una delle figurine non ancora

N 1

collocate nell’album. La probabilità che la seconda figurina acquistata non sia già posseduta è

. Pertanto, ricordando i risultati riguardanti la distribuzione geometrica, e tenendo

p = (N 1)/N

2

presente che, se per contare il tempo, si usano gli acquisti delle figurine, occorre acquistare in

media figurine prima di collocare la seconda figurina; per sistemare la terza,

1/p = N/(N 1)

2

bisognerà comprarne e cosı́ via. In generale per collocare la figurina

1/p = N/(N 2) r–esima

3

sarà necessario acquistare figurine. Perci ò, il numero medio di acquisti necessarı̂

N/(N r + 1) e N

per completare l’album è

N N N 1 1 1

··· ···

e = 1 + .

+ + + = N 1 + + + +

N − −

N 1 N 2 1 2 3 N

Si riconosce facilmente che l’espressione tra parentesi è la somma parziale –esima, della serie

N s N

armonica che, notoriamente, diverge. Si ha, a titolo d’esempio,

e = 29.29, e = 71.95, e = 171.14,

10 20 40

e = 518.74, e = 2178.59.

100 340

CAPITOLO 1. PROBABILITÀ DISCRETE 30

Si voglia ora stabilire quante figurine vi saranno in un secondo album, identico al primo, se nel

secondo si raccolgono solo le figurine non utilizzate per il primo: in altre parole, il bimbo di prima

passa i “doppioni” al fratellino minore.

Si possono trascurare le figurine che non servono per alcuno dei due album, perch é già presenti

in entrambi. È comodo rispondere alla domanda preliminare: quante figurine conterr à il secondo

album quando il primo ne contiene Per la risposta alla domanda originale baster à porre .

r? r = N

Una figurina sarà collocata nel secondo album solo se è una delle prime figurine; ciò accade

α r 1

è l’evento “si colloca la figurina Nel

ove

con probabilità − α”.

], A

(r 1)/N = P (A ) = E [1 1

1 A 1

secondo album si collocherà la seconda figurina se essa è stata già collocata nel primo album e se

β

è uno dei primi acquisti, ciò che accade con probabilità − −

− ] = (r 2)/(N 1),

r 2 P (A ) = E [1

2 A 2

perché la figurina è già stata sistemata e perciò le figurine candidate ad essere sistemate sono

α

Si proceda in questo modo sino alla figurina, perch é ci si ferma quando nel

− −

N 1. (r 1)–esima

primo album sono state inserite figurine; l’r–esima figurina non è quindi disponibile per il secondo

r

album. Il numero di figurine presenti nel secondo album quando il primo ne contiene si pu ò

n r

r

scrivere, con ovvio significato dei simboli:

· · ·

+ + 1

+ 1

n = E 1 A

A

r A r−1

2

1 −

− r 2 1

r 1 ···

+ + +

= − −

N N 1 N r +2

− − − − −

N (N r + 1) (N 1) (N r + 1) ···

= + + +

N N 1

− − −

(N r + 2) (N r + 1)

+ −

N r +2

1 1

1 ···

− − − + + +

= (r 1) (N r + 1) − −

N N 1 N r +2

1 1 1

− − ···

= r (N r + 1) .

+ + +

− −

N N 1 N r +1

La risposta alla domanda originale si ha ponendo :

r = N

1 1 1

− −

· · ·

n = N 1 + = N s .

+ + +

N N

2 3 N

Si ha, per esempio, Si osservi che come si vede usando il

n = 94.813. lim n /N = 1,

→+∞

100 N N

teorema di C .

ES ÀRO

Esempio 1.10.4. (Estrazioni senza restituzione). Riprendendo in esame la situazione dell’esempio

1.4.1, vogliamo dimostrare un risultato dovuto a P .

OISSON

Se un’urna contiene palline bianche e colorate, vogliamo calcolare la probabilit à che l’n–

b c

esima pallina estratta sia bianca.

Supponiamo, dapprima, che sia Sia la v.a. che dà il risultato dell’n–esima

n b + c. X n

estrazione: è l’evento “estrazione di una pallina bianca all’n–esima estrazione”. La

{X = 1}

n P k

domanda che ci siamo posti è allora: qual è la probabilità Se, al solito,

P (X = 1)? S = X

n k i

i=1

rappresenta il numero di palline bianche tra le prime estratte, si pu ò ricorrere al teorema delle

k

CAPITOLO 1. PROBABILITÀ DISCRETE 31

probabilità totali e scrivere b

X

P (X = 1) = P (X = 1|S = j) P (S = j)

n n n−1 n−1

j=0

c

b

b

X −

− − b j

n 1 j

j

= −

b + c b + c n +1

j=0 −

n 1

− n 1

b + c n

n 1

b + c n b−1

b X

X − −

− − j

b j 1

j

b j 1

=

= b + c b + c

j=0

j=0 b b

b−1

X −

− n 1

b + c n

1

= − −

b + c j

b j 1

j=0

b

b + c 1 −

− b

b! c!

(b + c 1)!

b 1

= = .

= −

b + c (b 1)! c! (b + c)! b + c

b

Qui abbiamo usato un’identità tra i coefficienti binomiali che è lasciata come esercizio.

Si osservi che che è la probabilità che la prima pallina estratta sia

P (X = 1) = P (X = 1),

n 1

bianca.

Se allora perché dopo le prime estrazioni l’urna è vuota.

n > b + c, P (X = 1) = 0, b + c

n

1.11 Passeggiata aleatoria di Bernoulli

In una serie di prove Bernoulliane indipendenti, o, con dizione equivalente, in processo di B -

ER

, si considerino, accanto alle v.a. che assumono i valori con probabilità

X (n N) 1

NOULLI n

e con probabilità anche le v.a. che assumono i valori

∈ − −

p [0, 1] 0 q = 1 p, Y := 2 X 1 1

n n

P n

e rispettivamente con probabilità e e le v.a. ove, al solito,

−1 −

p q, G := Y = 2 S n,

k n

n

P k=1

n .

S := X

n k

k=1

Si può interpretare nella maniera che segue, e che giustifica il nome di passeggiata aleatoria.

G n

Ad ogni istante, si lancia una moneta che ha probabilità di dare come risultato testa; si conviene

p

che, a partire da una posizione prefissata assunta come origine, una pallina si sposti di un passo, nel

verso positivo di una retta orientata se il risultato del lancio è testa, nel verso negativo se il risultato

è croce. La v.a. dice se all’n–esimo lancio la pallina si sposta nel verso positivo (Y oppure

Y = 1)

n n

nel verso negativo (Y mentre la v.a. dà la posizione della pallina al tempo (ov-

−1),

= G t = n

n n

viamente sia i tempi sia le posizioni possono assumere solo valori interi). È possibile anche un’altra

interpretazione di ; ad ogni istante, si punta una posta unitaria in una gioco d’azzardo nel quale

G n

all’n–esima giocata si vince (Y con probabilità o si perde (Y con probabilità in

−1)

= 1) p = q;

n n

questa interpretazione, rappresenta il “guadagno” complessivo sino al tempo Rifacendosi

G t = n.

n

all’interpretazione della passeggiata aleatoria, riportando in ascissa i tempi (o, ci ò che è lo stesso, i

numeri d’ordine dei lanci della moneta) e in ordinata le posizioni della pallina e unendo i punti, si

ottiene un grafico costituito da una spezzata.

Ogni grafico di questo tipo rappresenta una possibile traiettoria della passeggiata aleatoria. Le

v.a. , , e sono definite sullo spazio se è fissato o in ; in

N

n

{0, {0,

X Y S G Ω = 1} n Ω = 1}

n n n n

quest’ultimo caso si presentano problemi tecnici, che per ò non causeranno difficoltà di calcolo.

CAPITOLO 1. PROBABILITÀ DISCRETE 32

È facile calcolare la legge di . La probabilità che la pallina occupi la posizione

G P (G = k)

n n

di ascissa al tempo è se altrimenti è

|k|

x = k t = n 0, > n,

n

n + k (n+k)/2 (n−k)/2 (1.11.1)

− =

P (G = k) = P (2 S n = k) = P S = p q ,

n + k

n n n 2 2

se e hanno la stessa parità, vale a dire se e sono entrambi pari o entrambi dispari; in caso

n k n k

contrario Infatti, ci si convince rapidamente che la pallina non pu ò occupare una

P (G = k) = 0.

n

posizione pari in un tempo dispari o viceversa. Per esempio, perché per trovarsi

P (G = 0) = 0

2n+1

nell’origine la pallina deve aver compiuto un egual numero di passi nel verso positivo e nel verso

negativo, ciò che è possibile solo in un numero pari di passi. Vale la relazione ricorsiva (1.11.2)

P (G = k) = p P (G = k 1) + q P (G = k + 1),

n n−1 n−1

che si giustifica facilmente attraverso il teorema delle probabilit à totali, considerando che la pallina

può essere nella posizione al tempo solo se al tempo era in

− −

x = k t = n t = n 1 x = k 1

e all’n–esimo passo si muove nel verso positivo, con probabilità oppure se era in e

p, x = k + 1

all’n–esimo passo si muove nel verso negativo, con probabilità La dimostrazione formale della

q.

(1.11.2) è lasciata per esercizio.

La (1.11.1) si può scrivere in forma piú semplice, ponendo

e (1.11.3)

n = α + β k = α β;

qui, rappresenta il numero di passi nel verso positivo e quello nel verso negativo. Allora,

α β

α + β α β (1.11.4)

p q .

P (G = k) =

n α

Prima di procedere con la passeggiata aleatoria di B simmetrica, vale a dire, con p = q =

ERNOULLI

introduciamo, nella sua forma piú semplice, il principio di riflessione.

1/2,

Siano e due punti di una traiettoria che rappresenta la passeggiata aleatoria simmetrica e

A B

se ne considerino le coordinate, e con e

A = (m, j) B = (n, k), n > m 0 k > 0, j > 0.

Supponiamo qui che i due punti considerati e giacciano nello stesso semipiano (quello delle

A B

ascisse positive). Si consideri il punto simmetrico di rispetto all’asse dei tempi.

0 −j),

A = (m, A t

Il principio di riflessione consiste nell’affermazione che le traiettorie che passano per e per e

A B

che hanno un punto in comune con l’asse dei tempi sono tante quante sono le traiettorie che passano

per e per

0

A B.

Infatti, si consideri una traiettoria che unisce a e che abbia un punto in comune con l’asse

A B

dei tempi. Sia il primo, in ordine di tempo, dei punti che tale traiettoria ha in comune con l’asse

C t.

Si prenda in esame la traiettoria ottenuta riflettendo, rispetto all’asse la parte della traiettoria che

t,

unisce a questa passa necessariamente per e per Alla traiettoria si fa corrispondere

0

A C; A C. ACB

la traiettoria Viceversa, ogni traiettoria che unisce a ha necessariamente un punto in

0 0

A CB. A B

comune con l’asse dei tempi, poiché e giacciono da bande opposte rispetto a tale asse; sia

0

A B C

il primo di tali punti. Riflettendo, attorno all’asse la parte di traiettoria tra e si ottiene una

0

t, A C,

traiettoria che unisce a e che ha un punto in comune con l’asse dei tempi. Esiste, dunque,

ACB A B

una corrispondenza biunivoca tra i due tipi di traiettoria considerati.

Si osservi che, tenendo conto delle (1.11.3) e (1.11.4), si pu ò scrivere il numero di

N (n, k)

traiettorie che uniscono l’origine con il punto nella forma

(n, k)

n α + β (1.11.5)

= .

N (n, k) = n + k α

2

CAPITOLO 1. PROBABILITÀ DISCRETE 33

Lemma 1.11.1. In una passeggiata aleatoria simmetrica, posto eguale a il numero di

N (n, k)

cammini che uniscono l’origine al punto ove e vi sono esattamente

(n, k), n > 0 k > 0,

k N (n, k)

n

traiettorie dall’origine al punto che non hanno punti in comune con l’asse dei tempi tranne

(n, k)

che nell’origine, vale a dire, le traiettorie per le quali si ha G > 0, G > 0, . . . , G > 0.

1 2 n−1

Dim. Le traiettorie che interessano passano tutte per il punto le traiettorie da a

(1, 1); (1, 1) (n, k)

sono in numero di A tale numero deve essere sottratto quello delle traiettorie che

− −

N (n 1, k 1).

passano per e che hanno almeno un punto in comune con l’asse dei tempi. Per il principio di

(1, 1)

riflessione, quest’ultime traiettorie sono tante quante sono le traiettorie da a che sono

−1)

(1, (n, k),

Il numero delle traiettorie con le proprietà specificate è, perciò, ricorrendo alla

N (n 1, k + 1).

(1.11.5),

− − − −

N (n 1, k 1) N (n 1, k + 1)

− k

α β

α + β

α + β 1

α + β 1 − = N (n, k),

=

= − α + β n

α

α

α 1

sicché l’asserto è provato.

Sia ora un numero naturale e si consideri la v.a.

j {n ∈ ∪ {+∞}

T := inf N : G = j} ,

j n

che rappresenta il tempo di primo passaggio per la posizione cio è il primo istante nel quale il

x = j,

processo si trova in Useremo il principio di riflessione per calcolare la probabilit à

x = j. P (T = n);

j

si considerino gli eventi n−1

∪ ∩ {G

E (k) := ({G = k} = j})

n,j n s

s=1

(=“il processo è in al tempo ed è già passato per la posizione in un istante

x = k t = n x = j

precedente Ogni traiettoria nell’insieme tocca il livello per una prima volta.

t = n”). E (k) x = j

n,j

In Fig. 11.1 è riportato l’esempio di una traiettoria in E (k).

n,j

Fig. 11.1

Per ogni traiettoria in con si consideri quella che si ottiene riflettendo, attorno

E (k), k < j,

n,j

alla retta il tratto sino al primo istante nel quale essa tocca la retta Si ottiene cosı́ una

x = j, x = j.

traiettoria da a

(0, 2j) (n, k).

CAPITOLO 1. PROBABILITÀ DISCRETE 34

Viceversa, poiché ogni traiettoria che unisca questi due punti attraversa la retta si stabili-

x = j,

sce una corrispondenza biunivoca tra e le traiettorie da a Si porti, mediante

E (k) (0, 2j) (n, k).

n,j

una traslazione, l’origine degli assi in e si consideri una nuova passeggiata aleatoria di B -

(0, 2j) ER

con (passeggiata simmetrica). La v.a. che dà la posizione in questa seconda

p = q = 1/2

NOULLI

passeggiata aleatoria sarà indicata con . Nel nuovo riferimento, il punto ha coordinate

0

G (n, k)

n

perciò

(n, k 2j);

n

0 −n (1.11.6)

P [E (k)] = P (G = k 2j) = 2 .

n + k

n,j n − j

2

Per calcolare si osservi che vale la relazione tra insiemi

P (T = n),

j

{T {G − \ − ∩ {g

= n} = = j 1} E (j 1) = 1}

j n−1 n−1,j n

che si interpreta facilmente: il processo si trova nella posizione al tempo non

− −

x = j 1 t = n 1,

è mai passato per negli istanti precedenti e, inoltre, al tempo compie un passo nel verso

x = j t = n

positivo andando in Risulta, perciò,

x = j.

{G − \ −

P (T = n) = P = j 1} E (j 1) P (g = 1)

j n−1 n−1,j n

1 {G − \ −

= P = j 1} E (j 1) .

n−1 n−1,j

2

Dimostreremo che la distribuzione dei tempi di primo passaggio è data da

n

j (1.11.7)

.

P (T = n) = n + j

j n

n2 2

Infatti, poiché è contenuto in la (1.11.6) dà:

− {G −

E (j 1) = j 1}

n−1,j n−1

{G − \ −

P = j 1} E (j 1)

n−1 n−1,j

− − −

= P ({G = j 1}) P (E (j 1))

n−1 n−1,j

− −

n 1 n 1

−(n−1) −(n−1)

= 2 2

n + j n + j

− − −

1 1 j

2 2 

− n 1

n 1 

−(n−1) −

= 2 −

n j

n + j − −

1 1

2 2 

− n 1

n 1 

−(n−1) −

= 2 n + j

n + j − 1

2 2

(n 1)! 1 1 −(n−1)

= 2

n j n + j

n j

n + j − −

1 ! 1 ! 2 2

2 2

n

− j

(n 1)!j −(n−1) −(n−1)

2 = 2 ,

= n + j

n + j n j n

! ! 2

2 2

Affrontiamo ora il problema del tempo del primo ritorno nell’origine.

CAPITOLO 1. PROBABILITÀ DISCRETE 35

Si ponga

2n−1

e

{G ∩ ∩ {G 6

A := = 0} R := A = 0} .

2n 2n 2n 2n j

j=1

Gli insiemi e rappresentano rispettivamente gli eventi “il processo al tempo si trova

A F t = 2n

2n 2n

nell’origine” e “il processo ritorna nell’origine per la prima volta al tempo Poniamo ora

t = 2n”.

u := P (A ), r := 0, r := P (F ).

2n 2n 0 2n 2n

Si noti che, usando la formula di S , che dimostreremo nel seguito, ma che supporremo gi à

TIRLING

nota, si ha

1

2n (2n)! 1

u = =

2n 2n 2n

n 2 n! n! 2 (1.11.8)

1 −2n

2n+ e

(2n) 1

1

1 2

√ √

' .

=

1

1 −n −n 2n

e e 2 nπ

n+

n+

2 π n

n 2 2

Fig. 11.2

Il seguente lemma fornisce il legame tra queste probabilità.

Lemma 1.11.2. Con le notazioni appena introdotte è (1.11.9)

· · ·

u = u r + u r + + u r + u r .

2n 0 2n 2 2n−2 2n−2 2 2n 0

Dim. La (1.11.9) è una semplice conseguenza del teorema delle probabilità totali e dell’indipenden-

za delle v.a. di o, che è lo stesso, di

{f }, {g }.

n n

n

X ∩

P (A R )

P (A ) = 2n 2j

2n j=0 n

n X

X r u

P (R ) P (A ) =

= 2j 2n−2j

2j 2n−2j j=0

j=0

di modo che la (1.11.9) è provata.

Può giungere come una sorpresa che valga il seguente

CAPITOLO 1. PROBABILITÀ DISCRETE 36

Lemma 1.11.3. In una passeggiata aleatoria simmetrica è

nj=1 (1.11.10)

∩ {G 6

P = 0} = P (G = 0) = u .

2j 2n 2n

Dim. Si osservi che, poiché implica che sia per un opportuno la (1.11.10) si

G = 0 k = 2j j N,

k

potrebbe scrivere anche nella forma

2n (1.11.11)

∩ {G 6

P = 0} = P (G = 0) = u .

j 2n 2n

j=1

Si osservi anche che, necessariamente, si ha

2n 2n 2n

∩ {G 6 ∩ {G ∪ ∩ {G

= 0} = > 0} < 0} ,

j j j

j=1 j=1 j=1

e che, essendo la passeggiata simmetrica, basta mostrare che

1

2n

∩ {G

P > 0} = u .

j 2n

j=1 2

Ora, considerando tutti i possibili valori assunti da , si ha

G 2n

n

X

2n−1

2n

∩ {G ∩ {G ∩ {G

P > 0} = P > 0} = 2k} .

j j 2n

j=1 j=1

k=1

Per il Lemma 1.11.1, il numero di traiettorie che terminano nel punto e che non hanno punti

(2n, 2k)

in comune con l’asse dei tempi, salvo che nell’origine, è

− − − −

N (2n 1, 2k 1) N (2n 1, 2k + 1),

sicché, tenendo conto della (1.11.4) e della (1.11.5), si ha

1

2n−1 {P − −

∩ {G ∩ {G (G = 2k 1) P (G = 2k)} .

P > 0} = 2k} = 2n−1 2n

j 2n

j=1 2

Perciò 2n

X

1

2n

∩ {G {P − −

P > 0} = (G = 2k 1) P (G = 2k)}

j 2n−1 2n

j=1 2 k=1

1 1 2n 1 1

= P (G = 1) =

2n−1 2n

2 2 n 2

(2n 1)! 1

= 2n

n!(n 1)! 2

(2n)! n 1 1 1

1 = P (G = 0) = u

= 2n 2n

2n−1

2 n!n! 2n 2 2 2

che conclude la dimostrazione.

Corollario 1.11.1. Valgono le relazioni (1.11.12)

r = u u ,

2n 2n−2 2n

1 (1.11.13)

r = u ,

2n 2n

2n 1

X (1.11.14)

r = 1.

2n

n∈N

CAPITOLO 1. PROBABILITÀ DISCRETE 37

Dim. L’insieme che esprime che il primo ritorno nell’origine avviene al tempo è

t = 2n

2n−1 2n−1 c

∩ {G 6 ∩ {G ∩ {G 6 \ {G 6

= 0} = 0} = = 0} = 0}

j 2n j 2n

j=1 j=1

onde

2n−2

∩ {G 6 ∩ {G

r = P = 0} = 0}

2n j 2n

j=1

2n−2 2n

∩ {G 6 − {G 6 −

= P = 0} P (∩ = 0} = u u .

j j 2n−2 2n

j=1

j=1

La (1.11.13) si ottiene dopo qualche conto che non presenta alcuna difficolt à:

− 1

2n 2 1

2n

− −

r = u u =

2n 2n−2 2n 2n−2 2n

n 1 n

2 2

− 1 1

(2n)!

(2n 2)! −

= 2n−2 2n

− −

(n 1)! (n 1)! 2 n! n! 2

− 1

1 2n (2n 1)

(2n 2)! −

1

= 2n−2 2

− −

(n 1)! (n 1)! 2 4 n

− − −

1

2n 2 2n (2n 1)

= 2n−2

n 1 2 2n

(2n 2)! 1

2n

1 1

= = .

2n−1 2n

− − n

n! (n 1)! 2 2n 1 2

Infine, per la (1.11.14), è X

X −

(u u ) = u = 1

r = 2n−2 2n 0

2n n∈N

n∈N

che conclude la dimostrazione.

Corollario 1.11.2. Il tempo medio d’attesa per il primo ritorno nell’origine è infinito,

X (1.11.15)

2 n r = +∞.

2n

n∈N

Dim. Segue dalla (1.11.13) e dalla (1.11.8) che, per abbastanza grande, il termine generale della

n

serie in (1.11.15) si può scrivere nella forma 1

2n 2n √

'

2n r = u ,

2n 2n

− −

2n 1 2n 1 n π

che rende ovvio l’asserto.

Consideriamo ora l’evento “sino al tempo il processo è passato per l’origine

L t = 2n,

2k,2n

l’ultima volta al tempo t = 2k”;

nj=k+1

{G ∩ ∩ {G 6

L := = 0} = 0} .

2k,2n 2k 2j

Teorema 1.11.1. La probabilità di è

L 2k,2n (1.11.16)

α := P (L ) = u u .

2k,2n 2k,2n 2k 2n−2k

CAPITOLO 1. PROBABILITÀ DISCRETE 38

Dim. Si può scrivere ( )!

2j

X

nj=k

{G ∩ ∩ 6

L = = 0} g = 0 .

2k,2n 2k i

i=2k+1

Poiché le sono indipendenti e isonome, la (1.11.11) implica

g n

nj=k+1

∩ {G 6

P (L ) = P (G = 0) P = 0} = u u

2k,2n 2k 2j 2k 2n−2k

che è la (1.11.16).

La distribuzione di probabilità discreta sui punti data da si dice

{0, 2, 4, . . . , 2n} p := α

2k 2k,2n

distribuzione discreta dell’arcoseno di ordine perché la funzione arcoseno costituisce un’ottima

n

approssimazione. Si tratta di una distribuzione simmetrica attorno a n,

α = α .

2k,2n 2n−2k,2n

e

Sia il tempo dell’ultimo passaggio per l’origine sino al tempo Allora

T t = 2n.

2n e

P ( T = 2k) = α .

2n 2k,2n

e e

La simmetria dà, allora, Dalle (1.11.8) e (1.11.16) segue che

≤ ≥

P ( T n) = P ( T n).

2n 2n 1 1

p

'

α 2k,2n π −

k (n k)

e, di qui j j

X X

1 1

e p

'

≤ α

P ( T 2j) = .

2k,2n

2n π −

k (n k)

k=0 k=0

Se è sufficientemente grande,

n Z

j

X j

1 1 dx

1

e p p

'

≤ '

P ( T 2j)

2n π π

− −

k (n k) x (n x)

0

k=0 2

(ricorrendo al cambio di variabile )

x = ns

√ √

Z Z

x/n x/n

1 2ns ds

1 √

p

= ds =

π π 2

2 2 2 −

− 1 s

n s (1 s )

0 0

r j .

= arcsin n

Infine, vogliamo studiare il massimo raggiunto dalla passeggiata aleatoria: introdotta la v.a.

si domanda quale sia la probabilità Si osservi

M := max{j : G = j (k n)}, P (M = j).

n k n

che l’evento corrisponde all’essere processo al tempo in senza

E (k) E (k) t = n x = k

n,j n,j+1

essere mai passato per ma essendo passato per Poichè può essere un qualsiasi

x = j + 1, x = j. k

intero compreso tra e si ha

−n j, jk=−n (1.11.17)

{M ∪ \

= j} = (E (k) E (k)) .

n n,j n,j+1

CAPITOLO 1. PROBABILITÀ DISCRETE 39

Si è, cosı́, espresso l’evento come unione disgiunta; poiché, inoltre, è

{M = j} E (k)

n n,j+1

contenuto in si ottiene, ricorrendo alla (1.11.2),

E (k),

n,j j

X −

P (M = j) = (P (E (k)) P (E (k)))

n n,j n,j+1

k=−n

j

X 0 0

− − − −

= (P (G = k 2j) P (G = k 2j 2))

n n

k=−n

0 0 0

−j) − −j − −j −

= P (G = P (G = 2) + P (G = 1)

n n n

0 0 0

− −j − −j − − −j −

P (G = 3) + P (G = 2) P (G = 4)

n n n

0 0

−j − − −j −

+ P (G = 3) P (G = 5) + . . .

n n

0 0

−j) −j −

= P (G = + P (G = 1).

n n

Per quanto osservato precedentemente solo uno di questi due ultimi termini differisce da zero.

In definitiva nella passeggiata aleatoria simmetrica risulta

 

 

n n

−n

P (M = j) = 2 .

+

n + j n + j +1

n  

2 2

Il metodo di riflessione può essere usato per rispondere ad altre questioni, come nell’esempio

che segue.

Esempio 1.11.1. In un ballottaggio tra due candidati, e , che riportano rispettivamente e

0 00 0 00

c c n n

voti, vince il candidato (n ); se lo spoglio dei voti avviene aprendo le schede ad una ad una,

0 0 00

c > n

qual è la probabilità che il candidato vincente sia sempre in vantaggio nel corso dello scrutinio?

Si può rappresentare lo scrutinio mediante un grafico, riportando in ascissa il numero dei voti

scrutinati; in ordinata, i voti del candidato sono considerati positivi mentre quelli del candidato

0 00

c c

sono considerati negativi. Le posizioni di ordinata positiva corrispondono dunque ad una situazione

di vantaggio del candidato . Tutti i possibili scrutinı̂ sono rappresentati da spezzate che sono

0

c

comprese tra le rette e e che congiungono l’origine con il punto di coordinate

00 0

−n

x = x = n O B

Si conviene di non contare i voti nulli o le schede bianche. Il numero di “storie”

0 00 0 00

(n + n , n n ).

differenti è dunque

0 00 0 00

n + n n + n

= .

0 00

n n

Gli scrutinı̂ nei quali il candidato vincente è sempre in vantaggio sono quelli che uniscono ad

0

c O B

senza toccare l’asse dei “tempi” in punti diversi dall’origine. Si pone il problema di contare quanti

siano tali scrutinı̂ o, equivalentemente, quante siano le spezzate che li rappresentano. Ognuna di tali

spezzate passa necessariamente per il punto di coordinate Le spezzate che congiungono

A (1, 1). A

ad sono complessivamente

B

0 00 −

n + n 1

0 −

n 1

Tra queste non sono da considerare quelle che toccano l’asse delle ascisse. Il numero di queste

ultime si determina ricorrendo al metodo di riflessione. Sia il punto simmetrico di rispetto

0

A A

all’asse dei tempi. Esiste una corrispondenza biunivoca tra i cammini che uniscono ad (con

0 0

A B n

e fissati).

00

n

CAPITOLO 1. PROBABILITÀ DISCRETE 40

0 00 −1

n +n

I cammini da a sono in numero di . La probabilità cercata è, perciò,

0

A B 0

n

0 00 0 00

− −

n + n 1 n + n 1

0 0

n 1 n

p = 0 00

n + n

0

n

0 00

1 n !n !

1

0 00 − −

= (n + n 1)! 0 00 0 00 0 00

− −

(n 1)!n ! n !(n 1)! (n + n )!

0 00

n n

= .

0 00

n + n

Scrivendo tale probabilità nella forma 0 00

n n

p = ,

0 00 0 00

n + n n + n

ci si accorge subito che essa è la differenza tra le percentuali dei voti validi riportati dai candidati.

Esempio 1.11.2. (La rovina del giocatore). Si torni alla passeggiata aleatoria con l’interpretazione

del giocatore che ad ogni istante gioca una partita nella quale vince o perde un euro con probabilit à

o Si ha quindi una successione con e Se

{Y ∈ } −1)

p q. : n Z P (Y = +1) = p P (Y = = q.

n + n n

il giocatore dispone inizialmente di euro e se si vuole sapere quale sia la probabilt à

a 0 < a < c,

che il giocatore arrivi ad avere euro prima di perdere tutto il suo capitale iniziale di euro.

c a

Formalizziamo come segue la questione. Si introducano le dua v.a.

{n ∈ ∪ {+∞} −a} {n ∈ ∪ {+∞}

T := inf Z : G = T := inf Z : G = c} .

0 + n c + n

Il problema noto come “la rovina del giocatore” consiste nel calcolare la probabilit à P (T < T ).

c 0

Si ponga tale probabilità eguale a indicando esplicitamente la dipendenza da

p(a) a, p(a) :=

in modo da avere la possibilità di variare Ricorrendo al teorema delle probabilità

P (T < T ), a.

c 0

totali, si ha

p(a) = P (T < T )

c 0 (1.11.18)

| −1) −1) |

= P (T < T Y = P (Y = + P (T < T Y = +1) P (Y = +1)

c 0 1 1 c 0 1 1

= q p(a 1) + p p(a + 1).

Si è cosı́ ottenuta l’equazione alle differenze (1.11.19)

p(a) = q p(a 1) + p p(a + 1),

che deve essere risolta tenendo conto delle condizioni al contorno,

e (1.11.20)

p(0) = 0 p(c) = 1.

Si può risolvere la (1.11.19), ricorrendo all’equazione caratteristica

−1

1 = q t + p t,

vale a dire q

1

2 (1.11.21)

− t + = 0.

t p p

Se la (1.11.21) ha due radici distinte, e La soluzione generale della (1.11.18)

6

p = q, t = 1 t = q/p.

a

q

p(a) = A + B ,

p

CAPITOLO 1. PROBABILITÀ DISCRETE 41

ove le costanti e si determinano mediante le condizioni al contorno (1.11.20). Tenendo conto

A B

di queste ultime, si ottiene a

q

1 1

p (1.11.22)

6 .

, p =

p(a) = c 2

q

1 p

Se, invece, è la (1.11.21) ha una soluzione doppia sicché la (1.11.18) ha come

p = 1/2, t = 1,

soluzione generale p(a) = A + B a.

Di nuovo, si calcolano le costanti e con l’ausilio delle condizioni al contorno (1.11.20),

A B

ottenendo la soluzione a 1

p(a) = , p = .

c 2

In un gioco equo, è eguale a la probabilità che il giocatore riesca ad avere euro,

p = 1/2, a/c c

partendo da un capitale iniziale di euro.

a

È interessante fare un esempio concreto. Si supponga che il giocatore abbia un capitale iniziale

di 9700 euro e che il suo scopo sia di vincere 10,000 euro, prima di perdere tutto. Se ci ò

p = 1/2,

accade con probabilità che è molto grande; se, invece, sostituendo nella (1.11.22) si

0.97, p = 0.49,

ottiene approssimativamente . Si osservi come un piccolo cambio della probabilità di

−6

×

6.1 10 p

vittoria provochi, a lungo andare, un grande cambiamento.

1.12 La funzione generatrice delle probabilità

Interrompiamo lo studio della passeggiata aleatoria per introdurre un concetto che riveste importanza

per suo conto.

Sia una probabilità definita sulla famiglia delle parti di e si ponga con

P Z p := P ({n})

+ n

. Si dice funzione generatrice della probabilit à la funzione definita in mediante

n Z P ψ [0, 1]

+ X n (1.12.1)

ψ(t) := p t .

n

n∈Z +

In tal caso si parla anche di funzione generatrice della legge di probabilit à La serie (1.12.1) è

{p }.

n

convergente in la sua somma è continua, crescente e verifica le relazioni

[0, 1]; ψ(t) e

ψ(0) = p ψ(1) = 1,

0

ed ammette in derivate di ogni ordine. È noto dai corsi di analisi matematica che due serie

[0, 1]

di potenze che abbiano la stessa somma in tutti i punti di un insieme infinito avente l’origine come

punto di accumulazione sono identiche, nel senso che hanno gli stessi coefficienti. Da ci ò si deduce

che due distribuzioni di probabilità con la stessa funzione generatrice sono eguali.

Per estensione si parla di funzione generatrice di una v.a. se questa assume valori interi

X

positivi; in questo caso si ha con e

p := P (X = n) n Z

n +

X

n X

P (X = n) t = E t .

ψ (t) :=

X n∈Z +

Siano e due v.a. indipendenti a valori in ; allora, per ogni il valore della

X X Z t [0, 1],

1 2 +

è, per quanto appena visto,

funzione generatrice della loro somma X + X

1 2

X X

X +X = E t

ψ t

(t) = E t 1 2

1 2

X +X

1 2 (1.12.2)

X X

= E t E t = ψ (t) ψ (t);

1 2 X X

1 2

essa è, dunque, il prodotto delle funzioni generatrici di e di .

X X

1 2

CAPITOLO 1. PROBABILITÀ DISCRETE 42

Esempio 1.12.1. Se la v.a. ha legge di B di parametro si ha

X p,

ERNOULLI

− −

ψ (t) = q + pt = 1 p + pt = 1 + p (t 1).

X

Esempio 1.12.2. Sia una v.a. con legge binomiale segue facilmente dall’esempio

S Bi(n, p);

n

precedente e dalla (1.12.2) n

{1 −

(t) = + p (t 1)} .

ψ S n

Esempio 1.12.3. Se la v.a. ha legge geometrica di parametro è

X p,

∞ X

X pt

n−1

n−1 n .

(qt) =

pq t = pt

ψ (t) =

X −

1 qt

n=1

n=1

Esempio 1.12.4. Sia una v.a. con legge di P , allora,

∼ P(λ);

X X

OISSON

X n n

λ t

−λ −λ λ t −

e

ψ (t) = = e e = exp{λ (t 1)}.

X n!

n=0

Si osservi che, se e sono due v.a. indipendenti con leggi di P di parametri e

X X λ λ

OISSON

1 2 1 2

rispettivamente, e allora la (1.12.2) dà

∼ P(λ ∼ P(λ

X ) X ),

1 1 2 2 −

(t) = exp{(λ + λ ) (t 1)},

ψ X +X 1 2

1 2

è una v.a. con legge di P di parametro .

sicché λ + λ

X + X OISSON 1 2

1 2

La (1.12.1) è una serie di potenze con raggio di convergenza che è almeno eguale a Perciò essa

1.

ammette derivate di tutti gli ordine nell’intervallo queste si ottengono, com’ è noto, derivando

[0, 1];

a termine a termine la serie di potenze (1.12.1). Si osservi che, per ogni la derivata

k N, k–esima

della funzione generatrice è, a sua volta, una serie di potenze con i coefficienti positivi, sicch é la

ψ

somma di tale serie è una funzione crescente in ed ammette, quindi, limite a sinistra nel punto

[0, 1]

(tale limite può essere finito o eguale a Useremo la notazione

t = 1 +∞).

(k) (k)

ψ (1) := lim ψ (t).

t→1

t<1

Ovviamente, se è la funzione generatrice della v.a. si ha

ψ X,

(k) − −

ψ (1) = E [X (X 1) . . . (X k + 1)] .

In particolare, risulta 0 00

e (1.12.3)

ψ (1) = E(X) ψ (1) = E [X (X 1)] ,

e, quindi, 0 00

2

E X = ψ (1) + ψ (1).

Vediamo come usare la funzione generatrice per completare lo studio della passeggiata aleatoria

che abbiamo intrapreso nella sezione precedente, elimando, ora, l’ipotesi che sia p = q = 1/2.

Ritenendo la notazione già introdotta, la probabilità di ritorno all’origine al tempo è data da

t = 2n

2n n n ∈

u = p q (n Z );

2n +

n

CAPITOLO 1. PROBABILITÀ DISCRETE 43

naturalmente, è perché il processo si trova nell’origine all’istante iniziale. Non è difficile

u = 1

0

calcolare la funzione generatrice della legge ricordando lo sviluppo della serie

{u ∈ };

: n Z

2n +

binomiale, si trova

∞ ∞

X X (2n)!

2n n n 2n 2 n

ψ (t) = p q t = (pqt )

u n n! n!

n=0 n=0

X (2n)! 2 n

n (−4pqt )

(−1)

= (2n)!! (2n)!!

n=0

X −

(2n 1)!! −1/2

2 n 2

n −

(−4pqt ) = (1 4pqt ) .

(−1)

= (2n)!!

n=0

Pertanto 1

p

ψ (t) = .

u 2

1 4pqt

Si consideri ora la probabilità che il primo ritorno nell’origine avvenga al tempo Già si

r t = 2n.

2n

sa che e che vale la relazione

r = 0

0 n

X u r .

u = 2n−2j 2j

2n j=1

Di qui ∞

∞ n

X

X

X 2n

2n t u r

u t = 1 +

ψ (t) = 1 + 2n−2j 2j

2n

u n=1

n=1 j=1

∞ ∞

X X

2j 2n−2j

=1+ r t u t = 1 + ψ (t) ψ (t).

2j 2n−2j u r

j=1 n=j

È ora facile calcolare p

1 (1.12.4)

2

− −

= 1

ψ (t) = 1 1 4pqt .

r ψ (t)

u

La probabilità che la passeggiata aleatoria torni nell’origine è, dunque,

e

p X p −

e 1 4pq;

r = ψ (1) = 1

p = 2n r

n∈Z +

ma 2 2 2

− − − − − −

1 4pq = 1 4p (1 p) = 1 4p + 4p = (1 2p) = (q p) ,

sicché la probabilità di ritorno nell’origine è − |q −

e

p = 1 p|.

Tale probabilità è eguale a se, e solo se, vale a dire se, e solo se, la passeggiata

e

1, p = 1, p = q,

aleatoria è simmetrica. In caso contrario è e

p < 1.

Vogliamo, infine, calcolare il tempo medio di ritorno nell’origine nel caso simmetrico q = p.

Detta la v.a. che dà il tempo del primo ritorno nell’origine, si ha, evidentemente,

T P (T = 2n) =

0 0

, (n ). Perciò, tenendo conto delle (1.12.3) e della (1.12.4), si trova

r Z

2n + ∞

X t

0 √ = +∞,

E (T ) = 2n r = ψ (1) = lim

0 2n r 2

1 t

t→1

n=0 t<1

sicché il tempo medio di ritorno nell’origine è infinito.

CAPITOLO 1. PROBABILITÀ DISCRETE 44

1.13 Passeggiata aleatoria in d

Z

Si consideri, nello spazio euclideo , un sistema di assi cartesiani ortogonali, e, su ciascuno di

d

R

essi, si segnino le posizioni intere. Si ottiene, cosı́, un reticolo di punti, a coordinate intere, che

rappresenta . Consideriamo il caso di una passeggiata aleatoria su ; esamineremo il solo caso

d d

Z Z

simmetrico.

Si scelga a caso, quindi con probabilità uno degli assi, per esempio il sia assegnata

1/d, j–esimo;

la successione di v.a. bernoulliane indipendenti,

j j j

{X ∈ = 1) = 1/2,

: n N} P (X = 0) = P (X

n n n

(j) (j)

e la successione associata ove Supponiamo che le successioni

j

{Y ∈ −

: n N}, Y := 2 X 1.

n n n

(1) (2) (d)

. . ,{Y siano complessivamente formate da v.a. indipendenti, sicché, per esem-

{Y }, {Y },. }

n n n

(j) (k)

pio e sono indipendenti quali che siano e in con e e in

6 {1,

Y Y m n N m = n j k 2, . . . , d}

n m è individuata dal vettore aleatorio

con La posizione del processo in d

6 d–dimensionale

j = k. Z

(1) (2) (d) .

G := G , G , . . . , G

n n n n

Calcoliamo la probabilità che il processo ritorni nell’origine al tempo

P (G = 0) 0 = (0, 0, . . . , 0)

2n

t = 2n.

Perché il processo ritorni nell’origine, supponiamo che compia passi lungo il

2 k j–esimo

j

asse; come nel caso unidimensionale, abbiamo già usato il fatto che, lungo ogni asse, il proces-

so dovrà compiere un egual numero di passi nel verso positivo che nel verso negativo. Si avr à,

necesseriamente, Noti i numeri , si ha

· · ·

k + k + + k = n. k , k , . . . , k

1 2 d 1 2 d

2 k 1

j

(j)

P G = 0 = ;

2k 2k

k 2

j j

j , si ha, ricorrendo ai

inoltre, poiché la probabilità di scegliere volte il asse è 2k

2 k j–esimo 1/d j

j

coefficienti multinomiali, X (2 n)!

1

P (G = 0) =

2n 2n

(2 d) k !k !k !k ! . . . k !k !

1 1 2 2 d d

k ,k ,...,k

1 2 d

k +k +···+k =n

1 2 d

X 2

(n!)

2 n 1

= (1.13.1)

2n 2 2 2

(2 d) (k !) (k !) . . . (k !)

n 1 2 d

k ,k ,...,k

1 2 d

k +k +···+k =n

1 2 d

2

X

2 n 1 n

= 2n

n (2 d) k , k , . . . , k

1 2 d

k ,k ,...,k

1 2 d

k +k +···+k =n

1 2 d

Per si ottiene nuovamente la (1.11.8), mentre, per si trova

d = 1, d = 2,

n 2

X

2 n 1 n

P (G = 0) =

2n 2n

n 4 k

k=0

n 2

X

2 n 1 n n 2 n 1 22n

= = u ,

=

2n 2n

n 4 2

k n k n

k=0

è dato ancora dalla (1.11.8). Ricorrendo alla formula di S , si ha

ove u TIRLING

2n  1

 se

 √ , d = 1,

n π (1.13.2)

P (G = 0) =

2n 1

 se

, d = 2.

CAPITOLO 1. PROBABILITÀ DISCRETE 45

Consideriamo, infine, il caso Poiché,

d 3.

X 1 n = 1,

n k , k , . . . , k

d 1 2 d

k ,k ,...,k

1 2 d

k +k +···+k =n

1 2 d

e, poiché tutti i termini sono positivi, si ha

n

2 n 1

≤ max .

P (G = 0)

2n 2n

(2 d) k , k , . . . , k

n k ,k ,...,k 1 2 d

1 2 d

k +k +···+k =n

1 2 d

Un facile calcolo mostra che il minimo del denominatore è raggiunto quando

k !k ! . . . k ! k =

1 2 d j

costante, vale a dire, approssimativamente, per (j Ricorrendo ancora alla

'

k n/d = 1, 2, . . . , d).

j

formula di S , si ottiene

TIRLING

n! n!

n ≤

= o

n n d

k ! k ! . . . k !

k , k , . . . , k 1 2 d

1 2 d !

d

−n

n n d/2

2π n

n e d d

' = ,

r

2 d−1

√ (2 π n)

n n

n/d 2

−n/d 2 π

e

d d

onde, ricordando la (1.11.8), ed essendo un’opportuna costante, che si potrebbe calcolare espli-

C d

citamente, n d/2 C

d d

1 d (1.13.3)

√ ≤

≤ .

P (G = 0)

2n d−1

d−1 3/2

n π n

n

(2 π) 2 2

In virtú della (1.13.2) e della (1.13.3) la serie

X P (G = 0)

2n

n∈N

è, dunque, divergente se oppure convergente se ≥

d = 1, d = 2, d 3.

Siamo ora in grado di enunciare il seguente teorema, la cui dimostrazione dipende dai lemmi di

B –C .

OREL ANTELLI

Teorema 1.13.1. (di P ). In una passeggiata aleatoria simmetrica su con è nulla la

d ≥

Z d 3

ÓLYA

probabilità che il processo ritorni infinite volte nell’origine.

1.14 Probabilità di un assegnato numero di eventi

Nel considerare il problema delle coincidenze (esempio 1.4.3), ci si pu ò domandare quale sia la

probabilità che si realizzino esattamente coincidenze. Il problema pu ò essere schematizzato in

k

generale come segue. Siano dati eventi ; qual è la probabilità che se ne realizzino

n A , A , . . . , A

1 2 n

con

k k = 0, 1, ..., n?

Il risultato che segue è basato sull’osservazione, già piú volte usata, che, se è un evento, allora

A

E(1 ) = P (A).

A

CAPITOLO 1. PROBABILITÀ DISCRETE 46

Teorema 1.14.1. Dati eventi , la probabilità dell’evento , “si realizzano esat-

n A , A , . . . , A B

1 2 n k

tamente degli eventi dati” con è

k n k = 0, 1, . . . , n

n

X j

j−k (1.14.1)

P (B ) = S ,

(−1)

k j

k

j=k

ove si è posto, per j = 0, 1, . . . , n,

X

∩ ∩ · · · ∩

A A A

P

S :=

j k(1) k(2) k(j)

k(1),k(2),...,k(n)

n n n

X X X

∩ ∩ · · · ∩

:= P A A A ,

k(1) k(2) k(j)

k(1)=1 k(2)=k(1)+1 k(j)=k(j−1)+1

n

ove si intende che la somma si esegua sopra tutti i sottoinsiemi di numeri,

j

j

{k(1), k(2), ..., k(j)},

scelti in {1, 2, . . . , n}.

La (1.14.1) va sotto il nome di principio di inclusione–esclusione.

Dim. Si può scrivere

ni(n)

ci(k+1) ∩

∩ ∩ · · · ∩ ∩

∪ A A A A . . . A

B =

k i(1) i(2) i(k)

J(k)

ove è una permutazione di e con si indica il generico sot-

{i(1), {1,

i(2), . . . , i(n)} 2, . . . , n} J(k)

toinsieme di elementi di resta, quindi, espresso come

{i(1), {1,

i(2), . . . , i(k)} k 2, . . . , n}; B

k

nk insiemi. Operando con le funzioni indicatrici, anziché con gli insiemi, si ha

l’unione di X (1.14.2)

− −

1 = 1 1 . . . 1 1 1 . . . 1 1 .

B A A A A A

k i(1) i(2) i(k) i(k+1) i(n)

J(k)

Ogni termine di quest’ultima somma si può scrivere nella forma che segue, ottenuta moltiplicando i

fattori contenuti nelle parentesi,

{1 − · · ·

1 . . . 1 H (J(k)) + H (J(k)) + +

A A 1 2

i(1) i(k) r n−k (1.14.3)

· · ·

+ (−1) H (J(k)) + + (−1) H (J(k))},

r n−k

P , espressione nella quale la somma deve essere

ove 1 1 . . . 1

H (J(k)) := A A A

r J(n−k,r) j(1) j(2) j(r)

n−k sottoinsiemi di elementi scelti in

eseguita sopra tutti i −

J(n k, r) r

r {i(k + 1), i(k + 2), . . . , i(n)}.

Sostituendo nella (1.14.2), si ha

n−k

X X

r

1 = (−1) 1 1 . . . 1 H (J(k)).

B A A A r

k i(1) i(2) i(k)

r=0 J(k)

Ora,

X X X (1.14.4)

1 1 . . . 1 H (J(k) = 1 . . . 1 1 . . . 1 .

A A A r A A A A

i(1) i(2) i(k) i(1) i(k) j(1) j(r)

J(k) J(k) J(n−k,r)

CAPITOLO 1. PROBABILITÀ DISCRETE 47

Si introduca X (1.14.5)

H := 1 ,

r+k r+k

∩ A j(i)

i=1

J(n,k+r)

n sottoinsiemi di indici scelti tra

ove la somma è eseguita sopra tutti i J(n, k + r) k + r

k+r

Alle somme (1.14.4) e (1.14.5) contribuiscono termini che possono assumere solo

{1, 2, . . . , n}.

n termini; i termini della

i valori e Si è già detto che nella somma (1.14.5) compaiono

0 1. k+r

somma (1.14.4) sono invece

n k

n .

r

k

Poiché

n k

n

− − −

(n k)!n!(k + r)!(n k r)! k + r

r

k

= .

=

− − −

n k

r!(n k r)!k!(n k)!n!

k + r

scende dalle (1.14.3), (1.14.4) e (1.14.5) che

n

n−k X

X k + r j

r j−k

H = H ,

(−1)

1 = (−1)

k+r j

B k k k

r=0 j=k

dalla quale segue, considerando la speranza,

n n

X X

j j

j−k j−k

P (B ) = E(1 ) = (−1) E(H ) = (−1) S ,

k B j j

k k k

j=k j=k

che conclude la dimostrazione.

Corollario 1.14.1. Dati gli eventi , la probabilità che non si realizzi alcuno è

A , A , . . . , A

1 2 n

n

X j

P (B ) = (−1) S .

0 j

j=0

Corollario 1.14.2. Dati gli eventi , la probabilità che se ne realizzino almeno è

A , A , . . . , A k

1 2 n

n

X −

j 1

j−k (1.14.6)

· · · S .

(−1)

P (B ) + P (B ) + + P (B ) = j

k k+1 n −

k 1

j=k

Dim.

j

n n

n

n X X

X

X

X j

j j−r

j−r (−1)

(−1)

P (B ) = S

S =

r j

j r

r

j=r

r=k r=k

j=k

r=k

j

n

X X j

−r

j

(−1) S (−1)

= .

j r

j=k r=k

Ora, si ha, tenendo presente che ,

−r r

(−1) = (−1)

j

X j

r

(−1) r

r=k

j

j

j

j j−k

k · · ·

− + + (−1)

+

= (−1) j

k +2

k +1

k

− − −

j 1 j 1 j 1 j

k j−k

− · · ·

= (−1) + + + (−1)

k 1 k k j

j 1

k

= (−1) ,

k 1

CAPITOLO 1. PROBABILITÀ DISCRETE 48

vale a dire l’asserto.

Esempio 1.14.1. Ritornando all’esempio (4.3) si ha

(n j)!

jr=1

∩ ,

P A =

k(r) n!

(n−j)!

n

sicché si può calcolare . Pertanto la probabilità cercata, se è grande, è

1 −

S = = n k

j j n! j!

n n−k

X X

1

j 1

1 1 −1

j−k r '

(−1) (−1)

P (B ) = = e .

k k j! k! r! k!

r=0

j=k

La probabilità di avere almeno una coincidenza è, per grande,

n

n

n X

X − 1

1

j 1 j−1

j−1 = (−1)

(−1) j! j!

0 j=1

j=1 ∞

X 1 −1

j−1

' − '

+ 1 = 1 e 0.63212.

(−1) j!

j=0

1.15 La definizione soggettiva della probabilità

In queste lezioni abbiamo sistematicamente adottato il punto di vista assiomatico, che per ò prescinde

dal significato da attribuirsi alle probabilità. Ritornando alla domanda della sezione iniziale — Che

cos’è la probabilità? — esporrò brevemente il punto di vista soggettivo.

La definizione di probabilità, secondo F , si basa sul concetto di scommessa coerente.

DE INETTI

Per ogni si parla di scommessa di quota e di importo su un evento se versata una

p R, p S E,

somma con arbitrario, si riceve una la somma se, e solo se, si verifica Se non si

6

pS S = 0 S E. E

verifica, si perde la somma Il guadagno della scommessa su è dunque

pS. E

G(E) = (1 p)S.

E

Esplicitamente, si guadagnerà se si realizza, se non si realizza. Nulla si pu ò dire

− −pS

(1 p)S E E

a questo punto del segno del guadagno. Si intende che se è negativo in effetti si pagherà la somma

S

|S|. Una scommessa su si dice coerente se non esiste alcun valore di tale che i due guadagni

6

E S = 0

possibili legati all’alternativa sul realizzarsi di siano entrambi positivi o entrambi negativi; in altra

E

parole, una scommessa è coerente se non vi è la certezza che una delle due parti contraenti vinca

quale che sia il risultato. La coerenza richiede dunque che, per ogni sia

6

S = 0,

2

−p(1 − ≤

p)S 0,

vale a dire o, ancora,

2 − ≤ ∈

p p 0, p [0, 1].

Vi sono due casi nei quali l’esito della scommessa è scontato, se oppure se

∅,

E = E = Ω,

vale a dire quando è l’evento impossibile oppure l’evento certo nel primo caso si perde

E Ω;

certamente, nel secondo si vince certamente. In ciascuna di queste due situazioni la condizione di

coerenza richiede che i guadagni siano nulli; infatti per il guadagno è onde

∅, −pS,

E = G(∅) =

mentre se il guadagno è onde

p = 0, E = Ω, G(Ω) = (1 p)S p = 1.

Secondo la definizione di F , si dice probabilità di un evento un numero

E p = P (E)

DE INETTI

tale che sia coerente la scommessa di quota su

p E.

CAPITOLO 1. PROBABILITÀ DISCRETE 49

Questa definizione può apparire deludente, perché tutto quello che dice è che la probabilità di

un evento è un numero di Occorre, però, fissare l’attenzione non solo su ma anche su

E [0, 1]. E,

altri eventi che possono contribuire a determinare e a modificare le informazioni che su si hanno.

E

A tal fine, giova supporre che la famiglia degli eventi abbia una struttura algebrica; la pi ú naturale è

quella di algebra. Si vedrà nel seguito che supporre che la probabilità sia definita in un’algebra di

A

sottoinsiemi di non è restrittivo.

Invece di una sola scommessa sull’evento si consideri una qualunque sottoclasse finita di

E,

si considerino scommesse coerenti e simultanee sugli eventi di importi

A, {E };

, E , . . . , E n E

1 2 n j

arbitrarı̂, e differenti da zero, e di quote . Il guadagno sarà dato dalla

S , S , . . . , S p , p , . . . , p

1 2 n 1 2 n

v.a. n

X

− p S .

1

G := j j

E j

j=1

In particolare, se gli eventi costituiscono una partizione,

E , E , . . . , E

1 2 n nj=1 (1.15.1)

∩ ∅ 6 ∪

E E = (i = j), E = Ω,

i j j

la combinazione di scommesse considerate equivale ad un’unica scommessa sull’evento certo Ω.

Allora, scegliendo gli importi si ha sicché

· · · − · · ·

S = S = = S = 1, G = 1 (p + p + + p ),

1 2 n 1 2 n

la scommessa è coerente se, e solo se, (1.15.2)

· · ·

P (E ) + P (E ) + + P (E ) = 1.

1 2 n

A questo punto, potremmo definire come probabilità qualsiasi funzione da in che sod-

A

P [0, 1]

disfaccia alle proprietà e alla (1.15.2) se sono verificate le condizioni

P (∅) = 0, P (Ω) = 1

(1.15.1).

Possiamo ora dare il seguente teorema.

Teorema 1.15.1. Se e sono due eventi incompatibili (A allora

∩ ∅),

A B B = (1.15.3)

P (A B) = P (A) + P (B).

Dim. Si consideri l’evento e l’evento . Allora, la famiglia costituisce una

c c

∪ {E, }

E = A B E E

partizione, onde, per la (1.15.2), cioè

c

P (E) + P (E ) = 1, c (1.15.4)

P (E) = 1 P (E ).

Ma anche è una partizione, onde e di qui

c c

{A, }

B, E 1 = P (A) + P (B) + P (E )

c (1.15.5)

P (A) + P (B) = 1 P (E ).

Dall’eguaglianza dei secondi membri scende quella dei primi.

Alla luce dell’ultimo teorema dimostrato, la probabilità è una funzione positiva, definita su

P

un’algebra di sottoinsiemi di e finitamente additiva anziché numerabilmente additiva, com’è

A Ω

invece nella definizione di K . Si vedrà nel seguito che è sempre possibile estendere

OLMOGOROV

una probabilità finitamente additiva a la famiglia dei sottoinsiemi di

P(Ω), Ω.

Vogliamo mostrare che una valutazione coerente di probabilit à è unica. Si supponga che una

stessa persona effettui due diverse scommesse sullo stesso evento rispettivamente di quote e 0

E, p p

e di importi e , arbitrarı̂ e non nulli. I guadagni che corrispondono al realizzarsi di e di

0 c

S S E E

sono rispettivamente 0 0 se si realizza

− −

G = (1 p)S + (1 p )S E,

CAPITOLO 1. PROBABILITÀ DISCRETE 50

e 0 0 0 se non si realizza

−pS −

G = p S E.

Ora, si considerino le ultime due come due equazioni nelle incognite e , vale a dire

0

S S

( 0 0

− −

(1 p)S + (1 p )S = G

0 0

−pS − p S = G

Se fosse diverso da zero il determinante dei coefficienti, tale sistema avrebbe soluzione per ogni

coppia di valori di e di , anche entrambi positivi o entrambi negativi. Perci ò la richiesta che la

0

G G

scommessa sia coerente comporta che si annulli il determinante dei coefficienti, cio è

0

− −

1 p 1 p 0 0 0 0

−p − −

= + pp + p pp = p p .

det 0

−p −p

La coerenza impone dunque che sia 0

p = p.

È particolarmente interessante l’approccio soggettivo alle probabilit à condizionate. Sia data

un’algebra di sottoinsiemi di un insieme non vuoto e si ponga Si dice evento

A A A \ {∅}.

Ω, :=

0

condizionato con e un evento che è vero se sono veri sia sia è falso se

∈ A ∈ A

E/H E H H E,

0

è vero, mentre è falso e che, infine, è indeterminato se è falso. Per si ha

H E H H = Ω E/Ω = E.

In una scommessa condizionata su di quota e di importo si versa la somma

6

E/H, p S = 0, pS

per ricevere se si verificano sia sia si perde se si verifica ma non se non si verifica

S E H, pS H E;

la scommessa è annullata e si riprende quindi la somma versata Una scommessa condizionata

H pS.

su si dice coerente se la funzione su definita da è una probabilità

A × A 7→

E/H (E, H) P (E/H)

0

su tutte le volte che sia fissato .

A, ∈ A

H 0

Teorema 1.15.2. Se e allora

∈ A 6 ∅,

E H = (1.15.6)

P (E H) = P (E/H) P (H).

Dim. Si ponga e e si considerino due scommesse

0 00

p := P (H E), p := P (H) p := P (E/H)

simultanee: una di quota e importo su e l’altra di quota e di importo su Vale

0 0 00 00

p S H p S E/H.

la partizione di in corrispondenza del realizzarsi dei tre insiemi

c c

∪ ∩ ∪ ∩

Ω, Ω = H (H E) (H E );

della partizione si hanno rispettivamente i guadagni

0 0 0 0 00 00 0 00 0 0 00 00 0

−p −p − −p −

G = S , G = S p S + S + S , G = S p S + S .

1 2 3

Si scelgano gli importi e allora

0 00 00

S = p S = 1;

0 00 0 00 0 00

−p − −p

G = p , G = 1 p p , G = p ;

1 2 3

si ha, cosı́, un guadagno , se si realizza ed un guadagno , se si realizza

0 00 0 00

− ∩ −p

1 p p H E, p

c c c c c c c c

∪ ∩ ∪ ∩ ∪ ∪ ∩

H (H E ) = (H H) (H E ) = (H E ) = (H E) .

Perciò, le due scommesse equivalgono ad un’unica scommessa di quota sull’evento La

0 00 ∩

p p H E.

coerenza impone cosı̀ , vale a dire l’asserto.

0 00

p = p p

CAPITOLO 1. PROBABILITÀ DISCRETE 51

1.16 Esercizı̂

(1.1) Si dimostrino le seguenti relazioni:

(a) \ \ ∩ ∪ \

A B = A (A B) = (A B) B;

(b) ∩ \ ∩ \ ∩ ∩ \

A (B C) = (A B) (A C) = (A B) C;

(c) \ \ \ ∪

(A B) C = A (B C);

(d) \ \ \ ∪ ∩

A (B C) = (A B) (A C);

(e) \ ∩ \ ∩ \ ∪

(A B) (C D) = (A C) (B D);

(f) ∪ \ \ ∪ \

(A B) C = (A C) (B C).

(1.2) La differenza tra insiemi non è associativa,

\ \ 6 \ \

(A B) C = A (B C).

(1.3) Si dimostrino le seguenti relazioni:

(a) A∆∅ = A;

(b) ;

c

A∆Ω = A

(c) c

A∆A = Ω;

(d) ∅;

A∆A =

(e) ∪ \ ∩

A∆B = (A B) (A B);

(f) ;

c c

A∆B = A ∆B

(g) ∩ ∩ ∩

A (B∆C) = (A B)∆(A C);

(h) A∆B = B∆A;

(i) (A∆B)∆C = A∆(B∆C).

(1.4) Se si calcoli è invertibile questo risultato?

A B, A∆B;

(1.5) Si dimostrino le seguenti relazioni:

(a) ;

1 = 1 1

c

A A

(b) {ω ∈

A = Ω : 1 (ω) = 1};

A

(c) ;

⊂ ⇐⇒ ≤

A B 1 1

A B

(d) ;

·

1 = 1 1

A∩B A B

(e) ;

1 = 1 + 1 1

A∪B A B A∩B

(f) −

1 = 1 (1 1 );

A B

A\B

(g) 2);

− · |1 − |

1 = 1 + 1 21 1 = 1 = (1 + 1 )(mod

A∆B A B A B A B A B

(h) ;

1 = min 1

∩ A n∈N A

n n

n∈N

CAPITOLO 1. PROBABILITÀ DISCRETE 52

(i) .

1 = max 1

∪ A n∈N A

n n

n∈N

(1.6) (a) In la relazione equivale a

P(Ω) ∅.

A = B A∆B =

(b) L’equazione nell’incognita (un insieme), ove e sono assegnati sottoinsiemi

X A∆X = B, A B

di ammette sempre soluzione in e la soluzione è unica.

P(Ω)

Ω,

(1.7) Rispetto a quale delle tre operazioni la famiglia è un gruppo?

∪, ∩, P(Ω)

(1.8) ove svolge il ruolo di addizione e quello di moltiplicazione è un anello

∩) ∩

(P(Ω), ∆, ∆

commutativo con unità. Si caratterizzino gli insiemi per i quali tale anello è un dominio d’integrità.

(1.9) Sia una tribú di sottoinsiemi di e sia È allora una tribú di sottoinsiemi di

F ⊂

Ω Ω Ω.

1

, detta traccia di in , la famiglia Inoltre se è

F F {A ∩ ∈ F}. ∈ F,

Ω Ω := Ω : A Ω

1 1 1 1

F {A ∈ F ⊂ }.

= : A Ω 1

(1.10) Sia una famiglia di sottoinsiemi di che goda delle seguenti propriet à:

A Ω

(a) ∈ A;

(b) c

∈ A ∈ A;

A =⇒ A

(c.1) ∈ A ∪ ∈ A;

A , A =⇒ A A

1 2 1 2

(c.2) se per ogni e se gli insiemi della successione sono disgiunti, allora

∈ A ∈ {A }

A n N

n n

∪ ∈ A.

A

n∈N n

Allora è una tribú.

A

(1.11) Sia un insieme infinito non numerabile, cioè card(Ω) . Sia la famiglia dei

ℵ F

Ω > 0

sottoinsiemi di che sono numerabili o tali che sia numerabile il loro complementare

Ω c

card(A) oppure card(A

F {A ⊂ ≤ ℵ ≤ ℵ }

:= Ω : ) .

0 0

Allora è una tribú.

F

(1.12) Data la famiglia di sottoinsiemi di si definiscono massimo limite e minimo

{A ∈

: n N} Ω

n

limite di rispettivamente gli insiemi

{A }

n e

∩ ∪ ∪ ∩

lim sup A := A lim inf A := A .

n n∈N k≥n k n n∈N k≥n k

n→+∞

n→+∞

Si dice che la successione converge se in tal

{A } lim sup A = lim inf A = A;

n n n→+∞ n

n→+∞

caso si scrive lim A = A.

n

n→+∞

Si mostri che, se è una successione crescente, , per ogni allora

{A } ⊂ ∈

A A n N,

n n n+1

lim A = A ,

n n∈N n

n→+∞

mentre, se è decrescente, , per ogni allora

{A } ⊃ ∈

A A n N,

n n n+1 ∩

lim A = A .

n n∈N n

n→+∞

(1.13) Data la successione di insiemi se ne calcolino il massimo e il minimo

{A, },

B, A, B, . . .

limite.

CAPITOLO 1. PROBABILITÀ DISCRETE 53

(1.14) Si dia l’esempio di una successione di insiemi per la quale siano tutte strette le inclusioni

∩ ⊂ ⊂ ⊂ ∪

A lim inf A lim sup A A .

n∈N n n n n∈N n

n→+∞ n→+∞

(1.15) Si dimostrino le seguenti relazioni:

c

(a) ;

cn

(lim inf A ) = lim sup A

n→+∞ n n→+∞

c

(b) .

cn

lim sup A = lim inf A

n n→+∞

n→+∞

(1.16) Si dimostrino le seguenti relazioni:

(a) \ \

B lim inf A = lim sup (B A );

n→+∞ n n

n→+∞

(b) \ \

B lim sup A = lim inf (B A );

n n→+∞ n

n→+∞

(c) \ \

(lim sup A ) B = lim sup (A B);

n n

n→+∞ n→+∞

(d) \ \

(lim inf A ) B = lim inf (A B);

n→+∞ n n→+∞ n

(1.17) Si dimostrino le seguenti relazioni:

(a) ;

∪ ∪

lim sup (A B ) = lim sup A lim sup B

n n n n

n→+∞ n→+∞ n→+∞

(b) .

∩ ∩

lim inf (A B ) = lim inf A lim inf B

n→+∞ n n n→+∞ n n→+∞ n

(1.18) Si stabiliscano le due inclusioni che seguono e si diano esempı̂ atti a mostrare che le inclusioni

possono essere strette.

(a) ;

∩ ⊂ ∩

lim sup (A B ) lim sup A lim sup B

n n n n

n→+∞ n→+∞ n→+∞

(b) .

∪ ⊃ ∪

lim inf (A B ) lim inf A lim inf B

n→+∞ n n n→+∞ n n→+∞ n

(1.19) Una successione di insiemi disgiunti converge.

(1.20) .

cn c

→ ⇐⇒ →

A A A A

n

(1.21) e implicano

→ →

A A B B

n n

(a) ∪ → ∪

A B A B;

n n

(b) ∩ → ∩

A B A B;

n n

(c) \ → \

A B A B;

n n

(d) →

A ∆B A∆B.

n n

(1.22) Se è vero che

\ → ∅, →

A A A A?

n n

(1.23) → ⇐⇒ → ∅.

A A A ∆A

n n

(1.24) Per un’arbitraria successione d’insiemi risulta

{A }

n

e

1 = lim inf 1 1 = lim sup 1 .

lim inf A A lim sup A A

n→+∞ n n n n

n→+∞

n→+∞ n→+∞

CAPITOLO 1. PROBABILITÀ DISCRETE 54

(1.25) − ≤ ∩ ≤

max{P (A) + P (B) 1, 0} P (A B) min{P (A), P (B)}.

(1.26) |P − ≤

(A) P (B)| P (A∆B).

(1.27) Siano e eventi. Si esprima in funzione di di e di la probabilit à

A B P (A), P (B) P (A B)

che, per si verifichino

k = 0, 1, 2,

(a) esattamente dei due eventi e

k A B,

(b) almeno k,

(c) al piú k.

(1.28) Siano e eventi. Si esprima in funzione di ∩ ∩

A, B C P (A), P (B), P (C), P (A B), P (A C),

e la probabilità che, per dei tre eventi e se ne

∩ ∩ ∩

P (B C) P (A B C) k = 0, 1, 2, 3, A, B C

verifichino

(a) esattamente dei due eventi e

k A B,

(b) almeno k,

(c) al piú k.

(1.29) (Teorema multinomiale)

!

n

r X

X n k k k

=

α α α . . . α ,

1 2 r

k r

1 2

k , k , . . . , k

1 2 r

k ,k ,...,k

k=1 1 2 r

k +k +···+k =n

1 2 r

ove la somma è estesa a tutte le di interi positivi tali che

r–ple (k , k , . . . , k ) (k Z )

1 2 r j +

r

X k = n

j

j=1

e il coefficiente multinomiale è definito da

n!

n := .

k , k , . . . , k k !k ! . . . k !

1 2 r 1 2 r P n

(1.30) Se quante soluzioni con numeri naturali ha l’equazione

∈ ∈

n N, x (x N) x = n?

k k k

k=1

quante soluzioni con interi positivi quante con (con

∈ ≥ ∈

x (x Z )? x s s N)?

k k + k

(1.31) Un’urna contiene palline numerate da a Per qual è la probabilità

6 1 6. (k = 1, 2, . . . , 12),

che la somma dei numeri di due palline, estratte con o senza restituzione, sia eguale a k?

(1.32) Un’urna contiene palline numerate da a Si estraggano, con o senza restituzione, tre

10 0 9.

palline. Mettendo i numeri l’uno accanto all’altro nell’ordine nel quale sono stati estratti, si forma

un numero compreso tra e Qual è la probabilità che il numero cosı́ formato sia

0(= 000) 999.

divisibile per (Lo zero è considerato divisibile per

39? 39).

(1.33) In un gruppo di quattro persone, qual è la probabilità che almeno due di esse abbiano il

compleanno nello stesso giorno? (Nel rispondere si mettano bene in evidenza le ipotesi che si

fanno).

CAPITOLO 1. PROBABILITÀ DISCRETE 55

(1.34) (Probabilità che un dato giorno sia il 29 febbraio). Si sa che degli anni dei secoli solo quelli

divisibili per 400 sono bisestili; quindi il 2000 è stato bisestile, mentre non lo sono stati né il 1700,

né il 1800, né il 1900. In un periodo di 400 anni vi sono, allora, 97 anni bisestili, e, quindi, com-

plessivamente giorni che corrispondono ad esattamente 20871 settimane.

×

400 365 + 97 = 146097

I giorni della settimana si ripetono, dunque, ogni 400 anni; baster à, perciò, fare riferimento ad un

ciclo di 400. La probabilità di un giorno bisestile, vale a dire la probabilità di un 29 febbraio, è

p b

dunque 97 ' 0.000664 = 0.0664 %.

p =

b 146097

La probabilità di un giorno normale è 400 '

p = 0.002738 = 0.2378 %,

n 146097

che è da confrontarsi con che è la probabilità che verrebbe

'

1/365 0.002740 = 0.2740 %,

spontaneo usare nel modello piú ingenuo possibile.

(1.35) Si mescolano separatamente due mazzi di carte da gioco formati da carte ciascuno. Se si

52

gira una carta alla volta da ciascun mazzo, qual è la probabilità che coincidano le carte girate

(a) per prime,

(b) per 52–esime,

(c) sia per prime sia per 52–esime?

(1.36) Un’urna contiene palline di colori, precisamente del primo colore, del secondo

r m m

1 2

colore e cosı́ via. Si calcoli la probabilità che, estraendo, con o senza restituzione, palline ve ne

n

siano del primo colore, del secondo colore,. , dell’r–esimo colore.

k k . . k

1 2 r

(1.37) Due urne e hanno la medesima composizione; entrambe contengono palline delle

U U n

1 2

quali sono bianche. Si estragga una pallina da (senza guardarne il colore) e la si ponga in .

b U U

2 1

Qual è ora la probabilità di estrarre una pallina bianca da ?

U 1

(1.38) Si lancia una moneta per volte. Se qual è la probabilità

10 P (T ) = P (C) = 1/2,

(a) di avere testa nei primi lanci e croce nei successivi

5 5?

(b) di avere teste e croci?

5 5

(c) di avere almeno teste?

5

(d) di ottenere non piú di teste?

5

(1.39) Un’urna contiene palline bianche e colorate. Ad ogni istante si estrae una pallina, se ne

b c

nota il colore e la si rimette nell’urna insieme a palline dello stesso colore di quella estratta. Si

d

calcolino le probabilità

(a) che la seconda pallina estratta sia bianca;

(b) che la prima pallina sia bianca sapendo che la seconda pallina estratta è bianca.

(1.40) In un teatro si vendono a caso biglietti per le poltrone di una fila (n Qual è la

k n > k)).

probabilità che, in quella fila, non vi siano persone sedute l’una accanto all’altra?

CAPITOLO 1. PROBABILITÀ DISCRETE 56

(1.41) Se gli eventi sono indipendenti si ha

A , A , . . . , A

1 2 n n

Y

ni=1 ci

P (∪ A ) =1 P (A ).

i i=1

(1.42) Se gli eventi sono indipendenti e qual

A , A , . . . , A P (A ) = p (i = 1, 2, . . . , n),

1 2 n i i

è la probabilità che non se ne verifichi alcuno? Si mostri che tale probabilità è maggiorata da

P n .

− p

exp j

j=1

(1.43) Da un’urna che contiene palline bianche e nere si estraggono, con o senza restituzione,

4 2

palline. Si considerino gli eventi :=“l’i–esima pallina estratta è bianca”, estrae esatta-

4 A B:=“si

i

mente una pallina bianca nelle prime due estrazioni” e estrazioni si estraggono palline

C:=“nelle 4 2

bianche”. Allora

(a) sono indipendenti e ?

A A

1 4

(b) sono indipendenti e ?

B A 4

(c) sono indipendenti e ?

C A 4

(1.44) Si dia l’esempio di una probabilità e di tre eventi e tali che

A, B C

∩ ∩

P (A B C) = P (A)P (B)P (C)

senza che essi siano indipendenti.

(1.45) Si lancino contemporaneamente monete eguali per ognuna delle quali è la

n (n 3) p

probabilità di testa. Qual è la probabilità che una moneta mostri una faccia diversa da quella di tutte

le altre?

Se qual è la distribuzione della v.a :=numero del primo lancio nel quale si verifica

p = 1/2, T 1

la situazione della domanda precedente?

(1.46) Siano e due eventi con probabilità e entrambe in Si mostri che sono,

A B P (A) P (B), ]0, 1[.

in generale, false le relazioni

(a) c

P (A|B) + P (A|B ) = 1;

(b) c c

|B

P (A|B) + P (A ) = 1.

(1.47) Se è un evento tale che sia si dia una condizione necessaria e sufficiente

B 0 < P (B) < 1,

affinché valga la (b) dell’esercizio precedente.

(1.48) (a) Siano e eventi tali allora

A B P (A) > 0;

∩ | ∪ ≤ ∩ |

P (A B A B) P (A B A) .

(b) Siano e tre insiemi con allora

A, B C P (C) > 0;

∩ | |

P (A B) = P (A B, C) P (B C) .

(1.49) Un’urna contiene palline delle quali sono bianche; se ne estraggono in successione con

N b n,

o senza restituzione. Si calcoli, nei due casi, la probabilità condizionata se è l’evento

|

P (B A ), B

j k

è l’evento “si estraggono palline bianche”.

“la pallina estratta è bianca”, mentre k

j–esima A k

(1.50) Un’urna contiene un egual numero di palline bianche e colorate. Si estraggono con restitu-

zione due palline. Si calcolino le probabilità condizionate che entrambe le palline siano bianche

sapendo:

CAPITOLO 1. PROBABILITÀ DISCRETE 57

(a) che la prima pallina estratta è bianca;

(a) che almeno una delle due palline estratte è bianca.

Si risponda ai medesimi quesiti se l’estrazione è senza restituzione.

(1.51) Nell’estrazione senza restituzione di tre palline da un’urna che inizialmente ne contiene b

bianche e colorate, si calcoli la probabilità che la terza pallina estratta sia bianca.

c

(1.52) Si mostrino le diseguaglianze

(a) ≤

P (A∆C) P (A∆B) + P (B∆C);

(b) ∪ ∪ ≤

P [(A B)∆(C D)] P (A∆C) + P (B∆D).

(1.53) Al momento della nascita vi è probabilità che il neonato sia maschio. Qual è la probabi-

0.51

lità che una famiglia con figli abbia

4

(a) esattamente un maschio?

(b) esattamente una femmina?

(c) almeno un maschio?

(d) almeno una femmina?

(1.54) Nelle condizioni dell’esercizio precedente qual è il numero minimo di figli che una coppia

deve avere perché sia maggiore di la probabilità di avere almeno due maschi?

0.75

(1.55) In una famiglia con figli, qual è la probabilità condizionata che tutti i figli siano maschi se

4

(a) il primo figlio è maschio?

(b) se almeno uno dei figli è maschio?

(1.56) Due squadre giocano una serie di partite; vince il torneo la squadra che per prima vince quattro

partite. Nessuna partita può terminare in pareggio. Se la squadra ha probabilità (con ∈]0,

S p p 1[)

1

di vincere, si calcoli la probabilità che il torneo termini in o partite per (a) (b)

4, 5, 6 7 p = 2/3,

Nei due casi si calcoli anche la lunghezza media del torneo.

p = 1/2.

(1.57) Quante volte si deve lanciare una moneta con perch é sia almeno

P (T ) = P (C) = 1/2, 0.9

la probabilità che il rapporto tra il numero delle teste e quello dei lanci sia compreso tra e

0.4 0.6?

(1.58) Si controlli che effettivamente la distribuzione geometrica ha speranza finita.

(1.59) Si dimostri la seguente identità

k

X −

i n i

n ∈

(n N; i, k = 0, 1, . . . , n).

= −

r k r

k r=0

(1.60) Per la distribuzione ipergeometrica si ha effettivamente

n

X p = 1.

k

k=0

CAPITOLO 1. PROBABILITÀ DISCRETE 58

Si calcolino speranza e varianza di tale distribuzione.

(1.61) Per la distribuzione binomiale negativa si mostri che

X p = 1,

k

k∈Z +

e se ne calcolino speranza e varianza.

(1.62) La distribuzione di P è effettivamente una distribuzione di probabilità. Se ne calcoli la

ASCAL

speranza.

(1.63) In un processo di B sullo spazio di probabilità con

{X } F,

(Ω, P ), P (X =

ERNOULLI n 1

siano e gli istanti del primo e del secondo successo, rispettivamente. Si calcoli la

1) = p, T T

1 2

probabilità di sapendo che

{T {T

= k} = n}.

1 2

(1.64) Si calcoli la costante in modo che

λ n ∈

p = λ q /n (q ]0, 1[)

n

(n sia una distribuzione di probabilità (distribuzione logaritmica). Si calcolino speranza e

∈ N)

varianza della distribuzione logaritmica.

(1.65) In un processo di B sullo spazio di probabilità con

{X } F,

(Ω, P ), P (X = 1) =

ERNOULLI n 1

si calcoli la probabilità condizionata di avere un successo all’i–esima prova

p, (i = 1, 2, . . . , n)

sapendo che in prove si hanno successi, cioè |

n k P (X = 1 S = k).

i n

(1.66) In un processo di B sullo spazio di probabilità con

{X } F,

(Ω, P ), P (X = 1) =

ERNOULLI n 1

si calcoli

p, (a) per la probabilità (condizionata) di avere esattamente successi se si è

k = 0, 1, . . . , n, m + k

avuto un successo in ognuna delle prime prove, cioè |

m P (S = m + k S = m);

m+n m

(b) la probabilità (condizionata) di avere successi se nella serie di prove si sono

m + k m + n

ottenuti almeno successi cioè ≥

m P (S = m + k|S m).

m+n m+n

(1.67) (a) Per assegnati valori di e di si studii il comportamento dei termini della

∈ ∈

n N p ]0, 1[,

legge binomiale al variare di in {k

b(k; n, p) k = 0, 1, . . . , n};

(b) perché risulti occorre e basta che sia un numero naturale,

b(k; n, p) = b(k + 1; n, p), (n + 1)p

cioè ∈

(n + 1)p N.;

(c) per assegnati valori di in e di in si cerchi il massimo di al variare di (con

k N p ]0, 1[, b(k; n, p) n

n k).

(1.68) Siano date nel medesimo spazio di probabilità due v.a e , indipendenti ed

F,

(Ω, P ) X Y

entrambe di legge geometrica, rispettivamente di parametro e . Si determini la legge della v.a

p p

1 2

∨ }.

Z := X Y = max{X, Y

(1.69) Sia una v.a binomiale di parametro Quale che sia è

S p. b > 0,

n ≤

lim P (S b) = 0.

n

n→+∞

(1.70) Si calcoli la probabilità che una v.a binomiale di parametro assuma valore pari. Si mostri

S p

n

che, quale che sia tale probabilità tende a al tendere di a

p ]0, 1[, 1/2 n +∞.

CAPITOLO 1. PROBABILITÀ DISCRETE 59

(1.71) Se è una v.a geometrica di parametro si calcoli

X p E(1/X).

(1.72) Si calcoli la speranza − −

E [X (X 1) . . . (X k + 1)]

nei due casi:

(a) è una v.a con legge di P di parametro ∼ P(λ);

X λ, X

OISSON

(b) è una v.a geometrica di parametro

X p.

(1.73) Qual è l’andamento delle probabilità nella distribuzione di P al variare di in ?

p n Z

OISSON

n +

(λ è fissato).

> 0

(1.74) Se è una v.a con legge di P di parametro con numero naturale, si

X λ, λ λ N,

OISSON

calcoli −

E (|X λ|).

(1.75) Sullo spazio di probabilità si consideri un processo di B e si

F, {X }

(Ω, P ), ERNOULLI n

calcoli la probabilità che il primo successo avvenga ad un istante dispari.

Si mostri, inoltre, se che per ogni si pu ò trovare un sottoinsieme

∈ ⊂

p = 1/2, x [0, 1] J N

x

tale che sia eguale a la probabilità che il primo successo avvenga in un tempo che appartiene a ;

x J x

in simboli ∀ ∈ ∃J ⊂ ∈

x [0, 1] N P (T J ) = x.

x 1 x

(1.76) Sullo stesso spazio di probabilità si considerino due processi di B in-

F,

(Ω, P ) ERNOULLI

i tempi del primo

e

di parametri e rispettivamente. Siano

e

dipendenti 00

0

00

0 }

} {X

{X p p T T

1 2 1

1

n

n e si determini la legge di

successo nei due processi. Si calcoli la probabilità dell’evento 00

0 }

{T < T 1

1

condizionata da questo, vale a dire si calcolino, per le probabilit à

0 ∈

T k N,

1 0 0 00

|

P (T = k T < T ) .

1 1 1

(1.77) Sullo spazio di probabilità si consideri un processo di B si calcoli

F, {X }

(Ω, P ) ERNOULLI n

la probabilità condizionata di avere fallimenti prima di avere successi, subordinatamente al

k n

sapere che vi sono successi prima di avere successi.

0

k n + 1

(1.78) Un giocatore lancia volte una moneta con probabilità di ottenere testa. Tutte le volte che

n p

ottiene testa, un secondo giocatore lancia una moneta identica alla prima.

(a) Si costruiscano due v.a e che diano rispettivamente il numero di teste ed il numero di

U V

croci ottenute dal secondo giocatore;

(b) si determinino le leggi di e di ;

U V

(c) sono indipendenti e ?

U V

(1.79) (a) Si consideri un processo di B di parametro e, sullo stesso spazio

{X } p

ERNOULLI n

di probabilità la v.a indipendente da quelle della successione ha legge di

F, {X }.

(Ω, P ) N N

n

P n per e si determinino le leggi

P di parametro Si ponga ∈

X n N S = 0,

λ. S :=

OISSON i 0

n i=1

delle v.a. X S 1

S := n

N {N =n}

n∈Z +

che dà il numero di successi nelle prove e della v.a che conta il numero dei

N R := N S

N N

fallimenti nelle stesse prove.

N

CAPITOLO 1. PROBABILITÀ DISCRETE 60

(b) Le v.a e sono indipendenti.

S R

N N

(1.80) (Il paradosso delle due buste). Ci è chiesto di scegliere una busta tra due, sapendo che una del-

le due buste contiene il doppio del denaro dell’altra. Nella busta scelta vi sono 100 euro. Avendone

la possibilià, conviene lasciare quella busta e scegliere invece l’altra?

La risposta è apparentemente affermativa: infatti il guadagno medio provocato dal cambio è,

poiché l’altra busta può contenere 50 o 200 euro,

12 1

− −

50 + 100 = 50 25 = 25 > 0

2

dunque positivo.

Una risposta piú precisa. Vi sono due buste e la prima contiene dollari, la seconda A

A B; x 2x.

noi è incognito il valore di Si indichi con la probabilità che in vi siano dollari. Si scelga

x. p A x

x

ora una busta, che sarà con probabilità e si guardi il suo contenuto. Sia la v.a che indica

A 1/2 X

questo numero e si denoti con la probabilità condizionata che si sia scelta la busta

q P (A|X = x)

x

avendo osservato che Allora

A X = x. ∩ {X p

P (A = x}) x

| = .

P (A X = x) = P (X = x) P (X = x)

Ora ∩ {X ∩ {X

P (X = x) = P (A = x}) + P (B = x}) = p + p .

x x/2

Perciò p x

q = .

x p + p

x x/2

Allora il valore medio del denaro contenuto nell’altra busta è

1 −

x(1 q ).

e = 2xq + x

x 2

Si studii la diseguaglianza vale a dire che dà come soluzione

1 −

e > x, 2xq + x(1 q ) > x,

x x

2

.

1 p

p >

x x/2

2

La risposta in effetti dipende dai parametri e : poiché questi non sono dati, non esiste

p p

x x/2

una risposta “corretta”. Si veda a questo proposito L (1994).

INZER

(1.81) Una particella può muoversi lungo una retta occupando le posizioni con coordinate intere. Ad

ogni istante la particella si muove a destra o a sinistra secondo che il lancio di una moneta dia testa

o croce Se qual è la probabilità che al tempo la particella

(T ) (C). P (T ) = P (C) = 1/2, t = 10

sia

(a) al punto di partenza (l’origine delle coordinate)?

(b) al piú a distanza dall’origine?

1

(c) a distanza dall’origine?

2

Si risponda alle stesse domande se P (T ) = 0.51.

(1.82) Con riferimento all’esercizio precedente, si supponga che in corrispondenza del risultato C

la particella non si muova.

(a) Qual è la probabilità che al tempo la particella si trovi in

P (k) t = n x = k?

n

(b) Si mostri che ove e

− −

P (k) = p P (k 1) + q P (k), P (T ) = p P (C) = q := 1 p.

n n−1 n−1

(c) Qual è la probabilità che la particella si trovi alla destra del punto al tempo o al

x = 2 t = 3

tempo t = 4?

(d) Qual è la speranza della posizione della particella al tempo t = 3?

CAPITOLO 1. PROBABILITÀ DISCRETE 61

(e) Se qual è la posizione nella quale la particella ha maggior probabilit à di trovarsi

p = q = 1/2,

al tempo t = 4?

(1.83) Siano assegnate due urne e esteriormente indistinguibili. contiene palline bianche

U U U b

1 2 1 1

e palline colorate, mentre ne contiene rispettivamente e . Si scelga a caso un’urna e da

c U b c

1 2 2 2

questa si estragga con restituzione una successione di palline. Sia la successione di v.a che

{X }

n

dà il risultato dell’n–esima estrazione, in altre parole se all’n–esima estrazione si è estratta

X = 1

n

una pallina bianca, se si è estratta una pallina colorata.

X = 0

n

(a) sono indipendenti le v.a ?

X n

(b) si supponga e se la prima pallina estratta è bianca mentre

b = 2, c = 4, b = 5 c = 1;

1 1 2 2

la seconda è colorata, qual è la probabilità che le palline sia state estratte dall’urna ? e

U 1

dall’urna ?

U 2

(1.84) La Legge dei grandi numeri di B pu ò essere estesa al caso di una successione

ERNOULLI

di v.a indipendenti e isonome a valori nell’insieme finito nel caso delle

{X } {s };

S := , s , . . . , s

n 1 2 r

v.a di B è e oppure Si ponga

{s, } {0,

r = 2 S = f S = 1}. p := P (X = s ),

ERNOULLI j n j

probabilità che non dipende da perché le v.a della successione hanno tutte la stessa distribuzione,

n

e si considerino le v.a. n

X

(n)

N := 1 ,

{X }

=s

j j

k

k=1

ciascuna delle quali conta quante volte le prime v.a della successione abbiano assunto il valore ,

n s j

(n)

sicché rappresenta la frequenza del risultato nelle prime prove. Allora, per ogni

N /n s n > 0,

j

j

vale  )

( (n)

r

[ N j

 

− ≥

lim P = 0.

p

j

n

n→∞ j=1

(1.85) Se designa una curva regolare del piano complesso che contenga al suo interno l’origine,

C

si mostri l’eguaglianza Z Z

2 n n

1 1

(1 + z ) (1 + u)

dz = du,

2k+1 k+1

2πi z 2πi u

C C

e la si usi per stabilire la relazione

Z 2 n n

1 (1 + z ) dz = .

2k+1

2πi z k

C

Quest’ultima relazione si trova usata, senza commento né derivazione, in nel famoso articolo K AC

(1956).

(1.86) (Le scatole di fiammiferi di B ) Un matematico distratto, B , teneva una scatola

ANACH ANACH

di fiammiferi in ciascuna delle due tasche della giacca e quando aveva bisogno di accendere la

pipa sceglieva a caso la scatola da una delle due tasche. Se ciascuna delle due scatole inizialmente

contiene fiammiferi, si calcoli la probabilità

N

(a) che, quando B si accorge che una scatola è vuota, l’altra contenga fiammiferi;

p j

ANACH

j

(b) che, quando una scatola è vuota, l’altra contenga fiammiferi;

q j

j

(c) che la scatola che per prima è stata trovata vuota non sia stata la prima a svuotarsi.

CAPITOLO 1. PROBABILITÀ DISCRETE 62

(1.87) Si consideri un poligono convesso con lati, ove è una v.a con legge

N N

1 ≥

(n 3).

P (N = n) = n−2

2

Si calcolino e la speranza del numero delle diagonali del poligono considerato.

E(N ) E(D)

(1.88) Siano e due v.a isonome ed indipendenti tali che

X Y 1 ∈

P (X = n) = P (Y = n) = (n N)

n

2

Si calcolino:

(a) ∧ ≤

P (X Y n);

(b) P (X = Y );

(c) P (Y > X);

(d) divide

P (X Y );

(e) con

≥ ∈

P (X k Y ) k N.

(1.89) Un’urna contiene inizialmente palline bianche e palline colorate (b, Si estrae a

6

b c c = 0).

caso una pallina: se questa è colorata, non si effettuano piú estrazioni, se invece è bianca la si rimette

nell’urna insieme ad un’altra pallina bianca e si procede ad una nuova estrazione con le medesime

regole. Si indichi con la v.a. che conta il numero di estrazioni fino all’estrazione della prima

N

pallina colorata.

(a) Se si mostri che è finito e se ne calcoli il valore;

c > 1, E(N )

(b) se si mostri che

c = 1, E(N ) = +∞. 105,

(Esercizio adattato dal Problema 10504 in Amer. Math. Monthly 181–182

(1.90) In uno spazio di probabilità se le probabilità e sono entrambe in

F,

(Ω, P ), P (A) P (B) ]0, 1[

sono equivalenti le affermazioni:

(a) e sono a due a due indipendenti;

A, B A∆B

(b) .

1

P (A) = P (B) = 2 P (A B) = 2

(1.91) La seguente proprietà caratterizza la distribuzione geometrica: se e sono v.a discrete,

X Y

non sono costanti e sono indipendenti e se e sono indipendenti allora

∧ −

U := X Y V := X Y X

e hanno legge geometrica.

Y

(1.92) Siano e due v.a discrete e sia la loro densit à congiunta,

X Y p(x, y) := P (X = x, Y = y)

dove e assumono valori in due insiemi finiti o numerabili.

x y

(a) Si mostri che la somma ha densità data

X + Y X −

p(x, z x).

q(z) = x

(b) Se le v.a e sono, inoltre, indipendenti ed hanno entrambe legge di P di parametri

X Y OISSON

e rispettivamente, anche la somma ha legge di Poisson.

µ > 0 ν > 0 X + Y

CAPITOLO 1. PROBABILITÀ DISCRETE 63

(1.93) Un’urna contiene inizialmente palle bianche e palle colorate. Ad ogni istante si estrae a

b c

caso dall’urna una pallina, se ne nota il colore e la si rimette nell’urna insieme ad altre palline

d

dello stesso colore di quella estratta. Si calcolino le probabilit à:

(a) che la seconda pallina estratta sia bianca;

(b) che la prima pallina estratta sia bianca, sapendo che la seconda pallina estratta è bianca.

(1.94) Ad ogni istante si lanciano indipendentemente due monete; in una di esse la probabilit à di

ottenere “testa”è nell’altra è Qual è la probabilità di ottenere “testa” con entrambe le

1/2, 1/3.

monete per la prima volta al quinto lancio?.

(1.95) Siano date due urne. La prima, , contiene palline, delle quali portano il numero

U 15 5 1

1

mentre palline portano il numero (k La seconda urna contiene in egual

2 k = 2, 3, . . . , 6). U 2

proporzione palline con i numeri da a

1 6.

(a) Si scelga a caso un’urna e da questa si estragga a caso una pallina. Sia il numero della

N

pallina estratta; si calcolino per e

P (N = k) k = 1, 2, . . . , 6 E(N ).

(b) Si sceglie a caso un’urna, e, da questa, si estraggono con restituzione due palline; siano e

N 1

, rispettivamente i numeri delle due palline estratte. Qual è la probabilità

N P (N = 3, N =

2 1 2

Sapendo che e qual è la probabilità che le palline siano state estratte

4)? N = 3 N = 4,

1 2

dall’urna ?

U 1

(c) Sono indipendenti le v.a del punto precedente?

(1.96) Sia una successione di v.a indipendenti e tutte con legge di B di parametro

{X } ERNOULLI

n

e sia una v.a, indipendente da quelle, con legge di P di parametro Siano

p N λ > 0. S

OISSON 1

e le v.a che contano rispettivamente il numero di successi, e quello dei fallimenti,

{X

S = 1},

2 n

in prove. Allora

{X = 0}, N

n

(a) si scrivano e in funzione delle e di ;

S S X N

1 2 n

(b) si trovino le leggi di e di ;

S S

1 2

(c) si dica se e siano o no indipendenti.

S S

1 2

(1.97) (a) Sia una v.a binomiale di parametri e ; per si calcoli la probabilità

X n p j = 0, 1, . . . , n,

n n

condizionata ≥

P (X = j|X 1);

n n

(b) se è una v.a con legge di P di parametro per si calcoli la

∼ P(λ), ≥

Y λ > 0, Y j 0,

OISSON

probabilità condizionata ≥

P (Y = j|Y 1);

(c) se, per ogni è , si mostri che, per si ha

∈ ≥

n N, λ = n p j 0,

n ≥ ≥

lim P (X = j|X 1) = P (Y = j|Y 1).

n n

n→+∞

(1.98) Siano , , tre v.a indipendenti, tutte di legge geometrica con parametri rispettivamente

X X X

1 2 3

eguali a .

p , p , p

1 2 3

(a) Si calcoli la probabilità P (X < X < X );

1 2 3

(b) tre giocatori e lanciano a turno un dado nell’ordine ; si calcoli la

A, B C ABCABC . . .

probabilità che sia il primo a lanciare un il secondo e il terzo.

A 6, B C

Capitolo 2

Variabili aleatorie assolutamente

continue

2.1 L’estensione al caso continuo

In numerosissimi problemi applicativi il quadro nel quale ci siamo posti sinora, quello degli spazı̂

di probabilità e delle v.a. discreti, non è piú adeguato a costruire un modello dei fenomeni che

si vogliono studiare. Prenderemo dapprima in esame il caso dello spazio costituito dall’insieme

dei numeri reali. In questo caso lo spazio misurabile sul quale si costruiranno le probabilit à

R

sarà costituito dalla coppia ove con si indica la trib ú degli insiemi boreliani. Si pone

B), B

(R,

naturalmente il problema di descrivere il “generico” boreliano; poich é ciò non è possibile, di fatto

ci si limita a considerare quei sottoinsiemi di che si possono costruire con un numero finito o

R

numerabile di operazioni sugli insiemi del tipo con Si osservi che, se si ha

]−∞, x] x R. a < b,

successivamente \

]a, b] = ]−∞, b] ]−∞, a] ,

e, quindi,

\ [

1 1

e

− −

[a, b] = a .

,b [a, b[ = a, b

n n

n∈N n∈N

Non ci porremo, nel seguito, in condizioni di massima generalità perché ciò obbligherebbe ad

impadronirsi di strumenti tecnici che è opportuno rimandare ad un secondo momento. Introdurremo

quindi le probabilità nello spazio misurabile mediante la nozione di densit à di probabilità.

B)

(R,

è una densità di probabilità se

Diremo che una funzione →

f : R R +

(a) la funzione è a valori positivi, ciò che è già stato messo in evidenza, scrivendo che assume

f f

valori in ;

R +

(b) è integrabile in

f R;

(c) e l’integrale di esteso a tutto è eguale a

f R 1:

Z Z

+∞

f (x) dx := f (x) dx = 1.

−∞

R

Data una densità di probabilità , a questa è associata un’unica probabilità definita nello

f P f

spazio di probabilità per la quale si ha, se

B),

(R, a < b,

Z

b

P ((a, b)) = f (x) dx,

f a

64

CAPITOLO 2. VARIABILI ALEATORIE ASSOLUTAMENTE CONTINUE 65

Qui abbiamo scritto per indicare uno qualsiasi dei quattro insiemi

(a, b) ]a, b], ]a, b[, [a, b], [a, b[,

vale a dire che non si specifica se ciascuno degli estremi e dell’intervallo in questione appartenga

a b

oppure no all’intervallo stesso; per una probabilità definita da una densità questi quattro insiemi

hanno la stessa probabilità.

2.2 Le funzioni di ripartizione

Sia una v.a. (discreta o assolutamente continua). Si dice funzione di ripartizione (e, spesso, si

X

scriverà semplicemente f.r.) la funzione definita, per da

→ ∈

F : R [0, 1] t R

X (2.2.1)

F (t) := P (X t) .

X

Piú esplicitamente, se è una v.a. discreta che assume i valori con probabilità

X x p = P (X = x )

n n n

la sua f.r. si scrive X

F (t) = p .

X n

≤t

n:x n

Se, invece, è assolutamente continua con densità , la sua f.r. è data da

X f

Z t f (x) dx.

F (t) =

X −∞

La definizione (2.2.1) si applica anche a v.a. non del tipo considerato in questo lezioni.

Teorema 2.2.1. Se è la funzione di ripartizione di una v.a. allora essa è isotona

F : R [0, 1] X,

(x continua a destra (F per ogni e soddisf à

0 00 0 00

≤ ∈

< x =⇒ F (x ) F (x )), (x + 0) = F (x) x R),

alle seguenti condizioni e

lim F (x) = 0 lim F (x) = 1.

x→−∞ x→+∞

Dim. Se , vale l’inclusione sicché

0 00 0 00

{X ≤ } ⊂ {X ≤ },

x < x x x

0 0 00 00

≤ ≤ ≤

F (x ) = P (X x ) P (X x ) = F (x ),

ciò che mostra l’isotonia di .

F

Sia un qualsiasi numero reale e sia un’arbitraria successione di reali che tende decre-

{x }

x n

scendo a Si consideri la successione di insiemi definita da

x. {{X ≤ } ∈

x : n N} .

n

Questa è una successione decrescente

{X ≤ } ⊃ {X ≤ } ⊃ {X ≤ } ⊃

x x . . . x . . .

1 2 n

ed inoltre si ha {X ≤ ∩ {X ≤ }.

x} = x

n∈N n

Pertanto, in virtú del Teorema 3.1 del primo capitolo si ha

≤ ≤

F (x) = P (X x) = lim P (X x ) = lim F (x ).

n n

n→+∞ n→+∞

Sia ora un’arbitraria successione crescente di numeri reali che tende a La successione

{t } +∞.

n

di insiemi è crescente e si ha

{{X ≤ } ∈

t : n N}

n ∪ {X ≤ }

t = Ω,

n∈N n

CAPITOLO 2. VARIABILI ALEATORIE ASSOLUTAMENTE CONTINUE 66

sicché ≤ ≤

lim F (t ) = lim P (X t ) = P (X +∞) = 1.

n n

n→+∞ n→+∞

Se, invece, è un’arbitraria successione decrescente che tende a allora la successione

{s } −∞,

n

di insiemi è decrescente e si ha

{{X ≤ } ∈

s : n N}

n ∩ {X ≤ } ∅

s =

n∈N n

e ≤ −−−−−→

F (t ) = P (X s ) P (∅) = 0.

n n n→−∞

Ciò conclude la dimostrazione.

Si può dimostrare, ricorrendo a strumenti che non sono ancora a nostra disposizione, che per

ogni funzione che verifichi le proprietà del Teorema 2.2.1(b) e cioè:

F : R [0, 1]

(a) è crescente: 0 00 0 00

F x < x =⇒ F (x ) F (x );

(b) è continua a destra: ∀x ∈

F R F (x + 0) = F (x));

(c) e

lim F (x) = 0 lim F (x) = 1.

x→−∞ x→+∞

esiste almeno uno spazio di probabilità ed una v.a. definita in tale spazio che ha come

F,

(Ω, P ) X F

sua f.r.. Nel seguito chiameremo f.r. ogni funzione da in che goda delle tre propriet à (a),

F R [0, 1]

(b) e (c) appena date.

È ben noto dall’analisi che una funzione crescente e, dunque, in particolare, anche una f.r. ha al

piú un’infinità numerabile di punti di discontinuità.

2.3 Esempı̂

Si sono incontrate alcune leggi di probabilità discrete che ricorrono nelle applicazioni; di seguito si

studiano, sia pur sommariamente, alcune notevoli leggi di probabilit à definite da una densità e che

abbiamo chiamto assolutamente continue. Di alcune di esse si trover à spiegata la “genesi” negli

esercizı̂. Molte sono importanti per la Statistica.

Esempio 2.3.1. (Distribuzione normale o gaussiana). Si dice che una v.a. ha legge normale

X

o gaussiana di paramentri e (normale standard o ridotta nel linguaggio della Statistica) o, pi ú

0 1

brevemente, che è ciò che spesso si indica mediante se è assolutamente

X N (0, 1), X N (0, 1), X

continua con densità data da 1 2 (2.3.1)

√ ∈

exp(−x /2) (x R).

φ(x) = 2π

Per riconoscere che la (2.3.1) definisce effettivamente una densit à di probabilità, si osservi intanto

che per ogni Inoltre, si ricordi che è

φ(x) > 0 x R. Z √

2 (2.3.2)

π.

exp(−x ) dx =

R

ciò che assicura che la normalizzazione della densità (2.3.1)

Z φ(x) dx = 1.

R

CAPITOLO 2. VARIABILI ALEATORIE ASSOLUTAMENTE CONTINUE 67

Si ha inoltre Z

E(X) = x f (x) dx = 0

R

(basta osservare che l’integrando è una funzione dispari),

Z

1

2 2 2

V (X) = E(X ) = x exp(−x /2) dx

2π R Z

x=+∞

2

(−x /2) 1

xe 2

(−x /2)

√ √

− + e dx = 1;

= 2π 2π

x=−∞ R

resta cosı́ chiarito che il significato dei due parametri in è rispettivamente di speranza e di

N (0, 1)

varianza.

Si dice che una v.a. ha legge normale di parametri e con e o che è

Y m σ m R σ > 0, Y

(e si scriverà se ha densità

2 2

N (m, σ ) Y N (m, σ )) Y

2

(x m)

1 (2.3.3)

√ − ∈

exp

φ (x) = (x R).

2

N (m,σ ) 2

2π σ

Mediante un semplice cambio di variabile (y e l’uso della (2.3.2), si mostra che

= (x m)/σ)

è una densità di probabilità; nella stessa maniera si prova che e che

E(Y ) = m V (X) =

φ 2

N (m,σ )

.

2

σ La f.r. della legge non può essere scritta esplicitamente; essa si trova tabulata in

Φ N (0, 1)

apposite tavole per valori positivi dell’argomento (si vedano gli esercizı̂). A queste tavole si può

ricorrere anche per la legge perché

2

N (m, σ )

Z x 2

1 (t m)

√ − dt

F (x) = exp

2

N (m,σ ) 2

σ 2π −∞

Z x−m −

1 x m

σ 2

−s /2

= e ds = Φ .

σ

2π −∞

L’importanza della legge normale deriva soprattutto dal teorema del limite centrale, il primo esempio

del quale, anche storicamente, è dato dal teorema di M -L che si incontrerà nella

DE OIVRE APLACE

sezione 7. La legge normale trova innumerevoli applicazioni nella statistica e in molte scienze

sperimentali.

Esempio 2.3.2. (Legge uniforme). Una v.a. ha legge uniforme su un insieme boreliano

X A,

necessariamente limitato, della retta reale se ha densità data da

R 1 (x)

A (2.3.4)

.

f (x) = λ(A)

Solitamente il boreliano è un intevallo per il quale non occorre specificare se gli

A A = (a, b)

estremi appartengano o no all’intervallo stesso. Naturalmente, la (2.3.4) ha significato anche in altri

contesti ove è un insieme misurabile di uno spazio ove non è necessariamente la

F,

A (Ω, λ), λ

misura di L . La legge uniforme nel caso continuo corrisponde alla distribuzione uniforme

EBESGUE

nel caso discreto.

1 1

1 , , . . . , )

( n n n

Esempio 2.3.3. (Legge esponenziale). Si dice che una v.a. positiva ha legge esponenziale di

X

parametro se ha densità eguale a

λ > 0 −λ x (2.3.5)

(x).

f (x) = λ e 1 R +

CAPITOLO 2. VARIABILI ALEATORIE ASSOLUTAMENTE CONTINUE 68

Esempio 2.3.4. (Legge di C ). Una v.a. ha legge di C con parametri e ove

X α β

AUCHY AUCHY

e e si scrive se ha densità

∈ ∼

α R β > 0, X C(α, β), 1 (2.3.6)

" # ∈

f (x) = (x R).

2

x α

πβ 1 + β

Si controlla subito che la (2.3.6) è una densità di probabilità; infatti, è per ogni e

f (x) > 0 x R,

Z

Z dx

1

f (x) dx = 2

πβ −

x α

1+

R

R β

Z 1

1 +∞

−1

2 |arctan

(1 + t ) dt = = 1.

t|

= −∞

π π

R

La legge di C è spesso usata per fornire controesempı̂; in primo luogo quella di C è

AUCHY AUCHY

una legge che non ammette speranza finita. Infatti, se e si ha

α = 0 β = 1,

Z Z

|x|

1 1 x

E(|X|) = dx = 2 dx

2 2

π 1 + x π 1 + x

R R

1 +∞

2

ln(1 + x ) = +∞.

= 0

π

Esempio 2.3.5. (Legge gamma). La funzione gamma di E è definita da

Γ : ]0, +∞[ R

ULERO

Z +∞ −x

t−1 (2.3.7)

x e dx (t > 0).

Γ(t) := 0

Una v.a. ha legge gamma di parametri e se ha densità su data da

X r > 0 λ > 0 R +

r

λ −λ x r−1 (2.3.8)

f (x) = e x 1 (x).

R +

Γ(r)

Si scrive allora che La distribuzione esponenziale (2.3.5) è una particolare legge

X Γ(r, λ).

gamma, la Γ(1, λ).

Esempio 2.3.6. (Legge di S ). Una v.a. ha legge di S di parametro (e si

X t n > 0

TUDENT TUDENT

dice allora che ha gradi di libertà) se ha densità

X n

n +1

Γ 1

1 2 (2.3.9)

√ .

f (x) =

n n+1

nπ 2

Γ x 2

2 1+ n

Si noti che per la (2.3.9) è la distribuzione di C con parametri e

n = 1 α = 0 β = 1.

AUCHY

Esempio 2.3.7. è individuata dalla densità

(Legge del =chi quadro). Tale legge su

2

χ R +

x

(n/2)−1 −

x exp 2

2σ (2.3.10)

(x > 0).

f (x) = n/2 n

2 σ Γ(n/2)

Se una v.a. ha legge del chi quadro si scrive che si osservi che la legge del chi

2

X X χ (n, σ);

quadro è una particolare legge gamma, n 1

2

χ (n, σ) = Γ( , ).

2

2 2σ

CAPITOLO 2. VARIABILI ALEATORIE ASSOLUTAMENTE CONTINUE 69

Esempio 2.3.8. (Legge beta). Se e sono numeri strettamente positivi e se la funzione beta

a b B,

anch’essa introdotta da E è definita da

ULERO Z 1 r−1 s−1

B(r, s) := x (1 x) dx (r, s > 0),

0

la legge beta di parametri e è individuata dalla densità

a b a−1 b−1

x (1 x) (2.3.11)

f (x) = 1 (x).

]0,1[

B(a, b)

Se una v.a. ha legge beta di parametri e si scrive ∼

X a b X B(a, b).

Esempio 2.3.9. (La legge La legge di parametri e ha densit à

χ). χ(n, σ) n σ > 0

n/2

2(n/2) 2 2

−(nx

n−1 /2σ ) (2.3.12)

x e (x > 0).

f (x) = n

σ Γ(n/2)

√ si ottiene la legge di R ; ponendo invece

Se nella (2.3.12) si pone e 2 n = 3

n = 2 σ = α AYLEIGH

p

e si ha la legge di M . Entrambe trovano uso in fisica.

σ = α 3/2, AXWELL

Esempio 2.3.10. (Legge ). La legge di parametri e con e ha densit à

∈ ∈

F F n s n N s N

n −1

Γ[(n + s)/2] n x

n/2 2 (2.3.13)

f (x) = (x > 0).

n+s

Γ(n/2)Γ(s/2) s n 2

1+ x

s

2.4 Probabilità geometriche

Si parla di probabilità geometriche quando si abbia una legge uniforme sopra un insieme misurabile,

di misura di L finita in ; in tal caso, la probabilità dell’insieme in esame viene ad

n

R

EBESGUE

essere eguale al rapporto tra la sua misura e la misura del supporto della densit à di probabilità

uniforme. Poiché il campo delle probabilità geometriche è diventato un capitolo a sé del Calcolo

delle Probabilità (e della Geometria) ci limitiamo ad alcuni esempı̂ classici e semplici.

Esempio 2.4.1. (Il problema dell’ago di B ). Sopra un piano è tracciato un fascio di rette

UFFON

parallele che distano l’una dall’altra. Sul piano si lascia cadere “a caso” un ago, che si suppone

2a

omogeneo, di lunghezza Si chiede di calcolare la probabilit à che l’ago intersechi una delle

2l. p

rette tracciate sul piano. Per evitare la possibilità di piú intersezioni, si suppone che sia l < a.

L’espressione “a caso” ha sempre il significato di distribuzione uniforme; mentre ci ò è chiaro quando

l’insieme è finito, come nei giochi di carte o in una serie finita di lanci di una moneta, nel caso

in esame la dizione “a caso” ha bisogno di essere precisata. Si pu ò fissare la posizione dell’ago

rispetto all’insieme delle rette anziché rispetto ad una retta particolare, mediante due coordinate, la

distanza del punto medio dell’ago dalla retta pi ú vicina e l’angolo acuto che la direzione dell’ago

x θ

forma con quella della retta. Lasciar cadere “a caso” l’ago significa supporre distribuzioni uniformi

per nell’intervallo e per nell’intervallo L’ago interseca una retta quando, e

x (0, a) θ (0, π/2).

solo allora che, è verificata la diseguaglianza Nel piano dei parametri che si

x l sin y. (θ, x)

suppongono indipendenti, l’insieme dei punti ai quali corrisponde un’intersezione è quello situato

sotto la sinusoide di equazione x = l sin θ.

CAPITOLO 2. VARIABILI ALEATORIE ASSOLUTAMENTE CONTINUE 70

Figura 5.1

La probabilità d’avere un’intersezione è dunque

p Z π/2 2l

2l

2 π/2

[− cos θ] = .

l sin θ dθ =

p = 0

πa πa πa

0

Tale formula si presta alla determinazione “sperimentale” di supposto, infatti, di aver ottenuto

π: m

intersezioni in lanci, si ha . La tabella che segue riporta i risultati di alcuni esperimenti

2ln

'

n π am

effettivamente compiuti. Nome valore “sperimentale” di

n p

Wolff (1850) 5000 3.1596

Smith (1855) 3204 3.1553

Fox (1894) 1120 3.1419

Lazzarini (1901) 3408 3.1415329.

I risultati di F e di L sono poco affidabili. Infatti si consideri la differenza tra i valori

OX AZZARINI

corrispondenti a e del numero di intersezioni

m m + 1 am a l 1

a(m + 1) − = > = > 0.0001

2ln 2ln 2ln 2ln 2n

se n < 5000.

Esempio 2.4.2 (Il paradosso di B ). Nella seconda metà dell’Ottocento, quando il Cal-

ERTRAND

colo delle Probabilità non aveva ancora avuto una sistemazione soddisfacente, B pose la

ERTRAND

seguente domanda: Qual è la probabilità che tracciando a caso una corda in una circonferenza di

raggio questa abbia lunghezza maggiore di quella del lato del triangolo equilatero inscritto nella

r, l

circonferenza?

A questa domanda B dette risposte differenti.

ERTRAND

Prima risposta: Per evidenti ragioni di simmetria si pu ò fissare un estremo della corda in un punto

qualsiasi della circonferenza; la corda avrà lunghezza maggiore di se cadrà nell’angolo del trian-

l

golo equilatero che ha un vertice nell’estremo fissato. Poiché si traccia una corda a caso, si supporrà

una distribuzione uniforme degli angoli; la probabilità cercata è dunque p = 1/3.

1

Seconda risposta: Poiché tutte le direzioni sono equivalenti si può immaginare che la corda sia

parallela ad uno dei lati del triangolo. La distanza di ogni lato di un triangolo equilatero dal centro

della circonferenza nella quale è inscritto è di Ora la lunghezza della corda sarà maggiore di

r/2. l

se, e solo se, essa dista dal centro della circonferenza meno di La probabilit à cercata è dunque

r/2.

r/2 = 1/2.

p =

2 r

Terza risposta: La lunghezza della corda sarà maggiore di se il suo punto medio dista dal centro

l

meno di vale a dire, se il suo punto medio cade all’interno del cerchio di raggio e centro

r/2, r/2

coincidente con quello della cinconferenza data. La probabilit à cercata è data allora dal rapporto tra

2

πr /4

le aree dei due cerchi ed è perciò = 1/4.

p =

3 2

πr

Qual è allora la risposta corretta alla domanda posta da B ?

ERTRAND

L’origine del paradosso sta nel fatto che l’espressione “a caso” non è precisata, tanto che sopra si

sono viste tre diverse interpretazioni di tale espressione giungendo a tre risposte differenti; precisan-

do cosa si intenda si individua anche la risposta corretta, poich é sopra si hanno tre maniere diverse

di tracciare “a caso” una corda: tenendo fisso un estremo, tenendo fissa la sua direzione, guardando

alla posizione del suo punto medio.

CAPITOLO 2. VARIABILI ALEATORIE ASSOLUTAMENTE CONTINUE 71

2.5 I vettori aleatorı̂

Definizione 2.5.1. Dato uno spazio di probabilità si dice vettore aleatorio un’applicazio-

(Ω, F, P )

ne da in tale ogni componente di sia una

n

X = (X , X , . . . , X ) Ω R X (j = 1, 2, . . . , n) X

1 2 n j

variabile aleatoria

L’abbreviazione v.a. sarà usata per indicare tanto una variabile aleatoria quanto un vettore aleato-

rio; ciò non crea alcuna possibilità di confusione perché il contesto renderà chiaro se si tratti dell’una

oppure dell’altro.

La f.r. di è la funzione definita da

n →

X F : R [0, 1]

X ni=1 (2.5.1)

{X ≤ })

F (x) := F (x , x , . . . , x ) = P (∩ x .

X X 1 2 n i i

Qui di seguito ci limiteremo, per semplicità, allo studio delle f.r. bidimensionali; piú in generale,

studieremo di solito i vettori aleatorı̂ con due componenti.

Teorema 2.5.1. La f.r. di un vettore aleatorio gode delle seguenti proprietà:

F X = (X , X )

1 2

(a) lim F (x , x ) = 0, (i = 1, 2);

→∞

x 1 2

i

(b) lim F (x , x ) = 1;

1 2

}→+∞

min{x ,x

1 2

(c) è continua a destra in ogni variabile;

F

(d) per ogni rettangolo con e , si ha

× ≤ ≤

]a , b ] ]a , b ], a a b b

1 1 2 2 1 2 1 2 (2.5.2)

− − ≥

F (b , b ) F (b , a ) F (a , b ) + F (a , a ) 0.

1 2 1 2 1 2 1 2

La dimostrazione delle proprietà (a), (b), (c) non presenta alcuna difficoltà ed è del tutto simile

a quella delle analoghe proprietà delle f.r. semplici. Per quanto riguarda la (d), si osservi che

l’espressione che compare a primo membro della (2.5.2) rappresenta la probabilit à che il v.a. X

assuma valori nel rettangolo sicché deve necessariamente essere positiva.

×

]a , b ] ]a , b ],

1 1 2 2

Si dirà f.r. (doppia o bidimensionale) ogni funzione che goda delle proprietà

2 →

F : R [0, 1]

del teorema 2.5.1.

Si osservi che, benché sia vero che una f.r. doppia è crescente in ogni variabile, quest’ultima

proprietà non può sostituire la proprietà (d) (si vedano a questo proposito gli esercizı̂).

Un vettore aleatorio si dice assolutamente continuo se tale è la sua legge; esiste allora una

X

funzione , detta densità di probabilità (bidimensionale) integrabile e con integrale

2 →

f : R R +

eguale a 1: Z

Z Z

Z f (x , x ) dx = 1.

f (x , x ) dx = dx

dx 1 2 1

1 2 2 2

1 R

R R

R

Negli integrali come l’ultimo appena scritto non ci si deve preoccupare dell’ordine d’integrazio-

ne, vale a dire se si integra prima rispetto alla variabile e poi si integra il risultasto rispetto alla

x 2

variabile o viceversa, perché la funzione integranda è positiva. Se è assolutamente continuo e

x X

1

ha densità eguale a , la sua f.r. si scrive

f Z Z

x x

1 2

F (x , x , . . . , x ) = dt f (t , t ) dt .

1 2 n 1 1 2 2

−∞ −∞

Si dice assolutamente continua la f.r. di un v.a. assolutamente continuo.

X

CAPITOLO 2. VARIABILI ALEATORIE ASSOLUTAMENTE CONTINUE 72

Viceversa, se del v.a. si sa che è assolutamente continuo e se ne conosce la f.r. , da questa

X F

si può ricavare la densità di probabilità. Tranne, al piú, in un insieme di punti che ha misura di

L nulla si ha

EBESGUE 2

∂ F (x , x )

1 2

f (x , x ) = .

1 2 ∂x ∂x

1 2

Una volta che sia nota la f.r. del vettore aleatorio si possono ottenere le f.r. delle componenti

X,

; se si ha

X x R,

i i ≤ ≤ } ∩ {X ≤

F (x ) = P (X x ) = P ({X x +∞}) = F (x , +∞),

1 1 1 1 1 1 2 1

ove si è usata la convenzione φ(+∞) := lim φ(t).

t→+∞

Analogamente ≤ ≤ ∩ {X ≤ })

F (x ) = P (X x ) = P ({X +∞} x = F (+∞, x ).

2 2 2 2 1 2 2 2

Le f.r. che si sono appena calcolate si chiamano f.r. marginali di ; cosı́ si chiamano pure le

F F

i

leggi che esse individuano.

Se è assolutamente continua tale è anche ogni sua marginale. Infatti, ricorrendo, com’è lecito,

F

al teorema di F , si ha, per la componente del v.a.

X X = (X , X ),

UBINI 1 1 2

Z Z

x +∞

1 dt f (t , t ) dt .

F (x ) = 1 1 2 2

1 1 −∞ −∞

Poiché si è scritta la f.r. marginale come l’integrale di una funzione positiva, integrabile e con

F 1 è data, per quasi ogni

integrale esteso a tutto eguale a 1, si riconosce che la densità di e di

R F X

1 1

da

x 1 R, Z

+∞

f (x ) = f (x , t ) dt .

1 1 1 2 2

−∞

Analogamente, la densità dell’altra componente di o, ciò che lo stesso della f.r. marginale

X X, F

2 2

è, per quasi ogni ∈

1 R,

x Z

+∞

f (x ) = f (t , x ) dt .

2 2 1 2 1

−∞

Esempio 2.5.1. (La legge normale doppia). Un esempio importante di legge congiunta di due v.a.

è dato dalla legge normale doppia, introdotta mediante la densit à

e

X X

1 2 1

p ×

f (x , x ) :=

1 2 2

2π σ σ 1 ρ

1 2

2 2

− − −

1 (x m ) x m (x m )

x m

1 1 2 2 2 2

1 1 (2.5.3)

− −

exp +

2ρ ,

2 2

2

2(1 ρ ) σ σ σ σ

1 2

1 2

ove e sono numeri reali e e sono reali strettamente positivi. Tale funzione è positiva,

m m σ σ

1 2 1 2

ovvimanet integrabile in . Per controllare che sia una densità basta cosı́ accertarsi che l’integrale

2

R

esteso a sia eguale a 1; questo scopo si raggiunge facilmente calcolando le densit à marginali

2

R f 1

CAPITOLO 2. VARIABILI ALEATORIE ASSOLUTAMENTE CONTINUE 73

e , che, alla luce della simmetria della (2.5.3) in e son eguali. Ricorrendo all’usuale metodo

f x x

2 1 2

di completare il quadrato e ponendo e si ha

− −

x := (x m )/σ y := (x m )/σ

1 1 2 2 2

Z

f (x ) = f (x , x ) dx

1 1 1 2 2

R

1

1 2

p − ×

exp

= x

2

2(1 ρ )

2

2π σ 1 ρ

1

Z

1 2

−2ρ

− dy

xy + y

exp 2

2(1 ρ )

R

2

1 1 ρ

2 2

p − ×

= exp x + x

2 2

2(1 ρ ) 2(1ρ )

2

2π σ 1 ρ

1

Z

1 2 2 2

− dy

ρ x 2ρ xy + y

exp 2

2(1 ρ )

R Z

2

1 (x m ) 1

1 1 2

p − − −

= exp exp dy

(y ρ x)

2 2

2 σ 2(1 ρ )

2

2π σ 1 ρ 1

1 R

Z

2 2

(x m ) t

1 1 1

p − −

exp dt.

exp

= 2 2

2 σ 2(1 ρ )

2

2π σ 1 ρ 1

1 R

p −1 che lo precede, si riconosce facil-

In quest’ultimo integrale, e nel coefficiente 2

2π (1 ρ )

mente l’integrale della densità della legge normale che è, pertanto eguale a 1. In

2

N (0, 1 ρ ),

definitiva, si ha

2

(x m )

1 1 1

√ −

exp

f (x ) = ,

1 2

2 σ

2π σ 1 1

sicché si può concludere che le marginali della legge normale doppia di densit à (2.5.3) sono rispe-

tivamente le leggi e È ora evidente che la (2.5.3) è la densità di un vettore

2 2

N (m , σ ) N (m , σ ).

1 2

1 2

aleatorio che sarà detto vettore gaussiano e normale.

(X , X ),

1 2

È facile riconoscere che, se è un’applicazione da in e se è una tribú di sottoinsiemi

0

F

X Ω Ω 1

di , allora la famiglia

Ω 1 −1 0 0 −1

F(X) {A ⊂ ∃E ∈ F

:= X (F ) := Ω : : A = X (E)}

è una tribú di sottoinsiemi di Essa è la piú piccola tribú di sottoinsiemi di rispetto alla quale

Ω. Ω X

è una v.a.. Se è una v.a. sullo spazio di probabilità si ha, evidentemente,

F, F(X) ⊂ F.

X (Ω, P ),

Definizione 2.5.2. Sia una famiglia di v.a. sullo stesso spazio di probabilità

{X ∈ F,

: ι I} (Ω, P );

ι

le v.a. della famiglia si dicono (stocasticamente) indipendenti se tali sono le trib ú della famiglia

−1

{X ∈

(B) : ι I}.

ι

Si noti che questa definizione coincide con quella già nota dal Capitolo 1 se le v.a. considerate

sono discrete.

Si potrebbe dimostrare che, poiché la famiglia di semirette genera la trib ú

{]−∞, ∈

x] : x R}

di B , due v.a. e sono indipendenti se, e solo se, la f.r. del v.a. si

X X F X = (X , X )

OREL 1 2 1 2

fattorizza nel prodotto delle f.r. e delle v.a. e , in simboli , vale a dire

F F X X F = F F

1 2 1 2 1 2

che, quali che siano i punti e di vale la relazione

x x R

1 2 F (x , x ) = F (x ) F (x ).

1 2 1 1 2 2

CAPITOLO 2. VARIABILI ALEATORIE ASSOLUTAMENTE CONTINUE 74

Se, inoltre, il vettore è anche assolutamente continuo con densità , allora le v.a.

X = (X , X ) f

1 2

e , che sappiamo già essere anch’esse assolutamente continue, sono indipendenti se, e solo

X X

1 2

se, la densità si fattorizza nel prodotto delle densità marginali e di e , ,

− ⊗

f f f X 1 X f = f f

1 2 2 1 2

cioè (2.5.4)

f (x , x ) = f (x ) f (x ).

1 2 1 1 2 2

Corollario 2.5.1. Se le v.a. e sono indipendenti e se le funzioni e da in sono

X X ϕ ϕ R R

1 2 1 2

misurabili, allora sono indipendenti anche le v.a e .

◦ ◦

ϕ X ϕ X

1 1 2 2 −1

Dim. Siano e due arbitrarı̂ boreliani della retta. Si ha, poiché anche gli insiemi e

B B ϕ (B )

1 2 1

1

−1 sono boreliani, si ha

ϕ (B )

2

2 h i

−1 −1

◦ ∩ ◦

P (ϕ X ) (B ) (ϕ X ) (B )

1 1 1 2 2 2

−1 −1 −1 −1

◦ ∩ ◦

= P X ϕ (B ) X ϕ (B )

1 2

1 1 2 2

−1 −1 −1 −1

= P X ϕ (B ) X ϕ (B )

1 2

1 1 2 2

−1

−1 −1

−1 ϕ (B )

ϕ (B ) P X

= P X 2

1 2

1 2

1

h i h i

−1 −1

◦ ◦

= P (ϕ X ) (B ) P (ϕ X ) (B ) ,

1 1 1 2 2 2

cioé l’asserto.

Del seguente teorema abbiamo già incontrato la versione discreta.

Teorema 2.5.2. Siano v.a. indipendenti sullo spazio di probabilit à Se entrambe

F,

X X (Ω, P ).

1 2

hanno speranza finita, è finita anche la speranza del loro prodotto e vale la relazione

!

n

Y = E (X ) E (X ) .

E X i 2

i

i=1

Dim. Poiché vale la (2.5.4), si ha Z Z

E (X X ) = dx x x f (x , x ) dx

1 2 1 1 2 1 2 2

R R

Z Z

= x f (x ) dx x f (x ) dx

1 1 1 1 2 2 2 2

R R

   

Z Z

   

= x f (x ) dx x f (x ) dx

1 1 1 1 2 2 2 2

   

R R

= E (X ) E (X ) ,

1 2

cioè l’asserto.

Segnaliamo infine, senza dimostrarlo che è possibile assegnare un numero finito o un’infinità

numerabile di f.r. e essere sicuri che esista un eguale numero di v.a. indipendenti e

{F } {X }

n n

definite sullo stesso spazio di probabilità e tali che, per ogni sia la legge della v.a. .

n, F X

n n

Siamo ora in grado di mostrare come il concetto di indipendenza sia legato alla misura di

probabilità considerata.

CAPITOLO 2. VARIABILI ALEATORIE ASSOLUTAMENTE CONTINUE 75

Esempio 2.5.2. Si consideri lo spazio di probabilità e siano e eventi indipendenti

B,

(R, P ) A B

rispetto a , cioè e tali che e Sia ora

P P (A B) = P (A) P (B), 0 < P (A) < 1 0 < P (B) < 1. Q

una probabilità su definita mediante la densità , costruita come segue. Si scelga un insieme

B)

(R, f

in in modo che risulti

B

C (a) c c

⊂ ∩

C A B

(b) (si osservi che c c c c

P (C) > 0 P (A B ) = P (A ) P (B ) > 0)

e si definisca, scegliendo e in modo che risulti anche

A B P (A) + P (B) < 1,

− −

P (B) 1 P (A) P (B)

P (A) 1 + 1 + 1 ;

f := C

A\B B\A

\ \

P (A B) P (B A) P (C)

è effettivamente una densità di probabilità. Inoltre, risulta ma

f Q(A) = P (A), Q(B) = P (B),

sicché gli eventi e indipendenti rispetto a , non sono indipendenti rispetto a

Q(A B) = 0 A B, P

Q.

2.6 La covarianza

La covarianza, e piú ancora il coefficiente di correlazione, misura la dipendenza lineare di due v.a..

Definizione 2.6.1. Date due v.a. e , entrambe con varianza finita, si dice covarianza di e

X Y X Y

la speranza Cov(X, (2.6.1)

− −

Y ) := E [{X E(X)}{Y E(Y )}] .

Le v.a. e si dicono incorrelate se Cov(X,

X Y Y ) = 0.

La diseguaglianza di S assicura che la covarianza di e di è finita; infatti, poiché

X Y

CHWARZ

e hanno varianza finita,

X Y

2 2 2

≤ {X − {Y −

(Cov(X, Y )) E E(X)} E E(Y )}

= V (X) V (Y ) < +∞.

Dalla (2.6.1) scende la seguente espressione, utile per il calcolo effettivo della covarianza,

Cov(X, (2.6.2)

Y ) = E(XY ) E(X)E(Y ).

Date le v.a. , tutte con varianza finita, si chiama matrice di varianza–covarianza la

X , X , . . . , X

1 2 n

matrice, i cui elementi sono definiti da

×

n n, V Cov(X 6

v := V (X ), v := , X ) (i = j).

ii i ij i j

Teorema 2.6.1. Nelle condizioni di questa sezione, se sono numeri reali e la v.a. è

c , c , . . . , c Z

1 2 n

P n

definita da , si ha

Z := c X

i i

i=1 n

X c c v .

V (Z) = i j ij

i,j=1

CAPITOLO 2. VARIABILI ALEATORIE ASSOLUTAMENTE CONTINUE 76

Dim. Non è restrittivo supporre che le v.a. siano centrate, cioè per ogni indice

X E(X ) = 0 i

i i

in se non lo fossero, basterebbe considerare le v.a. Allora,

0

{1, −

2, . . . , n}; X := X E(X ).

i i

i

e

E(Z) = 0    !  

! 2

n n n

X X X

     

V (Z) = E c X = E c X c X

i i i i j j

i=1 i=1 j=1

n

n X

X c c v ,

c c E(X X ) =

= i j ij

i j i j i,j=1

i,j=1

ciò che conclude la dimostrazione.

Sono immediati i seguenti corolları̂

Corollario 2.6.1. La matrice di covarianza è semidefinita positiva.

Corollario 2.6.2. Cov(X,

V (X + Y ) = V (X) + V (Y ) + 2 Y ).

Corollario 2.6.3. Per due v.a. e di sono equivalenti le asserzioni:

2

X Y L

(a) e sono incorrelate;

X Y

(b) E(XY ) = E(X)E(Y );

(c) V (X + Y ) = V (X) + V (Y ).

È conseguenza immediata di (9.8) che v.a. indipendenti siano incorrelate. Non è vero, in

generale, che v.a. incorrelate siano indipendenti (si vedano gli esercizı̂).

Se le v.a. e hanno varianza finita e non sono quasi certamente costanti, ci ò che equivale a

X Y

dire e si definisce il coefficiente di correlazione mediante

6 6

V (X) = 0 V (Y ) = 0, ρ(X, Y )

Cov(X, Y )

ρ(X, Y ) := σ(X)σ(Y )

essendo lo scarto quadratico medio della v.a. (detto anche, soprattutto nelle discipline spe-

σ(X) X

rimentali, deviazione standard), definito come la radice quadrata, col segno positivo, della varianza

p

di Evidentemente

X, σ(X) := V (X). |ρ(X, ≤

Y )| 1.

Si vedrà negli esercizı̂ che il coefficiente di correlazione misura la dipendenza lineare delle due v.a.,

nel senso che se, e solo se, esistono due costanti reali e tali che

|ρ(X, Y )| = 1 a b Y = aX + b.

Riprendiamo qui l’esempio 2.5.1 e calcoliamo il coefficiente di correlazione di un vettore gaus-

siano la cui densità è data dalla (2.5.3).

(X , X ),

1 2


PAGINE

107

PESO

658.23 KB

AUTORE

luca d.

PUBBLICATO

+1 anno fa


DETTAGLI
Esame: Matematica
Corso di laurea: Corso di laurea in matematica
SSD:
A.A.: 2005-2006

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher luca d. di informazioni apprese con la frequenza delle lezioni di Matematica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Roma Tre - Uniroma3 o del prof De Giorgi Ennio.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in matematica

Algebra - Schema studio di funzione
Appunto
Tesi - Studio dei polinomi di quinto grado
Tesi