Anteprima
Vedrai una selezione di 9 pagine su 40
Esame Probabilità - teoria Pag. 1 Esame Probabilità - teoria Pag. 2
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Esame Probabilità - teoria Pag. 6
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Esame Probabilità - teoria Pag. 11
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Esame Probabilità - teoria Pag. 16
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Esame Probabilità - teoria Pag. 21
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Esame Probabilità - teoria Pag. 26
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Esame Probabilità - teoria Pag. 31
Anteprima di 9 pagg. su 40.
Scarica il documento per vederlo tutto.
Esame Probabilità - teoria Pag. 36
1 su 40
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Proprietà della covarianza e della varianza

Proprietà di simmetria:

Cov(X, Y) = Cov(Y, X)

Proprietà di bilinearità:

Cov(aX + bY, Z) = aCov(X, Z) + bCov(Y, Z)

Proprietà di indipendenza:

Se X o Y è una costante, allora Cov(X, Y) = 0.

Proprietà della varianza:

Sia (Ω, P) uno spazio di probabilità.

i) La varianza V ar(∗) : L (Ω, [0, +∞)) è un operatore non lineare.

V ar(aX + b) = aV ar(X)

ii) Per X1, X2, ..., Xn L (Ω, R), vale V ar(X1 + X2 + ... + Xn) = V ar(X1) + V ar(X2) + ... + V ar(Xn) + 2Cov(X1, X2) + 2Cov(X1, X3) + ... + 2Cov(Xn-1, Xn)

iii) V ar(X) = 0 se e solo se X è una costante.

  • −iv) L , c V ar(X) c) ) e l’uguaglianza vale sse c =R, E((X E(X)DIM:I punti i e ii seguono dallla definizione di V ar(z) = Cov(Z, Z) e la bilinearità della covarianza.⇐iii 2∈ −se X è qc costante, allora = c) = 1 per un qualche c Quindi (X è qc 0 e otteniamoP(X R. E(X))2−V ar(X) = = 0.E((X E(X))⇒iii 2−Supponiamo V ar(X) = 0. Allora (X è una variabile aleatoria positiva con valor medio nullo.E(X))−Segue che = 0) = 1, da cui la conclusione.P(X E(X)ivBasta osservsare che2 2 2 2 2) = ) = +2(E(X)−c)E(X−E(X))+(E(X)−c) = V ar(X)+(E(X)−c)E((X−c) E((X±E(X)−c) E(X−E(X))6.10 Valor medio e Indipendenza6.10.1 Proposizione 1 1∈Se X e Y somno variabili aleatorie reali indipendenti e in L , allora anche il prodotto XY L e si ha) = ). Nel caso in cui X e Y siano variabili aleatorie indipendenti e positive, la relazioneE(XY E(X)E(Y 1∈è valida anche senza l’ipotesi X, Y L

.1∈NB: due variabili aleatorie X, Y L indipendenti sono scorrelate, ovvero Cov(X; Y ) = 0.6.10.2

Corollario: varianza di variabili aleatorie indipendenti n n2 P P∈Se X , ..., X L sono variabili aleatorie indipendenti, allora V ar( X ) = V ar(X )i1 n ii=1 i=1Additività, non linearità! 156.11

Funzione generatrice dei momenti

6.11.1 DefSia X una v.al reale. Si dice funzione generatrice dei momenti della variabile aleatoria X la funzionetX→ ∪ {+∞}M : definita da M (t) = ).R R E(eX X6.11.2 Oss tXM (t) = +∞ per quei valori di t per cui la variabile aleatoria e ha valor medio infinito. Necessa-Xriamente M (0) = 1. Come suggerisce il nome stesso, questa funzione è utile per il calcolo dei momentiXdi una variabile aleatoria. Quando possibile si può usare il risultato seguente.

6.11.3 Teorema: Proprietà della funzione generatrice dei momentiSiano X una v.al reale e M la sua funzione generatrice dei momenti. Supponiamo che esista a > 0X∀t ∈tc

M (t) < +∞ (−a, a). Allora: X ∈i) la variabile aleatoria X ammette momenti di ogni ordine e, per ogni t (−a, a) la sua funzione generatrice dei momenti è data dalla seguente serie di Taylor: +∞ ∑ n=0 (n) ntX nM (t) = E(X ) n! ii) M è infinitamente derivabile in (−a, a) e, indicando con M (n) la derivata n-esima di M , vale la relazione X X (n) n ∀n ∈ M (0) = E(X N 0) DIM: −tXtX∈ Prendiamo t (−a, a). Allora entrambi M (t) = E(e ) e M (−t) = E(e ) sono finiti. Dalla disuguaglianza e + e ≤ e|x| + e|x| ≤ ∀t ∈ (−a, a) segue quindi R,t|x| ≤ ∀t ∈ M (t) = E(X N 0) X X ∀α ∈ Usiamo la serie esponenziale per ricavare le disuguaglianze che ci saranno utili. Per α > 0, n valgono: N 0 αn ≤ D1) α n!e k+∞ α α P ≤ αe D2) n k=n k! k n+∞ α α α P ≥ Infatti, si ha e = 1 + α + α^2/2! + α^3/3! + ... , da cui siottiene D1. Inoltre vale:

k=0 k! n!+∞ +∞ +∞k k k−1α α αX X X α≤n k = α = αe−k! k! (k 1)!k=n k=nk=n |tx||t|Prendiamo h > 0 tc + h < a. Usando D1, con α = h|x| e moltiplicando per e , otteniamo|tx| |tx| ∗n! n!n (|t|+h)|x| n|X| ≤ ⇒ ≤ ∀n ≥ ∀t ∈e e ** e ) M (|t| + h) < < +∞ 0 (−a, a).E(|X| |X|n nh h 16iIl fatto che X ammetta momenti di ogni ordine segue da ** per t = 0. Per quanto riguarda la rappresen-tazione in serie di M osserviamo cheXn ktX k−M (t) )E(XX k!k=0 = linearità .mediov n nk kt th h iiX Xtx txk k− −≤e e= X XE Ek! k!k=0 k=0−= serie exp+∞ nkt ih kX Xk tk−= X XE k!k!k=0 k=0+∞ +∞k k|tX| |t|th i h iX X |tX|k D2≤ ≤ ≤X= )E E E(|X|ek! k! n +1k=n+1 k=n+1e quindi il membro destro della precedente stima va a zero per n che tende all’infinito. Avendo dimostratoche M è la somma di una

serie di potenze, per ottenere ii basta ricordare che una serie di potenze può essere derivata termine a termine nel suo raggio di convergenza. Q.E.D

6.11.4 Proposizione

Se X e Y sono variabili aleatorie reali indipendenti, allora M = MX+Y = MXMY

DIM: tX, tY ∈

Per ogni t le variabili aleatorie X, Y e Z sono positive ed indipendenti, quindi si ottiene:

MX+Y(t) = MX(t)MY(t)E(et(X+Y)) = E(etX)E(etY) = E(etX)E(etY)

Per induzione la proposizione precedente si può estendere al caso di n variabili aleatorie reali X1, ..., Xn indipendenti. Vale:

∀t ∈ MX+...+Xn(t) = MX(t)...MXn(t) = E(et(X+...+Xn)) = E(etX)...E(etXn)

6.12 Classi notevoli di variabili aleatorie discrete

6.12.1 Variabili uniformi discrete

Sia E un insieme finito. Una variabile X a valori in E si dice uniforme discreta se P(X = x) = 1/|E| ∀x ∈ E

Consideriamo il caso particolare in cui E = {1, ..., n}:

E(X) = 1/n * (1 + 2 + ... + n) = n(n + 1)/2n = (n + 1)/2

2k=1k=1• n n1 1 n(n + 1)(2n + 1) (n + 1)(2n + 1)X X2 2 2) = k p (k) = k = =E(X X n n 6 6k=1 k=1• 2 −22 n 1(n + 1)(2n + 1) n + 1 2 − − =V ar(X) = ) =E(X E(X) 6 2 12• nn t(n+1) t−1 e e1 XX ∗tX tktk ̸M (t) = e = e = = t = 0e p (k) =EX X t −n n e 1k=1k=1 n+1n+1 nn −1−1 aa kk PP ̸ ⇒ −a = 1 1* Ricordando che a =a = k=1k=0 a−1 a−16.12.2 Variabili aleatorie di Bernoulli ∈Una v.al X si dice di Bernoulli di parametro p [0, 1] se X assume i valori 0 e 1 e ⇒ −= 1) = p (1) = p = 0) = p (0) = 1 pP(X P(XX X∼Scriviamo X Be(p).• 2−= 0(1 p) + 1p = p = )E(X) E(X• 2 2 2− − −V ar(X) = ) (X) = p p = p(1 p)E(X E• tX t −M (t) = e = 1(1 p) + e pEX6.12.3 Variabili aleatorie binomiali ∈ ∈ {0...n}Una v.al X si dice binomiale di parametri n e p (n p [0, 1] se è a valori in e, perN,∈ {0...n}k nk k n−k− ∼p (k) = p (1 p)

ScriveremoX Bin(n, p).

NOTA: La variabile aleatoria che fornisce il numero di successi in n prove ripetute indipendenti con prob.di successo p è una Bin(n, p).

6.12.4 Proposizione∼Siano X ...X Be(p) indipendenti, allora:

1 n ∼X := X + ... + X Bin(n, p) .

1 n18Ne segue che:

  • nX= ) = npE(X) E(Xkk=1
  • nX −V ar(X) = V ar(X ) = np(1 p)kK=1
  • n t −M (t) = M (t)...M (t) = pe + (1 p)X X X1 n

6.12.5 Variabili aleatorie geometriche ∈ ∼Una v.al X si dice geometrica di parametro p (0, 1) e scriviamo X Geo(p) se prende valori in eN∈per n N: n−1−p (n) = p(1 p)X

OSSIn una sequenza di prove ripetute indipendenti, il numero di prove necessarie ad ottenere il primo successoè una v. al Geo(p). [...]

  • ( p −log(1 −t < p)[ −t]−(1−p)eM (t) =X +∞ altrimenti
  • −t −1 2 ppe′ ′ 2” 2 ⇒⇒ = e ) =M (0) = e M (0) = ) M (t) = E(X) E(XE(X) E(XX X X 2 2p p−t −
  1. −e (1 p)
  2. • −1 pV ar(X) = 2p6.12.6
  3. Proposizione: Proprietà di perdita di memoria
  4. ∼ ∀n, ≥Sia X Geo(p). Allora m 0: > n + m|X > n) = > m)P(X P(XDIM +∞ +∞X X k−1−> m) = = K) = p(1 p) = ...P(X P(Xk=m+1 k=m+1E’ possibile evitare questo calcolo usando l’interpretazione di X nell’ambito delle prove ripetute indi-pendenti:{X > n} = ”le prime n prove sono insuccessi” 19n⇒ −> n) = (1 p) .P(X {X ⊆ {XOra sapendo che > n + m} > n} abbiamo: {X ∩ {X> n + m} > n} n+mP −> n + m) (1 p)P(X m= (1−p)> n+m|X > n) = = = = > m)P(X P(X Q.E.D.n−> n) > n) (1 p)P(X P(X6.12.7 Proposizione ∀n, ≥Sia X una v.al a valori in tc * m 0 > n + m|X > n) = > m). Allora X è una v.alN P(X P(XGeometrica.DIM* è equivalente a > n + m) = > n)P(X > m).P(X P(XIn particolare > n + 1) = > n
Dettagli
Publisher
A.A. 2022-2023
40 pagine
SSD Scienze matematiche e informatiche MAT/06 Probabilità e statistica matematica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher 40lorenzo40 di informazioni apprese con la frequenza delle lezioni di Probabilità e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Verona o del prof Scienze matematiche Prof.