Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Proprietà della covarianza e della varianza
Proprietà di simmetria:
Cov(X, Y) = Cov(Y, X)
Proprietà di bilinearità:
Cov(aX + bY, Z) = aCov(X, Z) + bCov(Y, Z)
Proprietà di indipendenza:
Se X o Y è una costante, allora Cov(X, Y) = 0.
Proprietà della varianza:
Sia (Ω, P) uno spazio di probabilità.
i) La varianza V ar(∗) : L (Ω, [0, +∞)) è un operatore non lineare.
V ar(aX + b) = aV ar(X)
ii) Per X1, X2, ..., Xn L (Ω, R), vale V ar(X1 + X2 + ... + Xn) = V ar(X1) + V ar(X2) + ... + V ar(Xn) + 2Cov(X1, X2) + 2Cov(X1, X3) + ... + 2Cov(Xn-1, Xn)
iii) V ar(X) = 0 se e solo se X è una costante.
- −iv) L , c V ar(X) c) ) e l’uguaglianza vale sse c =R, E((X E(X)DIM:I punti i e ii seguono dallla definizione di V ar(z) = Cov(Z, Z) e la bilinearità della covarianza.⇐iii 2∈ −se X è qc costante, allora = c) = 1 per un qualche c Quindi (X è qc 0 e otteniamoP(X R. E(X))2−V ar(X) = = 0.E((X E(X))⇒iii 2−Supponiamo V ar(X) = 0. Allora (X è una variabile aleatoria positiva con valor medio nullo.E(X))−Segue che = 0) = 1, da cui la conclusione.P(X E(X)ivBasta osservsare che2 2 2 2 2) = ) = +2(E(X)−c)E(X−E(X))+(E(X)−c) = V ar(X)+(E(X)−c)E((X−c) E((X±E(X)−c) E(X−E(X))6.10 Valor medio e Indipendenza6.10.1 Proposizione 1 1∈Se X e Y somno variabili aleatorie reali indipendenti e in L , allora anche il prodotto XY L e si ha) = ). Nel caso in cui X e Y siano variabili aleatorie indipendenti e positive, la relazioneE(XY E(X)E(Y 1∈è valida anche senza l’ipotesi X, Y L
.1∈NB: due variabili aleatorie X, Y L indipendenti sono scorrelate, ovvero Cov(X; Y ) = 0.6.10.2
Corollario: varianza di variabili aleatorie indipendenti n n2 P P∈Se X , ..., X L sono variabili aleatorie indipendenti, allora V ar( X ) = V ar(X )i1 n ii=1 i=1Additività, non linearità! 156.11
Funzione generatrice dei momenti
6.11.1 DefSia X una v.al reale. Si dice funzione generatrice dei momenti della variabile aleatoria X la funzionetX→ ∪ {+∞}M : definita da M (t) = ).R R E(eX X6.11.2 Oss tXM (t) = +∞ per quei valori di t per cui la variabile aleatoria e ha valor medio infinito. Necessa-Xriamente M (0) = 1. Come suggerisce il nome stesso, questa funzione è utile per il calcolo dei momentiXdi una variabile aleatoria. Quando possibile si può usare il risultato seguente.
6.11.3 Teorema: Proprietà della funzione generatrice dei momentiSiano X una v.al reale e M la sua funzione generatrice dei momenti. Supponiamo che esista a > 0X∀t ∈tc
M (t) < +∞ (−a, a). Allora: X ∈i) la variabile aleatoria X ammette momenti di ogni ordine e, per ogni t (−a, a) la sua funzione generatrice dei momenti è data dalla seguente serie di Taylor: +∞ ∑ n=0 (n) ntX nM (t) = E(X ) n! ii) M è infinitamente derivabile in (−a, a) e, indicando con M (n) la derivata n-esima di M , vale la relazione X X (n) n ∀n ∈ M (0) = E(X N 0) DIM: −tXtX∈ Prendiamo t (−a, a). Allora entrambi M (t) = E(e ) e M (−t) = E(e ) sono finiti. Dalla disuguaglianza e + e ≤ e|x| + e|x| ≤ ∀t ∈ (−a, a) segue quindi R,t|x| ≤ ∀t ∈ M (t) = E(X N 0) X X ∀α ∈ Usiamo la serie esponenziale per ricavare le disuguaglianze che ci saranno utili. Per α > 0, n valgono: N 0 αn ≤ D1) α n!e k+∞ α α P ≤ αe D2) n k=n k! k n+∞ α α α P ≥ Infatti, si ha e = 1 + α + α^2/2! + α^3/3! + ... , da cui siottiene D1. Inoltre vale:k=0 k! n!+∞ +∞ +∞k k k−1α α αX X X α≤n k = α = αe−k! k! (k 1)!k=n k=nk=n |tx||t|Prendiamo h > 0 tc + h < a. Usando D1, con α = h|x| e moltiplicando per e , otteniamo|tx| |tx| ∗n! n!n (|t|+h)|x| n|X| ≤ ⇒ ≤ ∀n ≥ ∀t ∈e e ** e ) M (|t| + h) < < +∞ 0 (−a, a).E(|X| |X|n nh h 16iIl fatto che X ammetta momenti di ogni ordine segue da ** per t = 0. Per quanto riguarda la rappresen-tazione in serie di M osserviamo cheXn ktX k−M (t) )E(XX k!k=0 = linearità .mediov n nk kt th h iiX Xtx txk k− −≤e e= X XE Ek! k!k=0 k=0−= serie exp+∞ nkt ih kX Xk tk−= X XE k!k!k=0 k=0+∞ +∞k k|tX| |t|th i h iX X |tX|k D2≤ ≤ ≤X= )E E E(|X|ek! k! n +1k=n+1 k=n+1e quindi il membro destro della precedente stima va a zero per n che tende all’infinito. Avendo dimostratoche M è la somma di una
serie di potenze, per ottenere ii basta ricordare che una serie di potenze può essere derivata termine a termine nel suo raggio di convergenza. Q.E.D
6.11.4 Proposizione
Se X e Y sono variabili aleatorie reali indipendenti, allora M = MX+Y = MXMY
DIM: tX, tY ∈
Per ogni t le variabili aleatorie X, Y e Z sono positive ed indipendenti, quindi si ottiene:
MX+Y(t) = MX(t)MY(t)E(et(X+Y)) = E(etX)E(etY) = E(etX)E(etY)
Per induzione la proposizione precedente si può estendere al caso di n variabili aleatorie reali X1, ..., Xn indipendenti. Vale:
∀t ∈ MX+...+Xn(t) = MX(t)...MXn(t) = E(et(X+...+Xn)) = E(etX)...E(etXn)
6.12 Classi notevoli di variabili aleatorie discrete
6.12.1 Variabili uniformi discrete
Sia E un insieme finito. Una variabile X a valori in E si dice uniforme discreta se P(X = x) = 1/|E| ∀x ∈ E
Consideriamo il caso particolare in cui E = {1, ..., n}:
E(X) = 1/n * (1 + 2 + ... + n) = n(n + 1)/2n = (n + 1)/2
2k=1k=1• n n1 1 n(n + 1)(2n + 1) (n + 1)(2n + 1)X X2 2 2) = k p (k) = k = =E(X X n n 6 6k=1 k=1• 2 −22 n 1(n + 1)(2n + 1) n + 1 2 − − =V ar(X) = ) =E(X E(X) 6 2 12• nn t(n+1) t−1 e e1 XX ∗tX tktk ̸M (t) = e = e = = t = 0e p (k) =EX X t −n n e 1k=1k=1 n+1n+1 nn −1−1 aa kk PP ̸ ⇒ −a = 1 1* Ricordando che a =a = k=1k=0 a−1 a−16.12.2 Variabili aleatorie di Bernoulli ∈Una v.al X si dice di Bernoulli di parametro p [0, 1] se X assume i valori 0 e 1 e ⇒ −= 1) = p (1) = p = 0) = p (0) = 1 pP(X P(XX X∼Scriviamo X Be(p).• 2−= 0(1 p) + 1p = p = )E(X) E(X• 2 2 2− − −V ar(X) = ) (X) = p p = p(1 p)E(X E• tX t −M (t) = e = 1(1 p) + e pEX6.12.3 Variabili aleatorie binomiali ∈ ∈ {0...n}Una v.al X si dice binomiale di parametri n e p (n p [0, 1] se è a valori in e, perN,∈ {0...n}k nk k n−k− ∼p (k) = p (1 p)
ScriveremoX Bin(n, p).
NOTA: La variabile aleatoria che fornisce il numero di successi in n prove ripetute indipendenti con prob.di successo p è una Bin(n, p).
6.12.4 Proposizione∼Siano X ...X Be(p) indipendenti, allora:
1 n ∼X := X + ... + X Bin(n, p) .
1 n18Ne segue che:
- nX= ) = npE(X) E(Xkk=1
- nX −V ar(X) = V ar(X ) = np(1 p)kK=1
- n t −M (t) = M (t)...M (t) = pe + (1 p)X X X1 n
6.12.5 Variabili aleatorie geometriche ∈ ∼Una v.al X si dice geometrica di parametro p (0, 1) e scriviamo X Geo(p) se prende valori in eN∈per n N: n−1−p (n) = p(1 p)X
OSSIn una sequenza di prove ripetute indipendenti, il numero di prove necessarie ad ottenere il primo successoè una v. al Geo(p). [...]
- ( p −log(1 −t < p)[ −t]−(1−p)eM (t) =X +∞ altrimenti
- −t −1 2 ppe′ ′ 2” 2 ⇒⇒ = e ) =M (0) = e M (0) = ) M (t) = E(X) E(XE(X) E(XX X X 2 2p p−t −
- −e (1 p)
- • −1 pV ar(X) = 2p6.12.6
- Proposizione: Proprietà di perdita di memoria
- ∼ ∀n, ≥Sia X Geo(p). Allora m 0: > n + m|X > n) = > m)P(X P(XDIM +∞ +∞X X k−1−> m) = = K) = p(1 p) = ...P(X P(Xk=m+1 k=m+1E’ possibile evitare questo calcolo usando l’interpretazione di X nell’ambito delle prove ripetute indi-pendenti:{X > n} = ”le prime n prove sono insuccessi” 19n⇒ −> n) = (1 p) .P(X {X ⊆ {XOra sapendo che > n + m} > n} abbiamo: {X ∩ {X> n + m} > n} n+mP −> n + m) (1 p)P(X m= (1−p)> n+m|X > n) = = = = > m)P(X P(X Q.E.D.n−> n) > n) (1 p)P(X P(X6.12.7 Proposizione ∀n, ≥Sia X una v.al a valori in tc * m 0 > n + m|X > n) = > m). Allora X è una v.alN P(X P(XGeometrica.DIM* è equivalente a > n + m) = > n)P(X > m).P(X P(XIn particolare > n + 1) = > n