Proprietà del valore atteso
Aspettativa di una costante
E(c)=c: il valore atteso di una costante è se stesso. Se c è l'unico valore possibile di Z, allora: P(Z=z)=1, quindi E(z)=c*p(Z=c)=c.
Aspettativa della somma di una v.c. costante
E(c+z)=c+E(z); sia y=z+c; E(y)=Σyipi=Σ(xi+c)pi=Σxipi+cΣpi=E(x)+c.
Aspettativa di una v.c. somma
Z=x+y; E(x+y)=E(x)+E(y); l'aspettativa di z è data da: E(z)=Z(e1)*p(e1)+Z(e2)*p(e2)+Z(ek)*p(ek)=E(x)+E(y).
Prodotto tra v.c.
Generalmente E(x,y) è diversa da E(x)*E(y) ma si ha uguaglianza quando le v.c. sono indipendenti: E(x,y)=ΣΣxiyi*p[(X=x)∩(Y=y)]=ΣΣxiyi*p[(X=x)*(Y=y)]=E(x)*E(y).
Varianza e proprietà
Varianza di una costante
Var(c)=0: la varianza di una costante è 0.
Varianza della somma di una v.c. e di una costante
Var(c+x)=Var(x) poiché la varianza di c è 0, E(c+x)=c+E(x)=c+u, quindi Var(c+x)=E([(c+x)-(c+u)]=E(x-u)=Var(x).
Varianza del prodotto di una variabile casuale per una costante
Var(x*c)=c2*Var(x), dato che E(c*x)=c*u allora E(c*x-c*u)=E[c2(x-u)2]=c2*Var(x).
Varianza di una v.c. somma
Z=y+x: poniamo E(x)=u, E(y)=n, quindi E(x+y)=u+n: Var(x+y)=E[(x+y)-(u+n)] = E[(x-u)2+(y-n)2 + 2E[(x-u)(y-n)]].
Teorema della covarianza tra due v.c. indipendenti
Cov(x,y)=E[(x-u)(y-n)]=E(xy-nx-uy+un)=E(x,y)-nu-un+nu=E(x,y)-un. Con l'indipendenza E(x)*E(y)-un=0.
Trasformazioni lineari e standardizzazione
Aspettativa v.c.
Sia y=a+bx, allora y(ei)=a+bx(ei) quindi: E(y=a+bx)=Σ[a+b*x(ei)]*p(ei)=Σa*p(ei)+Σb*x(ei)*p(ei)=a*Σp(ei)+bΣx(ei)*p(ei)=a+b*E(x).
Per b=0 → E=a, per b=1 → E=a+E(x), per a=0 → E=b*E(x). Inoltre E(x+y)=E(x)+E(y), con z=x+y, E(x+y)=E(z)=Σz(ei)*p(ei)=Σ[x(ei)+y(ei)]*p(ei)=E(x)*E(y).
Teorema del valore atteso di una v.c.
La v.c. X assume i valori x1,..,xj,..,xk; la v.c. Y assume i valori y1,..,yi,..,yr; per l'ipotesi dell'indipendenza p(xj,yi)=p(xj)*p(yi), per ogni coppia di i e j: E(X*Y)=ΣΣxj*yi*p(xj,yi)=ΣΣxj*yi*p(xj)*p(yi)=Σxj*p(xj)*Σyi*p(yi)=E(X)*E(Y).
Trasformazioni lineari
X è una v.c. normale con valore atteso u e s.q.m. σ e y=a+bx; Y è una v.c. normale con uy=a+bux e σy=bσx e var(y)=σx2b2.
Standardizzazione
Se X è una v.c. con aspettativa u e s.q.m. σ allora: Z=(x-u)/σ è una v.c. standard con u=0 e σ=1; X~N(u, σ) è una v.c. continua con distribuzione normale: P(X<x)=p((x-u)/σ > (x-u)/σ)=x-(n*p)/√(n*p(1-p)); Z=(x-u)/σ N(0,1) ottenendo P(X<x)=p(z<(x-u)/σ)=∫ da z a –∞ (1/√(2π))*e-t2/2 dt per ogni z, ovvero otteniamo P(Z<z) che è la funzione cumulata delle probabilità della v.c. normale standard Z e viene indicata con φ(Z).
Somma di v.c. normali
Se x1,x2,..,xn sono variabili casuali indipendenti con E(xi)=u e var(xi)=σ2 per ogni i, allora x=1/nΣxi, E(x)=u, var(x)=σ2/n.
Dimostriamo: se n=2: S=x1+x2~N(u,sσs) con us=2u e σs=2σ; ad S aggiungo X: S=x1+x2+x3~N(u,sσs); in generale: Sn=Σxi~N(u,sσs) e σx=n*σ.
Usando una trasformazione di scala: x=S/n; dato che x è una trasformazione lineare di S, anche x sarà una v.c. casuale normale con u=(1/n)*u=(1/n)*u*n=u; σ2=σ2/n.
Disuguaglianza di Chebicheff
Fissato c>=0 osserviamo i valori di X centrati in u con ampiezza 2c ovvero u-c e u+c; Var(x)=σ2=E[(x-u)2]=Σ(x-u)2p(X=x). Dividiamo la sommatoria in due parti; la prima parte riguarda le x interne all'intervallo, la seconda quelle esterne all'intervallo.
Var(x)=Σ(x-u)2*p(X=x) + Σ(x-u)2*p(X=x) ottenendo: var(x)>=Σ(x-u)2*p(X=x), le x della seconda sommatoria sono tutte tali che (|x-u|>=c), sostituiamo (x-u)2 con c2: Σ(x-u)2*p(X=x)>=Σc2*p(X=x) quindi var(x)>= Σc2*p(X=x)=c2*Σp(X=x)=c2*p(|x-u|>=c) da cui p(|x-u|>=c)<=var(x)/c2.
Legge dei grandi numeri
La disuguaglianza di Chebicheff è valida per qualsiasi v.c. ed anche per la v.c. X/n essendo x una v.c. binomiale. La legge dei grandi numeri afferma che per n grande la divergenza fra la v.c. fr relativa X/n e la sua aspettativa p è molto limitata e all'aumentare di n la divergenza ra X/n e p=(A) tende a ridursi.
E(x/n)=1/n*E(x)=1/n*n*p=p; Var(x/n)=(1/n)2*Var(x)=npq/n2 =nq/n. Dove la v.c x/n rappresenta nel modello probabilistico la fr relativa. Applicando la disuguaglianza di Chebicheff a x/n si ha: P[|x/n-E(x/n)|>=c]<=var(x/n)/c2; P[|x/n-E(x/n)|>=c]<=pq/nc2 valida per qualsiasi n. All'aumentare di n il rapporto 2pq/nc tende a 0. Ne consegue che P[|x/n-p|>=c]>=0 è una probabilità ed al crescere di n tende a 0. Quindi otteniamo lim da n a ∞ P[|x/n-p|>=c]>=0.
Teorema del limite centrale
Siano x1,x2,..,xn v.c. indipendenti e identicamente distribuite con aspettativa E(xi)=u, var(xi)=σ2, dove i=1,..,n sono quantità finite. La somma delle v.c è Sn=x1+x2+..+xn. L'aspettativa di Sn è: E(Sn)=E(x1+x2+..+xn)=E(x1)+E(x2)+..+E(xn)=nu. La var(Sn)=var(x1+x2+..+xn)=nσ2. Data l'indipendenza della v.c. X al crescere di n la funzione cumulata della v.c. Sn-nu/σ√n converge alla funzione di ripartizione della v.c. standardizzata. Quindi P((Sn-nu/σ√n)<=z)=F(z).
Funzione generatrice dei momenti
Si dice che la v.c. X possiede la f.g.m. se esiste δ >0 tale che mx(t)<∞ per ogni t∈(-δ, δ). Allora mx(t) è detta f.g.m. di X.
- Sia una v.c. tale che E(etx)<∞ per ogni t∈(-δ, δ). Allora X ha momenti di ogni ordine e per ogni t∈(-δ, δ) risulta: mx(t)=Σ(tr/r!)*ur dove ur=(dr/dtr)*mx(t)|t=0
- Siano mx(t) e my(t) le f.g.m. delle v.c. X e Y, si suppone che esista δ tale che per ogni t∈(-δ, δ) valga mx(t)=my(t). Allora le due v.c. hanno la stessa distribuzione, cioè Fx(v)=Fy(v), per ogni v reale.
- Sia mx(t) la f.g.m. della v.c. xi, i=1..n; siano le v.c. xi indipendenti. Allora my(t)=πmxi(t), con y=Σxi.
Variabili casuali discrete
V.c. binomiale
La v.c. binomiale esprime la somma di n variabili casuali indicatore indipendenti aventi la medesima proba...