Estratto del documento

Probabilità e statistica

Varianza

La previsione di un evento è il valore centrale della distribuzione di probabilità di X, analogo al baricentro. La varianza è tanto più grande quanto più è dispersa la distribuzione intorno a m. In generale, dato un numero aleatorio X con ( ) =P X mσ2X( ) ( ) = 2= −Var X P X mn ( )∑( ) 2= −Var X p x mi ii=1.

Varianza di un indicatore

Dato un evento E che ha probabilità di verificarsi p e probabilità di non verificarsi 1-p=q, ed essendo la previsione di E coincidente con p, si ha che la Var(|E|) = pq.

Covarianza

Dati 2 numeri aleatori X, Y, si indica con Prev(X)=m e prev(Y)=m la previsione dei due numeri aleatori X+Y è Prev(X+Y)=m + m. Allora, Var(X+Y)=Prev[(X+Y)-(m + m)] = Var(X)+Var(Y)+2Prev[(X-m )(Y-m)].

La quantità Prev[(X-m )(Y-m )] si definisce covarianza di X e Y e si indica con Cov(X,Y). In particolare, la covarianza di X con X è uguale alla varianza di X.

Proprietà della covarianza

Cov(aX+b,cY+d)=acCov(X,Y).

Coefficiente di correlazione

σCov(X,Y )ρ = = XYσ σXY Var(X)Var(Y ).

X Y dimostrazione − X m Y m 1 ( ) ρ= =X YCov , Cov X,Y σ σ σ σXYX Y X Y.

Probabilità condizionate

Formula di disintegrazione

Per probabilità condizionate si ha che P(E)=P(EH )+...+P(EH )=P(H )P(E|H )+...+P(H )P(E|H )

Indipendenza stocastica

Se P(E|H)=P(E) allora E è stocasticamente indipendente da H.

Teorema di Bayes

P(EH)=P(E|H)P(H)=P(H|E)P(E). Allora P(E | H ) P(E | H )= =P(H | E) + c cP(E) P(H )P(E | H ) P(H )P(E | H ).

Se H rappresenta un’ipotesi incerta ed E un fatto osservabile di probabilità condizionata ad H, allora il teorema di Bayes ci dice che il grado di fiducia rispetto ad H si modifica supposto di aver osservato E.

Distribuzione binomiale

Se ho n eventi indipendenti ed equiprobabili con P(E )=p e P(E )=(1-p)=q, allora X=E1 +E2 +...+En è il numero aleatorio di successi sulle n prove con codominio {1,2,3...n}. La distribuzione di probabilità di X: P(X=0)=P(E E ...E )=(1-p)n =qn P(X=n)=P(E E ...E )=pn.

X ~ B(n, p)

P(X=h) = nCh ph qn−h

Previsione

∑= =Pr(X) P(E ) npii=1.

Varianza

Per l’indipendenza degli eventi E1,...,En si ha Cov(|Ei|,|Ej|)=P(EiEj)-P(Ei)P(Ej)=0. Quindi la varianza di X Var(X)=npq coincide con la somma delle varianze.

Estrazione con restituzione da urna di composizione nota

Si effettuano n estrazioni con restituzione da un’urna contenente N palline, di cui pN bianche e qN nere. Se Ei = l’i-esima pallina estratta è bianca con i=1,...,n, allora ∑=X | E |ii=1 è il numero aleatorio di palline bianche estratte nelle n prove. Gli eventi sono indipendenti ed equiprobabili quindi X ~ B(n, p).

Estrazione senza restituzione da urna di composizione nota

Si effettuano n estrazioni da un’urna contenente N palline di cui pN bianche e qN nere. Valutando una serie di eventi allora pN= =P(E ) p1 N −pN1 pN= + = + =cP(E2) P(E2|E1)P(E1) P(E2|E1) p q p− −; N−1 N−1( ) ( ) ( )− − N−1 N−2 ... N−i−1 pN= =P(Ei) p( ) ( )− − +i N N−1 ... N−i−1.

Se si fanno estrazioni in blocco si avrà una distribuzione di probabilità ipergeometrica X ~ H(N,n,p).

Previsione

Come per la binomiale si ha Prev(X)=np.

Covarianza

Cov( Ei, Ej) = −P(EiEj) − P(Ei)P(Ej) = (pq) − (pq)(pq) − N−1

Varianza

−(n−1) Var(X) = npq 1 − N−1

Estrazioni con restituzione da un’urna di composizione incognita

Considero n estrazioni da un’urna contenente N palline di cui r bianche con r incognito. Se introduco la partizione H che indica che nell’urna ci sono r palline bianche r=P(Ei|Hr). Come si vede, E1...En sono equiprobabili perché ∑ ∑= = ⋅P(Ei) P(Ei|Hr)P(Hr) P(Hr)

Gli eventi E1 E2 sono correlati positivamente.

P(X=h) =nCh P(X=h|Hr)P(Hr) P(Hr)r=0 rNr=0 binomiale. Ovvero, la distribuzione di probabilità di X è una distribuzione.

Estrazioni senza restituzione da un’urna di composizione incognita

Gli eventi sono sempre equiprobabili ∑=P(Ei) P(Hr)rNr =P(Ei|Hr).

P(X=h|Hr) =nCh rNr ipergeometrica. Perciò X|H ha una distribuzione.

Anteprima
Vedrai una selezione di 12 pagine su 52
Probabilità e statistica - Appunti Pag. 1 Probabilità e statistica - Appunti Pag. 2
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 6
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 11
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 16
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 21
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 26
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 31
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 36
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 41
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 46
Anteprima di 12 pagg. su 52.
Scarica il documento per vederlo tutto.
Probabilità e statistica - Appunti Pag. 51
1 su 52
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher alessandrotrap di informazioni apprese con la frequenza delle lezioni di Probabilità e Statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Roma La Sapienza o del prof Gilio Angelo.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community