Anteprima
Vedrai una selezione di 5 pagine su 16
Variabili casuali e statistiche Pag. 1 Variabili casuali e statistiche Pag. 2
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Variabili casuali e statistiche Pag. 6
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Variabili casuali e statistiche Pag. 11
Anteprima di 5 pagg. su 16.
Scarica il documento per vederlo tutto.
Variabili casuali e statistiche Pag. 16
1 su 16
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Formattazione del testo

Af x P A a b   n ( )( )( ) ( ) nx− Nx n x +=   a bN a b   SA x  •Sequenze non ordinate:+  a b=N  ′S +n     a b a bC C   N( ) ( )′ −⇔ = = = = ∈′ , ,a x b n xAf x P A xcon     −x n x nN C  a b      ′ + ,S a b n=N    ′A −x n x    − + − +a x 1 n x 1( ) ( ) ( ) ( )= − = ⋅f x r x f x 1 r xRelazione di ricorrenza: − +x b n x probabilitàCampioni con tutti gli elementi distinti nel campionamento random con reimmissione:che tutti gli elementi siano distinti:( )rN n n !( ) = = = ≡AP A q( ) r−r rN n n r n!s −n rπ −n n  n ! 2 nn e n n −→ ∞ ⇒ ≅ = ⇔ →rper n e q 1 ( ) ( ) ( ) r−− − −n rr πn r ! n n r n r − +−

n r r2 n r n r e n →1 −n r1 r = + → e1n r
come nell’ipergeometrica ma con reimmissione:
Distribuzione Binomiale:
a=p
n+a b ( ) ( ) ( )−n x⇔ = − ≡xf x p 1 p b n, p
=1 p
+ a b − +n x 1 a( ) ( ) ( ) ( )= − = ⋅f x r x f x 1 con r x
Relazione di ricorrenza: x b
Approssimazione dell’Ipergeometrica alla Binomiale: 2
( )+n a b+
x≈ − ∈x 1 conp p x
a=p +
a b
CAPITOLO IV - Spazi di probabilità e Calcolo delle probabilità
β ⊆℘( S ) ( S )è l’insieme della parti se:
Algebra booleana:
( ) ( ) ( ) ( )β β β β∀ ∈ ⇒ ∈ ∀ ∈ ⇒ ∪ ∈A S A S A, B S A B S; c∪, ∩,cioè

è chiuso rispetto a .un qualsiasi valore reale non negativo associato ad ogni insieme con:

Misura: ( ) ( ) ( ) ( ) ( )∩ = ∅ ⇒ ∪ = + ⊆ ⇒ ≤A B m A B m A m B B A m B m A

σ-algebrasi passa alla passando all’unione di infiniti sottoinsiemi. E’ formato da:

Spazi di probabilità:

  1. S = insieme o spazio campionario (i possibili risultati;
  2. ℘(S) = insieme delle parti di S;
  3. p = probabilità;misura di massa totale pari a 1.

Probabilità: ( ) ( ) ( )= ⋅ (vedi “Variabili random indipendenti”)

Eventi indipendenti: P AB P A P B con A, B eventi( ) ( ) ( ) ( )= + + + = + + +

Eventi disgiunti o mutuamente esclusivi: P S P a P a ... P a con S a a ... an 1 2 n n 1 2 n

ripetizioni indipendenti di un esperimento che dà luogo a due soli possibili risultati

Prove di Bernoulli:(con reimmissione) s (success) ed f (failure). La probabilità di ottenere esattamente x successi in n provedi Bernoulli è

Il testo formattato con i tag HTML è il seguente:

data dalla binomiale b(n, p). probabilità di A dato (che si è verificato) B:

Probabilità condizionata: P(A|B) = P(AB) / P(B) con P(B) ≠ 0

P(A|B) = P(AB) / P(B)

Regola di Bayes: P(AB) = P(A|B) * P(B) = P(B|A) * P(A) essendo AB = BA

Ogni evento B può essere scritto come unione di k eventi mutuamente esclusivi con: B = A1 ∪ A2 ∪ ... ∪ Ak

P(B) = P(A1) + P(A2) + ... + P(Ak)

Teorema di Bayes: P(A|B) = (P(B|A) * P(A)) / ∑[P(B|Ai) * P(Ai)]

jesperimenti dipendenti, poiché l’output dipende dall’input:

Binary symmetric channel: P(1|0) = P(0|1) = ε

Distorsione del segnale: ε = P(1|1) = P(0|0)

∑ ε = ε + ε + ... + ε

ε = = = + = − + − = + −P1P1, j P1 | j PjP1 | 0 P0P1 |1 P11 p1 p p2 po o o o i i o i i∈ ∈j I j I∑ ∑( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )( )ε ε ε ε= = = + = − − + = − − +P0P0, j P0 | j PjP0 | 0 P0P0 |1 P11 1 p p1 p2 po o o o i i o i i∈ ∈j I j I ( ) ( ) ( ) ( )( ) ε ε− −P1,1 P1 |1 P11 p1 p( ) = = = =i o o i iP1 |1 ( )( ) ε εi o + −1 1 2P P q p po o 3CAPITOLO V – Variabile aleatoria discretafunzione.Variabile aleatoria: gode delle proprietà delle probabilità:Funzione di probabilità:∑( ) ( )= = = ∀ ∈f(x) P(X = x) p(x) Ri(x)( )∈ =i X x è la v.a. che assume valore se l’evento A si avvera e 0 in caso contrario:Funzione indicatrice di A: X 1A= = = = = =;(1) ( 1) ( )f P(X) P(A) f(0) P(X = 0) P(A')A A ≤distribuzione di probabilitàdell'vento x t: Funzione Cumulativa o di ripartizione: F ( t ) = t P ( X t ) = ( f ( x ) ) = x −∞ = 1 F ( x ) = ( f ( x ) ) +∞ = 1 P ( X x ) = P ( X x ) = P ( X x ) = F ( x ) F ( x ) = F ( x ) · f ( x ) P ( X = x ) = P ( X = x ) = P ( X = x ) = P ( X = x ) = F ( x ) · f ( x ) y = h ( X ) P ( Y = y ) = P ( h ( X ) = y ) P ( X t ) = P ( X t ) = P ( X t ) = P ( X t ) = F ( t ) P ( X = x ) = P ( X = x ) = P ( X = x ) = P ( X = x ) = F ( x ) · f ( x ) P ( N = n ) = P ( X x ) = P ( X x ) = P ( X x ) = F ( x ) P ( N = n ) = P ( X x ) = P ( X x ) = P ( X x ) = F ( x ) · f ( x ) P ( N = n ) = P ( X x ) = P ( X x ) = P ( X x ) = F ( x ) · f ( x ) P ( X = x ) = P ( X = x ) = P ( X = x ) = P ( X = x ) = F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > x ) = P ( X > x ) = P ( X > x ) = 1 - F ( x ) · f ( x ) P ( X > geometrica:vale la relazione:parametro p ∞ ∞ ∞∑ ∑ ∑−≥ = − = − − = − − = −n k n k k l k( ) (1 ) (1 ) (1 ) (1 ) (1 ) (1 )P X k p p p p p p p p p= = = 0n k n k l += + ≥ = + − k mP ( X k m, X k ) P ( X k m ) p (1 p )= + ≥ = = = = − = =mP X k m X k p p P X m( | ) (1 ) ( )≥ ≥ − kP X k P X k p( ) ( ) (1 )= + > = − = + − − > − = − = + − − ≥ =P ( N k m | N k ) P ( N 1 k m 1 | N 1 k 1) P ( N 1 k m 1 | N 1 k )1 1 1 1 1 1− = − = =P ( N 1 m 1) P ( N m)1 1 estrazioni non indipendenti, senzaTempi di attesa nel semplice campionamento random:reimmissione: +      n a b a b( ) ( )( ) ( ) ( )n−x n x= = + =P X x a b a b      n −x x n x n      − 1nx) ) ) )( ( ( (( )( ) ( ) ( )n−x n x= = = = + > = <;P N n P X x a b a bCome prove

Bernoulli: P(N,n) = P(X=x) = (n choose x) * p^x * (1-p)^(n-x)

Legge degli eventi rari: Distribuzione di Poisson: λ = μ = np

Approssimazione di Poisson alla Binomiale: 4μ^(n-x) * e^(-μ) / (x!(n-x)!)

Distribuzioni bivariate - Congiunta, Marginale e Condizionale:

Funzione probabilità di X e Y: congiunta f(x,y) = P(X=x, Y=y)

Funzione probabilità marginale di X: f(x) = P(X=x)

Funzione probabilità marginale di Y: f(y) = P(Y=y)

&isin;x Ry x( ) ( )( )= =P Y y , X x f x , y f x , y( ) ( ) ( )= = = = &hArr; = = = =P Y y | X x f y | x P Y y | X x( ) ( )( ) 2=P X x f x f x1 1Funzione probabilità (di Y condizionato ad X=x) è:condizionale( ) ( ) &isin; y R= =P Y y X x f x y, , ( ) ( ) ( ) ( ) y= = &hArr; =f y x f x y f y x f x| , | con ( ) ( ) ( )2 2 1= &ne;P X x f x f x 01 1( )f x1&sum; &sum;( ) ( )= = =1N.B.: f y x f y x| , 1
Dettagli
Publisher
A.A. 2007-2008
16 pagine
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher luca d. di informazioni apprese con la frequenza delle lezioni di Statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli studi "Carlo Bo" di Urbino o del prof Montebelli Vico.