Anteprima
Vedrai una selezione di 1 pagina su 5
Formulario Probabilità e Statistica Pag. 1
1 su 5
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

P(B A)P(A)

|

n k !k !...k ! k !k ! . . . k !

1 2 r P(A B) = P(X > x) = 1 − P(X ≤ x)

|

1 2 r •

P(B)

Disposizione di n oggetti in k posti

• P(x < X ≤ y) = P(X ≤ y) − P(X ≤ x)

è ogni allineamento di k oggetti scelti tra n oggetti P(A B) = 1 − P(A B)

| | (X ≥ x) = 1 − (X < x)

N.B:

distinti in k posti: k

D = n(n− 1) . . . (n− k + 1) D* = n Probabilità totali (Condizioni esperimento casuali)

n

,k n

,k Funzione di ripartizione

n

Combinazione di n oggetti di classe k

• F(x) = P(x = 0) + . . + P(x = n

)

P(A) = P(A B )·P(B )

| (

( )

n n! j J F : R − > [0,1] ∀x ∈ R come F (x) := P(X ≤ x)

C = = j= 1 X X

n

,k k k!(n− k)! P(X ≤ x) = F(x)

P(A) = P(A B)P(B) + P(A B )P(B )

| | • P(X > x) = 1 − F (x)

( ) •

n+ k − 1 X

Formula di Bayes (Predizione valutando cond. f)

C* = P(x < X ≤ y) = F (y) − F (x)

(con ripetizioni) •

P(A B )P(B ) X X

|

n

,k k k k P(X < y) = lim F (x)

P(B A) =

| • −

x−> y X

k n

∑ P(A B )·P(B )

| j J P(X = y) = F (x) − lim F (x)

Ω F P j= 1

Spazio di probabilità ( , , ) • X x−> y X

Formula di moltiplicazione

Ω -> Insieme di ogni possibile risultato di un 1. monotona non decrescente

P(A ∩ A ∩ . . . ∩ A ) = P(A )P(A A )P(A A ∩ A1)

| |

1 2 n 1 2 1 3 2

esperimento, gli elementi prendono il nome lim F (x) = F (x )

2. continua da destra, x−> x0 X X 0

di eventi. lim F (x) = 0 e lim F (x) = 1

Indipendenza di eventi 3.

F σ Ω x−> −∞ X x−> ∞ X

-> Famiglia ( -algebra) di sottoinsiemi di P(A ∩ B) = P(A)·P(B)

rappresentanti i possibili eventi di un P(A B) = P(A)

|

Ω F Densità discrete notevoli

esperimento. (( , ) -> sp. probabilizzabile

P Densità binomiale

-> Probabilità, Affidabilità di un sistema

P(E ) = E / Ω = casi favorevoli / nu mero casi Conta il numero complessivo di successi ottenuti

| | | | Serie -> il sistema funziona se e solo se

• in n prove (estrazione con reimissione):

a = a ·a . . . a ( )

funzionano tutti i componenti. n

P 1 2 n

Proprietà di k n

−k

X ∼ Bi(n, p) p (k) = p (1 − p)

Parallelo -> il sistema funziona se e solo se

c X

P(A ) = 1 − P(A) k

• funziona almeno un componente. EX = np VarX = np(1 − p)

P(A) ≤ 1

• a = 1 − (1 − a )·(1 − a )

1 2 il numero di oggetti di tipo K che si trovano in un

B ⊂ A = > P(A /B) = P(A) − P(B)

se

• campione di n oggetti estratti con reimmissione da

B ⊂ A = > P(B) ≤ P(A)

se Variabile aleatorie discrete

• un insieme di N oggetti che contiene K oggetti di

P(A ∪ B) = P(A) + P(B) − P(A ∩ B) X : Ω − > R

Funzioni del tipo , la scrittura

• un tipo e (N-K) oggetti di un'altro è:

K

(X ∈ I ) è un abbreviazione di

P(A ∪ B ∪ C ) = P(A) + P(B) + P(C ) − [P(A ∩ B) + P(B ∩ C ) + P(A ∩ C )] + P(A ∩ B ∩ C ) X ∼ (n, )

∞ [ω ∈ Ω : X(ω) ∈ I ] N

∞ .

P(∪ A ) = P(A ) , conA ∩ A = ∅

n n i j

n= 1

Densità bernulliana Densità Gaussiana standard

Variabili aleatorie continue

• •

Z ∼ N(0,1)

Densità continua e Funzione di ripartizione di X

Una prova di Bernoulli può avere solo due esiti: x

x 1 ∫

successo con probabilità p e insuccesso con ∫ 2

−x

F (x) = e d x = ϕ(x)

F (x) = f (s)d s f (x) = F′

(x) 2

preced)

(somma

probabilità 1-p. La densità bernulliana descrive Z

X X 2π −∞

−∞

l'esito di ogni prova di bernoulli: 1

f (x)d x = 1

1. ∫ 2

X ∼ Be( p) p (1) = p; p (0) = 1 − p −x

R X f (x) = e = φ(x)

X X 2

Z

f (x) f (x) ≥ 0

2. è integrabile, per ogni x

Densità geometrica

• 2π

P(X = x) = 0

conta il numero di prove necessarie per ottenere il 3. , (int. P) EZ = 0 VarZ = 1

primo successo (A.M= ):

P (Z > n + m Z > n) = P (Z > m)

| P(X ≤ x) = P(X < x) f (x)d x > , ≥

4. = ∫(a,b) ( ) ϕ(−t) = 1 − ϕ(t) μ

k−1 x

X ∼ G( p) p (k) = p(1 − p) Proprietà: Se abbiamo media

X F = ( ≤ , ≤ )

(N.B: estremi intervalli 2

σ

1 1 − p X e varianza standarizziamo

X ∼ G(1 − p)

EX = VarX = Densità continue notevoli X − μ

p p 2 2

Z ∼ N(μ, σ ) Z =

la v.a ha legge N.S.

Densità uniforme continua

• σ

1 x − μ

Densità Ipergeometrica

• X ∼ U(0,1) f (x) = I (t) F (x) = ϕ( )

Conta il numero di oggetti di tipo K che si trovano X (a,b) Z

b − a σ

in un campione di n oggetti estratti senza 2

(b − a)

(a + b) 1 x − μ 1 2

−(x − μ)

VarX =

EX =

reimmissione da un insieme di N oggetti che f (x) = φ( )= e 2

Z

12

2 σ σ

contiene K oggetti di un tipo e (N-K) oggetti di un 2πσ

Densità esponenziale

altro. 2

EZ = μ VarZ = σ

Quando un apparecchio non è soggetto ad usura.

X ∼ G(N, K, n

) N = n°elem. K=elem. scel. n=estr.

( )( ) −λx

X ∼ ε(λ) f (x) = λe I (x)

K N − K X (0,+ ∞) Proprietà:

K

k n− k λx 2 2

p (k) = EX = n F (x) = 1 − e X ∼ Γ(n, λ) X + X ∼ N(μ + μ , σ + σ )

appros:

( )

X X i 1 2 1 2 1 2

N

N 1 1 2 2

a X + b ∼ N(aμ + b, a σ )

EX = VarX = 1 1

n 1

λ λ 2 Relazione tra legge normale e standard

Per N (e quindi K) molto grande (N>10n) è come P(T > t + s T > t) = P(T > s)

| 2

Z ∼ N(0,1) = > σZ + μ ∼ N(μ, σ )

se estraessimo con reimissione: K X − μ

P(T > t + s) = P(T > t)P(T > s) 2

X ∼ G(N, K, n

) − > X ∼ B(n, ) X ∼ N(μ, σ ) = > ∼ N(0,1)

N σ

Densità di Weibull

Densità di Poisson Densità Gamma

• •

Utile a rappresentare il tempo di vita di un Descrive il tempo di vita di un apparecchio la cui

Permette di descrivere quantitativamente apparecchio propensione al guasto cresce col tempo, fino al

situazioni in cui non abbiamo accesso ai valori di X ∼ Weibu ll(α, β ) limite v

N e p, ma possediamo un unica informazione β β

−αt β−1 −αt

F (t) = 1 − e f (t) = αβt e X ∼ Γ(α, λ)

numerica: il parametro λ (numero medio di arrivi): X X

β−1

k λ(t) = αβt

λ Funzioni di variabili aleatorie

−λ

p (k) = e

Y ∼ P (λ) EY = λ VarY = λ β < 1 d ecresce, β = 1 cost, β > 1 u su ra

Y

0 f = a f

k! Y x

f (t)

X ∼ P (λ ) X −1 −1

Se allora: F (y) = P(Y ≤ y) = P(F(X ) ≤ y) = P(X ≤ F (Y )) = F (F (Y ))

X + . . . + X ∼ P (λ + . . . + λ ) λ(t) =

.

i 0 i Hazard Y X

1 n 0 1 n 1 − F (t) N.B: si cambiano anche gli intervalli

≤ 5

Per np e n(1-p)<5: X Y = g (X )

P (X > t + s X > t ) = P (X > s ) n. u

| Sia allora

t

X ∼ B(N, p) − > Y ∼ P (Np) − λ(s)d s

F (t) = 1 − e ∫ 0

0 P (X > t + s X > t ) < P (X > s ) u

| X −1 −1

f (y) = f (g (y)) (g )(y)

| |

P (X > t + s X > t ) > P (X > s ) r Y X

|

Approssimazione Normale della Binomiale Valore atteso discreto

Media, varianza e momenti n

Vale se np > 5; n(1-p) > 5

Valore atteso ∑ k·P(XY = k)

Y ∼ B(n, p) Y ∼ N(np, np(1 − p))

Discreto (x dentro le parentesi) k= 0

y(+ 0.5) − np

∑ ∑

E(X ) = x p (x ) E(Y ) = g (x )p (x ) il valore atteso delle marginale è k*val. marginale.

F (y) = P(Y ≤ y) ∼ Φ( )

k X k k X k 2 2

E(X ) k

Y è *val.marginale.

np(1 − p)

k∈I k∈I Valore atteso continuo

P(X < − x) = P(X > x) b d

Continuo Simmetria ∫ ∫ x y·f (x, y)d xd y

∫ ∫ Φ(x) = 1 − Φ(−x) Φ(−x) = 1 − Φ(x)

E(X ) = x f (x)d x E(Y ) = g (x)f (x)d x

X X a c

N.B: Si somma 0.5 solo nel caso discreto

R R Marginali discrete

Proprietà Approssimazione Normale di Gamma Somma della colonna della densità congiunta.

P(X = c) = 1 allora E(X ) = c

1. Y ∼ Γ(n, λ) N.B: Se le v.a sono ind. allora la marginale si fatt.

E(α X + β ) = αE(X ) + β n n λt − n

2. P(X, Y ) = P(X )P(Y )

nel prodotto delle marginali

Y ∼ N( , ) F (t) = P(Y < t) ∼ Φ( )

E(g (X ) + h (X )) = E(g (X )) + E(h (X )) Y

3. λ λ 2 Marginali continue

n b b

4. somma e prodotto corrispondono alla s e p. ∫ ∫

Momenti e funzione generatrice f = f (x, y)d y f = f (x, y)d x (a,b) var

k

E(X ) X Y

momento k-esimo, la media è momento

Varianza a a

primo. Se esite il movimento k-esimo esistono Covarianza

2 2

Var(X ) := E(X ) − (E(X )) anche gli intermedi. Cov(X , X ) = E[(X − E(X ))(X − E(X ))]

1 2 1 1 2 2

∫ tX

m (t) = E(e )

2 2

E(X ) = x f (x)d x funzione generatrice, deve Il coeff di correlazione è:

X

X Cov(X , X )

essere definita in un intervallo aperto contenente 1 2

ρ =

2

Proprietà E(X ) = m′ (0), E(X ) = m′

(0) . . .

lo 0: X ,X

X X 1 2 Var(X )VAr(X )

Var(c) = 0

1. 2 2 1 2

μt+ σ t /2

m (t) = e

Normale -> X

2

Var(a X + b) = a VarX Proprietà

2. Vettori aleatori Cov(X , X ) = Cov(X , X )

3. la somma corrisponde 1. 1 2 2 1

X = (X , . . . , X )

2 2 1 n

Va r (a X + bY ) = a Va rX + b Va rY + 2a bCov (X , Y ) Cov(a X , X ) = aCov(X , X )

2. 1 2 1 2

Se le v.a sono indipendenti:

Disuguaglianza di Chebychev Cov(X + X , X ) = Cov(X , X ) + Cov(X , X )

3.

P(X = x, Y ≤ y) = P(X = x)P(Y ≤ y) 1 2 3 1 3 2 3

Una variabi

Dettagli
A.A. 2018-2019
5 pagine
SSD Scienze matematiche e informatiche MAT/06 Probabilità e statistica matematica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher gasparemascolino di informazioni apprese con la frequenza delle lezioni di Probabilità e statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Politecnico di Milano o del prof Guatteri Giuseppina.