vuoi
o PayPal
tutte le volte che vuoi
P(B A)P(A)
|
n k !k !...k ! k !k ! . . . k !
1 2 r P(A B) = P(X > x) = 1 − P(X ≤ x)
|
1 2 r •
P(B)
Disposizione di n oggetti in k posti
• P(x < X ≤ y) = P(X ≤ y) − P(X ≤ x)
•
è ogni allineamento di k oggetti scelti tra n oggetti P(A B) = 1 − P(A B)
| | (X ≥ x) = 1 − (X < x)
N.B:
distinti in k posti: k
D = n(n− 1) . . . (n− k + 1) D* = n Probabilità totali (Condizioni esperimento casuali)
n
,k n
,k Funzione di ripartizione
n
Combinazione di n oggetti di classe k
• F(x) = P(x = 0) + . . + P(x = n
)
∑
P(A) = P(A B )·P(B )
| (
( )
n n! j J F : R − > [0,1] ∀x ∈ R come F (x) := P(X ≤ x)
C = = j= 1 X X
n
,k k k!(n− k)! P(X ≤ x) = F(x)
P(A) = P(A B)P(B) + P(A B )P(B )
| | • P(X > x) = 1 − F (x)
( ) •
n+ k − 1 X
Formula di Bayes (Predizione valutando cond. f)
C* = P(x < X ≤ y) = F (y) − F (x)
(con ripetizioni) •
P(A B )P(B ) X X
|
n
,k k k k P(X < y) = lim F (x)
P(B A) =
| • −
x−> y X
k n
∑ P(A B )·P(B )
| j J P(X = y) = F (x) − lim F (x)
Ω F P j= 1
Spazio di probabilità ( , , ) • X x−> y X
Formula di moltiplicazione
Ω -> Insieme di ogni possibile risultato di un 1. monotona non decrescente
P(A ∩ A ∩ . . . ∩ A ) = P(A )P(A A )P(A A ∩ A1)
| |
1 2 n 1 2 1 3 2
esperimento, gli elementi prendono il nome lim F (x) = F (x )
2. continua da destra, x−> x0 X X 0
di eventi. lim F (x) = 0 e lim F (x) = 1
Indipendenza di eventi 3.
F σ Ω x−> −∞ X x−> ∞ X
-> Famiglia ( -algebra) di sottoinsiemi di P(A ∩ B) = P(A)·P(B)
rappresentanti i possibili eventi di un P(A B) = P(A)
|
Ω F Densità discrete notevoli
esperimento. (( , ) -> sp. probabilizzabile
P Densità binomiale
•
-> Probabilità, Affidabilità di un sistema
P(E ) = E / Ω = casi favorevoli / nu mero casi Conta il numero complessivo di successi ottenuti
| | | | Serie -> il sistema funziona se e solo se
• in n prove (estrazione con reimissione):
a = a ·a . . . a ( )
funzionano tutti i componenti. n
P 1 2 n
Proprietà di k n
−k
X ∼ Bi(n, p) p (k) = p (1 − p)
Parallelo -> il sistema funziona se e solo se
•
c X
P(A ) = 1 − P(A) k
• funziona almeno un componente. EX = np VarX = np(1 − p)
P(A) ≤ 1
• a = 1 − (1 − a )·(1 − a )
1 2 il numero di oggetti di tipo K che si trovano in un
B ⊂ A = > P(A /B) = P(A) − P(B)
se
• campione di n oggetti estratti con reimmissione da
B ⊂ A = > P(B) ≤ P(A)
se Variabile aleatorie discrete
• un insieme di N oggetti che contiene K oggetti di
P(A ∪ B) = P(A) + P(B) − P(A ∩ B) X : Ω − > R
Funzioni del tipo , la scrittura
• un tipo e (N-K) oggetti di un'altro è:
K
(X ∈ I ) è un abbreviazione di
P(A ∪ B ∪ C ) = P(A) + P(B) + P(C ) − [P(A ∩ B) + P(B ∩ C ) + P(A ∩ C )] + P(A ∩ B ∩ C ) X ∼ (n, )
∞ [ω ∈ Ω : X(ω) ∈ I ] N
∞ .
∑
P(∪ A ) = P(A ) , conA ∩ A = ∅
n n i j
n= 1
Densità bernulliana Densità Gaussiana standard
Variabili aleatorie continue
• •
Z ∼ N(0,1)
Densità continua e Funzione di ripartizione di X
Una prova di Bernoulli può avere solo due esiti: x
x 1 ∫
successo con probabilità p e insuccesso con ∫ 2
−x
F (x) = e d x = ϕ(x)
F (x) = f (s)d s f (x) = F′
(x) 2
preced)
(somma
probabilità 1-p. La densità bernulliana descrive Z
X X 2π −∞
−∞
l'esito di ogni prova di bernoulli: 1
f (x)d x = 1
1. ∫ 2
X ∼ Be( p) p (1) = p; p (0) = 1 − p −x
R X f (x) = e = φ(x)
X X 2
Z
f (x) f (x) ≥ 0
2. è integrabile, per ogni x
Densità geometrica
• 2π
P(X = x) = 0
conta il numero di prove necessarie per ottenere il 3. , (int. P) EZ = 0 VarZ = 1
primo successo (A.M= ):
P (Z > n + m Z > n) = P (Z > m)
| P(X ≤ x) = P(X < x) f (x)d x > , ≥
4. = ∫(a,b) ( ) ϕ(−t) = 1 − ϕ(t) μ
k−1 x
X ∼ G( p) p (k) = p(1 − p) Proprietà: Se abbiamo media
X F = ( ≤ , ≤ )
(N.B: estremi intervalli 2
σ
1 1 − p X e varianza standarizziamo
X ∼ G(1 − p)
EX = VarX = Densità continue notevoli X − μ
p p 2 2
Z ∼ N(μ, σ ) Z =
la v.a ha legge N.S.
Densità uniforme continua
• σ
1 x − μ
Densità Ipergeometrica
• X ∼ U(0,1) f (x) = I (t) F (x) = ϕ( )
Conta il numero di oggetti di tipo K che si trovano X (a,b) Z
b − a σ
in un campione di n oggetti estratti senza 2
(b − a)
(a + b) 1 x − μ 1 2
−(x − μ)
VarX =
EX =
reimmissione da un insieme di N oggetti che f (x) = φ( )= e 2
2σ
Z
12
2 σ σ
contiene K oggetti di un tipo e (N-K) oggetti di un 2πσ
Densità esponenziale
•
altro. 2
EZ = μ VarZ = σ
Quando un apparecchio non è soggetto ad usura.
X ∼ G(N, K, n
) N = n°elem. K=elem. scel. n=estr.
( )( ) −λx
X ∼ ε(λ) f (x) = λe I (x)
K N − K X (0,+ ∞) Proprietà:
K
k n− k λx 2 2
p (k) = EX = n F (x) = 1 − e X ∼ Γ(n, λ) X + X ∼ N(μ + μ , σ + σ )
appros:
( )
X X i 1 2 1 2 1 2
N
N 1 1 2 2
a X + b ∼ N(aμ + b, a σ )
EX = VarX = 1 1
n 1
λ λ 2 Relazione tra legge normale e standard
Per N (e quindi K) molto grande (N>10n) è come P(T > t + s T > t) = P(T > s)
| 2
Z ∼ N(0,1) = > σZ + μ ∼ N(μ, σ )
se estraessimo con reimissione: K X − μ
P(T > t + s) = P(T > t)P(T > s) 2
X ∼ G(N, K, n
) − > X ∼ B(n, ) X ∼ N(μ, σ ) = > ∼ N(0,1)
N σ
Densità di Weibull
•
Densità di Poisson Densità Gamma
• •
Utile a rappresentare il tempo di vita di un Descrive il tempo di vita di un apparecchio la cui
Permette di descrivere quantitativamente apparecchio propensione al guasto cresce col tempo, fino al
situazioni in cui non abbiamo accesso ai valori di X ∼ Weibu ll(α, β ) limite v
N e p, ma possediamo un unica informazione β β
−αt β−1 −αt
F (t) = 1 − e f (t) = αβt e X ∼ Γ(α, λ)
numerica: il parametro λ (numero medio di arrivi): X X
β−1
k λ(t) = αβt
λ Funzioni di variabili aleatorie
−λ
p (k) = e
Y ∼ P (λ) EY = λ VarY = λ β < 1 d ecresce, β = 1 cost, β > 1 u su ra
Y
0 f = a f
k! Y x
f (t)
X ∼ P (λ ) X −1 −1
Se allora: F (y) = P(Y ≤ y) = P(F(X ) ≤ y) = P(X ≤ F (Y )) = F (F (Y ))
X + . . . + X ∼ P (λ + . . . + λ ) λ(t) =
.
i 0 i Hazard Y X
1 n 0 1 n 1 − F (t) N.B: si cambiano anche gli intervalli
≤ 5
Per np e n(1-p)<5: X Y = g (X )
P (X > t + s X > t ) = P (X > s ) n. u
| Sia allora
t
X ∼ B(N, p) − > Y ∼ P (Np) − λ(s)d s
F (t) = 1 − e ∫ 0
0 P (X > t + s X > t ) < P (X > s ) u
| X −1 −1
f (y) = f (g (y)) (g )(y)
| |
P (X > t + s X > t ) > P (X > s ) r Y X
|
Approssimazione Normale della Binomiale Valore atteso discreto
Media, varianza e momenti n
Vale se np > 5; n(1-p) > 5
Valore atteso ∑ k·P(XY = k)
Y ∼ B(n, p) Y ∼ N(np, np(1 − p))
Discreto (x dentro le parentesi) k= 0
y(+ 0.5) − np
∑ ∑
E(X ) = x p (x ) E(Y ) = g (x )p (x ) il valore atteso delle marginale è k*val. marginale.
F (y) = P(Y ≤ y) ∼ Φ( )
k X k k X k 2 2
E(X ) k
Y è *val.marginale.
np(1 − p)
k∈I k∈I Valore atteso continuo
P(X < − x) = P(X > x) b d
Continuo Simmetria ∫ ∫ x y·f (x, y)d xd y
∫ ∫ Φ(x) = 1 − Φ(−x) Φ(−x) = 1 − Φ(x)
E(X ) = x f (x)d x E(Y ) = g (x)f (x)d x
X X a c
N.B: Si somma 0.5 solo nel caso discreto
R R Marginali discrete
Proprietà Approssimazione Normale di Gamma Somma della colonna della densità congiunta.
P(X = c) = 1 allora E(X ) = c
1. Y ∼ Γ(n, λ) N.B: Se le v.a sono ind. allora la marginale si fatt.
E(α X + β ) = αE(X ) + β n n λt − n
2. P(X, Y ) = P(X )P(Y )
nel prodotto delle marginali
Y ∼ N( , ) F (t) = P(Y < t) ∼ Φ( )
E(g (X ) + h (X )) = E(g (X )) + E(h (X )) Y
3. λ λ 2 Marginali continue
n b b
4. somma e prodotto corrispondono alla s e p. ∫ ∫
Momenti e funzione generatrice f = f (x, y)d y f = f (x, y)d x (a,b) var
k
E(X ) X Y
momento k-esimo, la media è momento
Varianza a a
primo. Se esite il movimento k-esimo esistono Covarianza
2 2
Var(X ) := E(X ) − (E(X )) anche gli intermedi. Cov(X , X ) = E[(X − E(X ))(X − E(X ))]
1 2 1 1 2 2
∫ tX
m (t) = E(e )
2 2
E(X ) = x f (x)d x funzione generatrice, deve Il coeff di correlazione è:
X
X Cov(X , X )
essere definita in un intervallo aperto contenente 1 2
ρ =
2
Proprietà E(X ) = m′ (0), E(X ) = m′
′
(0) . . .
lo 0: X ,X
X X 1 2 Var(X )VAr(X )
Var(c) = 0
1. 2 2 1 2
μt+ σ t /2
m (t) = e
Normale -> X
2
Var(a X + b) = a VarX Proprietà
2. Vettori aleatori Cov(X , X ) = Cov(X , X )
3. la somma corrisponde 1. 1 2 2 1
X = (X , . . . , X )
2 2 1 n
Va r (a X + bY ) = a Va rX + b Va rY + 2a bCov (X , Y ) Cov(a X , X ) = aCov(X , X )
2. 1 2 1 2
Se le v.a sono indipendenti:
Disuguaglianza di Chebychev Cov(X + X , X ) = Cov(X , X ) + Cov(X , X )
3.
P(X = x, Y ≤ y) = P(X = x)P(Y ≤ y) 1 2 3 1 3 2 3
Una variabi