Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
E E(X))
(X p
γ , σ V
= dove = (X)
3
σ
Nota: γ >
• asimmetria positiva: 0
Y
≈
γ
• simmetria: 0
Y γ <
• asimmetria negativa: 0
Y
Indice di curtosi
4
−
E E(X))
(X
β = 4
σ
Nota: β >
• distribuzione leptocurtica: 3
Y ≈
β
• distribuzione normocurtica: 3
Y
β <
• distribuzione platicurtica: 3
Y
Variabili casuali multivariate , X , . . . , X
Una variabile casuale multivariata è un vettore i cui elementi sono variabili casuali (X ).
n
1 2
20
Variabili casuali bivariate
Funzione di ripartizione congiunta 2
≤ ≤ ∈
F y) P x, Y y), y)
(x, = (X (x, R
X,Y
Funzione di ripartizione marginale ∈ ∈
F F y), x F y), x
(x) = lim (x, (y) = lim (x,
RF R
X X,Y Y X,Y
y→+∞ x→+∞
Y , y
Si dice variabile casuale bivariata (X, ) discreta se (x ) appartengono a un insieme finito o al più
i i
numerabile: X
P x , Y y p > p
(X = = ) = 0 e = 1
i j ij ij
i,j
{(x ∈ ×
S , y , j) I J}
= ) (i,
X,Y i j
Funzione di probabilità congiunta discreta
∀(i, ∈ ×
p y) , y , j) I J
se (x, = (x )
ij i j
f y)
(x, =
X,Y 0 altrimenti.
Funzione di probabilità marginale (caso discreto)
X X ∈
P x P x , Y y p p x S
(X = ) = (X = = ) = =
i i j ij i+ i X
j∈J j∈J
X X ∈
P y P x , Y y p p , y S
(Y = ) = (X = = ) = =
j i j ij j Y
+j
i∈I i∈I
Condizionamento e indipendenza
X Y
Se e sono indipendenti 2
∈
F y) F y)
(x, = (x)F (y), per ogni (x, R
X,Y X Y
Y
Se (X, ) è discreta ∈
f , y f f p p p , , y S
(x ) = (x ) (y ) = = (x )
X,Y i j X i Y j i,j i+ i j X,Y
+j
Variabile casuale condizionata P x , Y y p
(X = = )
i j ij
|Y ∈
f P x y x S
(x ) = (X = = ) = = i
i i j
X|Y X|Y
=y =y
j j
P y p
(Y = )
j +j
Valore atteso condizionato X
E y x f
(X|Y = ) = (x )
j i i
X|Y =y
j
x i
Varianza condizionata X 2
−
V y E y f
(X|Y = ) = (x (X|Y = )) (x )
j i j i
X|Y =y
j
x i 21
Covarianza
• Per variabili casuali continue − −
Y σ E[(X E(X))(Y E(Y
Cov(X, ) = = ))]
XY
• Per variabili casuali discrete X X − −
Y E(X)) E(Y f , y
Cov(X, ) = (x (y )) (x )
i j X,Y i j
x y
i j
Formula per il calcolo −
Cov(X, Y E(XY E(X)E(Y
) = ) )
Nel caso discreto X X
E(XY x y f , y
) = (x )
i j X,Y i j
x y
i j
Infine, 2 2
V bY a V b V Y
(aX + ) = (X) + (Y ) + 2abCov(X, )
V Y V V Y
(X + ) = (X) + (Y ) + 2Cov(X, )
− −
V Y V V Y
(X ) = (X) + (Y ) 2Cov(X, )
Coefficiente di correlazione lineare σ XY
ρ Y
= Cor(X, ) =
XY σ σ
X Y
−1 ≤ ≤
ρ
Il coefficiente di Pearson è 1. Se:
XY
ρ > ρ
• 0 : relazione lineare crescente con probabilità
XY XY
ρ
• = 0 : incorrelazione tra X e Y
XY
ρ < ρ
• 0 : relazione lineare decrescente con probabilità
XY XY
Costante di normalizzazione
La costante di normalizzazione serve a fare in modo che le caratteristiche delle funzioni di probabilità/densità
e ripartizioni siano mantenute. Per trovare il suo valore basta porre l’integrale della funzione di densità pari
a 1: +∞
Z f (x)dx = 1
X
−∞ 22
6. Modelli probabilistici
Modelli discreti
Modello uniforme discreto
Il modello uniforme discreto descrive esperimenti con un numero finito di esiti equiprobabili.
Quando si usa?
∼
X U d(x , . . . , x
In simboli: )
n
1 x x , . . . , x
1/n se = n
1
f x , . . . , x
(x; ) =
X n
1 0 altrimenti
n
1 X
E(X) x
= i
n i=1
n
1 X 2
− E(X))
V (x
(X) = i
n i=1
Modello binomiale
Il modello binomiale si utilizza nelle estrazioni con reinserimento, che possono avere
Quando si usa? ≥
n
successo (1) o insuccesso (0). Descrive quindi il numero di successi in 1 esperimenti indipendenti e con la
∼ {0,
X Bi(n, p), S . . . , n}.
stessa probabilità di successo. In simboli: con supporto =
X
n x n−x
− ∈
p p) x S
(1 se
X
x
f n, p)
(x; =
X 0 altrimenti
!
n n
X X
E(X) E X E np
= = (X ) =
i i
i=1 i=1
!
n n
X X −
V V X V np(1 p)
(X) = = (X ) =
i i
i=1 i=1
∼
n X Ber(p),
Se = 1 allora modello che esprime un esperimento bernoulliano con successo o insuccesso.
E(X p
) =
i −
V p(1 p)
(X ) =
i
n
P −
X X E(X) np V np(1 p).
Dato che = allora = e (X) =
i
i=1
Modello poisson Il modello poisson descrive problemi di conteggio di accadimenti di eventi in un certo
Quando si usa?
intervallo di tempo.
∼
X P S
In simboli: (λ), se = N.
X −λ
x
∈
λ e /x! x S
se X
f λ)
(x; =
X 0 altrimenti
23
E(X) λ
=
V λ
(X) =
λ λ vt v n. t
Il parametro può essere visto come = con = di successi e l’intervallo di tempo in cui sono
≥ ≤
n p
avvenuti. Per 50 e 1/25 il modello binomiale si approssima al modello Poisson.
Modello geometrico
Descrive il tempo di attesa, ovvero il numero di replicazioni indipendenti necessarie a un
Quando si usa? +
∼
p. X Ge(p), S
esperimento per avere successo, avendo probabilità di successo In simboli: se = .
N
X
x−1
− ∈
p) p x S
(1 se X
f p)
(x; =
X 0 altrimenti
1
E(X) = p
− p)
(1
V (X) = 2
p s t
È dotato di assenza di memoria: la probabilità di successo dopo + prove ponendo per condizione che non
s t
sia successo per volte è come dire la probabilità di successo dopo prove.
Modelli continui
Modello uniforme continuo
Il modello uniforme continuo descrive esperimenti aleatori che possono essere rappresentati
Quando si usa? b]
come un’estrazione casuale di un numero dall’intervallo [a,
∼
X U b), S b]
In simboli: (a, se = [a,
X − ≤ ≤
a) a x b
1/(b se
f a, b)
(x; =
X 0 altrimenti
x < a
0 se
− − ≤
a)/(b a) a x < b
(x se
F a, b)
(x; =
X ≥
x b
1 se
b 2 2
−
Z b a b a
1 +
1 dx
E(X) x = =
= − −
b a b a
2 2
a 2
b
Z b a
1 +
2 2 2
− −
V E X x dx
(X) = (E(X)) = −
b a 2
a
2
3 3 2
− −
b a b a a)
+ (b
−
= =
− a)
3(b 2 12
24
Modello esponenziale
Viene usato per rappresentare durate e tempi di vita/funzionamento, in caso di assenza di
Quando si usa?
memoria o usura.
∼
X S
In simboli: Esp(λ), se = [0, +∞)
X −λx
∈
λe x S
se X
f λ)
(x; =
X 0 altrimenti
−λx
− e x >
1 se 0
F λ)
(x; =
X ≤
x
0 se 0
1
E(X) = λ
1
V (X) = 2
λ
Modello normale
Si usa per descrivere errori accidentali nel caso di misurazioni strumentali ripetute. Spesso
Quando si usa?
2
∼
X N µ, σ , S
viene usato come approssimazione degli altri modelli probabilistici. In simboli: se = R.
X
2
− µ)
1 (x
√ −
f µ, σ)
(x; = exp
X 2
2σ
2πσ 2
µ, σ
Il massimo della funzione è che è anche moda e mediana, oltre che media. La varianza è pari a .
∼
Z N
Tramite la è possibile ottenere una (0, 1) e calcolare le probabilità vedendo le
standardizzazione
tavole dei valori critici. − µ)
(X
Z = σ
− ∀z ≥
Φ(−z) = 1 Φ(z), 0
− − −
a µ X µ b µ
≤ ≤ ≤ ≤
P X b) P
(a = σ σ σ
− −
b µ a µ
−
=Φ Φ
σ σ
− − −
X µ b µ b µ
≤ ≤
P b) F µ, σ) P
(X = (b; = =Φ
X σ σ σ
α:
Per trovare le code di distrubuzione (destra e sinistra) con probabilità di peso
≥ ∈
P z α, con α
(Z ) = (0, 0.5)
α
Verifica della normalità
La verifica della normalità è un’analisi preliminare dei dati per verificare se il fenomeno preso in esame può
2
∼
x , x , . . . , x X N σ
essere descritto da un modello normale. Quindi dati , si vuole valutare se (µ, ). Questa
n
1 2
verifica può avvenire tramite:
• confronto tra istogramma e funzione di densità
• stima di densità e funzione di densità
• qqplot, una rappresentazione dei quantili calcolati sui dati e sulla distribuzione normale
25
Modello chi-quadrato n 2 2
P ∼
Z χ
Z , . . . , Z N Y
Date le variabili casuali indipendenti con distribuzione (0, 1) allora = (n) se
n
1 i
i=1
S = [0, +∞).
Y E(Y n
) =
V (Y ) = 2n
→ ≥
n N
Per +∞ (n 80) il modello tende alla distribuzione normale (n, 2n).
t
Modello di Student Z
√
2
∼ ∼
Z N Y χ T S
Date (0, 1) e (n), T ha distribuzione T di student: = , se = R.
T
Y /n
E(T ) = 0
n
V (T ) = −
n 2
→ ≥ −
n N n/(n
Per +∞ (n 30) il modello tende alla distribuzione normale (0, 2)). Per i valori critici, essendo
−t
t
simmetrica, = .
α,n
1−α,n
F
Modello di Fisher X/n
2 2
∼ ∼ ∼
X χ Y χ F F F m)
Date le variabili (n) e