Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
P P
P
∼ N ∼ N µ , σ
X , σ Y X Y i
i i i i
i i i
i
3.7.1 Normale standard
Una gaussiana con media 0 e varianza 1 (quindi simmetrica rispetto all’asse verticale) risulta essere
particolarmente comoda per fare i conti, perciò viene chiamata “normale standard” Z:
(0, 1)
Z ∼ N
La sua funzione di ripartizione (t) viene chiamata Φ(t) e sono disponibili tabelle che riportano i suoi
F Z
valori (sensatamente utili).
Dalla simmetria della normale standard deriva anche la proprietà per cui:
Φ(−t) = 1 Φ(t) =
− ≥ t)
P(Z
16 3.7. DISTRIBUZIONE NORMALE (CONTINUA)
Per esempio, nel valutare 0, 75), si dovrà cercare la casella che unisce la riga dello 0, 7 con la
≤
P(Z
colonna dello 0, 05 (trovando 0, 77337).
3.7.2 Processo di standardizzazione
Non sempre si ha a che fare con variabili aleatorie distribuite come la normale standard, in questi casi si
può procedere a “standardizzarle”.
Partendo dalla normale standard si ha (tramite l’applicazione di un funzionale) che = + porta
Z Y σZ µ
ad avere (µ, ) , perciò è possibile anche procedere al contrario:
2
∼ N
Y σ
data una V.A. (µ, )
2
∼ N
X σ
− − −
X µ t µ t µ
= ... poi tabelle...
≤ ≤ ≡ Z≤
t)
P(X P P
σ σ σ 17
CAPITOLO 3. DISTRIBUZIONI ALEATORIE NOTEVOLI
≤
Φ: = Φ(z)
z)
3.7.3 Tabella della P(Z
Z ≡ N ≥
(0, 1): ) =
z β
3.7.4 Quantili della P(Z β
18 4
TLC
4.1 Combinazioni lineari di variabili aleatorie
Le variabili aleatorie si dicono “indipendenti” se
n X
i \ Y
=
∈ ∈ ∀E ⊆
X E X E
P P R
i i i i i
i i
La dicitura “iid” rappresenta V.A. indipendenti identicamente distribuite (anche i parametri delle
distribuzioni devono essere gli stessi).
Se si hanno V.A. indipendenti e si chiamano ] = ] = , definendo la combinazione
2
X µ , σ
E[X V[X
i i i i i
n
lineare = ( il primo termine sarà il coefficiente ) si avrà che:
P
Y C X C
i i 0
i=0 ] = + + + ] = + +
2 2 2 2
C C µ . . . C µ C σ . . . C σ
E[Y V[Y
n n
0 1 1 n n
1 1
Se si hanno due V.A. non indipendenti , e su costruisce = + , si avrà:
X X Y X X
1 2 1 2
] = + ] = ] + ] + 2 ] ]E[X ]
−
µ µ X
E[Y V[Y V[X V[X E[X E[X
1 2 1 2 1 2 1 2
Si definisce quindi la “covarianza” come cov(X ) = ] ]E[X ] (se le V.A. fossero
−
, X X
E[X E[X
1 2 1 2 1 2
indipendenti allora ] ] , come mostrato di seguito).
Q Q
≡
X
E[ E[X
i i
i i (x) :
S −→
f A
R
X i
i
date =⇒
(y) =
S −→
f B
R
Y j
j
ZZ
] = (x)yf (y)
xf dx dy
E[XY X Y
S S
×
A B
i j
i j
X
Z Z
X
= (x) (y)
xf dx yf dy
X Y
A A
i j
i j
= ]
E[X] E[Y 19
CAPITOLO 4. TLC
In generale se le V.A. sono indipendenti la loro covarianza è nulla, però non è detto che ad una covarianza
nulla corrisponda l’indipendenza delle V.A. (se si tratta di gaussiane invece è vero).
La covarianza può assumere un ampio spettro di valori, così si definisce la “correlazione”:
cov(X )
, X
1 2
cor(X ) = [−1; 1]
∈
, X
1 2 ]V[X ]
p
V[X
1 2
• se cor 0 le V.A. sono direttamente correlate;
>
• se cor 0 le V.A. sono inversamente correlate;
<
• più 1 e più le V.A. sono correlate;
|cor| →
• se = 1 le V.A. si dicono “perfettamente correlate” e perciò una è esprimibile come combinazione
|cor|
lineare dell’altra.
Per una generica combinazione lineare di V.A. si ha allora:
Y n
X X
] = + + + 2 cov(X )
2 2 2 2
C σ . . . C σ C C , X
V[Y i j i j
n n
1 1 i=1 j<i
n n
( la sommatoria corrisponde a ).
P P P
i=1 j<i j<i
4.2 Teorema del limite centrale
Date V.A. iid, definendo ] = e ] = , il TLC afferma che ( per ma
2 → ∞,
X , . . . , X µ σ n
E[X V[X
i n i i
solitamente si accetta 30 ):
n > 2
σ
∼ N
X µ, n
n
X 2
∼ N
X nµ, nσ
i
i=1 −
X µ
√ ∼Z
σ/ n
Casi notevoli di applicazione del TLC sono:
1. se 5 ( quindi anche 5 ) allora (µ = = ;
2
− B(n, ∼ N −
np > np(1 p) > p) np, σ np(1 p))
2. se 10 allora (µ = = .
2
P(λ) ∼ N
λ > λ, σ λ)
20 4.2. TEOREMA DEL LIMITE CENTRALE
4.2.1 Correzione di continuità
Approssimando una V.A. discreta con una V.A. continua (tramite il TLC) è possibile che quest’ultima
contempli valori che la prima non poteva assumere, perciò (nel caso in cui la V.A. discreta di partenza
assumesse valori interi) si ricorre ad una “correzione”:
denotando con la V.A. trasformata con il TLC:
X̃ • = 0.5 + 0.5)
≈ −
t) < X̃ < t
P(X P(t
• + 0.5)
≈
> t) X̃ > t
P(X P(
• 0.5)
≈ −
< t) X̃ < t
P(X P(
• 0.5)
≥ ≈ ≥ −
t) X̃ t
P(X P(
• + 0.5)
≤ ≈ ≤
t) X̃ t
P(X P( 21
5
Statistica descrittiva
La statistica descrittiva fornisce dei valori utili basandosi sulle osservazioni, ossia sul campione (una parte
casuale di popolazione che è stata misurata).
5.1 Indici descrittivi
• Media campionaria: 1 X
=
x x i
n i
• Varianza campionaria: 1
1 n
X X
= =
= (x 2 2
2 2
· · ·
− −
x) x
s x
i
1 1 1
i
− − −
n n n
i i
la varianza dell’intera popolazione sarebbe invece = (x .
2 2
P −
σ x) /n
i
i
√
• Deviazione standard campionaria: = 2
s s
• Covarianza campionaria: 1 X
cov = (x −
− x)(y y)
i i
1
−
n i
• Correlazione campionaria: cov
cor = s s
x y
• Quantile (o percentile) ( di ordine ) :
α
: #{x #{x (1
≤ } ≥ ∧ ≥ } ≥ −
q q α n q α) n
α i α i α
• Quartili: (primo quartile) , (secondo quartile o mediana) , (terzo quartile).
q q q
0,25 0,5 0,75
• Range: min(x ); max(x ) oppure max(x ) min(x )
−
i i i i
• Range interquartile: IQR = −
q q
0,75 0,25 22 5.2. BOXPLOT
5.2 Boxplot
La “scatola” del box-plot parte da e arriva a (contiene perciò il 50% delle osservazioni), indicando
q q
0,25 0,75
(con una riga) la mediana .
q 0,5
I “baffi” del box-plot si estendono nell’intervallo 1.5 IQR; + 1.5 IQR , anche se in alcune
−
q q
0,25 0,75
rappresentazioni si fermano all’ultima osservazione dell’intervallo presente nel campione.
Le osservazioni del campione che eccedono l’intervallo dei baffi sono detti “outliers” ma sono comunque
graficati per completezza.
5.3 Scatterplot
Lo scatter-plot riporta in un grafico le osservazioni di due differenti campioni.
Se il coefficiente di correlazione è prossimo ad 1 e più lo scatter-plot sarà simile ad una retta. 23
6
Stima parametrica
Si definisce “statistica” un generico funzionale del campione casuale di V.A. (tutte iid).
6.1 Stima puntuale
Dato un parametro la statistica che si utilizza per stimarlo viene detta “stimatore” e si indica con (
Θ̂
θ
che è quindi un funzionale delle V.A. incognite Θ̂ = Θ̂(X ) ); l’effettiva “stima” del parametro
, . . . , X θ
n
1
si indica con ed è lo stimatore calcolato nelle osservazioni del campione, quindi = Θ̂(x ) .
θ̂ θ̂ , . . . , x n
1
I parametri per cui si predilige uno stimatore rispetto ad un altro sono la distorsione e l’errore quadratico
medio (mean squared error):
• la distorsione rappresenta la “mira” dello stimatore, cioè se esso è indirizzato verso il giusto valore;
• l’errore quadratico medio rappresenta la “precisione” dello stimatore, cioè se mediamente esso si
avvicina al suo valore target. 24 6.2. STIMA INTERVALLARE
6.1.1 Distorsione
Per uno stimatore Θ̂ del parametro , si definisce la sua distorsione come:
θ bias[Θ̂] = E[Θ̂] − θ
uno stimatore è “non distorto” se bias[Θ̂] = 0 o, alternativamente, se E[Θ̂] .
≡ θ
6.1.2 Errore quadratico medio
Per uno stimatore Θ̂ del parametro , si definisce il suo errore quadratico medio come:
θ
MSE [Θ̂] = (Θ̂ = = V[Θ̂] + bias [Θ̂]
2
2
− · · ·
θ)
E
6.1.3 Efficienza relativa
L’efficienza relativa relaziona gli errori quadratici medi di due stimatori, infatti l’efficienza dello stimatore
Θ̂ rispetto allo stimatore Θ̂ si calcola come:
1 2 MSE[Θ̂ ]
2
ER[Θ̂ Θ̂ ] =
,
1 2 MSE[Θ̂ ]
1
6.1.4 Stimatori notevoli
Per ragioni puramente pratiche è frequente la necessità di stimare il valore atteso o la varianza di una
certa V.A. , perciò è bene ricordarsi che i “migliori” stimatori sono:
• per il valore atteso Θ̂ =
X
E[X]
• per la varianza Θ̂ = oppure (rispettivamente se si ha a disposizione un campione
n−1
2 2
S S
V[X] n
di osservazioni o le osservazioni di tutta la popolazione, la formula infatti è una correzione sui gradi
di libertà).
6.2 Stima intervallare
Lo stimatore intervallare per il parametro con “livello di confidenza” 1 è un intervallo del tipo
−
θ, α
[L ; ] (lower e upper) tale per cui ) = 1 (solitamente si utilizzano valori piccoli di
≤ ≤ &