vuoi
o PayPal
tutte le volte che vuoi
H K
0 ln( )
Entropia relativa H H
= =
H REL max( H ) ln( K )
≤ ≤
0 H 1
REL +
A A
[ ] −
k k 1
⇒
=
Valore centrale: Se classe A , A
−
k 1 k 2
n
1 ∑
=
x x
Media aritmetica: i
n =
i 1
K
1 ∑
Media ponderata con =
x x n
frequenze assolute: k k
n =
k 1
K
∑
=
Media ponderata con x x f
k k
frequenze relative: =
k 1
n ( )
∑ − =
x x 0
Somma degli scarti dalla media: i
=
i 1
n n
( ) ( ) ( )
∑ ∑
Seconda proprietà della media: − = − + −
2 2 2
x a x x n x a
i i
= =
i 1 i 1 1
A cura di Andrea Alesiani e Gabriele Fabozzi
n
1 ( )
∑
σ = − 2
2 x x
i
n
Varianza (metodo base e =
i 1
metodo semplificato):
n
1 ∑
σ = −
2 2 2
x x
i
n =
i 1
K K
1 ( ) ( )
∑ ∑
σ = − = −
2 2
2 x x n x x f
k k k k
n
Varianza con frequenze = =
k 1 k 1
(assolute e relative):
K K
1 ∑ ∑
σ = − = −
2 2 2 2 2
x n x x f x
k k k k
n = =
k 1 k 1
Trasformazioni lineari: = +
y
x y a bx
Avendo due variabili e tali che
x = +
allora la media di y sarà:
Se la media di x è y a bx
σ 2 σ σ
=
2 2 2
b
Se la varianza di x è uguale a la varianza di y sarà:
x y x
ε
x
Disuguaglianza di Cebicev: Avendo un raggio da pari a :
σ σ
2 2
≤ ≥ −
f f 1
ε ε
ε ε
A ( ) a ( )
2 2
DISTRIBUZIONI BIVARIATE: ⋅
n n
= h . . k
n
Condizione d’indipendenza: hk n
2
H K n
∑∑
χ = −
2 hk
1
n ⋅
Indice chi quadrato: n n
= =
h 1 k 1 h . . k
χ
≤ ≤ ⋅ − −
2
0 n min[( H 1), ( K 1)]
Indice phi grande quadro: χ 2
Φ =
2 n
≤ Φ ≤ − −
2 2
0 min[( H 1), ( K 1)]
A cura di Andrea Alesiani e Gabriele Fabozzi
χ
Φ 2 2
φ = =
2
Indice phi piccolo quadro: − − ⋅ − −
min[( H 1),( K 1)] n min[( H 1), ( K 1)]
φ
≤ ≤
2
0 1 χ
Indice V di Cramer: 2
φ
= =
2
V ⋅ − −
n H K
min[( 1), ( 1)]
≤ ≤
0 V 1
K
1 ∑
=
y y n
k . k
Media marginale di y: n =
k 1
K
1 ( )
∑
σ = − 2
2 y y n
Varianza marginale di y: y k . k
n =
k 1 K
1 ∑
=
y y n
Media condizionata di y =
X x k hk
n
h
x di X:
rispetto alla modalità =
k 1
h .
h 2
( )
K
1 ∑
σ = −
2
Varianza condizionata di y y y =
= k X x
Y X x n h
h
x
rispetto alla modalità di X: =
k 1
h h .
H
1 ∑
σ σ
=
2 2 n
w h h .
Varianza “within”: n =
h 1
H
1 ( )
∑
σ = − 2
2 y y n
Varianza “between”: B h h .
n =
h 1
σ σ σ
= +
2 2 2
Decomposizione della varianza (I): Y W B
σ σ σ
= =
2 2 2
0
quando e
Indipendenza in media: B Y W
σ σ σ
= =
2 2 2
0
Massima connessione in media se: quando e
W Y B 3
A cura di Andrea Alesiani e Gabriele Fabozzi
σ 2
Indice eta quadro: η =
2 B
σ 2
Y
COVARIANZA E CORRELAZIONE η
≤ ≤
2
0 1
n
1 ( )( )
∑
σ = − −
x x y y
XY i i
n
Covarianza: =
i 1
n
1 ∑
σ = −
x y xy
XY i i
n =
i 1
σ σ σ σ σ
− ≤ ≤
x y XY x y
H K
1 ∑∑
σ = −
x y n xy
Covarianza con frequenze (assolute XY h k hk
n = =
h k
1 1
e relative):
H K
∑∑
σ = −
x y f xy
XY h k hk
= =
h k
1 1
σ
ρ = XY
Indice di Correlazione: σ σ
XY X Y
ρ
− ≤ ≤
1 1
XY
RETTA DI REGRESSIONE σ
=
ˆ xy
b
Coeff. angolare: σ 2 x
= − ˆ
Intercetta: â y bx
n
1 ( )
∑
σ ρ σ
= − =
2
2 2 2
ˆ
y y
i y
Varianza spiegata dalla retta: ˆ
y n =
i 1
n
1 ∑
σ ρ σ
= = −
2 2 2 2
e (1 )
Varianza dei Residui: e i y
n =
i 1 4
A cura di Andrea Alesiani e Gabriele Fabozzi
σ σ σ
= +
2 2 2
Varianza spiegata dalla retta: e ˆ
y y
Decomposizione della varianza (II): PROBABILITÀ ∪ = ∩
c c c
( A B ) ( A B )
Prima legge di De Morgan: ∩ = ∪
c c c
Seconda legge di De Morgan: ( A B ) A B
CALCOLO COMBINATORIO n !
=
SR
D
Disposizioni semplici: −
n , k ( n k )!
n
n !
= =
Combinazioni semplici (Coeff. binomiale): C
− ⋅
n , k
k
( n k )! k !
PROBABILITÀ ELEMENTARE ∪ = + − ∩
P ( A B ) P ( A
) P ( B ) P ( A B )
Unione: − = − ∩
Differenza: P ( A B ) P ( A
) P ( A B )
∩ =
P ( A B ) P ( A | B ) P ( B )
Intersezione: ∩ ∩
P ( A B ) P ( A B )
= =
P ( A | B ) e P ( B | A
)
P ( B ) P ( A
)
Probabilità condizionate: P ( B | A
) P ( A
)
=
P ( A | B )
Teorema di Bayes: n
∑ P ( B | A ) P ( A )
n n
=
i 1 5
A cura di Andrea Alesiani e Gabriele Fabozzi
VARIABILI ALEATORIE DISCRETE K
∑
=
E ( X ) x p
Valore atteso: k k
=
k 1
K
∑
= −
2 2
VAR ( X ) x p E ( X )
Varianza: k k
=
k 1
X Be ( p )
∼
Variabile Bernoulliana: =
E ( X ) p
= −
Var ( X ) p (1 p )
X Bin ( n , p )
∼
Variabile Binomiale:
n −
= −
k n k
P ( k ) p (1 p )
k
=
E ( X ) np
= −
Var( ) (1 )
X np p
µ σ 2
X N ( , )
Normale: ∼ µ
−
x
=
z
Standardizzazione: σ
X N (0,1)
Normale standardizzata: ∼ µ
−
x
≤ = ≤
P ( X x ) P Z
σ
−
Approssimazione di probabilità X Bi ( n
, p ) X N [ np , np (1 p )]
∼ ≃ ∼
binomiale con la normale: 6