Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
=P
P j= P x ; y y ; j=1 , … , c
Della Y:
. x , y i j y j
=1
j ( )
n x ; y
x , y i j i=1 , … ,r ; j=1 ,… , c
( )
=
P x ; y
Mentre le frequenza relativa congiunta: con
x , y i j N
RELAZIONE O CONNESSIONE TRA X E Y
Quando non c’è connessione tra le due variabili, queste si dicono indipendenti, se per ciascuna coppia di valori la
frequenza relativa congiunta è pari al prodotto delle marginali
{ }
( )
( ) =Pi
x , y : x ; y ; Ṕ ∙ P j ; i=1, … , r ; j=1 , … , c
i j ij . .
Modello osservato:
x\y 2 5 Pi.
1 0,2 0,1 0,3
3 0,4 0,3 0,7
P.j 0,6 0,4 1
Modello teorico:
x\y 2 5 Pi.
1 0,18 0,12 0,3
3 0,42 0,28 0,7
P.j 0,6 0,4 1 Pi ∙ P j
. . M . O .=M .T .
Per costruire il modello teorico, si moltiplicano i risultati e si divide per il totale: . Se
N
x ⫫ y M . O .≠ M . T . x y
allora (indipendenti); se allora e non indipendenti.
x ⫫ y
Se , vi sono 3 condizioni:
( ) ( ) ( )
=P
P x ; y x ∙ P . y
x , y i j x . i y j
( ) ( )
=P
P y . y la x non condiziona la y
y j y j
x ( ) ( )
=P
P x x la y non condizionala x
x i x . i
y ¿ ∙ n .
. j
−
n
La contingenza è pari al valore osservato meno quello teorico: ij N
FREQUENZA CONGIUNTA TEORICA
r c
∑ ∑ 2
´
( )
− =0
n n
Condizione di normalizzazione: ij ij
i=1 j=1
2
( )
−
r c n ń
∑ ∑ ij ij
2 x⫫ y
=
χ
2
Chi : se
ń
i=1 j=1 ij
DIPENDENZA PERFETTA x y
1. Y da X: la variabile Y dipende perfettamente da X se ad ogni modalità della X è associata una sola
i j
della Y y x
2. X da Y: la variabile X dipende perfettamente da Y se ad ogni modalità della Y è associata una sola
j i
della X x
3. Bilaterale: X e Y sono perfettamente dipendenti se ad ogni valore della X corrisponde un solo valore
i
y della Y
j 2
χ
In quest’ultimo caso si parla di funzione invertibile, con come misura della dipendenza bilaterale.
2
´
( )
−
n n
ij ij ¿
ń ∙ n .
NN
∑ ∑ ij . j
2 = =Pi ∙ P j= Ṕ
=
χ
Per cui: con per cui
. . j
´
n N NN
i j ij
NN
2 ( ) ( )
´ 2 2
( )
−
n n − ´
n n n ń
ij ij ij ij ij ij
− 2
( )
−
P Ṕ
2 N N N
N
∑ ∑ ∑ ∑ ∑ ∑ ij ij
2 = = =N =N
χ ∙ ∙
P
Ṕ Ṕ Ṕ
i j i j j i j
j j j
N N √
2 2
χ χ
2 2
=ψ =
Psi
Indice di contingenza media quadratica: , per cui Psi=ψ=
N N
{ }
{ } 2 ( ) ( )
( ) ( )
−1
2 2
N r ; c−1 <
0< χ N r−1 ; c−1
χ χ
Max. di : per cui . Dividendo per max. :
min
min { }
( ) ( )
N r−1 ; c−1
2
0 χ min
< <
2 2 2
max . χ max . χ max . χ 2
χ
2 =
C
Indice normalizzato che varia tra 0 e 1 o Indice di Cramer: . Con tale indice posso
{ }
( ) ( )
N r−1 ; c−1
min
r c
confrontare e differenti. VARIABILI QUANTITATIVE c
y { } ∑
y ; P ; j=1 , … , c ( )=
E Y y ∙ P
Con X e Y quantitative: . La media condizionata di Y è:
j j
x=x y j j
i i j=1
x= x i
i
FUNZIONE DI REGRESSIONE ( )
φ x
(x )
, y
1. Sia la v.s. doppia quantitativa discreta, e si consideri la media condizionata di Y indicata con i
{ }
( )
φ x S x , … , x
. La definita sul supporto è detta funzione di regressione della Y sulla X ed è descritta
i x 1 r
{ }
( )
( )
x ; φ x ; i=1 , … , r
dai valori: . È un modo di descrivere la Y tramite la X.
i i ( )
Ψ y
2. Si definisce funzione di regressione della X sulla Y, indicata con , la media condizionata della X alla Y. È
j
{ }
( )
( )
y ; Ψ y ; j=1 , … , c
descritta dalle coppie di valori .
j j
ERRORE QUADRATICO MEDIO ( )
2
[ ]
(x)
E y−g g(x)
Con tale criterio è possibile descrivere la funzione di regressione: è minimo quando a
)
φ(x
sostituiamo , secondo il criterio dell’errore quadratico medio.
Dimostrazione: ( )
( ) 2
[ ]
2
[ ] ( ) ( )
( ) ( )−g ( )
( =E +
E y−g x) y−φ x φ x x
I. ( )
[ ]
2 2
( ) ( ) ( )( )
( ) ( )−g ( ) ( ) ( ) ( )
¿ + + −φ −g
E y−φ x φ x x 2 y x φ x x
II. [ ] [ ] [ ]
[ ]
2 2 ( ) ( )
( ) ( )−g ( )
( ) ( ) ( )( ) =0
2 E y−φ x φ x x
( ) ( )−g ( ) ( ) ( )−g ( )
¿ + + −φ
E y−φ x E φ x x 2 E y x φ x x
III. con
Dimostrazione che il doppio prodotto è pari a zero con il metodo delle sommatorie:
r c [ ]
∑ ∑ ( )( )
( ) ( ) ( )
−φ −g
(x ) 2 y x φ x x ∙ P
, y
I. 2 variabili j i i i ij
i=1 j=1
[ ]
r c =P
P ∙ Pi
∑ ∑
( ) ( )
( ) ( ) ( )
¿ −g −φ
2 φ x x y x ∙ P
II. con ij j .
i i j i ij i
=1
i j=1
[ ]
r c
∑ ∑
( ) ( )
( ) ( ) ( )
¿ −g −φ =0
2 φ x x y x ∙ P ∙ Pi
III. i i j i j .
=1
i j=1 i ( )
y y
φ=E
All’interno delle quadre calcoliamo la media della variabile dalla sua media, perché . La
x x
media degli scarti dalla media è zero. [ ] [ ]
( )
2 2 2
2
( ) [ ] ( ) ( ) ( ) ( )
=φ
g x x
( ) ( ) ( )−g ( )
y−g x ( =E + =0
E y−g x) y−φ x E φ x x
La media di è: se .
≥ 0 ≥ 0
INDIPENDENZA REGRESSIVA ( ) ( )
φ x Ψ y
(x )
, y
Sia una variabile bidimensionale quantitativa discreta con funzioni di regressione e , si
i j
( )=μ
φ x
dice che Y è regressivamente indipendente dalla X quando , e che X è regressivamente indipendente
y
( )=μ
Ψ y
dalla Y quando .
x ( )
( )
( ) y
yx
( ) ( )=E
( ) φ x
=μ =μ
E φ x E E
Teorema: y
y x
Dimostrazione: ∑
( ) ( )
( ) =
E φ x φ x ∙ Pi
I. i .
i
r c c =P
P ∙ Pi
∑ ∑ ∑
¿ =φ(x )
y ∙ P ∙ Pi y ∙ P
II. con e j . ij
j j . j j i
i=1 j=1 j=1
i i
∑ ∑
¿ y ∙ P
III. j ij
i j
∑ ∑ ∑
¿ =P
y P P .
IV. con
j ij ij j
j i i
=¿
y ∙ P . μ
j j y
∑
V. ¿ ¿
j ( )
( ) =μ
E Ψ y
Procedimento analogo per con le opportune modifiche.
x
REGOLE GENERALI:
y { }
y ; P ; j=1 , … , c
1. j j
x=x i i
c
( )
yx ∑
=
E y ∙ P
2. j j
j=1 i
c
( )
y ∑ ( )
( )
= −φ
V y x ∙ P
3. j i j
x j=1 i
FUNZIONE DI REGRESSIONE:
{ }
( )
( ) ( )
φ x : x ; φ x ; Pi ; i=1 , … , r
1. i i i .
∑
( ) ( )
( ) = =μ
E φ x φ x ∙ Pi
2. i . y
i ( )
( )
y
∑ 2
( )
( ) ( )
( ) = −μ =V
V φ x φ x ∙ Pi E
3. i y . x
i
SCOMPOSIZIONE DELLA VARIANZA DALLA Y:
[ ]
2
( )
( )=E −μ
V y y
I. y
[ ]
2
( )
( )
( )
( ) ( )−μ
¿ +
E y−φ x φ x
II. y
[ ]
( )
2 2
( ) ( )
( ) ( )
( ) ( )−μ ( ) ( )−μ
¿ + +
E y−φ x φ x 2 y−φ x φ x
III. y y
[ ]
[ ]
2 2
( )
( )
( ) ( )−μ
¿ +
E y−φ x E φ x
IV. y
Dimostriamo che il doppio prodotto è pari a zero con il metodo delle sommatorie:
[ ]
( )
( )
( ) ( )−μ ( )=φ
=0
2 E y−φ x φ x φ x
I. con
y i
r c
∑ ∑ ( ) ( )
¿ −φ −μ
2 y φ ∙ P
II. j i i y ij
=1
i j=1
∑ ∑
( ) ( )
¿ −μ −φ
2 φ y ∙ P
III. i y j i ij
i j
[ ]
∑ ∑
( ) ( )
¿ −μ −φ
2 φ y ∙ P ∙ Pi
IV. i y j i y .
i j i
Dunque: [ ]
[ ]
2 2
( )
( )
( )=E ( ) ( )−μ
+
V y y−φ x E φ x
I. y
V. residua V. spiegata
( ) ( )
( ) ( )
y y
¿ +V
E V E
II. x x ( )
( )
V φ x
1. La media degli scarti dalla media è pari a zero.
2. La varianza si scompone in due parti non negative. ( )
y
( )=E
y=φ x
a. Perfetta dipendenza funzionale della Y dalla X la varianza residua è max.:
x
[ ]
2
( )
( )=E ( )−μ
V y φ x y
[ ]
2
( )
( )−μ ( )=μ
=0↔
E φ x φ x
b. La media quando Y regressivamente indipendente da X
y y
In conclusione:
Quando la varianza residua è pari a zero, quella spiegata è max.
Quando Y è R.I. da X, la varianza spiegata è max.
2
0 (I.R.) ETA 1 (dip. funz. perfetta)
RAPPORTO DI CORRELAZIONE ( )
( )
y
V E x
2
ETA : VARIANZA SPIEGATA
2 2
= =
η →η y ( )
VARIANZA TOTALE V y
x ( )
y
( ) =E
φ x Pi
( )
x, y
Data la v.s. doppia analizziamo la funzione di regressione con le frequenze
i .
x= x
i
assolute.
Teorema: ( )
( ) =μ
E φ x
I. y [ ]
[ ]
2 2
( )
( )
( )=E ( ) ( )−μ
+
V y y−φ x E φ x
II. y
2
0 ≤η ≤ 1
III. y
x
Casi limite: [ ]
2
2 ( )
( )−μ
=0↔ (
η E φ x ↔φ x) μ
è costante e sempre uguale a
y y y
x ( )
( )
V φ x
2 2
=1 = =1
η ↔ η ↔ la varianza del modello cattura tutta la varianza di Y