=P
P j= P x ; y y ; j=1 , … , c
Della Y:
. x , y i j y j
=1
j ( )
n x ; y
x , y i j i=1 , … ,r ; j=1 ,… , c
( )
=
P x ; y
Mentre le frequenza relativa congiunta: con
x , y i j N
RELAZIONE O CONNESSIONE TRA X E Y
Quando non c’è connessione tra le due variabili, queste si dicono indipendenti, se per ciascuna coppia di valori la
frequenza relativa congiunta è pari al prodotto delle marginali
{ }
( )
( ) =Pi
x , y : x ; y ; Ṕ ∙ P j ; i=1, … , r ; j=1 , … , c
i j ij . .
Modello osservato:
x\y 2 5 Pi.
1 0,2 0,1 0,3
3 0,4 0,3 0,7
P.j 0,6 0,4 1
Modello teorico:
x\y 2 5 Pi.
1 0,18 0,12 0,3
3 0,42 0,28 0,7
P.j 0,6 0,4 1 Pi ∙ P j
. . M . O .=M .T .
Per costruire il modello teorico, si moltiplicano i risultati e si divide per il totale: . Se
N
x ⫫ y M . O .≠ M . T . x y
allora (indipendenti); se allora e non indipendenti.
x ⫫ y
Se , vi sono 3 condizioni:
( ) ( ) ( )
=P
P x ; y x ∙ P . y
x , y i j x . i y j
( ) ( )
=P
P y . y la x non condiziona la y
y j y j
x ( ) ( )
=P
P x x la y non condizionala x
x i x . i
y ¿ ∙ n .
. j
−
n
La contingenza è pari al valore osservato meno quello teorico: ij N
FREQUENZA CONGIUNTA TEORICA
r c
∑ ∑ 2
´
( )
− =0
n n
Condizione di normalizzazione: ij ij
i=1 j=1
2
( )
−
r c n ń
∑ ∑ ij ij
2 x⫫ y
=
χ
2
Chi : se
ń
i=1 j=1 ij
DIPENDENZA PERFETTA x y
1. Y da X: la variabile Y dipende perfettamente da X se ad ogni modalità della X è associata una sola
i j
della Y y x
2. X da Y: la variabile X dipende perfettamente da Y se ad ogni modalità della Y è associata una sola
j i
della X x
3. Bilaterale: X e Y sono perfettamente dipendenti se ad ogni valore della X corrisponde un solo valore
i
y della Y
j 2
χ
In quest’ultimo caso si parla di funzione invertibile, con come misura della dipendenza bilaterale.
2
´
( )
−
n n
ij ij ¿
ń ∙ n .
NN
∑ ∑ ij . j
2 = =Pi ∙ P j= Ṕ
=
χ
Per cui: con per cui
. . j
´
n N NN
i j ij
NN
2 ( ) ( )
´ 2 2
( )
−
n n − ´
n n n ń
ij ij ij ij ij ij
− 2
( )
−
P Ṕ
2 N N N
N
∑ ∑ ∑ ∑ ∑ ∑ ij ij
2 = = =N =N
χ ∙ ∙
P
Ṕ Ṕ Ṕ
i j i j j i j
j j j
N N √
2 2
χ χ
2 2
=ψ =
Psi
Indice di contingenza media quadratica: , per cui Psi=ψ=
N N
{ }
{ } 2 ( ) ( )
( ) ( )
−1
2 2
N r ; c−1 <
0< χ N r−1 ; c−1
χ χ
Max. di : per cui . Dividendo per max. :
min
min { }
( ) ( )
N r−1 ; c−1
2
0 χ min
< <
2 2 2
max . χ max . χ max . χ 2
χ
2 =
C
Indice normalizzato che varia tra 0 e 1 o Indice di Cramer: . Con tale indice posso
{ }
( ) ( )
N r−1 ; c−1
min
r c
confrontare e differenti. VARIABILI QUANTITATIVE c
y { } ∑
y ; P ; j=1 , … , c ( )=
E Y y ∙ P
Con X e Y quantitative: . La media condizionata di Y è:
j j
x=x y j j
i i j=1
x= x i
i
FUNZIONE DI REGRESSIONE ( )
φ x
(x )
, y
1. Sia la v.s. doppia quantitativa discreta, e si consideri la media condizionata di Y indicata con i
{ }
( )
φ x S x , … , x
. La definita sul supporto è detta funzione di regressione della Y sulla X ed è descritta
i x 1 r
{ }
( )
( )
x ; φ x ; i=1 , … , r
dai valori: . È un modo di descrivere la Y tramite la X.
i i ( )
Ψ y
2. Si definisce funzione di regressione della X sulla Y, indicata con , la media condizionata della X alla Y. È
j
{ }
( )
( )
y ; Ψ y ; j=1 , … , c
descritta dalle coppie di valori .
j j
ERRORE QUADRATICO MEDIO ( )
2
[ ]
(x)
E y−g g(x)
Con tale criterio è possibile descrivere la funzione di regressione: è minimo quando a
)
φ(x
sostituiamo , secondo il criterio dell’errore quadratico medio.
Dimostrazione: ( )
( ) 2
[ ]
2
[ ] ( ) ( )
( ) ( )−g ( )
( =E +
E y−g x) y−φ x φ x x
I. ( )
[ ]
2 2
( ) ( ) ( )( )
( ) ( )−g ( ) ( ) ( ) ( )
¿ + + −φ −g
E y−φ x φ x x 2 y x φ x x
II. [ ] [ ] [ ]
[ ]
2 2 ( ) ( )
( ) ( )−g ( )
( ) ( ) ( )( ) =0
2 E y−φ x φ x x
( ) ( )−g ( ) ( ) ( )−g ( )
¿ + + −φ
E y−φ x E φ x x 2 E y x φ x x
III. con
Dimostrazione che il doppio prodotto è pari a zero con il metodo delle sommatorie:
r c [ ]
∑ ∑ ( )( )
( ) ( ) ( )
−φ −g
(x ) 2 y x φ x x ∙ P
, y
I. 2 variabili j i i i ij
i=1 j=1
[ ]
r c =P
P ∙ Pi
∑ ∑
( ) ( )
( ) ( ) ( )
¿ −g −φ
2 φ x x y x ∙ P
II. con ij j .
i i j i ij i
=1
i j=1
[ ]
r c
∑ ∑
( ) ( )
( ) ( ) ( )
¿ −g −φ =0
2 φ x x y x ∙ P ∙ Pi
III. i i j i j .
=1
i j=1 i ( )
y y
φ=E
All’interno delle quadre calcoliamo la media della variabile dalla sua media, perché . La
x x
media degli scarti dalla media è zero. [ ] [ ]
( )
2 2 2
2
( ) [ ] ( ) ( ) ( ) ( )
=φ
g x x
( ) ( ) ( )−g ( )
y−g x ( =E + =0
E y−g x) y−φ x E φ x x
La media di è: se .
≥ 0 ≥ 0
INDIPENDENZA REGRESSIVA ( ) ( )
φ x Ψ y
(x )
, y
Sia una variabile bidimensionale quantitativa discreta con funzioni di regressione e , si
i j
( )=μ
φ x
dice che Y è regressivamente indipendente dalla X quando , e che X è regressivamente indipendente
y
( )=μ
Ψ y
dalla Y quando .
x ( )
( )
( ) y
yx
( ) ( )=E
( ) φ x
=μ =μ
E φ x E E
Teorema: y
y x
Dimostrazione: ∑
( ) ( )
( ) =
E φ x φ x ∙ Pi
I. i .
i
r c c =P
P ∙ Pi
∑ ∑ ∑
¿ =φ(x )
y ∙ P ∙ Pi y ∙ P
II. con e j . ij
j j . j j i
i=1 j=1 j=1
i i
∑ ∑
¿ y ∙ P
III. j ij
i j
∑ ∑ ∑
¿ =P
y P P .
IV. con
j ij ij j
j i i
=¿
y ∙ P . μ
j j y
∑
V. ¿ ¿
j ( )
( ) =μ
E Ψ y
Procedimento analogo per con le opportune modifiche.
x
REGOLE GENERALI:
y { }
y ; P ; j=1 , … , c
1. j j
x=x i i
c
( )
yx ∑
=
E y ∙ P
2. j j
j=1 i
c
( )
y ∑ ( )
( )
= −φ
V y x ∙ P
3. j i j
x j=1 i
FUNZIONE DI REGRESSIONE:
{ }
( )
( ) ( )
φ x : x ; φ x ; Pi ; i=1 , … , r
1. i i i .
∑
( ) ( )
( ) = =μ
E φ x φ x ∙ Pi
2. i . y
i ( )
( )
y
∑ 2
( )
( ) ( )
( ) = −μ =V
V φ x φ x ∙ Pi E
3. i y . x
i
SCOMPOSIZIONE DELLA VARIANZA DALLA Y:
[ ]
2
( )
( )=E −μ
V y y
I. y
[ ]
2
( )
( )
( )
( ) ( )−μ
¿ +
E y−φ x φ x
II. y
[ ]
( )
2 2
( ) ( )
( ) ( )
( ) ( )−μ ( ) ( )−μ
¿ + +
E y−φ x φ x 2 y−φ x φ x
III. y y
[ ]
[ ]
2 2
( )
( )
( ) ( )−μ
¿ +
E y−φ x E φ x
IV. y
Dimostriamo che il doppio prodotto è pari a zero con il metodo delle sommatorie:
[ ]
( )
( )
( ) ( )−μ ( )=φ
=0
2 E y−φ x φ x φ x
I. con
y i
r c
∑ ∑ ( ) ( )
¿ −φ −μ
2 y φ ∙ P
II. j i i y ij
=1
i j=1
∑ ∑
( ) ( )
¿ −μ −φ
2 φ y ∙ P
III. i y j i ij
i j
[ ]
∑ ∑
( ) ( )
¿ −μ −φ
2 φ y ∙ P ∙ Pi
IV. i y j i y .
i j i
Dunque: [ ]
[ ]
2 2
( )
( )
( )=E ( ) ( )−μ
+
V y y−φ x E φ x
I. y
V. residua V. spiegata
( ) ( )
( ) ( )
y y
¿ +V
E V E
II. x x ( )
( )
V φ x
1. La media degli scarti dalla media è pari a zero.
2. La varianza si scompone in due parti non negative. ( )
y
( )=E
y=φ x
a. Perfetta dipendenza funzionale della Y dalla X la varianza residua è max.:
x
[ ]
2
( )
( )=E ( )−μ
V y φ x y
[ ]
2
( )
( )−μ ( )=μ
=0↔
E φ x φ x
b. La media quando Y regressivamente indipendente da X
y y
In conclusione:
Quando la varianza residua è pari a zero, quella spiegata è max.
Quando Y è R.I. da X, la varianza spiegata è max.
2
0 (I.R.) ETA 1 (dip. funz. perfetta)
RAPPORTO DI CORRELAZIONE ( )
( )
y
V E x
2
ETA : VARIANZA SPIEGATA
2 2
= =
η →η y ( )
VARIANZA TOTALE V y
x ( )
y
( ) =E
φ x Pi
( )
x, y
Data la v.s. doppia analizziamo la funzione di regressione con le frequenze
i .
x= x
i
assolute.
Teorema: ( )
( ) =μ
E φ x
I. y [ ]
[ ]
2 2
( )
( )
( )=E ( ) ( )−μ
+
V y y−φ x E φ x
II. y
2
0 ≤η ≤ 1
III. y
x
Casi limite: [ ]
2
2 ( )
( )−μ
=0↔ (
η E φ x ↔φ x) μ
è costante e sempre uguale a
y y y
x ( )
( )
V φ x
2 2
=1 = =1
η ↔ η ↔ la varianza del modello cattura tutta la varianza di Y
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.