Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Capitolo 3: la regressione multipla
ù
Si definisce regressione multipla una regressione con pi di due variabili. In presenza di più di una
variabile indipendente lo scatterplot diventa multidimensionale, con una dimensione per ogni
È
variabile del modello. possibile visualizzare lo scatterplot solo quando le dimensioni sono 3,
ossia quando abbiamo una variabile dipendente e 2 indipendenti (con più variabili sarebbe troppo
complesso da rappresentare).
è
La regressione multipla non più definita da una retta, bensì da un piano, essendo lo scatterplot a
3 dimensioni. Tale piano si presenta sotto forma dell’ equazione 5
∙ + ∙
= a +
Oppure la si può scrivere come a lezione
Z = a + ∙ X + ∙ Y
Per semplicità utilizzeremo quest’ ultima notazione
Il coefficiente costante o intercetta, a , indica il valore atteso della variabile dipendete quando le
è
variabili indipendenti sono uguali a 0. Geometricamente il punto in cui il piano di regressione
interseca l’ asse delle Z (variabile dipendente)
Il coefficiente associato ad una variabile indipendente X nel contesto della regressione
multipla si interpreta come il cambiamento atteso nella variabile dipendete Z per ogni unita della
variabile indipendente X tenendo costanti le altre variabili indipendenti. In altre parole esso indica
quando cambia in media il valore della variabile dipendente aumentando il punteggio della
variabile indipendente di una unità. Sulla base di queste nozioni i coefficienti di regressione
multipla sono detti effetti o coefficienti parziali. ( praticamente indica il cambiamento atteso
à ù
nella variabile dipendente Z, per ogni unit in pi della variabile indipendente X, calcolato
’
fissando a 0 il valore dell altra variabile indipendente Y). ’
Inoltre il coefficiente indica quanto il piano appare inclinato ponendoci davanti all asse definito
da quella variabile.
Il coefficiente standardizzato: si ottiene se si compie una regressione multipla dopo aver
standardizzato tutte le variabili, cioè dopo aver calcolato i punteggi z di tutte le variabili.
Se le altre variabili sono tenute costanti, esse non possono avere effetto sulla dipendente.
à
Ma per tenere costante una variabile dobbiamo rimuovere dai calcoli la sua variabilit , tale
è
rimozione detta Parzializzazione. Ossia si studia in che modo due variabili siano correlate
’
una volta rimossa l influenza della terza.
è
Il procedimento il seguente, se per esempio si vogliono rimuovere gli effetti della variabile
indipendente X:
1) Residui della regressione di Z su X (parte di Z che non dipende da X )
∙
̂
2) Regressione di Y su X ossia = c + d X
3) Residui della regressione di Z su Y (parte di Z che non dipende da Y )
∙
̂
4) regressione di Z su X ossia = e + f X
5) Correlazione tra residui di Z con X e quelli di Y con X
Di solito negli esercizi viene direttamente dato il valore delle correlazioni tra le diverse variabili
La correlazione tra:
Z e X si indica con 6
Z e Y si indica con
X e Y si indica con
Ora andrà calcolato il coefficiente di parzializzazione o coefficiente di correlazione parziale
tramite questa formula = √ √
Il coefficiente di correlazione parziale va confrontato con il valore di correlazione di Z con X.
è
Se maggiore, uguale o simile a la variabile Y non influisce significativamente sul
legame tra X e Z
è
Se significativamente maggiore di la variabile Y influenza la forza del legame
tra X e Z
Risultati: se il valore della correlazione parziale tra X e Y è molto più piccolo di quello iniziale
significa che il legame tra X e Y dipende da Z
Il coefficiente di correlazione parziale al quadrato esprime il contributo unico della variabile
indipendente come rapporto tra la variabilità spiegata unicamente dalla variabile indipendente e la
variabilità non spiegata dalle altre variabili indipendenti (contributo unico di una variabile alla
)
varianza non spiegata dai contributi delle altre
è
Vi un’ altra applicazione della parzializzazione che viene chiamata semi-parzializzazione
Essa punta a rimuovere gli effetti di una variabile indipendente dall’ altra variabile indipendente.
questa nomenclatura indica la semiparzializzazione in questo caso si rimuove l’ effetto
della y dalla x. = +
= = 7
La formula diventa la seguente = √
Ovviamente va fatta la radice di ossia per calcolare che andrà poi
confrontato con è
Altra formula nella semi-parzializzazione la seguente, da usare a seconda dei valori a
disposizione = √
Capitolo 5: la moderazione
Nei modelli di relazioni multiple visti finora, abbiamo notato che l’ effetto di una variabile
indipendente è sempre calcolato tenendo costanti le altre variabili. Il valore numerico a cui le altre
in quanto assumiamo che l’ effetto sia
variabili indipendenti sono tenute costanti è ininfluente,
uguale per qualsiasi livello delle altre variabili indipendenti. In molte situazioni di ricerca, tuttavia,
questi modelli non sono sufficienti a spiegare le reazioni multiple tra variabili. Il motivo è che l’
che l’ effetto di una variabile indipendente sia costante a tutti i livelli può risultare
assunzione
insostenibile. Quindi si entra in una situazione in cui la variabile indipendente Y influenza il modo in
cui l’ altra variabile indipendente X influenza la variabile dipendente Z. Diremo quindi che Y
l’ effetto di X su Z, ossia è la
modera moderatrice tra X e Z. Se una variabile indipendente
modera l’ effetto di un’ altra variabile indipendente, l’ interpretazione pratica degli effetti cambia.
Quando l’ effetto di una variabile indipendente varia al variare dei livelli di un’ altra variabile siamo
in presenza di un interazione fra variabili indipendenti. Il modello che lo studia si chiama
regressione moderata ∙ X + ∙ Y + ∙ X ∙ Y
Z = a +
Questo modello è in grado di stimare quanto l’ effetto di una variabile indipendente varia al variare
dei valori dell’ altra, mediante il coefficiente ∙ X ∙ Y ).
associato al termine di interazione (
Il coefficiente associato al termine di interazione indica esattamente quanto varia la pendenza
della retta di una variabile indipendente, all’ aumentare di una unità dell’ altra variabile
indipendente. Si può scrivere il modello in funzione delle due variabili (si raccoglie la X) 8
∙ Y) ∙X + ∙ Y
Z = a + ( +
Notiamo che l’ effetto di X, cioè il cambiamento atteso in Z associato a un aumentare di unità di X
∙ Y) dipende dal valore di Y. L’ interpretazione del segno associato al termine di
( + se è positivo abbiamo che l’ effetto della variabile indipendente aumenta
interazione dipende da Y,
all’ aumentare dell’ altra ( Se è negativo abbiamo che l’ effetto di una variabile
effetto rinforzante).
indipendente diminuisce all’ aumentare dei valori dell’ altra (effetto indebolente).
Il termine costante (a) della regressione moderata è il valore atteso della variabile dipendente per
tutte le variabili indipendenti uguali a 0.
In un modello moderato oltre all’ effetto d’ interazione, abbiamo gli effetti associati alle singole
L’ effetto lineare associato ad una variabile
variabili ( e ) che sono detti effetti lineari.
indipendente è l’ effetto di tale variabile calcolato tenendo costante l’ altra variabile a 0
interazione non abbia un valore zero
In tutti i casi in cui una variabile indipendente coinvolta nell’
interpretabile, gli effetti lineari non possono essere interpretati. Per rendere lo 0 interpretabile
esiste una procedura chiamata
Centratura: si sottrae alla variabile indipendente la propria media. Si ottiene cosi un valore
Le variabili centrate si indicano con un pallino all’ apice ( ̇
centrato intorno la media. )
̇ ̅
= X -
Si utilizza la media della variabile perché essa è il valore più rappresentativo di tale variabile.
Quando le variabili indipendenti della regressione moderata sono centrate intorno la loro media, gli
effetti lineari possono essere interpretati come l’ effetto medio di una variabile, cioè calcolato per le
persone “medie” dell’ altra indipendente.
Standardizzazione: Nella regressione moderata è necessario chiarire che il termine di interazione
non è una variabile misurata ma un prodotto di due variabili misurate, quindi esso non va
standardizzato. I coefficienti beta di una regressione moderata si calcolano standardizzando tutte
le variabili misurate e inserendo il prodotto tra variabili non standardizzato, calcolato dopo aver
standardizzato le altre variabili ̃ ̃ ̃ ̃ ̃
∙ ∙ ∙ ∙
= + +
I coefficienti beta associati ai termini lineari quantificano di quante deviazioni standard cambia Z
per una deviazione in più di X, tenendo Y costante a 0. Essendo le variabili standardizzate centrate
intorno la loro media, l’ effetto può essere interpretato come l’ effetto standardizzato medio della
variabile indipendente.
Per rappresentare la regressione moderata è opportuno rendere il grafico più semplice possibile,
tale rappresentazione semplice fra variabili indipendenti prende il nome di Grafico degli Effetti
Semplici o Simple Slopes.
La superficie di regressione delinea l’ insieme di tutti gli effetti di una variabile indipendente al
variare dei valori dell’ altra variabile indipendente. Questo non è altro che l’ insieme di tutte le rette
che descrivono l’ effetto di una variabile indipendente al variare dell’ altra. Ognuna di queste rette è
calcolabile semplicemente manipolando la formula del modello di regressione moderata. 9
∙ Y) ∙X + ∙ Y
Z = a + ( +
Se fissiamo Y a un valore numerico qualsiasi che per semplicità chiamiamo k, il modello si reduce
a una retta ∙ ∙ ∙X
Z = ( a + k) + ( + k)
Dove ∙ k)
( a + : è la costante
∙
( + k) : è il coefficiente associato a X
Questa retta è detta retta semplice ( simple equation) e il coefficiente X è detto effetto semplice (
simple slope) di X su Z per Y=k
Per semplicità scegliamo solamente tre tra le tante rette che si possono formare, con le quali
rappresenteremo un grafico. E propriamente sceglieremo
̅
Un valore medio, ossia daremo a Y il valore della sua media Y =
Un valore alto, ossia daremo a Y il valore della sua media più la sua deviazione standard
̅
Y = +
Un valore basso, daremo a Y il valore della sua media meno la sua deviazione
̅
standard Y = - 10
Il grafico (w=y) degli effetti semplici del