Anteprima
Vedrai una selezione di 6 pagine su 24
Riassunto esame Statistica Multivariata, prof. Naldi, libro consigliato Modelli statistici per le scienze sociali, Gallucci, Leone Pag. 1 Riassunto esame Statistica Multivariata, prof. Naldi, libro consigliato Modelli statistici per le scienze sociali, Gallucci, Leone Pag. 2
Anteprima di 6 pagg. su 24.
Scarica il documento per vederlo tutto.
Riassunto esame Statistica Multivariata, prof. Naldi, libro consigliato Modelli statistici per le scienze sociali, Gallucci, Leone Pag. 6
Anteprima di 6 pagg. su 24.
Scarica il documento per vederlo tutto.
Riassunto esame Statistica Multivariata, prof. Naldi, libro consigliato Modelli statistici per le scienze sociali, Gallucci, Leone Pag. 11
Anteprima di 6 pagg. su 24.
Scarica il documento per vederlo tutto.
Riassunto esame Statistica Multivariata, prof. Naldi, libro consigliato Modelli statistici per le scienze sociali, Gallucci, Leone Pag. 16
Anteprima di 6 pagg. su 24.
Scarica il documento per vederlo tutto.
Riassunto esame Statistica Multivariata, prof. Naldi, libro consigliato Modelli statistici per le scienze sociali, Gallucci, Leone Pag. 21
1 su 24
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Capitolo 3: la regressione multipla

ù

Si definisce regressione multipla una regressione con pi di due variabili. In presenza di più di una

variabile indipendente lo scatterplot diventa multidimensionale, con una dimensione per ogni

È

variabile del modello. possibile visualizzare lo scatterplot solo quando le dimensioni sono 3,

ossia quando abbiamo una variabile dipendente e 2 indipendenti (con più variabili sarebbe troppo

complesso da rappresentare).

è

La regressione multipla non più definita da una retta, bensì da un piano, essendo lo scatterplot a

3 dimensioni. Tale piano si presenta sotto forma dell’ equazione 5

∙ + ∙

= a +

Oppure la si può scrivere come a lezione

Z = a + ∙ X + ∙ Y

Per semplicità utilizzeremo quest’ ultima notazione

Il coefficiente costante o intercetta, a , indica il valore atteso della variabile dipendete quando le

è

variabili indipendenti sono uguali a 0. Geometricamente il punto in cui il piano di regressione

interseca l’ asse delle Z (variabile dipendente)

Il coefficiente associato ad una variabile indipendente X nel contesto della regressione

multipla si interpreta come il cambiamento atteso nella variabile dipendete Z per ogni unita della

variabile indipendente X tenendo costanti le altre variabili indipendenti. In altre parole esso indica

quando cambia in media il valore della variabile dipendente aumentando il punteggio della

variabile indipendente di una unità. Sulla base di queste nozioni i coefficienti di regressione

multipla sono detti effetti o coefficienti parziali. ( praticamente indica il cambiamento atteso

à ù

nella variabile dipendente Z, per ogni unit in pi della variabile indipendente X, calcolato

fissando a 0 il valore dell altra variabile indipendente Y). ’

Inoltre il coefficiente indica quanto il piano appare inclinato ponendoci davanti all asse definito

da quella variabile.

Il coefficiente standardizzato: si ottiene se si compie una regressione multipla dopo aver

standardizzato tutte le variabili, cioè dopo aver calcolato i punteggi z di tutte le variabili.

Se le altre variabili sono tenute costanti, esse non possono avere effetto sulla dipendente.

à

Ma per tenere costante una variabile dobbiamo rimuovere dai calcoli la sua variabilit , tale

è

rimozione detta Parzializzazione. Ossia si studia in che modo due variabili siano correlate

una volta rimossa l influenza della terza.

è

Il procedimento il seguente, se per esempio si vogliono rimuovere gli effetti della variabile

indipendente X:

1) Residui della regressione di Z su X (parte di Z che non dipende da X )

̂

2) Regressione di Y su X ossia = c + d X

3) Residui della regressione di Z su Y (parte di Z che non dipende da Y )

̂

4) regressione di Z su X ossia = e + f X

5) Correlazione tra residui di Z con X e quelli di Y con X

Di solito negli esercizi viene direttamente dato il valore delle correlazioni tra le diverse variabili

La correlazione tra:

Z e X si indica con 6

Z e Y si indica con

X e Y si indica con

Ora andrà calcolato il coefficiente di parzializzazione o coefficiente di correlazione parziale

tramite questa formula = √ √

Il coefficiente di correlazione parziale va confrontato con il valore di correlazione di Z con X.

è

 Se maggiore, uguale o simile a la variabile Y non influisce significativamente sul

legame tra X e Z

è

 Se significativamente maggiore di la variabile Y influenza la forza del legame

tra X e Z

Risultati: se il valore della correlazione parziale tra X e Y è molto più piccolo di quello iniziale

significa che il legame tra X e Y dipende da Z

Il coefficiente di correlazione parziale al quadrato esprime il contributo unico della variabile

indipendente come rapporto tra la variabilità spiegata unicamente dalla variabile indipendente e la

variabilità non spiegata dalle altre variabili indipendenti (contributo unico di una variabile alla

)

varianza non spiegata dai contributi delle altre

è

Vi un’ altra applicazione della parzializzazione che viene chiamata semi-parzializzazione

Essa punta a rimuovere gli effetti di una variabile indipendente dall’ altra variabile indipendente.

questa nomenclatura indica la semiparzializzazione in questo caso si rimuove l’ effetto

della y dalla x. = +

= = 7

La formula diventa la seguente = √

Ovviamente va fatta la radice di ossia per calcolare che andrà poi

confrontato con è

Altra formula nella semi-parzializzazione la seguente, da usare a seconda dei valori a

disposizione = √

Capitolo 5: la moderazione

Nei modelli di relazioni multiple visti finora, abbiamo notato che l’ effetto di una variabile

indipendente è sempre calcolato tenendo costanti le altre variabili. Il valore numerico a cui le altre

in quanto assumiamo che l’ effetto sia

variabili indipendenti sono tenute costanti è ininfluente,

uguale per qualsiasi livello delle altre variabili indipendenti. In molte situazioni di ricerca, tuttavia,

questi modelli non sono sufficienti a spiegare le reazioni multiple tra variabili. Il motivo è che l’

che l’ effetto di una variabile indipendente sia costante a tutti i livelli può risultare

assunzione

insostenibile. Quindi si entra in una situazione in cui la variabile indipendente Y influenza il modo in

cui l’ altra variabile indipendente X influenza la variabile dipendente Z. Diremo quindi che Y

l’ effetto di X su Z, ossia è la

modera moderatrice tra X e Z. Se una variabile indipendente

modera l’ effetto di un’ altra variabile indipendente, l’ interpretazione pratica degli effetti cambia.

Quando l’ effetto di una variabile indipendente varia al variare dei livelli di un’ altra variabile siamo

in presenza di un interazione fra variabili indipendenti. Il modello che lo studia si chiama

regressione moderata ∙ X + ∙ Y + ∙ X ∙ Y

Z = a +

Questo modello è in grado di stimare quanto l’ effetto di una variabile indipendente varia al variare

dei valori dell’ altra, mediante il coefficiente ∙ X ∙ Y ).

associato al termine di interazione (

Il coefficiente associato al termine di interazione indica esattamente quanto varia la pendenza

della retta di una variabile indipendente, all’ aumentare di una unità dell’ altra variabile

indipendente. Si può scrivere il modello in funzione delle due variabili (si raccoglie la X) 8

∙ Y) ∙X + ∙ Y

Z = a + ( +

Notiamo che l’ effetto di X, cioè il cambiamento atteso in Z associato a un aumentare di unità di X

∙ Y) dipende dal valore di Y. L’ interpretazione del segno associato al termine di

( + se è positivo abbiamo che l’ effetto della variabile indipendente aumenta

interazione dipende da Y,

all’ aumentare dell’ altra ( Se è negativo abbiamo che l’ effetto di una variabile

effetto rinforzante).

indipendente diminuisce all’ aumentare dei valori dell’ altra (effetto indebolente).

Il termine costante (a) della regressione moderata è il valore atteso della variabile dipendente per

tutte le variabili indipendenti uguali a 0.

In un modello moderato oltre all’ effetto d’ interazione, abbiamo gli effetti associati alle singole

L’ effetto lineare associato ad una variabile

variabili ( e ) che sono detti effetti lineari.

indipendente è l’ effetto di tale variabile calcolato tenendo costante l’ altra variabile a 0

interazione non abbia un valore zero

In tutti i casi in cui una variabile indipendente coinvolta nell’

interpretabile, gli effetti lineari non possono essere interpretati. Per rendere lo 0 interpretabile

esiste una procedura chiamata

Centratura: si sottrae alla variabile indipendente la propria media. Si ottiene cosi un valore

Le variabili centrate si indicano con un pallino all’ apice ( ̇

centrato intorno la media. )

̇ ̅

= X -

Si utilizza la media della variabile perché essa è il valore più rappresentativo di tale variabile.

Quando le variabili indipendenti della regressione moderata sono centrate intorno la loro media, gli

effetti lineari possono essere interpretati come l’ effetto medio di una variabile, cioè calcolato per le

persone “medie” dell’ altra indipendente.

Standardizzazione: Nella regressione moderata è necessario chiarire che il termine di interazione

non è una variabile misurata ma un prodotto di due variabili misurate, quindi esso non va

standardizzato. I coefficienti beta di una regressione moderata si calcolano standardizzando tutte

le variabili misurate e inserendo il prodotto tra variabili non standardizzato, calcolato dopo aver

standardizzato le altre variabili ̃ ̃ ̃ ̃ ̃

∙ ∙ ∙ ∙

= + +

I coefficienti beta associati ai termini lineari quantificano di quante deviazioni standard cambia Z

per una deviazione in più di X, tenendo Y costante a 0. Essendo le variabili standardizzate centrate

intorno la loro media, l’ effetto può essere interpretato come l’ effetto standardizzato medio della

variabile indipendente.

Per rappresentare la regressione moderata è opportuno rendere il grafico più semplice possibile,

tale rappresentazione semplice fra variabili indipendenti prende il nome di Grafico degli Effetti

Semplici o Simple Slopes.

La superficie di regressione delinea l’ insieme di tutti gli effetti di una variabile indipendente al

variare dei valori dell’ altra variabile indipendente. Questo non è altro che l’ insieme di tutte le rette

che descrivono l’ effetto di una variabile indipendente al variare dell’ altra. Ognuna di queste rette è

calcolabile semplicemente manipolando la formula del modello di regressione moderata. 9

∙ Y) ∙X + ∙ Y

Z = a + ( +

Se fissiamo Y a un valore numerico qualsiasi che per semplicità chiamiamo k, il modello si reduce

a una retta ∙ ∙ ∙X

Z = ( a + k) + ( + k)

Dove ∙ k)

( a + : è la costante

( + k) : è il coefficiente associato a X

Questa retta è detta retta semplice ( simple equation) e il coefficiente X è detto effetto semplice (

simple slope) di X su Z per Y=k

Per semplicità scegliamo solamente tre tra le tante rette che si possono formare, con le quali

rappresenteremo un grafico. E propriamente sceglieremo

 ̅

Un valore medio, ossia daremo a Y il valore della sua media Y =

 Un valore alto, ossia daremo a Y il valore della sua media più la sua deviazione standard

̅

Y = +

 Un valore basso, daremo a Y il valore della sua media meno la sua deviazione

̅

standard Y = - 10

Il grafico (w=y) degli effetti semplici del

Dettagli
Publisher
A.A. 2015-2016
24 pagine
SSD Scienze economiche e statistiche SECS-S/01 Statistica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Fradraken di informazioni apprese con la frequenza delle lezioni di Statistica multivariata e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Libera Università Maria SS.Assunta - (LUMSA) di Roma o del prof Naldi Maurizio.