Anteprima
Vedrai una selezione di 3 pagine su 6
Statistica multivariata Pag. 1 Statistica multivariata Pag. 2
Anteprima di 3 pagg. su 6.
Scarica il documento per vederlo tutto.
Statistica multivariata Pag. 6
1 su 6
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

ELABORAZIONE DELLA VARIABILITA’ DEI DATI CAMPIONARI.

CONSENTE DI VALUTARE e confrontare tra di loro le medie di due o più distribuzioni con analisi della

variabilità dei dati che definiscono le distribuzioni stesse.

SCOPO di valutare se la differenze fra le medie campionarie è tale da inferire che i campioni provengano da

popolazioni con medie differenti o al contrario da un'unica popolazione di riferimento.

Quindi verificare presenza di differenze significative dovute a diversi livelli di codifica di variabile indipendente.

IPOTESI POSSIBILI

NULLA

ALTERNTIVA BIDIREZIONALE

Il metodo generale dell’Anova si basa sul principio:

Scomposizione della variabilità. All'interno del disegno sperimentale dove vengono comparati i diversi

trattamenti con altri gruppi ci sono 3 fonti alle quali è possibile attribuire la variabilità dei dati:

FONTI DI VARIABILITA' (V)

EFFETTI DEL TRATTAMENTO (VARIABILITA' SPERIMENTALE)

EFFETTI DELLE DIFFERENZE INDIVIDUALI

ERRORE

PER CAPIRE QUALE DELLE IPOTESI è IN GIOCO, BISOGNA INDIVIDUARE LA variabilità del modello

ANOVA:

-VARIABILITA’ TRA I GRUPPI (V. TRATTAMENTO + V. INDIVIDUALE+ V. ERRORE)

-VARIABILITA' DENTRO I GRUPPI (RESIDUA, DI ERRORE O ACCIDENTALE): V. INDIVIDUALE+ V.

ERRORE

ANALISI DELLA VARIANZA A DUE VIE (O CON DUE FATTORI TRA GRUPPI

Ragionamento nell’analisi di dati classificati contemporaneamente sulla base di due variabili indipendenti. I dati

sono classificati in modo incrociato e sono disposti in una tabella a doppia entrata. Ciascun elemento è codificato

secondo due criteri simultanei di classificazione (fattori).

La tecnica dell’analisi si basa sulla scomposizione della varianza totale dei dati.

Capitolo 3

CORRELAZIONE E REGRESSIONE

-Correlazione: analizza se esiste una relazione tra due variabili (come e quanto due variabili variano insieme)

-Regressione: analizza la forma della relazione tra variabili

Si afferma che due variabili sono legate da una RELAZIONE quando la variazione espressa da una di queste è

coerente con la variazione espressa dall'altra.

DATE 2 variabili A e B:

-al variare di una varia anche l’altra: quindi tra le due esiste una COVARIANZA

-indice della probabile esistenza di una relazione che lega entrambe le variabili.

FORMA, DIREZIONE E FORZA DELLA RELAZIONE TRA LE DUE VARIABILI

Correlazione: è relazione tra due variabili; il suo studio si basa su diverse tecniche che consentono di descrivere

qualitativamente e quantitativamente la relazione tra due variabili.

La correlazione tra due variabili ha 3 caratteristiche, ovvero, in base a:

forma

direzione

forza (o grado)

Direzione positiva se variano in stessa direzione o negativa se variano in direzioni opposte.

In statistica la relazione lineare tra 2 variabili viene quantificata mediante il calcolo di appositi indici detti

COEFFICIENTI DI CORRELAZIONE.

COEFFICIENTI DI CORRELAZIONE

Coefficiente di correlazione: rapporto tra la covarianza esistente tra le 2 variabili e la varianza delle stesse

variabili prese in maniera singola.

ESISTONO 2 coefficienti di correlazione:

• Pearson product-moment (parametrico)

• Spearman rank correlation (non parametrico) • Entrambi vanno da -1 (correl.negativa) a +1 (correl.positiva). 0

corrisponde ad assenza di correlazione

1) Coefficiente di correlazione di Pearson:

entrambe le variabili devono essere continue

i dati devono essere secondo una scala a intervalli o razionale

entrambe le variabili devono seguire una distribuzione normale

la relazione tra le variabili è lineare

2) Il coefficiente di correlazione di Spearman per ranghi

Questo indice di correlazione non parametrico viene indicato con rs o Spearman rho e permette di valutare la

forza del rapporto tra due variabili quando le assunzioni per il modello di correlazione parametrica, coefficiente r

Pearson, non sono soddisfatte. In particolare quando la distribuzione delle variabili X ed Y non risulta normale

(caso piuttosto frequente per popolazioni di dati ad elevato numero di casi) o quando le sottopopolazioni dei

valori di Y od X non risultino avere la stessa varianza, la correlazione parametrica non viene utilizzata e si

ricorre a questo indice che ha inoltre modalità di calcolo piuttosto semplice.

LA REGRESSIONE

Ci permette di costruire un modello funzionale della risposta di una variabile (effetto) ad un’altra (causa)

Conoscendo la forma della relazione funzionale tra variabile indipendente e dipendente è possibile stimare il

valore della variabile dipendente conoscendo quello della variabile indipendente (interpolazione) solo nel range

di dati X usato per la regressione (non è corretto estrapolare)

Regressione lineare (semplice)

Nella regressione lineare la relazione tra variabili (causa-effetto) è rappresentata da una linea retta

La relazione tra variabili è espressa dall’equazione: Y = a+bX dove X è la variabile indipendente, Y la variabile

dipendente, a è l’intercetta (il valore di Y quando X=0) e b è la pendenza (quanto aumenta Y per ogni aumento di

un’unità di X). N.B: La retta passa per il punto delle medie delle due variabili Regressione lineare (X,Y )

Il grado di correlazione tra due variabili è possibile all’interno di una relazione di dipendenza impiegare il valore

di una variabile per predire il valore dell’altra.

Il concetto di predizione è legato a quello di correlazione.

L' obiettivo è quello di studiare la relazione tra variabili mediante la formulazione di un modello matematico

LINEARE in grado di predire i valori della variabile dipendente Y sulla base dei valori assegnati arbitrariamente

alla variabile indipendente X.

Nelle relazioni lineari il modello matematico di riferimento è rappresentato dall’equazione di una retta dove i

parametri di definizione sono ricavati sulla base del grado di correlazione esistente tra le due variabili oggetto di

studio.

Il principio su cui si basa il modello predittivo lineare è quello di identificare una linea retta detta anche RETTA

DI REGRESSIONE che è quella che meglio si adatta alla distribuzione bivariata dei punti.

Il meccanismo matematico che porta all’ identificazione dei parametri di questa retta è detto di

INTERPOLAZIONE.

Dettagli
Publisher
A.A. 2016-2017
6 pagine
4 download
SSD Scienze storiche, filosofiche, pedagogiche e psicologiche M-PSI/08 Psicologia clinica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher poppi9491 di informazioni apprese con la frequenza delle lezioni di Statistica multivariata e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Libera Università Maria SS.Assunta - (LUMSA) di Roma o del prof Pedone Roberto.