vuoi
o PayPal
tutte le volte che vuoi
Breve dispensa di psicometria
Ripasso statistica:
1.1 Basi di statistica descrittiva:
- Variabile: descritta compiutamente mediante la sua distribuzione di frequenza, è una qualsiasi caratteristica che possa assumere valori diversi in un dato intervallo (variabili continue, variabili discrete);
- Le unità di analisi sono oggetti o persone alle quali afferiscono le proprietà che vengono misurate. Le variabili sono proprietà delle unità d'analisi; le costanti sono proprietà sempre identiche.
- Frequenza: numero delle volte in cui si verifica un determinato "evento" in un gruppo di altri eventi;
- Indicatori di tendenza centrale e di dispersione:
- Moda: modalità più frequente
- Mediana: modalità che divide il totale dei casi in due metà ugualmente numerose (compito di sintetizzare)
- Medie potenziate: media aritmetica (salva la somma, somma delle misure osservate diviso il numero di osservazioni fatte)
media quadratica (salva la somma dei quadrati), media armonica (salva la somma dei reciproci), media geometrica (salva il prodotto)
Indici di distribuzione di un carattere quantitativo o qualitativo ordinale:
- percentili
- quartili
- decili etc.
Variabilità: attitudine di un carattere statistico a mostrarsi in modo diverso informa su "quanto sono (mediamente) diversi gli n valori che esprimono le modalità del carattere/fenomeno in oggetto"
Varianza: media del quadrato degli scostamenti dalla media; la quantità al denominatore viene definita devianza (mai negativa). Difetto non utilizza la stessa unità di misura che viene utilizzata per la media, quindi si usa la deviazione standard: radice quadrata della varianza.
Variabilità relativa coefficiente di variazione: rapporto tra deviazione standard e media di una distribuzione.
Punteggi z: si usano per standardizzare le misure, ovvero riferire le misure ad una
scalastandard con media e varianze note (0; 1)
Trasformazioni dei punteggi standardizzati: scala T, scala IQ, stanini, ranghi centili.
1.2 Concetto di probabilità:
La probabilità che si verifichi un certo evento è uguale alla frequenza (relativa) con cui l'evento si verifica in un numero di prove sufficientemente grande. Evento: uno dei possibili risultati di una prova. Eventi indipendenti: se il verificarsi dell'uno non influenza l'altro.
Principio della somma: la p (probabilità) di verificarsi di due eventi mutuamente escludentisi è uguale alla somma delle p di verificarsi dei singoli eventi. Principio del prodotto: quando due eventi si verificano simultaneamente o in successione, la p sarà il prodotto delle due p singole.
Distribuzione binomiale: distribuzione teorica di probabilità di un certo evento che assume solo due valori;
Distribuzione normale (gaussiana): distribuzione simmetrica rispetto alla media.
(=0) eunimodale a forma di campana rovesciata (i valori centrali sono quelli con probabilità piùelevata) e asintotica all’asse delle ascisse. La funzione della distribuzione normale nondipende dal numero delle osservazioni.
2 Distribuzione “chi ”: distribuzione di valori al quadrato, quindi definita solo sull’assepositivo. È generata dalla somma dei quadrati di valori indipendenti di una variabile normalestandardizzata; se tali valori non sono indipendenti bisogna stabilire quanti sono i vincoliche li condizionano, e sottraendo tale numero dai valori che sommati generano la2distribuzione “ ”, si ottengono i gradi di libertà.
Distribuzione t: per N-> è assimilabile alla distribuzione normale. E’ simmetrica intorno at=0.
2 Relazioni tra variabili:
2.1.Concetto di relazione tra variabili: alla base del concetto di relazione tra variabili sta quellodi covarianza si dice cov (covarianza) la tendenza
che hanno due variabili a "variareinsieme" (relazione positiva o negativa). La rappresentazione grafica della forma assunta dalla relazione è il diagramma di dispersione. Misure di relazione tra due variabili:- Coefficiente di correlazione r Bravais-Pearson (minimo valore assunto: -1; massimo valore assunto: +1), che misura l'esistenza di una relazione di proporzionalità (direttamente o inversamente proporzionali).
- Coefficiente di correlazione r di Spearman, per variabili misurate su scala ordinale: fornisce un indice di correlazione tra ranghi (-1; +1). => La correlazione non è altro che una covarianza standardizzata, che permette di confrontare r diverse.
Regressione:
3.1 Concetto di regressione:
Il concetto di regressione è strettamente legato a quello di correlazione, ma bisogna definire una variabile come indipendente (v.i.) e l'altra come dipendente. Si introduce nella relazione la causa->effetto. Questo tipo di
lo studio serva a verificare se e quanto una variabile indipendente spiega una variabile dipendente. Il coefficiente di determinazione, indicato con r, esprime la proporzione di varianza della variabile dipendente che è spiegata dalla variabile indipendente. Quindi, 1 - r rappresenta la proporzione di varianza non spiegata, chiamata varianza residua. L'equazione di regressione è una formula di predizione che viene utilizzata in una regressione lineare, la quale viene rappresentata da una retta. L'equazione fondamentale è Y = a + bX, dove a e b sono i coefficienti che vengono determinati utilizzando il criterio dei minimi quadrati. Questo criterio permette di trovare la retta che minimizza la somma delle distanze al quadrato tra i valori stimati di Y e i valori osservati di Y. La retta di regressione rappresenta quindi la migliore approssimazione per esprimere Y in funzione di X. È importante notare che l'esistenza di una correlazione tra le variabili non implica direttamente che una variabile causi l'altra.vi sia un legame casuale. Si possono misurare variazioni simultanee, non causalità.I modelli:
4.1 Definizione:
Un modello è l'espressione formalizzata di una teoria. La formulazione delle strutture di tale modello si può ottenere attraverso un sistema di equazioni che ne rappresenta i nessi causali. Il modello appartiene all'ambito teorico e non empirico.
Proprietà:
- Semplificazione concettuale: ovviamente, deve aiutare a semplificare la realtà, altrimenti non ha alcuna utilità;
- Formalizzazione della sua formulazione: deve essere possibile esprimerlo attraverso un diagramma o un sistema di equazioni (da qui i modelli di equazioni strutturali).
Obiettivo di un modello è la ricerca della più semplice spiegazione per il fenomeno studiato; più semplice sarà il modello, maggiore sarà la sua rilevanza teorica (principio di parsimonia di Thurstone).
Attraverso un modello non è possibile
verificare l'esattezza di esso, ma è solo possibile "nonrifiutarlo" (dal criterio della falsificabilità di Popper). L'itinerario che porta alla nonfalsificazione del modello si colloca nel campo della cosiddetta inferenza statistica.
4.2 Processo della verifica empirica di una teoria:
- formulazione del modello teorico di relazioni causali tra le variabili;
- simulazione con produzione di dati;
- confronto fra dati teorici e dati reali;
- valutazione discrepanza dati reali- dati teorici di qui, o il rifiuto o il non-rifiuto (chenon significa accettare).
La valutazione del modello si effettua tramite il confronto tra i dati stimati e i dati osservati; se lo scarto è troppo elevato, esso è statisticamente significativo, e ciò significa che esso non può più essere attribuito all'errore stocastico (fluttuazione casuale).
Il χ² è la statistica di riferimento per giudicare la probabilità di un certo
valore assunto dallo scarto fra valori attesi e valori stimati. sono fortemente desiderati bassi valori della statistica2χ . Difetto della statistica: è sensibile alla dimensione del campione, ovvero si gonfia all'aumentare del numero totale dei soggetti. I modelli con Lisrel : dalla matrice ai parametri descrittivi. Passaggi per la creazione di un modello:
- formulazione del modello teorico
- stima dei parametri strutturali, ovvero i legami inclusi dal modello (i parametri ottenuti sono i migliori possibili compatibili sia con i dati che con il modello)
- verifica del modello
- modifica del modello si riapre il ciclo
- eventuale riformulazione del modello
a) Vedi paragrafo precedente, "I modelli".
b) La matrice di covarianza tra le y e le x può essere espressa in funzione delle otto matrici di parametri che caratterizzano il modello teorico. Noti i parametri strutturali del modello, noi siamo in grado di calcolare la matrice di covarianza tra le
variabili x e y, ci dicono cioè che il modello implica una certa matrice di covarianza tra le variabili osservate. Il metodo che usa Lisrel per la stima dei parametri strutturali è quello della massima verosimiglianza (ML). Il punto di partenza è costituito dalle otto matrici di Lisrel derivanti dal modello teorico; esse contengono parametri fissi e parametri liberi. Il programma cerca quei valori che riducano al massimo la differenza tra Σ (matrice attesa) e S (matrice osservata); successivamente si può migliorare Σ apportando delle modifiche al modello teorico per ottenere il massimo dell'aprossimazione. È per questo che si parla di processo "iterattivo".
ML → permette di stimare i parametri incogniti della popolazione individuando quei parametri che generano la più elevata probabilità per i dati campionari di essere osservati. Fra tutti i possibili valori dei parametri liberi, permette di scegliere quelli che
generano un Σ il più 4prossimo possibile a S; tale cioè che sia massima la probabilità che quel S osservato nelcampione derivi da quel Σ esistente nella popolazione. L’indice di prossimità è dato da questaprobabilità.
c) Le misure di adattamento complessivo del modello: se il modello è corretto e il campione èsufficientemente grande, allora la funzione di adattamento (che è una funzione dello scarto S- Σ)2si distribuisce secondo la distribuzione del . Il programma fornisce anche la probabilità2associata al : maggiore è tale probabilità, migliore è il modello (ma occorre evitare lasovraparametrizzazione, ovvero l’eccesso di parametri liberi). Se gdl (gradi di libertà)= 0, allorail modello non semplifica la realtà, ma la riproduce esattamente (saremmo in un caso de