Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Formattazione del testo con tag HTML
Med errore standard (σ). MLe combinazioni di n= elementi presi a k e k= sono tutti i possibiliraggruppamenti di k elementi entro n, distinti per la presenza dielementi diversi.
Cos’è il valore atteso? (μ)-La media di tutti i valori che può assumere x, intesa come l’asse. Ciò che ci aspettiamo come valore medio di x in una serie diosservazioni.
σ <σ e μ = μ la deviazione standard del campione è M Mminore della deviazione standard della popolazione; la media delcampione è uguale alla media della popolazione
Con popolazione infinita o con campionamento con reinserimento =μ = μ e σ = σ/√nM M
Con popolazione finita (N) o con campionamento senzareinserimento = μ = μ eMσ = σ/√nx√(N-n)/(N-1)M-Più aumenta n e più la varianza (s) della distribuzione campionariadella media tende a 0. Perché più n è alto e più si alza la
probabilità che la loro media sia vicina a quella della popolazione.
Teorema del limite centrale: se si estraggono vari campioni con la stessa ampiezza n da una popolazione; all'aumentare di n la distribuzione delle medie si avvicina alla normale e si considera n ≥ 30.
Se n > 30: la distribuzione delle medie dei campioni è normale e si userà quindi la distribuzione normale standardizzata. (n = campione; N = popolazione)
VERIFICA DI IPOTESI STATISTICHE
Cos'è un'ipotesi statistica?
Si tratta di un'affermazione formulata sulla popolazione e si tratta di predire come un parametro per descrivere alcune caratteristiche di una variabile, assume un certo valore numerico nella popolazione o come ricada in un intervallo di valori.
Come si fa la verifica delle ipotesi?
Si usa un test statistico.
Come si fa dunque?
1. Formuli l'ipotesi sperimentale da verificare (H1)
2. Formuli l'ipotesi nulla (H0) che è l'opposta della sperimentale
3. Calcolo la
probabilità di ottenere un certo risultato posto che l'ipotesi nulla sia vera. Se quindi il valore della probabilità è troppo piccolo, si rifiuta H0, al contrario, si accetta.05. Per stabilire se la probabilità associata a H0 è alta o bassa si usa il livello di significatività dei limiti (α). Si parte definendo due regioni; una dove la probabilità che i risultati si verifichino è bassa e una dove è alta (1-α). Stabilire il livello di significatività significa stabilire il rischio che possiamo correre in relazione a H0. Quando H0 è vera, il rischio di sbagliare è di 5 volte su 100 quando lds è .05, 1 su 100 quando lds è .01, e 1 su 1000 quando lds è .001. Se la p>α, si accetta H0 e si rifiuta Ha; se p<α, si rifiuta H0 e si accetta Ha. Si stabilisce che H : μ = μ0 e che H : μ >μ0. M a MHa: Semplice Fissiamo un unico valore al parametro Composta= si Monodirezionale Bidirezionale (≠).
Fissano diversi valori (<;>) si prevede la non prevede ladel parametro direzione della direzione (due code)differenza (unacoda)
Test dell'ipotesi nulla:
Procedura di falsificazione= dato che la Ha non può essere verificata direttamente, usiamo questo metodo indiretto.
Dobbiamo stabilire quanto sono forti le evidenze empiriche a sostegno dell'ipotesi nulla. Infatti, se i dati del campione non sottolineano un'evidenza a favore della nulla, la rigettiamo e accettiamo la sperimentale.
La accetto o rifiuto, posto che sia vera.
Statistica test:
Si usano i dati del campione
Si stabilisce una probabilità che viene determinata con la distribuzione campionaria della statistica test.
VERIFICA DELL'IPOTESI
Quando σ e μ sono noti e il campione (n) è > 30 e la variabile metrica a cui si fa riferimento è la media, calcoliamo usando la distribuzione campionaria delle medie e dunque la distribuzione di probabilità
normale. Per trovare lo zcritico ci serviamo di z e α. Dato che la variabile metrica è la media, si standardizza la media in riferimento alla distribuzione campionaria delle medie (dCM). La p, cioè area della curva associata a H0 viene confrontata con l'area di rifiuto definita da α: |z| < |zcritico| = p > α Si accetta H0 |z| > |zcritico| = p < α Si rifiuta H0 Quando invece σ non è noto, si calcola prima l'errore standard stimato (con archetto sopra). Quando ci troviamo di fronte a un campione (n) < 30 e σ non è noto ma usiamo sempre una distribuzione campionaria delle medie, stavolta usiamo la distribuzione di probabilità t. Distribuzione Infinita Simmetrica Unimodale Asintotica di Student: (come la curva normale) Si cambia la distribuzione perché con n < 30 la varianza è maggiore e così anche la distribuzione va cambiando, delineando una curva più appiattita e code più lunghe; infatti,
La sua forma varia al variare di n. Per calcolare la t servono: σ · μ · gdl (gradi di libertà) = n-1.
La curva t definisce una distribuzione di probabilità. Le due ipotesi rimangono: H0: μ = μ e H1: μ > μ0.
M a MTcritico: α · gdl. Ipotesi alternativa, se è mono/bidirezionale. |t| < |tcritico| = p > α Si accetta H0. |t| > |tcritico| = p < α Si rifiuta H0.
CONFRONTO TRA GRUPPI
Campioni: I soggetti nei gruppi indipendenti sono diversi.
Esperimento: Estratti casualmente da una popolazione e assegnati casualmente alle condizioni sperimentali.
Quasi esperimento: Estratti casualmente da due popolazioni e assegnati non casualmente alle condizioni sperimentali. Sui due gruppi uno diventa un gruppo di controllo e l'altro un gruppo sperimentale (sottoposto a un trattamento) = la variabile indipendente (manipolata o meno). Si vuole anche valutare le differenze a livello di variabile dipendente a partire dalla indipendente.
DISTRIBUZIONE CAMPIONARIA
DELLA DIFFERENZA TRA MEDIE
Servono due medie (M) e due varianze (S) e due campioni (n).
Facendo le differenze troveremo poi di fatto una media (μ) e un errore standard (σ).
-Si sceglie poi che test statistico usare in base all'ampiezza campionaria (n) e se le varianze sono note o meno.
Se varianze delle popolazioni note:
-n>30: distribuzione normale standardizzata (errore standard stimato) o distribuzione t di Student (errore standard stimato)
-n<30: distribuzione t di Student (errore standard stimato)
Sia la z che la t si calcolano in riferimento alla dCDM.
Stavolta per calcolare la t, i gdl si calcolano: n1+n2-2.
CONFRONTO TRA DUE GRUPPI (2)
Campioni dipendenti
Quando hanno gli stessi soggetti (pre/post-test)
Quando esiste un appaiamento tra soggetti del primo e secondo gruppo (ansia di madre e figlio che hanno subito lo stesso evento traumatico es.)
DISTRIBUZIONE DELLA MEDIA DELLE
DIFFERENZE
Stavolta la media (Di) si calcola facendo una sottrazione/differenza tra i valori x e y e stavolta per quanto riguarda la dCDM delle differenze troviamo una sola differenza, accompagnata poi dai valori μM e σM.
-µD> 0 quando la differenza è positiva (x-y= +D)
-µD< 0 quando la differenza è negativa (x-y= -D)
Anche stavolta si usa il test t di Student (varianza non note).
VERIFICA DI IPOTESI STATISTICHE
Grazie alla teoria statistica possiamo prendere una decisione anche quando siamo incerti, ma purtroppo ci sarà sempre un margine di errore e grazie ai test statistici, giungiamo a una probabilità conosciuta dell'errore. LA DECISIONE è SEMPRE SOGGETTA A UN ERRORE.
1-α= REGIONE DI ACCETTAZIONE; α= REGIONE DI RIFIUTO; β= POSSIBILITà DI ACCETTARE H0 QUANDO è FALSA
Ora, lavoriamo con l'ipotesi nulla:
H0 vera (α) H0 falsa (β)
Se accetto H0= decisione
Se rifiuto H0= decisione
correttacorretta (1-alfa) (1-beta= potenza del test statistico= la possibilità di respingere H0 quando è falsa)
Se rifiuto H0= decisione errata= Se accetto H0= decisione Errore di I° tipo errata= Errore di II° tipo
Errore di I° tipo= p= α; cioè, la Errore di II° tipo= p= β; la probabilità che il valore cada probabilità di trovare un nella regione di rifiuto quando campione che non mi fa H0 è vera rigettare H0 anche se è falsa
TEST DELL'IPOTESI NULLA - Null Hypothesis Significance Testing (NHST)
Ora ci concentriamo sull'errore di I° tipo piuttosto che sul secondo. Diminuire α porta ad aumentare β e ridurre la potenza mentre, aumentare α porta a diminuire β e ad aumentare la potenza. Il compromesso è imporre α=.05 e β=.2 (valore ottimale) con potenza .80.
Beta dipende da alfa e si comportano da complementari. Per non sbagliare alfa e beta si è riusciti a individuare
anche il numero ottimale di soggetti e con la dimensione dell'effetto si stabilisce il valore ottimale di alfa. Si cerca quindi di massimizzare la sua efficacia e di minimizzare gli effetti di una decisione scorretta - si tiene basso alfa e si alza beta. Come nasce questo test? - Dall'unione di due approcci (ibrido): P-value Approach (PVA): Ci fornisce la verità di H, dove ideato da Fisher (1925) l'ipotesi si rifiuta se è inferiore al livello di significatività. Fixed Alpha Approach (FAA): Per prendere una decisione su H0 e Ha, entrano in gioco i due errori di Pearson (1933) e la probabilità del test: ossia quanto è la probabilità di rifiutare H0 quando è vera Ha. Anche qua si stabilisce a priori il livello di significatività. NHST: Calcolo la probabilità di ottenere un risultato come quello osservato, ipotizzando che H0 sia vera e poi, una volta stabilito il livello di significatività, si guarda se pè troppo piccolo (rifiuto) otroppo grande (accetto).Il problema del NHST è che p dipende dal campione, che più èampio e più è facile raggiungere la significatività. Siamo già dipartenza contro H0, che non possiamo sostenere ma, soloevidenziare se è falsa o se ha almeno un margine di erroreaccettabile. Rifiutare H0 poi non ci dà