vuoi
o PayPal
tutte le volte che vuoi
TEST STATISTICI: ASPETTI GENERALI
In statistica, se vogliamo provare qualcosa dobbiamo ipotizzare l'opposto detto ipotesi nulla e segnata come H0.
Non possiamo accettare un'ipotesi ma solo rifiutare l'opposta rafforzando l'iniziale.
Valutiamo l'ipotesi nulla H0:
Se il test rivela che H0 è vera, non abbiamo motivo di rifiutare H0 e l'ipotesi alternativa (quella che volevamo valutare) viene rifiutata.
Se il test fallisce (H0 è falsa) rifiutiamo H0 e l'ipotesi alternativa risulta rafforzata.
Quando confrontiamo due campioni di dati, l'ipotesi nulla proverà che non esista differenza tra i due relativi al parametro considerato.
Esempio: confronto le medie di due campioni di dati Ipotesi nulla: le 2 medie hanno lo stesso valore.
Rifiutare un'ipotesi nulla potrebbe essere la decisione giusta o no:
- Errori di tipo I: rifiutiamo un'ipotesi vera
- Errori di tipo II: accettiamo un'ipotesi falsa
LIVELLO DI SIGNIFICATIVITÀ α:
Probabilità di rifiutare l'ipotesi nulla anche se corretta.
È la probabilità di compiere un errore di tipo I o è a carico dello sperimentatore.
Nel test statistico:
- Definiamo una variabile X con distrib. di prob. f(x)
- Assumiamo un'ipotesi nulla H0 da verificare
- Limite α (livello di significatività)
- Calcoliamo la prob. di ottenere un valore di X maggiore di
Quella evidenziata è la prob. di rifiutare H0 anche se corretta.
La distribuzione che andiamo ad usare è la distrib. di prob. della variabile del test e non quella associata ad H0 e incertezza.
Zona 1: Regione di accettazione:Se la variabile cade qui l'ipotesi nulla non può essere rifiutata => ma non implica che H0 sia vera. Il campione di dati non offre sufficiente evidenza contro H0 (decisione debole)
Zona 2: Regione di rifiuto:Se la variabile cade qui, l'ipotesi nulla deve essere rifiutata => rafforza l'ipotesi alternativa il campione di dati fornisce sufficiente evidenza che H0 sia falsa (decisione forte)
α è a scelta dello sperimentatore: si assumono alcuni livelli tipici: P[X ≥ α] < 5% o P[X ≥ α] < 1% dipende se ti sta giocando il Nobel oppure no!
Questo test può essere usato anche per confrontare 2 valori (es: 2 medie) conoscendo le dispersioni vere
segue la distrib. normale
Per molti test statistici è importante distinguere tra 2 classi di test a seconda se siamo interessati a valutare una differenza tra valori o anche a sapere quale dei 2 valori sia >
Test a 2 code (two-tailed)
C’interessa la differenza tra le 2 grandezze; sono Z-test, test di Student, F-test.
Test a una coda (one-tailed)
C’interessa la differenza e la direzione tra 2 grandezze; sono Z-test, test di Student, F-test, χ²-test
Z-test a 2 code:
Rifiutiamo l’ipotesi nulla che le due prove siano uguali con un livello di significatività α ma non ci interessa sapere quale sia maggiore:
- α/2% di prob. che le medie siano diverse e
- α/2% di prob. che le medie siano diverse e
UN’ALTRA STELLA HA VEL RAD DI -119.5 Km/s
APPARTIENE A NL’AMMASSO?
RVX - RV / SRV/√6 = 2 IN UNITA’ DI SIGMA.
INTERPRETIAMO QUESTO COME UNO Z-TEST (ASSUMENDO
CHE LA DISP. MISURATA SIA UNA BUONA STIMA DI O-
RIGETTAMO HO CON UN LIVELLO DI SIGNIFICATIVITA’
DEL 4%.
VEDIAMO INVECE COME UN TEST DI STUDENT?
RIGETTAMO HO CON UN LIVELLO DI SIGNIFICATIVITA’ DEL
10%
IL TEST DI STUDENT FORNISCE UNA MAGGIORE CAUTEZA
NEL RIGETTARE HO IN VIRTU’ DELLA BASSA
STATISTICA. PER NY>30 I DUE TEST SONO
IDENTICI
F-TEST
SI BASANO SU UNA VARIABILE F, DEF. COME RAPPORTO DI
2 QUANTITA CHE SEGUONO ENTRAMBE LA STATISTICA DEL X².
SEGUE LA DISTIB DI PROB DI FISHER (DETTA DISTRIB. F)
IN ASTRONOMIA:
- CONFRONTO DELLE VARIANZE MISURATE
- TESTARE LA CONVENIENZA DI UN NUOVO FIT A CUI
ABBIA GIÀ AGGIUNTO TERMINI.
Se χ2 >>1 il modello è sbagliato oppure abbiamo sottostimato gli errori
La variabile χ2 è della forma generale:
χ2 = Σ(valore osservato - valore atteso)2 / incertezza
La variabile assume poi forme diverse:
Il fit è buono?
Abbiamo un nostro campione di N galassie per esempio con le dist e velocità.
In questi casi usiamo le incertezze sperimentali:
χ2 = Σi=1N(Xi-Ei)2 / σi2
Confrontiamo dei dati sperimentali con una distr. di prob.
I dati sperimentali sono estratti da quella distrib.! Es:
In questi casi: usiamo la def. di χ2 con le incertezze teoriche:
χ2 = Σi=1N(Xi-Ei / √Ei)2
Distribuzione di probabilità della variabile χ2
Pν(χ2) = Cν e-χ²/2 (χ²)(ν/2 -1)
ν = numero intero positivo = gradi di libertà