Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

8. Evento complementare: l’evento in cui non si verifica A. (A)

Parametri statistici

Parametri descrittivi

1. Variabili : insieme di caratteristiche rilevate su un campione di riferimento come esito di

un’indagine

• servono per descrivere una realta complessa e per poter utilizzare un test statistico.

̀

• Possono essere:

o Qualitative

o Quantitative:

Discrete : misurano una quantità in maniera discreta e possono assumere solo certi

 valori: esempio , il numero di studenti di un corso.

Continue : mmettono tutti i possibili valori reali ( l’altezza di un soggetto)

2. Frequenza di un evento : il numero di volte in cui si verifica un evento

o Frequenza può essere:

o relativa (diviso il numero totale delle possibilita, varia da zero ad un massimo di

̀

uno)

o assoluta (il semplice numero degli eventi), percentuale. E’ il tipico parametro che si

utilizza in presenza di variabili discrete.

3. Media : somma dei valori ottenuti su n diviso il numero dei soggetti n.

• E’ una buona descrizione sintetica di una realtà abbastanza complessa.

• dà un’informazione riassuntiva che mi dice attorno a quale valore di riferimento oscillano i miei

dati sperimentali, si chiama anche parametro di tendenza centrale,

• ma da sola non restituisce una buona fotografia della situazione perché è necessario sapere che

variabilità c’è attorno a questa media, ovvero almeno il range, minimo e massimo.

4. Varianza : somma degli scarti di ogni valore dal valore medio, elevati al quadro divisa per i suoi

gradi di liberta cioè il numero di valori che possono variare casualmente (N-1): uno degli N valori

̀

dev’essere tale che la somma degli scarti produca un totale uguale a zero, per questo i gradi di libertà

non sono N ma N-1.

• dà un’informazione sulla variabilità dei valori dei nostri dati, e pertanto è una misura

.

dell’oscillazione attorno alla media

• Si procede con la potenza al quadrato perché, se così non fosse, i valori si annullerebbero.

• Tuttavia, elevando al quadrato, l’unità di misura diventa il quadrato dell’unità di misura,

perciò si usa spesso la deviazione standard che è, semplicemente, la radice quadrata della

varianza.

Nel caso i valori siano delle medie, cioè se si tratta di varianze di medie, si parla di errore standard

della media.

Si preferisce fornire la deviazione standard e l’errore standard della media perché è nella stessa unità

di misura della variabile misurata (per es, i cm).

Questo problema viene risolto utilizzando, anziche la media, il valore atteso

́

5. Valore atteso : somma dei prodotti dei singoli valori sperimentali moltiplicati per la loro

probabilita.

̀

• nei casi sperimentali, corrisponde proprio alla media

• Questo e possibile nel caso di variabili discrete.

̀

• Nel caso di variabili continue, avendo infiniti possibili valori, non e possibile sommarli e

̀

dividerli per infinito: si passa quindi dall’utilizzo di una somma a quello di un integrale

• La varianza diventa quindi il valore atteso degli scarti al quadrato. Esprime, in sostanza, il

valore che mi attendo.

6. Percentile : dà informazioni riguardo la comparazione fra un singolo valore e il valore della

popolazione (globale); si utilizza nelle classificazioni.

• L’n-esimo percentile è il limite al di sotto del quale si trova l’n% dei casi. Es pediatria, per

giudicare il peso o la lunghezza di un bambino.

7. Mediana : è situata attorno al 50esimo percentile e rappresenta il valore al di sotto e al di sopra del

quale di trova il 50% della popolazione.

• Esso divide la popolazione in due percentuali uguali, ma NON dà informazioni su quale

valore sia più probabile.

8. Moda: il valore di picco della frequenza. Caratterizza la distribuzione che può avere più picchi

(unimodale, bimodale).

DOMANDA :

Perche anziche la media si utilizza il valore atteso?

́ ́

Essa funziona sia nel caso discreto che nel caso continuo e restituisce una varianza come media degli

scarti al quadrato. Nel caso di variabili continue si utilizza la densita di popolazione (pag.34). Nel caso di

̀

n scarti, i valori casuali sono n-1, quindi la probabilita di ogni scarto e 1/n-1 e non 1/n.

̀

N.B.: nel caso di una variabile teorica (continua), non e possibile sommare i singoli valori.

̀

Distribuzioni di Probabilità

• Sono il meccanismo su cui si basa il test statistico: tutti i test si concludono con una

valutazione sulla distribuzione di probabilità.

• Sono la rappresentazione di tutte le probabilità nei diversi modi in cui può comparire un

evento.

• E’ uno dei modi per rappresentare le probabilità dei possibili risultati di un evento.

• e la rappresentazione grafica, analitica o tabulare delle probabilità di un insieme di valori che

̀ ̀

puo assumere una variabile x.

̀

• Con variabili continue si utilizza la FUNZIONE DI DISTRIBUZIONE che e una funzione

̀

che da, per ogni valore X della variabile, la probabilità di ottenere un valore uguale o inferiore ad

̀ ̀

X. Questa definizione vale sia per variabili discrete che continue.

• Si tratta quindi di distribuzioni di probabilità cumulative : e la probabilità di ottenere un

̀ ̀ ̀

certo valore all’interno di un intervallo definito da meno infinito fino al valore X. Utile per trovare

l’intervallo di significativita di un test statistico, in quanto quest’ultimo e costituito da valori che

̀ ̀

hanno probabilita uguale o inferiore a quella del valore che ho ottenuto col parametro.

̀

• La densità di probabilità è l’unità di misura della probabilità nel caso delle distribuzioni

con variabili quantitative continue: non potendo conoscere la probabilità di ogni valore, dal

momento che i valori sono infiniti, si calcola il rapporto fra la probabilità di ottenere un risultato

all’interno di un intervallo di valori e la lunghezza dell’intervallo.

Le principali distribuzioni di probabilità

1. Distribuzione binomiale

• La distribuzione binomiale e la distribuzione che fa riferimento ad una variabile dicotomica, ovvero

̀

ad una variabile che puo assumere due valori (testa/croce, vero/falso, sano/malato..)

̀

• Su n prove la distribuzione delle probabilita e data (nel caso p=q, cioe che la probabilita dei due

̀ ̀ ̀ ̀

eventi sia uguale)da:

• In questo caso la curva binomiale e simmetrica e, nel caso di n prove, verra rappresentata con il

̀ ̀

grafico sottostante:

• La formula piu generale della distribuzione binomiale, valida anche nel caso in cui i due valori in

̀

gioco non siano equiprobabili e:

̀

• Questa formula da una curva asimmetrica che, all’aumentare del numero delle prove pero, tende a

̀ ̀

ritornare simmetrica.

2. Distribuzione gaussiana

• La distribuzione più importante per i test statistici (soprattutto per i test parametrici) è la

distribuzione normale o gaussiana.

• Essa rappresenta a livello teorico la curva ideale a cui tendono tutte le curve di probabilità

all’aumentare delle prove:

• E una curva teorica continua;

̀

• E simmetrica e ha la forma di una campana;

̀

• Il valore per cui la probabilita e massima e rappresentato dal valore atteso, mentre la varianza

̀ ̀ ̀

teorica rappresenta quanto e schiacciata o allungata la curva (dispersione attorno al valore atteso);

̀

• All’aumentare del numero di prove tutte le curve di probabilita tendono alla curva gaussiana;

̀

• E chiamata anche CURVA DEGLI ERRORI, poiche rappresenta l’andamento di tutti gli errori con

̀ ́

queste caratteristiche:

o L’errore deve essere la somma di molte componenti di uguale ampiezza;

o Le componenti devono essere fra loro indipendenti;

o Ciascuna componente ha la stessa probabilita di essere positiva o negativa.

̀

• Si definisce come limite della distribuzione binomiale: se aumentate molto il numero di lanci, la

probabilità totale (che è uno), divisa il numero dei lanci, restituirà una curva simmetrica in scala

sempre più ridotta (più bassa). Al crescere del numero delle prove, la distribuzione binomiale tende

a una distribuzione nomale con media n * p e varianza n * p * q

• Si definisce come curva degli errori: poiche rappresenta l’andamento di tutti gli errori con queste

́

caratteristiche:

o L’errore deve essere la somma di molte componenti di uguale ampiezza;

o Le componenti devono essere fra loro indipendenti;

o Ciascuna componente ha la stessa probabilita di essere positiva o negativa.

̀

• Un errore e la somma di diversi piccoli eventi di uguale ampiezza indipendenti tra di loro e che

̀

possono avere un effetto positivo o negativo ma di uguale ampiezza: se si lancia una palla da

bigliardo con la stessa forza, non si otterrà mai la stessa posizione finale in quanto la palla può

̀ ̀

incontrare elementi che ne riducono o aumentano la velocita. La posizione finale e affetta da una

̀ ̀

variabilità dovuta a tante microcomponenti che possono accelerarla o rallentarla. Quindi, non una

̀

sola componente, ma tante microcomponenti positive o negativa che si suppongono della stessa

ampiezza. Per es., se ci si pesa sulla bilancia e non si ottiene mai lo stesso risultato, ci sono tante

microcomponenti che determinano un errore rispetto al peso reale, compresa la posizione del

baricentro che può incidere sulla misurazione (pag. 52).

• Si definisce come Distribuzione a massima entropia (pag. 53): in fisica, un sistema ordinato si

distingue da uno disordinato attraverso l’entropia che è un parametro dipendente dal prodotto delle

probabilità delle posizioni dei singoli oggetti (in un sistema disordinato, la probabilità di trovare un

oggetto in un qualsiasi punto, è uguale). Il disordine è la mancanza di regolarità. Questo prodotto,

nel caso di elevata entropia, è molto elevato.

• la distribuzione di probabilità con la massima entropia per una variabile compresa fra – inf e + inf

.

ed avente un data media e varianza. Gli eventi rappresentati in essa sono i meno strutturati

• Poiché la distribuzione normale rappresenta il massimo disordine, il meno prevedibile, ne consegue

che è la distribuzione che rappresenta la massima casualità, ovvero quella per la quale è meno

prevedibile il risultato di una misura rispetto ad altre.

• Riassumendo: le distribuzioni sono una rappresentazione del ventaglio dei risultati, ciascuno con la

propria probabilità. Mi servono per prevedere i risultati.

Che cosa rappresentano la media e la varianza nel grafico della curva gaussiana? La media rappresenta il

valore massimo di probabilità mentre la varianza è determinata dall’altezza del valore massimo: più la

.

varianza aumenta più la curva si allarga e la probabilità del valore massimo diminuisce

• ̀

La distribuzione normale e determinata da due parametri: la media e la varianza. Essi

identificano, in maniera univoca, la distribuzione Gaussiana (pag. 55).

• ̀ ̀ ̀ ̀ ̀

Nel grafico non si puo rappresentare la probabilita, bensi la densita di probabilita, ovvero

̀

la probabilita di cadere in un intervallo infinitesimo fratto la larghezza dell’intervallo.

́

Questo perche i valori possibili sono infiniti: al denominatore avremmo valori infiniti.

̀ ̀ ̀

Maggiore e la varianza, piu piatta sara la curva.

• ̀

Nella distribuzione normale, il valore centrale di picco e uguale alla media, la cui altezza

̀

(in pratica il valore della media) dipende dalla variabilita della curva. L’area sotto la curva

̀ ̀

e necessariamente uguale ad uno. In caso di varianza piccola, la curva e stretta. Ne deriva

che, in questo caso, per essere pari ad uno, dev’essere alta (Pag.57; media 4, varianza 1).

• La media definisce la posizione del picco e fa slittare la curva lungo l’asse delle x. La

̀ ̀ ̀

varianza, invece, definisce la variabilita della variabile aleatoria: tanto piu e grande la

̀ ̀

varianza, tanto piu la curva e allargata.

̀ ̀

C’e un metodo che permette di far riferimento ad una sola distribuzione di densita

normale: punto zeta.

o Possiamo prendere una distribuzione normale di riferimento, esattamente quella a

́ ̀

media zero e varianza uno, perche si puo trasformare la variabile in una variabile a

media zero (per es., nei tempi di ritardo, si sottrae a tutti un certo valore in modo da

produrre una media zero.

o ̀

Il valore da sottrarre e la media stessa: in questo modo si avranno valori negativi,

positivi o pari a zero).

o I valori ottenuti sottraendo la media, vengono divisi per la deviazione standard (radice

quadrata della varianza): si ottiene un valore detto punteggio zeta che ha varianza

uguale ad uno (dimostrabile matematicamente).

o ̀

In questo modo si sa gia che zeta ha il 95% di caso compresi in un range +/- 2.

o ̀ ̀

Il concetto del range di variabilita e quello utilizzato per i test statistici.

o In questo caso si utilizza sempre una sola distribuzione, quella N(0,1). ̀

Nel caso della distribuzione cumulativa (pag.56) si ha la distribuzione delle probabilita di un certo

̀ ̀

intervallo: in genere si sceglie l’intervallo da meno infinito a quello del valore X: e la probabilita di

tutti i valori inferiori o uguali ad X. Questa distribuzione permette di calcolare facilmente la

̀ ̀ ̀

probabilita di qualsiasi intervallo: la probabilita di avere un valore inferiore o uguale a zero e 0,5

(pag. 58).

Se si hanno due variabili normali e le si sommano o si sottraggono, si ottengono altre due variabili a

̀

distribuzione sempre normale. Il prodotto o il loro rapporto non da come risultato una variabile

̀ ̀

normale. Nemmeno il quadrato (che e sempre positivo, ma una variabile puo essere negativa). Non

̀ ̀

si puo utilizzare la distribuzione normale per la varianza in quanto essa e la somma dei quadrati

degli scarti.

Distribuzione gaussiana standardizzata (distribuzione Z)

• ̀

La curva gaussiana standardizzata e la curva dei valori di una variabile gaussiana Z a media

zero e varianza unitaria N(0,1).

• funzione di poter ricondurre qualsiasi variabile gaussiana a media e varianza al fine

̀

di permettere di confrontare più gaussiane fra loro e diminuire la complessità dello studio su

di esse.

• ̀

Ogni variabile gaussiana generica puo essere ricondotta alla variabile z attraverso questa

formula:

• ̀ ̀

La variabile z si può utilizzare solo per valori teorici, cioè valori non vincolati a campioni

sperimentali.

• ̀ ̀

La somma o la sottrazioni di variabili gaussiane da come risultato una variabile che e ancora

̀ ̀

gaussiana, mentre il rapporto o il prodotto di due variabili gaussiane non da piu come

risultato una variabile gaussiana.

Distribuzione t

• ́ ̀

Inventata perche il test Z non puo essere effettuato se non si conosce la varianza teorica

• E’ la distribuzione di una variabile z divisa per la radice quadrata di una chi-quadro divisa

̀

per i gradi di liberta.

• E’ simmetrica, forma a campana, simile a quella normale. La correttezza di utilizzarla, non

conoscendo la varianza, comporta il rischio di falsificare l’ipotesi nulla.

• ̀

E’ una curva simmetrica il cui picco varia al variare dei gradi di liberta al denominatore.

Che differenza c’è tra l’uso di una distribuzione Z ed una T? Una distribuzione T si ha per ogni

grado di libertà (T a 3 gradi di libertà; se invece fossero 2, la distribuzione sarebbe più larga): è

una distribuzione a campana, come la gaussiana, ma più adagiata e lo è tanto meno sono i gradi

di libertà (pag 87); la distribuzione T tiene conto che c’è incertezza non solo al denominatore,

ma anche al numeratore.

Distribuzione chi quadro

• ̀ ̀

La distribuzione e la distribuzioni di una variabile somma di una o piu variabili z elevate al

quadrato come in formula:

• ́

E’ una curva asimmetrica e sempre positiva (perche la somma di valori elevati al quadrati

̀ ̀

da sempre un risultato positivo) i cui gradi di liberta sono dati dal numero di variabili z (e

NON di valori della variabile z!) che determina anche il valore della media.

Quando la distribuzione chi quadro ha il suo picco in allora assume la forma uguale a quella

classica della campana che ha la distribuzione normale.

Distribuzione F

• ̀

La distribuzione F e la distribuzione di una variabile rapporto di due variabili e divise

̀

rispettivamente per i loro gradi di liberta.

• Essendo le variabili e sempre positive, anche la variabile F ha sempre valori positivi. La

̀

formula e:

• E’ una curva asimmetrica,

• ̀

n e m rappresentano rispettivamente i gradi di liberta a numeratore e denominatore.

• Viene utilizzata in molti test statistici fra cui quello fondamentale: l’Analisi della Varianza.

Logica del test statistico

STATISTICA DESCRITTIVA

o ̀

Nella statistica descrittiva si racconta solo com’è

una certa realta in modo sintetico: per es. i

laureati trovano occupazione al 30% entro il primo anno,

o ̀

si da una fotografia di una certa situazione.

o ̀

Non e una legge scientifica ma solamente una descrizione sintetica.

o ̀

Puo rappresentare, al massimo, il suggerimento per un’ipotesi scientifica.

o Nei test, valuteremo se il nostro risultato cade in un certo intervallo oppure no.

o La scienza prova le idee su base sperimentale.

STATISTICA INFERENZIALE

1. Si occupa di inferenza statistica, ovvero creazione di leggi generale a partire da risultati

sperimentali (inferire significa concludere)

2. La statistica sperimentale si occupa in genere di dimostrare gli effetti: gli effetti sono delle

differenze, cioè delle variazioni. Quindi l’ipotesi nulla è l’ipotesi dell’uguaglianza. Quindi il

test tende a dimostrare che non è sostenibile l’uguaglianza.

3. Quindi, per es., valuta:

a. l’influenza di fattori su parametri,

b. ̀

l’eta sulla depressione,

c. ̀

l’attivita lavorativa su ansia e depressione, oppure si occupa di classificare una

popolazione in certi gruppi secondo certi criteri, oppure fa delle previsioni, per es.

quelle economiche.

4. ̀

Quindi, dai dati sperimentali non si cerca una semplice descrizione, bensi una legge.

• L’inferenza statistica è quella forma di dimostrazione su base sperimentale che partendo

dall’osservazione di dati di un campione giunge a una conclusione generale, ovvero valida

per tutti.

• Il test statistico si chiude con la falsificazione dell’ipotesi nulla o col contrario. La ricerca

scientifica si svolge sempre così.

L’inutilizzabilità dell’approccio deterministico, visto il grado di imprecisione delle misurazioni e

l’oscillazione casuale, richiede l’utilizzo dell’inferenza statistica, in quanto è necessario stabilire per

ogni esperimento l’incidenza della variabilità casuale e valutare se ho dimostrato l’idea di partenza

oppure no.

PROCEDURA STATISTICA:

1. IDEA GENERALE -> Idea sperimentale: da un’idea generale dello sperimentatore (generale =

valida per tutti i soggetti della popolazione di riferimento) ad un’idea sperimentale, legata al risultato

che ci aspettiamo di ottenere sui soggetti del nostro campione;

2. FORMULAZIONE H0 : definiamo l’ipotesi nulla, ovvero l’ipotesi complementare da falsificare

3. SCELTA DEL CAMPIONE: il campione sperimentale deve essere:

o rappresentativo (ogni soggetto della popolazione globale ha la stessa probabilita di essere

̀

estratto)

o sufficientemente ampio (di numerosità idonea, non troppo numeroso)

o idoneo (che permetta di dimostrare la mia idea).

o utilizzato per una determinata prova sperimentale

o conforme al tipo di distribuzione che si intende utilizzare (per i test parametrici);

4. RACCOLTA DATI E DESCRIZIONE VARIABILI: consiste nella fase in cui si effettuano le

misurazioni delle variabili dipendenti sui soggetti, e si trovano i parametri utili al test, come ad

esempio la media, la dev.standard etc.

5. TEST STATISTICO

Il test statistico mi permette alla fine di un esperimento di:

1. Falsificare l’ipotesi nulla ;

2. NON falsificare l’ipotesi nulla .

Esso si conclude con un PROCESSO DECISIONALE che puo portare a 4 risultati differenti:

̀

6. RISULTATO:

• Respingo quando questa e falsa: soluzione corretta;

̀

• Non respingo quando questa e vera: soluzione corretta;

̀

• Respingo quando questa e vera: errore del primo tipo, o significativita;

̀ ̀

• Non respingo quando questa e falsa: errore del secondo tipo;

̀

1. L’errore di primo tipo e il piu importante: perche in questo modo si dimostra l’idea dello

̀ ̀ ́

sperimentatore commettendo un errore.

a. La comunita scientifica ha stabilito che l’ipotesi nulla e falsificabile se il nostro valore cade

̀ ̀

al di sotto del 5% di probabilita (in alcune ricerche mediche 1%).

̀

2. Nell’errore di secondo tipo , semplicemente non dimostro qualcosa che e vero.

̀

a. Nella legge scientifica, e piu grave il caso in cui si dimostra qualcosa di errato, piuttosto che

̀ ̀

non dimostrare qualcosa di dimostrabile: potrebbe essere dimostrato piu tardi da qualcun

̀

altro

INTERVALLO DI CONFIDENZA: e la zona attorno al parametro che noi stimiamo, entro la quale mi

̀

aspetto che cadano i risultati in successivi esperimenti per semplice oscillazione casuale. Ragionando in

modo differente rispetto a quello classico per falsificare H0 posso valutare la distanza dell’ipotesi nulla

dall’intervallo di confidenza per poterla falsificare.

INTERVALLO DI TOLLERANZA: e la zona entro cui mi aspetto che cada un singolo caso al 95% di

̀

probabilita, e piu largo dell’intervallo di confidenza perche valutato sulla varianza interindividuale. Si

̀ ̀ ̀ ́

utilizza per fare previsioni sui singoli casi

Ipotesi nulla

1. L’ipotesi nulla (da nullius, assenza) e l’ipotesi complementare alla nostra ipotesi sperimentale.

̀

2. Nei test statistici si prende in considerazione l’ipotesi nulla e la sua distribuzione, che ci dice quali

sono i risultati piu probabili nel caso si verifichi l’ipotesi nulla.

̀

3. Idealmente l’unico risultato che esprime l’assenza di differenza nei test è quello

corrispondente a 0. In realtà i risultati sperimentali si distribuiscono attorno allo 0, ma

questo è spesso dovuto all’oscillazione casuale e non è sufficiente a falsificare l’ipotesi

nulla.

4. La regione al cui interno si distribuiscono i risultati per pura oscillazione casuale si chiama

regione di non falsificazione.

5. In psicologia, l’ipotesi nulla H0 implica che un trattamento non abbia avuto effetto, mentre

con l’ipotesi alternativa, detta abitualmente sostantiva, H1, si ipotizza che ci sia stato un

̀

effetto. L’ipotesi nulla e chiamata anche ipotesi della non-relazione e non-differenza. La

̀

logica che sottende la decisione statistica e di tipo falsificazionista: si parte dal presupposto

̀

che l’ipotesi nulla sia vera e si cerca di falsificarla. Solo se la probabilita p associata ai dati,

̀

ammesso che H0 sia vera, e troppo bassa, si rifiuta H0 in favore di H1.

6. ̀ ̀

L’ipotesi nulla puo essere vera o falsa (pag.75): la decisione dello sperimentatore puo essere,

̀

di conseguenza, quella di respingerla o di non respingerla. Se l’ipotesi nulla e vera e lo ̀

sperimentare la respinge, commette un errore di primo tipo (errore alfa) la cui probabilita si

̀ ̀

chiama significativita: essa rappresenta la probabilita che l’ipotesi nulla sia vera ma io

l’abbia respinta avendola considerata falsa. Con l’errore alfa si afferma erroneamente che un

trattamento abbia avuto effetto quando invece non lo ha avuto. Se, invece, non la respingo,

arrivo ad una conclusione corretta.

7. ̀ ̀

Se e, invece, e falsa e non la respingo commetto un errore di secondo tipo (o errore beta),

̀ ̀ ̀ ̀

cioe si afferma che non c’e stato un effetto dovuto al trattamento mentre in realta c’e stato

(l’errore beta si chiama anche errore di omissione)

8. ̀ ̀ ́

L’errore di primo tipo e il piu importante: perche in questo modo si dimostra l’idea dello

sperimentatore commettendo un errore. Nell’errore di secondo tipo, semplicemente non

̀ ̀ ̀

dimostro qualcosa che e vero. Nella legge scientifica, e piu grave il caso in cui si dimostra

qualcosa di errato, piuttosto che non dimostrare qualcosa di dimostrabile: potrebbe essere

̀

dimostrato piu tardi da qualcun altro (pag. 75).

Cosa succede se non falsifico l’ipotesi nulla?

1. L’ipotesi nulla è “ver a”: non vuol dire che la differenza è esattamente zero, ma che la

differenza è sotto la minima differenza che ho giudicato apprezzabile

2. Il test è poco potente perché :

 il campione ha varianza elevata;

 vi è scarsa numerosità del campione;

 il campione non soddisfa le condizioni relative alla distribuzione;

 il campione non è rappresentativo dell'intera popolazione;

 non vi è sufficiente separazione fra H0 e H1;

Significatività, potenza, numerosità e minima differenza apprezzabile

La significatività è:

1. è il parametro finale di un test statistico

2. Il livello di significatività massimo è 0.5.

3. Si accettano le dimostrazioni sperimentali che hanno una percentuale di errore inferiore al

5%.

4. l'indice di errore, la probabilità di errore che rischio di commettere falsificando l'ipotesi

nulla

5. la probabilità di falsificare l'ipotesi nulla, nonostante questa sia vera, quindi è un errore

6. l’intervallo all’interno del quale otteniamo valori che ci permettono di falsificare la nostra

ipotesi nulla.

7. ̀ ̀ ́ ̀

Se la significativita e inferiore al 5%, rifiuto l’ipotesi nulla perche e “insufficiente”.

8. Per sapere se è una statistica inferenziale o no basta chiedersi se c'è una significatività, se c'è

allora è un metodo inferenziale, se non c'è non è un metodo inferenziale

9. più bassa è la significatività meglio è

10. La significatività è la probabilità che essendo vera l'ipotesi nulla io ottenga il risultato che ho

ottenuto sperimentalmente o un risultato ancora più lontano dall'ipotesi nulla.

11. Non rappresenta la probabilità di un risultato, o la probabilità dell'ipotesi nulla

12. Quando la probabilità che l'ipotesi nulla sia vera scende sotto un certo livello di

significatività possiamo considerare l'ipotesi nulla falsa e conseguentemente dimostrata la

nostra idea di partenza.

La potenza (1-Beta) di un test statistico è il grado di probabilità di falsificare Ho quando questa è

falsa (è complementare all’errore Beta).


ACQUISTATO

1 volte

PAGINE

27

PESO

943.52 KB

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in scienze e tecniche psicologiche
SSD:
Università: Bologna - Unibo
A.A.: 2015-2016

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher studenti.matildedicanossa di informazioni apprese con la frequenza delle lezioni di Statistica psicometrica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Bologna - Unibo o del prof Bolzani Roberto.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Statistica psicometrica

Statistica psicometrica - Appunti
Appunto
Lezioni, Statistica Psicometrica
Appunto