vuoi
o PayPal
tutte le volte che vuoi
DOMANDE ESAME STATISTICA
1. Parlare del chi-quadrato come misura di associazione
L’indice di chi-quadrato, è un indice che da informazione, in media quadratica, di quanto
differiscono le frequenze effettive da quelle teoriche e quindi dà una misura del grado di
connessione o associazione tra i due caratteri oggetto di studio. Il chi- quadrato possiamo
utilizzarlo sia con variabili quantitative e qualitative.
Il vincolo del chi-quadrato consiste nella numerosità delle celle di una tabella che non deve
essere inferiore a 5. In una tabella 2x2 non si può calcolare il chi-quadrato.
2. Che cos’è il P-Value e quando lo utilizziamo?
Nel modello inferenziale il concetto di P-Value ha una grande importanza perché permette di
stabilire l’accettazione o il rifiuto dell’ipotesi di interesse, confrontando direttamente la
probabilità della statistica test- empirico con il livello di significatività α fissato a priori e quindi,
scegliere la regola di decisione in modo tempistico.
Dopo aver effettuato il test e controllato la relativa statistica-test, il P-Value può essere definito
come la probabilità di osservare un valore della stessa statistica uguale o più estremo del
valore campionario, che si sarebbe realizzato se l’ipotesi nulla o di interesse fosse stata vera.
Per calcolare il P-Value occorre determinare il valore della statistica test empirica e quindi
trovare il valore della statistica messa a confronto con il valore critico al livello di confidenza
prescelto.
3. Cos’è il coefficiente angolare?
Il coefficiente angolare della retta di regressione si calcola facendo il rapporto tra la codevianza
e varianza x (cioè la variabile indipendente). Un coefficiente angolare positivo indica una retta
crescente che va dal basso a sinistra verso l’alto a destra. Se è negativo la retta è decrescente
e va dall’alto a sinistra verso il basso a destra. Una retta con coefficiente angolare pari a 0 non
cresce e non decresce.
4. Parlare della regressione lineare
L’analisi di regressione lineare è una tecnica che permette di analizzare la relazione lineare tra
una variabile dipendente e una o più variabili indipendenti.
L’analisi della regressione lineare è una metologia asimmetrica che si basa sull’ipotesi
dell’esistenza di una relazione di tipo causa-effetto tra una o più variabili (o esplicative) e la
variabile dipendete (o di criterio).
Lo studio di questa relazione può avere un duplice scopo :
- Esplicativo cioè comprende e ponderare gli effetti della variabile indipendente, sulla
variabile dipendente in funzione di un determinato modello teorico.
- Predittivo cioè individuare una combinazione lineare di variabili indipendenti per
prevedere in modo ottimale il valore assunto dalla variabile dipendente.
LA REGRESSIONE LINEARE
Varabile dipendete Y Effetto Variabile indipendente ( X₁, X₂, X₃, X₄,……,Xᵽ)
Le variabili, per poter essere inserite in un modello di regressione lineare semplice o multipla,
devono essere del seguente tipo:
- Variabili dipendente (Y): quantitativa
- Variabili indipendenti ( X₁, X₂, X₃, X₄,……,Xᵽ): qualitative
LA REGRESSIONE BINOMIALE (o semplice)
Nell’analisi della regressione semplice o bivariata abbiamo una sola variabile indipendente,
sulla quale “regredisce” la variabile dipendente. Si ipotizza che la variabile dipendente
“influenzi” o “predica” la variabile dipendente. L’analisi della regressione lineare semplice
individua quella retta che consente di prevedere al meglio, i punteggi nella variabile
dipendente a partire da quelli della variabile indipendente.
LA REGRESSIONE LINEARE MULTIPLICA
La regressione multipla rappresenta una generazione della regressione bivariata quando le
varibili indipendenti sono almeno due. Nella regressione multiplica abbiamo una variabile
dipendente che regredisce su almeno due variabili indipendenti. Le variabili per poter essere
inserite in un modello di regressione lineare multiplica, devono essere del seguente tipo:
- Variabile dipendente (Y): quantitativa
- Variabile indipendente ( X₁, X₂, X₃, X₄,……,Xᵽ): qualitative
Non si parla più di retta di regressione ma di piano di regressione.
5. Definizione della distribuzione binomiale o distribuzione bernoulliana 1
La distribuzione binomiale (o bernoulliana) consente di valutare la probabilità che una modalità
di evento, con probabilità individuale a priori, si verifichi in un determinato numero di volte,
entro un numero totale di eventi.
La variabile causale binomiale si costruisce a partire dalla nozione di esperimento causale
Bernoulliano, che consiste in un insieme di prove.
6. Decili, Percentili e Quartili
Una distribuzione di dati può essere misurata suddividendola in parti.
Le parti normalmente sono definite Quartili che si suddividono in Percentili, se la distribuzione
di dati è composta di cento parti uguali. Decili se la distribuzione di dati è composta di dieci
parti uguali.
Una categoria particolare di Quantili è rappresentata dai Quartili che rappresentano le più
usate misure di tendenza o posizione “Non centrali”. I quartili sono tre:
I Quartile (n+1)/4
II Quartile, definito anche Mediana (n+1)/2
III Quartile 3(n+1)/4
7. Diagramma a scatola e baffi (Box-Plot)
Il diagramma box-plot è composto dalla scatola che ha per estremi il I e il III quartile.
Il lato (“Baffo”) sinistro che va dal min al I quartile. Il lato destro che coincide con la distanza fra
il III quartile e il Max.
8. Curtosi e Indice di curtosi
Statisticamente curtosi sta per il livello di appiattimento di una curva rispetto a quella Normale
o Gaussiana. Nell’analisi del concetto di curtosi si possono distinguere tre tipi di forme di una
distribuzione unimodale simmetrica: LEPTOCURTICA quando essa si differenzia dalla forma
della distribuzione Normale in quanto presenta un eccesso di frequenza dei valori centrali e
quindi è più alta al centro.
MESOCURTICA quando essa coincide con la forma della distribuzione normale.
PLATICURTICA quando essa si differenzia dalla forma della distribuzione normale in quanto
presenta minore frequenza dei valori centrali e quindi è più bassa al centro.
9. Che cos’è la probabilità?
Secondo l’approccio classico la probabilità si definisce come il rapporto fra l’evento probabile e
tutti gli eventi possibili purché egualmente probabili. Secondo l’approccio frequenti sta oppure
secondo la concezione statistica la probabilità è espressa in termini quantitativi da un valore
empirico osservato: la frequenza relativa.
Secondo l’approccio soggettivista la probabilità è la misura che il ricercatore assegna a priori
ad un evento sulla base del suo grado di fiducia che lo stesso si verifichi.
10.Probabilità secondo l’approccio “booleano”
L’UNIONE tra due eventi E ed F conduce ad un evento risultante G che si verifica quando
almeno uno dei due eventi E ed F si verifica ( ovvero si verifica E, si verifica F o si verificano E
ed F). In simboli si rappresenta: E U F (si legge E o F oppure E unito a F).
L’INTERSEZIONE tra due eventi E ed F conduce un evento risultante G che si verifica se e solo
se si verificano contemporaneamente si E che F, ovvero se E e F formano il risultato della
prova. In simboli si rappresenta E ∩ F (si legge E e F oppure E intersecano a F).
La NEGAZIONE dell’evento E conduce ad un evento che si verifica quando non si verifica E e si
indica con Ẽ
Lo SPAZIO CAMPIONARIO rappresenta l’evento certo ( Ω = evento certo) e il suo complemento
l’evento impossibile (Ω = evento impossibile).
11.Probabilità condizionata
La probabilità condizionata è da ricercare al verificarsi di un altro evento di cui si conosce a
priori l’esito e che è collegato sia dal punto di vista logico che temporale. Per esempio si può
affermare di essere in presenza di una probabilità “condizionata” nel caso dell’estrazione 2
“senza ripetizione o senza remissione” di una pallina color verde, nella prima prova, dall’urna
contenente una sola pallina verde. La probabilità che nella seconda prova esca una pallina
verde è 0 in quanto l’evento è impossibile. Se l’evento E si è verificato, gli eventi elementari
che formano F devono essere inclusi anche in E, ovvero questi sono comuni a E ed F.
12.Correlazione
In statistica per correlazione si intende una relazione tra due variabili statistiche tale che a
ciascun valore della prima variabile corrisponda con una "certa regolarità" un valore della
seconda. diretta positiva
La correlazione si dice o quando variando una variabile in un senso anche l'altra
varia nello stesso senso (alle stature alte dei padri corrispondono stature alte dei figli).
indiretta inversa negativa
Si dice o o quando variando una variabile in un senso l'altra varia in
senso inverso (a una maggiore produzione di grano corrisponde un prezzo minore).
indici di
Il grado di correlazione fra due variabili viene espresso mediante i cosiddetti
correlazione.
Questi assumono valori compresi tra - 1 (quando le variabili considerate sono inversamente
correlate) e + 1 (quando vi sia correlazione assoluta cioè quando alla variazione di una
variabile corrisponde una variazione rigidamente dipendente dall'altra), ovviamente un indice
di correlazione pari a zero indica un'assenza di correlazione.
Due variabili indipendenti hanno sicuramente un indice di correlazione pari a 0, ma al contrario
un valore pari a 0 non implica necessariamente che le due variabili siano indipendenti.
Il livello di non correlazione (o di correlazione) di una variabile causale bidimensionale discreta
XY è misurato dal coefficiente di Bravais-Pearson che è calcolato come rapporto tra
la covarianza delle due variabili ed il prodotto delle loro deviazioni standard.
13.Definizione di distribuzione normale (o distribuzione di Gaussiana)
La distribuzione normale (o distribuzione di Gaussiana) è la distribuzione continua più
utilizzata in statistica. La distribuzione normale può essere utilizzata per approssimare
numerose distribuzioni di probabilità discrete.
14.Distribuzione di Poisson
La legge di distribuzione poissoniana è detta anche legge degli eventi vari, in quanto la
probabilità che l’evento si verifichi per ogni prova è bassa, mentre il numero di prove è molto
alto.
Nella pratica della ricerca essa sostituisce la distribuzione binomiale quando si assume che la
probabilità del verificarsi dell’evento P è minore di 0,05 e il n