vuoi
o PayPal
tutte le volte che vuoi
DISTRIBUZIONI DI VARIABILI ALEATORIE
Distribuzione di Bernoulli: si usa per le v.a. binarie o anche dicotomiche, cioè
che possono assumere valore e dove il successo si verifica quando
= 1 = 0,
assume il valore 1, mentre l’insuccesso si verifica quando assume il valore 0.
( ) (1 )
= = −
()
=
() (1 )
= −
Distribuzione Binomiale: si tra a di un’estensione del modello di Bernoulli,
basato sul numero di successi di prove di Bernoulli indipenden . Per capire
che si tra a della distribuzione Binomiale troveremo esercizi del po estrazione
con reinserimento, dove = numero di prove di Bernoulli, = probabilità di
successo, = successi da osservare.
( ) (1 )
= = −
()
=
() (1 )
= −
Proporzione di successi: anche de a “media campionaria” è una media dei
successi, ha una distribuzione stre amente collegata alla binomiale poiché il
numeratore stesso ha distribuzione binomiale, mentre il denominatore è una
costante. ∑ num. di successi
= = =
num. di prove
()
= (1 )
−
()
=
In par colare la legge dei grandi numeri afferma che all’aumentare delle prove
di Bernoulli, si avrà una s ma sempre più precisa della probabilità dei successi. 4
Distribuzione Ipergeometrica: si applica quando si hanno estrazioni senza
reinserimento o nel caso di estrazioni in blocco, per cui avremo even
dipenden , dove i parametri sono = dimensione della popolazione,
= successi, = dimensione del campione
−
∙
−
( )
= =
()
= −
() (1 )
= − ∙ −1
La distribuzione Ipergeometrica differisce infa dalla distribuzione Normale
proprio per quest’ul mo membro all’interno del calcolo della varianza, il quale
può essere scomposto come: −
≅ 1−
−1
Distribuzione Poisson: si usa sempre per le discrete, ma a differenza della
distribuzione Binomiale ha un dominio illimitato ed un solo parametro .
∙
( )
= = !
()
=
()
=
DISTRIBUZIONI DI PROBABILITÀ CONGIUNTE
( )
= = ; =
Distribuzione di probabilità marginali: si calcolano sommando le singole
probabilità congiunte rispe o al dominio della variabile opposta.
= = 5
COVARIANZA
Misura la forza della relazione lineare tra due variabili; se sono indipenden la
covarianza sarà nulla, ma se la covarianza è nulla non è de o che le due variabili
siano indipenden . = 0 ⟼ non c è relazione lineare
> 0 ⟼ relazione lineare positiva
< 0 ⟼ relazione lineare negativa
FUNZIONI DI DENSITÀ DI PROBABILITÀ
Nelle distribuzioni per variabili aleatorie con nue la si chiamerà .
( ) ( )
( )
Proprietà: ( ) ≥ 0 ( ) = 1
FUNZIONI DI RIPARTIZIONE DI PROBABILITÀ
Esprime la probabilità che ≥ 0.
() ( )
=
() ( ) ( )
= −
Distribuzione Uniforme: è la distribuzione di probabilità che assegna la stessa
probabilità a tu gli intervalli di uguale ampiezza.
Distribuzione Normale: si usa per variabili con nue e ha una forma
campanulare; è simmetrica e moda, media e mediana coincidono. Ha dominio:
.
(−∞; +∞) 6
( )
1
( ) =
√2
()
=
()
=
Approssimazione della Binomiale alla Normale: si ha quando il campione
aumenta e diventa complessa usare il calcolo della Binomiale; quindi
verifichiamo che la varianza sia maggiore di 9.
() (1 )
= − > 9
U lizziamo la standardizzata: ≤
()
= =
() (1 )
= = −
Distribuzione Chi-quadrato : si usa per le variabili aleatorie con nue con
dominio Non è simmetrica ed è cara erizzata dal parametro che
[0; +∞).
sono i gradi di libertà.
()
=
()
= 2
Distribuzione di Fisher-Snedecor: dipende da due parametri , non è
(, )
simmetrica ed ha dominio È il rapporto tra due Chi-quadrato divise per
[0; +∞).
i rispe vi gradi di libertà.
=
,
Distribuzione T di Student : ha una forma simile alla Normale, ma ha le code
“più pesan ”. 7
se
()
= 0 > 1
se
()
= > 2
POPOLAZIONE
Insieme degli ogge di studio (parametri di = quan tà fisse che possono
essere s mate, non sono variabili aleatorie).
CAMPIONE
So oinsieme della popolazione che serve ad o enere risulta sta s ci più
precisi (sta s che campionarie).
LOGICA DEL CAMPIONAMENTO
Si sceglie un campione casuale, quindi le variabili aleatorie che lo compongono
saranno indipenden e iden camente distribuite. Ogni modalità ha la stessa
distribuzione del cara ere .
STIMATORE DI
È una funzione di da che serve a s mare il parametro Può essere distorto
.
(quando il valore a eso dello s matore è diverso dal valore del parametro) o
non distorto (quando il valore a eso dell’errore di s ma è nullo − = 0).
TEOREMA DEL LIMITE CENTRALE
Per valutare se l’ampiezza di sia tale da poter parlare di media campionaria
normale bisogna vedere quanto la popolazione sia vicina alla Normalità.
Regola pra ca prudenziale minima: = 25. 8
DISTRIBUZIONE CAMPIONARIA
Distribuzione di tu i possibili valori di una sta s ca o enu da campioni della
stessa ampiezza estra dalla medesima popolazione.
VARIANZA NOTA E NON NOTA
Se la varianza della popolazione è nota, si può usare la standardizzata.
̅ −
= ⁄
√
Se la varianza della popolazione non è nota, useremo tramite la T di
student. ̅ −
( )
− ̅ =
= ⁄
√
−1
Ve ore aleatorio: parliamo del nostro campione .
FUNZIONE DI COMBINAZIONE LINEARE
= ∙
= , quando = 1
1 se le variabili sono iid-x (media campionaria)
= , quando =
()
= ∙ () 9
ERRORE QUADRATICO MEDIO
Serve a valutare le proprietà di uno s matore puntuale di .
= −
= +
PROPRIETÀ ASINTOTICHE
Se ne parla quando → ∞.
non distorsione asinto ca = la distorsione è nulla quando
o ℎ → ∞.
se lo s matore è non distorto, quando con nua ad essere
→ ∞,
non distorto;
se lo s matore è distorto, quando la sua distorsione
→ ∞,
diminuisce fino a diventare 0.
STATISTICA SUFFICIENTE
Se è capace di rappresentare in maniera sinte ca l’informazione della
popolazione contenuta nel campione.
FUNZIONE DI VEROSIMIGLIANZA
È una funzione del parametro data dalla , ed è uguale alla funzione di
densità congiunta delle dato
.
(| ) ( )
, … , = , … , |
Poiché le sono iid-x, scriveremo che
(| ) ( )
, … , = | 10
Metodo della massima verosimiglianza: serve per trovare gli s matori che
massimizzano la funzione di verosimiglianza.
= arg max ;
∈
Ma per semplificare il calcolo si preferisce massimizzare la funzione di
log-verosimiglianza. ; = log ;
Proprietà degli s matori di max verosimiglianza:
① si dirà che è lo s matore di massima verosimiglianza di se considero
una funzione inie va (invarianza);
② se è una sta s ca sufficiente per allora è una funzione di
, ;
③ se esiste uno s matore corre o di pienamente efficiente, si o ene dal
metodo della massima verosimiglianza;
④ lo s matore di massima verosimiglianza è consistente, ha distribuzione
asinto ca gaussiana ed è pienamente efficiente.
DA COMPLETARE
STIMA PUNTUALE PER INTERVALLI DI CONFIDENZA (IC)
Una “s ma puntuale” è cara erizzata da un unico valore, un “intervallo di
confidenza” sarà un insieme di valori e fornisce informazioni circa la variabilità; e
la s ma dell’intervallo perme e di quan ficare l’incertezza.
Il livello di confidenza di indica con e indica quante volte il parametro
(1 )
−
cade nell’intervallo scelto.
IC per (~, nota):
̅ −
=
~ ; ⁄
√
dove e sono i valori cri ci che indicano il margine d’errore.
−
⁄ ⁄ 11
= ̅ ± ⁄ √
Vi è un trade off in quanto un’ampiezza maggiore dell’IC dà più certezza, ma i
da presen nell’IC aumentano; mentre un’ampiezza minore dell’IC toglie
certezza, ma aumenta la qualità dell’informazione.
IC per (~, non nota):
Useremo la T di Student, dove i valori cri ci saranno e ,
−
⁄ ⁄
; ;
per cui
= ̅ ± ⁄
; √
IC per (~):
( )
Useremo la Chi-quadrato, dove = ~
( 1) ( 1)
− −
= ;
⁄ ⁄
; ;
TEST D’IPOTESI
È una regola a raverso cui si decide se acce are o meno l’ipotesi sulla base
di un campione casuale . Su