Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
V
successione di numeri tra questi due valori) diventa più piccola al crescere di n. Si indica in questo
modo:
Per quanto riguarda la successione di variabili casuali è più complessa perché si tratta di un
elemento complesso che assume diversi valori con certe probabilità. Ricordiamo quindi:
Þ Convergenza in probabilità: consideriamo una sequenza di variabili , in cui la probabilità
V
che la distanza tra e X sia maggiore di (epsilon) converge a zero. Vuol dire che il limite
V
di questa probabilità tende a zero. Si dice che tende in probabilità a X. plim significa
V
convergenza/limite in probabilità.
Þ Convergenza in distribuzione: tende in distribuzione a X se la sua funzione di
V
ripartizione (quella di ) mano a mano che n cresce tende alla funzione di ripartizione di
V
F, che sarebbe la funzione di ripartizione di X.
Supponiamo di avere una sequenza di variabili casuali che sono t di Student, e dove n
(indice che descrive il pedice della successione) è uguale ai gradi di libertà, cioè che è
#
una t di Student con un grado di libertà, e è una t di Student con due gradi di libertà e
H
via così. Questa successione converge in distribuzione a X, dove la X è la distribuzione
normale. Si possono notare diverse curve, che sono le funzioni di ripartizione delle varie t
di Student con i vari gradi di libertà, e si può notare che le varie funzioni di ripartizione,
mano a mano che crescono i gradi di libertà, ci si avvicina sempre di più alla funzione di
ripartizione tratteggiata, ovvero quella normale. Questa successione quindi converge in
distribuzione alla distribuzione normale/Gaussiana. 25
Si parla di modellizzazione, supponiamo di voler studiare la popolazione, per esempio l’altezza
degli uomini in Italia, avendo una o più variabili. Fornendo un modello, mostro un insieme di
distribuzione di probabilità che è noto con determinati parametri. Per esempio, supponiamo di
utilizzare la variabile casuale normale/Gaussiana per modellare la variabile che vogliamo studiare.
Ricordiamo che la normale/Gaussiana è nota a meno di due parametri, ovvero e Il fatto di
.
cambiare il modello statistico prende il nome di model selection, ovvero selezione del modello.
Una volta scelto il modello dobbiamo fornire delle stime per i parametri che abbiamo, per farlo
interviene l’evidenza empirica, ovvero il campione. Possiamo dire che le misurazioni che facciamo
su un campione della popolazione, ovvero su una parte, e utilizziamo le informazioni ottenute da
tali misurazioni per inferire sull’intera popolazione, quindi capire e stimare quei parametri che mi
servono nel modello, il quale spiegherà e rappresenterà la realtà. Il campione può essere scelto in
vari modi, noi assumiamo però che il campione sia Bernoulliano, e che quindi le nostre unità siano
scelte in maniera casuale e con reinserimento, si cerca di selezionare un campione che sia il più
rappresentativo possibile della realtà. Le osservazioni saranno per noi i.i.d, ovvero (indipendent
identical distributed) indipendente identicamente distribuiti, cioè ogni elemento che comprende il
campione sarà indipendente e avranno tutti la stessa distribuzione. Per esempio, otteniamo un
istogramma, che è la rappresentazione grafica all’interno del nostro campione, dovremmo cercare
la curva normale che approssima meglio i nostri dati e quindi scegliamo i e più appropriati
possibili e quindi scegliamo la posizione di questa campana e la sua altezza, che ci permettono di
adattare meglio la curva alla realtà. Vogliamo studiare una variabile, la quale è descritta da una
variabile X, ovvero l’altezza degli uomini italiani. Estraiamo un campione e supponiamo che ogni
elemento del campione sia descritto da una variabile casuale, il campione è fatto di n elementi ed
è descritto dall’insieme di variabili casuali tra di loro indipendenti ed identicamente distribuiti.
Possiamo dire che è la variabile casuale che descrive l’esito del primo elemento nel campione.
#
Lo stesso vale per , e così via, per questo sono identicamente distribuite, inoltre sono
H .
indipendenti perché utilizziamo il modello Bernoulliano. Utilizzando la variabile normale vogliamo
stimare di conseguenza i parametri, e chiamiamo con (teta) un generico parametro che
Y
vogliamo stimare. Per farlo utilizziamo lo stimatore (il cappuccio indica il fatto di essere
V
stimatore e la n indica il fatto che sto usando un campione casuale dove la numerosità è n). Lo
stimatore per teta, campione di numerosità di n, è una funzione f di tutti gli elementi che
costituiscono il campione. È chiaro come la statistica interviene nella fase di stima perché il
campione viene utilizzato, attraverso unna funzione che dipenderà dal parametro che voglio
stimare, per costruire lo stimatore. A seconda della f che scelgo, posso ottenere stimatori diversi.
26
Per lo stesso parametro possono esserci stimatori diversi, per scegliere il migliore stimatore ci
serve definire delle proprietà degli stimatori:
1. In campioni finiti: sono caratterizzate da:
Correttezza: se per stimare il parametro che è un numero che non conosco,
,
o utilizzo uno stimatore che è una funzione del campione ed il campione è costituito
da variabili casuali, io a priori non so l’esito delle mie estrazioni. Possiamo dire che
Y è funzione del campione che è composto da variabili casuali quindi anche essa è
V
una variabile casuale, perché a seconda del campione che estraggo otterrò un
risultato piuttosto che un altro, quindi possiamo dire che lo stimatore è una
variabile casuale. In termini di variabili casuali posso scegliere il tipo di stimatore in
base alle due proprietà. Possiamo dunque dire che è stimatore per corretto se
V
la sua aspettativa è uguale al parametro che vuole stimare.
è un numero, è un parametro non noto, ma se l’aspettativa dello stimatore è
uguale a vuol dire che in media (aspettativa) lo stimatore restituisce il valore
,
Ciò significa che se io prendo tutti i campioni che posso estrarre, tutte le possibili
.
combinazioni, in corrispondenza di ogni campione calcolo il valore dello stimatore
che si chiama stima, se io faccio la media ottengo .
Efficienza: si tratta di cercare di ottenere qualcosa di efficiente dallo stimatore, si ha
o quando lo stimatore tende a concentrarsi ai veri valori del parametro, significa che
a parità di due stimatori che sono corretti e quindi entrambi in media assumono il
valore tendo a scegliere lo stimatore che si concentra maggiormente intorno al
,
vero valore del parametro, perché ho più probabilità di ottenere stime/valori
stimati più vicine al vero parametro. Ciò si definisce in maniera formale attraverso il
Y
means squared error (MSE). Qual è l’errore che, prendendo (cappuccio) e
V
Z Y
(tilde), possiamo dire che è più efficiente se il suo MSE è minore dell’MSE di
V V
Z .
V
Distribuzione nota: è importante quando si conosce la distribuzione dello stimatore.
o Possiamo dire che tale funzione sottostante tende alla normale standard.
2. Asintotiche:
1. Consistenza: per cui richiamiamo la convergenza. È una proprietà che assicura che
le stime sono via via più precise, mano a mano che aumenta la numerosità del
Z
campione. Significa che, se considero (cioè lo stimatore per il tilde indica il
,
V Z
fatto che sia uno stimatore), si dice che è consistente per se tende in
,
V
probabilità a che è il vero valore del parametro. Se richiamiamo la nozione di
,
convergenza, notiamo che indica il fatto che, all’aumentare di n (numerosità del
Z
campione) la distanza tra e diminuisce, infatti la probabilità di osservare
V
distanze maggiori di una quantità piccola scelta a piacere tende a zero. Questa
proprietà assicura che all’aumentare del numero del campione, il nostro stimatore
che intende stimare il vero parametro diventa via via più preciso.
27
2. Correttezza asintotica: uno stimatore potrebbe essere asintoticamente corretto,
quindi il limite della sua aspettativa potrebbe essere Dalla formula sottostante
.
notiamo che n è la numerosità del campione, che all’aumentare della numerosità
campionaria, lo stimatore fornirà dei valori più vicini a In media lo stimatore
.
assume il vero valore del parametro. Correttezza si dice anche non distorsione.
Lo stimatore potrebbe anche essere distorto, significa che la aspettativa è diversa
da potrebbe essere positiva se è maggiore di mentre negativa se fosse
, ,
inferiore a .
3. Efficienza asintotica;
4. Normalità asintotica.
Ci sono diversi modi per ottenere gli stimatori:
Þ Metodi dei momenti;
Þ Massima verosimiglianza;
Þ Least squares:.
Y
Se da un lato è lo stimatore che intende stimare il vero parametro, e fornisce delle stime per
V
che possono essere più o meno vicine al valore del parametro, una volta inseriti i numeri nel
campione ottengo la stima, quindi un numero per Esiste anche lo stimatore intervallare, cioè
.
esiste la possibilità di fornire non più un unico valore per ma una coppia di valori che definiscono
un intervallo, dentro il quale con una certa probabilità cade il vero valore del parametro. Scelta
una certa probabilità possiamo costruire due estremi, ovvero i due valori che definiscono
l’intervallo, all’interno del quale vi è con una certa probabilità (alfa), solitamente scelto paro al
5%, si tratta della probabilità di errore. 1- è il livello di confidenza, cioè, considerando di avere
Y Y
uno stimatore per e supponiamo che è corretto e la sua distribuzione è normale, quindi
,
V V
la sua aspettativa è mentre la sua varianza è sigma al quadrato teta n cappuccio. In questo
,
modo costruisco l’intervallo di confidenza che contiene il vero valore del parametro con
probabilità 1- allora dico che questa variabile casu