vuoi
o PayPal
tutte le volte che vuoi
Y
definizione cioè risolvendo l’integrale, ovviamente è una procedura possibile
ma può richiedere un certo lavoro perché richiede prima il calcolo della f (y)
Y
che abbiamo già visto e poi, una volta calcolato f (y) richiede il calcolo di un
Y
ulteriore integrale per ottenere il valore atteso di y.
Esiste una scorciatoia fornita dal seguente teorema:
Teorema
Data la variabile casuale X e la funzione di variabile casuale Y=g(X), il valore
atteso di Y lo si calcola come: E[Y]=E[g(x)]=
Vediamo alcune conseguenze di questo teorema:
·4 Prendiamo il momento di ordine 2 che per definizione è g(x)=
se ora vedo come se fosse la funzione e
pensando al teorema precedente, questa appena scritta è la formula
che mi permette di calcolare attraverso la scorciatoia il valore atteso di
dunque quindi posso reinterpretare le
definizioni dei momenti vedendole come la formula scorciatoia che mi
dà il valore atteso di una funzione di variabile casuale, tali funzioni di x
sono nel caso dei momenti, nel caso considerato visto che c’era
allora abbiamo E[ ]. Proprio per questo viene chiamato valore
quadratico medio perché è la media del quadrato della variabile
casuale.
Questo vale per tutti i momenti quindi e un punto
importante che stiamo vedendo è che attraverso questa proprietà
dell’operatore di aspettazione noi siamo in grado di trattare tutti i
momenti come se fossero delle medie, quindi se ho il momento di
ordine 3, io posso dire che tale momento di ordine 3 è il valore atteso
di .
Studiando le proprietà dell’operatore di aspettazione saremo in grado
di gestire i momenti di ogni ordine perché i momenti si riscrivono come
valori attesi di una opportuna potenza della variabile casuale X
Vediamo un esempio: sia Y=aX+b quindi una Y che dipende in maniera
lineare da X (in realtà dipende in maniera affine poiché sarebbe lineare se
fosse Y=aX), allora E[Y]=a*E[X]+b, in altri termini possiamo dire che
l’operatore di aspettazione E[.] è lineare
Dimostrazione:
Dato che g(x)=ax+b, allora E[Y]=E[aX+b]=
In maniera analoga di può dimostrare che il valore atteso della somma di due
funzioni di X è pari alla somma dei valori attesi cioè: E[g (x)+g (x)]=E[g (X)]
1 2 1
+E[g (X)] e questa è un’ulteriore conferma della natura lineare dell’operatore
2
di aspettazione.
VARIANZA E DEVIAZIONE STANDARD
Consideriamo il momento centrale del secondo ordine che è definito come:
è detta varianza della variabile casuale e si indica
con Var[X] oppure . La costante positiva è detta deviazione
standard. La deviazione standard in molti contesti è particolarmente utile
perché ha le stesse dimensioni della variabile casuale che stiamo studiando,
quindi se la variabile casuale è una grandezza che si esprime in metri,
anch’essa sarà in metri mentre la varianza è dimensionalmente un quadrato,
quindi a volte è difficile interpretare i risultati in termini di varianza.
Potremmo pensare di abbandonare la varianza e ragionare usando solo la
deviazione standard ma questo non si fa perché la varianza gode di proprietà
più semplici quando la si deve adoperare e si studiano funzioni di variabile
casuale e così via; quindi si usa la varianza ma quando poi si fa riferimento a
un problema fisico o ingegneristico è spesso raccomandabile esprimere i
risultati ottenuti in termine di deviazione standard perché sono più facilmente
interpretabili anche dimensionalmente
INTERPRETAZIONE DELLA VARIANZA
La varianza, per come è definita, può essere interpretata come il momento di
inerzia attorno al baricentro (x=m ) della distribuzione di massa, il momento
1
di inerzia serve a studiare le proprietà del movimento rotatorio intorno al
baricentro, il momento di inerzia è molto grande se la massa è lontana dal
baricentro, quindi se ci sono delle masse molto periferiche. Per quanto
riguarda le densità di probabilità, questo fatto vuol dire che se io ho due
densità di probabilità come le seguenti:
Nel primo caso abbiamo una densità di probabilità stretta attorno a m , nel
X
secondo caso invece abbiamo una densità di probabilità più larga rispetto a
m , quando la densità di massa è concentrata intorno al baricentro allora la
X
varianza sarà più piccola, quando invece la massa è dispersa più lontano dal
baricentro m la varianza sarà più grande. In questi grafici le croci potrebbero
X
rappresentare uno scatterplot unidimensionale, quindi se io vado a
raccogliere dei dati, eseguendo quindi delle realizzazioni della variabile
casuale, queste croci rappresentano i numeri che potrei ottenere, la cosa che
si nota è che se la varianza è piccola allora questi numeri sono addensati
attorno al baricentro, se invece la varianza è grande è possibile anche che le
realizzazioni producano dei numeri abbastanza distanti dai baricentri. La
varianza è quindi una misura della dispersione della densità intorno al suo
valor medio, se la densità è concentrata allora la varianza è piccola, se invece
la densità è molto dispersa avremo una varianza grande.
Osservazioni:
·5 Se prendiamo la formula che definisce la varianza ovvero: Var[X]=
potremo considerare il termine come se
fosse una funzione g(x)= ma sappiamo che è
la nostra scorciatoia per calcolare il valore atteso di una funzione di
variabile casuale, quindi possiamo scrivere che Var[X]=
. [Questa può essere
una sorta di dimostrazione]
Abbiamo di nuovo trovato che tramite la media del primo ordine
riusciamo a studiare anche i momenti centrali, avevamo già visto che
questo accadeva per i momenti ma la varianza è un momento centrale
ma come abbiamo appena visto anche la varianza si lascia scrivere
come l’aspettazione di una funzione della variabile casuale X.
Andiamo ora, come nel caso della media, a vedere come si può stimare
la varianza: immaginiamo di aver raccolto delle osservazioni e di voler
avere un’idea di qual è la varianza della densità di probabilità che le ha
generate, posso usare la seguente formula: dove
è la media campionaria, notiamo che prima della sommatoria non
ho 1/n ma 1/(n-1), in questo momento non riusciamo a dare
spiegazione di questo coefficiente perché dobbiamo ancora svolgere
alcuni argomenti prima di capire perché si usa n-1 e non n.
Consideriamo un esempio: Siano i dati 8, 12, 15, 17, 18 allora avremo
che
·6 Esiste una relazione che lega tra di loro il momento del primo ordine e i
due momenti del secondo ordine, il momento non centrale del secondo
ordine che si chiama valore quadratico medio e il momento centrale
del secondo ordine che si chiama varianza, la varianza è uguale al
valore quadratico medio meno la media al quadrato, cioè:
2 2
Var[X]=E[X ]-E[X] cioè
Dimostrazione: 2 2 12 2 12 12
Var[X]=E[(X-m ) ]=E[X -2 m X+ m ]=E[X ]-2 m E[X]+ m = m -2 m +
1 1 1 2
12 12 2 2
m = m - m =E[X ]-E[X]
2
·7 Se dovessimo calcolare la varianza di una trasformazione affine (quella
che di solito viene definita come lineare) otteniamo che questa è
2
uguale a: Var[aX+b]=a Var[X], il che ci fa vedere che l’operatore
varianza non è lineare
Dimostrazione: 2
Se Y=aX+b allora sappiamo che Var[Y]=E[(Y-E[Y]) ] quindi =E[(aX+b-
2 2 2 2 2 2 2
E[aX+b]) ]=E[(aX+b-a*E[X]-b) ]=E[a (X-E[X]) ]=a * E[(X-E[X]) ]=a *
Var[X]
Questo risultato ci stupisce perché ci sembra strano che calcolando la
varianza di aX+b ci dia come risultato qualcosa che non dipende da b,
in realtà se ci pensiamo è del tutto naturale perché la varianza ha a
che fare con una dispersione attorno al valore medio e ricordiamo che
quando abbiamo una trasformazione affine, il termine b ha a che fare
solo con le traslazioni rigide della densità di probabilità, quindi se
prendo la densità di probabilità e la faccio traslare aggiungendo o
togliendo un b, la dispersione intorno al baricentro rimane esattamente
la stessa perché la varianza è in qualche modo una nozione relativa al
baricentro quindi se mi muovo rigidamente, se la densità di probabilità
era di quelle “grasse” o di quelle “strette”, rimarrà rispettivamente
“grassa” o “stretta” e la sua varianza non cambia, quindi è
perfettamente corretto che il risultato appena visto non dipenda dalla
costante b.
MEDIA E VARIANZA DI UNA FUNZIONE DI VARIABILE CASUALE: FORMULE
APPROSSIMATE
Ci interessa avere delle formule semplici anche a costo di essere
approssimate, questo può avere diverse utilità, dal punto di vista
ingegneristico infatti il fatto di essere in grado di fare dei calcoli a mente o di
avere delle approssimazioni rapide è importante soprattutto nelle fasi
esplorative, quindi quando si analizza un problema, più si è capaci di afferrare
le relazioni e egli ordini di grandezza e più si possono evitare di intraprendere
strade che non portano da nessuna parte, è quindi importante capire quali
sino le strade sensate e quali invece non lo siano, per fare questo è quindi
importante riuscire a valutare al volo le cose anche con qualche margine di
errore.
Sia Y=g(X) dove X è una variabile casuale quindi anche Y lo è e mi interessa
sapere cosa vale il valore atteso di Y e la varianza di Y.
E’ facile rispondere a questa domanda se la funzione fosse una relazione
affine quindi del tipo Y=aX+b perché in questo caso abbiamo già ricavato
formule sia per la media che per la varianza, se però non siamo in questo
caso fortunato allora il valore atteso si può trovare attraverso la nostra
scorciatoia, la situazione è invece meno buona per la varianza perché non
esiste una formula paragonabile e sembra proprio che per la varianza ci
tocchi passare attraverso la densità di Y, quindi a partire dalla densità di X e
dalla funzione g mi calcolo la densità di Y e avendo questa densità vado a
calcolare la varianza che richiede anche il calcolo di un integrale.
Se cerchiamo delle formule approssimate e facili da calcolare vorremmo
trovare una strada ancora più veloce di quella appena detta, per avere delle
formule approssimate però ci vogliono delle ipotesi, l’ipotesi qualitativa che
facciamo è che la probabilità che la X esca da un intorno del suo valore
atteso, cioè che quando estr