Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
X Y
dalla densità di x tramite i seguenti passaggi:
()
= ;
∫
1. In primis si ricava
−∞
()
2. In seguito si ricava conoscendo y=g(x);
()
=
3. Infine si ricava .
Particolarmente significativo è, inoltre, il caso delle trasformazioni affini, per le
quali, partendo dalla trasformazione y=ax+b, si giunge facilmente alla relazione
−
()
= ( ).
| |
Quantili, media e varianza delle variabili aleatorie:
[0; 1]
Siano X una variabile aleatoria continua e e si supponga che
−1
().
sia iniettiva in un intorno di Si definisce quantile di ordine
( ) = .
della variabile X il valore tale che
Sia X una variabile aleatoria. Si definisce media o speranza di X il
numero E[X] tale che: (),
∑ è
∈
[] = +∞ (),
∫ è
{ −∞
La media di una variabile aleatoria gode, perciò, delle seguenti proprietà:
1. E[X] è il baricentro della densità di X;
2. Se f è simmetrica rispetto a t allora E[X] = t ;
X 0 0
+∞
[] () ()
= ;
∫
3. Data la trasformazione y=g(x), vale
−∞
Sia X una variabile aleatoria. Si definisce varianza di X il numero Var[X]
tale che:
∑( []) (),
− è
∈
[] [( []) ]
= − = +∞
( []) (),
∫ − è
{ −∞
La varianza di una variabile aleatoria è, perciò, un indice di quanto la densità
di tale variabile è dispersa e gode, inoltre, delle seguenti proprietà:
[] ≥ ;
1. [] =
2. solo se X è una variabile aleatoria costante;
[ ] [];
+ =
3.
[] [ ] []
= − ;
4. La densità gaussiana
()
= [− ( −
Sia X una variabile aleatoria continua con densità
√
) ]: tale densità prende il nome di densità gaussiana (o normale) e si indica
~(, ).
con Tale densità gode delle seguenti proprietà:
[] = ;
1.
;
2. Var[X]=
~[ + , ].
3. Data la trasformazione affine y=ax+b, avremo che
Considerando, ora, la terza proprietà, possiamo notare che, data la
~(, ):
= − ,
trasformazione affine risulterà tale distribuzione prende
il nome di distribuzione normale standardizzata, si indica con ed è
particolarmente rilevante dal punto di vista statistico in quanto i suoi valori sono
tabulati. Per di più, la distribuzione normale standardizzata gode di
un’importante proprietà, in quanto vale () (−)
= − ∀ e, di
conseguenza, possiamo anche concludere che, dato il quantile di ordine
= − .
per la variabile z, varrà − 2
~(, )
Oss: A questo punto, possiamo concludere che, data e due numeri
a<x<b
( ) =
a,b tali che a<b, è possibile calcolare la probabilità
a-μ x-μ b-μ a-μ
-μ
< <
( ) = ( ) − ( ).
σ σ σ σ σ
Esperimenti aleatori con più variabili
Spesso gli esperimenti aleatori coinvolgono più di una variabile ed è, perciò,
utile introdurre nuovi strumenti di calcolo per poter valutare ciò che avviene
quando sommiamo tali variabili in base al rapporto che intercorre tra
quest’ultime. [ ] []
+ = + []
Teo: Siano X, Y due variabili aleatorie. Allora e
[ ] [] [] (, ), (, ) [(
+ = + + 2 = −
[])( [])].
− ,…,X
Def: Siano X variabili aleatorie. Tali variabili si definiscono indipendenti
1 n
x x
( ) ( ) ( )
∈A ∧ … ∧ ∈A = ∈ ∙ … ⋅ ∈ ∀ , … ,
se .
1 1 n n 1 1 1
(, ) = .
Teo: Siano X, Y due variabili aleatorie indipendenti. Allora
,…,X [ ]
+ ⋯ + =
Corollario: Siano X variabili aleatorie. Allora
1 n
[ ] + ⋯ + [ ].
Prove di Bernoulli
Siano n prove ripetute tali che:
L’esito di ciascuna prova possa risultare
1. esclusivamente in un
successo o in un insuccesso; ∈
2. Ogni prova abbia una probabilità di risultare in un successo pari a
[; ];
L’esito di ciascuna prova sia completamente indipendente dall’esito
3. delle altre.
Riguardo tali prove possiamo, a questo punto, introdurre n variabili aleatorie
′
1, −
, = 1, … , ℎ = { .
′
0, −
Possiamo, per di più, introdurre un’ulteriore variabile aleatoria =
=1
∑
# = . Notiamo, dunque, che valgono le seguenti
considerazioni:
~(, )
∀;
[ ]
[ ] = = ( − );
e
[] [] ( );
= = −
e, essendo le indipendenti,
{, } [ ].
: … , → ;
La funzione densità è tale che
−
()
= ( ) ( − )
Teo: . Tale densità si definisce densità binomiale di
~(, ).
parametri n e p e si indica con ≈ +∞ ≈ 0
Oss: (Densità di Poisson): Nel caso in cui risulti e si dimostra
−
( )
≈ , = ≈ 1:
che tale densità prende il nome di densità di
! [] []
= = =
Poisson di parametro e si può notare che
( )
− ≈ ~().
(, ) ~(
~ ~(, ) = + +
Oss: Siano indipendenti, allora vale
). ()
, ~ ~() =
Analogamente, siano indipendenti, allora vale
2 2
~( )
+ ~( + ). , ~( , )
Infine, siano indipendenti, allora
= + ~( + , + ).
vale
Campione aleatorio (
, , … , ∈
Siano variabili aleatorie indipendenti (cioè tali che
1 2 1
) ( )
, … , ∈ = ∈ ∙ … ∙ ( ∈ )) ed identicamente distribuite
1 1 1
(cioè caratterizzate dalla stessa densità). Allora tale successione di variabili
aleatorie prende il nome di campione aleatorio. +⋯+
̅
=
Def: Si definisce media campionaria la quantità , che risulta
essere un’ulteriore variabile aleatoria. [ ]
= [ ] =
Oss: Siccome le sono identicamente distribuite, varrà
̅
: ∀, ∈
e, mentre e non è generalmente misurabile, è, invece, una
variabile aleatoria che può essere calcolata.
1 1 1
=1 =1 =1
̅ ̅
[ ] [ ]
∑ ∑ ∑
= [ ] = [ ] = = [ ] =
Oss: e
1
=1
∑ [ ] = .
2
, , … ,
Teo (legge dei grandi numeri): Siano variabili aleatorie i.i.d.. Allora
1 2
(|̅ ̅
)
|
∀ > 0 lim − > = 0, →
ossia in probabilità.
→+∞
̅ =
( ), ([, ])
∑
≔ 1 = =
Oss: Detta allora e, siccome anche
[,]
([, ])
→ [ ]
le sono i.i.d., vale in probabilità. Poiché, infine, risulta
~(1, ), ( [, ]) ( ) ([, ])
= ∈ = , →
∫
con avremo che
()
∫ in probabilità.
Teo (disuguaglianza di Chebyshev): Sia Z una variabile aleatoria con densità
2
[] []
= = > 0,
qualsiasi tale che e . Allora, fissato vale
(| )
|
− > ≤ .
, , … ,
Teo (del limite centrale): Siano variabili aleatorie i.i.d.. Allora, se n
1 2
̅
−
̅
≈ ( , ), lim ( < ) = Φ().
è grande vale ossia
2
→+∞
√
Oss: ;