Pasquale Legato - Analisi Probabilistica, settembre 2006
Distribuzione congiunta e distribuzione marginale
Il concetto di distribuzione congiunta si pone in due casi:
1) quando si voglia definire una successione di variabili aleatorie su di uno stesso
spazio dei risultati, al fine di rappresentare la successione delle durate di uno
stesso fenomeno che si ripete nel tempo;
2) quando si voglia considerare uno spazio dei risultati che sia lo spazio "prodotto"
di coppie (o n-ple) di realizzazioni di variabili aleatorie che rappresentano
"cose" diverse ma logicamente dipendenti fra di loro.
Esempio tipico del caso 1) :
la successione dei periodi di attività e/o di ozio di una certa risorsa.
Primo esempio per il caso 2):
il numero di utenti già in attesa di essere "processati" da una risorsa e la durata
dell'attesa di un utente che si aggiunge a quelli.
Secondo esempio per il caso 2):
i tempi al guasto di due componenti soggetti sia a cause individuali di guasto sia
a cause comuni di guasto.
Fissando l'attenzione sul secondo esempio del caso 2), è evidente che lo spazio dei
{ ( ) }
≤ < ∞ ≤ < ∞
t , t | 0 t , 0 t e che l'ipotesi di cause comuni di
risultati è dato da 1 2 1 2
guasto si traduce in una dipendenza logica fra i tempi al guasto (X1 e X2) dei due
≤ ≤
" X t " " X t "
componenti. Dunque, i due eventi e , non sono certamente
1 1 2 2
disgiunti e le rispettive probabilità non possono essere misurate con due funzioni di
distribuzione definite separatamente, come modelli primitivi dell'analisi probabilistica.
Si definisce, allora, la funzione di distribuzione congiunta:
= ≤ ≤ ≤ < ∞ ≤ < ∞
F ( t , t ) P
( X t , X t ) t , t
0 0
,
ˆ
X , X 1 2 1 1 2 2 1 2
1 2 47
Pasquale Legato - Analisi Probabilistica, settembre 2006
come modello primitivo dell'analisi probabilistica degli eventi d'interesse sullo spazio
( ) ( )
≡ ≤ ≤
t , t X t , X t
dei risultati elementari: già individuato.
1 2 1 1 2 2
La distribuzione congiunta deve avere tutte le proprietà di una distribuzione e può
essere ottenuta a partire dalla definizione preliminare di una funzione densità congiunta,
f, alla seguente maniera: t t
1 2
( ) ( )
∫ ∫
=
F t , t f u , u du du
X X X X
1 2 1 2 2 1
1 2 1 2
= =
u u
0 0
2
1
≤ ≤
Gli eventi e sono di particolare interesse perché rappresentano la
" X t " " X t "
1 1 2 2
durata del funzionamento di un singolo componente a prescindere dallo stato in cui si
trova l'altro. La probabilità di questi eventi d'interesse è misurata dalle rispettive
funzioni di distribuzione marginale: ( m ) = ≤ =
F ( t ) P
( X t ) i 1,
2
ˆ
i i i
X i
Le funzioni di distribuzione marginale si ricavano a partire dalla distribuzione
X
congiunta, come "mostrato" qui di seguito per la :
1
dalle relazioni: ( ) ( ) ( )
≤ ≡ ≤ ∩ < ∞ = ≤ ∩ ≤
X t X t X lim X t X t
1 1 1 1 2 1 1 2 2
→ ∞
t 2
risulta
( ) ( ) ( )
≤ = ≤ ≤ = ≤ ≤
P X t P lim X t , X t lim P X t , X t
1 1 1 1 2 2 1 1 2 2
→ ∞ → ∞
t t
2 2
e quindi ( m ) =
F ( t ) lim F ( t , t )
1 1 2
X , X
X 1 2
→ ∞
1 t 2
analogamente ( m ) =
F ( t ) lim F ( t , t )
2 X , X 1 2
X 1 2
→ ∞
2 t
1
Qualora sia data solo la densità congiunta, la distribuzione marginale della X1 si ottiene
dalla seguente: 48
Pasquale Legato - Analisi Probabilistica, settembre 2006
∞
t
1
( ) ( ) ( )
∫ ∫
= = (*)
lim F t , t f u , u du du F t
X X 1 2 X X 1 2 2 1 X 1
1 2 1
1 2
→ ∞
t 2 = =
u 0 u 0
2
1
e in maniera analoga quella della X2.
Infine, osservando la (*) si conviene di definire densità marginale della X1 la seguente
funzione: ∞
( ) ( )
∫
= < ∞
f u f u , u du
ˆ
X X X
1 1 2 2
1 1 2
=
u 0
2
che deve avere tutte le proprietà di una funzione densità. Discorso analogo per la X2.
Variabili aleatorie indipendenti
Se e solo se risulta: ( m ) ( m ) ≤ < ∞ ≤ < ∞
= t , t
0 0
F ( t , t ) F ( t ) F ( t ) , 1 2
X , X 1 2 1 2
X X
1 2 1 2
ovvero ( m ) ( m )
=
f ( t , t ) f ( t ) f ( t )
ˆ ,
X , X 1 2 1 2
X X
1 2 1 2
allora le variabili aleatorie e sono dette indipendenti.
X X
1 2
Particolarizzazione delle formule al caso discreto
Nel caso in cui si abbia a che fare con variabili aleatorie discrete, ad esempio N e K
indicanti, rispettivamente, il numero di oggetti presenti in due buffer comunicanti
secondo uno schema produttore-consumatore sono utili le seguenti:
{ }
= = = = =
P ( n , k ) Pr ob N n , K k n 0 ,
1
,
2 , ... ; k 0 ,
1
,
2 , ... ;
,
ˆ
N ,
K ∞ l
∑ ∑
( m ) ( m )
( m ) = =
P ( n ) P ( n , k ) C ( l ) P ( n )
ˆ N ,
K N N
N = =
n
k 0 0
lasciate all'interpretazione dello studente, per esercizio.
49
Pasquale Legato - Analisi Probabilistica, settembre 2006
Distribuzione della somma di variabili aleatorie indipendenti
Si vuole determinare la funzione di distribuzione della variabile aleatoria definita come
somma di altre due: = + ,
X X X
ˆ 1 2 {
( ) }
≥ ≥
sullo spazio dei risultati dato dalle coppie reali non negative: x , x ; x , x
0 0
1 2 1 2
Considerato che ( ) { }
= + ≤
F t Pr X X t
ˆ
X 1 2
occorre integrare la densità congiunta, , sull'area mostrata in figura:
f X X
1 2
x2
t x1+x2=t
t
area x1
Ricordando le regole d'integrazione, si scrive subito:
− −
t x t x
t t
2 1
( ) ( ) ( )
∫ ∫ ∫ ∫
= ≡
F t f x , x dx dx f x , x dx dx
X X , X X , X
1 2 1 2 1 2 2 1
1 2 1 2
= = = =
x x x x
0 0 0 0
2 1 1 2
e X sono variabili aleatorie indipendenti si ha:
Da qui, se X
1 2
− −
t x t x
t t
1 1
( ) ( )
∫ ∫ ∫ ∫
=
f ( x , x )
dx dx f x dx f x dx
X , X X X
1 2 2 1 2 2 1 1
1 2 2 1
= = = =
x x x x
0 0 0 0
1 2 1 2
t ( ) ( )
∫
= −
F t x f x dx
X X
1 1 1
2 1
=
x 0
1
ovvero: t ( ) ( )
∫
= −
F t x f x dx
X X
2 2 2
1 2
=
x 0
2
ovvero la convoluzione delle funzioni densità dell'una con la distribuzione dell'altra.
50
Pasquale Legato - Analisi Probabilistica, settembre 2006
Convoluzione di esponenziali identiche
Si supponga di avere la collezione { X , X , ...,X } di variabili aleatorie indipendenti ed
1 2 n ( ) −λ
t
= − =
identicamente distribuite con legge esponenziale, Allora:
F t 1 e i 1
,
2 ,..., n .
X i
( ) −
1
n
λ
t
( ) λ
− t
λ
= = + + +
f t e , dove X X X ... X
ˆ
( )
X 1 2 n
−
n !
1 = + + + ⇒ = +
Infatti, ragionando per induzione e ponendo: Y X X ... X X Y X
ˆ −
1 2 n 1 n
( ) − 2
n
λ
t
( ) λ
− t
λ
=
si ipotizza la seguente: f t e
( )
Y − 2
n !
t
( ) ( ) ( )
∫
= − = + + +
e si verifica che f t f t u f u du ( perché X X X ... X )
ˆ
: 1 2 n
X X Y
n
= 0
u ( )
( ) − −
t n 2 n 1
λ λ
u t
( )
λ λ λ
− − − −
∫ t
( t u ) u
λ λ λ
= =
e e d u e ( )
( )
− −
n 2 ! n 1 !
= 0
u
La funzione di distribuzione si ricava integrando la densità:
( ) −
t n 1
λ
u
( ) ( )
λ
−
∫ u λ
=
F t e d u
( )
X − 1
n !
0 ( )
( ) ( ) ( ) +
t t
n n n 1
n
λ λ λ λ
t u t u
( )
λ λ λ λ
− − − −
∫ ∫
t u t u
λ
= + = +
e e d u e e d ( )
+
n
! n
! n
! n 1 !
0 0
( ) ( ) ( )
+ +
t
n n 1 n 2
λ λ λ
t t u
λ λ λ
− − −
∫
t t u =
= + +
e e e d ...
( ) ( )
+ +
1 2
n
! n ! n !
0
( )
∞ i
λ
t
∑
λ
− t
=
... e i
!
=
i n
e poiché ( ) ( )
∞ −
i i
n 1
λ λ
t
t ∑
∑ λ λ
− t
t
= = −
F ( t ) e
e si ottiene: 1
X i
!
i
! =
=0 i 0
i (di ordine n).
che è conosciuta come distribuzione di Erlang
51
Pasquale Legato - Analisi Probabilistica, settembre 2006
ILLUSTRAZIONE DEL MODELLO DI ERLANG (1)
Leggi di Erlang, con e n=2.
λ=2
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0 0 1 2 3 4 5 6 7 8
Distribuzione Densità
Leggi di Erlang, con e n=8.
λ=2
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0 0 1 2 3 4 5 6 7 8
Distribuzione Densità
52
Pasquale Legato - Analisi Probabilistica, settembre 2006
ILLUSTRAZIONE DEL MODELLO DI ERLANG (2)
Leggi di Erlang, con e n=4.
λ=2
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0 0 1 2 3 4 5 6 7 8
Distribuzione Densità
Leggi di Erlang, con e n=4.
λ=4
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0 0 1 2 3 4 5 6 7 8
Distribuzione Densità
53
Pasquale Legato - Analisi Probabilistica, settembre 2006
Applicazione della legge di Erlang in Affidabilità
Si consideri un sistema composto da "n" componenti, di cui uno è il componente attivo
e gli altri "n-1" sono di riserva: in caso di malfunzionamento del componente attivo, un
commutatore permette di attivare la riserva, al posto del componente attivo.
Sotto le seguenti ipotesi:
1. la commutazione riesce sicuramente;
2. la commutazione si realizza in un tempo trascurabile ;
i componenti sono identici e non riparabili;
3. λ
la legge comune di guasto è esponenziale di parametro ;
4. λ
il "tempo al guasto" del sistema segue la legge di Erlang di ordine n e di parametro ,
Dunque: ( )
− i
n 1 λ
t
∑
λ
− t
=
R
( t ) e i
!
=
i 0
Affidabilità di sistema con un componente attivo e n-1 di riserva
(modello di Erlang)
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0 0 0,25 0,5 0,75 1 1,25 1,5 1,75 2 2,25 2,5 2,75 3
tempo/MTTF
n=1 - 0 di riserva n=2 - 1 di riserva n=3 - 2 di riserva
n=4 - 3 di riserva n=5 - 4 di riserva n=6 - 5 di riserva
54
Pasquale Legato - Analisi Probabilistica, settembre 2006
Media e varianza
In precedenza è stata definito il valore atteso della variabile aleatoria X, ed è stato
indicato con E[X].
di una variabile aleatoria X è definita come:
La varianza [ ]
≡ − 2
VAR
[ X ] E ( X E
[ X ])
La precedente espressione risulta pari a:
[ ]
= − + = = −
2 2 2 2
VAR
[ X ] E X 2 XE
[ X ] E
[ X ] ... E
[ X ] E
[ X ]
Con riferimento ad una coppia di variabili aleatorie continue, X e Y, allo spazio delle
{ }
( ) 2
∈ ℜ ≤ < ∞ ≤ < ∞
x , y | x , y
0 0 e ad una generica funzione
realizzazioni congiunte o della g e si indica con E[g(X,Y)] il
delle due, g(X,Y), si definisce valore atteso media
valore finito (quando esiste) del seguente integrale doppio:
∞ ∞
[ ] ( )
∫ ∫
= < ∞
E g ( X ,
Y ) g ( x , y ) f x , y dy dx
ˆ X X
1 2
= =
x 0 y 0
Riportata al caso di una coppia di variabili discrete, N e K, con lo spazio delle
{
( ) }
= = e la generica funzione
realizzazioni congiunte n , k | n , , ,... , k , , ,...
0 1 2 0 1 2
g(N,K), la definizione corrispondente è:
∞ ∞
[ ] ∑ ∑
= < ∞
E g ( N , K ) g ( n , k ) P ( n , k )
ˆ N ,
K
= =
n k
0 0
Formule utili
Per variabili aleatorie continue sono valide le seguenti relazioni, che possono essere
riscritte anche per variabili discrete:
[ ] [ ] [ ]
+ = +
E X Y E X E Y (proprietà di additività)
[ ] [ ]
+ = +
E cX d cE X d ( e costanti arbitrarie )
c d
e aggiungendo l'ipotesi di indipendenza
[ ] [ ] [ ]
=
E X Y E X E Y (proprietà di moltiplicatività)
55
Pasquale Legato - Analisi Probabilistica, settembre 2006
Le precedenti rimangono valide passando da due a "n" variabili.
La varianza della somma di due variabili aleatorie risulta:
[ ]
[ ] [ ]
(
( ) ) 2
+ = + − +
VAR X Y E X Y E X Y
ˆ [ ]
[ ] [ ]
(
( ) ) 2
= + − −
E X Y E X E Y
[ ]
[ ] [ ] [ ] ]
[
( ) ( ) ( )
( )
2 2
= − + − + − −
2
E X E X Y E Y X E X Y E Y
[ ] [ ]
[ ] [ ] [ [ ] [ ] ]
) ( ) ( )
( )
( 2 2
= − + − + − −
2
E X E X E Y E Y E X E X Y E Y
[ ] [ ] [ [ ] [ ] ]
( )
( )
= + + − −
VAR X VAR Y E X E X Y E Y
2
56
Pasquale Legato - Analisi Probabilistica, settembre 2006
Modulare la varianza attorno alla stessa media
X
Sia , la v.a. che rappresenta la durata di un fenomeno e ipotizziamo di conoscere solo
[ ]
la durata media: , e di non avere informazioni sulla varianza. Di solito scegliamo
E X
di rappresentare la durata di quel fenomeno in base ad una legge esponenziale di
[ ]
parametro pari al reciproco di .
E X [ ] [ ]
2
=
Così facendo, implicitamente, adottiamo una varianza che è: VAR X E X
Adesso si farà vedere che possiamo fare di meglio!
Pensiamo alla X come: ( )
λ
= + + + ≈ =
X X X X X exp i ,..., n
con 1 ( anche indipendenti )
ˆ K
1 2 n i 1
[ ] [ ]
= =
E, sapendo che: E X n E X n
i λ 1
[ ] [ ]
= =
VAR X n VAR X n
i 2
λ
Osserviamo che, ponendo: 1
λ = n
ˆ [ ]
E X [ ]
E X
1
[ ] = =
riusciamo a mantenere lo stesso valore medio: E X n n
λ n
ma a modificare la varianza: [ ] [ ]
2 2
E X E X
[ ] = =
VAR X n 2 n
n
rispetto al valore che si otterrebbe rappresentando
la X con un'unica legge esponenziale.
Usando "n" come parametro di nostra scelta, possiamo far diminuire quanto vogliamo la
varianza (rispetto a quella originariamente prevista dalla legge esponenziale).
Più precisamente, passiamo ad una rappresentazione del fenomeno basata su una
"opportuna" distribuzione di Erlang di ordine "n", che cambia forma al crescere di "n",
però mantiene sempre la stessa media.
Dunque la chiameremo Legge di Erlang MODULATA.
57
Pasquale Legato - Analisi Probabilistica, settembre 2006
Densità di Erlang "modulata"
1,8
1,6
1,4
1,2
1
fx(t) 0,8
0,6
0,4
0,2
0 0 0,25 0,5 0,75 1 1,25 1,5 1,75 2 2,25 2,5
t
n=1 n=2 n=4 n=8 n=16
ESEMPIO
Si supponga che un componente, una volta guasto, possa essere riparato secondo un
processo di riparazione che si compone di quattro fasi in sequenza. La durata media
dell'intero processo è stimata in 2 unità di tempo e non si hanno informazioni sulle
durate parziali medie delle singole fasi: potrebbero corrispondere ciascuna a 0.5 unità di
tempo.
Proporre una funzione densità per la variabile aleatoria "durata del processo di
riparazione" e calcolare la probabilità che una riparazione duri non più di 3 unità di
tempo.
Rappresentare con un grafico in Excel la suddetta densità e discutere della differenza di
andamento in confronto ad una densità esponenziale caratterizzata dalla stessa media. E
cosa si può dire a proposito della varianza? 58
Pasquale Legato - Analisi Probabilistica, settembre 2006
Distribuzione condizionata
Date due variabili aleatorie X e Y, con Y continua, la funzione di distribuzione
viene introdotta per misurare la probabilità dell'evento
condizionata F ( y / x )
Y / X
≤ =
" Y y / X x
" . Per proporre una definizione formale che si riferisca al caso in cui la
X è una variabile aleatoria continua con funzione di distribuzione ottenuta integrando la
densità, si può pensare all' evento condizion
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
-
Analisi probabilistica e teoria delle code - prova luglio 2007
-
Analisi strumentale
-
Analisi matematica
-
Analisi complessa