Estratto del documento

Pasquale Legato - Analisi Probabilistica, settembre 2006

Distribuzione congiunta e distribuzione marginale

Il concetto di distribuzione congiunta si pone in due casi:

1) quando si voglia definire una successione di variabili aleatorie su di uno stesso

spazio dei risultati, al fine di rappresentare la successione delle durate di uno

stesso fenomeno che si ripete nel tempo;

2) quando si voglia considerare uno spazio dei risultati che sia lo spazio "prodotto"

di coppie (o n-ple) di realizzazioni di variabili aleatorie che rappresentano

"cose" diverse ma logicamente dipendenti fra di loro.

Esempio tipico del caso 1) :

la successione dei periodi di attività e/o di ozio di una certa risorsa.

Primo esempio per il caso 2):

il numero di utenti già in attesa di essere "processati" da una risorsa e la durata

dell'attesa di un utente che si aggiunge a quelli.

Secondo esempio per il caso 2):

i tempi al guasto di due componenti soggetti sia a cause individuali di guasto sia

a cause comuni di guasto.

Fissando l'attenzione sul secondo esempio del caso 2), è evidente che lo spazio dei

{ ( ) }

≤ < ∞ ≤ < ∞

t , t | 0 t , 0 t e che l'ipotesi di cause comuni di

risultati è dato da 1 2 1 2

guasto si traduce in una dipendenza logica fra i tempi al guasto (X1 e X2) dei due

≤ ≤

" X t " " X t "

componenti. Dunque, i due eventi e , non sono certamente

1 1 2 2

disgiunti e le rispettive probabilità non possono essere misurate con due funzioni di

distribuzione definite separatamente, come modelli primitivi dell'analisi probabilistica.

Si definisce, allora, la funzione di distribuzione congiunta:

= ≤ ≤ ≤ < ∞ ≤ < ∞

F ( t , t ) P

( X t , X t ) t , t

0 0

,

ˆ

X , X 1 2 1 1 2 2 1 2

1 2 47

Pasquale Legato - Analisi Probabilistica, settembre 2006

come modello primitivo dell'analisi probabilistica degli eventi d'interesse sullo spazio

( ) ( )

≡ ≤ ≤

t , t X t , X t

dei risultati elementari: già individuato.

1 2 1 1 2 2

La distribuzione congiunta deve avere tutte le proprietà di una distribuzione e può

essere ottenuta a partire dalla definizione preliminare di una funzione densità congiunta,

f, alla seguente maniera: t t

1 2

( ) ( )

∫ ∫

=

F t , t f u , u du du

X X X X

1 2 1 2 2 1

1 2 1 2

= =

u u

0 0

2

1

≤ ≤

Gli eventi e sono di particolare interesse perché rappresentano la

" X t " " X t "

1 1 2 2

durata del funzionamento di un singolo componente a prescindere dallo stato in cui si

trova l'altro. La probabilità di questi eventi d'interesse è misurata dalle rispettive

funzioni di distribuzione marginale: ( m ) = ≤ =

F ( t ) P

( X t ) i 1,

2

ˆ

i i i

X i

Le funzioni di distribuzione marginale si ricavano a partire dalla distribuzione

X

congiunta, come "mostrato" qui di seguito per la :

1

dalle relazioni: ( ) ( ) ( )

≤ ≡ ≤ ∩ < ∞ = ≤ ∩ ≤

X t X t X lim X t X t

1 1 1 1 2 1 1 2 2

→ ∞

t 2

risulta  

( ) ( ) ( )

≤ = ≤ ≤ = ≤ ≤

 

P X t P lim X t , X t lim P X t , X t

1 1 1 1 2 2 1 1 2 2

 

→ ∞ → ∞

t t

2 2

e quindi ( m ) =

F ( t ) lim F ( t , t )

1 1 2

X , X

X 1 2

→ ∞

1 t 2

analogamente ( m ) =

F ( t ) lim F ( t , t )

2 X , X 1 2

X 1 2

→ ∞

2 t

1

Qualora sia data solo la densità congiunta, la distribuzione marginale della X1 si ottiene

dalla seguente: 48

Pasquale Legato - Analisi Probabilistica, settembre 2006

t

1

( ) ( ) ( )

∫ ∫

= = (*)

lim F t , t f u , u du du F t

X X 1 2 X X 1 2 2 1 X 1

1 2 1

1 2

→ ∞

t 2 = =

u 0 u 0

2

1

e in maniera analoga quella della X2.

Infine, osservando la (*) si conviene di definire densità marginale della X1 la seguente

funzione: ∞

( ) ( )

= < ∞

f u f u , u du

ˆ

X X X

1 1 2 2

1 1 2

=

u 0

2

che deve avere tutte le proprietà di una funzione densità. Discorso analogo per la X2.

Variabili aleatorie indipendenti

Se e solo se risulta: ( m ) ( m ) ≤ < ∞ ≤ < ∞

= t , t

0 0

F ( t , t ) F ( t ) F ( t ) , 1 2

X , X 1 2 1 2

X X

1 2 1 2

ovvero ( m ) ( m )

=

f ( t , t ) f ( t ) f ( t )

ˆ ,

X , X 1 2 1 2

X X

1 2 1 2

allora le variabili aleatorie e sono dette indipendenti.

X X

1 2

Particolarizzazione delle formule al caso discreto

Nel caso in cui si abbia a che fare con variabili aleatorie discrete, ad esempio N e K

indicanti, rispettivamente, il numero di oggetti presenti in due buffer comunicanti

secondo uno schema produttore-consumatore sono utili le seguenti:

{ }

= = = = =

P ( n , k ) Pr ob N n , K k n 0 ,

1

,

2 , ... ; k 0 ,

1

,

2 , ... ;

,

ˆ

N ,

K ∞ l

∑ ∑

( m ) ( m )

( m ) = =

P ( n ) P ( n , k ) C ( l ) P ( n )

ˆ N ,

K N N

N = =

n

k 0 0

lasciate all'interpretazione dello studente, per esercizio.

49

Pasquale Legato - Analisi Probabilistica, settembre 2006

Distribuzione della somma di variabili aleatorie indipendenti

Si vuole determinare la funzione di distribuzione della variabile aleatoria definita come

somma di altre due: = + ,

X X X

ˆ 1 2 {

( ) }

≥ ≥

sullo spazio dei risultati dato dalle coppie reali non negative: x , x ; x , x

0 0

1 2 1 2

Considerato che ( ) { }

= + ≤

F t Pr X X t

ˆ

X 1 2

occorre integrare la densità congiunta, , sull'area mostrata in figura:

f X X

1 2

x2

t x1+x2=t

t

area x1

Ricordando le regole d'integrazione, si scrive subito:

− −

t x t x

t t

2 1

( ) ( ) ( )

∫ ∫ ∫ ∫

= ≡

F t f x , x dx dx f x , x dx dx

X X , X X , X

1 2 1 2 1 2 2 1

1 2 1 2

= = = =

x x x x

0 0 0 0

2 1 1 2

e X sono variabili aleatorie indipendenti si ha:

Da qui, se X

1 2  

− −

t x t x

t t

1 1

 

( ) ( )

∫ ∫ ∫ ∫

=

f ( x , x )

dx dx f x dx f x dx

 

X , X X X

1 2 2 1 2 2 1 1

1 2 2 1

 

= = = =

x x x x

0 0 0 0

1 2 1 2

t ( ) ( )

= −

F t x f x dx

X X

1 1 1

2 1

=

x 0

1

ovvero: t ( ) ( )

= −

F t x f x dx

X X

2 2 2

1 2

=

x 0

2

ovvero la convoluzione delle funzioni densità dell'una con la distribuzione dell'altra.

50

Pasquale Legato - Analisi Probabilistica, settembre 2006

Convoluzione di esponenziali identiche

Si supponga di avere la collezione { X , X , ...,X } di variabili aleatorie indipendenti ed

1 2 n ( ) −λ

t

= − =

identicamente distribuite con legge esponenziale, Allora:

F t 1 e i 1

,

2 ,..., n .

X i

( ) −

1

n

λ

t

( ) λ

− t

λ

= = + + +

f t e , dove X X X ... X

ˆ

( )

X 1 2 n

n !

1 = + + + ⇒ = +

Infatti, ragionando per induzione e ponendo: Y X X ... X X Y X

ˆ −

1 2 n 1 n

( ) − 2

n

λ

t

( ) λ

− t

λ

=

si ipotizza la seguente: f t e

( )

Y − 2

n !

t

( ) ( ) ( )

= − = + + +

e si verifica che f t f t u f u du ( perché X X X ... X )

ˆ

: 1 2 n

X X Y

n

= 0

u ( )

( ) − −

t n 2 n 1

λ λ

u t

( )

λ λ λ

− − − −

∫ t

( t u ) u

λ λ λ

= =

e e d u e ( )

( )

− −

n 2 ! n 1 !

= 0

u

La funzione di distribuzione si ricava integrando la densità:

( ) −

t n 1

λ

u

( ) ( )

λ

∫ u λ

=

F t e d u

( )

X − 1

n !

0 ( )

( ) ( ) ( ) +

t t 

n n n 1

n

λ λ λ λ

t u t u

( )

λ λ λ λ 

− − − −

∫ ∫

t u t u

λ

= + = +

e e d u e e d ( ) 

 +

n

! n

! n

! n 1 ! 

0 0

( ) ( ) ( )

+ +

t 

n n 1 n 2

λ λ λ

t t u

λ λ λ 

− − −

t t u =

= + +

e e e d ...

( ) ( ) 

+ +

1 2

n

! n ! n ! 

0

( )

∞ i

λ

t

λ

− t

=

... e i

!

=

i n

e poiché ( ) ( )

∞ −

i i

n 1

λ λ

t

t ∑

∑ λ λ

− t

t

= = −

F ( t ) e

e si ottiene: 1

X i

!

i

! =

=0 i 0

i (di ordine n).

che è conosciuta come distribuzione di Erlang

51

Pasquale Legato - Analisi Probabilistica, settembre 2006

ILLUSTRAZIONE DEL MODELLO DI ERLANG (1)

Leggi di Erlang, con e n=2.

λ=2

1

0,9

0,8

0,7

0,6

0,5

0,4

0,3

0,2

0,1

0 0 1 2 3 4 5 6 7 8

Distribuzione Densità

Leggi di Erlang, con e n=8.

λ=2

1

0,9

0,8

0,7

0,6

0,5

0,4

0,3

0,2

0,1

0 0 1 2 3 4 5 6 7 8

Distribuzione Densità

52

Pasquale Legato - Analisi Probabilistica, settembre 2006

ILLUSTRAZIONE DEL MODELLO DI ERLANG (2)

Leggi di Erlang, con e n=4.

λ=2

1

0,9

0,8

0,7

0,6

0,5

0,4

0,3

0,2

0,1

0 0 1 2 3 4 5 6 7 8

Distribuzione Densità

Leggi di Erlang, con e n=4.

λ=4

1

0,9

0,8

0,7

0,6

0,5

0,4

0,3

0,2

0,1

0 0 1 2 3 4 5 6 7 8

Distribuzione Densità

53

Pasquale Legato - Analisi Probabilistica, settembre 2006

Applicazione della legge di Erlang in Affidabilità

Si consideri un sistema composto da "n" componenti, di cui uno è il componente attivo

e gli altri "n-1" sono di riserva: in caso di malfunzionamento del componente attivo, un

commutatore permette di attivare la riserva, al posto del componente attivo.

Sotto le seguenti ipotesi:

1. la commutazione riesce sicuramente;

2. la commutazione si realizza in un tempo trascurabile ;

i componenti sono identici e non riparabili;

3. λ

la legge comune di guasto è esponenziale di parametro ;

4. λ

il "tempo al guasto" del sistema segue la legge di Erlang di ordine n e di parametro ,

Dunque: ( )

− i

n 1 λ

t

λ

− t

=

R

( t ) e i

!

=

i 0

Affidabilità di sistema con un componente attivo e n-1 di riserva

(modello di Erlang)

1

0,9

0,8

0,7

0,6

0,5

0,4

0,3

0,2

0,1

0 0 0,25 0,5 0,75 1 1,25 1,5 1,75 2 2,25 2,5 2,75 3

tempo/MTTF

n=1 - 0 di riserva n=2 - 1 di riserva n=3 - 2 di riserva

n=4 - 3 di riserva n=5 - 4 di riserva n=6 - 5 di riserva

54

Pasquale Legato - Analisi Probabilistica, settembre 2006

Media e varianza

In precedenza è stata definito il valore atteso della variabile aleatoria X, ed è stato

indicato con E[X].

di una variabile aleatoria X è definita come:

La varianza [ ]

≡ − 2

VAR

[ X ] E ( X E

[ X ])

La precedente espressione risulta pari a:

[ ]

= − + = = −

2 2 2 2

VAR

[ X ] E X 2 XE

[ X ] E

[ X ] ... E

[ X ] E

[ X ]

Con riferimento ad una coppia di variabili aleatorie continue, X e Y, allo spazio delle

{ }

( ) 2

∈ ℜ ≤ < ∞ ≤ < ∞

x , y | x , y

0 0 e ad una generica funzione

realizzazioni congiunte o della g e si indica con E[g(X,Y)] il

delle due, g(X,Y), si definisce valore atteso media

valore finito (quando esiste) del seguente integrale doppio:

∞ ∞

[ ] ( )

∫ ∫

= < ∞

E g ( X ,

Y ) g ( x , y ) f x , y dy dx

ˆ X X

1 2

= =

x 0 y 0

Riportata al caso di una coppia di variabili discrete, N e K, con lo spazio delle

{

( ) }

= = e la generica funzione

realizzazioni congiunte n , k | n , , ,... , k , , ,...

0 1 2 0 1 2

g(N,K), la definizione corrispondente è:

∞ ∞

[ ] ∑ ∑

= < ∞

E g ( N , K ) g ( n , k ) P ( n , k )

ˆ N ,

K

= =

n k

0 0

Formule utili

Per variabili aleatorie continue sono valide le seguenti relazioni, che possono essere

riscritte anche per variabili discrete:

[ ] [ ] [ ]

+ = +

E X Y E X E Y (proprietà di additività)

[ ] [ ]

+ = +

E cX d cE X d ( e costanti arbitrarie )

c d

e aggiungendo l'ipotesi di indipendenza

[ ] [ ] [ ]

=

E X Y E X E Y (proprietà di moltiplicatività)

55

Pasquale Legato - Analisi Probabilistica, settembre 2006

Le precedenti rimangono valide passando da due a "n" variabili.

La varianza della somma di due variabili aleatorie risulta:

[ ]

[ ] [ ]

(

( ) ) 2

+ = + − +

VAR X Y E X Y E X Y

ˆ [ ]

[ ] [ ]

(

( ) ) 2

= + − −

E X Y E X E Y

[ ]

[ ] [ ] [ ] ]

[

( ) ( ) ( )

( )

2 2

= − + − + − −

2

E X E X Y E Y X E X Y E Y

[ ] [ ]

[ ] [ ] [ [ ] [ ] ]

) ( ) ( )

( )

( 2 2

= − + − + − −

2

E X E X E Y E Y E X E X Y E Y

[ ] [ ] [ [ ] [ ] ]

( )

( )

= + + − −

VAR X VAR Y E X E X Y E Y

2

56

Pasquale Legato - Analisi Probabilistica, settembre 2006

Modulare la varianza attorno alla stessa media

X

Sia , la v.a. che rappresenta la durata di un fenomeno e ipotizziamo di conoscere solo

[ ]

la durata media: , e di non avere informazioni sulla varianza. Di solito scegliamo

E X

di rappresentare la durata di quel fenomeno in base ad una legge esponenziale di

[ ]

parametro pari al reciproco di .

E X [ ] [ ]

2

=

Così facendo, implicitamente, adottiamo una varianza che è: VAR X E X

Adesso si farà vedere che possiamo fare di meglio!

Pensiamo alla X come: ( )

λ

= + + + ≈ =

X X X X X exp i ,..., n

con 1 ( anche indipendenti )

ˆ K

1 2 n i 1

[ ] [ ]

= =

E, sapendo che: E X n E X n

i λ 1

[ ] [ ]

= =

VAR X n VAR X n

i 2

λ

Osserviamo che, ponendo: 1

λ = n

ˆ [ ]

E X [ ]

E X

1

[ ] = =

riusciamo a mantenere lo stesso valore medio: E X n n

λ n

ma a modificare la varianza: [ ] [ ]

2 2

E X E X

[ ] = =

VAR X n 2 n

n

rispetto al valore che si otterrebbe rappresentando

la X con un'unica legge esponenziale.

Usando "n" come parametro di nostra scelta, possiamo far diminuire quanto vogliamo la

varianza (rispetto a quella originariamente prevista dalla legge esponenziale).

Più precisamente, passiamo ad una rappresentazione del fenomeno basata su una

"opportuna" distribuzione di Erlang di ordine "n", che cambia forma al crescere di "n",

però mantiene sempre la stessa media.

Dunque la chiameremo Legge di Erlang MODULATA.

57

Pasquale Legato - Analisi Probabilistica, settembre 2006

Densità di Erlang "modulata"

1,8

1,6

1,4

1,2

1

fx(t) 0,8

0,6

0,4

0,2

0 0 0,25 0,5 0,75 1 1,25 1,5 1,75 2 2,25 2,5

t

n=1 n=2 n=4 n=8 n=16

ESEMPIO

Si supponga che un componente, una volta guasto, possa essere riparato secondo un

processo di riparazione che si compone di quattro fasi in sequenza. La durata media

dell'intero processo è stimata in 2 unità di tempo e non si hanno informazioni sulle

durate parziali medie delle singole fasi: potrebbero corrispondere ciascuna a 0.5 unità di

tempo.

Proporre una funzione densità per la variabile aleatoria "durata del processo di

riparazione" e calcolare la probabilità che una riparazione duri non più di 3 unità di

tempo.

Rappresentare con un grafico in Excel la suddetta densità e discutere della differenza di

andamento in confronto ad una densità esponenziale caratterizzata dalla stessa media. E

cosa si può dire a proposito della varianza? 58

Pasquale Legato - Analisi Probabilistica, settembre 2006

Distribuzione condizionata

Date due variabili aleatorie X e Y, con Y continua, la funzione di distribuzione

viene introdotta per misurare la probabilità dell'evento

condizionata F ( y / x )

Y / X

≤ =

" Y y / X x

" . Per proporre una definizione formale che si riferisca al caso in cui la

X è una variabile aleatoria continua con funzione di distribuzione ottenuta integrando la

densità, si può pensare all' evento condizion

Anteprima
Vedrai una selezione di 18 pagine su 84
Analisi probabilistica - Appunti Pag. 1 Analisi probabilistica - Appunti Pag. 2
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 6
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 11
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 16
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 21
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 26
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 31
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 36
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 41
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 46
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 51
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 56
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 61
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 66
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 71
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 76
Anteprima di 18 pagg. su 84.
Scarica il documento per vederlo tutto.
Analisi probabilistica - Appunti Pag. 81
1 su 84
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Ingegneria industriale e dell'informazione ING-INF/02 Campi elettromagnetici

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Exxodus di informazioni apprese con la frequenza delle lezioni di Analisi probabilistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Catania o del prof Legato Pasquale.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community