Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

Pasquale Legato - Analisi Probabilistica, settembre 2006

t

1

( ) ( ) ( )

∫ ∫

= = (*)

lim F t , t f u , u du du F t

X X 1 2 X X 1 2 2 1 X 1

1 2 1

1 2

→ ∞

t 2 = =

u 0 u 0

2

1

e in maniera analoga quella della X2.

Infine, osservando la (*) si conviene di definire densità marginale della X1 la seguente

funzione: ∞

( ) ( )

= < ∞

f u f u , u du

ˆ

X X X

1 1 2 2

1 1 2

=

u 0

2

che deve avere tutte le proprietà di una funzione densità. Discorso analogo per la X2.

Variabili aleatorie indipendenti

Se e solo se risulta: ( m ) ( m ) ≤ < ∞ ≤ < ∞

= t , t

0 0

F ( t , t ) F ( t ) F ( t ) , 1 2

X , X 1 2 1 2

X X

1 2 1 2

ovvero ( m ) ( m )

=

f ( t , t ) f ( t ) f ( t )

ˆ ,

X , X 1 2 1 2

X X

1 2 1 2

allora le variabili aleatorie e sono dette indipendenti.

X X

1 2

Particolarizzazione delle formule al caso discreto

Nel caso in cui si abbia a che fare con variabili aleatorie discrete, ad esempio N e K

indicanti, rispettivamente, il numero di oggetti presenti in due buffer comunicanti

secondo uno schema produttore-consumatore sono utili le seguenti:

{ }

= = = = =

P ( n , k ) Pr ob N n , K k n 0 ,

1

,

2 , ... ; k 0 ,

1

,

2 , ... ;

,

ˆ

N ,

K ∞ l

∑ ∑

( m ) ( m )

( m ) = =

P ( n ) P ( n , k ) C ( l ) P ( n )

ˆ N ,

K N N

N = =

n

k 0 0

lasciate all'interpretazione dello studente, per esercizio.

49

Pasquale Legato - Analisi Probabilistica, settembre 2006

Distribuzione della somma di variabili aleatorie indipendenti

Si vuole determinare la funzione di distribuzione della variabile aleatoria definita come

somma di altre due: = + ,

X X X

ˆ 1 2 {

( ) }

≥ ≥

sullo spazio dei risultati dato dalle coppie reali non negative: x , x ; x , x

0 0

1 2 1 2

Considerato che ( ) { }

= + ≤

F t Pr X X t

ˆ

X 1 2

occorre integrare la densità congiunta, , sull'area mostrata in figura:

f X X

1 2

x2

t x1+x2=t

t

area x1

Ricordando le regole d'integrazione, si scrive subito:

− −

t x t x

t t

2 1

( ) ( ) ( )

∫ ∫ ∫ ∫

= ≡

F t f x , x dx dx f x , x dx dx

X X , X X , X

1 2 1 2 1 2 2 1

1 2 1 2

= = = =

x x x x

0 0 0 0

2 1 1 2

e X sono variabili aleatorie indipendenti si ha:

Da qui, se X

1 2  

− −

t x t x

t t

1 1

 

( ) ( )

∫ ∫ ∫ ∫

=

f ( x , x )

dx dx f x dx f x dx

 

X , X X X

1 2 2 1 2 2 1 1

1 2 2 1

 

= = = =

x x x x

0 0 0 0

1 2 1 2

t ( ) ( )

= −

F t x f x dx

X X

1 1 1

2 1

=

x 0

1

ovvero: t ( ) ( )

= −

F t x f x dx

X X

2 2 2

1 2

=

x 0

2

ovvero la convoluzione delle funzioni densità dell'una con la distribuzione dell'altra.

50

Pasquale Legato - Analisi Probabilistica, settembre 2006

Convoluzione di esponenziali identiche

Si supponga di avere la collezione { X , X , ...,X } di variabili aleatorie indipendenti ed

1 2 n ( ) −λ

t

= − =

identicamente distribuite con legge esponenziale, Allora:

F t 1 e i 1

,

2 ,..., n .

X i

( ) −

1

n

λ

t

( ) λ

− t

λ

= = + + +

f t e , dove X X X ... X

ˆ

( )

X 1 2 n

n !

1 = + + + ⇒ = +

Infatti, ragionando per induzione e ponendo: Y X X ... X X Y X

ˆ −

1 2 n 1 n

( ) − 2

n

λ

t

( ) λ

− t

λ

=

si ipotizza la seguente: f t e

( )

Y − 2

n !

t

( ) ( ) ( )

= − = + + +

e si verifica che f t f t u f u du ( perché X X X ... X )

ˆ

: 1 2 n

X X Y

n

= 0

u ( )

( ) − −

t n 2 n 1

λ λ

u t

( )

λ λ λ

− − − −

∫ t

( t u ) u

λ λ λ

= =

e e d u e ( )

( )

− −

n 2 ! n 1 !

= 0

u

La funzione di distribuzione si ricava integrando la densità:

( ) −

t n 1

λ

u

( ) ( )

λ

∫ u λ

=

F t e d u

( )

X − 1

n !

0 ( )

( ) ( ) ( ) +

t t 

n n n 1

n

λ λ λ λ

t u t u

( )

λ λ λ λ 

− − − −

∫ ∫

t u t u

λ

= + = +

e e d u e e d ( ) 

 +

n

! n

! n

! n 1 ! 

0 0

( ) ( ) ( )

+ +

t 

n n 1 n 2

λ λ λ

t t u

λ λ λ 

− − −

t t u =

= + +

e e e d ...

( ) ( ) 

+ +

1 2

n

! n ! n ! 

0

( )

∞ i

λ

t

λ

− t

=

... e i

!

=

i n

e poiché ( ) ( )

∞ −

i i

n 1

λ λ

t

t ∑

∑ λ λ

− t

t

= = −

F ( t ) e

e si ottiene: 1

X i

!

i

! =

=0 i 0

i (di ordine n).

che è conosciuta come distribuzione di Erlang

51

Pasquale Legato - Analisi Probabilistica, settembre 2006

ILLUSTRAZIONE DEL MODELLO DI ERLANG (1)

Leggi di Erlang, con e n=2.

λ=2

1

0,9

0,8

0,7

0,6

0,5

0,4

0,3

0,2

0,1

0 0 1 2 3 4 5 6 7 8

Distribuzione Densità

Leggi di Erlang, con e n=8.

λ=2

1

0,9

0,8

0,7

0,6

0,5

0,4

0,3

0,2

0,1

0 0 1 2 3 4 5 6 7 8

Distribuzione Densità

52

Pasquale Legato - Analisi Probabilistica, settembre 2006

ILLUSTRAZIONE DEL MODELLO DI ERLANG (2)

Leggi di Erlang, con e n=4.

λ=2

1

0,9

0,8

0,7

0,6

0,5

0,4

0,3

0,2

0,1

0 0 1 2 3 4 5 6 7 8

Distribuzione Densità

Leggi di Erlang, con e n=4.

λ=4

1

0,9

0,8

0,7

0,6

0,5

0,4

0,3

0,2

0,1

0 0 1 2 3 4 5 6 7 8

Distribuzione Densità

53

Pasquale Legato - Analisi Probabilistica, settembre 2006

Applicazione della legge di Erlang in Affidabilità

Si consideri un sistema composto da "n" componenti, di cui uno è il componente attivo

e gli altri "n-1" sono di riserva: in caso di malfunzionamento del componente attivo, un

commutatore permette di attivare la riserva, al posto del componente attivo.

Sotto le seguenti ipotesi:

1. la commutazione riesce sicuramente;

2. la commutazione si realizza in un tempo trascurabile ;

i componenti sono identici e non riparabili;

3. λ

la legge comune di guasto è esponenziale di parametro ;

4. λ

il "tempo al guasto" del sistema segue la legge di Erlang di ordine n e di parametro ,

Dunque: ( )

− i

n 1 λ

t

λ

− t

=

R

( t ) e i

!

=

i 0

Affidabilità di sistema con un componente attivo e n-1 di riserva

(modello di Erlang)

1

0,9

0,8

0,7

0,6

0,5

0,4

0,3

0,2

0,1

0 0 0,25 0,5 0,75 1 1,25 1,5 1,75 2 2,25 2,5 2,75 3

tempo/MTTF

n=1 - 0 di riserva n=2 - 1 di riserva n=3 - 2 di riserva

n=4 - 3 di riserva n=5 - 4 di riserva n=6 - 5 di riserva

54

Pasquale Legato - Analisi Probabilistica, settembre 2006

Media e varianza

In precedenza è stata definito il valore atteso della variabile aleatoria X, ed è stato

indicato con E[X].

di una variabile aleatoria X è definita come:

La varianza [ ]

≡ − 2

VAR

[ X ] E ( X E

[ X ])

La precedente espressione risulta pari a:

[ ]

= − + = = −

2 2 2 2

VAR

[ X ] E X 2 XE

[ X ] E

[ X ] ... E

[ X ] E

[ X ]

Con riferimento ad una coppia di variabili aleatorie continue, X e Y, allo spazio delle

{ }

( ) 2

∈ ℜ ≤ < ∞ ≤ < ∞

x , y | x , y

0 0 e ad una generica funzione

realizzazioni congiunte o della g e si indica con E[g(X,Y)] il

delle due, g(X,Y), si definisce valore atteso media

valore finito (quando esiste) del seguente integrale doppio:

∞ ∞

[ ] ( )

∫ ∫

= < ∞

E g ( X ,

Y ) g ( x , y ) f x , y dy dx

ˆ X X

1 2

= =

x 0 y 0

Riportata al caso di una coppia di variabili discrete, N e K, con lo spazio delle

{

( ) }

= = e la generica funzione

realizzazioni congiunte n , k | n , , ,... , k , , ,...

0 1 2 0 1 2

g(N,K), la definizione corrispondente è:

∞ ∞

[ ] ∑ ∑

= < ∞

E g ( N , K ) g ( n , k ) P ( n , k )

ˆ N ,

K

= =

n k

0 0

Formule utili

Per variabili aleatorie continue sono valide le seguenti relazioni, che possono essere

riscritte anche per variabili discrete:

[ ] [ ] [ ]

+ = +

E X Y E X E Y (proprietà di additività)

[ ] [ ]

+ = +

E cX d cE X d ( e costanti arbitrarie )

c d

e aggiungendo l'ipotesi di indipendenza

[ ] [ ] [ ]

=

E X Y E X E Y (proprietà di moltiplicatività)

55

Pasquale Legato - Analisi Probabilistica, settembre 2006

Le precedenti rimangono valide passando da due a "n" variabili.

La varianza della somma di due variabili aleatorie risulta:

[ ]

[ ] [ ]

(

( ) ) 2

+ = + − +

VAR X Y E X Y E X Y

ˆ [ ]

[ ] [ ]

(

( ) ) 2

= + − −

E X Y E X E Y

[ ]

[ ] [ ] [ ] ]

[

( ) ( ) ( )

( )

2 2

= − + − + − −

2

E X E X Y E Y X E X Y E Y

[ ] [ ]

[ ] [ ] [ [ ] [ ] ]

) ( ) ( )

( )

( 2 2

= − + − + − −

2

E X E X E Y E Y E X E X Y E Y

[ ] [ ] [ [ ] [ ] ]

( )

( )

= + + − −

VAR X VAR Y E X E X Y E Y

2

56

Pasquale Legato - Analisi Probabilistica, settembre 2006

Modulare la varianza attorno alla stessa media

X

Sia , la v.a. che rappresenta la durata di un fenomeno e ipotizziamo di conoscere solo

[ ]

la durata media: , e di non avere informazioni sulla varianza. Di solito scegliamo

E X

di rappresentare la durata di quel fenomeno in base ad una legge esponenziale di

[ ]

parametro pari al reciproco di .

E X [ ] [ ]

2

=

Così facendo, implicitamente, adottiamo una varianza che è: VAR X E X

Adesso si farà vedere che possiamo fare di meglio!

Pensiamo alla X come: ( )

λ

= + + + ≈ =

X X X X X exp i ,..., n

con 1 ( anche indipendenti )

ˆ K

1 2 n i 1

[ ] [ ]

= =

E, sapendo che: E X n E X n

i λ 1

[ ] [ ]

= =

VAR X n VAR X n

i 2

λ

Osserviamo che, ponendo: 1

λ = n

ˆ [ ]

E X [ ]

E X

1

[ ] = =

riusciamo a mantenere lo stesso valore medio: E X n n

λ n

ma a modificare la varianza: [ ] [ ]

2 2

E X E X

[ ] = =

VAR X n 2 n

n

rispetto al valore che si otterrebbe rappresentando

la X con un'unica legge esponenziale.

Usando "n" come parametro di nostra scelta, possiamo far diminuire quanto vogliamo la

varianza (rispetto a quella originariamente prevista dalla legge esponenziale).

Più precisamente, passiamo ad una rappresentazione del fenomeno basata su una

"opportuna" distribuzione di Erlang di ordine "n", che cambia forma al crescere di "n",

però mantiene sempre la stessa media.

Dunque la chiameremo Legge di Erlang MODULATA.

57

Pasquale Legato - Analisi Probabilistica, settembre 2006

Densità di Erlang "modulata"

1,8

1,6

1,4

1,2

1

fx(t) 0,8

0,6

0,4

0,2

0 0 0,25 0,5 0,75 1 1,25 1,5 1,75 2 2,25 2,5

t

n=1 n=2 n=4 n=8 n=16

ESEMPIO

Si supponga che un componente, una volta guasto, possa essere riparato secondo un

processo di riparazione che si compone di quattro fasi in sequenza. La durata media

dell'intero processo è stimata in 2 unità di tempo e non si hanno informazioni sulle

durate parziali medie delle singole fasi: potrebbero corrispondere ciascuna a 0.5 unità di

tempo.

Proporre una funzione densità per la variabile aleatoria "durata del processo di

riparazione" e calcolare la probabilità che una riparazione duri non più di 3 unità di

tempo.

Rappresentare con un grafico in Excel la suddetta densità e discutere della differenza di

andamento in confronto ad una densità esponenziale caratterizzata dalla stessa media. E

cosa si può dire a proposito della varianza? 58

Pasquale Legato - Analisi Probabilistica, settembre 2006

Distribuzione condizionata

Date due variabili aleatorie X e Y, con Y continua, la funzione di distribuzione

viene introdotta per misurare la probabilità dell'evento

condizionata F ( y / x )

Y / X

≤ =

" Y y / X x

" . Per proporre una definizione formale che si riferisca al caso in cui la

X è una variabile aleatoria continua con funzione di distribuzione ottenuta integrando la

densità, si può pensare all' evento condizionante come ad un evento limite :

≤ = = ≤ ≤ ≤ + ∆

" Y y / X x " lim " Y y / x X x x "

$ ∆ → 0

x

e assumere che valga la seguente:

≤ ≤ ≤ + ∆ = ≤ ≤ ≤ + ∆

P

( lim " Y y / x X x x

" ) lim P

( Y y / x X x x )

∆ → ∆ →

0 0

x x

Cosicché : = ≤ ≤ ≤ + ∆

F ( y / x ) lim P

( Y y / x X x x )

ˆ

Y / X ∆ → 0

x

Con la definizione proposta, la distribuzione condizionata è posta in relazione ad un

evento condizionante la cui probabilità è misurabile con gli strumenti a nostra

disposizione e si può ricavare la seguente formula di calcolo:

y f ( v , x )

( ) Y , X

=

F y | x dv

Y | X ( m )

f ( x )

= 0

v X

Da cui è immediato riconoscere la funzione densità condizionata :

( )

f x , v

( ) Y , X

=

f v / x ˆ

Y / X ( )

( m )

f x

X

59

Pasquale Legato - Analisi Probabilistica, settembre 2006

LA FORMULA DI CALCOLO DELLA DISTRIBUZIONE CONDIZIONATA

Prima di ricavarla, è bene far vedere che la probabilità dell'evento condizionante è

misurabile con la densità marginale:

≤ ≤ + ∆ = ≤ ≤ + ∆ ∩ ≤

P

( x X x x ) lim P

( x X x x Y y )

→ ∞

y + ∆ ∞

x x

∫ ∫ ( m )

= = ∆

f ( v ,

u )

dvdu f ( x ) x

Y , X X

= = 0

u x v

A questo punto: = ≤ ≤ ≤ + ∆

F ( y / x ) lim P

( Y y / x X x x )

ˆ

Y / X ∆ →

0

x ≤ ∩ ≤ ≤ + ∆

P

( Y y x X x x )

= lim ≤ ≤ + ∆ ∩ ≤ ∞

lim P

( x X x x Y )

∆ → 0

x → ∞

y y + ∆

x x

∫ ∫ f ( v ,

u )

dudv

Y , X

= =

0

v u x

= lim ( m )

∆ → x f ( x )

0

x X

y

∫ ∆

f ( v ,

u ) x dv

Y , X ≤ ≤ + ∆

= 0

v ove x u x x

= lim ( m )

∆ → x f ( x )

0

x X

y f ( v , x )

Y , X

= dv

( m )

f ( x )

= 0

v X 60

Pasquale Legato - Analisi Probabilistica, settembre 2006

Formula della distribuzione totale

La formula della distribuzione totale mette in relazione la funzione di distribuzione

( m ) F ( y / x )

F ( y ) con la funzione di distribuzione condizionata , purché

marginale Y | X

Y

si conosca pure la densità marginale della X. E' una formula alla quale si ricorre spesso,

perché è quasi sempre più facile conoscere direttamente la distribuzione condizionata

che non la marginale. Da un punto di vista teorico, non è altro che l'estensione della

formula della probabilità totale alle variabili aleatorie.

( m ) =

Per ricavarla, si può partire dalla relazione: F ( y ) lim F ( y , x )

Y , X

Y → ∞

x

Ricordando che: y x

( (

) )

∫ ∫

=

F y , x f v , u dudv

$

, ,

Y X Y X

= =

0 0

v u

si ha: y y

∞ ∞

( ) ( ) ( ) ( )

∫ ∫ ∫ ∫ ( m )

( m ) = =

F y f v , x dxdv f v / x f x dxdv

Y , X Y / X X

Y = = = =

0 0 0 0

x

v x v

∞ y ( ) ( )

∫ ∫ ( m )

= f v / x dv f x dx

Y / X X

= =

0 0

x v ∞ ( ) ( )

( )

m ( m )

=

e da qui la formula finale: F ( y ) F y / x f x dx

Y / X X

Y = 0

x ≤

Y y ” è pari alla somma – su tutti i risultati

A parole: la probabilità del risultato “

≤ < ∞

condizionanti: - dei prodotti tra la probabilità di ciascun risultato condizionato

0 x

≤ ∈ + ∈ +

Y y | X ( x , x dx ) X ( x , x dx )

” e la probabilità del rispettivo condizionante “ ”.

“ :

Infine, per derivazione della formula finale, si ottiene la formula della densità totale

( ) ( ) ( )

( m ) ( m )

=

f y f y / x f x dx

Y / X

Y X

= 0

x

Quando la variabile condizionante X ha realizzazioni non negative, ma nel discreto,

allora le formule di distribuzione totale e di densità totale diventano le seguenti:

∞ ∞

∑ ∑

( ) ( ) ( ) ( )

m m m m

= ⋅ = ⋅

F ( y ) F ( y | x ) P ( x ) e f ( y ) f ( y | x ) P ( x )

Y Y

Y X Y X

= =

0 0

x x

61

Pasquale Legato - Analisi Probabilistica, settembre 2006

Applicazione: Commutazione imperfetta ed Affidabilità

Si riprenda in considerazione il sistema con un componente attivo e una riserva, e si

rimuova l'ipotesi che la commutazione sulla riserva riesca sempre. Si assuma, invece,

che la commutazione riesce con probabilità "c" e non riesce con probabilità "1-c".

Introducendo la v.a. X, definita come segue :

=

1 commutazio

ne riesce

ˆ

=

X  =

0 commutazio

ne fallisce

ˆ

 ( ) ( )

= = −

P 1 c , P 0 1 c

e con il seguente modello bernoulliano: ,

X X

si osserva che la variabile aleatoria :

Y = "tempo di vita del sistema" (non riparabile) è condizionata dalla X.

In particolare, quando la commutazione non riesce (X=0) si ha:

( ) λ

− t

= −

F t 1 e ;

=

Y | X 0

mentre se X=1 si ha: λ

− i

2 1 ( t ) ( )

λ λ

− λ

t t

= − = − +

F (

t ) 1 e 1 e 1 t .

=

Y X

| 1 i

!

=

i 0

Allora si applica la formula della distribuzione totale

1

( m ) = ⋅ = ⋅ + ⋅

F (

t ) F (

t ) P ( x ) F (

t ) P (

1

) F (

t ) P ( 0 )

= = =

Y | X x X Y | X 1 X Y | X 0 X

Y =

x 0

e si ottiene: ( )

λ λ λ λ

− − − −

λ λ

( m ) t t t t

= − − ⋅ + − ⋅ − = − +

F ( t ) 1 e te c (

1 e ) (

1 c ) 1 (

1 c t ) e .

Y

Dunque la formula dell’affidabilità del sistema è la seguente:

( ) λ

λ

( m ) t

= − = + ≥

R

(

t ) 1 F (

t ) 1 c t e , t 0

.

Y 62

Pasquale Legato - Analisi Probabilistica, settembre 2006

ILLUSTRAZIONE DEL “PESO” DELLA COMMUTAZIONE

Secondo componente in parallelo o di riserva ?

( risultato con c = 0,9 e 1/lambda = 2000 ore )

1

0,9

0,8

0,7

Affidabilità c=0.9

0,6 c=0

0,5 par

0,4

0,3

0,2

0,1

0 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0

Tempo (ore x mille)

Secondo componente in parallelo o di riserva ?

( risultato con c = 0,5 e 1/lambda = 2000 ore )

1

0,9

0,8

0,7

Affidabilità c=0.5

0,6 c=0

0,5 par

0,4

0,3

0,2

0,1

0 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0

Tempo (ore x mille)

63

Pasquale Legato - Analisi Probabilistica, settembre 2006

Un'applicazione con variabile condizionante discreta

Si consideri un fenomeno di accodamento di utenti di fronte ad una risorsa che eroga

servizi secondo la disciplina FIFO :

coda dei processi processore

Le durate dei servizi (S1,S2,….) sono indipendenti e tutte identicamente distribuite

µ

secondo una legge esponenziale di parametro .

Indicando con X la "durata dell'attesa in coda per un nuovo arrivato" e con N il

"numero di utenti presenti al suo arrivo", sarà impostata la formula in base alla quale è

conveniente determinare la distribuzione della X.

Poiché la durata dell'attesa di un utente è chiaramente dipendente dal numero di utenti

trovati, non è pensabile di poter ricavare la distribuzione della X ignorando la

distribuzione di probabilità della N, Pr( N = n ) n=1,2,... . Invece, supponendo di

conoscerla e sfruttando la formula della distribuzione totale si può porre:

( m ) = ≤

F ( t ) P

( X t )

ˆ

X ∑ ∑

= ≤ ∩ = = ≤ = =

P ( X t N n ) P ( X t / N n ) P ( N n )

≥ ≥

n 1 n 1

= =

F ( t / n ) P

( N n )

X / N

≥1

n

Nel caso in esame la distribuzione condizionata si ottiene immediatamente, perché è

data dalla convoluzione di tante durate di servizio (esponenziali indipendenti) quanti gli

utenti trovati dal nuovo arrivato, che sarà servito per ultimo. Dunque:

( )

− i

1

n µ

t

µ

− t

= −

F ( t / n ) e

1

X / N i

!

= 0

i

A titolo di esempio, si vuole ricavare la distribuzione del tempo d'attesa in coda:

F ( t ) , adottando il seguente modello geometrico per "l'occupazione del buffer":

W 64

Pasquale Legato - Analisi Probabilistica, settembre 2006

n ρ λ µ

ρ ρ = =

= ≡ = − n 0 ,

1

,

2 ... /

P

( N n ) P ( 1 ) ˆ

ˆ , , dove

n

Più avanti nel corso, si vedrà che si tratta di un'adozione nient'affatto "estemporanea".

Dunque: ∞ ∞

∑ ∑

= = +

F ( t ) F ( t ) P F ( t ) P F ( t ) P

W W | n n W |

0 0 W | n n

=

=

n 0 n 1

Ovviamente, quando la risorsa è libera, la variabile attesa condizionata avrà la sola

realizzazione nulla: ρ

= = = −

F ( t ) 1

, n 0 F (t)P 1

( 1 )

e pertanto:

W | n W | 0 0

Viceversa, quando sono già presenti n utenti:

− i

n 1 µ

( t )

µ

− ∑

t

= − ≥

F ( t ) 1 e , n 1

W | n i

!

=

i 0

Allora:  

∞ − n

n 1 µ

 

( t ) ( )

µ

∑ ∑

t n

ρ ρ ρ

= − + − −

F ( t ) e

1 1 1

 

W  

n

!

 

= =

n i

1 0

∞ ∞ − i

n 1 µ

( t )

( ) µ

− − −

∑ ∑ ∑

n 1 t n 1

ρ ρ ρ ρ ρ ρ ρ

= − + − − −

( ) e

1 1 1 i

!

= = =

n 1 n 1 i 0

∞ ∞

i

µ

( t )

( ) µ

− −

∑ ∑

t n 1

ρ ρ ρ

= − −

1 1 e i

!

= − =

i 0 n 1 i

∞ i

ρµ

( t )

( ) µ − −

− ∑ ∑ 1

t n i

ρ ρ ρ

= − − e

1 1 i

! − =

= 0 1

i n i

µ ρ µ µ ρ

− − − −

1 1

t t ( ) t

ρ ρ ρ ρ

= − − − = −

1 ( 1 )

e e ( 1 ) 1 e

65

Pasquale Legato - Analisi Probabilistica, settembre 2006

ILLUSTRAZIONE DEL FENOMENO DI ATTESA ( 1-F (T) )

W

µ -1

Prob ( attesa > tempo ), con = 5,4 min

0,9

0,8

0,7

0,6

probabilità 0,5

0,4

0,3

0,2

0,1

0 0 0,5 1 1,5 2 2,5 3 3,5 4 4,5 5

tempo ( in minuti )

λ = 4 λ = 4,6 µ -1

Prob ( attesa > tempo ), con = 4,8 min

1,1

1

0,9

0,8

0,7

probabilità 0,6

0,5

0,4

0,3

0,2

0,1

0 0 0,5 1 1,5 2 2,5 3 3,5 4 4,5 5

tempo ( in minuti )

λ = 4 λ = 4,6

66

Pasquale Legato - Analisi Probabilistica, settembre 2006

Un'applicazione con variabile condizionante continua.

Si consideri il problema di un utente che arriva di fronte a due risorse, per lui

equivalenti ma entrambe occupate. Dovendo scegliere in maniera irrevocabile la risorsa

che le due risorse abbiano due velocità di

di fronte alla quale accodarsi e nell'ipotesi

µ µ

lavoro diverse ( e ), l'utente potrebbe decidere in base alla: Prob ( " una risorsa

1 2

completi il lavoro in atto prima dell'altra ") .

" la durata del lavoro residuo della risorsa i, i=1,2 " , si calcola:

Detta X

i ∞ { ( ) ( )

}

{ } ∫

= > < ≤ + < ≤ +

> lim P X t | t X t dt P t X t dt

Pr X X 2 1 1

2 1 ∆ → 0

t

= 0

t ∞ [ ]

( ) ( )

∫ ( m )

= −

1 F t f t dt

X | X X

2 1 1

= 0

t

Aggiungendo l'ipotesi che le due risorse lavorano in modo indipendente

risulterebbe: f

( ) ( ) X , X

( m ) = =

= 1 2

F t F t f f

/

X | X X X

X f

2 1 2 1

1 X / X

2 1

∞ [ ]

( ) ( )

{ } ∫

= −

>

e quindi 1 F t f t dt

Pr X X X X

2 1 2 1

0 per le variabili in gioco si può ottenere la

Da qui, adottando la legge esponenziale

seguente formula finale: ∞ µ

{ } µ µ

− −

∫ t t 1

µ

= =

< e e dt

Pr X X 2 1

1

1 2 µ µ

+

1 2

0

In modo del tutto analogo µ

{ } 2

< =

X X

Pr .

2 1 µ µ

+

1 2

La formula ottenuta non serve tanto per giustificare la propensione "naturale" di

accodarsi di fronte alla risorsa più veloce; piuttosto è utile per stimare la percentuale di

utenti che beneficerebbero di questa decisione.

67

Pasquale Legato - Analisi Probabilistica, settembre 2006

Esempio numerico: µ 2

1

< = = =

X X 0 .

66

Pr( 1 2

)

µ =

 2 µ µ

+ +

2 1

1 1 2

 µ = µ

1 1

 2

< = = =

Pr( X 2 X 1

) 0 .

33

2 µ µ

+ +

2 1

1 2

µ 4

1

< = = =

Pr( X 1 X 2

) 0 .

80

µ =

 4 µ µ

+ +

4 1

1 1 2

 µ = µ

1 1

 2

< = = =

Pr( X 2 X 1

) 0 .

20

2 µ µ

+ +

4 1

1 2

68

Pasquale Legato - Analisi Probabilistica, settembre 2006

Valore atteso totale e curva di regressione

In analogia con la formula della distribuzione totale, verrà adesso ricavata una formula

"di tipo totale" per il valore atteso di una variabile aleatoria (continua e non negativa).

Partendo dalla definizione di valore atteso: ∞

[ ] ( )

∫ ( m )

=

E Y yf y dy

ˆ Y

= 0

y

si esprime la densità (marginale) f mediante la formula della densità totale:

∞ ∞ ∞ ∞

( ) ( ) ( ) ( )

∫ ∫ ∫ ∫

( m ) ( m )

= =

y f y / x f x dx dy yf y / x dy f x dx

Y | X Y | X

X X

= = = =

y 0 x 0 x 0 y 0

e riconoscendo che è naturale definire ∞

[ ] ( )

=

il seguente:

come valore atteso condizionato E Y | X yf y / x dy

ˆ Y | X

=

y 0

si ottiene la formula del valore atteso totale: ∞

[ ] [ ] ( )

∫ ( m )

= E Y | X f x dx

E Y X

= 0

x

Con una variabile condizionante, X, discreta: ∞

[ ] [ ] ( )

=

E Y E Y | X P x

X

=

x 0

OSSERVAZIONE:

La formula del valore atteso condizionato non definisce un numero, ma una funzione

sullo spazio delle realizzazioni (continue e non negative) della X:

[ ]

= ≤ < ∞ .

E Y X x x

| , 0

Tale funzione, che descrive l'andamento del valore atteso della Y al variare della x, è

e si può ricavare, in linea di principio, a partire dalla

detta curva di regressione (o della congiunta, ).

conoscenza della densità condizionata, f ( y , x )

f ( y | x )

Y | X Y , X

In pratica è più spesso compito della statistica stimare i parametri della curva di

regressione, a partire da osservazioni sperimentali della coppia (X,Y).

69

Pasquale Legato - Analisi Probabilistica, settembre 2006

Determinazione analitica di "curve" di regressione

1) E' data la densità congiunta: − − < < < <

6 xy

( 2 x y ), 0 x 1

, 0 y 1

( ) =

f x , y ˆ  0 altrimenti

[ ]

= < <

E X | Y y , y

0 1

e si vuole la: .

Si calcola la: − −

− − x

( x y )

xy

( x y ) 6 2

6 2 =

=

=

f ( x | y ) f ( x , y ) / f ( y ) −

1 y

4 3

∫ − −

xy

( x y )

dx

6 2

0

e da qui: − − −

x

( x y ) y

6 2 5 4

+ ∞ 1

[ ] ∫ ∫

= = = =

E X | Y y xf ( x | y )

dx x dx −

− ∞ y y

4 3 8 6

0

2) E' data la densità congiunta: { }

− − + < < ∞ ≤ ≤

 y

( x y ) exp ( x y ) , x , y x

4 0 0

( ) =

f x , y ˆ  altrimenti

0

[ ]

= .

e si vuole la: E X | Y y

Si calcola la: { }

− − +

y

( x y ) exp ( x y )

4

= = >

f ( x | y ) f ( x , y ) / f ( y ) , x y

∞ { }

∫ − − +

y

( x y ) exp ( x y ) dx

4

y

{ }

− −

( x y ) exp x

= ∞ { }

∫ − −

( x y ) exp x dx

y { }

= − − −

Integrando per parti, si ottiene: f ( x | y ) ( x y ) exp ( x y )

e da qui: ∞

[ ] { }

= = − − −

E X | Y y x

( x y ) exp ( x y ) dx

y ∞

{ } { }

∞ ∫

= − − − − + − − −

x

( x y ) exp ( x y ) ( x y ) exp ( x y ) dx

2

y y

∞ { }

= − − −

( x y ) exp ( x y ) dx

2

y ∞

{ } { }

∞ ∫

= − − − − + − − = +

( x y ) exp ( x y ) exp ( x y ) dx y

2 2 2

y y

70

Pasquale Legato - Analisi Probabilistica, settembre 2006

La distribuzione iperesponenziale

Sia X una variabile condizionante, discreta e con un insieme finito di realizzazioni

( )

α α α

, , , un assegnamento di probabilità di tipo bernoulliano

(1,2,…,n) e sia K

1 2 n

generalizzato su quell'insieme. Dunque:

( ) ∑ n

α α α

= ≥ = =

P i , , i ,..., n

0 1 e 1

ˆ i

X i i =

1

i

=

Y i ,..., n

Siano, adesso, , 1 , n" variabili aleatorie identicamente distribuite secondo

"

i λ =

i ,..., n

la legge esponenziale, ciascuna però con un proprio parametro, , 1 . Dunque:

i

( ) { }

λ

= − − ≥

F y exp y

1 y

, 0

ˆ

Y i

i

Osservando che la densità congiunta per la coppia Y,X è:

( ) ( ) ( )

=

f y , i f y | i P i

=

Y , X Y | X i X { }

( ) ( ) α λ λ

= = −

f y P i exp y ,

Y X i i i

i

grazie alla formula della densità totale: ( ) ( )

∑ n

=

f y f y , i

Y Y , X

=

1

i

si perviene ad una funzione densità (marginale) della Y che ha una forma nota come

funzione densità iperesponenziale

:

( ) { }

∑ n α λ λ

= − ≥

f y exp y y

, 0

Y i i i

=

1

i

e corrisponde alla combinazione convessa di densità esponenziali di parametro diverso.

La distribuzione corrispondente risulterà, ovviamente, anch'essa data dalla

combinazione convessa di funzioni di distribuzione esponenziali:

y

( ) ( ) ( { }

)

∑ n

∫ α λ

= = − − ≥

F y f u du 1 exp y , y 0

Y Y i i

=

i 1

0

e può essere utilmente letta come una formula di distribuzione totale.

71

Pasquale Legato - Analisi Probabilistica, settembre 2006

Visualizzazione e applicazioni

La seguente rappresentazione grafica della distribuzione iperesponenziale:

si rivela utile nelle possibili applicazioni.

Ad esempio, si consideri la situazione in cui il carico di processi (workload) che devono

essere eseguiti da un sistema possa essere raggruppato in "n" classi distinte e si conosca

λ

soltanto la durata media dell'esecuzione di un processo: 1 / , se il processo appartiene

i

alla classe "i". Allora, il tempo di esecuzione di un processo preso a caso fra tutti può

essere modellato con la legge iperesponenziale.

Ancora, s'immagini di limitare a due le leggi esponenziali in gioco nella figura di cui

λ λ λ λ

>>

sopra e siano e i rispettivi parametri, con ; in pratica, la prima

1 2 1 2

esponenziale modella una durata media assai piccola se confrontata con la durata media

α ≅ e

associata alla seconda. Adesso, si aggiunga la libertà di fissare: 1

1

α α

= − ≅ . Allora, se si usa Y per rappresentare l'intervallo di tempo fra due arrivi

1 0

2 1

consecutivi di "pacchetti di dati" da trasmettere su una linea, non è difficile riconoscere

che lo schema in figura si presta a modellare una modalità di arrivi detta "a raffica".

α

In particolare, più si fissa vicino all'unità (ad es. 0.99) e più numerosa diventa la

1 λ

raffica, mentre, più si rende piccolo e più tempo passa (in media) fra due raffiche

2

consecutive. [ ] [ ]

Il nome iperesponenziale deriva dal fatto che, per essa, il rapporto: ,

E Y VAR Y

/

detto coefficiente di variazione (Cv) risulta >1, a fronte del fatto che il coefficiente di

variazione della legge esponenziale è proprio pari a 1.

In particolare, con un Cv>>1 è possibile rappresentare durate che hanno una grande

varianza perché “quasi sempre molto brevi” e però “raramente assai lunghe”.

72

Pasquale Legato - Analisi Probabilistica, settembre 2006

Valore atteso e varianza:

Usando la formula del valore atteso condizionato e la sua immediata estensione al

“momento del secondo ordine” si calcola:

[ ] ∑ n λ

= = =

E Y | X i i f (

Y | i ) 1 /

=

Y X i i

|

=

i 1

[ ] ∑ n

2 2 2

λ

= = =

E Y | X i i f ( y | i ) 2 /( )

=

Y X i i

|

=

i 1

e con le formule totali: [ ] [ ]

∑ ∑

n n α λ

= = =

E Y E Y | X i P (

i ) /

X i i

= =

1 1

i i

[ ] [ ]

∑ ∑

n n

2 2 2

α λ

= = =

E Y E Y | X i P (

i ) 2 /( )

X i i

= =

1 1

i i

Infine: [ ]

[ ] [ ] ∑ ∑

n n

2

2 2

α λ α λ

= − −

VAR Y E Y E Y = / 2 /( )

i i i i

= =

i 1 i 1

Coefficiente di variazione: 2

α α

n n α

n

2

∑ ∑ ∑

i i i

− 

[ ] λ

2 2

λ λ

VAR X 

[ ] i

= = =

1 1

i i

2 1

i

i i −

=

= = 2 1

Cv X [ ] 2

2

2

E X  

 α

α n

n ∑

∑  

 i

i  

 λ

λ  

 i

i =

= 1

i

1

i

ma: 2  

   

α α α

n n n n

∑ ∑ ∑ ∑

 

  

i i i

α

≤ =

   

 

i

λ 2 2

λ λ

   

 

i

= = = =

i 1 1 1 1

i i i

i i

2 

 n

n

n

∑ ∑ ∑ 

 2 2

per la disuguaglianza di Cauchy-Schwartz: a b a b 

 i

i

i i 

 = = =

1 1 i 1

i

i

α α λ

= =

con: a e b /

ˆ ˆ

i i i i i ( )

2 = ≠≥ − ≥

Dunque: CV X 2 1 1 1

73

Pasquale Legato - Analisi Probabilistica, settembre 2006

ILLUSTRAZIONE DELL’EFFETTO “RAFFICA” DELLA IPEREXP

Realizzazioni casuali dalla legge IPEResponenziale

( alfa = 0,75 - lambda_1 = 5 - lambda_2 = 0,5 )

12,0

11,0

10,0

9,0

corrispondenti 8,0

7,0

6,0

5,0

Valori 4,0

3,0

2,0

1,0

0,0 Numeri casuali generati

Realizzazioni casuali dalla legge IPEResponenziale

( alfa = 0,95 - lambda_1 = 5 - lambda_2 = 0,5 )

12,0

11,0

10,0

9,0

corrispondenti 8,0

7,0

6,0

5,0

Valori 4,0

3,0

2,0

1,0

0,0 Num eri casuali generati

74

Pasquale Legato - Analisi Probabilistica, settembre 2006

Metodo delle fasi e combinazione di esponenziali

Il metodo delle fasi consiste nella rappresentazione della durata (nel continuo) di un

fenomeno mediante la decomposizione dello stesso in un insieme di "fasi" di durata

indipendente, ma strutturate secondo un diagramma di flusso. Una "fase" è una durata

parziale che si realizza secondo una distribuzione esponenziale di parametro fissato a

priori, a differenza della distribuzione della durata complessiva del fenomeno d'interesse

che, invece, deve essere determinata. Il diagramma delle fasi risultante permette di

rappresentare le "relazioni logiche" elementari che possono esistere fra le durate

parziali: la sequenzialità e la diramazione sotto condizione. Un frammento di un

ipotetico diagramma è mostrato in figura: 3

p

1 2 4 5

1-p

Il nodo di decisione che si vede dopo la seconda fase indica che, da quel punto in poi, il

fenomeno può evolvere secondo due ulteriori vie possibili, a seconda del risultato di un

esperimento aleatorio di tipo bernoulliano di parametro p.

Appoggiandosi al diagramma, è facile ricavare la funzione generatrice dei momenti

(particolare trasformata di Laplace) della distribuzione della variabile aleatoria "durata

del fenomeno", perché, con le ipotesi introdotte precedentemente, la teoria delle

trasformate di Laplace fornisce le due regole di base:

1. La trasformata di due o più fasi, indipendenti e in sequenza, è data dalla

produttoria delle trasformate delle fasi componenti la sequenza;

2. La trasformata di due o più fasi, in diramazione pesata con probabilità

bernoulliane, è data dalla combinazione lineare (convessa) delle trasformate

delle fasi in diramazione, secondo le probabilità bernoulliane.

Facendo uso delle due regole basilari, la trasformata del diagramma mostrato sopra si

ottiene effettuando i calcoli nell’ordine seguente:

1. trasformate delle due coppie di fasi in sequenza: 1-2 e 4-5;

2. trasformata della diramazione: 3 (4-5);

p

3. trasformata della sequenza finale: (1-2) – (3 (4-5)).

p

75

Pasquale Legato - Analisi Probabilistica, settembre 2006

A titolo di esempio, sarà presentato e analizzato il diagramma delle fasi che descrivono

la durata del “tempo di vita” di un sistema con due componenti non riparabili: uno

attivo e l’altro di riserva, sotto le ipotesi che la riserva non possa guastarsi se non è

attiva e che la commutazione possa fallire (con probabilità 1-c):

γ

exp( )

c fase 2

λ

exp( )

fase 1 1-c

Per il componente attivo e per la riserva sono stati adottati due modelli di guasto a tasso

λ γ.

costante indicati, rispettivamente, con e La prima fase si conclude con il verificarsi

del primo guasto e, a quel punto, scatta l’esperimento aleatorio che consiste nel provare

a commutare sul componente di riserva. Se la commutazione riesce, seguirà una

seconda fase di vita del sistema, corrispondente alla vita della riserva, altrimenti la vita

del sistema si concluderà (il che è rappresentato dal ramo privo di fase, pesato con 1-c).

La trasformata corrispondente al diagramma e quindi alla variabile aleatoria X, “tempo

di vita del sistema” è: λ γ

 

= + −

L ( s ) c (

1 c )

 

X λ γ

+ +

s s 

 la trasformata della

Indicando con Y “l’esito della commutazione”, con L ( s )

X |

Y

X | Y

densità (condizionata) di “ ” e riscrivendo: λ λ γ

= − +

L ( s ) (

1 c ) c

X λ λ γ

+ + +

s s s

si riconoscono immediatamente le seguenti:

λ λ γ 

= = e = =

( | 0 )

L s y ( | 1

)

L s y 

 

X |

Y X | Y

λ + λ γ

+ +

s  s s 

Da qui: = = = + = =

L ( s ) L ( s | y 0

) P ( y 0 ) L ( s | y 1

) P ( y 1

)

X X |

Y Y X |

Y Y

Dunque, il procedimento seguito per ottenere la trasformata associata al diagramma ha

condotto alla costruzione di una formula che si può definire di "trasformata totale":

{ }

Ω =

∑ 0

,

1

ˆ

con

=

L ( s ) L ( s ) P ( y ) Y

X X Y Y

|

y Y

perché è la formula della distribuzione totale riscritta in termini delle trasformate di

Laplace delle densità condizionate in gioco.

76

Pasquale Legato - Analisi Probabilistica, settembre 2006

La distribuzione ipoesponenziale

La combinazione di fasi di durata esponenziale può essere usata anche in maniera

astratta, cioè senza partire dalla descrizione della struttura di un fenomeno fisico, per

n

generare nuove distribuzioni. Il caso più immediato è quello di un insieme di fasi

λ = λ ≠

, i 1

,..., n e con la condizione:

esponenziali in sequenza, ognuna di parametro i

i

λ ≠

, i j:

j λ λ

exp( ) exp( ) λ

1 2 exp( n)

. . .

La trasformata associata al diagramma e quindi alla variabile aleatoria

= + + +

X X X X

ˆ è:

L

1 2 n n λ

∑ i

=

( )

L s a

X i λ + s

i

=

i 1

e con l'espansione in frazioni parziali:

n λ

λ n j

∑ i ∏

(*) con

=

( )

L s a =

a ˆ

X i i

λ + λ λ

s

i

= j i

= ≠

i 1 j j i

1

,

Da qui, con una semplice antitrasformazione della (*) si ottiene una nuova densità, detta

ipoesponenziale ad n stadi, che generalizza la densità di Erlang di ordine n:

{ }

n

∑ ≤ < ∞

λ λ

= − 0 x

f ( x ) a exp x

X i i i

=

i 1

e con distribuzione: ( { }

)

n

∑ ≤ < ∞

λ λ

= − − 0 x

F ( x ) a 1 exp x

X i i i

=

i 1

Media e varianza si calcolano immediatamente, dal diagramma, e risultano:

[ ] [ ]

n

∑ n 2

λ

= λ

=

E X 1 / e Var X 1 /

i i

= =

1

i i 1

[ ] [ ] < 1

Var X / E X

Il coefficiente di variazione risulta e a ciò si deve il nome

ipoesponenziale. 77

Pasquale Legato - Analisi Probabilistica, settembre 2006

La distribuzione di Cox (di ordine 2)

Meno immediata della sequenza che ha permesso di generare la distribuzione

ipoesponenziale è la struttura di fasi dovuta al matematico D.R. Cox, presentata qui di

seguito in figura: 1-p 1-p

µ ) µ )

exp( exp(

1 2 µ )

1 2 exp( n

p p

1 2

La trasformata di questa, fino alla seconda fase (coxiana del 2° ordine, C,) è:

µ µ

( ( ) ) = =

1 2 p 1

p p

ˆ

= + − con e

L s p p

( ) 1 1 2

C µ µ

+ +

s s

1 2

µ 2

α α µ µ

= + − ≠

p (

1 ) , con

Da qui, ponendo: 1 2

µ

1

si ottiene: µ µ

( )

1 2

α α

= + − ovvero una iperesponenziale,

L s

( ) 1

C µ

µ + +

s s

1 2

ma, più in generale, si può dimostrare che con le seguenti posizioni

 

2

[ ]  

2

p = − −

CV X 1 1

 

[ ]

2

+

1 CV X

 

   

1 2 1 2

   

µ µ

= =

,

+ − − −

1 1 1 1

1 2

[ ] [ ]

 

[ ]  

[ ]

2 2

E X E X

+ +

1 CV X 1 CV X

   

[ ]

E X

la coxiana del 2° ordine definisce una distribuzione di valore atteso, , e di

[ ] [ ]

( )

2

CV X E X

varianza voluti. 78

Pasquale Legato - Analisi Probabilistica, settembre 2006

IL TMR con un elemento di riserva

Si vuole ricavare la distribuzione della v. a. Y, " tempo di vita del sistema ", sotto le

seguenti ipotesi:

componenti identici;

• commutazione istantanea e perfetta;

• =

ˆ

distribuzione exp. per la v.a. Xi "tempo al guasto del componente i":

• λ

( ) − t =

i 1

, 2

, 3

= − ,

F t 1 e

X i

per il componente di riserva invece:

• λ

 t

 −

1 e attiva

( ) µ λ

<<

=

F t ,

X µ

− t

r  −

1 e non attiva

Con il metodo delle fasi è immediato riconoscere che la funzione di distribuzione della

Y è una ipoesponenziale a 3 stadi : 2λ)

λ µ) 3λ) exp(

exp(3 + exp(

γ1 = 3λ+µ; γ2 =3λ; γ3 =2λ

e quindi, ponendo per comodità:

si ottiene: ( ) γ

3

3 γ

( ) j

∑ ∏

t

= − =

1 dove

F t a e a

i ˆ

Y i i γ γ

j i

= ≠

i 1 j i

L' affidabilità del sistema è dunque: ( )

3 γ

( ) −

∑ t

= − = − −

R (

t ) 1 F t 1 a 1 e i

Y i

=

1

i

Nella pagina seguente sono raffigurati i grafici con i seguenti valori numerici:

λ = 2 γ1 = 6.2 a1 = 54.5 λ = 1 γ1 = 3.2 a1 = 25

γ2 = 6 a2 = -62 γ2 = 3 a2 = -32

µ= 0,2 γ3 = 4 a3 = 8.45 µ= 0,2 γ3 = 2 a3 = 8

Per esercizio, si provi ad estendere il diagramma delle fasi al caso di commutazione

imperfetta. 79

Pasquale Legato - Analisi Probabilistica, settembre 2006

CONFRONTO DI CURVE DI AFFIDABILITA’

1

λ µ

= =

2 , 0

, 2 (

tempo )

TMR e TMR con riserva

1

0,9

0,8

0,7

0,6

0,5

R(t) 0,4

0,3

0,2

0,1

0

0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0

Unità di tempo TMR-RIS TMR EXPO

− 1

λ µ

= =

1 , 0 , 2 ( tempo )

TMR e TMR con riserva

1

0,9

0,8

0,7

0,6

0,5

R(t) 0,4

0,3

0,2

0,1

0

0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0

Unità di tempo TMR-RIS TMR EXPO

80

Pasquale Legato - Analisi Probabilistica, settembre 2006

Concetto e formula della covarianza ( )

Si definisce covarianza di due variabili aleatorie, X e Y, e si indica il

COV X ,

Y

seguente valore atteso: [ [ ] [ ] ]

( )

( ) ( )

− − =

E X E X Y E Y COV X ,

Y

ˆ

utile perché offre un'indicazione (sia pure abbastanza limitata) di come X e Y varino

l'una relativamente all'altra. Infatti, se piccole realizzazioni della X tendono ad essere

associate a piccole realizzazioni della Y e, viceversa, grandi realizzazioni dell'una a

[ ] [ ]

( ) ( )

− −

grandi dell'altra, allora le grandezze (aleatorie) e avranno lo

X E X Y E Y

( ) >

stesso segno (positivo) e risulterà: . Ragionando analogamente, ci si

COV X ,

Y 0

aspetterà covarianza negativa nel caso in cui a piccole realizzazioni dell'una variabile

aleatoria corrispondano grandi realizzazioni dell'altra.

La formula di calcolo della covarianza è:

[ [ ] [ ] ]

( ) ( )

( )

= − −

COV X ,

Y E X E X Y E Y

ˆ [ [ ] [ ] [ ] [ ]

]

= − − +

E XY YE X XE Y E X E Y

[ ] [ ] [ ]

= −

E XY E X E Y

Correlazione di una coppia di variabili ( ) ≠

Le variabili aleatorie X e Y sono dette correlate quando risulta e,

COV X ,

Y 0

( ) =

viceversa, quando risulta X e Y sono dette non correlate.

COV X ,

Y 0 [ ] [ ] [ ]

=

In particolare, se sono indipendenti vale il risultato: e quindi le due

E XY E X E Y

variabili sono pure non correlate. Ma non vale il viceversa, nel senso che le due variabili

possono essere a covarianza nulla senza essere pure indipendenti!

81

Pasquale Legato - Analisi Probabilistica, settembre 2006

In entrambi i casi, di indipendenza o solo di correlazione nulla, si noti che risulta valida

la seguente implicazione sulla varianza della somma di X e Y:

[ ] [ ] [ ] ( )

+ = + + (*)

VAR X Y VAR X VAR Y 2 COV X ,

Y

[ ] [ ]

= + (additività della varianza)

VAR X VAR Y

Per completezza, si tenga anche presente che la proprietà di additività si generalizza con

la seguente: [ ] [ ]

∑ ∑

n n 2

=

VAR c X c VAR X

i i i i

= =

i i

1 1

per una successione di variabili X e una successione di costanti arbitrarie c

i i

Il coefficiente di Pearson

Poiché dalla (*) si evince che la covarianza ha le dimensioni di una varianza, non è

difficile accettare la seguente misura di correlazione:

COV ( X ,

Y )

ρ =

( X ,

Y ) ˆ [ ] [ ]

VAR X VAR Y

adimensionale e indipendente dalla scala delle quantità in gioco, nota come coefficiente

ρ

− ≤ ≤

1 ( X ,

Y ) 1 e che tale coefficiente

di Pearson. Adesso si farà vedere che risulta:

della correlazione fra le variabili X e Y.

è una misura del grado di linearità 82

Pasquale Legato - Analisi Probabilistica, settembre 2006

Proprietà del coefficiente di Pearson.

Proprietà 1 ρ

− ≤ ≤

1 ( X ,

Y ) 1

Si dimostra che:

Prova [ ] [ ]

[ ]

( ) 2 2 2

E XY E X E Y

E’ basata sulla disuguaglianza di Cauchy-Schwarz: , che

permette di stabilire la seguente: [ ] [ ] [ ]

2

≤ ≤

0 COV X , Y VAR X VAR Y

Proprietà 2 ρ α β α β β ≠

= ⇔ = + ,con e reali e 0

Si dimostra che: ( X ,

Y ) 1 Y X

⇐)

Prova: (si dimostra solo l’implicazione

α β

= +

Y X

Dalla relazione: [ ] [ ] [ ] [ ]

= −

si ha: COV X , Y E XY E X E Y

[ ]

[ ] [ ] [ ]

( )

2

α β α β

= + − +

E X E X E X E X

[ ]

β

= VAR X

1

β α

= −

e dalla: X Y [ ] [ ]

1

β

=

allo stesso modo: COV X , Y VAR Y

Dunque: [ ] [ ] [ ]

2 =

COV X , Y VAR X VAR Y

A partire dalla precedente si può, allora, concludere che:

β α β

− = − + >

 Y X

1 , 0

ρ =

X Y X Y non correlate

( , ) 0 ,

 β α β

+ = + >

Y X

1 , 0

 83

Pasquale Legato - Analisi Probabilistica, settembre 2006

La retta di regressione

La retta di regressione è la particolare curva di regressione che si ottiene ponendo:

[ ]

= = + ≤ < ∞

E Y X x a bx x

| , 0

ˆ (1.)

ed è comunemente usata nell’analisi (statistica) della dipendenza della variabile

aleatoria Y dalla X, dopo aver stimato i coefficienti reali a e b a partire dalle

realizzazioni sperimentali della coppia X,Y.

Qui si vuole dimostrare che, indipendentemente dalla forma completa delle funzioni di

distribuzione della X e della Y, i coefficienti a e b sono dati dalle seguenti relazioni:

[ ] [ ]

VAR Y

[ ] [ ] VAR Y

ρ

= − ρ

a E Y E X =

; b

[ ] [ ]

VAR X VAR X

ρ

dove è il coefficiente di correlazione di Pearson.

Punto di partenza della dimostrazione è la formula:

1 ∞

[ ] ∫

=

| ( , )

E Y X y f x y dy

,

Y X

0

( )

f x

X

Con essa si può scrivere: ∞ ( )

∫ = +

y f ( x , y ) dy a bx f ( x )

,

Y X X

0 [ ] [ ]

= +

E Y a bE X

e integrando in x ambo i membri si ottiene: . (*)

D’altra parte: [ ]

[ ] [ ] [ ] 2

= ⋅ ⋅ ⋅ = = +

E Y x f ( x ) E Y | x dx aE X bE X

L

X

0

ma: [ ] [ ] [ ] [ ] [ ] [ ] [ ] [ ]

ρ

⋅ = − = −

E X Y COV X , Y E X E Y VAR X VAR Y E X E Y

{ }

[ ] [ ] [ ]

2

= ⋅ + ⋅ +

a E X b Var X E X

e con la (*) si ricava: [ ]

VAR Y

[ ] [ ] [ ]

( )

ρ

= = + − ≤ < ∞

E Y X x E Y x E X x

| , 0

ˆ [ ]

VAR X

che completa la prova. 84

Pasquale Legato - Analisi Probabilistica, settembre 2006

UNIVERSITÀ DELLA CALABRIA

FACOLTÀ DI INGEGNERIA

Pasquale Legato

Appunti per il corso di

ANALISI PROBABILISTICA

E

TEORIA DELLE CODE

(settembre 2006)

Parte I: Analisi Probabilistica

A.A. 2006/2007

1


ACQUISTATO

1 volte

PAGINE

84

PESO

725.10 KB

AUTORE

Exxodus

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in ingegneria elettronica
SSD:
Università: Catania - Unict
A.A.: 2007-2008

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Exxodus di informazioni apprese con la frequenza delle lezioni di Analisi probabilistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Catania - Unict o del prof Legato Pasquale.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in ingegneria elettronica

Elettrotecnica - Testi esercizi
Appunto
Dispositivi elettronici - Mosfet - Formulario
Esercitazione
Impianti industriali - esercitazione
Esercitazione
Elettronica 1 2.Diodo: funzionamento e caratteristiche statiche
Appunto