Estratto del documento

Processi Stocastici

Z≡) y = dω p(ω) y(ω, t),E(y t tpesando la variabile stocastica con la probabilità sottostante. Si possono definire similmente le funzioni dicorrelazione “a più corpi” Z· · · · · ·, y , . . . ) = y y = dω y(ω, t ) y(ω, t ) .E(y t t t t 1 21 2 1 2Si possono definire delle probabilità anche per il processo stocastico in se stesso: ad esempio possiamo definirela probabilità di osservare un certo valore del processo stocastico al tempo cometZ −p (y, t) = dω p(ω) δ(y y(ω, t)).16 Processi StocasticiMa questa non è l’unica probabilità che si può definire: si può definire similmenteZ − − · · ·p (y , t ; y , t ; . . . ) = dω p(ω) δ(y y(ω, t )) δ(y y(ω, t )) ,n 1 1 2 2 1 1 2 2sono probabilità congiunte. Notare che se sappiamo una o

alcune di queste probabilità non sappiamo tutto del processo stocastico. L'insieme di tutte queste probabilità è la cosiddetta del processo stocastico: l'archiaprobabilità “contiene” in realtà se integro su tutte le altre variabili (marginalizzazione). Sostanzialmentep pn 1possiamo ottenere a partire da ogni , ma per avere tutta l'informazione del processo stocastico servirebbep pn <n. . . in ogni caso queste probabilità sono utili, perché permettono estrazione di informazione.p∞ Ci sono alcune proprietà banali utili per caratterizzare i processi stocastici:

  • invarianza per permutazione p (y , t ; y , t ) = p (y , t ; y , t );n 2 2 1 1 n 1 1 2 2
  • marginalizzazione R dy p (y , t ; . . . ; y , t ) = p (y , t ; . . . ; y , t ).n n 1 1 n n n−1 1 1 n−1 n−1(di Estensione (Kolmogorov)).

Teorema 1.1 Se una mappa soddisfa le due proprietà di cui sopra, allora è

Un processo stocastico. Riassumendo quanto fatto fin'ora, abbiamo una variabile stocastica di cui conosciamo la PDF che ci fornisce informazioni stocastiche, e abbiamo una mappa dipendente dal tempo che dipende in qualche modo da queste variabili, per cui il risultato è a sua volta stocastico. Quel che vogliamo ricostruire sono le medie e i momenti di questo processo stocastico. Nel caso del moto browniano, abbiamo l'equazione di Newton del tipo mẍ = f (x) + ω, p(ω), quali siano oppure che dipenderanno dal processo stocastico sottostante - cioè gli urti con il solvente), E(x), E(x) sottostante. (Processo Stocastico Stazionario).

Definizione 1.4 Un processo stocastico si dice stazionario se è invariante per traslazioni temporali, cioè se tutte le medie soddisfano y(t + τ) = y(t) ⇒ p(y, t; ...) = p(y, t + τ; ...)

  1. 1 2 1 2 n 1 1 n 1 1
  2. Di conseguenza, se si prende la media const.∀τy(t + τ ) = y(t) =⇒ y =
  3. Infatti spesso nei processi stocastici stazionari si va a studiare cioè lo scostamento dal valor−∆y = y(t) y,medio.
  4. Un’altra proprietà interessante è che la funzione di correlazione a due corpi, dato che dovrà essere uguale allamedia traslata temporalmente, è funzione solamente della differenza dei tempi (non dipendendo da traslazione),per cui − |),y(t ) y(t ) = y(t + τ ) y(t + τ ) = c(|t t1 2 1 2 1 2e per comodità solitamente si prende
  5. Ovviamente vale che e se si tratta di numeriy(0)y(t). c(τ ) = c(−τ ),complessi dove se (necessario per avere un’autocorrelazione sensata).
  6. ∗ ∗ ∈c(τ ) = c (−τ ), c = y(t )y (t ) y C1 2
  7. Esistono anche i processi in cui la stazionarietà vale solamente per i primi due momentidebolmente stazionari,(media e
.
(Probabilità Condizionale).
Definizione 1.5 ipotesi p (y , t ; . . . ; y , t )k+l 1 1 k+l k+lz }| {|p (y , t ; . . . ; y , t y , t ; . . . ; y , t ) = .k+1 k+1 k+l k+l 1 1 k kl|k p (y , t ; . . . ; y , t )k 1 1 k k
Spesso ci si ritrova a dover calcolare la cosiddetta se abbiamo una certa realizzazione didensità spettrale:un processo stocastico e ne facciamo la trasformata di Fourier sul dominio in cui tale processo avviene,
TZ −iωte→x(t) x̃(ω) = dt x(t)0definiamo densità spettrale il limite 1 2|x̃(ω)|S(ω) = lim ,TT →∞che ci dà le frequenze con cui si muove il sistema. Nel caso del rumore bianco abbiamo una densità spettralepiatta perché abbiamo una distribuzione uniforme dei moti regolari rispetto alle frequenze. Ci permette di averedelle informazioni utili—anche se grossolane—sul sistema.
Processi Stocastici 7(Wiener-Khinchin). S(ω)Teorema 1.2 La densità spettrale

di un processo stocastico stazionario èTZ -iωte y(t)y(t + τ).S(ω) = lim dτ c(τ), c(τ) =T →∞ -TIl teorema si dimostra facilmente, dal momento cheDimostrazione. T T 11 Z Z Z Z Z-iωτ 0 -iωτe e e e0-iωt 0 +iωt 0 0 0dt x(t) dt x(t ) = lim dτ dtS(ω) = lim x(t + τ)x(t ) = dτ c(τ).T TT →∞T →∞ 0 0dove il segno deriva dal fatto che si prende il complesso coniugato.+Ad esempio, se prendiamo il abbiamo una funzione di correlazione che dipende da una deltawhite noisedi Dirac, abbiamo scorrelazione Essendo questo un processo stazionario, per il teorema di2c(τ) = σ δ(τ).Wiener-Khinchin vale Z -iωt 2 2e const.S(ω) = dτ σ δ(τ) = σ =Al contrario, il random walk non è stazionario: si pensi a quanto visto precedentemente. La varianza nonsoddisfa l’invarianza per

traslazioni temporali, dipendendo dalla radice quadrata del tempo. Possiamo calcolare la densità spettrale ma non attraverso il teorema di Wiener-Khinchin.

Un ultimo esempio di processo non stazionario è il cosiddetto pink noise, la cui densità spettrale ∝ S(ω).

Processo di Galton-Watson

Questo processo è anche chiamato e vuole descrivere un processo in cui si parte da un Branching Process, capostipite che ha una certa probabilità di avere figli. Ogni figlio ha la stessa probabilità di avere altri figli, e così via. Qual è la distribuzione di probabilità di figli alla generazione t-esima?

Questo tipo di processo è stato introdotto in epoca Vittoriana per vedere la probabilità che il cognome delle famiglie dei nobili si estinguesse o meno, visto che si passa solo con il figlio maschio. Il motivo per cui oggi viene studiato è perché può essere sfruttato per studiare la

Replicazione di batteri, che si duplicano con una certa probabilità. In ogni caso può essere usato in ogni situazione in cui si ha una certa probabilità di moltiplicazione di un dato elemento. Chiamiamo il numero totale di elementi al tempo discreto (numero di generazioni), e sia la probabilità che un individuo abbia "figli". Il punto fondamentale è che una volta nata la prole, il genitore non viene più contato nella generazione successiva. Supponiamo per semplicità (un antenato comune).

L'insieme è un processo stocastico, e il risultato dipende dalla probabilità di duplicazione di un certo elemento. Notiamo come dipenda dalla storia del processo, non solo dall'ultimo step (vedremo che questo è tuttavia sinonimo di non Markovianità). Ipotizziamo di conoscere la distribuzione di probabilità, e sfruttiamone la e vogliamo sapere qualcosa sul processo.

complessi-funzione generatrice. Conosciamo quindi kP s pG(s) = kk=0vo, per cui vogliamo ottenere In realtà vorremmo la probabilità, ma questa si può ottenere facilmenteG (s).z ta partire dalla funzione generatrice—che è matematicamente più facile da trattare. Ad ogni generazione vienegenerata una prole di un numero incognito di elementi, che a loro volte generano una ulteriore prole di unnumero indeterminato di individui. NPy = x p(N ) p(x)Lemma 1.1. Se conosciamo , dati e valeii G (s) = G (G (s)).y N xNNotare che l’estremo superiore di somma è a sua volta una variabile aleatoria: il numero di elementi allan-esima generazione è casuale!Questo lemma potrebbe assomigliare a primo impatto al CLT, ma la differenza è che nel teoremaDimostrazione.viene assunto mentre in questo caso assumiamo che l’estremo superiore sia a sua volta una variabile→ ∞,Nstocastica (randomly Per dimostrarlo, partiamo dalla

notazione per cui ≡ p(y = l) p (l),stopped sum). yX X XllG (s) = s p(y = l) = s p(y = l|N = i) p(N = i)y ill8 Processi Stocastici dove nel secondo passaggio abbiamo sfruttato la probabilità condizionale—probabilità di avere elementi l partendo da “genitori” (cfr. pag. 6). Riscrivendo il tutto, i i X X X X Xl lG (s) = p(N = i) s p(y = l|N = i) = p(N = i) s p x = ly ji i jl l {z }| iabbiamo fissato X i ≡= p(N = i)G (s) G (G (s)).x N xi Un altro modo per dimostrare la stessa cosa è sfruttare il fatto che N NP P Nxxxy xx x ≡· · ·· · ·|N )) (G (s) ),))) = (E(ssG (s) = ) = ) = (E(s )) = (E(s 11i i NNi i EE(sEE(s E(s E E N xNy N Nper fissato e variabili scorrelate.NSfruttiamo il lemma per fare qualche esempio, partendo da Per abbiamo che e inz = 1. t = 1 z = k,0 1questo caso elementare associato a , poiché . In generale per un certo tempolPG (s) = G(s) p G(s) = p sz k ll1 zavremo , l’indice

superiore della somma è il numero di elementi alla generazione precedente.

t-1tz = ktii

Sfruttando il lemma, sappiamo che quindi la funzion

Anteprima
Vedrai una selezione di 20 pagine su 96
Processi stocastici Pag. 1 Processi stocastici Pag. 2
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 6
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 11
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 16
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 21
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 26
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 31
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 36
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 41
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 46
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 51
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 56
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 61
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 66
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 71
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 76
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 81
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 86
Anteprima di 20 pagg. su 96.
Scarica il documento per vederlo tutto.
Processi stocastici Pag. 91
1 su 96
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Scienze matematiche e informatiche MAT/06 Probabilità e statistica matematica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher tajana.matteo di informazioni apprese con la frequenza delle lezioni di Processi stocastici e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Milano o del prof Tiana Guido.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community