Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
F N
{R
annulli sulla superficie nodale S = : ψ(R) = 0} della funzione di prova. Lo stato φ coinciderà
F N
con φ solo nel caso in cui la superficie nodale dello stato esatto sia eguale a quella della funzione di
0
prova. Ovviamente la ricerca di una superficie nodale esatta non è più semplice della ricerca dallo
stato φ , per questo in generale la FNA comporta un errore sistematico. Si può però mostrare che
0
l’energia dello stato fondamentale Fixed Node è un limite superiore per l’energia esatta, migliore di
quello VMC. L’implementazione dell’approssimazione è molto semplice, basta impedire che nella
simulazione Monte Carlo i polimeri intersechino i nodi di ψ, rifiutando tutte le mosse in cui ψ
cambia segno. Siccome la simulazione è ristretta ad una cella nodale, un sottoinsieme dello spazio
delle configurazioni dove la ψ non cambia segno, rimane il dubbio che facendo partire la simulazione
in celle differenti si possano trovare soluzioni F N diverse. Fortunatamente ciò non succede grazie
al tiling theorem, il quale assicura che tutte le celle nodali (di una ragionevole trial function) sono
equivalenti, ovvero hanno la stessa forma e lo stesso tipo di configurazioni.
7.7 Diffusion Monte Carlo (DMC)
Tra l’insieme dei metodi Projection MC, il Diffusion MOnte Carlo è sicuramente il più utilizzato.
Il nome deriva dall’equazione di Schrodinger a tempi immaginari τ in rappresentazione delle coor-
dinate, che prende la forma di una classica equazione di diffusione
∂ 2
−λ∇ −
ψ(R, τ ) = ψ(R, τ ) + [V (R) E ] ψ(R, τ )
T
∂t
dove E è una costante ad hoc che risulterà comoda nella formulazione dell’algoritmo. Per V (R) =
T
0, descrive l’evoluzione temporale della distribuzione di probabilità ψ(R, τ ) delle posizioni di un
insieme di particelle classiche che si muovono di moto browniano; il termine di potenziale definisce
in aggiunta un processo di crescita/decadimento. Data la conoscenza dell’esistenza del limite
lim ψ(R, τ ) = φ (R)
0
→∞
τ
un’evoluzione deterministica della soluzione permetterebbe di ottenere dei risultati esatti. La dif-
ficoltà risiede in una tale computazione, dato che ciò che evolvono non sono più particelle, ma
funzioni. Un metodo atto all’esemplificazione del procedimento è quello stocastico, per cui a tempi
τ piccoli è possibile scrivere la soluzione dell’equazione
Z 0 0 0 0 0
hR | −
ψ(R, τ ) = dR G(R, R , τ )ψ(R , 0) G(R , R, t) = exp[−τ (H E )]|Ri
T
dove la funzione G, detta funzione di Green, soddisfa l’equazione di diffusione solo se vale al
0 0
−
condizione iniziale G(R , R, 0) = δ(R R ). Si hanno espressioni esplicite che per tempi brevi
approssimano G in modo controllabile, ad esempio l’approssimazione primitiva
0 2
0 −(R−R −[V
) /4λ (R)−E ]
G(R, R , ) = e e T
2
che l’approssima a meno di ordini . La tecnica del diffusion MC coincide nell’iterare una procedura
che passa da una rappresentazione discretizzata della ψ(τ ) ad una della ψ(τ + ) mediante un
7.7. DIFFUSION MONTE CARLO (DMC) 145
campionamento stocastico, generando perciò un cammino sui tempi complessi. Dopo un transiente
costituito da un numero sufficiente di passi, ulteriori iterazioni campionerebbero una distribuzione
stazionaria a tutti gli effetti proporzionale a φ , in modo computare esattamente i valori attesi a
0 −
temperatura nulla. Partendo dalla condizione iniziale ψ(R, 0) = δ(R R ), si avrà dalla relazione
0
auto-consistente a piccoli
Z 0 0
2 2
0 −(R −R) −(V −(R −R) −(V
/4λ (R )−E ) /4λ (R)−E )
−
ψ(R, ) = dR δ(Ri R )e e = e e
0
T T
0
che definisce una distribuzione che campiona la posizione possibile delle particelle. A tempi succes-
sivi l’integrale è risolto mediante metodi Monte Carlo, da cui sarà possibile estrapolare un’ulteriore
distribuzione come media delle configurazione di G, da cui si estrarrà successivamente un’unica
posizione e verrà usata per il calcolo di quella al tempo successivo, ovvero per il campionamento
delle configurazioni della G nell’integrale. Si osserva come la relazione integrale definisca soltanto
l’integrazione della parte gaussiana della funzione di Green, dato che il contributo esponenziale, sia
della ψ che della G, esce fuori dall’integrale. Una tale accumulazione di questi fattori moltiplicativi
andrà a definire un peso associato alla configurazione scelta ad ogni passo. Un tale procedimento
è analogo ai campionamenti stocastici dei metodi Monte Carlo basati sulle catene di Markov, ma
in realtà non si ha a che fare con alcuna matrice stocastica, dato che non ci si evolve lungo le
configurazioni, ma in modo deterministico risolvendo l’integrale (mediante metodi stocastici). Per
ogni configurazione associata ad un dato tempo si identificherà perciò la coppia (R , w ), dove il
i i
primo elemento è campionato dalla sola distribuzione derivante dai termini gaussiani.
In termini grafici ciò implica che da un dato punto di partenza R sarà possibile fare un
0
unico passo nel tempo, ottenendo trivialmente una gaussiana come distribuzione. Campionando
un’unico punto nello spazio delle posizioni, verrà associato un peso dato dal termine esponenziale
moltiplicativo. La configurazione a tempo zero avrà un peso unitario. Effettuando un cammino
sulle configurazioni distribuite gaussianamente, si svilupperà un MCMC per la stima dell’integrale.
La nuova distribuzione sarà ovviamente moltiplicata per il peso precedente, a cui si aggiungerà
quello nuovo derivante dalla funzione di Green. I punti successivi nello spazio delle posizioni for-
meranno un camminatore (walker), per cui sarebbe possibile averne contemporaneamente più di
uno partendo da posizioni iniziali diverse. Considerando un unico camminatore, raggiunta la sta-
),
bilità (τ si potranno computare le stime miste mediante medie pesate
R
hψ| i dRψ(R)O(R)φ (R)
Ô|ψ 0
0 = R
hψ|φ i dRψ(R)φ (R)
0 0
R R
dRψ(R)O(R)φ (R)/ dRφ (R)
0 0 X X
'
= ψ(R )O(R )w / ψ(R )w
i i i i i
R R
dRψ(R)φ (R)/ dRφ (R)
0 0 i i
dove le coppie (R , w ) sono campionate con la distribuzione limite. L’algoritmo è concettualmente
i i
corretto, ma totalmente inefficiente: i pesi
i
Y −[V −[V
(R )−E ] (R )−E ]
w = e = w e
j i
T T
i i−1
j=1
essendo costituiti dai prodotti di molti fattori fluttuanti, hanno valori medi molto diversi tra loro,
e il numero effettivo di punti nelle medie pesate è una frazione insignificante del numero di passi.
In questo caso torna utile la configurazione esposta precedentemente del generare più cammini
deterministici, in modo da avere non un vettore di coppie, ma una matrice (R , w ), dove
i,m i,m
146 CHAPTER 7. COMPUTATIONAL METHODS [7]
il secondo indice identifica cammini diversi allo stesso tempo. Si può in questo modo effettuare
un importance sampling semplicemente replicando i cammini con peso elevato e troncando quelli
prossimi allo zero. Un procedimento atto allo sviluppo della tecnica potrebbe essere quello di creare
un numero di repliche per ogni camminatore pari al numero intero più vicino alla quantità
w + ξ
i,m
dove ξ è un numero casuale distribuito uniformemente tra 0 e 1. Dopo la produzione tutti i pesi
dei camminatori vengono posti eguali a uno e, scorrelandosi dopo un certo numero di passi, sarà
possibile campionare i valori attesi con i loro pesi. Effettuando questa riconfigurazione abbastanza
spesso, si è sicuri che tutti i camminatori presenteranno un peso non troppo diverso dal valore
unitario per ogni passo temporale, ottenendo cosı̀ una stima finale dalla media pesata si tutti gli
step validi per ogni walker.
In questo algoritmo il numero M di camminatori fluttua, potendo anche divergere o andare a
zero. Per mantenere M prossimo ad un valore prefissato M , si modifica la costante E nel modo
0 T
seguente ← −
E E γ ln M/M 0
T T
Se M > M , i fattori esponenziali che definiscono i pesi decrescono e il numero di repliche (cam-
0
minatori) diminuisce. Se M < M si ha l’effetto opposto. Poiché la variazione di E modifica
0 T
l’evoluzione temporale, il controllo della popolazione introduce un errore sistematico. Tuttavia si
tratta di un errore controllabile poiché sparisce nel limite di numero infinito di camminatori medi
M . Il parametro γ controlla la forza del controllo di popolazione, e andrebbe preso il più piccolo
0
possibile per minimizzare l’errore sistematico appena descritto, compatibilmente con la necessità
di stabilizzare la popolazione.
7.7.1 Importance Sampling
Il procedimento introdotto al fine di ridurre le fluttuazioni dei pesi è stato definito con abuso di no-
tazione un importance sampling. In realtà si definisce con tale nome un qualsiasi procedimento che
ha il fine di ridurre la varianza delle quantità che si vogliono calcolare. Nel caso DMC, moltiplicando
per la trial function ψ(R) i due membri, si trova arrangiando i termini
∂ 2
− −λ∇ · −
f (R, τ ) = f (R, τ ) + λn∇ [f (R, τ )F (R)] + [E (R) E ] f (R, τ )
L T
∂t f (R, τ ) = ψ(R)ψ(R, τ ) F (R) = 2∇ ln ψ(R)
dove F (R) è una velocità di drift, e l’energia locale sostituisce il termine di potenziale altamente
fluttuante. Poiché si ha solo moltiplicato a destra e sinistra per la funzione di prova, l’evoluzione
temporale di ψ(R, τ ) sarà la stessa di prima, ovvero in termini della convoluzione con la funzione
0
di Green G(R , R, τ ), da cui segue che l’evoluzione della f (R, τ ) dovrà essere
Z 1
0 0
0 0 0
f (R, τ + ) = dR G̃(R, R , )f (R , τ ) G̃(R, R , ) = G(R, R , )ψ(R)
0
ψ(R )
dove ora richiedo le assunzioni su ψ e, in particolare, la condizione di convergenza implica f =
→∞
τ
ψφ . La peculiarità della nuova funzione risiede nella sua positività sia per bosoni che fermioni
0
(non è richiesta la FNA) e nei seguenti vantaggi:
7.7. DIFFUSION MONTE CARLO (DMC) 147
·
Il nuovo termine λn∇ [f (R, τ )F (R)], se fosse l’unico al secondo membro, descriverebbe il
moto di una distribuzione di densità in un campo di velocità F (R). Questo contributo perciò
tende ad accumulare densità nelle regioni ove la ψ è grande, il