Anteprima
Vedrai una selezione di 10 pagine su 89
Appunti meccanica statistica Pag. 1 Appunti meccanica statistica Pag. 2
Anteprima di 10 pagg. su 89.
Scarica il documento per vederlo tutto.
Appunti meccanica statistica Pag. 6
Anteprima di 10 pagg. su 89.
Scarica il documento per vederlo tutto.
Appunti meccanica statistica Pag. 11
Anteprima di 10 pagg. su 89.
Scarica il documento per vederlo tutto.
Appunti meccanica statistica Pag. 16
Anteprima di 10 pagg. su 89.
Scarica il documento per vederlo tutto.
Appunti meccanica statistica Pag. 21
Anteprima di 10 pagg. su 89.
Scarica il documento per vederlo tutto.
Appunti meccanica statistica Pag. 26
Anteprima di 10 pagg. su 89.
Scarica il documento per vederlo tutto.
Appunti meccanica statistica Pag. 31
Anteprima di 10 pagg. su 89.
Scarica il documento per vederlo tutto.
Appunti meccanica statistica Pag. 36
Anteprima di 10 pagg. su 89.
Scarica il documento per vederlo tutto.
Appunti meccanica statistica Pag. 41
1 su 89
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Ipotesi Ergodica

Dopo un tempo sufficientemente lungo, il tempo speso da una particella in un volume nello spazio delle fasi di microstato della stessa energia è proporzionale al volume stesso. Equivalentemente, all’equilibrio termodinamico, il suo stato può essere equivalentemente uno qualunque di quelli che soddisfano le condizioni macroscopiche del sistema.

Lavorando con un numero elevato di particelle è impossibile trovare una risoluzione esatta delle equazioni del moto.

Dato un sistema di N particelle, la media di un'osservabile A(x) in un intervallo di tempo T è:

Ā(t0, T) = ⟨Δ⟩ = 1/T ∫t0t0+TA(X(t)) dt

X(t) ≡ (q1(t), ..., qN(t), p1(t), ..., pN(t))

in cui qi, pi è l’insieme di tutte le coordinate di tutte le particelle con i loro momenti coniugati, per un totale di 6N variabili.

L’ipotesi ergodica permette di valutare grandezze macroscopiche come media su microstati invece che come media temporale. Non conoscendo l’evoluzione temporale la formula è inutile ma possiamo passare ad un integrale sullo spazio delle fasi:

Ā(t0, T) = ∫ A(qi, pi) ρ (qi, pi) dqidpi

densità di probabilità che il sistema si trovi nel microstato caratterizzato da qi, pi

Ora intervenie l'ipotesi ergodica supponendo che ρ sia una costante (non nulla) all'interno della regione dello spazio delle fasi accessible al sistema G e nulla altrimenti:

Nel microcanonico il vincolo imposto è che l'energia del sistema, data dall'hamiltoniana H, sia compresa tra due valori E ed E+ΔE

Quando l'ipotesi ergodica ci permette di calcolare la densità di probabilità dei microstati.

Il teorema di Liouville mostra come, per sistemi classici conservativi, la densità locale dei microstati si conserva nell'evoluzione temporale e assicura che la media temporale abbia un senso.

FUNZIONI GENERATRICI

Data una sequenza di numeri reali (in questo caso di probabilità) P0, P1, ... Pk definiamo la funzione generatrice nel seguente modo:

G(s) = P0 + sP1 + ... = ∑ skPk

Ogni funzione generatrice ha 3 importanti proprietà:

  1. G(s) individua completamente la distribuzione
  2. La G(s) della somma di variabili indipendenti è il prodotto delle funzioni generatrici

x → GX(s)y → GY(s)z = x+y | GZ(s)=GX(s)GY(s)

  1. I momenti della variabile casuale possono essere ottenuti partendo dalle derivate di G(s)

dμG/dsμ = μ!Pμ

CAMBIO DI VARIABILE

Prendiamo il caso in cui conosciamo la densità di probabilità PX(x) della variabile x e vogliamo trovare la densità di probabilità PY(y) della variabile y = f(x). Con f(x) invertibile quindi con f'(x)≠0

⇒ Si nota che i valori di y ereditano le probabilità dei valori di x da cui provengono

P(y ϵ [y1, y2]) = P(x ϵ [x1, x2])

FUNZIONE CARATTERISTICA

Avremmo visto che date N variabili indipendenti x1...xN con densità di probabilità P1(x1)...PN(xN) per la variabile somma ż = x1 + ... + xN si ha:

Pż(ż) = (P1 * P2 + ... * PN)(ż)

Questa formula viene trattata con la funzione caratteristica:

Φx(t) = ∫ eitxpX(x) dx = ⟨eitX

PX(x) = 1/2π ∫ ΦX(t) e-itx dt

Una proprietà della funzione caratteristica è che date N variabili aleatorie x1...xN con funzioni Φ1...ΦN allora per la somma si ha:

ż = ∑i=1N xi, Φż = ∏j=1N Φxj(t)

Un’altra proprietà è che se la variabile X ha come funzione caratteristica ΦX(t) allora per la variabile Y abbiamo:

Y = aX + b

ΦY(t) = e-itb ΦX(at)

a,b reali costanti.

TEOREMA LIMITE CENTRALE

Prese x1...xN variabili iid con media μ e varianza σ2<∞ per N grande la densità di probabilità di

żN = 1/σ√N ∑u=1N (xu-μ)

che è una gaussiana a media nulla e varianza unitaria.

P(żN) ≃ 1/√2π e- żN2/2

Consideriamo la variabile yN = ∑ xi e u xj - xj = μ e considerando la sua funz caratteristica Φx.

ΦyN = [ ]1/N

Esercizio: problema dei cavallini

Ho un dado, questo, calcolano la probabilità di avere almeno un 6 in 4 lanci. Calcolare poi la probabilità di avere uno scarto di 6 su 24 lanci da 2 dadi.

I)

P(61) = 1 - (5/6)4

II)

P(62) = 1 - (5/6)24

Per divertire aggiuntive la festa un gioco si nota che ha 3 possibilità per vincere mentre 1 ne ho solo 1.

PI = (1/2)3 = 1/8

PII = 1 - PI = 7/8

Esercizi Scheda

1. P(A) = 3/4

P(B) = 5/6 → P(A∩B) > 1/2?

P(A∪B) = P(A) + P(B) - P(A∩B) > 3/4 + 5/6 - 1 = 13/12 - 1 = 1/12

2. P(A) = 1/6

P(B) = 3/10 → P((Ω-A) ∩ (Ω-B)) = 2/10

R((Ω-D) ∩ (Ω-B)) = P(Ω-D) + P(Ω-B) - P((Ω-D) ∪ (Ω-B))

P(Ω-D) = 1 - P(D) = 1 - 4/10 = 6/10

P(Ω-B) = 1 - P(B) = 1 - 3/10 = 7/10

6/10 + 7/10 - 2/10 = 13/10 - 1 = 3/10

H_N / H_0 = Σ xi => ln H_N / H_0 = Σ ln xi => ln y = Σ ln xu

p_Y(y) = 1 / y_N √2π bN exp -(y - a_1)^2 / 2bN

a_2 = clu x

- = b

per comodità prendo H_0 = 1 => H_N = e^y

p'_u(H) = P_Y(y) / dH / dy \| y = f(H) = P_Y(y) / e^y = P_Y(y) / H \| y = f(H)

= 1 / H √2π bN exp - (eu H - a_N)^2 / 2bN

∫ e^(-Ax^2-Bx-C) dx = √(π / A) e^(B^2 / 4A - C)

ESERCIZI

1. P_XY(x, y) = c e^(-(a^2x^2 + by^4)) a, b > 0 note

P_X(x) = ∫ P_XY(x, y) dy = ∫ c e^(-(a^2x^2 + by^4)) dy =

= c e^(-a^2x^2) ∫ e^(-by^4) dy = c e^(-a^2x^2) ∫ e^(-b(y^2)^2) dy = c e^(-a^2x^2) √(π / b)

P_Y(y) = ∫ P_XY(x, y) dx = ∫ c e^(-(a^2x^2 + by^4)) dx =

= c e^(-by^4) ∫ e^(-a^2x^2) dx = c e^(-by^4) √(π / a)

P_X(x) ≤ A , P_Y(y) ≤ A

Possiamo calcolare anche l'entropia che cerchiamo nella formula S(E,V,N) partendo da un calcolo più preciso di:

ln Z = N ln V + 3/2 N ln (2πµ) + 3/2 N ln ε - ln Γ(3/2N+1) =

= N ln V + 3/2 N ln (2πµ) - 3/2 N ln ε - ln Γ(3/2N+1)) =

= N ln (Vε3/2C) - 3/2 N ln ε - N ln C =

S = -kB ln Z = -kB N ln [VC (ε/N)3/2]

La formula trovata ha di negativo che non è nella forma cercata poiché non compare il termine VN ma è possibile notare che facendo differenze di entropia questo problema si elimina perché

E/N = 3/2 kBT → S - NkB ln (VT3/2/N)

ΔS = NkB ln (V2/V1) (T2/T1)3/2

Teorema Ergodico

Sia A una trasformazione che conserva la misura su uno spazio misurabile. Si può allora considerare la media temporale di una funzione sufficientemente regolare f, che è definita come la media sulle iterazioni

f̅(x) = limN→∞ 1/N Σf(Akx)

Dettagli
Publisher
A.A. 2016-2017
89 pagine
SSD Scienze fisiche FIS/02 Fisica teorica, modelli e metodi matematici

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Physicist di informazioni apprese con la frequenza delle lezioni di Meccanica statistica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Roma La Sapienza o del prof Vulpiani Angelo.