Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
B
2
3
S = N k ln(V T A)
2
B
che coincide con quella che si ottiene sfruttando il secondo e primo principio della termodinamica.
Considerazioni: si osserva la presenza della densità di energia ma la mancanza della densità delle
particelle per unità di volume. 13
7 Problema dell’ergodicità
L’ergodicità è alla base della teoria della misura, dato che se tale ipotesi non fosse vera le misure
sarebbero strettamente correlate alle condizioni iniziali, che nel caso di sistemi complessi non sono
da noi controllabili.
Consideriamo un sistema costituito da N particelle non interagenti contenute in una scatola
riflettente.
Abbiamo che essendo un sistema isolato l’Hamiltoniana del sistema si conserva:
N 2
p̄
X n
H = 2m
n
ma essendo un sistema in cui gli urti sono elastici allora non solo l’energia totale del sistema si
conserva, ma anche quella delle singole particelle.
Questo implica che l’impulso di ciascuna particelle rimane costante in ogni tempo
2
p̄ = cost
i
Questo però fa sorgere un problema. Consideriamo adesso il nostro spazio delle fasi e l’ipersuperficie
definita dall’energia totale del sistema H.
Possiamo definire un numero arbitrario di regioni in cui il moto può svolgersi. Consideriamone per
semplicità due Ω e Ω .
1 2
Questo due zone sono entrambe legittime ma assumiamo che nella zona Ω l’osservabile sia identi-
1
camente nullo, mentre nella zona Ω l’osservabile sia unitario.
2
Questo porta alla caduta dell’ipotesi ergodica. Perchè?
Perchè se le condizioni iniziali del mio sistema sono tali che esso è rilegato a stare nella zona Ω o
1
Ω i risultati delle misure saranno inficiate.
2
Nota: il fatto che non esplorino l’intera ipersuperficie definita da H è dovuto alla considerazione
a monte che l’energia delle singole particelle si conserva.
7.1 Risoluzione parziale del problema
Una prima proposta, errata, data da Enrico Fermi si basava sull’assumere la presenza di un poten-
ziale di interazione abbastanza grande da far sı̀ che il sistema esplori l’intera ipersuperficie ma
abbastanza piccolo da poter essere trascurato nei calcoli.
La risoluzione di questo problema fu data da un matematico, Khinchin, che dimostrò che se le
regioni in cui la situazione va male (cioè in cui il moto si svolge solo ed esclusivamente lı̀) sono
piccole, allora si può parlare di ergodicità debole. 1
− ) dove N è il numero di gradi di
Dimostrò che la dimensione di tale regioni sono dell’ordine o(N 4
libertà costituenti il sistema. −5
Questo implica che nei sistemi termodinamici tali regioni sono dell’ordine 10 rendendo sensato,
anche se non rigoroso, avvalersi dell’ipotesi ergodica.
7.1.1 Teorema di Khinchin
Consideriamo un sistema di Hamiltoniana H definita
N 2
p̄
X X
n −
H = + V (q̄ ) + V (q̄ q̄ )
0
p n I n n
2m 0
n n,n
dove V è il potenziale esterno e V quello di interazione.
p I
∞ ∞ R P
hAi
Definito x̄ = (q̄, p̄), Ā = Ā (x̄) e = A(x̄)dx̄ dove A = f (q̄ , p̄ ) si ha
n n
n
∞ − hAi
Ā 1
1
− −
|
P (| > C N ) < C N
4 4
1 2
hAi
in che si traduce in: la probabilità di avere uno scarto dal valore vero dalla stima data normalizzata
→ ∞.
rispetto a quest’ultima tende a zero per N 14
8 Proprietà entropia - estensività
Consideriamo due sistemi S e S non interagenti.
1 2
Data la natura estensiva dell’entropia si ha che l’entropia totale è
S = S + S
T 1 2
Una volta posti a contatto, in modo che possano interagire si ha che l’entropia totale del sistema
rimane costante se i sistemi sono all’equilibrio, oppure aumenta se non lo sono.
Verifichiamo se la definizione di entropia data sia coerente con quanto atteso:
S = k ln Γ (E, V, N )
B ∆
8.1 Assunzioni preliminari
Prima di compiere una trattazione matematica facciamo delle considerazioni:
• N >> 1
• interazioni a corto raggio
In particolare l’ultima ipotesi è fondamentale per una trattazione rigorosa, altrimenti i calcoli
diventano intrattabili.
Abbiamo in generale che l’Hamiltoniana del sistema è della forma
2
p̄ X
X n −
+ V (q̄ ) + V (q̄ q̄ )
H = 0
e n I n n
2m 0
n n,n
dove V è il potenziale esterno, mentre V è quello di mutua interazione tra le particelle/molecole.
e I
Considerando per semplicità molecole a geometria sferica (in modo tale che il potenziale sia indipen-
dente dalla direzione) si ha una curva analoga a quella propria dei pianeti orbitanti tenendo conto
della barriera centrifuga. −10
≈
Si ha di conseguenza un minimo, che in questo caso è in corrispondenza di r 10 m.
C
Questo implica che le distanze di interazione sono di norma molto piccole rispetto alle dimensioni
del sistema considerato.
Esempio: dato un sistema quadrato di lato L dato dall’unione di due sottoinsiemi. Si ha che le
2
mutue interazioni in corrispondenza della superficie di contatto si estendono per un volume L r il
c
quale rispetto al volume totale è trascurabile.
8.2 Dimostrazione proprietà estensiva
Consideriamo due sistemi S e S uniti di energia rispettivamente E ed E tale che l’energia totale
1 2 1 2
è E = E + E + E = E + E
1 2 I 1 2
dato che l’energia di interazione E è piccola.
I
Conseguentemente anche l’Hamiltoniana del sistema totale è pari alla somma delle singole Hamil-
toniane.
Possiamo dunque definire l’ipervolume nello spazio delle fasi nella seguente maniera:
Z
Γ (E, V, w) = d
q
¯ d p
¯ d q
¯ d
p
¯
∆ 1 1 2 2
E +E <H +H <E +E +2∆
1 2 1 2 1 2
15
Posso fattorizzare a patto di considerare tutte le possibili combinazioni tali che E + E = E
1 2
Z Z
X
... = d q
¯ d
p
¯ d q
¯ d
p
¯
1 1 2 2
E <H <E +∆ E <H <E +∆
1 1 1 2 2 2
E=E +E
1 2
Si ha quindi scrivendo in funzione di Γ e Γ :
1 2 X
Γ (E) = Γ (E )Γ (E )
T 1 1 2 2
E +E =E
1 2
−
scrivendo E = E E (analogia alla convoluzione di distribuzioni di una somma) e
2 1 E
∈ ].
definendo l’intervallo discreto ∆, si ha che i possibili valori dell’indice della somma sono n [1, ∆
Da cui [E/∆]
X X
−
Γ (E) = Γ (n∆)Γ (E n∆) = a
T 1 2 n
n=1
definendo n∗ l’indice per cui a è massima si ha la seguente diseguaglianza:
n E
∗ ≤ ≤ ∗
a Γ (E) ( )a
n T n
∆
dove la prima deriva dal fatto che il singolo termine è sempre minore della somma di tutti (dato
che sono tutti positivi), la seconda invece è che la somma di tutti è al più pari al numero di termini
moltiplicato per il massimo valore a .
n
Passando ai logaritmi si ottiene: E
∗ ≤ ≤ ∗ )
ln a ln Γ ln a + ln(
n T n ∆
8.2.1 Definizione operativa del massimo termine
Consideriamo il generico termine a :
n a = Γ (E )Γ (E )
1 1 2 2
consideriamo per semplicità di curarci delle sole variazioni di E mantenendo costanti N, V .
Si ha, applicando l’operatore variazione e sfruttando δE + δE = 0:
1 2
∂Γ ∂Γ
2 1
→ −
δ(Γ (E )Γ (E )) = 0 Γ δE Γ δE = 0
1 1 2 2 1 2 2 2
∂E ∂E
2 1
si ha elidendo δE e dividendo i termini con Γ e Γ la seguente identità:
2 1 2
∂Γ ∂Γ
1 1 ∂ ln Γ ∂ ln Γ
1 2 1 2
→
= =
Γ(E ) ∂E Γ(E ) ∂E ∂E ∂E
1 1 2 2 1 2
moltiplicando ambo i membri per la costante di Boltzmann k si ottiene in entrambi i membri la
B
derivata dell’entropia rispetto all’energia, che è pari al reciproco della temperatura:
1 1 →
= T = T
1 2
T T
1 2
il che implica che il termine che dà il contributo maggiore è quello dato dalle energie tali che la
temperatura dei sistemi è costante (che corrisponde alla condizione di equilibrio).
Definiamo tali energie evidenziandole con la presenza di un asterisco.
8.3 Conclusione
∗
Sostituendo a a la sua definizione si ha:
n E
∗) ∗) ≤ ≤ ∗) ∗)
ln Γ (E + ln Γ (E ln Γ (E) ln Γ (E + ln Γ (E + ln( )
1 1 2 2 T 1 1 2 2 ∆
l’ultimo termine è trascurabile, dato che l’energia E del sistema è proporzionale al numero di
particelle (dato che posso vederla come N volte l’energia di una singola particella), il che implica
che l’ultimo termine è di ordine ln N . Invece gli altri termini sono di ordine N dato che lo è l’entropia
del sistema totale (stesso ragionamento compiuto per l’energia, per conferma guarda l’entropia di
un gas ideale).
Si ha quindi, moltiplicando il tutto per k :
B
∗) ∗) ≤ ≤ ∗) ∗)
S (E + S (E S (E) S (E + S (E
1 1 2 2 T 1 1 2 2
da cui si evince che l’entropia o è strettamente uguale alla somma dei singoli oppure è maggiore si
essa. 16
9 Paradosso di Gibbs
Consideriamo due gas perfetti identici con stessi parametri (V, N, T ), posti in un contenitore in-
izialmente diviso da un setto, la cui entropia è data da:
E 3/2
S = N k ln[V ( ) c]
1,2 B N
e di conseguenza l’entropia totale del sistema (con la presenza del setto) è:
S = S + S = 2S
T 1 2 1
Apriamo il setto, a seguito del mescolamento abbiamo un gas di parametri (2V, 2N, T ) il che implica
che: E E
3/2 3/2
S = 2N k ln(2V ( ) )
c) = 2N k ln(V ( c) + 2N k ln 2
T B B B
N V
si osserva che l’entropia totale del sistema è aumentata nonostante i due gas fossero all’equilibrio.
Cosa che è in completo disaccordo con quanto dimostrato nel paragrafo precedente.
Una conseguenza ancora più grave è che, data l’arbitrarietà con cui un sistema può essere suddiviso
(anche un infinito numero di parti), l’entropia risulta diversa a seconda di come io lo suddivida.
Questo implicherebbe che l’entropia non è una quantità ben definita.
Come poter risolvere questo paradosso?
Dovremmo avere nella definizione dell’entropia per un gas libero la presenza di V /N . Ma come
poterlo fare? Dando una nuova definizione di Σ (ipervolume dello spazio delle fasi):
1
→ Σ
Σ N !
in questo modo si ha 1 N
&m