Appunti di meccanica analitica
Anteprima
ESTRATTO DOCUMENTO
3.1 — Nozione di sistema integrabile 29
n
Figura 4: il moto quasi periodico su , in due diverse rappresentazioni
T n
Il moto nelle nuove variabili si svolge allora su un toro ed è lineare:
T ∂h
o o o ,
I(t) = I , ϕ(t) = ϕ + ω(I )t con ω = ∂I n 10
×
e nelle nuove variabili lo spazio delle fasi appare naturalmente decomposto nel prodotto B .
T
La figura 4a,b illustra il comportamento delle variabili I e ϕ.
La corrispondente struttura esiste evidentemente anche nelle vecchie variabili, semplicemente
n
× ⊂
trasformata da w. In particolare, ogni moto di H (nel dominio w(B ) D, che risulta
T
invariante) ha la forma o o o
(p(t), q(t)) = w(I , ϕ + ω(I )t) ,
11
ovvero è quasi periodico. La figura 4c dà un’immagine pittorica di una famiglia di questi tori
nello spazio delle fasi.
Prendiamo ad esempio un sistema linearizzato attorno a un punto di equilibrio stabile, con
hamiltoniana della forma 1 1
−1
· ·
H(p, q) = p A p + q Bq , (3.2)
2 2
ove A e B sono matrici simmetriche definite positive. Le coordinate p, q non rivelano immediata-
mente la struttura geometrica del sistema. Ma come insegna la teoria delle piccole oscillazioni, si
può innanzitutto passare alle coordinate normali, che qui denotiamo p̃, q̃, ottenendo un sistema di
n oscillatori armonici disaccoppiati: n
X
1 2 2 2
(p̃ + ω q̃ ) ; (3.3)
H̃(p̃, q̃) = i i i
2 i=1
10 n
E’ completamente equivalente pensare agli angoli ϕ sul toro oppure pensare, più semplicemente ma meno
T
n
geometricamente, che gli angoli corrono su , ma ovunque ci si restringe funzioni periodiche di periodo 2π negli
R
angoli.
11 Una funzione f (t) si dice quasi periodica con n frequenze ω , . . . , ω se esiste F (ϕ , . . . , ϕ ), periodica di periodo
1 n 1 n
2π in ciascun argomento, tale che f (t) = F (ω t, . . . , ω t).
1 n
3.2 — Le variabili di azione–angolo per il pendolo 30
poi, procedendo come nell’esempio (v) del paragrafo 2.1, si possono introdurre le variabili di azione–
angolo di ciascun oscillatore: p p
2ω I cos ϕ , q̃ = 2I /ω sin ϕ ,
p̃ = i i i i i i i
i
ottenendo una hamiltoniana dipendente dalle sole azioni, precisamente
·
K(I, ϕ) = ω I .
Sistemi con questa proprietà sono detti integrabili nel senso di Liouville. Una possibile
definizione formale è questa: ′
→ ⊂
L’hamiltoniana H : D si dice integrabile secondo Liouville nel dominio D D
R
Definizione 6 n n
∈ ⊂ ∈
se esiste una trasformazione canonica (p, q) = w(I, ϕ), definita per I B e ϕ , tale che
R T
′ n
× ◦
(i) D = w(B ), e (ii) la nuova hamiltoniana K = H w è funzione delle sole azioni:
T →
K(I, ϕ) = h(I) , h : B .
R
Con evidenza non tutti i sistemi sono integrabili: ad esempio, non appena nel dominio c’è un
∗ ∗
punto di equilibrio instabile (p , q ) con una separatrice e un moto (p(t), q(t)) che vi converge per
→ ∞,
t questo moto non è quasi periodico e dunque il sistema non è integrabile. L’integrabilità,
12
in un senso che si potrebbe definire, è un fatto eccezionale. Ma è un fatto di grande importanza,
perché riguarda alcuni tra i più significativi sistemi della fisica, come i sistemi armonici (masse
legate da forze elastiche), il corpo rigido di Eulero (corpo rigido con un punto fisso, in assenza di
forze attive) o di Lagrange (corpo rigido simmetrico con un punto fisso, nella gravità: la comune
trottola), e soprattutto il problema di Keplero e ogni altro problema di moto centrale. Nello
studio di questi e (pochi) altri simili problemi, l’apparato hamiltoniano non va però pensato come
una via per risolvere le equazioni del moto (tutti questi problemi si sapevano già risolvere prima
della meccanica hamiltoniana); l’apparato hamiltoniano ne fornisce piuttosto una descrizione più
profonda, utile sia a capirli meglio da un punto di vista geometrico, sia soprattutto a studiare
il problema molto interessante ma molto difficile dei sistemi prossimi a questi: ad esempio un
sistema di masse legate da forze leggermente non lineari; un corpo rigido in un debole campo di
forze (equivalentemente, in rapida rotazione); due o più problemi di Keplero debolmente accoppiati
(modelli di Sistema Solare, e numerosi altri problemi di Meccanica Celeste). Sono questioni difficili,
nelle quali non ci sarà possibile addentrarci veramente. Ma ci arriveremo alla soglia, riuscendo a
dare almeno un’occhiata all’interno.
3.2 Le variabili di azione–angolo per il pendolo
Per prendere familiarità con la nozione di sistema integrabile studiamo qui il caso facile (ma non
banale: c’è da imparare) dei sistemi a un grado di libertà. Per essere definiti ci riferiremo al
pendolo: 2
p 2 2
−ω ∈
H(p, q) = + V (q) , V (q) = cos q , (p, q) , (3.4)
R
2
ma il modo di procedere è generale e riguarda sostanzialmente tutti i sistemi con un grado di libertà
che abbiano moti limitati.
12 Questa cosa, pur chiara negli scritti di Poincaré, si è in realtà compresa bene relativamente di recente (si pensi
all’età che hanno questi problemi!), diciamo nel corso degli anni ’60 del ’900.
3.2 — Le variabili di azione–angolo per il pendolo 31
Figura 5: La costruzione delle variabili di azione–angolo per il pendolo.
Il ritratto in fase del sistema è riportato in figura 5; le traiettorie coincidono con le superfici di
livello (curve di livello) dell’energia, che denotiamo
2
{(p, ∈
Σ = q) : H(p, q) = E} . (3.5)
R
E
Ci restringiamo alle librazioni (il caso delle rotazioni è semmai più semplice), escludendo anche il
2 2
−ω
punto di equilibrio (l’origine), ovvero ci restringiamo all’intervallo di energia < E < ω e al
2
⊂
corrispondente dominio D . Allora lo spazio delle fasi topologicamente è il prodotto di un
R
intervallo per un circolo, ovvero un cilindro (o se si preferisce una corona). Vogliamo costruire
coordinate canoniche (p̃, q̃) sul cilindro, tali che p̃ resti costante e q̃ avanzi uniformemente. Una
prima scelta spontanea per p̃ è l’energia stessa
E = H(p, q) ,
mentre una quantità che avanza uniformemente nel tempo, buona candidata (anche dimensional-
mente) ad essere la nuova coordinata q̃, è il tempo stesso: precisamente, fissata una sezione che
S
tagli tutte le traiettorie, come la semiretta q = 0, p > 0, poniamo
τ = q) = tempo per arrivare da a (p, q) ,
T(p, S p
± −
ovvero (ricordando che dt = dq/v, con in questo caso v = p = 2(H(p, q) V (q)) )
Z q dx
p ≥
(p 0)
τ = −
2(H(p, q) V (x))
0 Z q dx
1 p
− (p < 0) , (3.6)
= T (H(p, q))
2 −
2(H(p, q) V (x))
0
ove T (E) è il periodo: Z q (E) dx
+ p
T (E) = 2 , (3.7)
−
2(E V (x))
q (E)
−
avendo denotato con q (E) i due punti di arresto all’energia E. In questo modo restano definite
±
E e τ come funzioni di p e q, ovvero resta definita la trasformazione inversa
−1
(E, τ ) = w (p, q)
= (H(p, q), q)) .
T(p,
3.2 — Le variabili di azione–angolo per il pendolo 32
Figura 6: La curva T (E) e il corrispondente dominio delle variabili E, τ .
Il tempo τ è in realtà funzione multivoca di (p, q), definita a meno di multipli del periodo T (E);
corrispondentemente, se scriviamo (p, q) = w(E, τ ) ,
la funzione w è periodica in τ di periodo T (E).
−1
Si verifica senza difficoltà che w è canonica, e dunque lo è w. Per questo è sufficiente veri-
{τ, {T,
ficare che risulta E} = 1, più precisamente H} = 1 (è questa l’unica parentesi di Poisson
{T,
elementare non banale). La cosa è del tutto ovvia: H} altro non è che nella dinamica di H,
Ṫ
ed evidentemente = 1 (se denotiamo p̂(t), q̂(t) il movimento, allora q̂(t)) = t).
Ṫ T(p̂(t),
{T,
Si calcoli esplicitamente la parentesi di Poisson H}, usando la (3.6) e l’espres-
Esercizio 24
sione (3.4) di H. Conviene osservare preliminarmente che la dipendenza di da p e q attraverso
T
{T,
H(p, q), a denominatore della funzione integranda, non contribuisce a H}.
Si determini la funzione generatrice S(E, q) della trasformazione w. [Risposta:
Esercizio 25 p
R q −
S(E, q) = 2(E V (x)) dx.]
0
Nelle nuove variabili l’hamiltoniana e le equazioni del moto sono evidentemente
H̃(E, τ ) = E , Ė = 0 , τ̇ = 1 .
Questa scelta della coppia energia–tempo come variabili che integrano il sistema con moto lineare
ha in realtà una complicazione nascosta: il periodo infatti dipende da E, pertanto il dominio della
coppia (E, τ ) non ha forma semplice (non è il prodotto di un dominio per ciascuna variabile); si
veda la figura 6. Per rimediare, sostituendo a τ un vero angolo con periodo fisso 2π, possiamo
cercare nuove coordinate canoniche (I, ϕ), con τ
ϕ = 2π T (E)
e I = I(E) che completi canonicamente la trasformazione (è indispensabile che I sia funzione della
sola E). La funzione I(E) si trova subito: infatti per la canonicità deve risultare
∂I
∂ϕ
{ϕ, ,
1 = I} = ∂τ ∂E
ovvero ∂I 1
= T (E) . (3.8)
∂E 2π
3.2 — Le variabili di azione–angolo per il pendolo 33
Figura 7: Il dominio rettangolare (cilindrico) nelle variabili I, ϕ.
Si vede facilmente che la funzione cercata è l’area sottesa dalla curva Σ , divisa per 2π:
E
I Z p
q (E)
1 1 + −
I(E) = 2(E V (x)) dx . (3.9)
p dq =
2π π q (E)
Σ −
E
Derivando rispetto a E si ottiene infatti la (3.8) con T (E) espresso dalla (3.7). (Vale la pena di
osservare che la dipendenza da E attraverso gli estremi non conta nella derivata, grazie al fatto che
la funzione integranda agli estremi si annulla.) 1
×
Il dominio D delle nuove variabili ora è rettangolare, D = (0, I ) S ; si veda la figura 7. La
max
nuova hamiltoniana ha la forma K(I, ϕ) = h(I) ,
avendo indicato con E = h(I) la funzione che inverte la (3.9), e le equazioni del moto sono
˙
I = 0 , ϕ̇ = ω(I) ,
∂h
con ω = . Abbiamo costruito in questo modo le variabili di azione–angolo per il pendolo, nel
∂I
dominio ristretto alle librazioni.
In modo analogo si introducano le variabili di azione–angolo per le rotazioni del
Esercizio 26 2
pendolo (E > ω ).
Si verifichi che per l’oscillatore armonico l’azione I(E), definita come area/2π
Esercizio 27
secondo la (3.9), coincide con E/ω.
• E’ bene sottolineare il fatto che nella nostra trattazione abbiamo dovuto escludere dallo spazio
delle fasi del sistema l’origine, ovvero il punto di equilibrio stabile, e le separatrici, ovvero la
superficie di livello dell’energia contenente il punto di equilibrio instabile. Nell’origine si ha
un’evidente singolarità geometrica: una famiglia di curve invarianti collassa lı̀ in un punto,
e in un intorno del punto singolare non è più possibile definire né τ né ϕ. E’ la consueta
singolarità delle coordinate polari. Sulle separatrici invece la singolarità è di altra natura: lı̀
il periodo T (E) diverge, i moti non sono più periodici, sarebbe ancora possibile introdurre la
coppia di variabili (E, τ ) ma non più la coppia (I, ϕ). E’ interessante osservare (perché la cosa
si generalizzerà) che i valori di E da escludere sono tutti e soli quelli per cui Σ definito dalla
E
(3.5) non è una curva (una sottovarietà dello spazio delle fasi), poiché ∂ H non è ovunque
p,q
diverso da zero su Σ .
E
3.3 — Il teorema di Liouville–Arnol’d 34
• Quanto abbiamo fatto può sembrare tutto implicito e difficilmete utilizzabile. In realtà ab-
biamo fatto una cosa grossa: la soluzione di un’equazione differenziale è stata riportata alle
operazioni assai più elementari di integrazione ordinaria e inversione di funzioni. In questo
modo ad esempio è più facile fare approssimazioni numeriche delle soluzioni, e costruire grafi-
ci, senza il deterioramento al crescere di t che ci sarebbe tentando di risolvere numericamente
le equazioni differenziali. Questo era, in buona sostanza, il programma di Liouville: riportare
ove possibile la soluzione delle equazioni di Hamilton alle operazioni di quadratura e inver-
sione. In effetti, i sistemi integrabili secondo Liouville, che stiamo trattando, si dicono anche
integrabili per quadrature. La posta in gioco in realtà, come si vedrà nei prossimi paragrafi,
è assai più alta del fare approssimazioni: si tratta di capire la struttura dello spazio delle
fasi dei sistemi integrabili e su queste basi comprendere la vera cosa che interessa, ovvero il
comportamento dei sistami prossimi a sistemi integrabili, di cui è disseminata la fisica.
3.3 Il teorema di Liouville–Arnol’d
Il procedimento introdotto nel paragrafo precedente si applica a tutti i sistemi hamiltoniani a
6
un grado di libertà, attorno a superfici di livello Σ sulle quali sia, in ogni punto, ∂ H = 0
p,q
E
(assenza di punti di equilibrio). Il problema fondamentale che ci poniamo è di generalizzare queste
considerazioni a sistemi con n gradi di libertà. Una generalizzazione banale è quella di n sistemi a
un grado di libertà disaccoppiati: n
X F (p , q ) .
H(p, q) = i i i
i=1 F non si annulla mai sulla
In questo caso se, per una certa scelta di f = (f , . . . , f ), si ha che ∂ i
1 n p ,q
i i
curva di livello definita da F (p , q ) = f (ciò assicura che si tratta di una vera curva), e se questa
i i i i
è chiusa, allora la varietà su cui si svolge il moto, che denotiamo Σ , è un toro n–dimensionale (il
f
prodotto delle n curve) e il moto su di esso è quasi periodico con n frequenze. In questa facile situa-
zione, procedendo separatamente per ciascun sottosistema, si possono chiaramente introdurre in
un intorno di Σ variabili di energia–tempo (E, τ ) e poi variabili di azione–angolo (I, ϕ), che danno
f
a ciascun sottosistema la forma K (I , ϕ ) = h (I ) e al sistema complessivo la forma integrabile
i i i i i · · ·
K(I, ϕ) = h(I) , h(I) = h (I ) + + h (I ) .
1 1 n n
L’idea fondamentale di Liouville (metà ’800), completata (inizio anni ’60 del ’900) da Arnol’d,
è che questa situazione persiste anche nel caso interagente, purché esistano n costanti del moto
F , . . . , F indipendenti e inoltre a due a due “in involuzione”, precisamente con mutua parentesi
1 n 13
di Poisson nulla: {F }
, F = 0 , i, j = 1, n.
i j
Vale infatti il fondamentale Teorema di Liouville–Arnol’d :
13 Quest’ultima condizione, come si è accennato nel paragrafo 1.2, è necessaria e sufficiente perché gli n flussi
hamiltoniani associati alle n hamiltoniane F , . . . , F commutino:
1 n
τ τ
τ τ
j j
Φ ◦ Φ = Φ ◦ Φ ∀i, j ;
i i
F F F F
i j j i
si veda l’appendice C.
3.3 — Il teorema di Liouville–Arnol’d 35
2n
Sia D un aperto di munito di coordinate canoniche (p, q) = (p , . . . , p ,
R
Proposizione 16 1 n
→
q , . . . , q ), e siano F , . . . , F , F : D funzioni regolari a due a due in involuzione:
R,
1 n 1 n i {F } ∀i,
, F = 0 j . (3.10)
i j
n
∈
Per f denotiamo
R {(p, ∈
Σ = q) D : F (p, q) = f , i = 1, . . . , n} ,
i i
f ∗ n
6 ∅ ∈
e assumiamo che F , . . . , F siano indipendenti su Σ = per un opportuno f , precisamente
R
∗
1 n f
∂(F , . . . , F )
1 n
rango = n (3.11)
∂(p , . . . , p , q , . . . , q )
1 n 1 n
in ogni punto di Σ . Allora:
∗
f tF
i. Σ è una varietà n–dimensionale, invariante per ciascuno degli n flussi hamiltoniani Φ .
∗
f i
14 n n n
ii. Σ , se connessa e compatta, è diffeomorfa al “toro standard” = /(2πZ) ;
T R
∗
f n ∗
⊂
iii. esiste un intorno di f , tale che l’insieme
F R [ Σ
Σ = f
F f ∈F n
×
(“intorno tubolare di Σ ”) è diffeomorfo a , e inoltre
F T
∗
f
iv. in Σ esistono coordinate canoniche di azione–angolo, precisamente esiste un cambiamento
F
di coordinate (p, q) = w(I, ϕ), definito per n n
∈ × ⊂
(I, ϕ) B , B ,
T R
n
× ◦
tale che Σ = w(B ), e ciascuna funzione trasformata F̃ = F w è funzione delle sole
T i i
F
azioni, ˜
F̃ (I, ϕ) = f (I) ;
i i →
viceversa le azioni I sono funzioni invertibili delle sole F , precisamente esiste : B tale
I F
che I(p, q) = (p, q), . . . , F (p, q)).
I(F
1 n
Si osservi che l’enunciato è simmetrico in F , . . . , F : una qualsiasi F può essere l’hamiltoniana
1 n i
che ci interessa studiare, e le altre sono allora le sue costanti del moto. Se quella che ci interessa
è denotata H, allora il teorema dice, in particolare, che ogni moto di H (nel dominio in cui il
teorema si applica) si svolge su un toro n–dimensionale, è quasi periodico con n frequenze, e si
possono introdurre coordinate di azione angolo (I, ϕ) che mutano H in una nuova hamiltoniana K
dipendente solo dalle azioni. L’hamiltoniana H è allora integrabile secondo Liouville, nel dominio
15
Σ , secondo la definizione 6. Parimenti integrabile è ogni hamiltoniana che sia funzionalmente
F n →
dipendente da F , . . . , F , cioè H(p, q) = (p, q), . . . , F (p, q)) con : qualsiasi.
H(F H R R
1 n 1 n
14 Ci si può comunque sempre restringere a una sua componente connessa. Se manca la compattezza, ma ugualmente
n,k
i flussi sono prolungabili a t ∈ allora Σ è diffeomorfa al cilindro prodotto di k circoli e n − k rette,
C
R, f
n,k n k
= /(2πZ) ; nel caso compatto, l’unico veramente interessante, si ha k = n e il cilinrdo diventa un toro. Nel
C R
caso non compatto si possono comunque introdurre k coppie di coordinate di azione–angolo I , ϕ , mentre per gli
i i
altri gradi di libertà è possibile introdurre coordinate di energia–tempo E , τ (con le τ non periodiche).
i i i
15 Il teorema di Liouville–Arnol’d è a volte usato, in letteratura, per definire i sistemi integrabili: i sistemi integrabili
secondo Liouville sono in questo caso direttamente definiti come quei sistemi per cui H, assieme a n − 1 opportune
funzioni F , soddisfa le ipotesi del teorema di Liouville–Arnol’d.
i
3.3 — Il teorema di Liouville–Arnol’d 36
Si dimostri quest’ultima affermazione.
Esercizio 28
La dimostrazione del teorema, complessa e non facile, sicuramente va oltre gli scopi di queste
note. Nell’appendice F tuttavia è riportata la dimostrazione dei punti i. e ii., che sono la parte più
interessante.
• La scelta delle variabili di azione–angolo non è mai unica. In particolare se (I, ϕ) è una scelta
|
possibile, e A è una qualunque matrice intera con det A| = 1 (equivalentemente: A è intera
con inversa intera), allora la trasformazione canonica
−T
I = A J , ϕ = Aψ (3.12)
fornisce un’altra scelta possibile di variabili di azione–angolo. La condizione su A garantisce
2
che alla trasformazione lineare ϕ = Aψ in corrisponda una mappa regolare e biunivoca:
R
2 2
→ ; si veda l’esercizio qui sotto. La libertà offerta dalla (3.12) in qualche caso è molto
T T
utile; si veda ad esempio l’esercizio 32. 2
Si dimostri che alla mappa lineare ϕ = Aψ su corrisponde una mappa regolare
R
Esercizio 29
2 2 −1
→
biunivoca: se e solo se A e A sono intere. [Bisogna e basta che, nei due versi, punti
T T
2 2
equivalenti di , cioè punti le cui coordinate differiscono per multipli interi di , siano inviati in
R R
punti equivalenti.]
Vediamo ora alcuni esempi di sistemi integrabili, presi tra quelli fisicamente più interessanti.
(i) I sistemi isocroni, precisamente sistemi con l’hamiltoniana della forma (3.2), di cui si è già detto.
Sono chiamati anche sistemi lineari in quanto le equazioni del moto sono lineari. Dopo il passaggio
ai modi normali l’hamiltoniana ha la forma (3.3); sono costanti del moto in involuzione le n energie
12 2
2
2
degli oscillatori, cioè (rimuovendo la tilde) E = ), i = 1, . . . , n. La matrice di cui va
q
+ ω
(p
i i
i
i
verificato che abbia rango n è, ordinando qui per comodità le variabili (p , q , . . . , p , q ),
1 1 n n
2
p ω q
1 1
1
2
∂(E , . . . , E ) q
p ω
1 n 2
2
2
= .
···
∂(p , q , . . . , p , q )
1 1 n n 2 q
p ω n
n n
Si ha allora una caduta di rango se uno o più oscillatori sono all’equilibrio: p , q = 0 per almeno un
i i
indice i. Al di fuori di questo caso il rango è n e corrispondentemente il moto avviene sul prodotto
n
di n circoli, cioè su un toro , ed è quasi periodico con n frequenze:
T o o
I (t) = I , ϕ (t) = ϕ (t) + ω t , i = 1, . . . , n . (3.13)
i i i
i
Invece in corrispondenza all’equilibrio di uno o più oscillatori una famiglia di tori n dimensionali
collassa su un toro di dimensione inferiore (il moto è ancora quasi periodico, con un numero inferiore
di frequenze). 2
Per n = 2 si consideri il moto quasi periodico di ϕ , ϕ su definito dalle (3.13).
T
Esercizio 30 1 2
Si dimostri che (a) se α = ω /ω è razionale, allora tutti i moti sono periodici; (b) se invece α
1 2
è irrazionale, la traiettoria è densa sul toro (Jacobi, 1835). La seconda parte non è immediata.
Conviene prima risolvere l’esercizio seguente: si consideri la traslazione sul circolo (0, 2π) definita
da Φ(ϕ) = ϕ + 2πα (figura 8a), e per ogni ϕ si consideri la successione ϕ , ϕ , . . . , ϕ , . . . definita
0 0 1 t
≥
da ϕ = Φ(ϕ ), t 0. Si dimostri che la successione è densa sul sul circolo se e solo se
t+1 t
α è irrazionale. Anche questo però richiede una certa ingegnosità; si veda l’appendice E. Per
comprendere il legame tra i due esercizi si osservi la figura 8b.
3.3 — Il teorema di Liouville–Arnol’d 37
2
Figura 8: (a) la traslazione sul circolo; (b) il legame col moto lineare su .
T
Con le notazioni dell’esercizio precedente si consideri il caso di α razionale, α = k/l.
Esercizio 31
Si determini una ulteriore costante del moto del sistema, in aggiunta a I e I .
1 2
Si consideri l’hamiltoniana lineare integrabile H(I , I , ϕ , ϕ ) = ω I + ω I . (i)
Esercizio 32 1 2 1 2 1 1 2 2
Per ω = ω si trovi una trasformazione canonica (I, ϕ) = w(J, ψ) tale che la nuova hamiltoniana
1 2
dipenda solo da J . (ii) Si estenda il risultato a ω /ω razionale qualsiasi; si cerchi per questo
1 1 2
w della forma (3.12). La seconda parte richiede un po’ di ingegnosità (o qualche conoscenza di
aritmetica); si veda l’appendice E.
Si consideri un cambiamento di variabili del tipo
Esercizio 33 I = u(J) , ϕ = v(J, ψ) . (3.14)
Qual è la forma più generale possibile di u e v tale che la trasformazione sia canonica, con v :
2 2
→ biunivoca? [Risposta: è una marginale generalizzazione della (3.12), precisamente
T T −T
I = A J , ϕ = A[ψ + a(J)] ,
∂a
∂a j
|
con A intera con det A| = 1 e a tale che = .]
i
∂J ∂J
j i
(ii) Il moto centrale piano, in particolare il problema di Keplero. Per questi sistemi l’hamiltoniana
(supponendo la massa unitaria) ha la forma 2
2 p
p r ϑ
+ + V (r) ; (3.15)
H(p , p , r, ϑ) =
r ϑ 2
2 2r
con evidenza si conservano e sono in involuzione l’energia H e il momento angolare p . Il moto
ϑ
6
nel piano ϑ p è allora come in figura 9: p resta costante, mentre ϑ, supponendo p = 0, avanza
ϑ ϑ ϑ
2 6
monotonamente ( ϑ̇ = p /r = 0). Per quanto riguarda la coppia (p , r), per ogni fissato p essa è
r
ϑ ϑ
regolata dall’hamiltoniana efficace 2
2 p
p r ϑ
(p , r) = + (r) , (r) = + V (r) .
H V V
p r p p 2
ϑ ϑ ϑ
2 2r
Supponiamo V attrattivo della forma qualitativa riportata in figura 10a, con (eventuale) divergenza
2
−1/r
nell’origine più debole di in modo che abbia la forma qualitativa riportata in figura 10b
V
p ϑ
3.3 — Il teorema di Liouville–Arnol’d 38
Figura 9: Il punto (ϑ, p ) corre su un circolo.
ϑ
Figura 10: (a) Il potenziale attrattivo V ; (b) il corrispondente potenziale
efficace ; (c) il ritratto in fase di .
V H
p p
ϑ ϑ
e corrispondentemente il ritratto in fase di sia come in figura 10c. Verifichiamo l’ipotesi che il
H
p ϑ
∂(H,p )
ϑ
rango della matrice sia due. Si ha
∂(p ,p ,r,ϑ)
r ϑ !
∂V
p pϑ 0
p ϑ
∂(H, p ) r
ϑ 2 ∂r
r ,
=
∂(p , p , r, ϑ) 0 1 0 0
r ϑ ∂V p = 0. Ciò si verifica
pertanto si ha una caduta di rango se simultaneamente risulta p = 0 e ϑ
r ∂r
sui punti di equilibrio del sistema ridotto , ovvero in corrispondenza ai moti circolari di H. Al
H
p ϑ
di fuori di questo caso invece ogni moto di (con energia negativa) avviene su una traiettoria
H
p ϑ
chiusa, cioè su un circolo. Corrispondentemente, ogni moto di H avviene sul prodotto di questo
circolo e del circolo considerato sopra nel piano ϑp , in cui ϑ avanza monotonamente a p costante.
ϑ ϑ
16
Il moto si svolge cosı̀ su un toro bidimensionale. In corrispondenza ai moti circolari invece una
famiglia di tori bidimensionali collassa in un circolo, e corrispondentemente un angolo non è più
definito; si veda la figura 11.
I moti di (p , ϑ) e (p , r) nei due circoli hanno periodi T e T dipendenti dalle costanti del
r r
ϑ ϑ
moto E e p , in generale diversi e incommensurabili: i moti non circolari allora in generale non
ϑ
sono chiusi e anzi (si veda sopra l’esercizio 30) riempiono densamente il toro cui appartengono.
Proiettati nello spazio delle configurazioni essi danno il noto moto “a rosetta”, si veda la figura 12,
in cui durante ogni periodo T l’angolo ϑ, misurato ad esempio al perielio, avanza di una quantità
r −k/r,
fissa Θ in generale non commensurabile a 2π. Fa eccezione il caso kepleriano V = per il
quale come è noto T e T sono sempre uguali tra loro, perciò Θ = 0 e tutte le traiettorie anche
r ϑ
non circolari sono chiuse.
16 Non è difficile vedere che per E ≥ 0, venendo a mancare la compattezza delle curve in figura 10c, il moto avviene
su un cilindro; si veda la nota 14, a proposito del teorema di Liouville–Arnol’d.
3.3 — Il teorema di Liouville–Arnol’d 39
2
Figura 11: in corrispondenza ai moti circolari una famiglia di tori collassa in un circolo.
T
La descrizione dettagliata del passaggio alle variabili di azione–angolo per il moto centrale piano
sarà fatta più avanti nel paragrafo 3.5C, tramite l’equazione di Hamilton–Jacobi; qui ci limitiamo
a esporre il risultato. Una scelta possibile di queste variabili, di fatto la più comune e la più
conveniente nelle applicazioni, è 1 |p |
p ) +
I = A(E,
1 ϑ ϑ
2π
I = p
2 ϑ τ (r, p , E, p )
r ϑ
ϕ = 2π
1 T (E, p )
r ϑ
τ (r, p , E, p )
r ϑ
ϕ = ψ +Θ
2 T (E, p )
r ϑ
ove E = H(p , p , r, ϑ); è l’area sottesa dalla curva passante per (r, p ) nel piano rp (figura 13),
A
r r r
ϑ
a p costante (A dipende solo da p e da E); τ è il tempo necessario a raggiungere (r, p ) a partire
r
ϑ ϑ
dal perielio (figure 13 o anche 12); infine ψ è l’angolo che individua l’ultimo perielio a partire da una
direzione assegnata (figura 12). La nuova hamiltoniana ha una forma che non si scrive in termini
di funzioni elementari, comunque dipende solo da I e I ,
1 2
K(I , I , ϕ , ϕ ) = h(I , I ) .
1 2 1 2 1 2
L’angolo ϕ , detto anomalia media, ha origine nell’ultimo perielio e avanza uniformemente fino a
1 17
2π al momento del passaggio al perielio successivo. L’angolo ϕ , detto argomento del perielio,
2
avanza invece uniformemente di Θ nel tempo intercorrente tra due passaggi successivi al perielio
(resta definita, in questo modo, una posizione del perielio anche tra un passaggio e l’altro).
−k/r,
Nel caso kepleriano, cioè per V (r) = come è noto, si ha una costante del moto in
più, che qui si traduce nel fatto che ϕ resta costante: il perielio non avanza e tutti i moti sono
2
periodici (anziché quasi periodici con due frequenze). L’hamiltoniana h nel caso di Keplero si scrive
esplicitamente; essa risulta dipendere dalla sola I , e a conti fatti si trova
1 2
k
−
h(I ) = . (3.16)
1 2
2I 1
Come poi è noto dalla meccanica newtoniana, il semiasse maggiore a delle ellissi di Keplero è
−k/(2h);
funzione della sola energia h, precisamente si ha a = sostituendo h nella (3.16) si trova
17 Per la legge delle aree, ϕ è dunque proporzionale all’area spazzata dal punto che esegue il moto centrale a partire
1
dal perielio.
3.3 — Il teorema di Liouville–Arnol’d 40
Figura 12: Una tipica traiettoria per un moto centrale
Figura 13: La variabili e τ per il moto centrale.
A
allora il legame tra l’azione I e il semiasse,
1 √ ka .
I =
1
Il risultato è coerente con la terza legge di Keplero: infatti dall’espressione (3.16) di h si trova
1/2
2
∂h k
k
ω (I ) = =
= ,
1 1 3 3/2
∂I I a
1 1
da cui segue 2
(2π) 3
2 a .
T = k −k/r
Si verifichi che nel caso kepleriano V = il vettore
Esercizio 34 × − ×
A = p l kq/r , l = q p
(“vettore di Runge–Lenz”) è costante nel tempo. (Si può calcolare Ȧ lungo il flusso hamiltoniano,
{A
o equivalentemente calcolare algebricamente le tre parentesi di Poisson , H,}). Si osservi che
i ·
la direzione del vettore è parallela al semiasse maggiore delle ellissi. (Infatti, A p = 0 al perielio,
·
cioe quando q p = 0.)
Alla luce del caso kepleriano diamo la seguente definizione:
3.3 — Il teorema di Liouville–Arnol’d 41
Figura 14: Il problema di Keplero visto in tre dimensioni.
Sistemi integrabili in cui una o più azioni non compaiono nell’hamiltoniana, mentre
Definizione 7
corrispondentemente gli angoli ad esse coniugati restano fermi, sono detti degeneri, e i gradi di
libertà assenti da h sono detti essi stessi degeneri.
Il problema di Keplero piano dunque è degenere. I sistemi degeneri hanno cosı̀ un numero n di
0
18
frequenze (non nulle) inferiore a n e corrispondentemente tutti i moti sono ristretti a tori di
dimensione n (dimensione uno, e dunque orbite chiuse con moti tutti periodici, per Keplero). Il
0 −
numero di costanti del moto viceversa è più alto, 2n n > n, e per questo i sistemi degeneri sono
0
anche detti superintegrabili. 1 2 2
ω r . (Al
Si studi l’oscillatore armonico piano, con hamiltoniana (3.15) e V (r) =
Esercizio 35 2
pari del problema di Keplero, il sistema è degenere e ha tutti i moti periodici. Il teorema di Bertrand
assicura che non vi sono altri casi di moti centrali con questa proprietà.)
Per n = 2 si consideri il sistema integrabile lineare di hamiltoniana h(I , I ) =
Esercizio 36 1 2
ω I + ω I . Si mostri che se ω /ω è razionale, allora il sistema con una trasformazione canonica
1 1 2 2 2 1
del tipo (3.12) prende la forma degenere. [Suggerimento: ci si rifaccia all’esercizio 32. Per ω = ω
1 2
si ha l’oscillatore armonico piano.]
(iii) Il moto centrale come problema tridimensionale (cenno). Possiamo guardare a un generico
moto centrale non più nel piano ma nello spazio. Il sistema è integrabile: precisamente, detto
2
M il momento angolare, si conservano e sono indipendenti e in involuzione H, M (o il modulo
19
kM k) e una qualunque componente M di M , con scelta arbitraria dell’asse z. Il sistema è
z
superintegrabile, o degenere, qualunque sia il potenziale: ha infatti una costante del moto in più,
′ 6
ad esempio M con z = z qualsiasi; corrispondentemente ha due anziché tre frequenze. Il caso
′
z
kepleriano a sua volta si pesenta doppiamente degenere, con una sola frequenza.
Il moto di fatto è piano, e mettendoci nel piano dell’orbita possiamo ripetere la trattazione
kM k),
precedente (si osservi che p = costruendo in modo identico I , I , ϕ , ϕ . Come terza
1 2 1 2
ϑ
18 Non ci si confonda col fatto che per particolari dati iniziali, ad esempio in corrispondenza ai moti circolari nel
n
problema del moto centrale, un toro può degenerare in un toro di dimensione inferiore.
T
19 Si conservano anche, ma non sono in involuzione, le tre componenti del momento angolare M , M , M .
x y z
3.4 — Il corpo rigido di Eulero come sistema hamiltoniano integrabile 42
azione si può prendere I = M ; I determina cosı̀ l’inclinazione del piano dell’orbita (evidentemente
3 z 3
costante) rispetto al piano xy. L’angolo ϕ coniugato a I risulta essere l’angolo nel piano xy da
3 3
una direzione prefissata, ad esempio l’asse x, alla “linea dei nodi” in cui il piano dell’orbita interseca
il piano xy. Il piano dell’orbita è fisso, e corrispondentemente ϕ non avanza; I non compare in H
3 3
— l’inclinazione dell’orbita certo non cambia l’energia — coerentemente con il fatto che il sistema
è degenere. La figura 14 illustra il caso kepleriano.
3.4 Il corpo rigido di Eulero come sistema hamiltoniano integrabile
Il corpo rigido di Eulero è il corpo rigido con un punto fisso in assenza di forze attive. In questo
paragrafo ci proponiamo di descriverlo come sistema hamiltoniamo integrabile, e in particolare di
introdurre le sue coordinate di azione–angolo; indispensabile premessa è la trattazione classica di
questo sistema, richiamata nell’appendice G.
Denotiamo con (O, e , e , e ) un sistema di riferimento fisso nello spazio, con origine nel punto
x y z
fisso del corpo, e con (O, e , e , e ) un sistema di riferimento solidale al corpo e principale (cioè
1 2 3
con gli assi cartesiani paralleli agli assi principali di inerzia relativi a O). La configurazione del
∈
corpo è univocamente individuata da una matrice R SO(3), ad esempio la matrice tale che
e = Re e cosı̀ via; la varietà delle configurazioni del sistema dunque è il gruppo SO(3). Lo
1 x
stato del sistema è poi univocamente determinato assegnando, oltre a R, il momento angolare m.
3
Quest’ultimo si può pensare come vettore di facendo riferimento, equivalentemente, alla terna
R
c s
di componenti m = (m , m , m ) nella base propria oppure alla terna m = (m , m , m ) nella
1 2 3 x y z
s c
base fissa nello spazio; la relazione tra le due è m = Rm . Per essere definiti, e come risulta di
c
fatto più conveniente, faremo riferimento a m , pertanto identificheremo gli stati del sistema con
le coppie c 3
∈ ×
(R, m ) SO(3) .
R
20
Lo spazio delle fasi risulta cosı̀ essere la varietà prodotto
3
×
= SO(3) .
M R
Nel sistema si conserva l’energia (cinetica) 21 2 2
m m m
c 2 3
K(m ) = + + , (3.17)
2A 2A 2A
1 2 3
ove si sono denotati con A , A , A i momenti di inerzia relativi alla base propria. Oltre a K si
1 2 3
conservano le tre componenti di m nello spazio m , m e m , dunque in tutto le quantità conservate
x y z 21 2
sono quattro. Una terna di costanti del moto in involuzione è (K, m , m ), ma evidentemente al
z ′
posto di m si può prendere una qualunque altra componente m di m in una direzione fissa z
′
z z
20 Che lo spazio delle fasi abbia globalmente la struttura di prodotto è un fatto eccezionale. In genere, se è
Q
la varietà delle configurazioni di un sistema olonomo a n gradi di libertà, la meccanica lagrangiana e la meccanica
n
hamiltoniana sono definite su varietà che solo localmente hanno la struttura di prodotto × , ove è un aperto di
U U
R
globalmente si ottengono invece varietà più complesse, dette fibrato tangente e fibrato cotangente rispettivamente
Q;
per la meccanica Lagrangiana e per quella Hamiltoniana. Per il corpo rigido si ottiene la struttura globale di prodotto
grazie al fatto eccezionale che lo spazio delle configurazioni SO(3) è un gruppo.
21 2
Qui il discorso zoppica un po’: che K, m e m siano in involuzione è chiaro per punti materiali non vincolati, meno
z
chiaro per punti soggetti al vincolo di rigidità, perché non è ben definita una struttura hamiltoniana di riferimento
(delle coordinate locali canoniche, in una visione locale). Il percorso paziente è: introdurre coordinate lagrangiane
ad arbitrio su SO(3), scrivere L (L = K, per il corpo rigido di Eulero), introdurre i momenti coniugati, verificare che
2
K, m e m , che sono additive sui punti che compongono il corpo rigido, hanno mutua parentesi di Poisson nulla.
z
3.4 — Il corpo rigido di Eulero come sistema hamiltoniano integrabile 43
Figura 15: (a) La descrizione di Poinsot; (b) le coordinate di Andoyer
(per confronto sono stati indicati, con tratto punteggiato, i consueti an-
×
goli di Eulero ϑ, ϕ, ψ e la linea dei nodi n = e e che entra nella loro
z 3
costruzione).
dello spazio. Il sistema dunque è integrabile, ma ha una costante del moto in più ovvero, secondo
la terminologia sopra introdotta, è superintegrabile (si osservi la forte somiglianza con il caso del
moto centrale in tre dimensioni).
A. Il caso simmetrico e le coordinate di Andoyer. 6
Ci restringiamo ora per semplicità al caso di corpo rigido simmetrico: A = A = A . Risulta
1 2 3
allora 1 1
1 21 22 23 2 23
c (m + m ) + m = (m + η m ) , (3.18)
K(m ) = 2A 2A 2A
1 3 1
ove η è il “fattore di forma” −
A A
1 3
η = .
A
3
≤
Poichè si ha sempre 0 < A A + A = 2A , risulta
3 1 2 1
1
− ≤ ∞
η< ;
2
−1/2
η = corrisponde a A = 2A , cioè a un corpo piatto (una situazione limite che non presenta
3 1
∞
difficoltà), mentre per η = si avrebbe un corpo filiforme, A = 0: una situazione singola-
3
re che escludiamo dalle nostre considerazioni. Come si vede dalla (3.18), al posto di K si può
equivalentemente usare la quantità conservata m , e far cosı̀ riferimento alle costanti del moto
3
kmk , m , m , m ;
′
3 z z {m } 6
le prime tre, ma anche le prime due e l’ultima, sono in involuzione (invece , m = 0 ).
′
z z
La descrizione buona del moto, adatta a mettere in evidenza la struttura integrabile del sistema,
è quella suggerita da Poinsot, che qui ricordiamo brevemente (si veda la figura 15a).
◦ Il momento angolare m è costante nello spazio.
◦ La componente m , e dunque l’angolo tra m e e , sono costanti.
3 3
3.4 — Il corpo rigido di Eulero come sistema hamiltoniano integrabile 44
◦ I vettori m, ω e e , ove ω denota la velocità angolare del corpo (appendice G) sono complanari,
3
dunque ′ ′′
ω = ω e + ω e ove e = m/kmk ; (3.19)
m 3 m
con semplici considerazioni geometriche si trova
kmk m
3
′ ′′
ω = , ω = η .
A A
1 1 ′
◦ Il piano di m, ω, e precede attorno a m con velocità angolare ω costante; simultaneamente
3 ′′
il corpo ruota attorno a e con velocità angolare ω costante. Per descrivere questi due moti
3 ′ ′′
è utile tracciare due coni e (coni di Poinsot) con vertice comune nell’origine, il primo
C C
con asse m, fisso nello spazio, e il secondo con asse e , solidale al corpo; i coni si toccano sulla
3
direttrice comune ω. I punti del corpo su questa retta, che è asse istantaneo di rotazione,
′′ ′
hanno velocità nulla, perciò il cono solidale rotola senza strisciare su fisso, come se ci
C C
fosse un vincolo di puro rotolamento tra due oggetti materiali.
La descrizione ha senso solo se m e e non sono paralleli, ovvero al di fuori delle rotazioni proprie
3
sulle quali tutto diviene singolare. Qualche dettaglio in più si trova nell’appendice G.
Non è difficile introdurre sei coordinate adattate alla descrizione del moto di Eulero–Poinsot,
che descrivano completamente lo stato di moto del corpo (si veda la figura 15b).
◦ kmk,
Poniamo innanzitutto G = L = m . Queste quantità sono costanti e determinano
3
l’apertura dei coni e le frequenze delle precessioni su di essi. Sono quantità intrinseche, cioè
definite indipendentemente dalla scelta (arbitraria) della terna fissa (e , e , e ).
x y z
◦ Con una coppia di coordinate fissiamo l’orientamento di e nello spazio. Una scelta conve-
m ′ ×
niente è (J, j), con J = m e j = angolo nel piano xy da e alla linea dei nodi n = e m
z x z
(coordinate cilindriche di e nella base fissa). Le coordinate (J, j) dipendono evidentemente
m × 6
dalla scelta della terna fissa, e sono ben definite se e e m non sono paralleli, e m = 0.
z z
◦ Infine, con due angoli determiniamo l’avanzamento del sistema lungo i coni di Poinsot. Un
primo angolo, che denoteremo g, descrive la precessione di ω e e attorno a m, e precisamente
3
′
è l’angolo, nel piano ortogonale a m, dalla linea dei nodi n a una seconda linea dei nodi
′′ ′
×
n = m e ; l’angolo g dipende (solo) per l’origine n dalla scelta della terna fissa. Il secondo
3
angolo, che denoteremo l, descrive la rotazione propria, ed è definito come l’angolo nel piano
′′
equatoriale e e da n a e ; la coordinata l cosı̀ definita è intrinseca. Entrambi gli angoli sono
1 2 1 × 6
ben definiti se m e e non sono paralleli, m e = 0. Il confronto con la figura 15a mostra
3 3
′
che g è l’angolo tratteggiato sul cono , solo ne è stata precisata l’origine; l differisce di π/2
C
dall’angolo tratteggiato sul secondo cono.
Si raccomanda di rifare da sé una o due volte la figura 15b. Si osservi che g, l, e j sono angoli nei
piani ortogonali, rispettivamente, a m, e e e ; corrispondentemente G, L e J sono le componenti
3 z
del momento angolare lungo le tre direzioni.
E’ laborioso, ma non veramente difficile, verificare che (G, L, J, g, l, j) sono effettivamente delle
3
× ×
buone coordinate (una carta di SO(3) ), se si escludono: (i) le rotazioni proprie m e = 0
R 3
±G),
(ovvero L = ove i coni di Poinsot sono singolari; (ii) inoltre, per evitare la singolarità delle
×
coordinate cilindriche J, j, il caso e m = 0. Ma quest’ultima non è una vera limitazione, data
z
3.4 — Il corpo rigido di Eulero come sistema hamiltoniano integrabile 45
Figura 16: Lo spazio delle fasi del corpo rigido.
l’arbitrarietà della scelta dell’asse z. Quanto al dominio delle diverse coordinate, per (G, L) il
dominio è 2
{(G, ∈ −G }
= L) : G > 0 , < L < G ;
A R
2 2 1
×
il dominio di e è la sfera S , mentre il dominio delle coordinate (J, j) su S è (−G, G) S (si
m 2
∈
escludono i due “poli” ove l’asse z buca la sfera); infine (g, l) . Si veda la figura 16: in ogni
T
punto di è attaccata una sfera S, con coordinate (J, j); in ogni punto della sfera è attaccato un
A 22
toro bidimensionale. Questo è lo spazio delle fasi del sistema, se si escludono le rotazioni proprie.
L’interesse principale per le coordinate (G, L, J, g, l, j) è che, prese in quest’ordine, esse costituiscono
coordinate canoniche, nelle quali le lettere minuscole denotano le coordinate e le corrispondenti
lettere maiuscole denotano i rispettivi momenti coniugati. Vale infatti la seguente importante
proposizione, dovuta a Andoyer (1923), in seguito “riscoperta” da Deprit (1961) e chiamata di
solito teorema di Andoyer–Deprit:
Le coordinate (G, L, J, g, l, j), ordinate come indicato sopra e nel dominio indicato
Proposizione 17 3
×
sopra, sono coordinate canoniche analitiche su SO(3) . Due carte di queste coordinate, relative
R
a diverse scelte di e , coprono la varietà
z 3
{(R, ∈ × × 6
= m) SO(3) : m e = 0} .
M R
0 3
L’hamiltoniana del corpo rigido simmetrico in queste coordinate è H(G, L, J, g, l, j) = h(G, L), con
1 2 2
h(G, L) = (G + η L ) . (3.20)
2A
1
Omettiamo la dimostrazione, ancora una volta non difficile ma faticosa. Ammessa tuttavia la
canonicità, la forma (3.20) di H nel caso simmetrico segue immediatamente dalla (3.18): H è
infatti l’energia, qui soltanto cinetica, scritta in coordinate canoniche. Si vede cosı̀ che le coordinate
di Andoyer sono le coordinate di azione–angolo del corpo rigido simmetrico. Il sistema è con
evidenza degenere, e il grado di libertà degenere è (J, j). Il moto si svolge sul toro bidimensionale
2 23
, con frequenza ω = (ω , ω ) data da
T g l
∂h 1
∂h =
ω = , (G, ηL) ;
∂G ∂L A
1
22 E’ interessante osservare che due delle coordinate di Andoyer, precisamente L e J, concidono con due dei momenti
coniugati delle coordinate di Eulero: si ha infatti L = p , J = p ; si veda l’appendice J.
ϕ
ψ
23 3
Con lo stesso simbolo ω abbiamo denotato sopra la velocità angolare del corpo in ; un marginale conflitto di
R
notazione, che non vale la pena di dirimere introducendo nuovi simboli.
3.5 — L’equazione di Hamilton–Jacobi 46
′ ′′
si osservi che ω , ω coincidono con le velocità ω , ω delle precessioni sui coni di Poinsot riportate
g l
nella (3.19).
B. Il caso triassiale (cenno).
Nel caso triassiale le coordinate di Andoyer (G, L, J, g, l, j) restano, evidentemente, coordinate
canoniche su SO(3), dal momento che la canonicità delle coordinate è una proprietà a priori,
indipendente dall’hamiltoniana cui si è interessati. Ma non sono più coordinate di azione–angolo:
infatti (figura 15b) si ha q q
2 23
2 2
− −
m = m m sin l , m = m m cos l ,
1 2
3
6
e per A = A dalla (3.17) si deduce
1 2
2 2 2
sin l cos l L
2 2
−
K = (G L ) + + .
2A 2A 2A
1 2 3
Ora, questa espressione si può interpretare come hamiltoniana di un sistema a un solo grado di
libertà, per la coppia (L, l) — una variante del pendolo — in cui G è un parametro. Procedendo
allora come per il pendolo (o meglio come per un qualunque sistema a un grado di libertà) non è
difficile comprendere che si può introdurre, al posto di (L, l), una coppia di coordinate di azione–
angolo (I, ϕ), nell’intorno di ogni curva di livello di K non contenente punti singolari. Qualche
dettaglio in più è demandato al prossimo esercizio.
Si tracci il ritratto in fase relativo all’hamiltoniana K (pensata come funzione di
Esercizio 37
L, l). In quali regioni del piano Ll si possono introdurre le coordinate di azione–angolo I, ϕ? Chi
è I?
3.5 L’equazione di Hamilton–Jacobi
La ricerca di una trasformazione di coordinate (p, q) = w(p̃, q̃) che porti un sistema hamiltoniano
in forma integrabile è naturalmente associata a una importante equazione alle derivate parziali,
detta equazione di Hamilton–Jacobi. Si tratta di un’equazione che interviene in vario modo nella
Fisica Matematica. Hamilton la introdusse originariamente in connessione alla propagazione dei
fronti d’onda in ottica, mentre fu Jacobi a sottolinearne l’importanza in relazione all’integrabilità
dei sistemi hamiltoniani. Ci limiteremo qui alla cosiddetta equazione ridotta di Hamilton–Jacobi,
adatta a problemi indipendenti dal tempo, accennando solo brevemente alla fine al caso generale.
A. L’equazione ridotta di Hamilton–Jacobi
Cominciamo con una definizione: 2n →
Data la funzione di Hamilton H(p, q), H : l’equazione alle derivate
R R,
Definizione 8
parziali
∂S ∂S
H = h , (3.21)
,..., , q , . . . , q
1 n
∂q ∂q
1 n
nella quale sia la funzione S(q , . . . , q ) sia la costante h sono incognite, è detta “equazione ridotta
1 n
di Hamilton–Jacobi” associata ad H.
3.5 — L’equazione di Hamilton–Jacobi 47
∂S
Si osservi che ciascuna derivata parziale sta in H al posto di p . Ad esempio, all’hamiltoniana
i
∂q i
1 2 2 2
dell’oscillatore armonico H(p, q) = (p + ω q ) è associata l’equazione di Hamilton–Jacobi
2
∂S 1
1 2 2 2
+ ω q = h. (3.22)
2 ∂q 2
Non è difficile verificare che una famiglia di soluzioni di questa particolare equazione è data da
Z p
q 2 2
± −
S(α, q) = 2αω ω x dx , h(α) = αω , (3.23)
0
ove α è una arbitraria costante positiva.
Si dice integrale completo dell’equazione ridotta di Hamilton–Jacobi ogni famiglia
Definizione 9
di soluzioni S(α , . . . , α , q , . . . , q ) , h(α , . . . , α )
1 n 1 n 1 n
dipendente da n parametri reali α , . . . , α , tale che risulti
1 n
2
∂ S 6 = 0 . (3.24)
det ∂α ∂q
i j
Attenzione: l’integrale completo è una classe “sufficientemente ampia” di soluzioni e non va confuso
con l’integrale generale, cioè con l’insieme di tutte le soluzioni (che per le equazioni alle derivate
parziali contiene sempre funzioni arbitrarie anziché un numero finito di costanti arbitrarie; si pensi
all’equazione delle onde). La (3.23) fornisce un integrale completo della (3.22).
Il legame tra l’equazione ridotta di Hamilton–Jacobi e l’integrabilità di H è espresso dalla
seguente facile proposizione:
Sia S(α , . . . , α , q , . . . , q ), h(α , . . . , α ) un integrale completo dell’equazione
Proposizione 18 1 n 1 n 1 n
ridotta di Hamilton–Jacobi (3.21). Allora la funzione generatrice S(p̃ , . . . , p̃ , q , . . . , q ), nel-
1 n 1 n
la quale le costanti α , . . . , α dell’integrale completo sono reinterpretate come momenti, genera
1 n
implicitamente, tramite le (2.23), una trasformazione canonica (p, q) = w(p̃, q̃) che muta H in
H̃(p̃ , . . . , p̃ , q̃ , . . . , q̃ ) = h(p̃ , . . . , p̃ ) . (3.25)
1 n 1 n 1 n
Dalle (2.23) segue
Dimostrazione.
∂S (p̃, q), q ,
H̃(p̃, q̃) = H ∂q
ove a secondo membro, in linea di principio, è sottintesa la sostituzione q = v(p̃, q̃), con v definita
implicitamente dalle (2.23). Ma per l’equazione di Hamilton–Jacobi, il secondo membro non dipende
da q e vale h(p̃), ovvero la sostituzione è inutile e si ha la (3.25). La condizione di invertibilità
(2.22) è garantita dalla (3.24).
Restando nell’esempio della soluzione (3.23) alla (3.22), prendendo il segno più e denotando con
I anziché con α il parametro (il nuovo momento), si ha la funzione generatrice
Z p
q 2 2
−
2ωI ω x dx ,
S(I, q) = 0
3.5 — L’equazione di Hamilton–Jacobi 48
e questa (esercizio (10-v)) si è già vista essere la generatrice del passaggio alle coordinate di azione–
angolo: la forma implicita della trasformazione è infatti
Z
p p
q dx
∂S ∂S
2 2 p
−
= = = arcsin
p = 2ωI ω q , ϕ = ω/2I q ,
∂q ∂I 2
−
2I/ω x
0
e per inversione si ottengono facilmente le equazioni esplicite
√
p
q = 2I/ω sin ϕ , p = 2ωI cos ϕ , (3.26)
π
π ≤ ≤
− ϕ . Prendendo il segno meno si
con determinazione dell’angolo (funzione arcoseno) tra 2 2
ottiene similmente √
p ′ ′
−
− , p =
q = 2I/ω sin ϕ 2ωI cos ϕ
π
π ′ ′
≤ ≤
− ϕ , e con la traslazione ϕ = π + ϕ si recuperano le (3.26), questa volta per
con 2 2
π 3π
≤ ≤
ϕ .
2 2 1
∈
In conclusione, il dominio della trasformazione è I > 0, ϕ S , e l’hamiltoniana è mutata
nell’hamiltoniana integrabile H̃(I, ϕ) = h(I) = ωI.
All’integrale completo (3.23) della (3.22) si arriva facilmente scrivendo
p
∂S 2 2
−
± 2h ω
= q ,
∂q
prendendo poi h(α) = αω; una quadratura dà allora banalmente la (3.23). La scelta h(α) = αω,
si osservi, dà al parametro α le dimensioni di un’azione. Altre scelte di h(α) sono possibili, in
particolare si può prendere h stessa come costante libera; in questo caso al posto delle variabili di
azione–angolo sopra costruite si ottengono le variabili energia–tempo (h, τ ). Vale la pena di vederlo
in dettaglio nel caso più generale di un sistema eventualmente anisocrono, come il pendolo.
B. Esempio: le variabili di energia–tempo per il pendolo.
Riprendiamo il pendolo (o un qualunque altro sistema con un grado di libertà che esegua moti
periodici). L’equazione di Hamilton–Jacobi si scrive
∂S
1 2 + V (q) = h ,
2 ∂q
da cui segue p
∂S −
± 2(h V (q)) .
=
∂q
Ci limitiamo qui al segno più, ma tutto si estende come indicato sopra anche al segno meno. Come
parametro α prendiamo h stessa, e vediamo che allora l’equazione di Hamilton–Jacobi fornisce
proprio le variabili energia–tempo (h, τ ) del pendolo introdotte nel paragrafo 3.2. La generatrice
S(h, q), con questa scelta, prende la forma Z p
q −
2(h V (x)) dx ;
S(h, q) = 0 24
la condizione di invertibilità (2.22) è soddisfatta,
2
∂ S 1
p 6 = 0 ,
=
∂h∂q −
2(h V (q))
24 Sui punti di inversione (i punti q tali che V (q) = h, cosicché q̇ = p = 0) c’è un’evidente singolarità, ma i punti si
recuperano poi per continuità.
3.5 — L’equazione di Hamilton–Jacobi 49
e la trasformazione (in forma implicita) si scrive Z
p q
∂S dx
∂S p
−
2(h V (q)) , τ = .
= =
p = ∂q ∂h −
2(h V (x))
0
Per inversione nella prima e sostituzione nella seconda si ottengono le espressioni esplicite di h e τ
in funzione di p e q: Z q
2
p dx
p
h = ,
+ V (q) = H(p, q) , τ =
2 −
2(H(p, q) V (x))
0
e queste sono proprio le coordinate energia–tempo precedentemente introdotte. Da queste, come
si è visto sopra, si passa poi all’occorrenza alle coordinate di azione–angolo.
C. Esempio: il moto centrale piano.
Consideriamo il moto centrale piano già brevemente trattato nel paragrafo 3.3; l’hamiltoniana
H(p , p , r, ϑ), di fatto indipendente da ϑ, è la (3.15), con V e come in figura 10, e l’equazione
V
r ϑ
ridotta di Hamilton–Jacobi si scrive
1 ∂S 1 ∂S
2 2
+ + V (r) = h .
2
2 ∂r 2r ∂ϑ
Ci proponiamo di risolvere questa equazione per costruire coordinate (h, l, τ, ψ), in cui h e τ sono
energia e tempo, l è il momento angolare p , mentre ψ è una opportuna variabile angolare coniugata
ϑ
a l. In un secondo momento passeremo da queste variabili alle variabili di azione–angolo che stiamo
cercando.
Cerchiamo allora un integrale completo dell’equazione che sia lineare in ϑ, precisamente che sia
25
della forma S(h, l, r, ϑ) = l, r) + lϑ , (3.27)
S(h,
ove h e l sono le costanti da cui l’integrale competo dipende, ovvero i nuovi momenti; questa forma
∂S
di S assicura infatti che sia, come vogliamo, p = = l. L’equazione di Hamilton–Jacobi si riduce
ϑ ∂ϑ
allora a 2
∂S l
1 2 + + V (r) = h ,
2
2 ∂r 2r
e in questa equazione si riconosce l’equazione di Hamilton–Jacobi del problema a un grado di libertà
2 2
p l
r
, r, l) = + l) , l) = + V (r) ,
H(p V(r, V(r,
r 2
2 2r
che si ottiene dal problema di partenza di Hamiltoniana (3.15) fissando il valore l del momento
angolare p . Possiamo allora procedere come abbiamo fatto sopra per il pendolo: ricaviamo
ϑ p
∂S ± −
= 2(h l)) ,
V(r,
∂r
25 Questa forma di S si presenta spontanea se si segue il metodo, tipico in diverse equazioni alle derivate parziali,
′
della separazione delle variabili. Precisamente si cerca S della forma S = + (ϑ) (si separa la dipendenza da r
S(r) S
e da ϑ), cosicché l’equazione di Hamilton–Jacobi si scrive
2 2
′
∂S 1 ∂S
1 + + V (r) = h .
2
2 ∂r 2r ∂ϑ ′
Si osserva subito che il secondo termine deve essere indipendente da ϑ (tutti gli altri lo sono), ovvero deve essere
S
′
lineare in ϑ, = lϑ; il coefficiente di proporzionalità l si usa come costante dell’integrale completo. Si giunge cosı̀
S
alla (3.27), ove si sono inseriti tra gli argomenti di S anche le costanti h e l.
3.5 — L’equazione di Hamilton–Jacobi 50
e limitandoci per semplicità al segno ‘+’:
Z p
r ′
′
−
l, r) = 2(h , l)) dr .
S(h, V(r
r (h,l)
min
Questa generatrice produce la trasformazione canonica, scritta in variabili miste,
Z
p r ′
∂S dr
∂S p
−
= =
2(h l)) , τ = , (3.28)
p = V(r,
r ∂r ∂h ′
−
2(h , l))
V(r
r (h,l)
min
cui si aggiungono, riprendendo S completa e denotando con ψ la variabile angolare coniugata a l,
le equazioni Z ∂V ′
r (r , l)
∂S
∂S ′
∂l
p
−
= l, ψ = = ϑ
p = dr . (3.29)
ϑ ∂ϑ ∂l ′
−
2(h , l))
V(r
r min
Le espressioni (3.28) e (3.29) si invertono senza difficoltà, fornendo h, l, τ e ψ in funzione di p , p ,
r ϑ
r e ϑ: 2
p r + p ) = H(p , p , r, ϑ)
h = V(r, r
ϑ ϑ
2
l = p ϑ
Z r ′
dr
p
τ = ′
−
2(h , p )
V(r
r (h,p ) ϑ
min ϑ
Z ∂V ′
r (r , p )
ϑ ′
∂l
p
−
ψ = ϑ dr ,
′
−
2(h , p ))
V(r
r (h,p ) ϑ
min ϑ
ove si intende che h, nelle ultime due, è sostituito da H(p , p , r, ϑ). (La dipendenza di H da ϑ è
r ϑ
puramente formale, di fatto H non ne dipende.) Corrispondentemente si ha
H̃(h, l, τ, ψ) = h . −
Un attimo di riflessione mostra che l’integrale nell’espressione per ψ è l’avanzamento ϑ ϑ del-
0
∂V = ϑ̇,
l’angolo ϑ nel tempo in cui il raggio passa dal valore r del perielio a r: si ha infatti
min
√ ∂l
−
2h V = p = ṙ, da cui segue subito
r Z
Z t
r ϑ̇ ′ −
ϑ̇ dt = ϑ(t) ϑ ;
dr = 0
ṙ t
r 0
min
si è denotato con t l’istante del passaggio al perielio (r(t ) = r ) e con ϑ = ϑ(t ) il corrispondente
0 0 min 0 0
valore di ϑ. Si ha cosı̀ ψ = ϑ ,
0
costante nel tempo: come d’altra parte deve essere se si guarda alla forma dell’hamiltoniana, in
base alla quale solo τ avanza con velocità τ̇ = 1 mentre le altre variabili non si muovono.
Come per il pendolo (paragrafo 3.2), possiamo ora utilmente passare dalle variabili di energia–
tempo (h, τ ) a variabili di azione–angolo (I , ϕ ), ponendo
1 1 Z p
r
τ 1 max −
ϕ = 2π , I = 2(h l)) dr ; (3.30)
V(r,
1 1
T (h, l) π r min
3.5 — L’equazione di Hamilton–Jacobi 51
la trasformazione si completa canonicamente sull’altro grado di libertà scrivendo la generatrice
(della trasformazione inversa), che denotiamo ancora con S,
Z p
r
ϕ max
1 − .
S(h, l, ϕ , ϕ ) = 2(h l) dr + l ϕ
V(r, 2
1 2 π r min
Questa generatrice dà le (3.30) e inoltre fornisce Z ∂V (r, l)
r
ϕ max ∂p
1 ϑ
p
−
I = l , ψ = ϕ dr ;
2 2 π −
2(h l))
V(r,
r min
in particolare I = p . Procedendo come sopra, si trova che l’integrale vale
2 ϑ Z r ϑ̇ ∆ϑ
max dr = ,
ṙ 2
r min
ove ∆ϑ denota l’avanzamento dell’angolo ϑ tra due passaggi successivi al perielio. Se denotiamo
con Θ l’avanzamento del perielio a ogni passaggio, allora ∆ϑ = 2π + Θ; segue
Θ .
1 +
ϕ = ψ + ϕ
2 1 2π
Le (3.30), assieme a I = l = p e a questa espressione per ϕ , sono una scelta possibile di variabili
2 2
ϑ
di azione–angolo per il moto centrale. Per ottenere la scelta fatta nel paragrafo 3.3, che è quella
′ ′
più comune, occorre un ultimo ritocco, passando a nuove variabili di azione–angolo (I , ϕ ) cosı̀
definite:
′ ′
ϕ = ϕ I = I + I
1 1 2
1 1
, .
′ ′
−
ϕ = ϕ ϕ I = I
2 1 2
2 2
In particolare si ha Z q
′ )
r (h,I
1 max 2
′ ′
′
−
2(h I
I = )) dr + I . (3.31)
V(r,
1 2
2
π ′
r (h,I )
min 2
Rimuovendo gli apici si ottengono precisamente le variabili di azione–angolo introdotte nel paragrafo
3.3 per il moto centrale; il modulo che lı̀ appare nell’espressione di I tiene conto della possibilità
1
che p sia negativo.
ϑ
Quanto all’hamiltoniana si ha evidentemente H(I, ϕ) = h(I), con h(I) definita implicitamente
dalla (3.31). Per potenziali V e dunque generici non si ottiene un’espressione migliore. Nel
V
−k/r
caso kepleriano V (r) = tuttavia tutto si esplicita e si calcola (l’integrale è elementare). Non
occorrono nemmeno calcoli complicati, se si accetta di usare il fatto, ereditato dalla meccanica
newtoniana, che le orbite sono chiuse e il perielio non avanza (Θ = 0, ∆ϑ = 2π). Infatti dalla
(3.31) segue facilmente, derivando rispetto a I ,
2 ∆ϑ
∂I 1 −
= +1=0 ,
∂I 2π
h=cost
2
pertanto nel caso kepleriano il secondo membro della (3.31) è indipendente da I (I dipende
2 1
dall’energia h ma non dal momento angolare), e lo si può calcolare inserendovi il valore di I che si
2
preferisce. In particolare si può prendere il valore di I corrispondente al moto circolare di energia
2
√ −2h. Ma per i moti circolari r = r , cioè l’integrale si annulla, e in definitiva
h, I = k/ min max
2 2
k k
√ − .
I = , h = h(I ) =
1 1 2
2I
−2h 1
3.5 — L’equazione di Hamilton–Jacobi 52
D. L’equazione di Hamilton–Jacobi dipendente dal tempo.
Accenniamo per completezza alla vera e propria equazione di Hamilton–Jacobi (non ridotta). A
questo scopo osserviamo preliminarmente che se, come abbiamo supposto, l’hamiltoniana H sulla
quale intendiamo lavorare è indipendente dal tempo, allora la Proposizione 18 si può riformulare
nel seguente modo del tutto equivalente:
Nelle stesse ipotesi della Proposizione 18, la funzione
Proposizione 18’
′ −
S (p̃ , . . . , p̃ , q , . . . , q , t) = S(p̃ , . . . , p̃ , q , . . . , q ) t h(p̃ , . . . , p̃ )
1 n 1 n 1 n 1 n 1 n
genera una trasformazione canonica dipendente dal tempo, che coniuga l’hamiltoniana H all’ha-
miltoniana K = 0. ′
Si procede come per la Proposizione 18, ricordando che questa volta S dipende
Dimostrazione. ′
∂S
◦
da t e dunque (proposizione 15) K = H w + .
∂t ′
Per capire, riprendiamo il caso dell’oscillatore armonico. La funzione generatrice S dipendente
dal tempo è ora Z p
q
′ 2 2
− −
S (I, q, t) = 2ωI ω x dx ωI t
0
e corrispondentemente si ha p
′
∂S 2 2
−
2ωI ω
=
p = q
∂q Z p
q
′ dx
∂S p − −
ωt = arcsin ω/2I q ω t .
=
ϕ = ∂I 2
−
2I/ω x
0 √ p
2ωI cos(ωt + ϕ), q = 2I/ω sin(ωt + ϕ). La nuova
Per inversione si ottiene senza difficoltà p = ˙ o
hamiltoniana è ora K(I, ϕ) = 0, pertanto le equazioni del moto I = 0, ϕ̇ = 0 sono risolte da I = I ,
o
ϕ = ϕ ; per sostituzione si riottiene l’integrale generale.
Alla Proposizione 18’ si può dare una formulazione più generale, adatta anche al caso di
dipendenza esplicita di H dal tempo. Premettiamo una definizione:
L’equazione alle derivate parziali
Definizione 10
∂S ∂S
∂S ,..., , q , . . . , q , t + = 0
H 1 n
∂q ∂q ∂t
1 n
per l’incognita S(q , . . . , q , t) è detta equazione di Hamilton–Jacobi associata all’hamiltoniana H.
1 n
Si dice poi integrale completo dell’equazione ogni famiglia di soluzioni S(α , . . . , α , q , . . . , q , t),
1 n 1 n
dipendente dagli n parametri α , . . . , α , tale che risulti
1 n
2
∂ S 6 = 0 .
det ∂α ∂q
i j ′
(Avendo a che fare con un’unica generatrice, abbiamo usato il simbolo S anziche S .) E’ allora di
immediata verifica la seguente
Se la funzione S(α , . . . , α , q , . . . , q , t) è un integrale completo dell’equazione di
Proposizione 19 1 n 1 n
Hamilton–Jacobi relativa a H, allora S(p̃ , . . . , p̃ , q , . . . , q , t) genera una trasformazione canonica
1 n 1 n
dipendente dal tempo (p, q) = w(p̃, q̃, t) che coniuga H a K identicamente nulla.
Non ci addentreremo ulteriormente in quest’argomento.
4.1 — Sistemi prossimi a sistemi integrabili 53
4 Introduzione alla teoria hamiltoniana delle perturbazioni
4.1 Sistemi prossimi a sistemi integrabili
Mentre i sistemi integrabili vanno considerati in qualche modo eccezionali, sono invece abbondanti
nel mondo fisico, e interessantissimi per la fenomenologia che presentano anche al di là dell’interesse
applicativo, i sistemi “prossimi” a sistemi integrabili. Con questo termine ci si riferisce a sistemi
che, nelle variabili di azione–angolo del sistema integrabile di riferimento, si possono scrivere nella
forma H (I, ϕ) = h(I) + εf (I, ϕ, ε) , (4.1)
ε
ove ε è un piccolo parametro. In questo contesto h è detta hamiltoniana imperturbata, mentre H e
ε
εf sono dette rispettivamente hamiltoniana perturbata e perturbazione. La Meccanica Celeste offre
moltissime situazioni di questo genere. Si pensi al Sistema Solare nella sua versione più semplice:
26
un Sole molto massivo e otto pianeti relativamente leggeri. Il rapporto tra la massa del pianeta
−3
×
più grande (Giove) e quella del Sole è piuttosto piccola, circa 0.95 10 ; una prima ragionevole
approssimazione è allora quella di trascurare le masse dei pianeti, riducendo cosı̀ il sistema a una
collezione di otto problemi di Keplero disaccoppiati. Il modello kepleriano puro che ne risulta è con
evidenza integrabile, e fornisce un ottimo problema imperturbato di partenza. Tenendo poi conto
della massa dei pianeti, o anche solo di alcuni di essi, si ottengono modelli perturbati della forma
(4.1). Il sistema si può complicare a piacere, introducendo satelliti, asteroidi, comete, o tenendo
conto che pianeti e satelliti non sono punti materiali ma corpi estesi (approssimativamente) rigidi.
Ma per avere un problema interessante, ricco di fenomenologia a volte stupefacente, e il cui studio
è altamente non banale, non occorrono sistemi complicati: come ben comprese Poincaré, bastano
tre soli corpi — ad esempio il Sole, Giove e un altro pianeta — per trovarsi di fronte alla possibilità
di moti davvero complessi, non facili nemmeno a immaginarsi, chiamati oggigiorno “moti caotici”.
Addirittura è sufficiente che il terzo corpo abbia massa trascurabile — il Sole, Giove e un asteroide
non in grado di modificare il moto dei due corpi maggiori — per trovarsi di fronte a domande
semplici (ben poste da secoli) cui tuttavia non si sa ancora rispondere compiutamente.
Al di fuori della Meccanica Celeste, troviamo ad esempio il problema del comportamento di
un sistema di oscillatori armonici debolmente accoppiati. E’ questo uno dei problemi più capil-
larmente diffusi in ambito fisico: ovunque si trovi qualche cosa che oscilli attorno a un equilibrio
stabile, la descrizione di prima approssimazione che si ottiene linearizzando il problema (si riveda
su un qualunque testo la trattazione delle piccole oscillazioni in ambito lagrangiano) è quello di
un insieme di n oscillatori armonici debolmente accoppiati da termini cubici o di ordine superiore;
corrispondentemente nel linguaggio hamiltoniano · · ·
H(p, q) = H (p, q) + V (q) + V (q) +
2 3 4
ove n
X
1 2 2
H (p, q) = ω (p + q ) ,
2 i i i
2 i=1
≥
mentre V , s 3, denota un polinomio omogeneo di grado s nelle q. Per studiare il moto in un
s
piccolo intorno di raggio ε del punto di equilibrio (p, q) = (0, 0) conviene effettuare il riscalamento
26 Il 24/8/2006 l’Unione Astronomica Internazionale ha declassato Plutone da “pianeta” a “pianeta nano”, nuova
categoria di cui fanno parte anche Cerere (promosso: prima era considerato un asteroide) e pochi altri oggetti
trans–nettuniani.
4.1 — Sistemi prossimi a sistemi integrabili 54
(canonico, ma non strettamente canonico)
p = εp̃ , q = εq̃ ,
−2
che dà alla nuova hamiltoniana K (p̃, q̃) = ε H(εp̃, εq̃) la forma
ε 2 · · ·
K (p̃, q̃) = H (p̃, q̃) + εV (q̃) + ε V (q̃) + ,
ε 2 3 4
questa volta in un dominio di diametro indipendente da ε. L’introduzione delle variabili di azione–
27
angolo dei singoli oscillatori conduce evidentemente a una hamiltoniana della forma (4.1).
Il problema principale di fronte a una hamiltoniana della forma (4.1) riguarda il comportamento,
su tempi lunghi, delle variabili di azione. Riprendendo l’esempio del Sistema Solare, e assumendo
per semplificare che il sistema sia esattamente piano, questo vuol dire chiedersi cosa avvenga, su
tempi lunghi, dell’energia E e del momento angolare m di ciascun pianeta, ovvero, equivalente-
28
mente, dei parametri geometrici — semiasse maggiore e minore — delle loro ellissi. Si possono
ipotizzare, schematicamente, due scenari: uno minimale, in cui queste quantità, non più costanti,
si limitano tuttavia a oscillare in modo più o meno regolare con oscillazioni piccole per ε piccolo.
L’altro più drammatico, in cui l’accumularsi nel tempo degli effetti della perturbazione produce,
in aggiunta a possibili oscillazioni, una deriva magari molto lenta ma sistematica delle costanti del
moto, che “nel corso dei secoli” potrebbero subire cambiamenti vistosi: fino alla fuoriuscita di un
pianeta dal sistema, o alla sua caduta sul Sole (“fenomeni secolari”, nella terminologia tradizionale
della Meccanica Celeste).
Riprendendo l’esempio degli oscillatori armonici debolmente accoppiati da termini nonlineari,
una domanda naturale, in effetti cruciale per la Meccanica Statistica classica, riguarda l’efficacia
della perturbazione nel produrre rilevanti scambi di energia tra i diversi oscillatori, onde soddisfare
uno dei principi cardini della Meccanica Statistica classica, il principio di equipartizione dell’energia
(si rimanda per questo ai testi di Meccanica Statistica). Molto interessante è anche il problema della
stabilità dei punti lagrangiani triangolari L e L (esercizio 22, appendice E). In questo caso infatti,
4 5
come si è detto, le pulsazioni ω che compaiono nell’hamiltoniana H non hanno segno concorde,
i 2
e di conseguenza la stabilità dell’equilibrio è strettamente legata alla conservazione separata delle
tre energie armoniche.
Problemi analoghi si trovano per altri sistemi prossimi a sistemi integrabili, ad esempio per il
corpo rigido di Eulero–Poinsot perturbato. Tra le applicazioni più belle, ricordiamo il problema
della precessione degli equinozi: il corpo rigido è la Terra, il punto di sospensione è il baricentro, la
29
perturbazione è quella prodotta dal Sole e dalla Luna. E’ abbastanza noto che in prima appros-
27 In questo caso tuttavia la perturbazione non è regolare, come funzione delle azioni, quando una o più di esse si
√ . E’ un fastidio (non una
annullano: potenze dispari di q comportano infatti la presenza di termini contenenti I i
i
vera difficoltà) cui si rimedia, del quale in queste note non ci occuperemo.
28 Più precisamente, delle “ellissi osculatrici”, cioè che si avrebbero se improvvisamente la perturbazione sparisse.
29 Il primo a comprenderlo fu Ipparco di Nicea (190 – 120 a.C.; la scoperta della precessione è databile attorno al
130). Ipparco aveva a disposizione un catalogo con le coordinate celesti di alcune stelle fisse, risalente a circa 170
anni prima; compilando un nuovo catalogo osservò uno spostamento sistematico della longitudine delle stelle di circa
◦
2 . Con intuizione straordinaria comprese il fenomeno: una precessione dell’equatore celeste (la proiezione sulla sfera
celeste dell’equatore terrestre) relativamente all’eclittica (la curva percorsa dal Sole sulla sfera celeste nel corso di un
anno, fissa nella sfera celeste), e conseguentemente la precessione lungo l’eclittica dei punti equinoziali (intersezioni
′′
delle due curve). Ipparco fornı̀ per la precessione il valore straordinariamente preciso di 46 di arco per anno (il valore
corretto è 50.26), e corrispondentemente poté calcolare accuratamente la differenza tra anno sidereo e anno tropico.
Si tratta della scoperta astronomica più importante dell’astronomia antica. Sfortunatamente l’opera di Ipparco,
Sullo spostamento dei segni solstiziali ed equinoziali, è andata perduta, ma il risultato e il metodo da lui adottato
(ingegnosissimo: la posizione del Sole sulla sfera celeste è dedotta dalla posizione della Luna in corrispondenza alle
eclissi di Luna, quando Sole, Terra e Luna sono allineati) ci sono pervenuti attraverso l’Almagesto di Tolomeo.
4.2 — La “stima a priori” 55
simazione, per effetto delle perturbazioni congiunte di Sole e Luna, l’asse terrestre e il momento
angolare (quasi paralleli) precedono attorno alla perpendicolare al piano dell’orbita, con un periodo
di circa 26 000 anni. Come si fa il calcolo? E soprattutto: entro che limiti il fenomeno è compre-
so? Si possono escludere variazioni significative dell’inclinazione dell’asse terrestre? Sono domande
difficili, alcune molto difficili, alle quali la comunità dei fisici matematici e dei meccanici celesti
ancora non è in grado di dare risposte esaurienti. L’appendice I riporta la deduzione (in una certa
approssimazione) della “formula classica” per la precessione degli equinozi, che conduce alla stima
sopra citata del periodo di precessione della Terra.
4.2 La “stima a priori”
Supponiamo di avere un sistema hamiltoniano H prossimo a un sistema imperturbato H ,
ε 0
H (p, q) = H (p, q) + εf (p, q) ,
ε 0
ma di non avere particolari informazioni su H (in particolare, di non sapere sapere se H sia
0 0
o meno integrabile). In generale, la vicinanza delle hamiltoniane, e dunque delle equazioni del
moto, non garantisce la vicinanza delle soluzioni se non per tempi brevi: l’unica informazione di
carattere generale infatti deriva (per i sistemi hamiltoniani come per qualunque altro sistema di
equazioni differenziali) dal teorema di regolarità delle soluzioni al variare dei parametri: denotando
brevemente, per un fissato dato iniziale (p, q), tH
tH (p, q), Φ (p, q)) ,
d (t) = dist (Φ
ε ε 0
30
il teorema garantisce stime a priori del tipo λ|t|
≤
d (t) C ε e
ε
con C, λ costanti positive (λ è la costante di Lipschitz del problema, e fornisce col suo inverso
un’unità di tempo naturale). Tale stima è molto povera, e non dice praticamente più niente dopo
31
il tempo, breve per ogni ε fisicamente sensato, −1 −1
|t| ∼ λ log ε . (4.2)
Le cose cambiano in modo sostanziale se stiamo perturbando un sistema integrabile, come nella
(4.1). Questo è evidente soprattutto se si guarda al comportamento delle azioni. Le equazioni del
moto per l’hamiltoniana H sono infatti della forma
ε ∂f
˙ −
I = ε
j ∂ϕ j
∂f ;
ϕ̇ = ω (I) + ε
j j ∂I j
si vede allora che le azioni nel sistema perturbato evolvono lentamente, con velocità proporzionale
a ε: più precisamente, rivoltando in forma integrale l’equazione differenziale per le azioni, cioè
scrivendo Z t ∂f
−
I (t) = I (0) ε (I(t), ϕ(t))dt , (4.3)
j j ∂ϕ j
0
30 Non sono stime pessimistiche ma realistiche in casi concreti, ad esempio in prossimità del punto di equilibrio
instabile del pendolo, se la perturbazione cambia ω in ω + ε.
31 La funzione log x notoriamente diverge per x → ∞. Ma per qualunque grandezza x fisicamente immaginabile
log x non è mai grande (se x è il rapporto tra il diametro dell’Universo e il diametro di un protone, log x < 100).
4.2 — La “stima a priori” 56
32
si ottiene facilmente una stima a priori del tipo
|I − |t|
(t) I (0)| < Cε , (4.4)
j j
∂f |
| nel dominio ove si svolge il moto e su j. Dal momento che nel sistema
ove C è il massimo di ∂ϕ j
imperturbato si ha I (t) = I (0), la (4.4) si legge anche come lento scostamento nel tempo della
j j
dinamica perturbata da quella imperturbata, limitatamente al comportamento delle azioni. La
scala di tempo sulla quale le azioni evolvono in maniera significativa, o equivalenemente il loro
moto differisce dal moto imperturbato, è ora 1
|t| ∼ , (4.5)
ε
ben più lunga della (4.2) per ε piccolo. Su scale di tempo più brevi (ma sempre lunghe per ε
√
√ − ∼
|t| ∼ |I (t) I (0)|
piccolo), ad esempio 1/ ε, le azioni variano di quantità piccole con ε, ε.
j j
Le variabili di azione sono dette variabili lente del sistema. Al contrario, come mostrano le
equazioni del moto, gli angoli (salvo il caso in cui una o più pulsazioni si annullino) evolvono
su una scala di tempo breve; anzi, fintantoché le azioni si discostano di poco dal valore iniziale,
anche le velocità angolari si mantengono pressoché costanti, e dunque gli angoli ruotano, in prima
approssimazione, in modo uniforme. Le variabili angolari sono dette variabili veloci del sistema.
• La separazione delle variabili in lente e veloci è però più delicata di quello che sembra. Ad
esempio, se per un particolare valore di I si ha ω = ω , allora ϕ e ϕ sono veloci, ma la
1 2 1 2
−
loro differenza ϕ ϕ è lenta; più in generale, se le pulsazioni soddisfano una relazione di
1 2
risonanza n
· · · ∈
k ω + k ω + k ω = 0 , k = (k , . . . , k ) , (4.6)
Z
1 1 2 2 n n 1 n
P k ϕ è lenta. Come si vedrà nel prossimo
allora la corrispondente combinazione di angoli i i
i
paragrafo, la presenza di tali variabili lente “nascoste” è una potenziale sorgente di difficoltà
nella teoria delle perturbazioni. |ϕ −
Si dia una “stima a priori” sugli angoli: (t, ε) ϕ (t, 0)| < . . . [Risposta: si trova
Esercizio 38 j j
′ 2
una stima del tipo cεt se ω è costante, ε(ct+c t ) se ω dipende da I. Suggerimento per quest’ultimo
caso, un po’ complicato: si scriva ω̇ (I), poi ω (I(t)) in forma di integrale in t, infine ϕ (t, ε) come
j j j
integrale di ϕ̇ in t; interviene un integrale doppio, stimabile con l’area del dominio di integrazione
2
∼ t per il massimo della funzione integranda.]
Stime come la (4.4) e la (4.5) si sono ottenute senza davvero lavorare, solo sapendo che il
sistema imperturbato è integrabile. E’ spontaneo allora chiedersi se con una analisi più approfondita
non si possa far di meglio. Ci sono buoni motivi per crederlo: la stima (4.4) infatti si ottiene
dall’equazione integrale (4.3) supponendo, pessimisticamente, che gli effetti della perturbazione
∂f
ε vadano sommandosi; viceversa, è chiaro che sono possibili significative compensazioni: infatti il
∂ϕ j ∂f
termine , essendo la derivata rispetto a un angolo di una funzione periodica, ha necessariamente
∂ϕ j
32 n
Questa stima, che potrebbe apparere euristica, si rende rigorosa nel modo seguente: sia D = B × il dominio
T
di H , e sia
ε ∂f
sup max = C< ∞ .
∂ϕ
1≤j≤n j
(I,ϕ)∈D
Per I(0) che disti dal bordo di B piu di ∆ si deduce subito, dalla (4.3), la (4.4), per |t| ≤ ∆/(Cε).
4.3 — Il “principio della media” 57
33
media sugli angoli nulla, e dunque è presumibile che la perturbazione, nel corso del tempo, abbia
segno alterno; quantomeno, è una possibilità da esplorare con attenzione.
Lo studio della dinamica dei sistemi prossimi a sistemi integrabili, su scale di tempo di ordine 1/ε
o maggiori, è l’oggetto della teoria hamiltoniana delle perturbazioni, che si applica, sostanzialmente,
ogniqualvolta vi siano, in un sistema hamiltoniano, variabili che evolvono su scale di tempo ben
separate (le idee di fondo tuttavia, come avremo modo di accennare, prescindono dal carattere
hamiltoniano del sistema, e sono profonde e più generali). La teoria delle perturbazioni è nata
a cavallo tra ’700 e ’800 principalmente ad opera di Lagrange e Laplace, in connessione ai moti
planetari. Nel corso dell’800 l’introduzione del formalismo hamiltoniano, e soprattutto della nozione
di sistema integrabile da parte di Liouville, ha contribuito in modo decisivo al suo progresso, e si
può dire che la teoria sia giunta a una prima maturazione, un secolo dopo la sua nascita, con il
grosso lavoro di Poincaré. Un ulteriore salto qualitativo, assai rilevante anche per le sue implicazioni
fisiche (ancora non abbastanza esplorate), si è avuto soprattutto a seguito dell’attività della scuola
russa, negli anni ’60 e ’70 del novecento.
Procederemo cosı̀: nel prossimo paragrafo discuteremo brevemente l’idea principale della teoria
delle perturbazioni, introducendo il cosiddetto “principio della media”. Poi tratteremo in detta-
glio un esempio elementare “isocrono”, precisamente il caso di n oscillatori armonici debolmente
accoppiati da una perturbazione “facile”, generalizzadolo progressivamente a sistemi isocroni più
complessi. Poi ancora cercheremo di capire, attraverso un esempio significativo, il caso, piu com-
plesso ma anche più interessante, dei sistemi non isocroni. Infine illustreremo alcuni tra i maggiori
risultati della teoria.
4.3 Il “principio della media”
Raccogliamo qui l’idea, adombrata verso la fine del paragrafo precedente, che si possa progredire
nello studio di un sistema per tempi lunghi (1/ε o maggiori) tenendo conto di possibili compensa-
zioni negli effetti della perturbazione, più precisamente mettendo in evidenza un eventuale “effetto
medio” della perturbazione, dominante su tempi lunghi. Questa idea è nota in letteratura con il
34
nome di principio della media, vera anima della teoria delle perturbazioni. In questo paragrafo
cercheremo di introdurre l’idea principale in modo critico, basandoci soprattutto su esempi.
A. Il sistema mediato.
Per maggior chiarezza, conviene impostare il problema in ambito più generale di quello hamil-
toniano, che con le sue peculiarità maschera un po’ l’idea centrale. Consideriamo per questo un
sistema di equazioni differenziali in m + n variabili della forma
˙
I = εF (I, ϕ) , ϕ̇ = ω(I) + εG(I, ϕ) , (4.7)
∂f
33 è
Se non fosse chiaro: si prenda per semplicità il caso di un solo angolo; la media di ∂ϕ
2π
Z
1 ∂f 1
dϕ = [f (2π) − f (0)] = 0 .
2π ∂ϕ 2π
0
La generalizzazione a n angoli è ovvia.
34 Non soltanto: c’è una classe molto ampia di problemi fisici in cui si passa da una descrizione microscopica
dettagliata a una descrizione su scala più macroscopica, tramite una operazione di media su variabili rapidamente
fluttuanti. Si pensi alla nozione di pressione in un gas, o al passaggio dalla meccanica microscopica alle equazioni
macroscopiche dell’idrodinamica (come le equazioni di Eulero dei fluidi ideali). Un altro esempio è dato dal procedi-
mento sistematico di decimazione delle variabili nei metodi di tipo “gruppo di rinormalizzazione”, per le transizioni
di fase o le teorie quantistiche di campo. Una bella rassegna è in N.G. Van Kampen, On the elimination of fast
variables, Phys. Rep. 69–160 (1985).
124,
4.3 — Il “principio della media” 58
m n
∈ ∈
ove I = (I , . . . , I ) , ϕ = (ϕ , . . . , ϕ ) . Nel caso di un sistema hamiltoniano quasi
R T
1 m 1 n
integrabile, con hamiltoniana della forma (4.1), si ha evidentemente m = n e
∂h ∂f ∂f
−
ω = , F = , G = .
∂I ∂ϕ ∂I
La (4.7) mostra che per ε piccolo le variabili I sono lente, mentre gli angoli ϕ sono veloci. In
queste condizioni è naturale scomporre F in una parte media e una parte oscillante:
Z
Z 2π
2π
−n · · ·
··· F (I, ϕ) dϕ dϕ ,
F (I, ϕ) = + F (I, ϕ) , = (2π)
F(I) F(I) 1 n
osc 0
0
e pensare che in qualche modo, se ε è piccolo, la parte oscillante F dia luogo a compensazioni e
osc
perciò contribuisca marginalmente al moto delle variabili lente, e invece il termine medio dia un
F
contributo sistematico dominante su tempi lunghi. Ha senso allora considerare, accanto al sistema
“vero” (4.7), il sistema mediato ˙
J = εF(J) , (4.8)
o o
e chiedersi che relazione vi sia tra le soluzioni J (t) e I (t) a parità di dato iniziale J = I . Si
ε ε
∼ ≪
osservi che il confronto è interessante solo su tempi t 1/ε o maggiori (infatti per t 1/ε né I né
J si staccano apprezzabilmente dal valore iniziale comune, e dunque banalmente sono anche vicini
tra loro), e che su tali tempi lo studio del sistema mediato (4.8) è molto più semplice di quello
del sistema completo (4.7): non tanto perché (cosa pur sempre utile) il sistema mediato contiene
solo m variabili, ma soprattutto perché per esso 1/ε è una unità naturale di tempo, mentre per il
sistema vero, a causa del moto veloce degli angoli, 1/ε è un tempo molto lungo (si rifletta su questo
35
punto). Ci chiediamo allora se, ed eventualmente a quali condizioni, si ha
− → →
I (t) J (t) 0 per ε 0
ε ε
∼
in tutta la scala di tempo t 1/ε.
Se ciò avviene per ogni dato iniziale, si dirà che il sistema “soddisfa il principio della media” al
primo ordine in ε (primo ordine perché relativo alla scala di tempo 1/ε). Una definizione formale
è questa: Diremo che il sistema (4.7) soddisfa il principio della media al primo ordine in ε,
Definizione 11 o o
se esiste t > 0 tale che per ogni dato iniziale (I , ϕ ) la soluzione (I (t), ϕ (t)) e la soluzione J (t)
0 ε ε ε
o o
dell’equazione mediata (4.8) con dato iniziale J = I sono tali che
kI − → →
max (t) J (t)k 0 per ε 0 .
ε ε
|t|≤t /ε
0
Infine, osserviamo che nel caso hamiltoniano il sistema mediato è banale: per i sistemi hamiltoniani
∂H
−
si ha infatti F = con H periodica in ϕ, e dunque = 0, perciò la soluzione dell’equazione
F
∂ϕ o
mediata non è altro che J (t) = I . Il modo appropriato di formulare la questione in ambito
ε
hamiltoniano è allora quello di chiedersi se le azioni, che sono costanti del moto per ε = 0, per
∼
ε piccolo e t 1/ε evolvano significativamente, o invece, a somiglianza dell’equazione mediata,
o
restino vicine al valore iniziale I . La figura 17 illustra simbolicamente l’ipotesi di lavoro che sta
dietro al principio della media, nel caso generale (a) e hamiltoniano (b).
35 Si pensi di dover risolvere numericamente le equazioni differenziali del moto. Come andrebbe preso, per il sistema
vero e per quello mediato, il passo di integrazione? Come cambiano il costo e l’affidabilità del risultato?
4.3 — Il “principio della media” 59
a b
( ) ( )
( )
t
I ( )
J t ( )
t
I o
( )
J t I
=
o
I "
t 1/
" t
1/
Figura 17: L’ipotesi di lavoro su I (t) e J (t) secondo il principio della media, nel caso
ε ε →
generale (a) e hamiltoniano (b). Le oscillazioni si schiacciano a zero per ε 0.
B. esempi.
Diamo qui alcuni esempi elementari, presi ad eccezione del primo dal mondo hamiltoniano, utili
a valutare il principio della media in modo critico.
(i) Per m = n = 1 consideriamo il sistema
˙
I = ε(a + b cos ϕ) , ϕ̇ = ω . ˙
o o
La soluzione è immediata: si ha infatti ϕ(t) = ϕ + ωt, e dunque I = ε(a + b cos(ϕ + ωt)), da cui,
6
se ω = 0, Z t εb o o
o ′ ′ o −
( sin(ϕ + ωt) sin ϕ ) .
(a + b cos(ϕ + ωt )) dt = I + ε a t +
I(t) = ε ω
0 ˙ o o
D’altra parte l’equazione mediata J = εa, con dato iniziale J(0) = I , è risolta da J(t) = I + εat.
Il principio della media è pertanto soddisfatto (per ogni t, non solo fino al primo ordine). Se ω = 0
o o
la soluzione per la I è I(t) = I + εat + εb cos(ϕ )t, e il principio non è soddisfatto: ma in questo
caso cade evidentemente il presupposto che l’angolo ϕ sia una variabile veloce.
(ii) Per n = 2 consideriamo il sistema (particolarissimo: parte imperturbata lineare nelle I,
perturbazione indipendente da I) −
H (I, ϕ) = ω I + ω I + ε cos(ϕ ϕ ) .
ε 1 1 2 2 2 1
La soluzione (grazie alla particolarità) si scrive esplicitamente: si ha infatti banalmente ϕ̇ = ω , e
i i
oi + ω t; sostituendo nell’equazione delle azioni si trova allora
dunque ϕ (t) = ϕ i
i ˙ ˙
o o o o
−ε − − − −
I = sin(ϕ ϕ + (ω ω )t) , I = +ε sin(ϕ ϕ + (ω ω )t) .
1 2 1 2 2 1
2 1 2 1
Queste equazioni si integrano immediatamente e danno
o o −
I (t) = I + ε , I (t) = I ε ,
I(t) I(t)
1 2
1 2
con o o o o
− − − −
cos(ϕ ϕ + (ω ω )t) cos(ϕ ϕ )
2 1
2 1 2 1 6
per ω = ω
1 2
−
ω ω
= .
I(t) 2 1
o o
−
t sin(ϕ ϕ ) per ω = ω
1 2
1 2
4.3 — Il “principio della media” 60
6
Si vede cosı̀ che il principio della media è soddisfatto (alla grande, per tempi infiniti) se ω = ω ,
1 2
mentre fallisce per ω = ω . Se ne intuisce il motivo, e con esso la delicatezza della questione: benché
1 2
gli angoli ϕ e ϕ siano individualmente veloci, in condizioni di risonanza, ovvero per ω = ω , la
1 2 1 2
−
combinazione lineare ϕ ϕ non lo è, e proprio tale combinazione è presente nella perturbazione.
2 1
I prossimi esempi sono più sottili e il comportamento è meno intuitivo, perchè il sistema im-
perturbato non è più lineare e dunque le pulsazioni e le loro relazioni di risonanza dipendono dalle
azioni; soprattutto, in essi discuteremo del principio della media senza conoscere la soluzione esatta
(usare come sopra la soluzione esatta è un po’ barare, è una situazione troppo eccezionale).
(iii) Per n = 2 consideriamo il sistema 1 2 2 − −
(I + I ) ε cos(ϕ ϕ ) (4.9)
H (I, ϕ) = 2 1
ε 1 2
2
(due rotatori, con un potenziale che è minimo per ϕ = ϕ ). Non è difficile vedere che il principio
1 2
∈
della media è sempre soddisfatto, addirittura per ogni t Una via per dimostrarlo è quella
R.
di osservare (procedendo come nel problema a due corpi) che la somma J = I + I (analoga alla
1 2
− −
quantità di moto del baricentro) resta costante; posto poi p = I I , ϑ = ϕ ϕ , si vede subito
2 1 2 1
√
che p, ϑ seguono le equazioni di un pendolo di pulsazione 2ε: infatti
˙ ˙
− −2ε − −2ε − −
ṗ = I I = sin(ϕ ϕ ) = sin ϑ , ϑ̇ = ϕ̇ ϕ̇ = I I = p .
2 1 2 1 2 1 2 1 √
12 1 − ε (si
Segue che le oscillazioni di p, e dunque di I = (J + p), I = (J p), sono limitate da cost
1 2 2
36
tracci il ritratto in fase). |p(t)−p(0)|
Si deduca, per il pendolo descritto dalle variabili p, ϑ, la disuguaglianza <
Esercizio 39
√ √
|p(t) −
4 2ε per le librazioni, p(0)| < 2 2ε per le rotazioni.
(iv) Per n = 2 consideriamo il sistema 1 2 2
− − −
(I I ) ε cos(ϕ ϕ ) . (4.10)
H (I, ϕ) = 2 1
ε 1 2
2
La differenza rispetto al caso precedente (un segno meno nella parte cinetica) può apparire margi-
nale, invece è molto significativa. Si vede infatti che esistono particolari moti che non soddidsfano
il principio della media. Per scovarli, osserviamo innanzitutto che (come del resto nell’esempio pre-
cedente) la somma I + I è una costante del moto: lo si verifica subito, ed è ovvio data l’invarianza
1 2
di H per traslazione degli angoli. Le rette I + I = c
1 2
36 Un altro modo di vederlo è quello di introdurre una trasformazione canonica adattata al problema, in cui la
combinazione angolare ϕ − ϕ presente nell’hamiltoniana coincida con uno dei nuovi angoli, ad esempio ϕ̃ = ϕ ,
2 1 1 1
˜
ϕ̃ = ϕ − ϕ ; la trasformazione completa (I, ϕ) = w( I, ϕ̃) si scrive
2 2 1 ˜ ˜
ϕ = ϕ̃ I = I − I
1 1 1 1 2 ,
, ˜
ϕ = ϕ̃ + ϕ̃ I = I
2 1 2 2 2
e la nuova hamiltoniana si trova subito essere 2
1 1 1
˜ ˜ ˜ ˜
˜
˜ ˜ ˜ ˜ ˜
2 2 2
H̃( I, ϕ̃) = h( I) − ε cos ϕ̃ , con h( I) = I −
I ) =
( I + 2 I − 2 I I I .
+
2 2
2
1 1
1 2 1
2 2 4 √
˜ ˜ 2ε,
Si vede allora che I resta esattamente costante, mentre I , ϕ̃ si muovono come in un pendolo di pulsazione
1 2 2
˜ ˜
12
solo con I che oscilla attorno a I anziché attorno allo zero. La conclusione, come sopra, è immediata.
2 1
4.4 — Sistemi isocroni perturbati: un passo perturbativo 61
sono pertanto invarianti e il moto si svolge obbligatoriamente su una di esse. Tra queste c’è la
−
retta risonante, o retta lenta, I + I = 0, sulla quale la combinazione di angoli ϕ ϕ non evolve:
1 2 2 1
o o
− −I − −I
infatti ϕ̇ ϕ̇ = I = 0. Dunque per dati iniziali su questa retta, I = , si resta sulla
2 1 2 1 2 1
retta e si ha o o
− −
ϕ (t) ϕ (t) = ϕ ϕ ;
2 1 2 1
˙ ˙ o o
− −
segue immediatamente I = I = ε sin(ϕ ϕ ) e dunque
1 2 2 1
o o o o o o
− − −
I (t) = I + εt sin(ϕ ϕ ) , I (t) = I εt sin(ϕ ϕ ) . (4.11)
1 2
1 2 1 2 2 1
Il principio della media non è soddisfatto. La soluzione si completa sugli angoli con
1 1
o o 2 o o o o 2 o o
− − −
ϕ (t) = ϕ + I t + εt cos(ϕ ϕ ) , ϕ (t) = ϕ I t + εt cos(ϕ ϕ ) ; (4.12)
1 2
1 1 2 1 2 2 2 1
2 2
per esercizio si può verificare che le (4.11), (4.12) risolvono le equazioni di Hamilton.
• Il punto cruciale è che in questo esempio, a differenza del precedente che pure ha le medesime
˙
rette invarianti, il vettore I è parallelo anziché perpendicolare alla retta risonante, perciò
il moto delle azioni mantiene la relazione di risonanza. Il segno meno nell’hamiltoniana
imperturbata gioca per questo un ruolo essenziale.
Si riprenda l’esempio (iii) e si mostri che per dati iniziali sulla retta risonante (qui
Esercizio 40
−
I I = 0) il moto delle I è trasverso alla retta. Si verifichi che il risultato si mantiene anche
1 2 − ·
se a ϕ ϕ si sostituisce, ad argomento del coseno, qualunque altra combinazionme lineare k ϕ.
2 1
Si verifichi che la trasversalità si mantiene sostituendo alla parte cinetica una diversa funzione
2
convessa di I e I , o anche una funzione come I + I .
1 2 1 2
Si consideri l’hamiltoniana
Esercizio 41 1 2 2
− − −
H (I, ϕ) = (aI I ) ε cos(3ϕ 2ϕ ) ;
ε 1 2
1 2
2
si determini un valore di a per cui è violato il principio della media, scrivendo esplicitamente
una famiglia di moti che lo viola. [Impostazione: tutte le rette 2I + 3I = c nel piano I I sono
1 2 1 2
invarianti; la retta lenta è 3aI +2I = 0, che è invariante se (3a, 2) e (2, 3) sono paralleli: 9a−4 = 0,
1 2
a = 9/4. Per scrivere i moti si procede come sopra. ]
Variante dell’esercizio: si consideri 1 2 2
− − ·
(I 4I ) ε cos(k ϕ)
H (I, ϕ) =
ε 1 2
2
e si determini k in modo tale che non sia soddisfatto il principio della media, scrivendo
esplicitamente una famiglia di moti che lo viola.
Più in generale: si studino i controesempi al principio della media fatti in questo modo. [Sono
12 2
2
2
2 −
−
le hamiltoniane della forma H (I, ϕ) = .]
/k
) ε cos(k ϕ + k ϕ ), con a /a = k
a I
(a I
ε 1 1 2 2 1 2
2
1 1
2
2
1
Infine, un bell’esempio non hamiltoniano in cui vale il principio della media è l’equazione di
Van der Pol; si veda per questo l’appendice H.
4.4 — Sistemi isocroni perturbati: un passo perturbativo 62
˜
˜ d I 2
∼
Figura 18: Le variabili I evolvono con ε e a t = 1/ε si scostano da I(0)
dt dI ∼ ε), ma
al più di Le variabili I istantaneamente sono più rapide (
O(ε). dt
˜
restano agganciate entro ε alle I. Il principio della media è soddisfatto.
4.4 Sistemi isocroni perturbati: un passo perturbativo
Affrontiamo qui lo studio di un problema semplice, ma assolutamente non banale, attraverso il
quale illustriamo uno dei procedimenti più usati in teoria hamiltoniana delle perturbazioni per
studiare la stabilità delle azioni su tempi lunghi.
A. Il problema.
Consideriamo un sistema di n oscillatori armonici debolmente accoppiati, già scritto in variabili
di angolo azione: precisamente n
∈ ×
H (I, ϕ) = h(I) + εf (I, ϕ) , (I, ϕ) D = B , (4.13)
T
ε
con h lineare, ·
h(I) = ω I . (4.14)
Pur non essendo la situazione più comune, per evitare complicazioni che oscurerebbero le idee che
andiamo a esporre supporremo che f sia regolare in tutte le variabili (e dunque non contenga radici
delle azioni, come invece avviene genericamente nei problemi di piccole oscillazioni). Seguendo uno
dei metodi perturbativi più tipici, ci proponiamo di “riassorbire” per quanto possibile la perturba-
zione εf in un cambiamento di variabili. Più precisamente, cerchiamo una trasformazione canonica
prossima all’identità: ˜
I = I + ε . . .
˜ ,
(I, ϕ) = w ( I, ϕ̃) ,
ε ϕ = ϕ̃ + ε . . .
˜ ˜
tale che la nuova hamiltoniana H̃ ( I, ϕ̃) = H (w ( I, ϕ̃)) sia “più integrabile di H”, ad esempio sia
ε ε ε
2
integrabile a meno di termini di ordine ε : ˜
˜ ˜ ˜
2
H̃ = h( I) + εg( I) + ε f ( I, ϕ̃, ε) ,
ε
con opportuna g. Se questo programma va in porto, allora immediatamente si deduce che le nuove
˜ 2
azioni I evolvono, al più, con velocità ε , dunque per una variazione significativa ci vuole almeno
2
il tempo 1/ε , mentre si ha cost
˜ ˜
k − |t| ≤ .
I(t) I(0)k < cost ε per ε
4.4 — Sistemi isocroni perturbati: un passo perturbativo 63
˜ ˜
Ma poiché w è prossima all’identità, sia I(t) che I(0) sono ε–vicine rispettivamente a I(t) e I(0):
ε
dunque anche per esse si può scrivere cost
kI(t) − |t| ≤
I(0)k < cost ε per ,
ε 2
∼
mentre un’evoluzione significativa può avvenire, al più, su tempi t 1/ε . Si veda la figura 18. In
queste condizioni evidentemente il principio della media è soddisfatto.
Per produrre la trasformazione canonica che ci interessa si può procedere, indifferentemente,
con il metodo delle funzioni generatrici in variabili miste oppure con il metodo di Lie. Seguiamo
quest’ultimo, e pertanto cerchiamo una hamiltoniana generatrice, che denotiamo χ(I, ϕ), tale che
εχ
il suo flusso Φ al tempo ε sia la trasformazione con le proprietà cercate.
→
Per ogni funzione F : D si ha, come già sappiamo (paragrafo 2.2B, formula (2.32)), lo
R
sviluppo 2
ε
εχ
◦ {{F, · · ·
F Φ = F + ε{F, χ} + χ}, χ} + .
2 2
Avendo deciso di trascurare i contributi di ordine ε , basta usare per h lo sviluppo troncato al
primo ordine, mentre per f , che già è moltiplicata per il piccolo parametro ε, basta addirittura il
troncamento all’ordine zero. Scriveremo pertanto
εχ 2 εχ
◦ ◦
h Φ = h + ε{h, χ} + ) , f Φ = f + , (4.15)
O(ε O(ε)
e la nuova hamiltoniana sarà corrispondentemente della forma
εχ 2
◦
H Φ = h + ε({h, χ} + f ) + ) (4.16)
O(ε
ε
2 εχ εχ
◦ ◦
(il termine di ordine ε , all’occorrenza, si scrive facilmente troncando gli sviluppi di h Φ e h Φ
all’ordine successivo; si veda oltre). Il nostro programma pertanto si realizza se riusciamo a trovare
χ e g tali che ˜ ˜ ˜
{h, χ}( I, ϕ̃) + f ( I, ϕ̃) = g( I) ,
∂χ
{h, −ω · , se riusciamo a risolvere l’equazione alle derivate parziali
ovvero, poiché χ} = ∂ϕ ∂χ
· −
ω = f g , (4.17)
∂ϕ ˜
ove f è nota mentre χ e g sono incognite; a g si richiede che dipenda solo da I. Quest’ultima
richiesta in realtà fa sı̀ che la funzione g resti immediatamente determinata: prendendo infatti la
media sugli angoli a entrambi i membri della (4.17), e ricordando che la derivata rispetto a un
angolo di una funzione periodica ha necessariamente media nulla, si deduce subito che deve essere
hf i
g = . (4.18)
ϕ
L’equazione da risolvere è cosı̀ ∂χ − hf i
· = f . (4.19)
ω ϕ
∂ϕ
• E’ un utile esercizio provare a procedere, anziché col metodo di Lie, cercando la funzione
˜
generatrice in variabili miste S( I, ϕ) che realizza la trasformazione w con le proprietà cercate.
˜ ˜
·
Brevemente: posto S = I ϕ + εS( I, ϕ), le equazioni della trasformazione sono
∂S
∂S ˜ ˜ ˜
˜ ˜ ( I, ϕ) , ϕ̃( I, ϕ) = ϕ + ε ( I, ϕ) ,
I( I, ϕ) = I + ε ˜
∂ϕ ∂ I
4.4 — Sistemi isocroni perturbati: un passo perturbativo 64
e all’ordine ε si invertono immediatamente:
∂S ∂S
˜ ˜
˜ ˜ ˜ 2
2
−
ϕ( I, ϕ̃) = ϕ̃ ε ( I, ϕ̃) + ) ;
( I, ϕ̃) + ) , e poi I( I, ϕ̃) = I + ε O(ε
O(ε
˜ ∂ϕ
∂ I
sostituendo in H si trova allora
˜ ˜ ˜ ˜
H̃( I, ϕ̃) = h(I( I, ϕ̃)) + εf (I( I, ϕ̃), ϕ( I, ϕ̃))
∂S ˜ ˜
˜ 2
· ( I, ϕ̃) + εf ( I, ϕ̃) + ) .
= h( I) + εω O(ε
∂ϕ
L’equazione da risolvere per eliminare ϕ̃ all’ordine ε è cosı̀
∂S
−ω · −
= f g , (4.20)
∂ϕ −χ.
cioè esattamente la stessa di prima, con la corrispondenza = Un minimo di riflessione
S
mostra che questa equazione altro non è che l’equazione di Hamilton–Jacobi per l’hamiltonia-
na H(I, ϕ) = h(I) + εf (I, ϕ), approssimata (troncata) all’ordine ε. Infatti, l’equazione di
ε
Hamilton–Jacobi per l’hamiltoniana H si scrive (utilizzando il simbolo h̃ al posto di h per
la costante, per evitare conflitti)
∂S ∂S
·
ω + εf , ϕ, ε = h̃ .
∂ϕ ∂ϕ
Per trovare un integrale completo approssimato, che risolva l’equazione a meno di termini di
2
ordine ε , è spontaneo porre · ·
S(α, ϕ) = α ϕ + ε ϕ) , h̃(α) = ω α + ε g(α) ;
S(α,
sostituendo nell’equazione di Hamilton–Jacobi e raccogliendo i termini di ordine ε, si ottiene
allora la (4.20).
B. Il caso di f con sviluppo di Fourier finito e ω non risonante.
Veniamo allora alla soluzione della (4.17). Per evitare problemi di convergenza supporremo qui
che f sia un polinomio di Fourier, ovvero che la sua serie di Fourier sia finita:
X ˆ ik·ϕ
f (I) e , (4.21)
f (I, ϕ) = k
k∈K
n
⊂
con finito. (Non è però un’ipotesi che si rimuova facilmente; si veda sotto il paragrafo D.)
K Z
Guardando la (4.17), si vede che serve χ capace, per cosı̀ dire, di compensare tutti i termini della
ˆ
serie di Fourier di f , tranne il valor medio f (che già non dipende dagli angoli). Dobbiamo allora
0
cercare χ della forma X ik·ϕ
χ̂ (I) e ,
χ(I, ϕ) = k
k∈K
al fine di soddisfare poi la (4.17) componente per componente. Poiché
X
∂χ ik·ϕ
·
· (ik ω) χ̂ (I) e ,
=
ω k
∂ϕ k∈K
4.4 — Sistemi isocroni perturbati: un passo perturbativo 65
si vede bene che per accomodare la componente k = 0 bisogna e basta porre
g(I) = f (I) , (4.22)
0
6 ∈
mentre per k = 0, k si deve trovare χ̂ tale che
K, k ˆ
·
(ik ω) χ̂ (I) = f (I) ; (4.23)
k k
il termine χ̂ resta libero e lo si può prendere per esempio nullo. La (4.22) coincide, si osservi, con
0
la (4.18).
Perché la (4.23) si possa risolvere per ogni k è necessario che risulti
· 6 ∈ \ {0}
k ω = 0 per k ; (4.24)
K ∈
questa condizione su ω è detta condizione di non risonanza (limitatamente a k Per n = 2 si
K).
6 ∈ \ {0},
chiede k ω + k ω = 0 per k e dunque la condizione si riduce a escludere il caso di ω
K
1 1 2 2 1
e ω in rapporto razionale:
2 k
ω 2
1 6 − ∈ \ {0}
= per k .
K
ω k
2 1
Per n > 2 la condizione è ovviamente violata se due componenti di ω sono in rapporto razionale,
√ √
ma può essere violata anche in altro modo: ad esempio, per n = 3 e ω = (1, 2, 1 + 2), si ha
· −1).
k ω = 0 con k = (1, 1,
Se la (4.24) è soddisfatta, allora la (4.17) è risolta da
X ˆ
f (I)
k ik·ϕ
χ(I, ϕ) = e (4.25)
·
ik ω
{ }
k∈K\ 0
(si è preso χ̂ = 0) e la nuova hamiltoniana ha la forma voluta
0 ˜ ˜ ˜ 2
H̃ ( I, ϕ̃) = h( I) + εf ( I) + ) . (4.26)
O(ε
ε 0
Si vede cosı̀ che il programma di rendere il sistema integrabile “a vista” a meno di termini di
2
ordine ε funziona, purché sia soddisfatta la condizione di non risonanza (4.24). La (4.26) è detta
forma normale non risonante di H , del primo ordine in ε. Essa mostra che la prima correzione
ε
all’hamiltoniana integrabile, dovuta alla perturbazione, è data dal valor medio f della perturbazione
0
sugli angoli; il nuovo termine non muove le azioni, ma corregge un po’ le frequenze del sistema e lo
rende debolmente anarmonico.
• Quanto abbiamo visto si può riformulare, con linguaggio più algebrico, in questo modo: sia
∂
·
lo spazio delle funzioni con sviluppo di Fourier in e sia L l’operatore ω , L :
F K, ω ω
K ∂ϕ
→ . L’equazione (4.17) da risolvere si riscrive con questa notazione
F F
K K − hf i
L χ = f . (4.27)
ω
ik·ϕ ik·ϕ ik·ϕ
· ∈
Ora si ha L e = i(k ω)e , pertanto le funzioni u = e , k sono per una
K, F
ω k K
·
base di autofunzioni di L , con autovalori λ = ik ω. Perciò se è soddisfatta la relazione di
ω k
non risonanza (4.24) il nucleo di L si riduce alle sole funzioni costanti negli angoli; ma allora
ω
− hf i
f non ha componenti sul nucleo, dunque L nella (4.27) si inverte e si ha
ω X ˆ
f k
−1 − hf i)
χ = L (f = u ,
k
ω λ k
k∈K\{0}
che è la (4.25). Si vede bene che lo sviluppo di Fourier di f è naturale, in questo problema,
ik·ω
perchè nella base delle armoniche di Fourier e l’operatore L è diagonale.
ω
4.4 — Sistemi isocroni perturbati: un passo perturbativo 66
Quanto abbiamo visto fino a qui si può riassumere nella proposizione seguente:
Sia data l’hamiltoniana lineare perturbata
Proposizione 20 ·
H (I, ϕ) = ω I + εf (I, ϕ) ,
ε
e sia f della forma (4.21). Se le frequenze soddisfano la relazione di non risonanza (4.24), allora
esiste una trasformazione canonica ε–vicina all’identità tale che la nuova hamiltoniana ha la forma
(4.26); corrispondentemente per ogni moto di H si ha cost
kI(t) − |t| ≤
I(0)k < cost ε per .
ε
2
All’occorrenza, il termine ) lasciato indicato nella (4.26) si scrive facilmente: troncando
O(ε
εχ εχ
◦ ◦
infatti gli sviluppi (4.15) di h Φ e f Φ rispettivamente all’ordine due e uno, anziché uno e zero,
si trova subito per questo termine un’espressione del tipo
˜
2 (2) 3
ε f ( I, ϕ̃) + ) ,
O(ε
con 1 1
(2) {{h, {f, {f
f = χ}, χ} + χ} = + f , χ} (4.28)
0
2 2
{h, −
(si è tenuto conto che χ} = f f ).
0
C. La costruzione risonante ∗ ∗
∈ ·
Consideriamo ora il caso in cui, per un qualche k risulti k ω = 0, mentre invece la
K,
∗
∈
(4.24) resta soddisfatta per k non parallelo a k . In tal caso la (4.17) non ha soluzione.
K
Possiamo tuttavia ancora ottenere degli sviluppi interessanti eliminando dall’espressione (4.25) di
∗
k
χ i termini con k k ; in questo modo tutte le componenti di Fourier di f sono rimosse all’ordine
∗
k
ε, ad eccezione di quelle con k k che sopravvivono: corrispondentemente la nuova hamiltoniana
ha la forma, più debole della (4.26), X ˆ ˜
˜ ˜ ˜ ˜ ik·
ϕ̃
2 f ( I) e (4.29)
H̃ ( I, ϕ̃) = h( I) + εg( I, ϕ̃) + ) , con g( I, ϕ̃) =
O(ε
ε k
∗
k∈K, kkk
ˆ
(g contiene, si osservi, la media f ). Questa espressione è detta forma normale risonante di H ,
0 ε
∗ ·
relativa alla risonanza k ω = 0. ∗
Tale forma normale ha grande interesse. Consideriamo, per capire, il caso elementare k =
(1, 0, . . . , 0), che si ha per ω con ω = 0. Le armoniche di f che non si possono eliminare sono quelle
1
che dipendono solo dall’angolo ϕ , e dunque la forma normale risonante è del tipo
1 ˜ ˜ 2
H̃ = h( I) + εg( I, ϕ̃ ) + ) .
O(ε
ε 1
˜ 37
Si vede allora che I , in generale, evolve in modo significativo già sulla scala di tempo 1/ε, mentre
1
˜ ˜
però I , . . . , I nello stesso intervallo di tempo restano quasi costanti. Il principio della media non
2 n − ∼
è più soddidsfatto, ma abbiamo trovato n 1 costanti del moto fino a t 1/ε.
37 Non è detto che lo faccia, dipende dalla forma di g e dunque di f : diciamo che non lo possiamo escludere e ce lo
aspettiamo.
4.4 — Sistemi isocroni perturbati: un passo perturbativo 67
∗ ∗
Analoga situazione si ha in realtà per k qualsiasi. Per k generico infatti tutte le azioni
∼ −
evolvono individualmente già a t 1/ε, tuttavia ancora esistono n 1 (quasi) costanti del moto.
Dall’hamiltoniana (4.29) si ha infatti X
˙˜ ˆ ˜ ik·
ϕ̃ 2
−ε ik f ( I) e + ) ,
I = O(ε
k
∗
k∈K, kkk ∗
e dunque le azioni si muovono (quasi esattamente) in direzione di k . Corrispondentemente, tutte
le combinazioni lineari delle azioni
˜ ˜ ∗
· ·
J = α I , con α k = 0 , (4.30)
˙˜ ˙˜
2 ·
sulla scala di tempo 1/ε (quasi) si conservano. Infatti, trascurando i termini ), si ha J = α I,
O(ε
˙˜ ˙˜
∗
k −
ma I k e dunque J = 0. Vi sono evidentemente n 1 combinazioni lineari indipendenti che
soddisfano la (4.30). ˜ ·
Dal momento che I e I sono ε–vicini, le corrispondenti combinazioni lineari J = α I sono
anch’esse (quasi) conservate. E’ interessante osservare che tra le quantità quasi conservate c’è
∗
· ·
sempre l’hamiltoniana imperturbata h(I) = ω I (infatti, ω k = 0).
∗ ∗
• Il caso di k generico, volendo, si riporta al caso k = (1, 0, . . . , 0), solo apparentemente par-
ticolare, con un cambiamento di variabili del tipo introdotto nell’appendice E in connessione
all’esercizio 32. Per capire, si scriva in dettaglio innanzitutto il caso n = 2.
Quanto ora detto nel caso di risonanza singola si estende senza difficoltà al caso in cui siano
≤ ≤ −
presenti r relazioni di risonanza, 1 r n 1, ovvero r relazioni del tipo
(s) ·
k ω = 0 , s = 1, . . . , r ,
(1) (r) n
⊂
con ovviamente k , . . . , k indipendenti. Sia infatti lo spazio r–dimensionale generato
R Z
(1) (r)
da k , . . . , k ; si ha evidentemente n
{k ∈ ·
= : k ω = 0} .
R Z
Escludendo questa volta da χ tutte le armoniche che stanno in si trova la forma normale risonante
R,
relativa a R X ˆ ˜
˜ ˜ ˜ ˜ ik·
ϕ̃
2 f ( I) e . (4.31)
H̃ ( I, ϕ̃) = h( I) + εg( I, ϕ̃) + ) , con g( I, ϕ̃) =
O(ε
ε k
k∈K∩R
˙˜
Procedendo come sopra, dalle equazioni di Hamilton di H̃ si deduce che I è (quasi) parallelo a R,
ε
−
e corrispondentemente (quasi) si conservano n r combinazioni lineari indipendenti delle azioni,
precisamente le combinazioni · ⊥
α I con α .
R ·
Tra queste, si osservi, c’è sempre l’hamiltoniana imperturbata h(I) = ω I. Lo spazio è detto
R
reticolo risonante, o anche modulo risonante, associato a ω; la sua dimensione r è detta molteplicità
(ma anche dimensione) della risonanza. Una notazione più accurata, ma più pesante, sarebbe stata
.
R
ω
4.4 — Sistemi isocroni perturbati: un passo perturbativo 68
• Un esempio apparentemente molto particolare è quello in cui
{k
= = (k , . . . , k , 0, . . . , 0)} ;
R 1 r
ma a questo caso ci si riporta sempre, all’occorrenza, ancora con un cambiamento di variabili
del tipo introdotto nell’appendice E in connessione all’esercizio 32.
• La costruzione risonante si può interpretare da un punto di vista algebrico nel modo seguente:
mentre nel caso non risonante il nucleo di L è formato dalle funzioni delle sole azioni, nel
ω
caso risonante L ha un nucleo più grande, comprendente tutte le funzioni del tipo
ω X ik·ϕ
F̂ (I)e ,
F (I, ϕ) = k
k∈R
che danno evidentemente L F = 0. L’equazione per χ che si può risolvere in questo caso è
ω −
L χ = f Π f ,
ω N
e la nuova hamiltoniana corrispondentemente risulta essere
2
H̃ = h + εΠ f + )
O(ε
N
(la funzione g introdotta sopra coincide evidentemente con Π f ). Queste espressioni uni-
N
ficano il caso risonante e quello non risonante, che differiscono solo per il diverso nucleo
N . Se si aggiungono risonanze la dimensione di N cresce, e il numero di costanti del moto
corrispondentemente diminuisce.
Per n = 3 si faccia un esempio di ω con una risonanza semplice e uno con risonanza
Esercizio 42
doppia, e si scriva la forma normale nei due casi. −
Ancora una osservazione. Nel caso risonante con molteplicità r, si è detto, esistono n r
˜
·
combinazioni lineari α I delle azioni che sono costanti del moto per la forma normale troncata
all’ordine ε ˜ ˜ ˜
′
H̃ ( I, ϕ̃) = h( I) + εg( I, ϕ̃) .
ε ′
− stessa, che (dipendendo dagli angoli!) è da esse
A queste n r costanti del moto si aggiunge H̃ ε −
funzionalmente indipendente. Le costanti del moto dunque, nel caso risonante, non sono n r ma
−
n r + 1. Inoltre, con evidenza, esse sono in involuzione. Particolarmente interessante è il caso
di risonanza singola, perché allora, a dispetto della dipendenza dagli angoli, il sistema troncato, in
buona sostanza, è ancora integrabile. Si rifletta su questo punto un po’ delicato, costruendo degli
esempi (si riguardino i controesempi al principio della media, con h(I) lineare).
D. Generalizzazione: f non polinomiale.
La generalizzazione a f con un numero infinito di componenti di Fourier non è ovvia e anzi
è assai delicata. Se ripercorriamo lo stesso ragionamento fatto sopra per f polinomio di Fourier,
n
∈
senza difficoltà arriviamo alle equazioni (4.22) e (4.23), quest’ultima però per infiniti k e non
Z
più per un numero finito di essi. Per risolvere la (4.23) per ogni singolo k è sufficiente la condizione
di non risonanza n
· 6 ∀ ∈ \ {0}
k ω = 0 k ,
Z
4.4 — Sistemi isocroni perturbati: un passo perturbativo 69
Figura 19: I “corridoi risonanti” per n = 2.
che per n = 2 equivale a ω /ω irrazionale. Ma poi ci sono problemi non banali di convergenza
1 2
della serie di Fourier per χ X ˆ
f k ik·ϕ
χ(I, ϕ) = e .
·
ik ω
n
k∈Z \{0}
·
Infatti i denominatori k ω, benché tutti diversi da zero, in assenza di ulteriori ipotesi su ω, per
opportuno k grande possono avvicinarsi arbitrariamente a zero, impedendo la convergenza della
serie a una funzione regolare.
Proseguire l’analisi del problema ci condurrebbe in questioni delicate di tipo aritmetico, nelle
quali in queste note non è sensato addentrarsi. Al solo scopo di far comprendere come sia sottile la
questione, possiamo ricordare un’ipotesi tipica su ω che, congiuntamente a ipotesi di regolarità su
f , consente di giungere a risultati molto interessanti (ben più che costruire una forma normale di
primo ordine in ε). Tale ipotesi, nota in letteratura come “condizione diofantea” di Siegel (1942),
·
è che k ω non solo sia diverso da zero, ma in qualche modo sia staccato via da zero, precisamente
che esista una costante γ > 0 tale che γ n
|k · ≥ ∀ ∈ 6
ω| k , k = 0 , (4.32)
Z
n
|k|
ove si è denotato |k| |k | · · · |k |
= + + .
1 n
Limitiamoci per semplicità a n = 2. La condizione è violata con evidenza da un insieme denso di
2
∈
frequenze ω : tutte quelle che stanno sulle rette del piano ω , ω a pendenza razionale (figura
R 1 2
19); per esse infatti con opportuno k si ha k ω + k ω = 0 esattamente. Ma variando di poco ω
1 1 2 2
2
|k ·
certamente si ha ω| < γ/|k| , dunque la condizione è violata in un insieme, oltre che denso,
aperto (i corridoi grigi in figura 19). Ciononostante, se prendiamo una palla B di raggio R nello
R
spazio delle frequenze centrata nell’origine, e rimuoviamo da essa i corridoi, l’insieme B che resta
R,γ
(pur con interno vuoto) ha misura di Lebesgue grande per γ piccolo: precisamente,
Esiste C > 0 tale che
Proposizione 21 −1
\
mes (B B ) < C R γ mes (B ) . (4.33)
R R,γ R
(utile a comprendere la proposizione) Si consideri l’intervallo (0, 1) e si facciano degli
Esercizio 43
esempi di sottoinsiemi aperti densi, ma di misura arbitrariamente piccola. Un insieme siffatto deve
4.4 — Sistemi isocroni perturbati: un passo perturbativo 70
∈
Figura 20: L’insieme delle ω B che violano la (4.32) per un certo k.
R
essere l’insieme dei corridoi, tagliati da una curva regolare come in figura 19. [Suggerimento: si
prenda un insieme numerabile denso qualunque, per esempio i razionali in (0, 1); attorno a ogni x j
P ∞,
a < e si faccia l’unione.]
si prenda un intervallo di ampiezza εa , con j
j j
\ ∈
Sia B = B B l’insieme delle ω B che violano la (4.32), e B
Dimostrazione. R,γ R R,γ R R,γ,k
B è
l’insieme di quelle che la violano per un certo k (figura 20). Lo spessore di R,γ,k
√
2 2γ
γ 2
≤
∆= ;
2 3
kkk |k| |k|
√ 3 2
≤ ∈ 6
il volume corrispondente si stima con 2R∆ 4 2Rγ/|k| . Sommando su tutti i k , k = 0, si
Z
ottiene per B la stima
R,γ X
√ 1 .
mes (B ) < 4 2Rγ
R,γ 3
|k|
2
k∈Z \{0}
La serie converge, come si vede scrivendo ∞ ∞
X X X
1 N 4
k
= = ,
3 3 2
|k| K K
2 K=1 K=1
k∈Z \{0}
2 38
∈ |k|
ove N = 4K è il numero dei k tali che = K. La conclusione è immediata.
Z
K Si generalizzi la proposizione 21 a n qualunque. Si riscriva la condizione di Siegel
Esercizio 44 α n
|k| |k|
sostituendo a al denominatore a secondo membro, con α > 0 non necessariamente intero.
−
Per quali α la dimostrazione funziona ancora? [Risp: α > n 1]
E. Forme normali di ordine superiore (cenno).
Una domanda spontanea, a questo punto, è se dopo aver messo il sistema in forma normale
2 3
fino all’ordine ε non si possa fare di meglio, ovvero passare all’ordine ε , ε . . . ottenendo per un
∞
38 −2 2
P
La serie si somma ( K = π /6), e si potrebbe cosı̀ stimare C. Ma allora a far le cose bene si guadagna
K=1
un fattore 2 perché k e −k danno lo stesso corridoio, e si guadagna ancora osservando che 2k, 3k . . . , danno corridoi
già contenuti in quello di k ... non ne vale proprio la pena.
4.5 — Sistemi non isocroni; il modello dei rotatori 71
Figura 21: Il modello dei rotatori
qualche s > 1 la forma normale di ordine s: precisamente, limitandoci per semplicità al solo caso
non risonante, ˜ ˜ ˜ ˜
s s+1
H̃ ( I, ϕ̃) = h( I) + εg ( I) + . . . + ε g ( I) + ) .
O(ε
ε 1 s
L’interesse è ovvio: se cosı̀ avviene, si ottiene un buon controllo sulle azioni per tempi più lunghi,
s
∼
t 1/ε . La questione non è difficile (non intervengono idee nuove) ma è un po’ complessa; ci
limitiamo a qualche indicazione per il solo passo successivo, ovvero s = 2, limitatamente al caso in
cui f (I, ϕ) è un polinomio di Fourier.
Il lavoro da fare è del tutto analogo al precedente: l’hamiltoniana su cui si deve lavorare
(abolendo la tilde) è 2 ′ 3
H (I, ϕ) = h(I) + εg (I) + ε f (I, ϕ) + ) ,
O(ε
ε 1
′
hf i
con g = e f dato dalla (4.28); ma poiché sia f che χ sono polinomi di Fourier, è un polinomio di
1 ′
Fourier (benché di grado più elevato) anche f , e dunque si procede esattamente come per il primo
2 ˜
ε
passo: se non intervengono nuove risonanze, si trova una trasformazione canonica (I, ϕ) = Φ ( I, ϕ̃),
χ
2 ′
piccola con ε , che elimina tutte le componenti di Fourier di f , e dà alla nuova hamiltoniana
2
ε
◦
H̃ = H Φ la forma normale del secondo ordine
χ ˜ ˜ ˜ ˜
2 3
H̃ ( I, ϕ̃) = h( I) + εg ( I) + ε g ( I) + ) ,
O(ε
ε 1 2
′
ove g è la media di f . In presenza di risonanze si ottiene invece una forma normale più debole.
2
Con un po’ di buona volontà si procede fino a s qualsiasi, sia nel caso non risonante che in presenza
di risonanze (ovviamente con forme normali più deboli). Per approfondire si cerchi, su qualche
testo, la parola chiave “serie di Birkhoff”.
4.5 Sistemi non isocroni; il modello dei rotatori
Studieremo qui il caso di sistemi (strettamente) non isocroni, precisamente sistemi hamiltoniani
quasi integrabili della consueta forma (4.13), assumendo però, al posto della (4.14), che le frequenze
∂h
ω = dipendano in modo sostanziale dalle azioni, precisamente che risulti
∂I
2
∂ω ∂ h
i 6
det = det = 0 . (4.34)
∂I ∂I ∂I
j i j
In queste condizioni si ha un diffeomorfismo locale tra lo spazio delle frequenze e lo spazio delle
azioni, che associa varietà regolari in uno spazio a varietà regolari nell’altro. In particolate, ai piani
·
risonanti k ω = 0 nello spazio delle frequenze restano associate varietà risonanti di equazione
·
k ω(I) = 0
nello spazio delle azioni. Le frequenze — è bene sottolinearlo — non sono più parametri del modello,
non dobbiamo distinguere tra modelli risonanti e non risonanti: le risonanze ora sono luoghi nello
spazio delle azioni.
4.5 — Sistemi non isocroni; il modello dei rotatori 72
Non studieremo il caso generale (cui tuttavia accenneremo più avanti), ma studieremo in det-
taglio un modello particolare, una catena di rotatori debolmente accoppiati, che come vedremo
racchiude l’essenziale. L’hamiltoniana del modello è
n 2
X I j + ε f (ϕ) (4.35)
H (I, ϕ) =
ε 2A
j=1
con, nel caso più semplice, n
X −
− cos(ϕ ϕ ) , ϕ = ϕ
f (ϕ) = j+1 j n+1 1
j=1
39 −1 ′′ −1
(condizioni periodiche agli estremi). Si ha ω (I) = A I , mentre l’hessiana è h (I) = A le
I;
i i
varietà risonanti sono cosı̀ piani per l’origine anche nello spazio delle azioni.
La perturbazione, si osservi, ha un numero finito di componenti di Fourier, inoltre queste sono
j
±k
del tipo particolare ove j −1,
k = (0, . . . , 0, 1, 0, . . . , 0) , (4.36)
−1,
con la coppia 1 in posizione j, j + 1. Il carattere locale dell’interazione aiuta a comprendere
meglio i risultati, ma non è realmente importante, come anche il fatto che f sia indipendente dalle
azioni e abbia media nulla. La forma della parte imperturbata
n 2
X I j
h = 2A
j=1
invece è importante: comprendere fino a che punto la si può generalizzare non è banale.
40
Nel seguito, per alleggerire le espressioni, porremo A = 1. Come dominio nello spazio delle
azioni prenderemo la palla B di raggio R.
R
Due osservazioni preliminari:
(i) Le condizioni periodiche hanno il vantaggio che tutti i siti sono equivalenti, lo svantaggio che
· · ·
c’è una quantità conservata, il momento totale J = I + + I . Non è tuttavia restrittivo
1 n
o o o 6
supporre J = J(0) = 0: infatti per ogni dato iniziale I con J = 0 possiamo eseguire la
trasformazione w dipendente dal tempo
o o
J J
˜
I = + I , ϕ = t + ϕ̃ , j = 1, . . . , n
j j j j
n n
(sistema “corotante” col moto medio; è come mettersi a cavallo del baricentro per i sistemi
che conservano il momento lineare); per questa trasformazione (puntuale, f = 0) si ha
n
X
o o
∂v J J
2 ˜
−u · −
−
K = = I ,
0 j
∂t n n j=1
◦
e si vede subito che la nuova hamiltoniana K = H w + K coincide con la vecchia a meno
0
˜
o o
di un’inessenziale costante additiva. Il dato iniziale I corrispondente a I ora ha momento
totale nullo.
39 Altre condizioni al bordo interessanti sono quelle “aperte”, senza l’interazione tra il primo e l’ultimo rotatore, e
quelle “rigide” (o chiuse) in cui si aggiungono, con ovvio significato, due rotatori di indice 0 e n + 1, con fasi fisse
ϕ = ϕ = 0.
0 n+1 √ √
˜
40 formalmente è, come al solito, un riscalamento canonico: I = A I, ϕ = ϕ̃, con valenza 1/ A che però si può
togliere riscalando t.
4.5 — Sistemi non isocroni; il modello dei rotatori 73
(ii) E’ equivalente considerare il modello (4.35), con il piccolo parametro ε di fronte a f e come
∈
si e detto I B , oppure considerare un modello privo di ε di fronte a f ,
R n 2
X I j
H(I, ϕ) = + f (ϕ) , (4.37)
2
j=1
ma in un dominio delle azioni grande con ε, precisamente
√
∈ .
I B ε
R/
Infatti, il riscalamento ˜
I
√
I = , ϕ = ϕ̃
ε ˜
riporta il dominio delle azioni a B indipendente da ε, e dà alla nuova hamiltoniana K( I, ϕ̃) =
R
√
√ ˜
εH( I/ ε, ϕ̃) la forma i
h ˜
n 2
X I
1 j
˜ √ + ε f ( ϕ̃) ;
K( I, ϕ̃) = 2
ε j=1
√ √
il riscalamento di tempo t = t̃ ε elimina il fattore 1/ ε di fronte a K (si usa precisamente
√ √
t/ ε
t ), e ci si ritrova con l’hamiltoniana εK che è la (4.35).
Φ = Φ
√
K εK
Allo stesso modo si comprende che se dentro a B consideriamo il dominio piccolo
R
√
∈ ,
I B ε
R √
la presenza di ε di fronte a f è illusoria: infatti se riportiamo il dominio B delle azioni a
R ε
B con il riscalamento, questa volta,
R √ ˜
I = ε I , ϕ = ϕ̃ ,
√
e passiamo al tempo t̃ = t ε, il parametro ε scompare del tutto dall’hamiltoniana, che prende
la forma (4.37), e dunque il modello non è in alcun modo prossimo a integrabile. Questo è
un elemento cruciale, che sarà importante nel seguito e sul quale è bene riflettere. Un aiuto
alla riflessione è dato dall’esercizio seguente:
Si prendano in esame i diversi casi considerati al punto (ii): presenza o assenza di
Esercizio 45 √ √
ε a fronte di f , raggio r del dominio delle azioni pari a R, R/ ε, R ε; si raffrontino la velocità
di evoluzione degli angoli e quella delle azioni, quest’ultima rapportata al raggio r dove le azioni
vivono. [Risposta: sono ben separate da un fattore ε nel caso di debole accoppiamento (azioni
molto più lente degli angoli), dello stesso ordine nel caso di forte accoppiamento.]
Nel seguito del paragrafo applicheremo al modello dei rotatori metodi noti di teoria delle per-
turbazioni, eseguendo un passo perturbativo fuori risonanza e in risonanza, e poi illustreremo i
risultati ottenuti confrontandoli con una semplice indagine numerica.
A. Studio analitico: un passo perturbativo, caso non risonante. Eseguiamo un passo perturbativo
εχ
con il metodo di Lie, ovvero con w = Φ . Procedendo in modo identico a quanto fatto nel paragrafo
4.5 — Sistemi non isocroni; il modello dei rotatori 74
4.4–A, si trova subito che se χ soddisfa l’equazione fondamentale (4.19), che essendo f a media
nulla si scrive ora ∂χ
· = f ,
ω(I) ∂I
allora la perturbazione si elimina all’ordine ε e la nuova hamiltoniana assume la forma normale
1
˜ ˜
2 3 {f, χ} .
H̃ = h + ε f + ) , f =
O(ε
ε 2
L’equazione per χ è risolta da n
X −
sin(ϕ ϕ )
j+1 j
−
χ(I, ϕ) = ,
−
I I
j+1 j
j=1
ovviamente dove i denominatori non si annullano, e con pochi calcoli si trova poi
h
n n
X X
− −
1 cos 2(ϕ ϕ )
1 1
j j−1
˜ −
f (I, ϕ) = + cos(ϕ ϕ )
j+1 j−1
2
−
2 (I I ) 4
j j−1
j=1 j=1
ih i
1 1
− −
cos(ϕ 2ϕ + ϕ ) + + ,
O(ε)
j+1 j j−1 2 2
− −
(I I ) (I I )
j+1 j j j−1
avendo qui mantenuto la notazione (I, ϕ) per le nuove variabili. Si osservi che
˜
(i) in f compaiono nuove armoniche, ma in numero finito, precisamente quelle del tipo
j+1 j
±k ±
k = k ;
(ii) χ contiene i piccoli divisori j · −
k ω(I) = I I ,
j+1 j
˜
corrispondentemente f contiene i loro quadrati (com’è ovvio, dovendo fare le derivate di χ
rispetto alle azioni). Formalmente dunque la forma normale si può scrivere ovunque tranne
che sulle risonanze, che sono qui i piani
−
I I = 0 , j = 1, . . . , n
j+1 j −
(due rotatori consecutivi girano alla stessa velocità; la combinazione ϕ ϕ non avanza).
j+1 j
√
Ma il guadagno di un ordine, in tutto un intorno ε) dei piani risonanti, è illusorio. E’
O(
infatti un guadagno vero lontano dai piani risonanti, quando i denominatori sono grandi:
˜
ma se ci si avvicina ai piani risonanti i denominatori di f rimpiccioliscono e il guadagno
√ ε, la nuova
progressivamente si perde; se poi uno dei denominatori diviene piccolo come
˜
2 k k ∼
perturbazione ha norma (qualunque sia la norma scelta) ε f ε, cioè tal quale la per-
turbazione di partenza, e non si è guadagnato nulla. (In situazioni intermedie si guadagna
1/4
qualche cosa, ma meno di un ordine in ε: ad esempio, a distanza ) dalla risonanza si ha
O(ε
˜
2 3/2 2
k k ∼
ε f ε .) Si rifletta su questo punto: algebricamente abbiamo il fattore ε di fronte alla
˙
nuova perturbazione, ma a causa dei denominatori I (per le I coinvolte nella o nelle
O(ε),
2
risonanze) è piccolo come ε, non come ε , come se il passo perturbativo non lo avessimo fatto.
4.5 — Sistemi non isocroni; il modello dei rotatori 75
√
|I − |
B. Moti entro una risonanza semplice. Supponiamo ora che sia I = ε) e invece
O(
2 1
|I − | 6
I = per j = 1. La miglior forma normale che siamo in grado di costruire si ottiene
O(1)
j+1 j
sfilando via da χ il termine col denominatore piccolo, ovvero prendendo
X −
sin(ϕ ϕ )
j+1 j
−
χ = ;
−
I I
j+1 j
j6 =1
corrispondentemente la nuova hamiltoniana assume la forma normale risonante
X
1
1 ˜
˜ ˜
˜ 2 2
2 2 − − I + ) . (4.38)
( I + I ) ε cos( ϕ̃ ϕ̃ ) +
H̃ ( I, ϕ̃) = O(ε
2 1
ε j
1 2
2 2 j>2
2
Fintantoché il resto di ordine ε si può trascurare, il moto dei primi due rotatori si disaccoppia dal
resto della catena ed è governato dall’hamiltoniana ridotta
1
˜ ˜ ˜ ˜
2 2 − −
( I , I , ϕ̃ , ϕ̃ ) = ( I + I ) ε cos( ϕ̃ ϕ̃ ) . (4.39)
H
ε 1 2 1 2 2 1
1 2
2
Questa è una vecchia conoscenza, infatti altro non è che la (4.9) con notazioni appena differenti;
˜ ˜
sappiamo allora che il momento complessivo J = I + I resta costante, il moto medio si disaccoppia,
1 2 √
˜ ˜ ε),
e il sistema, in buona sostanza, è un pendolo: I e I eseguono oscillatzioni di ampiezza O(
1 2
√ ˜ ˜
1 ( I + I ). Per capire ancor meglio, possiamo
con periodo di ordine 1/ ε, attorno alla media J = 1 2
2
supporre — senza perdita di generalità, come si è visto sopra — che sia J = 0; in tal caso abbiamo
√
˜ ˜
≃ ≃ ε, e conviene eseguire un riscalamento (uno zoom)
I I
1 2 √ 1
˜ ˆ √
I = ε I , ϕ̃ = ϕ̂ , t = t̂ . (4.40)
j j j j ε b
41 −1
Il dominio delle variabili riscalate ora è di ordine uno, e la nuova hamiltoniana = ε diviene
H H
indipendente da ε: 1
b ˆ ˆ
2 2 − −
( I + I ) cos( ϕ̂ ϕ̂ ) .
=
H 2 1
1 2
2
˜ ˜
Il moto delle variabili I , I , ϕ̃ , ϕ̃ sotto l’hamiltoniana ridotta (4.39) altro non è che questo mo-
1 2 1 2
to indipendente da ε — un rotatore libero corrispondente al moto medio, un pendolo che esegue
√ √
oscillazioni limitate — semplicemente riscalato nelle azioni e nel tempo di fattori ε e 1/ ε. Fin-
2
tantoché il resto ) si può trascurare, questo moto dei primi due rotatori si ritrova per la forma
O(ε √ √
˜ ˜
normale (4.38), con I , I che compiono oscillazioni ε) nella scala di tempo ε), mentre
O( O(1/
1 2
˜ ˜
intanto I , . . . , I restano costanti e ϕ̃ , . . . , ϕ̃ avanzano uniformemente. Il tutto si ritrova infine
3 n 1 n
anche per le variabili di partenza, a meno della deformazione piccola con ε dovuta alla trasforma-
zione canonica che ha dato al sistema la forma normale. Il principio della media è chiaramente
soddisfatto. 2
In questo caso di risonanza singola la forma normale risonante, trascurando il resto ),
O(ε
risulta integrabile (facilmente, passando alle variabili di azione–angolo del pendolo che abbiamo
incontrato, si scriverebbero tutte le sue variabili di azione–angolo). Non è questo però il punto: come
vedremo nel prossimo paragrafo C, nel caso di almeno due risonanze (coinvolgenti siti consecutivi)
l’integrabilità si perde e i moti si fanno sostanzialmente più complessi; ugualmente, con identico
meccanismo, il principio della media resterà soddisfatto.
41 −1/2 −1/2
Un fattore ε è dovuto al riscalamento delle azioni, un altro fattore ε è dovuto al riscalamento del tempo.
4.5 — Sistemi non isocroni; il modello dei rotatori 76
C. Moti entro una risonanza multipla. Per capire, è sufficiente comprendere il caso di due risonanze
contigue, ad esempio √
|I − | |I − |
I , I = ε) ; (4.41)
O(
2 1 3 2
la generalizzazione al caso di risonanze multiple poi è immediata.
Procedendo come sopra per il caso di risonanza singola, è facile ottenere una forma normale
adattata alla risonanza considerata, precisamente X
1
˜ ˜ ˜
2 2
H̃ ( I, ϕ̃) = ( I, ϕ̃) + I + ) , (4.42)
H O(ε
ε ε j
2 j>3
questa volta con 3
X
1 ˜
˜ ˜ ˜ 2 − − −
I ε [cos( ϕ̃ ϕ̃ ) + cos( ϕ̃ ϕ̃ )] . (4.43)
( I , I , I , ϕ̃ , ϕ̃ , ϕ̃ ) =
H 2 1 3 2
ε 1 2 3 1 2 3 j
2 j=1
2
Come sopra, ignoriamo il resto ) e analizziamo il moto di . Possiamo supporre anche qui
O(ε H
ε √
˜ ˜ ˜ ˜ ˜ ˜
≃ ≃ ≃
che il momento angolare totale I + I + I sia nullo; ma allora si ha I I I ε, e il
1 2 3 1 2 3
riscalamento (4.40) dà l’hamiltoniana
3
X
=1
b ˆ
2 − − −
I [cos( ϕ̂ ϕ̂ ) + cos( ϕ̂ ϕ̂ )]
H 2 1 3 2
j
2 j=1
in un dominio indipendente da ε. Questo è un sistema hamiltoniano fortemente accoppiato indi-
pendente da ε, con due gradi di libertà effettivi, che non è integrabile né prossimo a integrabile, non
esegue moti quasi periodici ma è in grado di eseguire moti profondamente diversi e sostanzialmente
42
più complessi, detti comunemente moti caotici. Nel prossimo paragrafo, dedicato all’esplorazione
numerica del modello dei rotatori, ne vedremo degli esempi. Si osservi però che grazie alla conser-
vazione dell’energia, tali moti sono limitati (infatti, la parte cinetica è definita positiva mentre la
parte potenziale è limitata) e si sviluppano su una loro scala di azione e di tempo, che evidentemen-
te non dipende da ε. Corrispondentemente, per ε piccolo, ammette moti limitati (in generale
H
ε √ ε e su una scala di
complicati, comunque piccolo sia ε) che si sviluppano su una scala di azione
√ 2
tempo 1/ ε. Fintantoché il resto ) si può ignorare, i moti caotici esistono anche nel sistema
O(ε
di partenza, precisamente appaiono come moti caotici localizzati entro la risonanza doppia, limitati
da una disuguaglianza del tipo √
o
|I − |
(t) I < cost ε ,
j j
√
che si sviluppano sulla scala di tempo 1/ ε.
Si faccia attenzione: la scala di tempo sulla quale il moto è complicato, non banale e non
√ ε, ovvero è molto più piccola della scala di tempo 1/ε del principio della media.
integrabile, è 1/
Ciononostante il principio della media è soddisfatto. Il principio della media, di cui qui si comincia
ad apprezzare la sottigliezza, non richiede l’integrabilità del sistema fino all’ordine ε.
42 Qui ci accontentiamo dell’intuizione. Tutto però si precisa in modo pulito e si dimostra nell’ambito della teoria dei
sistemi dinamici; lo stesso termine caotico, qui usato in modo necessariamente vago in contrapposizione a integrabile,
si formalizza in un termine tecnico, e lo si usa, in buona sostanza, per quei sistemi in cui la divergenza esponenziale
delle traiettorie vicine — quella che si ha quando la “stima a priori” non è migliorabile — interessa un insieme di
dati iniziali di misura positiva. A questa instabilità esponenziale si accompagna una sostanziale imprevedibilità dei
moti.
4.5 — Sistemi non isocroni; il modello dei rotatori 77
Figura 22: I (T ) in funzione di T , per ε = 0.9.
j
In questo modello particolare il comportamento caotico è localizzato nella catena di rotatori,
nel senso che coinvolge tre soli di essi mentre gli altri avanzano regolarmente (a meno di un piccolo
˜
effetto dovuto al fatto che I e I non coincidono). Queste particolarità aiutano l’intuizione, ma
j j √
come avremo modo di dire, non sono necessarie, e la presenza di moti caotici di ampiezza ε su
√
scala di tempo 1/ ε, mentre però il principio della media è soddisfatto, non è una peculiarità di
questo modello, ma rappresenta una situazione tipica.
D. Studio numerico del modello dei rotatori: le quantità calcolate. Lo studio numerico di questo
o qualunque altro sistema dinamico, hamiltoniano o no, si effettua risolvendo approssimativamente
le equazioni del moto mediante un opportuno algoritmo in cui si discretizza il tempo e si procede a
“passi di integrazione” finiti. La letteratura sull’argomento è enorme, e in parte intrecciata con lo
43
studio perturbativo. Trarre conclusioni chiare sull’affidabilità dei metodi di integrazione numerica
è difficile; il loro impiego richiede esperienza e sensibilità. Noi naturalmente non entreremo in nessun
modo in questa discussione, e con atteggiamento, per una volta, non critico, prenderemo per buoni
i risultati numerici senza ulteriori indagini.
Studieremo qui una catena di n = 8 rotatori, con hamiltoniana (4.35). Le quantità che andremo
ad esaminare sono, per ciascun moto,
(a) La media temporale delle azioni fino al tempo T , precisamente
Z T
1
I (T ) = I (t) dt .
j j
T 0
43 Si intuisce forse che la discretizzazione si può riguardare come una perturbazione delle equazioni del moto
originarie, anche se non è facile precisare in che senso.
4.5 — Sistemi non isocroni; il modello dei rotatori 78
Figura 23: γ (sinistra) e W (destra), j = 1, . . . , 6 dal basso in alto, per ε = 0.9.
j j
4.5 — Sistemi non isocroni; il modello dei rotatori 79
Figura 24: Come in figura 22, per ε = 0.5.
In pratica, se s è la discretizzazione temporale che interviene nell’intergrazione numerica,
quello che si calcola è N −1
X
1 I (ls) .
I (N s) = j
j N l=0 44 I (∞) = lim I (T ); in pratica
In linea di principio si vorrebbe calcolare la media infinita j j
T →∞
ovviamente il calcolo è troncato a T = sN grande. In condizioni di forte interazione
max max
(ε di ordine uno) ci si aspetta che tutti i rotatori si comportino, su tempi lunghi, allo stesso
modo, dunque che la media I (∞) sia la stessa per tutti e, in assenza di moto medio, sia
j
45
nulla. Viceversa, in condizioni di debole accoppiamento (ε piccolo, assenza di risonanze) ci
si aspetta che ogni rotatore vada sostanzialmente per conto proprio, mantenendo, a meno di
piccole oscillazioni, la I di partenza.
j
(b) La funzione di autocorrelazione γ (τ ) delle I , definita nel modo seguente:
j j Z T
Γ (τ ) 1
j 2
−
I (t + τ )I (t) dt
, Γ (τ ) = lim
γ (τ ) = I (∞) ,
j j
j
j j
2
σ T
T →∞ 0
44 Un teorema dovuto a Birkhoff garantisce l’esistenza delle medie temporali infinite per qualunque funzione (misu-
rabile) per moti generici, precisamente con la possibile eccezione di un insieme di dati iniziali di misura di Lebesgue
nulla. E’ un teorema non banale di grande importanza.
45 Un tale comportamento è anche quello che prevede la Meccanica Statistica, nella quale alla media temporale si
sostituisce una opportuna distribuzione di probabilità (la cosiddetta misura microcanonica, uniforme sulla superficie
di energia costante, per sistemi che conservino l’energia); per la simmetria del modello, tutti i rotatori non possono
che avere comportamento statistico identico.
4.5 — Sistemi non isocroni; il modello dei rotatori 80
Figura 25: Come in figura 23, per ε = 0.5.
4.5 — Sistemi non isocroni; il modello dei rotatori 81
2
dove σ = Γ (0) è la varianza temporale. In pratica il calcolo è discretizzato e troncato come
j 46
sopra. Per una generica f (t), la funzione di autocorrelazione
Z T
Γ (τ ) 1
f 2
−
f (t + τ )f (t) dt
, Γ (τ ) = lim
γ (τ ) = f (∞) ,
f
f 2
σ T
T →∞ 0
rappresenta la “memoria” al tempo t + τ del valore di f al tempo t: se γ (τ ) è positiva
f
(negativa) vuol dire che tipicamente, se f (t) sta sopra o sotto la media temporate f (∞), lo
stesso (l’opposto) fa f (t + τ ), ovvero una misura di f al tempo t dà qualche informazione su
f al tempo t + τ . Se invece γ (τ ) = 0, il comportamento di f al tempo t + τ è indipendente
f
(scorrelato) dal comportamento di f al tempo t. In Meccanica Statistica, il tempo di decadi-
mento a zero delle correlazioni (delle funzioni in qualche modo importanti) è identificato col
tempo di raggiungimento dell’equilibrio.
Per le nostre I , in condizioni di forte accoppiamento, ci si aspetta che γ (τ ) decada a zero
j j
su una qualche scala di tempo non troppo lunga; in condizioni di debole accoppiamento ci si
aspetta al contrario che γ (τ ) resti diversa da zero per tempi τ lunghi.
j 47
(c) Lo spettro di potenza W di I , la cui definizione è la seguente: se
j j Z ∞ iνt
(ν) e dν ,
I (t) = I
j
j −∞
2
|I(ν)|
allora W (ν) = . Anche qui naturalmente si discretizza e si tronca. Lo spettro di
j
potenza risulta essere la trasformata di Fourier della funzione di correlazione, pertanto esso
non fornisce un’informazione indipendente, ma è ugualmente utile prenderlo in considerazione.
In condizione di debole accoppiamento il moto di ciascuna j ci si aspetta sia, con buona
approssimazione, quasi periodico; corrispondentemente lo spettro di potenza sarà “a righe”,
cioè discreto con un numero finito di frequenze. Viceversa, nel caso di forte accoppiamento e
moto caotico, ci si aspetta di trovare spettro continuo (infinite frequenze in gioco).
E. I risultati numerici. Tutti i risultati che esporremo si riferiscono a dati iniziali con momento
· · ·
totale I + + I = 0.
1 n
La figura 22 mostra il comportamento delle medie I (T ) in funzione di T (su scala logaritmica),
j
per grande accoppiamento, precisamente per ε = 0.9. Il risultato è consistente con l’idea che il
I (∞) =
sistema, in queste condizioni, abbia “un buon comportamento statistico”; come atteso si ha j
0 per ogni j. La figura 23 mostra nelle stesse condizioni, più precisamente per lo stesso movimento,
la funzione di correlazione (a sinistra) e lo spettro di potenza (a destra); per ragioni grafiche le
figura si limita a soli sei rotatori. Come si vede, tutte le correlazioni decadono rapidamente, in
poche unità di tempo (tutte le velocità angolari sono di ordine uno, perciò poche unità di tempo
46 Si possono considerare correlazioni incrociate di due funzioni f e g, con ovvia definizione
T
Z
Γ (τ ) 1
f,g f (∞)g(∞) .
, Γ (τ ) = lim f (t + τ )g(t) dt −
γ = f,g
f,g 2
σ T
T →∞ 0
Quando g = f si usa il termine “autocorrelazione” (spesso sostituito, nella pratica, dal semplice “correlazione”).
47 La comprensione qui richiede un minimo di familiarità con la trasformata di Fourier, generalizzazione della serie
di Fourier quando l’intervallo di definizione delle funzioni è tutto e corrispondentemente la frequenza, qui denotata
R,
ν, anziché essere multipla di una frequenza fondamentale è una variabile continua, ν ∈ Chi non avesse tale
R.
familiarità può senza danno saltare qui e più avanti tutte le considerazioni relative allo spettro di potenza.
4.5 — Sistemi non isocroni; il modello dei rotatori 82
Figura 26: Come nelle figure 22 e 24, per ε = 0.03, con dati iniziali non risonanti.
vuol dire pochi giri di ciascun rotatore). Si osservi che lo spettro ha l’aspetto di una banda continua,
che si estende da zero a un valore ν prossimo a π, e che tutti i rotatori si comportano allo stesso
max
modo. Il moto, con evidenza, non ha nulla a che vedere con un moto quasi periodico.
Le figure 24 e 25 riportano le medesime quantità per accoppiamento più basso, ε = 0.5. L’a-
spetto qualitativo non è molto diverso, ma la scala di tempo sulla quale si manifestano i diversi
fenomeni si è dilatata; corrispondentemente la banda continua dello spettro è più stretta (le fre-
quenze in gioco sono più basse). Le figure successive 26 e 27 si rifericono invece a un valore di ε
sensibilmente più basso, precisamente ε = 0.03, con dati iniziali scelti in modo da evitare la pre-
senza di risonanze. La situazione ora è alquanto diversa: le azioni appaiono stabili, le correlazioni
48
non decadono, lo spettro si mostra discreto.
Le successive figure 28 e 29 si riferiscono al caso risonante, precisamente alla risonanza doppia
√
≃ ≃ ≃
I I I ε, con dati iniziali tali che I +I +I = 0; il valore di ε è ancora 0.03. Con evidenza
1 2 3 1 2 3
i rotatori 1, 2 e 3 formano un sottosistema separato interagente: la media delle loro azioni è nulla, la
correlazione decade, lo spettro di potenza mostra una banda stretta ma continua, ben diversa dalle
righe del caso precedente; nel contempo gli altri rotatori avanzano regolarmente, sostanzialmente
come nel caso precedente. La funzione di correlazione, ad esempio tramite il suo primo zero, fornisce
una elementare scala di tempo associata al moto caotico. In base all’analisi teorica sopra riportata,
√
questo tempo deve riscalare come 1/ ε, mentre corrispondentemente l’ampiezza della banda in W j
√
deve risultare proporzionale a ε. Una verifica di questa proprietà di riscalamento — rilevante,
perché coglie l’aspetto più essenziale del moto risonante — si può fare riducendo ε, ad esempio,
di un fattore 4, e controllando che il tempo di decorrelazione e l’ampiezza della banda continua
+ −
48 Si potrebbe vedere che le linee nello spettro del j-esimo rotatore sono esattamente a ν = I −I e ν = I −I ;
j+1 j j j−1
j j
sono queste in effetti le frequenze che intervengono nella trasformazione canonica che determina l’oscillazione di I j
˜
attorno a I (quasi costante).
j
4.5 — Sistemi non isocroni; il modello dei rotatori 83
Figura 27: Come nelle figure 23 e 25, per ε = 0.03, con dati iniziali
risonanti.
4.5 — Sistemi non isocroni; il modello dei rotatori 84
Figura 28: Come nella figura 23, per il medesimo ε = 0.03, ma dentro
√
≃ ≃ ≃
alla risonanza I I I ε.
1 2 3
siano rispettivamente aumentati e diminuiti di un fattore 2. La verifica è riportata in figura 30. La
parte superiore si riferisce a ε = 0.03, quella inferiore a ε = 0.0075. Per quest’ultimo valore di ε la
scala di tempo è raddoppiata rispetto al caso ε = 0.03, mentre la scala delle frequenze è dimezzata;
come si vede, le figure si assomigliano in modo significativo (per rendere più leggibili le figure con
lo spettro, la scala delle frequenze è stata ulteriormente dilatata di un fattore cinque, allo stesso
modo per i due valori di ε).
• Le figure 22 – 30 sono servite a illustrare la teoria sviluppata nel paragrafo precedente. Ma
vanno oltre la teoria: infatti la scala di tempo su cui si osservano, per ε piccolo, i moti
regolari, o anche i moti caotici dei primi tre rotatori ma disaccoppiati dalla parte restante
della catena, è troppo grande perché la si possa considerare spiegata dall’analisi elementare
di primo ordine sviluppata sopra. Un’analisi di ordine più elevato sarebbe necessaria. Non
possiamo qui andare oltre; si vedano però più avanti, per dare l’idea della potenzialità dei
metodi perturbativi, il teorema KAM e il teorema di Nekhoroshev.
F. Oltre il modello dei rotatori. Il modello dei rotatori che abbiamo sopra studiato ha molte
peculiarità che ci hanno semplificato lo studio analitico e — grazie soprattutto alla localizzazione
spaziale delle variabili d’azione e all’interazione anch’essa localizzata nella catena — hanno facilitato
l’esposizione dei risultati e la loro visualizzazione fisica. In realtà niente di tutto questo è realmente
necessario, tutto si generalizza in maniera abbastanza naturale (anche il passaggio da polinomio a
serie di Fourier è abbastanza indolore), ad eccezione di un punto: il meccanismo di confinamento,
per il quale abbiamo utilizzato la conservazione dell’energia. Un’estensione facile è quella a generiche
hamiltoniane imperturbate convesse, non necessariamente quadratiche né in alcun senso localizzate,
4.5 — Sistemi non isocroni; il modello dei rotatori 85
Figura 29: Come nella figura 27, per lo stesso ε = 0.03, ma dentro alla
√ o o o
≃ ≃ ≃ ε; dati iniziali tali che I + I + I = 0.
risonanza I I I
1 2 3 1 2 3
4.5 — Sistemi non isocroni; il modello dei rotatori 86
Figura 30: Correlazione e spettro di potenza di I , I , I , nella risonanza
1 2 3
√
≃ ≃ ≃ ε, a ε = 0.03 (alto) e ε = 0.0075 (basso).
I I I
1 2 3
4.6 — I grandi teoremi della teoria hamiltoniana delle perturbazioni 87
per le quali la conservazione dell’energia fornisce ancora il confinamento. Ma la comprensione del
problema del confinamento, e delle ipotesi minime o “naturali” su h che lo garantiscono, è di quelli
difficili. Qualche ipotesi su h più forte della (4.34) è sicuramente necessaria, se si vuole che le
azioni restino confinate (e valga il principio della media), come mostra il controesempio (4.10).
Capire a fondo il problema non è cosa da poco; l’idea fondamentale è stata introdotta nel 1977 da
Nekhoroshev, con la nozione di steepness, ma il problema — molto rilevante per la fisica: i sistemi
importanti tipicamente non sono convessi — è ancora allo studio. Ci fermiamo qui; uno studio
poco più approfondito si trova nell’appendice J.
4.6 I grandi teoremi della teoria hamiltoniana delle perturbazioni
Esponiamo qui, senza nemmeno accennare alla dimostrazione, alcuni risultati importanti di carat-
tere generale che si sono ottenuti per sistemi hamiltoniani prossimi a sistemi integrabili. Caratte-
ristica comune a tali risultati è la capacità di dominare gli effetti della perturbazione, e garantire
la stabilità delle azioni, o per tempi infiniti o per tempi che per ε piccolo crescono più rapidamente
di qualunque potenza inversa di ε: a
(ε /ε)
∼
t e con ε , a > 0 . (4.44)
∗ ∗
A. Il teorema “KAM”.
Il teorema KAM (Kolmogorov 1954, Arnol’d 1962, Moser 1961) è il più classico dei risultati
moderni. Non è esagerato dire che sia il risultato per sé, sia i metodi introdotti nella dimostrazione,
hanno segnato una svolta profonda nella teoria hamiltoniana delle perturbazioni (e non solo). Più
che un singolo teorema è una collezione di teoremi e metodi di lavoro, che formano una vera e propria
teoria (ancora in accrescimento, in particolare nelle sue estensioni a sistemi infinito dimensionali).
Qui ci limiteremo a un singolo enunciato di base.
Il teorema riguarda sistemi hamiltoniani quasi integrabili n
∈ ×
H (I, ϕ) = h(I) + εf (I, ϕ) , (I, ϕ) B , (4.45)
T
ε
con h non degenere, precisamente tale che sia
2
∂ h
′′ ′′
6
det h (I) = 0 ove h = . (4.46)
∂I ∂I
i j
7→
E’ la situazione in cui la mappa I ω(I) è localmente invertibile, e corrispondentemente i punti
≤ −
non risonanti, come quelli con un numero arbitrario di risonanze r n 1, sono densi in B.
In buona sostanza, il teorema assicura che la struttura di sistema integrabile, precisamente la
n
decomposizione dello spazio delle fasi in tori invarianti, sui quali i moti sono quasi periodici,
T
persiste nel sistema perturbato riuscendone soltanto deformata, purché si escluda dallo spazio delle
√
fasi un insieme di dati iniziali di misura di Lebesgue piccola, ε).
O(
Diamo qui un enunciato, fra i diversi possibili, che più si adatta al nostro contesto (Lazutkin
1975; Chierchia e Gallavotti 1981; Pöschel 1981).
Consideriamo l’hamiltoniana H della forma (4.45). Supponiamo che:
Proposizione 22 ε n
×
i) H sia analitica e limitata in un intorno complesso D del dominio D = B ;
T
ε ext
4.6 — I grandi teoremi della teoria hamiltoniana delle perturbazioni 88
Figura 31: (a) I tori invarianti nelle nuove variabili; (b) gli stessi tori nelle
vecchie variabili, “deformati” dalla trasformazione w prossima all’identità.
ii) h sia non degenere, precisamente soddisfi la (4.46) in B;
iii) ε sia piccolo.
Allora esistono: ˜ → ⊂
(a) una trasformazione canonica prossima all’identità (I, ϕ) = w ( I, ϕ̃), w : D w (D) D ,
ε ε ε ext
∞
di classe C , definita nel dominio D; ∞ →
(b) un’hamiltoniana integrabile h̃ prossima a h in classe C , h̃ : B R;
ε ε
⊂
(c) un sottoinsieme B B di misura di Lebesgue grande:
ε √
\ ∼
mes (B B ) ε ,
ε
˜ ˜ ˜
→ ∈
tali che la nuova hamiltoniana H̃ ( I, ϕ̃) = H (w ( I, ϕ̃)) : D coincide con h̃ per I B :
R
ε ε ε ε ε
B ˜
˜ ε
= h̃ ( I) ,
H̃ ( I, ϕ̃) ε
ε
B ˜
ε ∈
= denota uguaglianza di funzioni e derivate limitatamente a I B . La frequenza
ove il simbolo ε
√
˜
∂ h̃ ∈ ∼
ω = , per I B , soddisfa le relazione diofantea (4.32) con γ ε.
ε ε
˜
∂ I
Si rifletta bene su questa non comune situazione: ◦
– la trasformazione canonica, e con essa H̃ = H w, sono definiti in tutto il dominio D;
ε ε
– solo su un certo sottoinsieme di misura grande si garantisce che H̃ è indipendente dagli angoli,
e corrispondentemente il sistema, ristretto a questo sottoinsieme, si comporta come se fosse
integrabile. ˜
L’immediata conseguenza della proposizione è che le nuove azioni I, se prese inizialmente nell’in-
˜ n
{ ×
sieme grande B , restano costanti; corrispondentemente i tori I} sono invarianti e su di
T
ε
essi il moto degli angoli è lineare e quasi periodico (con frequenze diofantee). Complessivamente
questi moti formano un insieme di misura grande. L’immagine di ciascun toro nelle vecchie varia-
bili è ancora un toro invariante, solo un po’ deformato dalla trasformazione w (si veda la figura
˜
31). Le vecchie azioni I, dovendo restare prossime alle I, oscillano di poco. Il principio della me-
dia è soddisfatto per tempi infiniti, condizionatamente a prendere il dato iniziale su uno dei tori
invarianti.
L’aspetto delicato del risultato (non facile da capire) è che l’insieme B , cosı̀ come è costruito
ε
nella dimostrazione, pur avendo misura grande ha interno vuoto, più precisamente il suo comple-
\ ≥
B = B B è aperto denso. Inoltre, per n 3, B è anche connesso: come una rete o un
mentare ε ε ε
intreccio (“Arnol’d web”) di “massa” piccola, ma sparso ovunque. Da un lato dunque per la grande
4.6 — I grandi teoremi della teoria hamiltoniana delle perturbazioni 89
maggioranza in misura di dati iniziali il sistema si comporta come se fosse integrabile. Dall’altro
per nessun aperto si può garantire che le azioni resteranno prossime al valore iniziale, e la diffusione
lungo la rete (“Arnol’d diffusion”) non si può escludere. Si conoscono esempi particolarissimi di
sistemi in cui la diffusione si dimostra esistere. Fino a che punto il fenomeno sia generico, e come
avvenga — in particolare per sistemi fisicamente importanti come il Sistema Solare — è una cosa
ancora non ben compresa.
B. Il teorema di Nekhoroshev.
Il prossimo risultato che esponiamo, dovuto a Nekhoroshev (1977, un allievo di Arnol’d) è in un
certo senso complementare al teorema KAM. Riguarda anch’esso hamiltoniane della forma (4.45),
ma a h si richiede che soddisfi un’ipotesi geometrica la cui espressione più semplice, anche se non
49
la più generale, è la convessità: ′′ n
· 6 ∀u ∈ \ {0} ∈
u h (I)u = 0 , I B (4.47)
R
′′
·
(u h u deve cosı̀ essere sempre positivo o sempre negativo). Il risultato è, come per il teorema
KAM, un risultato di stabilità delle azioni. Ma a differenza del teorema KAM:
– il risultato vale per ogni dato iniziale;
– la scala di tempo su cui si assicura la stabilità delle azioni non è infinita, ma “solo” molto
lunga come nella (4.44).
L’uniformità del risultato nello spazio delle fasi lo rende molto adatto alle applicazioni fisiche; la
limitazione a tempi lunghi ma non infiniti non è molto penalizzante fisicamente, dal momento
50
che ogni modello fisico è buono in realtà solo entro una scala di tempo lunga ma finita. Le
applicazioni fisiche (alla Meccanica Celeste, alla Meccanica Statistica, alla fisica del plasma, alla
fisica degli acceleratori di particelle) sono state coltivate soprattuto in Italia.
Consideriamo H della forma (4.45). Supponiamo che:
Proposizione 23 ε n
×
i) H sia analitico e limitato in un intorno complesso del dominio D = B ;
T
ε
ii) h soddisfi l’ipotesi di convessità (4.47);
iii) ε sia piccolo.
Allora esistono costanti positive ε , T , I , a, b tali che per ogni dato iniziale in D e per
∗ ∗ ∗ a
(ε /ε)
|t| ≤ T e ∗
∗
risulta b
|I − ≤
(t) I (0)| I ε .
i i ∗
Valori possibili di a, b sono a = b = 1/(2n).
49 ′′
Di solito si prende come ipotesi la cosiddetta quasi–convessità: precisamente che risulti u · h u(I) 6 = 0 per tutti
n 2
gli u ∈ tali che u · ω(I) = 0. Un esempio di funzione quasi–convessa ma non convessa è h(I , I ) = I + I . La
R 1 2 1 2
proprietà più generale sotto la quale il teorema vale, detta steepness, è troppo complicata per essere qui descritta.
50 9
Ad esempio, modelli hamiltoniani del Sistema Solare hanno senso solo per tempi (qualcosa come 10 anni) in cui
gli effetti dissipativi, dovuti principalmente alle maree, non si fanno sentire.
4.6 — I grandi teoremi della teoria hamiltoniana delle perturbazioni 90
• Vale la pena di osservare che il controesempio (iv) al principio della media, riportato nel
paragrafo 4.3, non soddisfa l’ipotesi di convessità (4.47), mentre la soddisfa l’esempio (iii).
C. Stime esponenziali per sistemi isocroni perturbati.
L’ultimo risultato che raccontiamo riguarda sistemi isocroni perturbati della forma già
considerata nel paragrafo precedente, con ω che soddisfa la condizione diofantea (4.32).
Sia data l’hamiltoniana
Proposizione 24 n n
· ∈ ⊂ ∈
H (I, ϕ, ε) = ω I + εf (I, ϕ, ε) , I B , ϕ .
R T
ε
Supponiamo che: n
×
a) f sia analitica e limitata in un intorno complesso di B ;
T
b) l’n–pla (ω , . . . , ω ) delle frequenze soddisfi la relazione diofantea
1 n γ n
|k · ≥ ∀ ∈ \ {0}
ω| k Z
n
|k|
per un opportuno γ > 0;
c) ε sia sufficientemente piccolo. n
×
Allora esistono costanti positive T , I , ε tali che per ogni dato iniziale in B , e per la scala
T
∗ ∗ ∗
di tempo 1/n
(ε /ε)
|t| ≤ T e ,
∗
∗
risulta 1/n
|I − ≤
(t) I (0)| I ε .
j j ∗
Il risultato si colloca nel solco della teoria di Nekhoroshev ma è stato enucleato per la prima
volta (in forma poco più debole) da Gallavotti (1984). Quello che si dimostra, in verità, è che esiste
˜
una trasformazione canonica (I, ϕ) = w( I, ϕ̃) piccola con ε tale che la nuova hamiltoniana ha la
forma 1/n
˜ ˜ ˜ ˜
(ε /ε) ′
·
H̃ ( I, ϕ̃) = ω I + εg( I, ε) + εe f ( I, ϕ̃) ,
∗
ε
′
con g e f limitate; la stima sulla stabilità delle azioni è allora un corollario.
Una variante del risultato precedente riguarda sistemi hamiltoniani della forma
n
X · · ·
E (p , q ) + V (p, q) + V (p, q) + , (4.48)
H(p, q) = i i i 3 4
i=1
1 2
2 ≥
) mentre V , s 3, denota un polinomio omogeneo di grado s in p, q; il dominio
+q
ω (p
ove E = s
i
i i
i
2
D è un piccolo intorno dell’origine: 2n
{(p, ∈
D = q) : E (p , q ) < ε} .
R
ε i i i
Questa classe di hamiltoniane, come si è già commentato nel paragrafo 4.1, comprende innanzitutto
i sistemi hamiltoniani nell’intorno di una posizione di equilibrio stabile (p e q sono le variabili asso-
ciate ai modi normali di oscillazione), ma comprende anche, si riveda l’esercizio 22, l’hamiltoniana
4.7 — Invarianti adiabatici 91
dell’asteroide attorno ai punti lagrangiani L e L : questo caso differisce dal precedente perché
4 5
le frequenze ω non sono concordi e la stabilità del punto di equilibrio non è nota a priori. Nel
i
trattare l’hamiltoniana (4.48) non ci si può ridurre alla proposizione precedente perché, come già si
è osservato, passando alle variabili di azione–angolo intervengono le radici quadrate delle azioni e
si perde la regolarità della perturbazione. La difficoltà tuttavia è solo tecnica, e si può dimostrare
la seguente proposizione:
Sia H come sopra. Se l’n–pla delle frequenze soddisfa la condizione diofantea
Proposizione 25
(4.32) e il parametro ε che caratterizza il dominio D è sufficientemente piccolo, allora esistono
ε
costanti T , E , ε , tali che per ogni dato iniziale in D e per la scala di tempo
∗ ∗ ∗ ε
1/n
(ε /ε)
|t| < T e ∗
∗
risulta 1/n
|E −
(t) E (0)|/ε < E ε , i = 1, . . . , n ,
i i ∗
ove si è usata la notazione agile E (t) per E (p (t), q (t)).
i i i i
Nel caso delle piccole oscillazioni attorno a una posizione di equilibrio stabile, la proposizione ci
dice che se le frequenze dei modi normali di oscillazione sono diofantee (cosa che avviene con grande
probabilità, se le frequenze sono prese a caso con riferimento alla misura di Lebesgue), allora i modi
normali sono sostanzialmente disaccoppiati per tempi lunghi (per il sistema vero, non solo per quello
linearizzato). Per il problema di L , L ci viene garantita, in più, la stabilità non perpetua ma per
4 5
tempi lunghi.
• I sistemi quasi integrabili fisicamente interessanti, ad esempio quelli che si presentano natu-
ralmente in meccanica celeste, di rado soddisfano le ipotesi del teorema KAM o del teorema di
Nekhoroshev, che difficilmente sono direttamente applicabili. Si tratta tuttavia di teoremi (o
meglio teorie) abbastanza flessibili, che si applicano magari magari dopo un lavoro prelimina-
re ad hoc sull’hamiltoniana, oppure sfruttando qualche peculiarità del sistema che compensa
il non pieno soddisfacimento di un’ipotesi. Questo è vero in particolare per il teorema di
Nekhoroshev, che ben si adatta a operare, tra gli altri, sui sistemi degeneri come il corpo
rigido, nei quali non tutte le azioni sono presenti nell’hamiltoniana imperturbata.
4.7 Invarianti adiabatici
Consideriamo un sistema hamiltoniano H(p, q, λ) dipendente da un parametro λ. Ci chiediamo che
cosa avviene se λ varia lentamente nel tempo: diciamo
λ = λ(εt) ,
con ε piccolo e λ( . ) funzione assegnata. Il problema comincia a essere interessante per t = o
O(1/ε)
maggiore, cioè quando si lascia al parametro λ il tempo di variare di una quantità che non è piccola
per ε piccolo. La domanda spontanea è se, pur variando il parametro in modo significativo, non
ci sia qualche cosa che si conserva; l’energia, si ricordi, non si conserva, per via della dipendenza
dell’hamiltoniana da t. Una definizione appropriata allora è la seguente:
4.7 — Invarianti adiabatici 92
2n+1 →
Una funzione F (p, q, λ), F : si dice essere un invariante adiabatico
R R,
Definizione 12
per il sistema di hamiltoniana H(p, q, λ(εt)), se esiste τ > 0 tale che per ogni moto del sistema
0
risulti − → →
F (p(t), q(t), λ(εt)) F (p(0), q(0), λ(0)) 0 per ε 0
≤ ≤
in tutto l’intervallo 0 t τ /ε.
0 →
Il tempo τ = εt è detto “tempo breve” del sistema; lo studio è dunque per ε 0 in un intervallo
di tempo breve fissato.
Ci ripromettiamo di studiare la presenza di un invariante adiabatico in casi semplici, applicando
un metodo perturbativo. Prima però, per illustrare la nozione, studiamo un modellino del tutto
elementare ove la presenza di un invariante adiabatico si mette in evidenza con un calcolo esplicito.
A. Un modello di gas in una dimensione.
Consideriamo un modello brutalmente semplificato di gas in una dimensione, composto da un
solo punto materiale che rimbalza avanti e indietro tra una parete fissa e un pistone che si muove
lentamente (figura 32). Detta l la distanza del pistone dalla parete fissa, prendiamo per semplicità
la legge lineare l = l + ε v t ,
0
ma quanto andiamo a dire si estende a l(εt) regolare qualsiasi.
Denotiamo con u il modulo della velocità del punto materiale; si verifica facilmente che il
prodotto lu è un invariante adiabatico del sistema, e un possibile valore di τ è τ = l /(2v). Per
0 0 0
vederlo, denotiamo con l la posizione del pistone al momento della j–esima collisione e con u il
j j
modulo della velocità del punto materiale tra la j-esima e la j + 1–esima collisione. La collisione
−
successiva avviene dopo il tempo t tale che u t = 2l + εvt, ovvero t = 2l /(u εv), e in quel
j j j j j
momento il pistone è nella posizione 2εvl j
l = l + ; (4.49)
j+1 j −
u εv
j 51
il nuovo valore della velocità all’uscita della collisione è poi
−
u = u 2εv . (4.50)
j+1 j
Le (4.49) e (4.50) forniscono una mappa (l , u ) = Φ(l , u ) da una collisione all’altra. Per le
j+1 j+1 j j
velocità la (4.50) dà banalmente −
u = u 2jεv .
j 0
E’ immediato vedere che, fintantoché il denominatore resta staccato via da zero, la mappa conserva
il prodotto lu al primo ordine in ε: risulta infatti u v
j 2
−
l u = l u 2εvl + 2εvl + 4ε vl
j+1 j+1 j j j j j
− −
u εv u εv
j j
2
= l u + ) .
O(ε
j j
51 E’ la consueta legge dell’urto elastico con un oggetto di massa infinita (una pallina contro un camion che si
′
allontana). Se non è chiaro: si denoti con w la velocità con segno del punto (u = |w|), e con w la corrispondente
′
velocità nel sistema di riferimento in cui il pistone appare fermo, w = w − εv. Prima dell’urto si ha w = u ,
j j
′ ′ ′ ′
w = u − εv; nell’urto w si inverte, w = −w = −(u − εv); corrispondentemente w = −(u − 2εv),
j j j+1 j
j j+1 j
u = |w | = u − 2εv.
j+1 j+1 j
4.7 — Invarianti adiabatici 93
Figura 32: Un modello elementare di gas in una dimensione.
u
)
(
u t )
(
l t
x
Figura 33: L’invariante adiabatico è l’area nel piano uv, ovvero
l’azione del sistema integrabile a parametro fissato. ≥
Di certo il denominatore è staccato da zero se imponiamo, ad esempio, u u /2; ciò limita il
j 0
numero di urti a n = u /(4εv). Il tempo trascorso è dato dalla somma dei t fino a n , e poichè
0 0 j 0
per ogni j si ha t > 2l /u , si trova un intervallo di tempo superiore a τ /ε con
j 0 0 0
l 0
τ = . (4.51)
0 2v
Durante questo tempo, poiché n = il prodotto lu è variato di Il prodotto lu è
O(1/ε), O(ε).
0
pertanto un invariante adiabatico, con τ dato dalla (4.51).
0
• Quella che abbiamo trovato è la legge delle adiabatiche in una dimensione, ove si interpreti
2
l come volume e u (a meno di una costante moltiplicativa) come temperatura. Infatti per
un gas monoatomico in dimensione d = 1 la costante γ delle adiabatiche vale (d + 2)/d = 3,
γ−1 2 2
perciò la legge delle adiabatiche T V = cost si scrive u l = cost che è proprio quello che
abbiamo trovato.
• Vale la pena di osservare che il prodotto ul, ovvero l’invariante adiabatico in questo problema,
è a meno di un fattore due l’area nel piano di fase ux sottesa alle traiettorie (discontinue) del
sistema a l costante (figura 33), ovvero è l’azione del sistema integrabile a parametro fissato.
Si stimi meglio la variazione del prodotto lu al tempo τ /ε.
O(ε)
Esercizio 46 0
Si generalizzi la dimostrazione al caso in cui il pistone si muove di moto vario, cioè
Esercizio 47
≥
per l(τ ) L > 0 regolare qualsiasi.
4.7 — Invarianti adiabatici 94
B. L’oscillatore armonico con frequenza variabile.
La teoria degli invarianti adiabatici è semplice e ben stabilita per sistemi a un grado di libertà
che a parametro bloccato eseguono moti periodici. Qui ci limitiamo a descrivere un esempio facile
per il quale si scrive tutto esplicitamente, precisamente l’oscillatore armonico con frequenza variabile
1 2 2 2
H(p, q, εt) = (p + ω(εt) q ) , (4.52)
2
→
con ω : funzione assegnata, ma il risultato si generalizza opportunamente a sistemi oscillanti
R R
qualsiasi, ad esempio al pendolo (pur di restare lontani dalle separatrici, in modo che la frequenza
resti sempre staccata da zero). Precisamente, dimostriamo che
6 ≤ ≤
Per il sistema (4.52), se ω(τ ) = 0 per 0 τ τ , l’azione
Proposizione 26 0
1 2 2 2
I(p, q, ω) = (p + ω q ) (4.53)
2ω
è un invariante adiabatico.
Possiamo scomporre concettualmente le dimostrazione in tre passi.
Dimostrazione.
Primo passo, elementare: passiamo al sistema autonomo a due gradi di libertà nello spazio esteso,
1 2 2 2
ext (p + ω(τ ) q ) + εA ,
H (p, q, A, τ ) =
ε 2 ext con
ove A, τ sono variabili coniugate; poiché τ̇ = ε, si verifica immediatamente che i moti di H ε
τ (0) = 0 coincidono, per quanto riguarda p e q, con i moti di H. Nel seguito eseguiremo alcune
trasformazioni canoniche, ma tutte tali da non cambiare τ che mantiene cosı̀ il significato di tempo
breve εt.
Secondo passo, un po’ laborioso: introduciamo le variabili di azione–angolo dell’oscillatore,
estendendole in modo opportuno alla coppia (J, τ ). Precisamente, cerchiamo una trasformazione
(p, q, A, τ ) = w(I, ϕ, J, τ̂ )
in cui (i) τ non cambia, cioè τ = τ̂ ; (ii) I, ϕ sono quelle che scriveremmo se ω fosse fissato, ovvero
p p
p = 2Iω(τ ) cos ϕ , q = 2I/ω(τ ) sin ϕ , (4.54)
cosicché l’azione I è data dalla (4.53); infine (iii) l’espressione di A in funzione delle nuove variabili è
tale da rendere complessivamente canonica w. (In altre parole: per p e q scriviamo la trasformazione
canonica “a tempo bloccato” che avremmo scritto per ω costante, poi la estendiamo canonicamente
alla coppia (A, τ ) curando però che sia τ = τ̂ .) E’ facile verificare che una buona scelta di A esiste
ed è A = J + a(I, ϕ, τ ) , (4.55)
con ′
ω (τ )
a(I, ϕ, τ ) = I sin 2ϕ , (4.56)
2ω(τ )
4.7 — Invarianti adiabatici 95
′
ove ω denota la derivata di ω rispetto a τ . E’ facile verificarlo guardando ad esempio alle parentesi
52
di Poisson; un po’ più difficile è inventarsi le (4.55), (4.56). Un modo spontaneo di procedere
è quello di scrivere la funzione generatrice in variabili miste ϕ, τ ) che per ogni τ fissato dà la
S(p,
(4.54), o meglio la sua inversa; già sappiamo (esercizio 10) che la scelta buona è
2
p tan ϕ .
ϕ, τ ) =
S(p, 2ω(τ )
Questa generatrice si estende all’altro grado di libertà “aggiungendo l’identità”, cioè ponendo
S(p, ϕ, A, τ̂ ) = ϕ, τ̂ ) + Aτ̂ ;
S(p, ∂S ∂S
la scelta assicura che τ non cambi, infatti si ha τ = = τ̂ . A questo punto si scrive J = , e il
∂A ∂ τ̂
risultato, togliendo il cappuccio a τ̂ , è l’accoppiata (4.55), (4.56).
ext ◦
La nuova hamiltoniana = H w risulta essere
H
ε ε
(I, ϕ, J, τ ) = h(I, τ ) + εJ + εa(I, ϕ, τ ) ,
H
ε
con h(I, τ ) = ω(τ ) I .
E’ interessante osservare che la lenta dipendenza di ω dal tempo si è tradotta, al momento di passare
alle variabili di azione–angolo, nella comparsa del termine perturbativo εa(I, ϕ, τ ). E’ cruciale, si
6
vede, aver supposto ω(τ ) = 0.
Terzo passo: Su questa hamiltoniana lavoriamo ora con metodi perturbativi, mostrando che
τ 0
o
|I(t) − | |t| ≤
I < cost ε per .
ε
La presenza della variabile τ , che non è un’azione, nell’hamiltoniana imperturbata, apparentemente
rende il problema diverso da quelli visti precedentemente; vedremo però che lo stesso schema
perturbativo funziona ugualmente senza difficoltà.
Eseguiamo allora un passo perturbativo con il metodo di Lie, ovvero poniamo
˜ ˜
εχ
(I, ϕ, J, τ ) = Φ ( I, ϕ̃, J, τ̃ ) ,
avendo però l’accortezza di prendere χ indipendente da J, in modo che nella dinamica di χ (non in
quella vera!) sia τ̇ = 0, e cosı̀ nella trasformazione canonica risulti τ = τ̃ . Come risultato troviamo
εχ
◦ della forma
la nuova hamiltoniana = Φ
H̃ H
ε ε 2
= h + ε{h, χ} + ε(J + a) + ) con h = ω(τ ) I ,
H̃ O(ε
ε
e si deve determinare χ in modo che il termine di ordine ε perda la dipendenza dall’angolo ϕ.
{h,
Grazie al fatto che χ non dipende dalla variabile J coniugata a τ , la parentesi di Poisson χ} è
la stessa che si avrebbe per ω costante, e per questo la presenza di τ in h non disturba.
52 ∂A
Chi non ama le funzioni generatrici può far leva sulle parentesi di Poisson: perché risulti {τ, A} = = 1,
∂J
l’espressione di A deve essere necessariamente del tipo (4.55); la forma (4.56) di a si deduce poi facilmente imponendo
che {A, p} e {A, q} (le uniche parentesi di Poisson non banali) si annullino. Cosı̀ facendo vengono equazioni lineari
∂a ∂a
per e che si risolvono subito e danno
∂I ∂ϕ ′ ′
ω (τ ) ω (τ )
∂a
∂a = sin 2ϕ , = I cos 2ϕ ;
∂I 2ω(τ ) ∂ϕ ω(τ )
segue la (4.56).
4.7 — Invarianti adiabatici 96
p
p q
q "
1
0 /
t=
t=
Figura 34: Ad illustrazione dell’invarianza adiabatica dell’azione. La corrispon-
∼
denza tra moti a t = 0 e t 1/ε è a parità di azione (di area), non di energia.
Osservando che la media della perturbazione è J (a infatti ha media in ϕ nulla), l’equazione da
risolvere risulta essere ∂χ
ω(τ ) = a(I, ϕ, τ ) ,
∂ϕ
ovvero ′
ω (τ )
∂χ = I sin 2ϕ ,
2
∂ϕ 2ω(τ )
ed evidentemente la soluzione c’è sempre, ′
ω (τ )
− I cos 2ϕ ;
χ(I, ϕ, τ ) = 2
4ω(τ )
si osservi che grazie alla presenza di un solo grado di libertà veloce non ci sono piccoli divisori, ma
solo ω a denominatore, che fino al tempo breve τ è garantita essere diversa da zero.
0
εχ
La trasformazione canonica Φ porta cosı̀ l’hamiltoniana nella forma
H̃
ε
˜ ˜ ˜ ˜ 2
( I, ϕ̃, J, τ ) = ω(τ ) I + ε J + ) ,
H̃ O(ε
ε
e corrispondentemente si hanno le solite stime del tipo
˜ ˜
| − ≤ ≤
I(t) I(0)| < cost ε per 0 t τ /ε .
0
εχ
D’altra parte, la trasformazione canonica Φ è ε–vicina all’identità, e in particolare si ha
˜ ˜
|I(t) − |I(0) −
I(t)| , I(0)| < cost ε ;
segue allora |I(t) − ≤ ≤
I(0)| < cost ε per 0 t τ /ε ,
0
ovvero l’invarianza adiabatica dell’azione.
Si osservi che per l’oscillatore armonico che stiamo considerando l’azione è legata all’energia E
da I = E/ω(τ ). L’invarianza adiabatica di I ci dice cosı̀ immediatamente che per lente variazioni
di ω l’energia E varia proporzionalmente a ω. La figura 34 illustra il risultato: dopo il tempo t di
ordine 1/ε la pulsazione ω(εt) è cambiata, e corrispondentemente è cambiato il ritratto in fase del
4.7 — Invarianti adiabatici 97
Figura 35: In grigio la zona spazzata dalle separatrici lentamente pulsanti. Per i mo-
ti sempre interni o esterni (al variare di ω) c’è un invariante adiabatico, con situazio-
ne non dissimile dall’oscillatore armonico; nella zona grigia l’invarianza adiabatica
è interrotta dall’attraversamento delle separatrici.
sistema (il ritratto, si intende, a parametro bloccato); moti che a t = 0 si svolgevano su una certa
curva di livello, trascorso il tempo t si svolgono non sulla curva di livello con la medesima energia,
ma su quella che ha (quasi esattamente) la medesima azione, ovvero sulla curva che sottende la
medesima area.
Il risultato, come si è detto, si trasporta sostanzialmente senza variazioni a tutti i sistemi
hamiltoniani H(p, q, λ) a un grado di libertà che per valori fissi del parametro λ abbiano moti
periodici (il ritratto in fase per ogni λ fissato ha curve chiuse):
Con riferimento a tali hamiltoniane, sia I(p, q, λ) l’azione a λ fissato, e sia ω(I, λ)
Proposizione 27 ≤ ≤
la corrispondente frequenza. Se ω(I, λ(τ )) resta staccata da zero per 0 τ τ , allora I è un
0
invariante adiabatico.
• Il caso di un sistema con separatrici che si muovono al variare del parametro, come il pendolo
a frequenza variabile 1 2 2
−
H(p, q, ω(εt)) = p ω(εt) cos q ,
2
si presenta in realtà più ricco e complesso dell’oscillatore armonico visto sopra. Prendiamo,
per fissare le idee, ω(τ ) = (2 + cos Ωτ ) ω ;
0
al variare di τ le separatrici (del sistema a ω bloccata) spazzano un’area come quella indicata
in grigio in figura 35. Al di fuori di quest’area, nella regione sempre interna o sempre esterna
alle separatrici lentamente pulsanti, il medodo di prova utilizzato per il pendolo funziona
perfettamente (salvo che molte espressioni, a cominciare da ϕ, τ ), restano implicite: sono
S(p,
ben definite, ma non si sbrogliano in funzioni elementari). L’invariante adiabatico, come nei
casi visti sopra, è l’azione, ovvero l’area sottesa da una traiettoria del sistema a ω bloccata.
E’ il caso della coppia di traiettorie (1) in figura: quella tratteggiata corrisponde a ω =
max
3ω , e si deforma nel mezzo periodo τ = π/Ω nella traiettoria punteggiata corrispondente
0
4.7 — Invarianti adiabatici 98
a ω = ω ; le due curve sottendono (quasi esattamente) la stessa area. Dopo un periodo
min 0
completo 2π/Ω le traiettorie riprendono (quasi esattamente) l’aspetto iniziale.
L’invarianza adiabatica viceversa si interrompe se un moto attraversa la separatrice, pas-
sando dalla regione (momentaneamente) interna a quella esterna o viceversa. E’ il caso della
coppia di curve (2): come sopra, la curva tratteggiata è una traiettoria corrispondente a ω ,
max
interna alla separatrice; nel corso del tempo la separatrice attraversa la curva, e la traiettoria
diventa esterna. Prima e dopo il passaggio l’invariante adiabatico si conserva (l’area sottesa
53
resta quasi costante); nel passaggio invece l’invariante adiabatico subisce un salto.
In realtà (sempre per sistemi con un solo grado di libertà) si dimostra di più della proposizione 27,
ad esempio:
– se H(p, q, λ(εt)) è analitica, l’azione è un invariante adiabatico per tempi molto lunghi,
ε /ε
|t| ≤ cost e ,
∗
ove ε è una costante positiva.
∗ → ±∞,
– Sempre nel quadro analitico, se λ(τ ) tende a limiti λ per τ allora I è un invariante
±
adiabatico per ogni t, |I(t) − ∀ ∈
I(0)| < cost ε t ,
R
−∞
inoltre la variazione asintotica di I tra t = e t = +∞ è molto piccola: precisamente,
esistono i limiti I = lim I(t) e si ha
±∞ t→±∞ −ε /ε
|I − |
I < cost e .
∗
+∞ −∞
– Infine, se H analitica dipende da εt in modo periodico l’azione è invariante adiabatico per
tutti i tempi.
Ulteriori estensioni, rilevanti per la fisica, comprendono il caso in cui al posto della dipendenza lenta
da t vi sia nel sistema un secondo grado di libertà lento (si pensi ad esempio a un elettrone che
avanza lentamente lungo le linee di un campo magnetico, ruotando attorno ad esse con la frequenza
di Larmor).
La nozione di invariante adiabatico fu formulata da P. Ehrenfest. C’è una connessione con
la quantizzazione: grazie al fatto che l’azione è la variabile quantizzata, la lenta variazione di λ
avviene senza variazione dello stato quantico. (Più precisamente, per ε piccolo la probabilità di
transizione dallo stato quantico di partenza ad un altro in un tempo t = 1/ε è piccola.)
53 Il salto si può calcolare; A.I. Neishtadt ha lavorato molto in questo campo, studiando anche la statistica possibile
dei successivi salti in un tempo lungo e la possibilità che li si possano descrivere come processo casuale diffusivo (cosa
che non risulta sempre vera: salti successivi, in certe condizioni, sono correlati e ci sono compensazioni.)
A — Introduzione al formalismo geometrico. 99
APPENDICI
A Introduzione al formalismo geometrico.
Nel primo paragrafo di questa appendice si richiama il formalismo geometrico che sta alla base
della nozione di equazione differenziale su una varietà. “Si richiama” vuol dire che si suppone già
una minima familiarità con le idee di base (la nozione stessa di varietà con le sue carte e l’atlante;
la nozione di spazio tangente e di campo vettoriale; la nozione di differenziale...). Anche chi fosse
del tutto a digiuno, tuttavia, un’idea se la può fare. Il secondo paragrafo è invece orientato alla
nozione di sistema hamiltoniano su una varietà.
Il punto di vista geometrico non è veramente necessario a capire le due idee centrali su cui si
sviluppano queste note — in buona sostanza, la nozione di sistema integrabile e di sistema prossimo
a integrabile, con le diverse scale di tempo associate al moto — ma di certo costituisce, anche se
solo intuito e non studiato a fondo, un punto di vista più maturo. Il linguaggio è un po’ informale;
lo spirito è soprattutto quello di rivisitare da un punto di vista geometrico quanto già visto nel testo
nel linguaggio delle coordinate, con poche estensioni (seppur significative, in particolare quando si
introduce la 2–forma canonica cui nel testo non si fa cenno).
Una parola sulle notazioni. E’ qui particolarmente importante distinguere gli oggetti globali,
geometrici, definiti sulla varietà, dai loro rappresentativi in una carta di coordinate locali. Le
notazioni necessarie saranno introdotte di volta in volta, ma l’idea è di usare maiuscole calligrafiche
come per le funzioni sulla varietà e la corrispondente comune minuscola f per la rappresentativa
F
locale; per oggetti a n componenti — i punti stessi della varietà, vettori, 1–forme — si useranno
notazioni del tipo x, X, ϑ per gli oggetti globali, e gli stessi simboli sottolineati x, X, ϑ per le n–ple
che li rappresentano localmente. Per le 2–forme, si userà similmente una notazione del tipo ω per
l’oggetto geometrico, ω per la matrice che lo rappresenta localmente.
A.1 Funzioni, campi vettoriali, forme
Coordinate locali.
Sia M una varietà differenziabile n-dimensionale. Denoteremo le sue carte con (U, ϕ), ove
n
⊂ →
U M e ϕ : U V biunivoca, V aperto di . Ogni carta costituisce un sistema di coordinate
R
∈ ∈ 7→ ∈
locali. Se ϕ invia x U in x = (x , . . . , x ) V , allora ϕ : x x — in notazione più
R
1 n i i
spiccia x (x) — è detta i-esima (funzione) coordinata, mentre le immagini inverse delle consuete
i n
linee coordinate di , ristrette a V , costituiscono le linee coordinate locali su M .
R e e e
∩ 6 ∅,
Date due carte (U, ϕ) e ( U , ϕ̃), posto U = U U = V = ϕ(U ), V = ϕ̃(U ), la funzione di
0 0 0 0 0
transizione e
−1
◦ →
ψ = ϕ ϕ̃ , ψ : V V
0 0
A — Introduzione al formalismo geometrico. 100
e →
Figura 36: La varietà M , due sue carte con la funzione di tranzizione ψ : V V ;
0 0
un moto (linea tratteggiata) sulla varietà e nelle carte.
rappresenta un cambiamento locale di coordinate (figura 36). Nel seguito scriveremo semplicemente
e e
→ →
ψ : V V , intendendo ψ : V V . La classe di regolarità delle funzioni di transizione è per
0 0
definizione la classe di regolarità di M . Analogamente per tutti gli oggetti geometrici (funzioni,
campi vettoriali, 1 e 2–forme) che introdurremo, la classe di regolarità sarà, per definizione, quella
dei loro rappresentativi locali. Per semplicità, e senza farne esplicita menzione, supporremo sempre
∞
tutto di classe C .
Funzioni a valori in R. →
Sia una funzione a valori reali (o 0–forma) su M , : M per ogni carta (U, ϕ) resta
F F R;
definita la rappresentativa locale −1
◦ →
f = ϕ : V , V = ϕ(U ) .
F R
˜ e →
Se f , f sono rappresentative locali di una stessa in due diverse carte, e ψ : V V è come sopra
F
la funzione di transizione da una carta all’altra, allora si ha
˜ ˜
◦
f = f ψ , ovvero f (x̃) = f (ψ(x̃)) ; (A.1)
→
viceversa, se si ha una famiglia di funzioni locali f : V una per ogni carta dell’atlante, e
R,
sono soddisfatte le relazioni di compatibilità (A.1) per ogni coppia di carte (con intersezione non
˜
→
vuota tra i domini), resta definita una funzione intrinseca : M La funzione f è anche detta
F R. ˜
e
pull–back di f sotto ψ (ψ va da V a V ; il pull–back porta funzioni f su V “indietro” a funzioni f
e
su V ).
Campi vettoriali; equazioni differenziali.
∈
Come è noto, in ogni punto x M resta definito uno spazio tangente T M , dim T M = n. La
x x
collezione di tutti gli spazi tangenti ha una struttura naturale di varietà, ereditata dalla struttura
di M , e costituisce il fibrato tangente T M , dim T M = 2n; ogni punto di T M è una coppia (x, X)
∈ ∈ ∈
con x M e X T M . Un campo vettoriale su M è una mappa che ad ogni punto x M associa
x
A — Introduzione al formalismo geometrico. 101
∈ → ∈
un vettore X(x) T M , formalmente è una mappa M T M che a ogni x M associa una coppia
x
∈
(x, X(x)) T M . Con piccolo abuso denoteremo il campo stesso con X. Per ogni carta (U, ϕ), e
∈
per ogni x U , resta definita una base in T M formata dai vettori tangenti alle linee coordinate,
x
∂
∂ ); il campo in x si scriverà allora
(o anche ∂ , . . . , ∂
, . . . ,
usualmente denotati x x
∂x ∂x n
1
n
1 n
X ∂
X (x)
X(x) = .
i ∂x i
i=1
La notazione introduce una piacevole confusione tra il campo e l’operazione di derivazione associata,
la cosiddetta derivata di Lie definita sotto.
→ ∈
La mappa tangente a ϕ : U V , denotata Dϕ, manda lo spazio tangente T M , x U , nel
x
∂
∂ n
n
tangente a V in x la base canonica di :
, . . . ,
= ϕ(x), ovvero in , e associa alla base R
R ∂x ∂x n
1
∂ = e , i = 1, . . . , n. Per ogni campo vettoriale X su M , e per ogni carta (U, ϕ), resta allora
Dϕ i
∂x i
definito un campo vettoriale su V = ϕ(U ), che denotiamo X:
X(x) = (X (x), . . . , X (x))
1 n −1
◦
(con piccolo abuso del simbolo X , usato qui al posto di X ϕ ); X si dice campo rappresentativo
i i
e
locale di X. Se X e X sono rappresentativi locali di uno stesso campo X su M in due carte diverse,
con funzione di transizione ψ dall’una all’altra come sopra, allora si ha la legge di trasformazione
∂ψ i
e −1
= J(x̃) X(x̃) , x̃ = ψ (x) , J = . (A.2)
X(x) ∂ x̃ j
Viceversa, se in tutte le carte dell’atlante sono definiti campi locali che (se i domini si intersecano)
soddisfano a due a due questa relazione di compatibilità, allora resta definito un campo X sulla
e 54
varietà. Il campo X definito dalla (A.2) si dice pull-back di X. La relazione che lega tra loro le
due basi su T M è
x n
X
∂ ∂
T
= J ij
∂ x̃ ∂x
i j
i=1
(come se si trattasse di derivate parziali).
Dato un campo vettoriale X su M restano definite un’equazione differenziale sulla varietà e
un’equazione differenziale locale in ogni carta, che si scrivono rispettivamente
ẋ = X(x) , ẋ = X(x) ;
tX
le diverse soluzioni locali Φ (riportate su M ) “si incollano bene” nell’intersezione dei domini delle
carte, e in questo modo resta definita una soluzione in grande su M , detta flusso del campo X e
tX tX ∈
denotata Φ . Se M è compatta, o comunque se Φ è prolungabile per t (cosa che supporremo
R
tX 55
{Φ ∈
sempre), allora , t è un gruppo:
R}
t+s −t
t s tX −1 0
◦
Φ = Φ Φ , (Φ ) = Φ , Φ = .
I
X X X
X X
54 La definizione di pull-back di un campo è ben data grazie al fatto che ψ è invertibile. Per funzioni e forme invece
l’invertibilità, pur presente nel nostro contesto, non è necessaria perchè il pull–back sia per sé ben definito.
55 Quando, come nel primo capitolo di queste note, si ragiona non su una varietà ma in aperti, per dar senso
alla nozione di flusso si deve supporre, con fastidiosa restrizione, che la soluzione non esca mai dal dominio. In
una prospettiva geometrica invece non c’è alcun problema se la soluzione passa da una carta all’altra attraverso
l’intersezione dei domini.
A — Introduzione al formalismo geometrico. 102
Derivata di Lie di funzioni; parentesi di Lie.
A ogni campo vettoriale X su M resta associato un operatore di derivazione L che agisce sulle
X
→
funzioni M detto derivata di Lie. La definizione si può dare in coordinate (paragrafo 1.1),
R,
introducendo in ogni singola carta l’operatore di derivazione
n n
X X
∂ ∂f
L , ovvero (L (x)
= X f )(x) = X (x)
i i
X X
∂x ∂x
i i
i=1 i=1
∂ ha il consueto significato di derivata). Si riconosce immediata-
(la sottile differenza è che ora ∂x i
mente che si ha d tX ,
f )(x) = (x))
f (Φ
(L X dt t=0
e che le diverse definizioni locali sono compatibili, cosicché resta definito un operatore L agente
X
→
sulle funzioni M l’operatore ammette anche la definizione intrinseca
R; d tX
(L = (x)) .
F)(x) F(Φ
X dt t=0
Siano ora X e Y campi vettoriali qualsiasi su M e L , L le corrispondenti derivate di Lie. Il
X Y
prodotto L L non è una derivata di Lie corrispondente ad alcun campo vettoriale (appena ci si
X Y
mette in coordinate applicandolo a una funzione f spuntano le derivate seconde di f ), ma lo è il
commutatore −
[L , L ] = L L L L ,
X Y X Y Y X
precisamente Risulta [L , L ] = L , con Z rappresentato, in una carta qualsiasi, da
Proposizione 28 X Y Z −
Z = L Y L X . (A.3)
i i i
X Y
Calcolando in coordinate si vede subito che i termini di derivata seconda si
Dimostrazione.
semplificano e si ha
n
n n
X
X X
∂Y ∂X ∂f ∂f
i i
− −
[L , L ] f = X Y = ,
(L Y L X )
j j i i
X Y X Y
∂x ∂x ∂x ∂x
j j i i
j=1
i=1 i=1
da cui segue l’espressione (A.3) di Z. L’indipendenza dalle coordinate si trova immediatamente
P
P e
e J
J Y .
X , Y =
sostituendo X = i
i ik
ik k
k k
k
Il campo vettoriale Z su M definito in questo modo è detto parentesi di Lie di X
Definizione 13
e Y , e si denota Z = [X, Y ] .
Si ha dunque, per defnizione di parentesi di Lie,
[L , L ] = L .
X Y [X,Y ]
L’operazione è con evidenza antisimmetrica e in particolare [X, X] = 0. Con un po’ di pazienza si
verifica l’identità di Jacobi: [[X, Y ], Z] + [[Z, X], Y ] + [[Y, Z], X] = 0 , (A.4)
A — Introduzione al formalismo geometrico. 103
figlia della corrispondente relazione tra le derivate di Lie L , L , L .
X Y Z
La derivata di Lie [X, Y ] è anche detta commutatore dei campi vettoriali X e Y ; quando è
nulla si dice che i campi vettoriali commutano. Alla commutazione dei campi corrisponde quella
dei rispettivi flussi:
Si ha
Proposizione 29 sX tY tY sX
◦ ◦ ∀s, ∈
Φ Φ = Φ Φ t R
se e solo se [X, Y ] = 0.
La dimostrazione è identica a quella riportata nell’appendice C per il caso hamiltoniano.
1–forme su M .
∗ →
M lo spazio duale a T M , cioè lo spazio vettoriale delle mappe lineari T M
Sia ora T R,
x x
x ∈
detto spazio cotangente a M in x M . Ancora risulta che la collezione di tutti gli spazi cotangenti
∗ ∗
ha la struttura naturale di varietà, e si dice formare il fibrato cotangente T M , dim T M = 2n. I
∗ ∈ →
punti di T M sono coppie (x, ϑ), con x M e ϑ mappa lineare: T M Una 1–forma su M
R.
x
∗
→ ∈
è (similmente a un campo vettoriale) una mappa M T M che a ogni x M associa un punto
∗
∈
(x, ϑ(x)) T M ; la 1–forma sarà denotata semplicemente con ϑ. Data una 1–forma ϑ e un campo
→
vettoriale X su M , resta definita una funzione : M nel modo ovvio = (ϑ(x))(X(x)).
F F(x)
R
Ovvero: una 1–forma è una mappa che manda linearmente campi vettoriali su M in funzioni
→
M e questa potrebbe essere usata come definizione.
R, ∗
Una base in ciascuno spazio cotangente T M è fornita dai differenziali delle funzioni coordinate
x
dϕ , . . . , dϕ , in notazione più spiccia dx , . . . , dx , perciò si potrà scrivere
1 n 1 n
n
X ∂
ϑ(x) = ϑ (x) dx , ϑ = ϑ .
i i i ∂x i
i=1
Assegnata una 1–forma ϑ su M , restano definite le sue rappresentative locali, dette anche
56
covettori, che (sempre con piccolo abuso) denoteremo
= (ϑ (x), . . . , ϑ (x)) .
ϑ(x) 1 n
→
La funzione ϑ(X) : M ha come rappresentativa locale il prodotto di vettore e covettore:
R n
X
· ϑ (x)X
ϑ(x) X(x) = (x) .
i i
i=1 e →
Se ϑ e ϑ̃ sono rappresentative locali di una stessa 1–forma in due diverse carte, e ψ : V V è la
funzione di transizione dall’una all’altra, allora si ha
T
ϑ̃(x̃) = J (x̃) ϑ(ψ(x̃)) (A.5)
56 I covettori, con riferimento alla legge di trasformazione locale (A.5), sono anche chiamati vettori covarianti;
corrispondentemente i consueti vettori, che invece trasformano secondo la (A.2), sono detti vettori controvarianti.
La terminologia, tipica del cosiddetto calcolo tensoriale o calcolo differenziale assoluto (G. Ricci Curbastro, T. Levi–
Civita) si estende opportunamente a matrici e in generale a oggetti a più indici, con semplici regole che garantiscono
la compatibilità del calcolo in coordinate al variare della carta e corrispondentemente la buona definizione geometrica
di ogni oggetto e ogni procedimento.
A — Introduzione al formalismo geometrico. 104
(attenzione al verso: il confronto con (A.2) mostra che se i vettori vanno con J, le forme van-
−T
no con J , inversa della trasposta, come si è visto nel paragrafo 2.1 per i momenti p), e
corrispondentemente risulta
e e
· · · ·
ϑ̃ X = ϑ X , precisamente ϑ̃(x̃) X(x̃) = ϑ(ψ(x̃)) X(ψ(x̃)) ; (A.6)
viceversa se una famiglia di 1–forme locali, una per ogni carta dell’atlante, soddisfa la relazione
di compatibilità (A.5), o equivalentemente (A.6), allora resta definita una 1–forma ϑ su M . La
è anche detta pull–back di ϑ̃ sotto ψ.
1–forma ϑ̃ →
Un caso particolare di 1–forma su M è il differenziale dF di una 0–forma o funzione M R.
La definizione intrinseca di dF è che per ogni campo vettoriale X su M si ha dF(X) = L in
F;
X
∂f ∂f
coordinate dF è rappresentata dall’n-pla delle derivate della rappresentativa f di ( ),
, . . . ,
F, ∂x ∂x n
1
e si ha n
X ∂f dx .
dF(X) = i
∂x i
i=1
Una 1–forma che sia il differnziale di una funzione si dice esatta.
.
2–forme su M
Ricordiamo infine la nozione di 2–forma. Una 2–forma esterna ω su M , o brevemente 2–forma,
è una mappa bilineare antisimmetrica che manda coppie di campi vettoriali su M in funzioni
→ ∈
M precisamente, a ogni x M è associata una mappa bilineare antisimmetrica ω(x) :
R:
× →
T M T M e dunque a ogni coppia X, Y di campi vettoriali su M resta associata una
R,
x x → −ω(X,
funzione ω(X, Y ) : M ω(Y, X) = Y ). La nozione ricorda la nozione di metrica
R,
riemanniana, da cui però differisce per il fatto (fondamentale) che l’antisimmetria sostituisce la
simmetria. In coordinate una 2–forma è rappresentata da una matrice (forse si dovrebbe dire
co-matrice) antisimmetrica ω = (ω ), precisamente si ha
ij
n
X ∂ ∂
ω (x) Y (x) , ω = ω , .
X (x)
(ω(X, Y ))(x) = ij j ij
i ∂x ∂x
i j
i,j=1
Per l’antisimmetria si scrive anche (omettiamo l’argomento x)
X −
ω(X, Y ) = ω (X Y X Y ) .
ij i j j i
0≤i<j≤n
Se ω e ω̃ sono rappresentative locali di una stessa 2–forma ω, allora si ha
T T
ω̃ = J ω J , più precisamente ω̃(x̃) = J (x̃) ω(ψ(x̃)) J(x̃) , (A.7)
e viceversa se una famiglia di 2–forme locali, una per ogni carta dell’atlante, soddisfa la relazione
è detta pull–back di
di compatibilità (A.7), allora resta definita una 2–forma su M . La 2–forma ω̃
ω sotto ψ.
Si definisce il prodotto esterno di due 1–forme, denotato “∧”, il cui risultato è una 2–forma. La
definizione è ′ ′ ′ ′ ′ ′
∧ −
(ϑ ϑ )(X, X ) = ϑ(X)ϑ (X ) ϑ(X )ϑ (X) ; (A.8)
′ ′
∧ −ϑ ∧ ∧
si ha evidentemente ϑ ϑ = ϑ e dunque ϑ ϑ = 0. Per ogni carta si possono considerare,
in particolare, i prodotti esterni dei differenziali delle coordinate:
∧ ≤ ≤
dx dx , 1 i, j n .
i j
I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Markuser di informazioni apprese con la frequenza delle lezioni di Meccanica analitica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Padova - Unipd o del prof Benettin Giancarlo.
Acquista con carta o conto PayPal
Scarica il file tutte le volte che vuoi
Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato