Che materia stai cercando?

Appunti di meccanica analitica Appunti scolastici Premium

Appunti di meccanica analitica basati su appunti personali del publisher presi alle lezioni del prof. Benettin dell’università degli Studi di Padova - Unipd, facoltà di Scienze matematiche fisiche e naturali, Corso di laurea in fisica. Scarica il file in formato PDF!

Esame di Meccanica analitica docente Prof. G. Benettin

Anteprima

ESTRATTO DOCUMENTO

3.1 — Nozione di sistema integrabile 29

n

Figura 4: il moto quasi periodico su , in due diverse rappresentazioni

T n

Il moto nelle nuove variabili si svolge allora su un toro ed è lineare:

T ∂h

o o o ,

I(t) = I , ϕ(t) = ϕ + ω(I )t con ω = ∂I n 10

×

e nelle nuove variabili lo spazio delle fasi appare naturalmente decomposto nel prodotto B .

T

La figura 4a,b illustra il comportamento delle variabili I e ϕ.

La corrispondente struttura esiste evidentemente anche nelle vecchie variabili, semplicemente

n

× ⊂

trasformata da w. In particolare, ogni moto di H (nel dominio w(B ) D, che risulta

T

invariante) ha la forma o o o

(p(t), q(t)) = w(I , ϕ + ω(I )t) ,

11

ovvero è quasi periodico. La figura 4c dà un’immagine pittorica di una famiglia di questi tori

nello spazio delle fasi.

Prendiamo ad esempio un sistema linearizzato attorno a un punto di equilibrio stabile, con

hamiltoniana della forma 1 1

−1

· ·

H(p, q) = p A p + q Bq , (3.2)

2 2

ove A e B sono matrici simmetriche definite positive. Le coordinate p, q non rivelano immediata-

mente la struttura geometrica del sistema. Ma come insegna la teoria delle piccole oscillazioni, si

può innanzitutto passare alle coordinate normali, che qui denotiamo p̃, q̃, ottenendo un sistema di

n oscillatori armonici disaccoppiati: n

X

1 2 2 2

(p̃ + ω q̃ ) ; (3.3)

H̃(p̃, q̃) = i i i

2 i=1

10 n

E’ completamente equivalente pensare agli angoli ϕ sul toro oppure pensare, più semplicemente ma meno

T

n

geometricamente, che gli angoli corrono su , ma ovunque ci si restringe funzioni periodiche di periodo 2π negli

R

angoli.

11 Una funzione f (t) si dice quasi periodica con n frequenze ω , . . . , ω se esiste F (ϕ , . . . , ϕ ), periodica di periodo

1 n 1 n

2π in ciascun argomento, tale che f (t) = F (ω t, . . . , ω t).

1 n

3.2 — Le variabili di azione–angolo per il pendolo 30

poi, procedendo come nell’esempio (v) del paragrafo 2.1, si possono introdurre le variabili di azione–

angolo di ciascun oscillatore: p p

2ω I cos ϕ , q̃ = 2I /ω sin ϕ ,

p̃ = i i i i i i i

i

ottenendo una hamiltoniana dipendente dalle sole azioni, precisamente

·

K(I, ϕ) = ω I .

Sistemi con questa proprietà sono detti integrabili nel senso di Liouville. Una possibile

definizione formale è questa: ′

→ ⊂

L’hamiltoniana H : D si dice integrabile secondo Liouville nel dominio D D

R

Definizione 6 n n

∈ ⊂ ∈

se esiste una trasformazione canonica (p, q) = w(I, ϕ), definita per I B e ϕ , tale che

R T

′ n

× ◦

(i) D = w(B ), e (ii) la nuova hamiltoniana K = H w è funzione delle sole azioni:

T →

K(I, ϕ) = h(I) , h : B .

R

Con evidenza non tutti i sistemi sono integrabili: ad esempio, non appena nel dominio c’è un

∗ ∗

punto di equilibrio instabile (p , q ) con una separatrice e un moto (p(t), q(t)) che vi converge per

→ ∞,

t questo moto non è quasi periodico e dunque il sistema non è integrabile. L’integrabilità,

12

in un senso che si potrebbe definire, è un fatto eccezionale. Ma è un fatto di grande importanza,

perché riguarda alcuni tra i più significativi sistemi della fisica, come i sistemi armonici (masse

legate da forze elastiche), il corpo rigido di Eulero (corpo rigido con un punto fisso, in assenza di

forze attive) o di Lagrange (corpo rigido simmetrico con un punto fisso, nella gravità: la comune

trottola), e soprattutto il problema di Keplero e ogni altro problema di moto centrale. Nello

studio di questi e (pochi) altri simili problemi, l’apparato hamiltoniano non va però pensato come

una via per risolvere le equazioni del moto (tutti questi problemi si sapevano già risolvere prima

della meccanica hamiltoniana); l’apparato hamiltoniano ne fornisce piuttosto una descrizione più

profonda, utile sia a capirli meglio da un punto di vista geometrico, sia soprattutto a studiare

il problema molto interessante ma molto difficile dei sistemi prossimi a questi: ad esempio un

sistema di masse legate da forze leggermente non lineari; un corpo rigido in un debole campo di

forze (equivalentemente, in rapida rotazione); due o più problemi di Keplero debolmente accoppiati

(modelli di Sistema Solare, e numerosi altri problemi di Meccanica Celeste). Sono questioni difficili,

nelle quali non ci sarà possibile addentrarci veramente. Ma ci arriveremo alla soglia, riuscendo a

dare almeno un’occhiata all’interno.

3.2 Le variabili di azione–angolo per il pendolo

Per prendere familiarità con la nozione di sistema integrabile studiamo qui il caso facile (ma non

banale: c’è da imparare) dei sistemi a un grado di libertà. Per essere definiti ci riferiremo al

pendolo: 2

p 2 2

−ω ∈

H(p, q) = + V (q) , V (q) = cos q , (p, q) , (3.4)

R

2

ma il modo di procedere è generale e riguarda sostanzialmente tutti i sistemi con un grado di libertà

che abbiano moti limitati.

12 Questa cosa, pur chiara negli scritti di Poincaré, si è in realtà compresa bene relativamente di recente (si pensi

all’età che hanno questi problemi!), diciamo nel corso degli anni ’60 del ’900.

3.2 — Le variabili di azione–angolo per il pendolo 31

Figura 5: La costruzione delle variabili di azione–angolo per il pendolo.

Il ritratto in fase del sistema è riportato in figura 5; le traiettorie coincidono con le superfici di

livello (curve di livello) dell’energia, che denotiamo

2

{(p, ∈

Σ = q) : H(p, q) = E} . (3.5)

R

E

Ci restringiamo alle librazioni (il caso delle rotazioni è semmai più semplice), escludendo anche il

2 2

−ω

punto di equilibrio (l’origine), ovvero ci restringiamo all’intervallo di energia < E < ω e al

2

corrispondente dominio D . Allora lo spazio delle fasi topologicamente è il prodotto di un

R

intervallo per un circolo, ovvero un cilindro (o se si preferisce una corona). Vogliamo costruire

coordinate canoniche (p̃, q̃) sul cilindro, tali che p̃ resti costante e q̃ avanzi uniformemente. Una

prima scelta spontanea per p̃ è l’energia stessa

E = H(p, q) ,

mentre una quantità che avanza uniformemente nel tempo, buona candidata (anche dimensional-

mente) ad essere la nuova coordinata q̃, è il tempo stesso: precisamente, fissata una sezione che

S

tagli tutte le traiettorie, come la semiretta q = 0, p > 0, poniamo

τ = q) = tempo per arrivare da a (p, q) ,

T(p, S p

± −

ovvero (ricordando che dt = dq/v, con in questo caso v = p = 2(H(p, q) V (q)) )

Z q dx

p ≥

(p 0)

τ = −

2(H(p, q) V (x))

0 Z q dx

1 p

− (p < 0) , (3.6)

= T (H(p, q))

2 −

2(H(p, q) V (x))

0

ove T (E) è il periodo: Z q (E) dx

+ p

T (E) = 2 , (3.7)

2(E V (x))

q (E)

avendo denotato con q (E) i due punti di arresto all’energia E. In questo modo restano definite

±

E e τ come funzioni di p e q, ovvero resta definita la trasformazione inversa

−1

(E, τ ) = w (p, q)

= (H(p, q), q)) .

T(p,

3.2 — Le variabili di azione–angolo per il pendolo 32

Figura 6: La curva T (E) e il corrispondente dominio delle variabili E, τ .

Il tempo τ è in realtà funzione multivoca di (p, q), definita a meno di multipli del periodo T (E);

corrispondentemente, se scriviamo (p, q) = w(E, τ ) ,

la funzione w è periodica in τ di periodo T (E).

−1

Si verifica senza difficoltà che w è canonica, e dunque lo è w. Per questo è sufficiente veri-

{τ, {T,

ficare che risulta E} = 1, più precisamente H} = 1 (è questa l’unica parentesi di Poisson

{T,

elementare non banale). La cosa è del tutto ovvia: H} altro non è che nella dinamica di H,

ed evidentemente = 1 (se denotiamo p̂(t), q̂(t) il movimento, allora q̂(t)) = t).

Ṫ T(p̂(t),

{T,

Si calcoli esplicitamente la parentesi di Poisson H}, usando la (3.6) e l’espres-

Esercizio 24

sione (3.4) di H. Conviene osservare preliminarmente che la dipendenza di da p e q attraverso

T

{T,

H(p, q), a denominatore della funzione integranda, non contribuisce a H}.

Si determini la funzione generatrice S(E, q) della trasformazione w. [Risposta:

Esercizio 25 p

R q −

S(E, q) = 2(E V (x)) dx.]

0

Nelle nuove variabili l’hamiltoniana e le equazioni del moto sono evidentemente

H̃(E, τ ) = E , Ė = 0 , τ̇ = 1 .

Questa scelta della coppia energia–tempo come variabili che integrano il sistema con moto lineare

ha in realtà una complicazione nascosta: il periodo infatti dipende da E, pertanto il dominio della

coppia (E, τ ) non ha forma semplice (non è il prodotto di un dominio per ciascuna variabile); si

veda la figura 6. Per rimediare, sostituendo a τ un vero angolo con periodo fisso 2π, possiamo

cercare nuove coordinate canoniche (I, ϕ), con τ

ϕ = 2π T (E)

e I = I(E) che completi canonicamente la trasformazione (è indispensabile che I sia funzione della

sola E). La funzione I(E) si trova subito: infatti per la canonicità deve risultare

∂I

∂ϕ

{ϕ, ,

1 = I} = ∂τ ∂E

ovvero ∂I 1

= T (E) . (3.8)

∂E 2π

3.2 — Le variabili di azione–angolo per il pendolo 33

Figura 7: Il dominio rettangolare (cilindrico) nelle variabili I, ϕ.

Si vede facilmente che la funzione cercata è l’area sottesa dalla curva Σ , divisa per 2π:

E

I Z p

q (E)

1 1 + −

I(E) = 2(E V (x)) dx . (3.9)

p dq =

2π π q (E)

Σ −

E

Derivando rispetto a E si ottiene infatti la (3.8) con T (E) espresso dalla (3.7). (Vale la pena di

osservare che la dipendenza da E attraverso gli estremi non conta nella derivata, grazie al fatto che

la funzione integranda agli estremi si annulla.) 1

×

Il dominio D delle nuove variabili ora è rettangolare, D = (0, I ) S ; si veda la figura 7. La

max

nuova hamiltoniana ha la forma K(I, ϕ) = h(I) ,

avendo indicato con E = h(I) la funzione che inverte la (3.9), e le equazioni del moto sono

˙

I = 0 , ϕ̇ = ω(I) ,

∂h

con ω = . Abbiamo costruito in questo modo le variabili di azione–angolo per il pendolo, nel

∂I

dominio ristretto alle librazioni.

In modo analogo si introducano le variabili di azione–angolo per le rotazioni del

Esercizio 26 2

pendolo (E > ω ).

Si verifichi che per l’oscillatore armonico l’azione I(E), definita come area/2π

Esercizio 27

secondo la (3.9), coincide con E/ω.

• E’ bene sottolineare il fatto che nella nostra trattazione abbiamo dovuto escludere dallo spazio

delle fasi del sistema l’origine, ovvero il punto di equilibrio stabile, e le separatrici, ovvero la

superficie di livello dell’energia contenente il punto di equilibrio instabile. Nell’origine si ha

un’evidente singolarità geometrica: una famiglia di curve invarianti collassa lı̀ in un punto,

e in un intorno del punto singolare non è più possibile definire né τ né ϕ. E’ la consueta

singolarità delle coordinate polari. Sulle separatrici invece la singolarità è di altra natura: lı̀

il periodo T (E) diverge, i moti non sono più periodici, sarebbe ancora possibile introdurre la

coppia di variabili (E, τ ) ma non più la coppia (I, ϕ). E’ interessante osservare (perché la cosa

si generalizzerà) che i valori di E da escludere sono tutti e soli quelli per cui Σ definito dalla

E

(3.5) non è una curva (una sottovarietà dello spazio delle fasi), poiché ∂ H non è ovunque

p,q

diverso da zero su Σ .

E

3.3 — Il teorema di Liouville–Arnol’d 34

• Quanto abbiamo fatto può sembrare tutto implicito e difficilmete utilizzabile. In realtà ab-

biamo fatto una cosa grossa: la soluzione di un’equazione differenziale è stata riportata alle

operazioni assai più elementari di integrazione ordinaria e inversione di funzioni. In questo

modo ad esempio è più facile fare approssimazioni numeriche delle soluzioni, e costruire grafi-

ci, senza il deterioramento al crescere di t che ci sarebbe tentando di risolvere numericamente

le equazioni differenziali. Questo era, in buona sostanza, il programma di Liouville: riportare

ove possibile la soluzione delle equazioni di Hamilton alle operazioni di quadratura e inver-

sione. In effetti, i sistemi integrabili secondo Liouville, che stiamo trattando, si dicono anche

integrabili per quadrature. La posta in gioco in realtà, come si vedrà nei prossimi paragrafi,

è assai più alta del fare approssimazioni: si tratta di capire la struttura dello spazio delle

fasi dei sistemi integrabili e su queste basi comprendere la vera cosa che interessa, ovvero il

comportamento dei sistami prossimi a sistemi integrabili, di cui è disseminata la fisica.

3.3 Il teorema di Liouville–Arnol’d

Il procedimento introdotto nel paragrafo precedente si applica a tutti i sistemi hamiltoniani a

6

un grado di libertà, attorno a superfici di livello Σ sulle quali sia, in ogni punto, ∂ H = 0

p,q

E

(assenza di punti di equilibrio). Il problema fondamentale che ci poniamo è di generalizzare queste

considerazioni a sistemi con n gradi di libertà. Una generalizzazione banale è quella di n sistemi a

un grado di libertà disaccoppiati: n

X F (p , q ) .

H(p, q) = i i i

i=1 F non si annulla mai sulla

In questo caso se, per una certa scelta di f = (f , . . . , f ), si ha che ∂ i

1 n p ,q

i i

curva di livello definita da F (p , q ) = f (ciò assicura che si tratta di una vera curva), e se questa

i i i i

è chiusa, allora la varietà su cui si svolge il moto, che denotiamo Σ , è un toro n–dimensionale (il

f

prodotto delle n curve) e il moto su di esso è quasi periodico con n frequenze. In questa facile situa-

zione, procedendo separatamente per ciascun sottosistema, si possono chiaramente introdurre in

un intorno di Σ variabili di energia–tempo (E, τ ) e poi variabili di azione–angolo (I, ϕ), che danno

f

a ciascun sottosistema la forma K (I , ϕ ) = h (I ) e al sistema complessivo la forma integrabile

i i i i i · · ·

K(I, ϕ) = h(I) , h(I) = h (I ) + + h (I ) .

1 1 n n

L’idea fondamentale di Liouville (metà ’800), completata (inizio anni ’60 del ’900) da Arnol’d,

è che questa situazione persiste anche nel caso interagente, purché esistano n costanti del moto

F , . . . , F indipendenti e inoltre a due a due “in involuzione”, precisamente con mutua parentesi

1 n 13

di Poisson nulla: {F }

, F = 0 , i, j = 1, n.

i j

Vale infatti il fondamentale Teorema di Liouville–Arnol’d :

13 Quest’ultima condizione, come si è accennato nel paragrafo 1.2, è necessaria e sufficiente perché gli n flussi

hamiltoniani associati alle n hamiltoniane F , . . . , F commutino:

1 n

τ τ

τ τ

j j

Φ ◦ Φ = Φ ◦ Φ ∀i, j ;

i i

F F F F

i j j i

si veda l’appendice C.

3.3 — Il teorema di Liouville–Arnol’d 35

2n

Sia D un aperto di munito di coordinate canoniche (p, q) = (p , . . . , p ,

R

Proposizione 16 1 n

q , . . . , q ), e siano F , . . . , F , F : D funzioni regolari a due a due in involuzione:

R,

1 n 1 n i {F } ∀i,

, F = 0 j . (3.10)

i j

n

Per f denotiamo

R {(p, ∈

Σ = q) D : F (p, q) = f , i = 1, . . . , n} ,

i i

f ∗ n

6 ∅ ∈

e assumiamo che F , . . . , F siano indipendenti su Σ = per un opportuno f , precisamente

R

1 n f

∂(F , . . . , F )

1 n

rango = n (3.11)

∂(p , . . . , p , q , . . . , q )

1 n 1 n

in ogni punto di Σ . Allora:

f tF

i. Σ è una varietà n–dimensionale, invariante per ciascuno degli n flussi hamiltoniani Φ .

f i

14 n n n

ii. Σ , se connessa e compatta, è diffeomorfa al “toro standard” = /(2πZ) ;

T R

f n ∗

iii. esiste un intorno di f , tale che l’insieme

F R [ Σ

Σ = f

F f ∈F n

×

(“intorno tubolare di Σ ”) è diffeomorfo a , e inoltre

F T

f

iv. in Σ esistono coordinate canoniche di azione–angolo, precisamente esiste un cambiamento

F

di coordinate (p, q) = w(I, ϕ), definito per n n

∈ × ⊂

(I, ϕ) B , B ,

T R

n

× ◦

tale che Σ = w(B ), e ciascuna funzione trasformata F̃ = F w è funzione delle sole

T i i

F

azioni, ˜

F̃ (I, ϕ) = f (I) ;

i i →

viceversa le azioni I sono funzioni invertibili delle sole F , precisamente esiste : B tale

I F

che I(p, q) = (p, q), . . . , F (p, q)).

I(F

1 n

Si osservi che l’enunciato è simmetrico in F , . . . , F : una qualsiasi F può essere l’hamiltoniana

1 n i

che ci interessa studiare, e le altre sono allora le sue costanti del moto. Se quella che ci interessa

è denotata H, allora il teorema dice, in particolare, che ogni moto di H (nel dominio in cui il

teorema si applica) si svolge su un toro n–dimensionale, è quasi periodico con n frequenze, e si

possono introdurre coordinate di azione angolo (I, ϕ) che mutano H in una nuova hamiltoniana K

dipendente solo dalle azioni. L’hamiltoniana H è allora integrabile secondo Liouville, nel dominio

15

Σ , secondo la definizione 6. Parimenti integrabile è ogni hamiltoniana che sia funzionalmente

F n →

dipendente da F , . . . , F , cioè H(p, q) = (p, q), . . . , F (p, q)) con : qualsiasi.

H(F H R R

1 n 1 n

14 Ci si può comunque sempre restringere a una sua componente connessa. Se manca la compattezza, ma ugualmente

n,k

i flussi sono prolungabili a t ∈ allora Σ è diffeomorfa al cilindro prodotto di k circoli e n − k rette,

C

R, f

n,k n k

= /(2πZ) ; nel caso compatto, l’unico veramente interessante, si ha k = n e il cilinrdo diventa un toro. Nel

C R

caso non compatto si possono comunque introdurre k coppie di coordinate di azione–angolo I , ϕ , mentre per gli

i i

altri gradi di libertà è possibile introdurre coordinate di energia–tempo E , τ (con le τ non periodiche).

i i i

15 Il teorema di Liouville–Arnol’d è a volte usato, in letteratura, per definire i sistemi integrabili: i sistemi integrabili

secondo Liouville sono in questo caso direttamente definiti come quei sistemi per cui H, assieme a n − 1 opportune

funzioni F , soddisfa le ipotesi del teorema di Liouville–Arnol’d.

i

3.3 — Il teorema di Liouville–Arnol’d 36

Si dimostri quest’ultima affermazione.

Esercizio 28

La dimostrazione del teorema, complessa e non facile, sicuramente va oltre gli scopi di queste

note. Nell’appendice F tuttavia è riportata la dimostrazione dei punti i. e ii., che sono la parte più

interessante.

• La scelta delle variabili di azione–angolo non è mai unica. In particolare se (I, ϕ) è una scelta

|

possibile, e A è una qualunque matrice intera con det A| = 1 (equivalentemente: A è intera

con inversa intera), allora la trasformazione canonica

−T

I = A J , ϕ = Aψ (3.12)

fornisce un’altra scelta possibile di variabili di azione–angolo. La condizione su A garantisce

2

che alla trasformazione lineare ϕ = Aψ in corrisponda una mappa regolare e biunivoca:

R

2 2

→ ; si veda l’esercizio qui sotto. La libertà offerta dalla (3.12) in qualche caso è molto

T T

utile; si veda ad esempio l’esercizio 32. 2

Si dimostri che alla mappa lineare ϕ = Aψ su corrisponde una mappa regolare

R

Esercizio 29

2 2 −1

biunivoca: se e solo se A e A sono intere. [Bisogna e basta che, nei due versi, punti

T T

2 2

equivalenti di , cioè punti le cui coordinate differiscono per multipli interi di , siano inviati in

R R

punti equivalenti.]

Vediamo ora alcuni esempi di sistemi integrabili, presi tra quelli fisicamente più interessanti.

(i) I sistemi isocroni, precisamente sistemi con l’hamiltoniana della forma (3.2), di cui si è già detto.

Sono chiamati anche sistemi lineari in quanto le equazioni del moto sono lineari. Dopo il passaggio

ai modi normali l’hamiltoniana ha la forma (3.3); sono costanti del moto in involuzione le n energie

12 2

2

2

degli oscillatori, cioè (rimuovendo la tilde) E = ), i = 1, . . . , n. La matrice di cui va

q

+ ω

(p

i i

i

i

verificato che abbia rango n è, ordinando qui per comodità le variabili (p , q , . . . , p , q ),

1 1 n n

 2

p ω q

1 1

1 

 2

∂(E , . . . , E ) q

p ω

1 n 2

2 

 2

= .

 ···

∂(p , q , . . . , p , q )

1 1 n n 2 q

p ω n

n n

Si ha allora una caduta di rango se uno o più oscillatori sono all’equilibrio: p , q = 0 per almeno un

i i

indice i. Al di fuori di questo caso il rango è n e corrispondentemente il moto avviene sul prodotto

n

di n circoli, cioè su un toro , ed è quasi periodico con n frequenze:

T o o

I (t) = I , ϕ (t) = ϕ (t) + ω t , i = 1, . . . , n . (3.13)

i i i

i

Invece in corrispondenza all’equilibrio di uno o più oscillatori una famiglia di tori n dimensionali

collassa su un toro di dimensione inferiore (il moto è ancora quasi periodico, con un numero inferiore

di frequenze). 2

Per n = 2 si consideri il moto quasi periodico di ϕ , ϕ su definito dalle (3.13).

T

Esercizio 30 1 2

Si dimostri che (a) se α = ω /ω è razionale, allora tutti i moti sono periodici; (b) se invece α

1 2

è irrazionale, la traiettoria è densa sul toro (Jacobi, 1835). La seconda parte non è immediata.

Conviene prima risolvere l’esercizio seguente: si consideri la traslazione sul circolo (0, 2π) definita

da Φ(ϕ) = ϕ + 2πα (figura 8a), e per ogni ϕ si consideri la successione ϕ , ϕ , . . . , ϕ , . . . definita

0 0 1 t

da ϕ = Φ(ϕ ), t 0. Si dimostri che la successione è densa sul sul circolo se e solo se

t+1 t

α è irrazionale. Anche questo però richiede una certa ingegnosità; si veda l’appendice E. Per

comprendere il legame tra i due esercizi si osservi la figura 8b.

3.3 — Il teorema di Liouville–Arnol’d 37

2

Figura 8: (a) la traslazione sul circolo; (b) il legame col moto lineare su .

T

Con le notazioni dell’esercizio precedente si consideri il caso di α razionale, α = k/l.

Esercizio 31

Si determini una ulteriore costante del moto del sistema, in aggiunta a I e I .

1 2

Si consideri l’hamiltoniana lineare integrabile H(I , I , ϕ , ϕ ) = ω I + ω I . (i)

Esercizio 32 1 2 1 2 1 1 2 2

Per ω = ω si trovi una trasformazione canonica (I, ϕ) = w(J, ψ) tale che la nuova hamiltoniana

1 2

dipenda solo da J . (ii) Si estenda il risultato a ω /ω razionale qualsiasi; si cerchi per questo

1 1 2

w della forma (3.12). La seconda parte richiede un po’ di ingegnosità (o qualche conoscenza di

aritmetica); si veda l’appendice E.

Si consideri un cambiamento di variabili del tipo

Esercizio 33 I = u(J) , ϕ = v(J, ψ) . (3.14)

Qual è la forma più generale possibile di u e v tale che la trasformazione sia canonica, con v :

2 2

→ biunivoca? [Risposta: è una marginale generalizzazione della (3.12), precisamente

T T −T

I = A J , ϕ = A[ψ + a(J)] ,

∂a

∂a j

|

con A intera con det A| = 1 e a tale che = .]

i

∂J ∂J

j i

(ii) Il moto centrale piano, in particolare il problema di Keplero. Per questi sistemi l’hamiltoniana

(supponendo la massa unitaria) ha la forma 2

2 p

p r ϑ

+ + V (r) ; (3.15)

H(p , p , r, ϑ) =

r ϑ 2

2 2r

con evidenza si conservano e sono in involuzione l’energia H e il momento angolare p . Il moto

ϑ

6

nel piano ϑ p è allora come in figura 9: p resta costante, mentre ϑ, supponendo p = 0, avanza

ϑ ϑ ϑ

2 6

monotonamente ( ϑ̇ = p /r = 0). Per quanto riguarda la coppia (p , r), per ogni fissato p essa è

r

ϑ ϑ

regolata dall’hamiltoniana efficace 2

2 p

p r ϑ

(p , r) = + (r) , (r) = + V (r) .

H V V

p r p p 2

ϑ ϑ ϑ

2 2r

Supponiamo V attrattivo della forma qualitativa riportata in figura 10a, con (eventuale) divergenza

2

−1/r

nell’origine più debole di in modo che abbia la forma qualitativa riportata in figura 10b

V

p ϑ

3.3 — Il teorema di Liouville–Arnol’d 38

Figura 9: Il punto (ϑ, p ) corre su un circolo.

ϑ

Figura 10: (a) Il potenziale attrattivo V ; (b) il corrispondente potenziale

efficace ; (c) il ritratto in fase di .

V H

p p

ϑ ϑ

e corrispondentemente il ritratto in fase di sia come in figura 10c. Verifichiamo l’ipotesi che il

H

p ϑ

∂(H,p )

ϑ

rango della matrice sia due. Si ha

∂(p ,p ,r,ϑ)

r ϑ !

∂V

p pϑ 0

p ϑ

∂(H, p ) r

ϑ 2 ∂r

r ,

=

∂(p , p , r, ϑ) 0 1 0 0

r ϑ ∂V p = 0. Ciò si verifica

pertanto si ha una caduta di rango se simultaneamente risulta p = 0 e ϑ

r ∂r

sui punti di equilibrio del sistema ridotto , ovvero in corrispondenza ai moti circolari di H. Al

H

p ϑ

di fuori di questo caso invece ogni moto di (con energia negativa) avviene su una traiettoria

H

p ϑ

chiusa, cioè su un circolo. Corrispondentemente, ogni moto di H avviene sul prodotto di questo

circolo e del circolo considerato sopra nel piano ϑp , in cui ϑ avanza monotonamente a p costante.

ϑ ϑ

16

Il moto si svolge cosı̀ su un toro bidimensionale. In corrispondenza ai moti circolari invece una

famiglia di tori bidimensionali collassa in un circolo, e corrispondentemente un angolo non è più

definito; si veda la figura 11.

I moti di (p , ϑ) e (p , r) nei due circoli hanno periodi T e T dipendenti dalle costanti del

r r

ϑ ϑ

moto E e p , in generale diversi e incommensurabili: i moti non circolari allora in generale non

ϑ

sono chiusi e anzi (si veda sopra l’esercizio 30) riempiono densamente il toro cui appartengono.

Proiettati nello spazio delle configurazioni essi danno il noto moto “a rosetta”, si veda la figura 12,

in cui durante ogni periodo T l’angolo ϑ, misurato ad esempio al perielio, avanza di una quantità

r −k/r,

fissa Θ in generale non commensurabile a 2π. Fa eccezione il caso kepleriano V = per il

quale come è noto T e T sono sempre uguali tra loro, perciò Θ = 0 e tutte le traiettorie anche

r ϑ

non circolari sono chiuse.

16 Non è difficile vedere che per E ≥ 0, venendo a mancare la compattezza delle curve in figura 10c, il moto avviene

su un cilindro; si veda la nota 14, a proposito del teorema di Liouville–Arnol’d.

3.3 — Il teorema di Liouville–Arnol’d 39

2

Figura 11: in corrispondenza ai moti circolari una famiglia di tori collassa in un circolo.

T

La descrizione dettagliata del passaggio alle variabili di azione–angolo per il moto centrale piano

sarà fatta più avanti nel paragrafo 3.5C, tramite l’equazione di Hamilton–Jacobi; qui ci limitiamo

a esporre il risultato. Una scelta possibile di queste variabili, di fatto la più comune e la più

conveniente nelle applicazioni, è 1 |p |

p ) +

I = A(E,

1 ϑ ϑ

I = p

2 ϑ τ (r, p , E, p )

r ϑ

ϕ = 2π

1 T (E, p )

r ϑ

τ (r, p , E, p )

r ϑ

ϕ = ψ +Θ

2 T (E, p )

r ϑ

ove E = H(p , p , r, ϑ); è l’area sottesa dalla curva passante per (r, p ) nel piano rp (figura 13),

A

r r r

ϑ

a p costante (A dipende solo da p e da E); τ è il tempo necessario a raggiungere (r, p ) a partire

r

ϑ ϑ

dal perielio (figure 13 o anche 12); infine ψ è l’angolo che individua l’ultimo perielio a partire da una

direzione assegnata (figura 12). La nuova hamiltoniana ha una forma che non si scrive in termini

di funzioni elementari, comunque dipende solo da I e I ,

1 2

K(I , I , ϕ , ϕ ) = h(I , I ) .

1 2 1 2 1 2

L’angolo ϕ , detto anomalia media, ha origine nell’ultimo perielio e avanza uniformemente fino a

1 17

2π al momento del passaggio al perielio successivo. L’angolo ϕ , detto argomento del perielio,

2

avanza invece uniformemente di Θ nel tempo intercorrente tra due passaggi successivi al perielio

(resta definita, in questo modo, una posizione del perielio anche tra un passaggio e l’altro).

−k/r,

Nel caso kepleriano, cioè per V (r) = come è noto, si ha una costante del moto in

più, che qui si traduce nel fatto che ϕ resta costante: il perielio non avanza e tutti i moti sono

2

periodici (anziché quasi periodici con due frequenze). L’hamiltoniana h nel caso di Keplero si scrive

esplicitamente; essa risulta dipendere dalla sola I , e a conti fatti si trova

1 2

k

h(I ) = . (3.16)

1 2

2I 1

Come poi è noto dalla meccanica newtoniana, il semiasse maggiore a delle ellissi di Keplero è

−k/(2h);

funzione della sola energia h, precisamente si ha a = sostituendo h nella (3.16) si trova

17 Per la legge delle aree, ϕ è dunque proporzionale all’area spazzata dal punto che esegue il moto centrale a partire

1

dal perielio.

3.3 — Il teorema di Liouville–Arnol’d 40

Figura 12: Una tipica traiettoria per un moto centrale

Figura 13: La variabili e τ per il moto centrale.

A

allora il legame tra l’azione I e il semiasse,

1 √ ka .

I =

1

Il risultato è coerente con la terza legge di Keplero: infatti dall’espressione (3.16) di h si trova

1/2

2

∂h k

k

ω (I ) = =

= ,

1 1 3 3/2

∂I I a

1 1

da cui segue 2

(2π) 3

2 a .

T = k −k/r

Si verifichi che nel caso kepleriano V = il vettore

Esercizio 34 × − ×

A = p l kq/r , l = q p

(“vettore di Runge–Lenz”) è costante nel tempo. (Si può calcolare Ȧ lungo il flusso hamiltoniano,

{A

o equivalentemente calcolare algebricamente le tre parentesi di Poisson , H,}). Si osservi che

i ·

la direzione del vettore è parallela al semiasse maggiore delle ellissi. (Infatti, A p = 0 al perielio,

·

cioe quando q p = 0.)

Alla luce del caso kepleriano diamo la seguente definizione:

3.3 — Il teorema di Liouville–Arnol’d 41

Figura 14: Il problema di Keplero visto in tre dimensioni.

Sistemi integrabili in cui una o più azioni non compaiono nell’hamiltoniana, mentre

Definizione 7

corrispondentemente gli angoli ad esse coniugati restano fermi, sono detti degeneri, e i gradi di

libertà assenti da h sono detti essi stessi degeneri.

Il problema di Keplero piano dunque è degenere. I sistemi degeneri hanno cosı̀ un numero n di

0

18

frequenze (non nulle) inferiore a n e corrispondentemente tutti i moti sono ristretti a tori di

dimensione n (dimensione uno, e dunque orbite chiuse con moti tutti periodici, per Keplero). Il

0 −

numero di costanti del moto viceversa è più alto, 2n n > n, e per questo i sistemi degeneri sono

0

anche detti superintegrabili. 1 2 2

ω r . (Al

Si studi l’oscillatore armonico piano, con hamiltoniana (3.15) e V (r) =

Esercizio 35 2

pari del problema di Keplero, il sistema è degenere e ha tutti i moti periodici. Il teorema di Bertrand

assicura che non vi sono altri casi di moti centrali con questa proprietà.)

Per n = 2 si consideri il sistema integrabile lineare di hamiltoniana h(I , I ) =

Esercizio 36 1 2

ω I + ω I . Si mostri che se ω /ω è razionale, allora il sistema con una trasformazione canonica

1 1 2 2 2 1

del tipo (3.12) prende la forma degenere. [Suggerimento: ci si rifaccia all’esercizio 32. Per ω = ω

1 2

si ha l’oscillatore armonico piano.]

(iii) Il moto centrale come problema tridimensionale (cenno). Possiamo guardare a un generico

moto centrale non più nel piano ma nello spazio. Il sistema è integrabile: precisamente, detto

2

M il momento angolare, si conservano e sono indipendenti e in involuzione H, M (o il modulo

19

kM k) e una qualunque componente M di M , con scelta arbitraria dell’asse z. Il sistema è

z

superintegrabile, o degenere, qualunque sia il potenziale: ha infatti una costante del moto in più,

′ 6

ad esempio M con z = z qualsiasi; corrispondentemente ha due anziché tre frequenze. Il caso

z

kepleriano a sua volta si pesenta doppiamente degenere, con una sola frequenza.

Il moto di fatto è piano, e mettendoci nel piano dell’orbita possiamo ripetere la trattazione

kM k),

precedente (si osservi che p = costruendo in modo identico I , I , ϕ , ϕ . Come terza

1 2 1 2

ϑ

18 Non ci si confonda col fatto che per particolari dati iniziali, ad esempio in corrispondenza ai moti circolari nel

n

problema del moto centrale, un toro può degenerare in un toro di dimensione inferiore.

T

19 Si conservano anche, ma non sono in involuzione, le tre componenti del momento angolare M , M , M .

x y z

3.4 — Il corpo rigido di Eulero come sistema hamiltoniano integrabile 42

azione si può prendere I = M ; I determina cosı̀ l’inclinazione del piano dell’orbita (evidentemente

3 z 3

costante) rispetto al piano xy. L’angolo ϕ coniugato a I risulta essere l’angolo nel piano xy da

3 3

una direzione prefissata, ad esempio l’asse x, alla “linea dei nodi” in cui il piano dell’orbita interseca

il piano xy. Il piano dell’orbita è fisso, e corrispondentemente ϕ non avanza; I non compare in H

3 3

— l’inclinazione dell’orbita certo non cambia l’energia — coerentemente con il fatto che il sistema

è degenere. La figura 14 illustra il caso kepleriano.

3.4 Il corpo rigido di Eulero come sistema hamiltoniano integrabile

Il corpo rigido di Eulero è il corpo rigido con un punto fisso in assenza di forze attive. In questo

paragrafo ci proponiamo di descriverlo come sistema hamiltoniamo integrabile, e in particolare di

introdurre le sue coordinate di azione–angolo; indispensabile premessa è la trattazione classica di

questo sistema, richiamata nell’appendice G.

Denotiamo con (O, e , e , e ) un sistema di riferimento fisso nello spazio, con origine nel punto

x y z

fisso del corpo, e con (O, e , e , e ) un sistema di riferimento solidale al corpo e principale (cioè

1 2 3

con gli assi cartesiani paralleli agli assi principali di inerzia relativi a O). La configurazione del

corpo è univocamente individuata da una matrice R SO(3), ad esempio la matrice tale che

e = Re e cosı̀ via; la varietà delle configurazioni del sistema dunque è il gruppo SO(3). Lo

1 x

stato del sistema è poi univocamente determinato assegnando, oltre a R, il momento angolare m.

3

Quest’ultimo si può pensare come vettore di facendo riferimento, equivalentemente, alla terna

R

c s

di componenti m = (m , m , m ) nella base propria oppure alla terna m = (m , m , m ) nella

1 2 3 x y z

s c

base fissa nello spazio; la relazione tra le due è m = Rm . Per essere definiti, e come risulta di

c

fatto più conveniente, faremo riferimento a m , pertanto identificheremo gli stati del sistema con

le coppie c 3

∈ ×

(R, m ) SO(3) .

R

20

Lo spazio delle fasi risulta cosı̀ essere la varietà prodotto

3

×

= SO(3) .

M R

Nel sistema si conserva l’energia (cinetica) 21 2 2

m m m

c 2 3

K(m ) = + + , (3.17)

2A 2A 2A

1 2 3

ove si sono denotati con A , A , A i momenti di inerzia relativi alla base propria. Oltre a K si

1 2 3

conservano le tre componenti di m nello spazio m , m e m , dunque in tutto le quantità conservate

x y z 21 2

sono quattro. Una terna di costanti del moto in involuzione è (K, m , m ), ma evidentemente al

z ′

posto di m si può prendere una qualunque altra componente m di m in una direzione fissa z

z z

20 Che lo spazio delle fasi abbia globalmente la struttura di prodotto è un fatto eccezionale. In genere, se è

Q

la varietà delle configurazioni di un sistema olonomo a n gradi di libertà, la meccanica lagrangiana e la meccanica

n

hamiltoniana sono definite su varietà che solo localmente hanno la struttura di prodotto × , ove è un aperto di

U U

R

globalmente si ottengono invece varietà più complesse, dette fibrato tangente e fibrato cotangente rispettivamente

Q;

per la meccanica Lagrangiana e per quella Hamiltoniana. Per il corpo rigido si ottiene la struttura globale di prodotto

grazie al fatto eccezionale che lo spazio delle configurazioni SO(3) è un gruppo.

21 2

Qui il discorso zoppica un po’: che K, m e m siano in involuzione è chiaro per punti materiali non vincolati, meno

z

chiaro per punti soggetti al vincolo di rigidità, perché non è ben definita una struttura hamiltoniana di riferimento

(delle coordinate locali canoniche, in una visione locale). Il percorso paziente è: introdurre coordinate lagrangiane

ad arbitrio su SO(3), scrivere L (L = K, per il corpo rigido di Eulero), introdurre i momenti coniugati, verificare che

2

K, m e m , che sono additive sui punti che compongono il corpo rigido, hanno mutua parentesi di Poisson nulla.

z

3.4 — Il corpo rigido di Eulero come sistema hamiltoniano integrabile 43

Figura 15: (a) La descrizione di Poinsot; (b) le coordinate di Andoyer

(per confronto sono stati indicati, con tratto punteggiato, i consueti an-

×

goli di Eulero ϑ, ϕ, ψ e la linea dei nodi n = e e che entra nella loro

z 3

costruzione).

dello spazio. Il sistema dunque è integrabile, ma ha una costante del moto in più ovvero, secondo

la terminologia sopra introdotta, è superintegrabile (si osservi la forte somiglianza con il caso del

moto centrale in tre dimensioni).

A. Il caso simmetrico e le coordinate di Andoyer. 6

Ci restringiamo ora per semplicità al caso di corpo rigido simmetrico: A = A = A . Risulta

1 2 3

allora 1 1

1 21 22 23 2 23

c (m + m ) + m = (m + η m ) , (3.18)

K(m ) = 2A 2A 2A

1 3 1

ove η è il “fattore di forma” −

A A

1 3

η = .

A

3

Poichè si ha sempre 0 < A A + A = 2A , risulta

3 1 2 1

1

− ≤ ∞

η< ;

2

−1/2

η = corrisponde a A = 2A , cioè a un corpo piatto (una situazione limite che non presenta

3 1

difficoltà), mentre per η = si avrebbe un corpo filiforme, A = 0: una situazione singola-

3

re che escludiamo dalle nostre considerazioni. Come si vede dalla (3.18), al posto di K si può

equivalentemente usare la quantità conservata m , e far cosı̀ riferimento alle costanti del moto

3

kmk , m , m , m ;

3 z z {m } 6

le prime tre, ma anche le prime due e l’ultima, sono in involuzione (invece , m = 0 ).

z z

La descrizione buona del moto, adatta a mettere in evidenza la struttura integrabile del sistema,

è quella suggerita da Poinsot, che qui ricordiamo brevemente (si veda la figura 15a).

◦ Il momento angolare m è costante nello spazio.

◦ La componente m , e dunque l’angolo tra m e e , sono costanti.

3 3

3.4 — Il corpo rigido di Eulero come sistema hamiltoniano integrabile 44

◦ I vettori m, ω e e , ove ω denota la velocità angolare del corpo (appendice G) sono complanari,

3

dunque ′ ′′

ω = ω e + ω e ove e = m/kmk ; (3.19)

m 3 m

con semplici considerazioni geometriche si trova

kmk m

3

′ ′′

ω = , ω = η .

A A

1 1 ′

◦ Il piano di m, ω, e precede attorno a m con velocità angolare ω costante; simultaneamente

3 ′′

il corpo ruota attorno a e con velocità angolare ω costante. Per descrivere questi due moti

3 ′ ′′

è utile tracciare due coni e (coni di Poinsot) con vertice comune nell’origine, il primo

C C

con asse m, fisso nello spazio, e il secondo con asse e , solidale al corpo; i coni si toccano sulla

3

direttrice comune ω. I punti del corpo su questa retta, che è asse istantaneo di rotazione,

′′ ′

hanno velocità nulla, perciò il cono solidale rotola senza strisciare su fisso, come se ci

C C

fosse un vincolo di puro rotolamento tra due oggetti materiali.

La descrizione ha senso solo se m e e non sono paralleli, ovvero al di fuori delle rotazioni proprie

3

sulle quali tutto diviene singolare. Qualche dettaglio in più si trova nell’appendice G.

Non è difficile introdurre sei coordinate adattate alla descrizione del moto di Eulero–Poinsot,

che descrivano completamente lo stato di moto del corpo (si veda la figura 15b).

◦ kmk,

Poniamo innanzitutto G = L = m . Queste quantità sono costanti e determinano

3

l’apertura dei coni e le frequenze delle precessioni su di essi. Sono quantità intrinseche, cioè

definite indipendentemente dalla scelta (arbitraria) della terna fissa (e , e , e ).

x y z

◦ Con una coppia di coordinate fissiamo l’orientamento di e nello spazio. Una scelta conve-

m ′ ×

niente è (J, j), con J = m e j = angolo nel piano xy da e alla linea dei nodi n = e m

z x z

(coordinate cilindriche di e nella base fissa). Le coordinate (J, j) dipendono evidentemente

m × 6

dalla scelta della terna fissa, e sono ben definite se e e m non sono paralleli, e m = 0.

z z

◦ Infine, con due angoli determiniamo l’avanzamento del sistema lungo i coni di Poinsot. Un

primo angolo, che denoteremo g, descrive la precessione di ω e e attorno a m, e precisamente

3

è l’angolo, nel piano ortogonale a m, dalla linea dei nodi n a una seconda linea dei nodi

′′ ′

×

n = m e ; l’angolo g dipende (solo) per l’origine n dalla scelta della terna fissa. Il secondo

3

angolo, che denoteremo l, descrive la rotazione propria, ed è definito come l’angolo nel piano

′′

equatoriale e e da n a e ; la coordinata l cosı̀ definita è intrinseca. Entrambi gli angoli sono

1 2 1 × 6

ben definiti se m e e non sono paralleli, m e = 0. Il confronto con la figura 15a mostra

3 3

che g è l’angolo tratteggiato sul cono , solo ne è stata precisata l’origine; l differisce di π/2

C

dall’angolo tratteggiato sul secondo cono.

Si raccomanda di rifare da sé una o due volte la figura 15b. Si osservi che g, l, e j sono angoli nei

piani ortogonali, rispettivamente, a m, e e e ; corrispondentemente G, L e J sono le componenti

3 z

del momento angolare lungo le tre direzioni.

E’ laborioso, ma non veramente difficile, verificare che (G, L, J, g, l, j) sono effettivamente delle

3

× ×

buone coordinate (una carta di SO(3) ), se si escludono: (i) le rotazioni proprie m e = 0

R 3

±G),

(ovvero L = ove i coni di Poinsot sono singolari; (ii) inoltre, per evitare la singolarità delle

×

coordinate cilindriche J, j, il caso e m = 0. Ma quest’ultima non è una vera limitazione, data

z

3.4 — Il corpo rigido di Eulero come sistema hamiltoniano integrabile 45

Figura 16: Lo spazio delle fasi del corpo rigido.

l’arbitrarietà della scelta dell’asse z. Quanto al dominio delle diverse coordinate, per (G, L) il

dominio è 2

{(G, ∈ −G }

= L) : G > 0 , < L < G ;

A R

2 2 1

×

il dominio di e è la sfera S , mentre il dominio delle coordinate (J, j) su S è (−G, G) S (si

m 2

escludono i due “poli” ove l’asse z buca la sfera); infine (g, l) . Si veda la figura 16: in ogni

T

punto di è attaccata una sfera S, con coordinate (J, j); in ogni punto della sfera è attaccato un

A 22

toro bidimensionale. Questo è lo spazio delle fasi del sistema, se si escludono le rotazioni proprie.

L’interesse principale per le coordinate (G, L, J, g, l, j) è che, prese in quest’ordine, esse costituiscono

coordinate canoniche, nelle quali le lettere minuscole denotano le coordinate e le corrispondenti

lettere maiuscole denotano i rispettivi momenti coniugati. Vale infatti la seguente importante

proposizione, dovuta a Andoyer (1923), in seguito “riscoperta” da Deprit (1961) e chiamata di

solito teorema di Andoyer–Deprit:

Le coordinate (G, L, J, g, l, j), ordinate come indicato sopra e nel dominio indicato

Proposizione 17 3

×

sopra, sono coordinate canoniche analitiche su SO(3) . Due carte di queste coordinate, relative

R

a diverse scelte di e , coprono la varietà

z 3

{(R, ∈ × × 6

= m) SO(3) : m e = 0} .

M R

0 3

L’hamiltoniana del corpo rigido simmetrico in queste coordinate è H(G, L, J, g, l, j) = h(G, L), con

1 2 2

h(G, L) = (G + η L ) . (3.20)

2A

1

Omettiamo la dimostrazione, ancora una volta non difficile ma faticosa. Ammessa tuttavia la

canonicità, la forma (3.20) di H nel caso simmetrico segue immediatamente dalla (3.18): H è

infatti l’energia, qui soltanto cinetica, scritta in coordinate canoniche. Si vede cosı̀ che le coordinate

di Andoyer sono le coordinate di azione–angolo del corpo rigido simmetrico. Il sistema è con

evidenza degenere, e il grado di libertà degenere è (J, j). Il moto si svolge sul toro bidimensionale

2 23

, con frequenza ω = (ω , ω ) data da

T g l

∂h 1

∂h =

ω = , (G, ηL) ;

∂G ∂L A

1

22 E’ interessante osservare che due delle coordinate di Andoyer, precisamente L e J, concidono con due dei momenti

coniugati delle coordinate di Eulero: si ha infatti L = p , J = p ; si veda l’appendice J.

ϕ

ψ

23 3

Con lo stesso simbolo ω abbiamo denotato sopra la velocità angolare del corpo in ; un marginale conflitto di

R

notazione, che non vale la pena di dirimere introducendo nuovi simboli.

3.5 — L’equazione di Hamilton–Jacobi 46

′ ′′

si osservi che ω , ω coincidono con le velocità ω , ω delle precessioni sui coni di Poinsot riportate

g l

nella (3.19).

B. Il caso triassiale (cenno).

Nel caso triassiale le coordinate di Andoyer (G, L, J, g, l, j) restano, evidentemente, coordinate

canoniche su SO(3), dal momento che la canonicità delle coordinate è una proprietà a priori,

indipendente dall’hamiltoniana cui si è interessati. Ma non sono più coordinate di azione–angolo:

infatti (figura 15b) si ha q q

2 23

2 2

− −

m = m m sin l , m = m m cos l ,

1 2

3

6

e per A = A dalla (3.17) si deduce

1 2

2 2 2

sin l cos l L

2 2

K = (G L ) + + .

2A 2A 2A

1 2 3

Ora, questa espressione si può interpretare come hamiltoniana di un sistema a un solo grado di

libertà, per la coppia (L, l) — una variante del pendolo — in cui G è un parametro. Procedendo

allora come per il pendolo (o meglio come per un qualunque sistema a un grado di libertà) non è

difficile comprendere che si può introdurre, al posto di (L, l), una coppia di coordinate di azione–

angolo (I, ϕ), nell’intorno di ogni curva di livello di K non contenente punti singolari. Qualche

dettaglio in più è demandato al prossimo esercizio.

Si tracci il ritratto in fase relativo all’hamiltoniana K (pensata come funzione di

Esercizio 37

L, l). In quali regioni del piano Ll si possono introdurre le coordinate di azione–angolo I, ϕ? Chi

è I?

3.5 L’equazione di Hamilton–Jacobi

La ricerca di una trasformazione di coordinate (p, q) = w(p̃, q̃) che porti un sistema hamiltoniano

in forma integrabile è naturalmente associata a una importante equazione alle derivate parziali,

detta equazione di Hamilton–Jacobi. Si tratta di un’equazione che interviene in vario modo nella

Fisica Matematica. Hamilton la introdusse originariamente in connessione alla propagazione dei

fronti d’onda in ottica, mentre fu Jacobi a sottolinearne l’importanza in relazione all’integrabilità

dei sistemi hamiltoniani. Ci limiteremo qui alla cosiddetta equazione ridotta di Hamilton–Jacobi,

adatta a problemi indipendenti dal tempo, accennando solo brevemente alla fine al caso generale.

A. L’equazione ridotta di Hamilton–Jacobi

Cominciamo con una definizione: 2n →

Data la funzione di Hamilton H(p, q), H : l’equazione alle derivate

R R,

Definizione 8

parziali

∂S ∂S

H = h , (3.21)

,..., , q , . . . , q

1 n

∂q ∂q

1 n

nella quale sia la funzione S(q , . . . , q ) sia la costante h sono incognite, è detta “equazione ridotta

1 n

di Hamilton–Jacobi” associata ad H.

3.5 — L’equazione di Hamilton–Jacobi 47

∂S

Si osservi che ciascuna derivata parziale sta in H al posto di p . Ad esempio, all’hamiltoniana

i

∂q i

1 2 2 2

dell’oscillatore armonico H(p, q) = (p + ω q ) è associata l’equazione di Hamilton–Jacobi

2

∂S 1

1 2 2 2

+ ω q = h. (3.22)

2 ∂q 2

Non è difficile verificare che una famiglia di soluzioni di questa particolare equazione è data da

Z p

q 2 2

± −

S(α, q) = 2αω ω x dx , h(α) = αω , (3.23)

0

ove α è una arbitraria costante positiva.

Si dice integrale completo dell’equazione ridotta di Hamilton–Jacobi ogni famiglia

Definizione 9

di soluzioni S(α , . . . , α , q , . . . , q ) , h(α , . . . , α )

1 n 1 n 1 n

dipendente da n parametri reali α , . . . , α , tale che risulti

1 n

2

∂ S 6 = 0 . (3.24)

det ∂α ∂q

i j

Attenzione: l’integrale completo è una classe “sufficientemente ampia” di soluzioni e non va confuso

con l’integrale generale, cioè con l’insieme di tutte le soluzioni (che per le equazioni alle derivate

parziali contiene sempre funzioni arbitrarie anziché un numero finito di costanti arbitrarie; si pensi

all’equazione delle onde). La (3.23) fornisce un integrale completo della (3.22).

Il legame tra l’equazione ridotta di Hamilton–Jacobi e l’integrabilità di H è espresso dalla

seguente facile proposizione:

Sia S(α , . . . , α , q , . . . , q ), h(α , . . . , α ) un integrale completo dell’equazione

Proposizione 18 1 n 1 n 1 n

ridotta di Hamilton–Jacobi (3.21). Allora la funzione generatrice S(p̃ , . . . , p̃ , q , . . . , q ), nel-

1 n 1 n

la quale le costanti α , . . . , α dell’integrale completo sono reinterpretate come momenti, genera

1 n

implicitamente, tramite le (2.23), una trasformazione canonica (p, q) = w(p̃, q̃) che muta H in

H̃(p̃ , . . . , p̃ , q̃ , . . . , q̃ ) = h(p̃ , . . . , p̃ ) . (3.25)

1 n 1 n 1 n

Dalle (2.23) segue

Dimostrazione.

∂S (p̃, q), q ,

H̃(p̃, q̃) = H ∂q

ove a secondo membro, in linea di principio, è sottintesa la sostituzione q = v(p̃, q̃), con v definita

implicitamente dalle (2.23). Ma per l’equazione di Hamilton–Jacobi, il secondo membro non dipende

da q e vale h(p̃), ovvero la sostituzione è inutile e si ha la (3.25). La condizione di invertibilità

(2.22) è garantita dalla (3.24).

Restando nell’esempio della soluzione (3.23) alla (3.22), prendendo il segno più e denotando con

I anziché con α il parametro (il nuovo momento), si ha la funzione generatrice

Z p

q 2 2

2ωI ω x dx ,

S(I, q) = 0

3.5 — L’equazione di Hamilton–Jacobi 48

e questa (esercizio (10-v)) si è già vista essere la generatrice del passaggio alle coordinate di azione–

angolo: la forma implicita della trasformazione è infatti

Z

p p

q dx

∂S ∂S

2 2 p

= = = arcsin

p = 2ωI ω q , ϕ = ω/2I q ,

∂q ∂I 2

2I/ω x

0

e per inversione si ottengono facilmente le equazioni esplicite

p

q = 2I/ω sin ϕ , p = 2ωI cos ϕ , (3.26)

π

π ≤ ≤

− ϕ . Prendendo il segno meno si

con determinazione dell’angolo (funzione arcoseno) tra 2 2

ottiene similmente √

p ′ ′

− , p =

q = 2I/ω sin ϕ 2ωI cos ϕ

π

π ′ ′

≤ ≤

− ϕ , e con la traslazione ϕ = π + ϕ si recuperano le (3.26), questa volta per

con 2 2

π 3π

≤ ≤

ϕ .

2 2 1

In conclusione, il dominio della trasformazione è I > 0, ϕ S , e l’hamiltoniana è mutata

nell’hamiltoniana integrabile H̃(I, ϕ) = h(I) = ωI.

All’integrale completo (3.23) della (3.22) si arriva facilmente scrivendo

p

∂S 2 2

± 2h ω

= q ,

∂q

prendendo poi h(α) = αω; una quadratura dà allora banalmente la (3.23). La scelta h(α) = αω,

si osservi, dà al parametro α le dimensioni di un’azione. Altre scelte di h(α) sono possibili, in

particolare si può prendere h stessa come costante libera; in questo caso al posto delle variabili di

azione–angolo sopra costruite si ottengono le variabili energia–tempo (h, τ ). Vale la pena di vederlo

in dettaglio nel caso più generale di un sistema eventualmente anisocrono, come il pendolo.

B. Esempio: le variabili di energia–tempo per il pendolo.

Riprendiamo il pendolo (o un qualunque altro sistema con un grado di libertà che esegua moti

periodici). L’equazione di Hamilton–Jacobi si scrive

∂S

1 2 + V (q) = h ,

2 ∂q

da cui segue p

∂S −

± 2(h V (q)) .

=

∂q

Ci limitiamo qui al segno più, ma tutto si estende come indicato sopra anche al segno meno. Come

parametro α prendiamo h stessa, e vediamo che allora l’equazione di Hamilton–Jacobi fornisce

proprio le variabili energia–tempo (h, τ ) del pendolo introdotte nel paragrafo 3.2. La generatrice

S(h, q), con questa scelta, prende la forma Z p

q −

2(h V (x)) dx ;

S(h, q) = 0 24

la condizione di invertibilità (2.22) è soddisfatta,

2

∂ S 1

p 6 = 0 ,

=

∂h∂q −

2(h V (q))

24 Sui punti di inversione (i punti q tali che V (q) = h, cosicché q̇ = p = 0) c’è un’evidente singolarità, ma i punti si

recuperano poi per continuità.

3.5 — L’equazione di Hamilton–Jacobi 49

e la trasformazione (in forma implicita) si scrive Z

p q

∂S dx

∂S p

2(h V (q)) , τ = .

= =

p = ∂q ∂h −

2(h V (x))

0

Per inversione nella prima e sostituzione nella seconda si ottengono le espressioni esplicite di h e τ

in funzione di p e q: Z q

2

p dx

p

h = ,

+ V (q) = H(p, q) , τ =

2 −

2(H(p, q) V (x))

0

e queste sono proprio le coordinate energia–tempo precedentemente introdotte. Da queste, come

si è visto sopra, si passa poi all’occorrenza alle coordinate di azione–angolo.

C. Esempio: il moto centrale piano.

Consideriamo il moto centrale piano già brevemente trattato nel paragrafo 3.3; l’hamiltoniana

H(p , p , r, ϑ), di fatto indipendente da ϑ, è la (3.15), con V e come in figura 10, e l’equazione

V

r ϑ

ridotta di Hamilton–Jacobi si scrive

1 ∂S 1 ∂S

2 2

+ + V (r) = h .

2

2 ∂r 2r ∂ϑ

Ci proponiamo di risolvere questa equazione per costruire coordinate (h, l, τ, ψ), in cui h e τ sono

energia e tempo, l è il momento angolare p , mentre ψ è una opportuna variabile angolare coniugata

ϑ

a l. In un secondo momento passeremo da queste variabili alle variabili di azione–angolo che stiamo

cercando.

Cerchiamo allora un integrale completo dell’equazione che sia lineare in ϑ, precisamente che sia

25

della forma S(h, l, r, ϑ) = l, r) + lϑ , (3.27)

S(h,

ove h e l sono le costanti da cui l’integrale competo dipende, ovvero i nuovi momenti; questa forma

∂S

di S assicura infatti che sia, come vogliamo, p = = l. L’equazione di Hamilton–Jacobi si riduce

ϑ ∂ϑ

allora a 2

∂S l

1 2 + + V (r) = h ,

2

2 ∂r 2r

e in questa equazione si riconosce l’equazione di Hamilton–Jacobi del problema a un grado di libertà

2 2

p l

r

, r, l) = + l) , l) = + V (r) ,

H(p V(r, V(r,

r 2

2 2r

che si ottiene dal problema di partenza di Hamiltoniana (3.15) fissando il valore l del momento

angolare p . Possiamo allora procedere come abbiamo fatto sopra per il pendolo: ricaviamo

ϑ p

∂S ± −

= 2(h l)) ,

V(r,

∂r

25 Questa forma di S si presenta spontanea se si segue il metodo, tipico in diverse equazioni alle derivate parziali,

della separazione delle variabili. Precisamente si cerca S della forma S = + (ϑ) (si separa la dipendenza da r

S(r) S

e da ϑ), cosicché l’equazione di Hamilton–Jacobi si scrive

2 2

∂S 1 ∂S

1 + + V (r) = h .

2

2 ∂r 2r ∂ϑ ′

Si osserva subito che il secondo termine deve essere indipendente da ϑ (tutti gli altri lo sono), ovvero deve essere

S

lineare in ϑ, = lϑ; il coefficiente di proporzionalità l si usa come costante dell’integrale completo. Si giunge cosı̀

S

alla (3.27), ove si sono inseriti tra gli argomenti di S anche le costanti h e l.

3.5 — L’equazione di Hamilton–Jacobi 50

e limitandoci per semplicità al segno ‘+’:

Z p

r ′

l, r) = 2(h , l)) dr .

S(h, V(r

r (h,l)

min

Questa generatrice produce la trasformazione canonica, scritta in variabili miste,

Z

p r ′

∂S dr

∂S p

= =

2(h l)) , τ = , (3.28)

p = V(r,

r ∂r ∂h ′

2(h , l))

V(r

r (h,l)

min

cui si aggiungono, riprendendo S completa e denotando con ψ la variabile angolare coniugata a l,

le equazioni Z ∂V ′

r (r , l)

∂S

∂S ′

∂l

p

= l, ψ = = ϑ

p = dr . (3.29)

ϑ ∂ϑ ∂l ′

2(h , l))

V(r

r min

Le espressioni (3.28) e (3.29) si invertono senza difficoltà, fornendo h, l, τ e ψ in funzione di p , p ,

r ϑ

r e ϑ: 2

p r + p ) = H(p , p , r, ϑ)

h = V(r, r

ϑ ϑ

2

l = p ϑ

Z r ′

dr

p

τ = ′

2(h , p )

V(r

r (h,p ) ϑ

min ϑ

Z ∂V ′

r (r , p )

ϑ ′

∂l

p

ψ = ϑ dr ,

2(h , p ))

V(r

r (h,p ) ϑ

min ϑ

ove si intende che h, nelle ultime due, è sostituito da H(p , p , r, ϑ). (La dipendenza di H da ϑ è

r ϑ

puramente formale, di fatto H non ne dipende.) Corrispondentemente si ha

H̃(h, l, τ, ψ) = h . −

Un attimo di riflessione mostra che l’integrale nell’espressione per ψ è l’avanzamento ϑ ϑ del-

0

∂V = ϑ̇,

l’angolo ϑ nel tempo in cui il raggio passa dal valore r del perielio a r: si ha infatti

min

√ ∂l

2h V = p = ṙ, da cui segue subito

r Z

Z t

r ϑ̇ ′ −

ϑ̇ dt = ϑ(t) ϑ ;

dr = 0

ṙ t

r 0

min

si è denotato con t l’istante del passaggio al perielio (r(t ) = r ) e con ϑ = ϑ(t ) il corrispondente

0 0 min 0 0

valore di ϑ. Si ha cosı̀ ψ = ϑ ,

0

costante nel tempo: come d’altra parte deve essere se si guarda alla forma dell’hamiltoniana, in

base alla quale solo τ avanza con velocità τ̇ = 1 mentre le altre variabili non si muovono.

Come per il pendolo (paragrafo 3.2), possiamo ora utilmente passare dalle variabili di energia–

tempo (h, τ ) a variabili di azione–angolo (I , ϕ ), ponendo

1 1 Z p

r

τ 1 max −

ϕ = 2π , I = 2(h l)) dr ; (3.30)

V(r,

1 1

T (h, l) π r min

3.5 — L’equazione di Hamilton–Jacobi 51

la trasformazione si completa canonicamente sull’altro grado di libertà scrivendo la generatrice

(della trasformazione inversa), che denotiamo ancora con S,

Z p

r

ϕ max

1 − .

S(h, l, ϕ , ϕ ) = 2(h l) dr + l ϕ

V(r, 2

1 2 π r min

Questa generatrice dà le (3.30) e inoltre fornisce Z ∂V (r, l)

r

ϕ max ∂p

1 ϑ

p

I = l , ψ = ϕ dr ;

2 2 π −

2(h l))

V(r,

r min

in particolare I = p . Procedendo come sopra, si trova che l’integrale vale

2 ϑ Z r ϑ̇ ∆ϑ

max dr = ,

ṙ 2

r min

ove ∆ϑ denota l’avanzamento dell’angolo ϑ tra due passaggi successivi al perielio. Se denotiamo

con Θ l’avanzamento del perielio a ogni passaggio, allora ∆ϑ = 2π + Θ; segue

Θ .

1 +

ϕ = ψ + ϕ

2 1 2π

Le (3.30), assieme a I = l = p e a questa espressione per ϕ , sono una scelta possibile di variabili

2 2

ϑ

di azione–angolo per il moto centrale. Per ottenere la scelta fatta nel paragrafo 3.3, che è quella

′ ′

più comune, occorre un ultimo ritocco, passando a nuove variabili di azione–angolo (I , ϕ ) cosı̀

definite:

′ ′

ϕ = ϕ I = I + I

1 1 2

1 1

, .

′ ′

ϕ = ϕ ϕ I = I

2 1 2

2 2

In particolare si ha Z q

′ )

r (h,I

1 max 2

′ ′

2(h I

I = )) dr + I . (3.31)

V(r,

1 2

2

π ′

r (h,I )

min 2

Rimuovendo gli apici si ottengono precisamente le variabili di azione–angolo introdotte nel paragrafo

3.3 per il moto centrale; il modulo che lı̀ appare nell’espressione di I tiene conto della possibilità

1

che p sia negativo.

ϑ

Quanto all’hamiltoniana si ha evidentemente H(I, ϕ) = h(I), con h(I) definita implicitamente

dalla (3.31). Per potenziali V e dunque generici non si ottiene un’espressione migliore. Nel

V

−k/r

caso kepleriano V (r) = tuttavia tutto si esplicita e si calcola (l’integrale è elementare). Non

occorrono nemmeno calcoli complicati, se si accetta di usare il fatto, ereditato dalla meccanica

newtoniana, che le orbite sono chiuse e il perielio non avanza (Θ = 0, ∆ϑ = 2π). Infatti dalla

(3.31) segue facilmente, derivando rispetto a I ,

2 ∆ϑ

∂I 1 −

= +1=0 ,

∂I 2π

h=cost

2

pertanto nel caso kepleriano il secondo membro della (3.31) è indipendente da I (I dipende

2 1

dall’energia h ma non dal momento angolare), e lo si può calcolare inserendovi il valore di I che si

2

preferisce. In particolare si può prendere il valore di I corrispondente al moto circolare di energia

2

√ −2h. Ma per i moti circolari r = r , cioè l’integrale si annulla, e in definitiva

h, I = k/ min max

2 2

k k

√ − .

I = , h = h(I ) =

1 1 2

2I

−2h 1

3.5 — L’equazione di Hamilton–Jacobi 52

D. L’equazione di Hamilton–Jacobi dipendente dal tempo.

Accenniamo per completezza alla vera e propria equazione di Hamilton–Jacobi (non ridotta). A

questo scopo osserviamo preliminarmente che se, come abbiamo supposto, l’hamiltoniana H sulla

quale intendiamo lavorare è indipendente dal tempo, allora la Proposizione 18 si può riformulare

nel seguente modo del tutto equivalente:

Nelle stesse ipotesi della Proposizione 18, la funzione

Proposizione 18’

′ −

S (p̃ , . . . , p̃ , q , . . . , q , t) = S(p̃ , . . . , p̃ , q , . . . , q ) t h(p̃ , . . . , p̃ )

1 n 1 n 1 n 1 n 1 n

genera una trasformazione canonica dipendente dal tempo, che coniuga l’hamiltoniana H all’ha-

miltoniana K = 0. ′

Si procede come per la Proposizione 18, ricordando che questa volta S dipende

Dimostrazione. ′

∂S

da t e dunque (proposizione 15) K = H w + .

∂t ′

Per capire, riprendiamo il caso dell’oscillatore armonico. La funzione generatrice S dipendente

dal tempo è ora Z p

q

′ 2 2

− −

S (I, q, t) = 2ωI ω x dx ωI t

0

e corrispondentemente si ha p

∂S 2 2

2ωI ω

=

p = q

∂q Z p

q

′ dx

∂S p − −

ωt = arcsin ω/2I q ω t .

=

ϕ = ∂I 2

2I/ω x

0 √ p

2ωI cos(ωt + ϕ), q = 2I/ω sin(ωt + ϕ). La nuova

Per inversione si ottiene senza difficoltà p = ˙ o

hamiltoniana è ora K(I, ϕ) = 0, pertanto le equazioni del moto I = 0, ϕ̇ = 0 sono risolte da I = I ,

o

ϕ = ϕ ; per sostituzione si riottiene l’integrale generale.

Alla Proposizione 18’ si può dare una formulazione più generale, adatta anche al caso di

dipendenza esplicita di H dal tempo. Premettiamo una definizione:

L’equazione alle derivate parziali

Definizione 10

∂S ∂S

∂S ,..., , q , . . . , q , t + = 0

H 1 n

∂q ∂q ∂t

1 n

per l’incognita S(q , . . . , q , t) è detta equazione di Hamilton–Jacobi associata all’hamiltoniana H.

1 n

Si dice poi integrale completo dell’equazione ogni famiglia di soluzioni S(α , . . . , α , q , . . . , q , t),

1 n 1 n

dipendente dagli n parametri α , . . . , α , tale che risulti

1 n

2

∂ S 6 = 0 .

det ∂α ∂q

i j ′

(Avendo a che fare con un’unica generatrice, abbiamo usato il simbolo S anziche S .) E’ allora di

immediata verifica la seguente

Se la funzione S(α , . . . , α , q , . . . , q , t) è un integrale completo dell’equazione di

Proposizione 19 1 n 1 n

Hamilton–Jacobi relativa a H, allora S(p̃ , . . . , p̃ , q , . . . , q , t) genera una trasformazione canonica

1 n 1 n

dipendente dal tempo (p, q) = w(p̃, q̃, t) che coniuga H a K identicamente nulla.

Non ci addentreremo ulteriormente in quest’argomento.

4.1 — Sistemi prossimi a sistemi integrabili 53

4 Introduzione alla teoria hamiltoniana delle perturbazioni

4.1 Sistemi prossimi a sistemi integrabili

Mentre i sistemi integrabili vanno considerati in qualche modo eccezionali, sono invece abbondanti

nel mondo fisico, e interessantissimi per la fenomenologia che presentano anche al di là dell’interesse

applicativo, i sistemi “prossimi” a sistemi integrabili. Con questo termine ci si riferisce a sistemi

che, nelle variabili di azione–angolo del sistema integrabile di riferimento, si possono scrivere nella

forma H (I, ϕ) = h(I) + εf (I, ϕ, ε) , (4.1)

ε

ove ε è un piccolo parametro. In questo contesto h è detta hamiltoniana imperturbata, mentre H e

ε

εf sono dette rispettivamente hamiltoniana perturbata e perturbazione. La Meccanica Celeste offre

moltissime situazioni di questo genere. Si pensi al Sistema Solare nella sua versione più semplice:

26

un Sole molto massivo e otto pianeti relativamente leggeri. Il rapporto tra la massa del pianeta

−3

×

più grande (Giove) e quella del Sole è piuttosto piccola, circa 0.95 10 ; una prima ragionevole

approssimazione è allora quella di trascurare le masse dei pianeti, riducendo cosı̀ il sistema a una

collezione di otto problemi di Keplero disaccoppiati. Il modello kepleriano puro che ne risulta è con

evidenza integrabile, e fornisce un ottimo problema imperturbato di partenza. Tenendo poi conto

della massa dei pianeti, o anche solo di alcuni di essi, si ottengono modelli perturbati della forma

(4.1). Il sistema si può complicare a piacere, introducendo satelliti, asteroidi, comete, o tenendo

conto che pianeti e satelliti non sono punti materiali ma corpi estesi (approssimativamente) rigidi.

Ma per avere un problema interessante, ricco di fenomenologia a volte stupefacente, e il cui studio

è altamente non banale, non occorrono sistemi complicati: come ben comprese Poincaré, bastano

tre soli corpi — ad esempio il Sole, Giove e un altro pianeta — per trovarsi di fronte alla possibilità

di moti davvero complessi, non facili nemmeno a immaginarsi, chiamati oggigiorno “moti caotici”.

Addirittura è sufficiente che il terzo corpo abbia massa trascurabile — il Sole, Giove e un asteroide

non in grado di modificare il moto dei due corpi maggiori — per trovarsi di fronte a domande

semplici (ben poste da secoli) cui tuttavia non si sa ancora rispondere compiutamente.

Al di fuori della Meccanica Celeste, troviamo ad esempio il problema del comportamento di

un sistema di oscillatori armonici debolmente accoppiati. E’ questo uno dei problemi più capil-

larmente diffusi in ambito fisico: ovunque si trovi qualche cosa che oscilli attorno a un equilibrio

stabile, la descrizione di prima approssimazione che si ottiene linearizzando il problema (si riveda

su un qualunque testo la trattazione delle piccole oscillazioni in ambito lagrangiano) è quello di

un insieme di n oscillatori armonici debolmente accoppiati da termini cubici o di ordine superiore;

corrispondentemente nel linguaggio hamiltoniano · · ·

H(p, q) = H (p, q) + V (q) + V (q) +

2 3 4

ove n

X

1 2 2

H (p, q) = ω (p + q ) ,

2 i i i

2 i=1

mentre V , s 3, denota un polinomio omogeneo di grado s nelle q. Per studiare il moto in un

s

piccolo intorno di raggio ε del punto di equilibrio (p, q) = (0, 0) conviene effettuare il riscalamento

26 Il 24/8/2006 l’Unione Astronomica Internazionale ha declassato Plutone da “pianeta” a “pianeta nano”, nuova

categoria di cui fanno parte anche Cerere (promosso: prima era considerato un asteroide) e pochi altri oggetti

trans–nettuniani.

4.1 — Sistemi prossimi a sistemi integrabili 54

(canonico, ma non strettamente canonico)

p = εp̃ , q = εq̃ ,

−2

che dà alla nuova hamiltoniana K (p̃, q̃) = ε H(εp̃, εq̃) la forma

ε 2 · · ·

K (p̃, q̃) = H (p̃, q̃) + εV (q̃) + ε V (q̃) + ,

ε 2 3 4

questa volta in un dominio di diametro indipendente da ε. L’introduzione delle variabili di azione–

27

angolo dei singoli oscillatori conduce evidentemente a una hamiltoniana della forma (4.1).

Il problema principale di fronte a una hamiltoniana della forma (4.1) riguarda il comportamento,

su tempi lunghi, delle variabili di azione. Riprendendo l’esempio del Sistema Solare, e assumendo

per semplificare che il sistema sia esattamente piano, questo vuol dire chiedersi cosa avvenga, su

tempi lunghi, dell’energia E e del momento angolare m di ciascun pianeta, ovvero, equivalente-

28

mente, dei parametri geometrici — semiasse maggiore e minore — delle loro ellissi. Si possono

ipotizzare, schematicamente, due scenari: uno minimale, in cui queste quantità, non più costanti,

si limitano tuttavia a oscillare in modo più o meno regolare con oscillazioni piccole per ε piccolo.

L’altro più drammatico, in cui l’accumularsi nel tempo degli effetti della perturbazione produce,

in aggiunta a possibili oscillazioni, una deriva magari molto lenta ma sistematica delle costanti del

moto, che “nel corso dei secoli” potrebbero subire cambiamenti vistosi: fino alla fuoriuscita di un

pianeta dal sistema, o alla sua caduta sul Sole (“fenomeni secolari”, nella terminologia tradizionale

della Meccanica Celeste).

Riprendendo l’esempio degli oscillatori armonici debolmente accoppiati da termini nonlineari,

una domanda naturale, in effetti cruciale per la Meccanica Statistica classica, riguarda l’efficacia

della perturbazione nel produrre rilevanti scambi di energia tra i diversi oscillatori, onde soddisfare

uno dei principi cardini della Meccanica Statistica classica, il principio di equipartizione dell’energia

(si rimanda per questo ai testi di Meccanica Statistica). Molto interessante è anche il problema della

stabilità dei punti lagrangiani triangolari L e L (esercizio 22, appendice E). In questo caso infatti,

4 5

come si è detto, le pulsazioni ω che compaiono nell’hamiltoniana H non hanno segno concorde,

i 2

e di conseguenza la stabilità dell’equilibrio è strettamente legata alla conservazione separata delle

tre energie armoniche.

Problemi analoghi si trovano per altri sistemi prossimi a sistemi integrabili, ad esempio per il

corpo rigido di Eulero–Poinsot perturbato. Tra le applicazioni più belle, ricordiamo il problema

della precessione degli equinozi: il corpo rigido è la Terra, il punto di sospensione è il baricentro, la

29

perturbazione è quella prodotta dal Sole e dalla Luna. E’ abbastanza noto che in prima appros-

27 In questo caso tuttavia la perturbazione non è regolare, come funzione delle azioni, quando una o più di esse si

√ . E’ un fastidio (non una

annullano: potenze dispari di q comportano infatti la presenza di termini contenenti I i

i

vera difficoltà) cui si rimedia, del quale in queste note non ci occuperemo.

28 Più precisamente, delle “ellissi osculatrici”, cioè che si avrebbero se improvvisamente la perturbazione sparisse.

29 Il primo a comprenderlo fu Ipparco di Nicea (190 – 120 a.C.; la scoperta della precessione è databile attorno al

130). Ipparco aveva a disposizione un catalogo con le coordinate celesti di alcune stelle fisse, risalente a circa 170

anni prima; compilando un nuovo catalogo osservò uno spostamento sistematico della longitudine delle stelle di circa

2 . Con intuizione straordinaria comprese il fenomeno: una precessione dell’equatore celeste (la proiezione sulla sfera

celeste dell’equatore terrestre) relativamente all’eclittica (la curva percorsa dal Sole sulla sfera celeste nel corso di un

anno, fissa nella sfera celeste), e conseguentemente la precessione lungo l’eclittica dei punti equinoziali (intersezioni

′′

delle due curve). Ipparco fornı̀ per la precessione il valore straordinariamente preciso di 46 di arco per anno (il valore

corretto è 50.26), e corrispondentemente poté calcolare accuratamente la differenza tra anno sidereo e anno tropico.

Si tratta della scoperta astronomica più importante dell’astronomia antica. Sfortunatamente l’opera di Ipparco,

Sullo spostamento dei segni solstiziali ed equinoziali, è andata perduta, ma il risultato e il metodo da lui adottato

(ingegnosissimo: la posizione del Sole sulla sfera celeste è dedotta dalla posizione della Luna in corrispondenza alle

eclissi di Luna, quando Sole, Terra e Luna sono allineati) ci sono pervenuti attraverso l’Almagesto di Tolomeo.

4.2 — La “stima a priori” 55

simazione, per effetto delle perturbazioni congiunte di Sole e Luna, l’asse terrestre e il momento

angolare (quasi paralleli) precedono attorno alla perpendicolare al piano dell’orbita, con un periodo

di circa 26 000 anni. Come si fa il calcolo? E soprattutto: entro che limiti il fenomeno è compre-

so? Si possono escludere variazioni significative dell’inclinazione dell’asse terrestre? Sono domande

difficili, alcune molto difficili, alle quali la comunità dei fisici matematici e dei meccanici celesti

ancora non è in grado di dare risposte esaurienti. L’appendice I riporta la deduzione (in una certa

approssimazione) della “formula classica” per la precessione degli equinozi, che conduce alla stima

sopra citata del periodo di precessione della Terra.

4.2 La “stima a priori”

Supponiamo di avere un sistema hamiltoniano H prossimo a un sistema imperturbato H ,

ε 0

H (p, q) = H (p, q) + εf (p, q) ,

ε 0

ma di non avere particolari informazioni su H (in particolare, di non sapere sapere se H sia

0 0

o meno integrabile). In generale, la vicinanza delle hamiltoniane, e dunque delle equazioni del

moto, non garantisce la vicinanza delle soluzioni se non per tempi brevi: l’unica informazione di

carattere generale infatti deriva (per i sistemi hamiltoniani come per qualunque altro sistema di

equazioni differenziali) dal teorema di regolarità delle soluzioni al variare dei parametri: denotando

brevemente, per un fissato dato iniziale (p, q), tH

tH (p, q), Φ (p, q)) ,

d (t) = dist (Φ

ε ε 0

30

il teorema garantisce stime a priori del tipo λ|t|

d (t) C ε e

ε

con C, λ costanti positive (λ è la costante di Lipschitz del problema, e fornisce col suo inverso

un’unità di tempo naturale). Tale stima è molto povera, e non dice praticamente più niente dopo

31

il tempo, breve per ogni ε fisicamente sensato, −1 −1

|t| ∼ λ log ε . (4.2)

Le cose cambiano in modo sostanziale se stiamo perturbando un sistema integrabile, come nella

(4.1). Questo è evidente soprattutto se si guarda al comportamento delle azioni. Le equazioni del

moto per l’hamiltoniana H sono infatti della forma

ε ∂f

˙ −

I = ε

j ∂ϕ j

∂f ;

ϕ̇ = ω (I) + ε

j j ∂I j

si vede allora che le azioni nel sistema perturbato evolvono lentamente, con velocità proporzionale

a ε: più precisamente, rivoltando in forma integrale l’equazione differenziale per le azioni, cioè

scrivendo Z t ∂f

I (t) = I (0) ε (I(t), ϕ(t))dt , (4.3)

j j ∂ϕ j

0

30 Non sono stime pessimistiche ma realistiche in casi concreti, ad esempio in prossimità del punto di equilibrio

instabile del pendolo, se la perturbazione cambia ω in ω + ε.

31 La funzione log x notoriamente diverge per x → ∞. Ma per qualunque grandezza x fisicamente immaginabile

log x non è mai grande (se x è il rapporto tra il diametro dell’Universo e il diametro di un protone, log x < 100).

4.2 — La “stima a priori” 56

32

si ottiene facilmente una stima a priori del tipo

|I − |t|

(t) I (0)| < Cε , (4.4)

j j

∂f |

| nel dominio ove si svolge il moto e su j. Dal momento che nel sistema

ove C è il massimo di ∂ϕ j

imperturbato si ha I (t) = I (0), la (4.4) si legge anche come lento scostamento nel tempo della

j j

dinamica perturbata da quella imperturbata, limitatamente al comportamento delle azioni. La

scala di tempo sulla quale le azioni evolvono in maniera significativa, o equivalenemente il loro

moto differisce dal moto imperturbato, è ora 1

|t| ∼ , (4.5)

ε

ben più lunga della (4.2) per ε piccolo. Su scale di tempo più brevi (ma sempre lunghe per ε

√ − ∼

|t| ∼ |I (t) I (0)|

piccolo), ad esempio 1/ ε, le azioni variano di quantità piccole con ε, ε.

j j

Le variabili di azione sono dette variabili lente del sistema. Al contrario, come mostrano le

equazioni del moto, gli angoli (salvo il caso in cui una o più pulsazioni si annullino) evolvono

su una scala di tempo breve; anzi, fintantoché le azioni si discostano di poco dal valore iniziale,

anche le velocità angolari si mantengono pressoché costanti, e dunque gli angoli ruotano, in prima

approssimazione, in modo uniforme. Le variabili angolari sono dette variabili veloci del sistema.

• La separazione delle variabili in lente e veloci è però più delicata di quello che sembra. Ad

esempio, se per un particolare valore di I si ha ω = ω , allora ϕ e ϕ sono veloci, ma la

1 2 1 2

loro differenza ϕ ϕ è lenta; più in generale, se le pulsazioni soddisfano una relazione di

1 2

risonanza n

· · · ∈

k ω + k ω + k ω = 0 , k = (k , . . . , k ) , (4.6)

Z

1 1 2 2 n n 1 n

P k ϕ è lenta. Come si vedrà nel prossimo

allora la corrispondente combinazione di angoli i i

i

paragrafo, la presenza di tali variabili lente “nascoste” è una potenziale sorgente di difficoltà

nella teoria delle perturbazioni. |ϕ −

Si dia una “stima a priori” sugli angoli: (t, ε) ϕ (t, 0)| < . . . [Risposta: si trova

Esercizio 38 j j

′ 2

una stima del tipo cεt se ω è costante, ε(ct+c t ) se ω dipende da I. Suggerimento per quest’ultimo

caso, un po’ complicato: si scriva ω̇ (I), poi ω (I(t)) in forma di integrale in t, infine ϕ (t, ε) come

j j j

integrale di ϕ̇ in t; interviene un integrale doppio, stimabile con l’area del dominio di integrazione

2

∼ t per il massimo della funzione integranda.]

Stime come la (4.4) e la (4.5) si sono ottenute senza davvero lavorare, solo sapendo che il

sistema imperturbato è integrabile. E’ spontaneo allora chiedersi se con una analisi più approfondita

non si possa far di meglio. Ci sono buoni motivi per crederlo: la stima (4.4) infatti si ottiene

dall’equazione integrale (4.3) supponendo, pessimisticamente, che gli effetti della perturbazione

∂f

ε vadano sommandosi; viceversa, è chiaro che sono possibili significative compensazioni: infatti il

∂ϕ j ∂f

termine , essendo la derivata rispetto a un angolo di una funzione periodica, ha necessariamente

∂ϕ j

32 n

Questa stima, che potrebbe apparere euristica, si rende rigorosa nel modo seguente: sia D = B × il dominio

T

di H , e sia

ε ∂f

sup max = C< ∞ .

∂ϕ

1≤j≤n j

(I,ϕ)∈D

Per I(0) che disti dal bordo di B piu di ∆ si deduce subito, dalla (4.3), la (4.4), per |t| ≤ ∆/(Cε).

4.3 — Il “principio della media” 57

33

media sugli angoli nulla, e dunque è presumibile che la perturbazione, nel corso del tempo, abbia

segno alterno; quantomeno, è una possibilità da esplorare con attenzione.

Lo studio della dinamica dei sistemi prossimi a sistemi integrabili, su scale di tempo di ordine 1/ε

o maggiori, è l’oggetto della teoria hamiltoniana delle perturbazioni, che si applica, sostanzialmente,

ogniqualvolta vi siano, in un sistema hamiltoniano, variabili che evolvono su scale di tempo ben

separate (le idee di fondo tuttavia, come avremo modo di accennare, prescindono dal carattere

hamiltoniano del sistema, e sono profonde e più generali). La teoria delle perturbazioni è nata

a cavallo tra ’700 e ’800 principalmente ad opera di Lagrange e Laplace, in connessione ai moti

planetari. Nel corso dell’800 l’introduzione del formalismo hamiltoniano, e soprattutto della nozione

di sistema integrabile da parte di Liouville, ha contribuito in modo decisivo al suo progresso, e si

può dire che la teoria sia giunta a una prima maturazione, un secolo dopo la sua nascita, con il

grosso lavoro di Poincaré. Un ulteriore salto qualitativo, assai rilevante anche per le sue implicazioni

fisiche (ancora non abbastanza esplorate), si è avuto soprattutto a seguito dell’attività della scuola

russa, negli anni ’60 e ’70 del novecento.

Procederemo cosı̀: nel prossimo paragrafo discuteremo brevemente l’idea principale della teoria

delle perturbazioni, introducendo il cosiddetto “principio della media”. Poi tratteremo in detta-

glio un esempio elementare “isocrono”, precisamente il caso di n oscillatori armonici debolmente

accoppiati da una perturbazione “facile”, generalizzadolo progressivamente a sistemi isocroni più

complessi. Poi ancora cercheremo di capire, attraverso un esempio significativo, il caso, piu com-

plesso ma anche più interessante, dei sistemi non isocroni. Infine illustreremo alcuni tra i maggiori

risultati della teoria.

4.3 Il “principio della media”

Raccogliamo qui l’idea, adombrata verso la fine del paragrafo precedente, che si possa progredire

nello studio di un sistema per tempi lunghi (1/ε o maggiori) tenendo conto di possibili compensa-

zioni negli effetti della perturbazione, più precisamente mettendo in evidenza un eventuale “effetto

medio” della perturbazione, dominante su tempi lunghi. Questa idea è nota in letteratura con il

34

nome di principio della media, vera anima della teoria delle perturbazioni. In questo paragrafo

cercheremo di introdurre l’idea principale in modo critico, basandoci soprattutto su esempi.

A. Il sistema mediato.

Per maggior chiarezza, conviene impostare il problema in ambito più generale di quello hamil-

toniano, che con le sue peculiarità maschera un po’ l’idea centrale. Consideriamo per questo un

sistema di equazioni differenziali in m + n variabili della forma

˙

I = εF (I, ϕ) , ϕ̇ = ω(I) + εG(I, ϕ) , (4.7)

∂f

33 è

Se non fosse chiaro: si prenda per semplicità il caso di un solo angolo; la media di ∂ϕ

Z

1 ∂f 1

dϕ = [f (2π) − f (0)] = 0 .

2π ∂ϕ 2π

0

La generalizzazione a n angoli è ovvia.

34 Non soltanto: c’è una classe molto ampia di problemi fisici in cui si passa da una descrizione microscopica

dettagliata a una descrizione su scala più macroscopica, tramite una operazione di media su variabili rapidamente

fluttuanti. Si pensi alla nozione di pressione in un gas, o al passaggio dalla meccanica microscopica alle equazioni

macroscopiche dell’idrodinamica (come le equazioni di Eulero dei fluidi ideali). Un altro esempio è dato dal procedi-

mento sistematico di decimazione delle variabili nei metodi di tipo “gruppo di rinormalizzazione”, per le transizioni

di fase o le teorie quantistiche di campo. Una bella rassegna è in N.G. Van Kampen, On the elimination of fast

variables, Phys. Rep. 69–160 (1985).

124,

4.3 — Il “principio della media” 58

m n

∈ ∈

ove I = (I , . . . , I ) , ϕ = (ϕ , . . . , ϕ ) . Nel caso di un sistema hamiltoniano quasi

R T

1 m 1 n

integrabile, con hamiltoniana della forma (4.1), si ha evidentemente m = n e

∂h ∂f ∂f

ω = , F = , G = .

∂I ∂ϕ ∂I

La (4.7) mostra che per ε piccolo le variabili I sono lente, mentre gli angoli ϕ sono veloci. In

queste condizioni è naturale scomporre F in una parte media e una parte oscillante:

Z

Z 2π

−n · · ·

··· F (I, ϕ) dϕ dϕ ,

F (I, ϕ) = + F (I, ϕ) , = (2π)

F(I) F(I) 1 n

osc 0

0

e pensare che in qualche modo, se ε è piccolo, la parte oscillante F dia luogo a compensazioni e

osc

perciò contribuisca marginalmente al moto delle variabili lente, e invece il termine medio dia un

F

contributo sistematico dominante su tempi lunghi. Ha senso allora considerare, accanto al sistema

“vero” (4.7), il sistema mediato ˙

J = εF(J) , (4.8)

o o

e chiedersi che relazione vi sia tra le soluzioni J (t) e I (t) a parità di dato iniziale J = I . Si

ε ε

∼ ≪

osservi che il confronto è interessante solo su tempi t 1/ε o maggiori (infatti per t 1/ε né I né

J si staccano apprezzabilmente dal valore iniziale comune, e dunque banalmente sono anche vicini

tra loro), e che su tali tempi lo studio del sistema mediato (4.8) è molto più semplice di quello

del sistema completo (4.7): non tanto perché (cosa pur sempre utile) il sistema mediato contiene

solo m variabili, ma soprattutto perché per esso 1/ε è una unità naturale di tempo, mentre per il

sistema vero, a causa del moto veloce degli angoli, 1/ε è un tempo molto lungo (si rifletta su questo

35

punto). Ci chiediamo allora se, ed eventualmente a quali condizioni, si ha

− → →

I (t) J (t) 0 per ε 0

ε ε

in tutta la scala di tempo t 1/ε.

Se ciò avviene per ogni dato iniziale, si dirà che il sistema “soddisfa il principio della media” al

primo ordine in ε (primo ordine perché relativo alla scala di tempo 1/ε). Una definizione formale

è questa: Diremo che il sistema (4.7) soddisfa il principio della media al primo ordine in ε,

Definizione 11 o o

se esiste t > 0 tale che per ogni dato iniziale (I , ϕ ) la soluzione (I (t), ϕ (t)) e la soluzione J (t)

0 ε ε ε

o o

dell’equazione mediata (4.8) con dato iniziale J = I sono tali che

kI − → →

max (t) J (t)k 0 per ε 0 .

ε ε

|t|≤t /ε

0

Infine, osserviamo che nel caso hamiltoniano il sistema mediato è banale: per i sistemi hamiltoniani

∂H

si ha infatti F = con H periodica in ϕ, e dunque = 0, perciò la soluzione dell’equazione

F

∂ϕ o

mediata non è altro che J (t) = I . Il modo appropriato di formulare la questione in ambito

ε

hamiltoniano è allora quello di chiedersi se le azioni, che sono costanti del moto per ε = 0, per

ε piccolo e t 1/ε evolvano significativamente, o invece, a somiglianza dell’equazione mediata,

o

restino vicine al valore iniziale I . La figura 17 illustra simbolicamente l’ipotesi di lavoro che sta

dietro al principio della media, nel caso generale (a) e hamiltoniano (b).

35 Si pensi di dover risolvere numericamente le equazioni differenziali del moto. Come andrebbe preso, per il sistema

vero e per quello mediato, il passo di integrazione? Come cambiano il costo e l’affidabilità del risultato?

4.3 — Il “principio della media” 59

a b

( ) ( )

( )

t

I ( )

J t ( )

t

I o

( )

J t I

=

o

I "

t 1/

" t

1/

Figura 17: L’ipotesi di lavoro su I (t) e J (t) secondo il principio della media, nel caso

ε ε →

generale (a) e hamiltoniano (b). Le oscillazioni si schiacciano a zero per ε 0.

B. esempi.

Diamo qui alcuni esempi elementari, presi ad eccezione del primo dal mondo hamiltoniano, utili

a valutare il principio della media in modo critico.

(i) Per m = n = 1 consideriamo il sistema

˙

I = ε(a + b cos ϕ) , ϕ̇ = ω . ˙

o o

La soluzione è immediata: si ha infatti ϕ(t) = ϕ + ωt, e dunque I = ε(a + b cos(ϕ + ωt)), da cui,

6

se ω = 0, Z t εb o o

o ′ ′ o −

( sin(ϕ + ωt) sin ϕ ) .

(a + b cos(ϕ + ωt )) dt = I + ε a t +

I(t) = ε ω

0 ˙ o o

D’altra parte l’equazione mediata J = εa, con dato iniziale J(0) = I , è risolta da J(t) = I + εat.

Il principio della media è pertanto soddisfatto (per ogni t, non solo fino al primo ordine). Se ω = 0

o o

la soluzione per la I è I(t) = I + εat + εb cos(ϕ )t, e il principio non è soddisfatto: ma in questo

caso cade evidentemente il presupposto che l’angolo ϕ sia una variabile veloce.

(ii) Per n = 2 consideriamo il sistema (particolarissimo: parte imperturbata lineare nelle I,

perturbazione indipendente da I) −

H (I, ϕ) = ω I + ω I + ε cos(ϕ ϕ ) .

ε 1 1 2 2 2 1

La soluzione (grazie alla particolarità) si scrive esplicitamente: si ha infatti banalmente ϕ̇ = ω , e

i i

oi + ω t; sostituendo nell’equazione delle azioni si trova allora

dunque ϕ (t) = ϕ i

i ˙ ˙

o o o o

−ε − − − −

I = sin(ϕ ϕ + (ω ω )t) , I = +ε sin(ϕ ϕ + (ω ω )t) .

1 2 1 2 2 1

2 1 2 1

Queste equazioni si integrano immediatamente e danno

o o −

I (t) = I + ε , I (t) = I ε ,

I(t) I(t)

1 2

1 2

con  o o o o

− − − −

cos(ϕ ϕ + (ω ω )t) cos(ϕ ϕ )

 2 1

2 1 2 1 6

per ω = ω

1 2

ω ω

= .

I(t) 2 1

 o o

t sin(ϕ ϕ ) per ω = ω

1 2

1 2

4.3 — Il “principio della media” 60

6

Si vede cosı̀ che il principio della media è soddisfatto (alla grande, per tempi infiniti) se ω = ω ,

1 2

mentre fallisce per ω = ω . Se ne intuisce il motivo, e con esso la delicatezza della questione: benché

1 2

gli angoli ϕ e ϕ siano individualmente veloci, in condizioni di risonanza, ovvero per ω = ω , la

1 2 1 2

combinazione lineare ϕ ϕ non lo è, e proprio tale combinazione è presente nella perturbazione.

2 1

I prossimi esempi sono più sottili e il comportamento è meno intuitivo, perchè il sistema im-

perturbato non è più lineare e dunque le pulsazioni e le loro relazioni di risonanza dipendono dalle

azioni; soprattutto, in essi discuteremo del principio della media senza conoscere la soluzione esatta

(usare come sopra la soluzione esatta è un po’ barare, è una situazione troppo eccezionale).

(iii) Per n = 2 consideriamo il sistema 1 2 2 − −

(I + I ) ε cos(ϕ ϕ ) (4.9)

H (I, ϕ) = 2 1

ε 1 2

2

(due rotatori, con un potenziale che è minimo per ϕ = ϕ ). Non è difficile vedere che il principio

1 2

della media è sempre soddisfatto, addirittura per ogni t Una via per dimostrarlo è quella

R.

di osservare (procedendo come nel problema a due corpi) che la somma J = I + I (analoga alla

1 2

− −

quantità di moto del baricentro) resta costante; posto poi p = I I , ϑ = ϕ ϕ , si vede subito

2 1 2 1

che p, ϑ seguono le equazioni di un pendolo di pulsazione 2ε: infatti

˙ ˙

− −2ε − −2ε − −

ṗ = I I = sin(ϕ ϕ ) = sin ϑ , ϑ̇ = ϕ̇ ϕ̇ = I I = p .

2 1 2 1 2 1 2 1 √

12 1 − ε (si

Segue che le oscillazioni di p, e dunque di I = (J + p), I = (J p), sono limitate da cost

1 2 2

36

tracci il ritratto in fase). |p(t)−p(0)|

Si deduca, per il pendolo descritto dalle variabili p, ϑ, la disuguaglianza <

Esercizio 39

√ √

|p(t) −

4 2ε per le librazioni, p(0)| < 2 2ε per le rotazioni.

(iv) Per n = 2 consideriamo il sistema 1 2 2

− − −

(I I ) ε cos(ϕ ϕ ) . (4.10)

H (I, ϕ) = 2 1

ε 1 2

2

La differenza rispetto al caso precedente (un segno meno nella parte cinetica) può apparire margi-

nale, invece è molto significativa. Si vede infatti che esistono particolari moti che non soddidsfano

il principio della media. Per scovarli, osserviamo innanzitutto che (come del resto nell’esempio pre-

cedente) la somma I + I è una costante del moto: lo si verifica subito, ed è ovvio data l’invarianza

1 2

di H per traslazione degli angoli. Le rette I + I = c

1 2

36 Un altro modo di vederlo è quello di introdurre una trasformazione canonica adattata al problema, in cui la

combinazione angolare ϕ − ϕ presente nell’hamiltoniana coincida con uno dei nuovi angoli, ad esempio ϕ̃ = ϕ ,

2 1 1 1

˜

ϕ̃ = ϕ − ϕ ; la trasformazione completa (I, ϕ) = w( I, ϕ̃) si scrive

2 2 1 ˜ ˜

ϕ = ϕ̃ I = I − I

1 1 1 1 2 ,

, ˜

ϕ = ϕ̃ + ϕ̃ I = I

2 1 2 2 2

e la nuova hamiltoniana si trova subito essere 2

1 1 1

˜ ˜ ˜ ˜

˜

˜ ˜ ˜ ˜ ˜

2 2 2

H̃( I, ϕ̃) = h( I) − ε cos ϕ̃ , con h( I) = I −

I ) =

( I + 2 I − 2 I I I .

+

2 2

2

1 1

1 2 1

2 2 4 √

˜ ˜ 2ε,

Si vede allora che I resta esattamente costante, mentre I , ϕ̃ si muovono come in un pendolo di pulsazione

1 2 2

˜ ˜

12

solo con I che oscilla attorno a I anziché attorno allo zero. La conclusione, come sopra, è immediata.

2 1

4.4 — Sistemi isocroni perturbati: un passo perturbativo 61

sono pertanto invarianti e il moto si svolge obbligatoriamente su una di esse. Tra queste c’è la

retta risonante, o retta lenta, I + I = 0, sulla quale la combinazione di angoli ϕ ϕ non evolve:

1 2 2 1

o o

− −I − −I

infatti ϕ̇ ϕ̇ = I = 0. Dunque per dati iniziali su questa retta, I = , si resta sulla

2 1 2 1 2 1

retta e si ha o o

− −

ϕ (t) ϕ (t) = ϕ ϕ ;

2 1 2 1

˙ ˙ o o

− −

segue immediatamente I = I = ε sin(ϕ ϕ ) e dunque

1 2 2 1

o o o o o o

− − −

I (t) = I + εt sin(ϕ ϕ ) , I (t) = I εt sin(ϕ ϕ ) . (4.11)

1 2

1 2 1 2 2 1

Il principio della media non è soddisfatto. La soluzione si completa sugli angoli con

1 1

o o 2 o o o o 2 o o

− − −

ϕ (t) = ϕ + I t + εt cos(ϕ ϕ ) , ϕ (t) = ϕ I t + εt cos(ϕ ϕ ) ; (4.12)

1 2

1 1 2 1 2 2 2 1

2 2

per esercizio si può verificare che le (4.11), (4.12) risolvono le equazioni di Hamilton.

• Il punto cruciale è che in questo esempio, a differenza del precedente che pure ha le medesime

˙

rette invarianti, il vettore I è parallelo anziché perpendicolare alla retta risonante, perciò

il moto delle azioni mantiene la relazione di risonanza. Il segno meno nell’hamiltoniana

imperturbata gioca per questo un ruolo essenziale.

Si riprenda l’esempio (iii) e si mostri che per dati iniziali sulla retta risonante (qui

Esercizio 40

I I = 0) il moto delle I è trasverso alla retta. Si verifichi che il risultato si mantiene anche

1 2 − ·

se a ϕ ϕ si sostituisce, ad argomento del coseno, qualunque altra combinazionme lineare k ϕ.

2 1

Si verifichi che la trasversalità si mantiene sostituendo alla parte cinetica una diversa funzione

2

convessa di I e I , o anche una funzione come I + I .

1 2 1 2

Si consideri l’hamiltoniana

Esercizio 41 1 2 2

− − −

H (I, ϕ) = (aI I ) ε cos(3ϕ 2ϕ ) ;

ε 1 2

1 2

2

si determini un valore di a per cui è violato il principio della media, scrivendo esplicitamente

una famiglia di moti che lo viola. [Impostazione: tutte le rette 2I + 3I = c nel piano I I sono

1 2 1 2

invarianti; la retta lenta è 3aI +2I = 0, che è invariante se (3a, 2) e (2, 3) sono paralleli: 9a−4 = 0,

1 2

a = 9/4. Per scrivere i moti si procede come sopra. ]

Variante dell’esercizio: si consideri 1 2 2

− − ·

(I 4I ) ε cos(k ϕ)

H (I, ϕ) =

ε 1 2

2

e si determini k in modo tale che non sia soddisfatto il principio della media, scrivendo

esplicitamente una famiglia di moti che lo viola.

Più in generale: si studino i controesempi al principio della media fatti in questo modo. [Sono

12 2

2

2

2 −

le hamiltoniane della forma H (I, ϕ) = .]

/k

) ε cos(k ϕ + k ϕ ), con a /a = k

a I

(a I

ε 1 1 2 2 1 2

2

1 1

2

2

1

Infine, un bell’esempio non hamiltoniano in cui vale il principio della media è l’equazione di

Van der Pol; si veda per questo l’appendice H.

4.4 — Sistemi isocroni perturbati: un passo perturbativo 62

˜

˜ d I 2

Figura 18: Le variabili I evolvono con ε e a t = 1/ε si scostano da I(0)

dt dI ∼ ε), ma

al più di Le variabili I istantaneamente sono più rapide (

O(ε). dt

˜

restano agganciate entro ε alle I. Il principio della media è soddisfatto.

4.4 Sistemi isocroni perturbati: un passo perturbativo

Affrontiamo qui lo studio di un problema semplice, ma assolutamente non banale, attraverso il

quale illustriamo uno dei procedimenti più usati in teoria hamiltoniana delle perturbazioni per

studiare la stabilità delle azioni su tempi lunghi.

A. Il problema.

Consideriamo un sistema di n oscillatori armonici debolmente accoppiati, già scritto in variabili

di angolo azione: precisamente n

∈ ×

H (I, ϕ) = h(I) + εf (I, ϕ) , (I, ϕ) D = B , (4.13)

T

ε

con h lineare, ·

h(I) = ω I . (4.14)

Pur non essendo la situazione più comune, per evitare complicazioni che oscurerebbero le idee che

andiamo a esporre supporremo che f sia regolare in tutte le variabili (e dunque non contenga radici

delle azioni, come invece avviene genericamente nei problemi di piccole oscillazioni). Seguendo uno

dei metodi perturbativi più tipici, ci proponiamo di “riassorbire” per quanto possibile la perturba-

zione εf in un cambiamento di variabili. Più precisamente, cerchiamo una trasformazione canonica

prossima all’identità: ˜

I = I + ε . . .

˜ ,

(I, ϕ) = w ( I, ϕ̃) ,

ε ϕ = ϕ̃ + ε . . .

˜ ˜

tale che la nuova hamiltoniana H̃ ( I, ϕ̃) = H (w ( I, ϕ̃)) sia “più integrabile di H”, ad esempio sia

ε ε ε

2

integrabile a meno di termini di ordine ε : ˜

˜ ˜ ˜

2

H̃ = h( I) + εg( I) + ε f ( I, ϕ̃, ε) ,

ε

con opportuna g. Se questo programma va in porto, allora immediatamente si deduce che le nuove

˜ 2

azioni I evolvono, al più, con velocità ε , dunque per una variazione significativa ci vuole almeno

2

il tempo 1/ε , mentre si ha cost

˜ ˜

k − |t| ≤ .

I(t) I(0)k < cost ε per ε

4.4 — Sistemi isocroni perturbati: un passo perturbativo 63

˜ ˜

Ma poiché w è prossima all’identità, sia I(t) che I(0) sono ε–vicine rispettivamente a I(t) e I(0):

ε

dunque anche per esse si può scrivere cost

kI(t) − |t| ≤

I(0)k < cost ε per ,

ε 2

mentre un’evoluzione significativa può avvenire, al più, su tempi t 1/ε . Si veda la figura 18. In

queste condizioni evidentemente il principio della media è soddisfatto.

Per produrre la trasformazione canonica che ci interessa si può procedere, indifferentemente,

con il metodo delle funzioni generatrici in variabili miste oppure con il metodo di Lie. Seguiamo

quest’ultimo, e pertanto cerchiamo una hamiltoniana generatrice, che denotiamo χ(I, ϕ), tale che

εχ

il suo flusso Φ al tempo ε sia la trasformazione con le proprietà cercate.

Per ogni funzione F : D si ha, come già sappiamo (paragrafo 2.2B, formula (2.32)), lo

R

sviluppo 2

ε

εχ

◦ {{F, · · ·

F Φ = F + ε{F, χ} + χ}, χ} + .

2 2

Avendo deciso di trascurare i contributi di ordine ε , basta usare per h lo sviluppo troncato al

primo ordine, mentre per f , che già è moltiplicata per il piccolo parametro ε, basta addirittura il

troncamento all’ordine zero. Scriveremo pertanto

εχ 2 εχ

◦ ◦

h Φ = h + ε{h, χ} + ) , f Φ = f + , (4.15)

O(ε O(ε)

e la nuova hamiltoniana sarà corrispondentemente della forma

εχ 2

H Φ = h + ε({h, χ} + f ) + ) (4.16)

O(ε

ε

2 εχ εχ

◦ ◦

(il termine di ordine ε , all’occorrenza, si scrive facilmente troncando gli sviluppi di h Φ e h Φ

all’ordine successivo; si veda oltre). Il nostro programma pertanto si realizza se riusciamo a trovare

χ e g tali che ˜ ˜ ˜

{h, χ}( I, ϕ̃) + f ( I, ϕ̃) = g( I) ,

∂χ

{h, −ω · , se riusciamo a risolvere l’equazione alle derivate parziali

ovvero, poiché χ} = ∂ϕ ∂χ

· −

ω = f g , (4.17)

∂ϕ ˜

ove f è nota mentre χ e g sono incognite; a g si richiede che dipenda solo da I. Quest’ultima

richiesta in realtà fa sı̀ che la funzione g resti immediatamente determinata: prendendo infatti la

media sugli angoli a entrambi i membri della (4.17), e ricordando che la derivata rispetto a un

angolo di una funzione periodica ha necessariamente media nulla, si deduce subito che deve essere

hf i

g = . (4.18)

ϕ

L’equazione da risolvere è cosı̀ ∂χ − hf i

· = f . (4.19)

ω ϕ

∂ϕ

• E’ un utile esercizio provare a procedere, anziché col metodo di Lie, cercando la funzione

˜

generatrice in variabili miste S( I, ϕ) che realizza la trasformazione w con le proprietà cercate.

˜ ˜

·

Brevemente: posto S = I ϕ + εS( I, ϕ), le equazioni della trasformazione sono

∂S

∂S ˜ ˜ ˜

˜ ˜ ( I, ϕ) , ϕ̃( I, ϕ) = ϕ + ε ( I, ϕ) ,

I( I, ϕ) = I + ε ˜

∂ϕ ∂ I

4.4 — Sistemi isocroni perturbati: un passo perturbativo 64

e all’ordine ε si invertono immediatamente:

∂S ∂S

˜ ˜

˜ ˜ ˜ 2

2

ϕ( I, ϕ̃) = ϕ̃ ε ( I, ϕ̃) + ) ;

( I, ϕ̃) + ) , e poi I( I, ϕ̃) = I + ε O(ε

O(ε

˜ ∂ϕ

∂ I

sostituendo in H si trova allora

˜ ˜ ˜ ˜

H̃( I, ϕ̃) = h(I( I, ϕ̃)) + εf (I( I, ϕ̃), ϕ( I, ϕ̃))

∂S ˜ ˜

˜ 2

· ( I, ϕ̃) + εf ( I, ϕ̃) + ) .

= h( I) + εω O(ε

∂ϕ

L’equazione da risolvere per eliminare ϕ̃ all’ordine ε è cosı̀

∂S

−ω · −

= f g , (4.20)

∂ϕ −χ.

cioè esattamente la stessa di prima, con la corrispondenza = Un minimo di riflessione

S

mostra che questa equazione altro non è che l’equazione di Hamilton–Jacobi per l’hamiltonia-

na H(I, ϕ) = h(I) + εf (I, ϕ), approssimata (troncata) all’ordine ε. Infatti, l’equazione di

ε

Hamilton–Jacobi per l’hamiltoniana H si scrive (utilizzando il simbolo h̃ al posto di h per

la costante, per evitare conflitti)

∂S ∂S

·

ω + εf , ϕ, ε = h̃ .

∂ϕ ∂ϕ

Per trovare un integrale completo approssimato, che risolva l’equazione a meno di termini di

2

ordine ε , è spontaneo porre · ·

S(α, ϕ) = α ϕ + ε ϕ) , h̃(α) = ω α + ε g(α) ;

S(α,

sostituendo nell’equazione di Hamilton–Jacobi e raccogliendo i termini di ordine ε, si ottiene

allora la (4.20).

B. Il caso di f con sviluppo di Fourier finito e ω non risonante.

Veniamo allora alla soluzione della (4.17). Per evitare problemi di convergenza supporremo qui

che f sia un polinomio di Fourier, ovvero che la sua serie di Fourier sia finita:

X ˆ ik·ϕ

f (I) e , (4.21)

f (I, ϕ) = k

k∈K

n

con finito. (Non è però un’ipotesi che si rimuova facilmente; si veda sotto il paragrafo D.)

K Z

Guardando la (4.17), si vede che serve χ capace, per cosı̀ dire, di compensare tutti i termini della

ˆ

serie di Fourier di f , tranne il valor medio f (che già non dipende dagli angoli). Dobbiamo allora

0

cercare χ della forma X ik·ϕ

χ̂ (I) e ,

χ(I, ϕ) = k

k∈K

al fine di soddisfare poi la (4.17) componente per componente. Poiché

X

∂χ ik·ϕ

·

· (ik ω) χ̂ (I) e ,

=

ω k

∂ϕ k∈K

4.4 — Sistemi isocroni perturbati: un passo perturbativo 65

si vede bene che per accomodare la componente k = 0 bisogna e basta porre

g(I) = f (I) , (4.22)

0

6 ∈

mentre per k = 0, k si deve trovare χ̂ tale che

K, k ˆ

·

(ik ω) χ̂ (I) = f (I) ; (4.23)

k k

il termine χ̂ resta libero e lo si può prendere per esempio nullo. La (4.22) coincide, si osservi, con

0

la (4.18).

Perché la (4.23) si possa risolvere per ogni k è necessario che risulti

· 6 ∈ \ {0}

k ω = 0 per k ; (4.24)

K ∈

questa condizione su ω è detta condizione di non risonanza (limitatamente a k Per n = 2 si

K).

6 ∈ \ {0},

chiede k ω + k ω = 0 per k e dunque la condizione si riduce a escludere il caso di ω

K

1 1 2 2 1

e ω in rapporto razionale:

2 k

ω 2

1 6 − ∈ \ {0}

= per k .

K

ω k

2 1

Per n > 2 la condizione è ovviamente violata se due componenti di ω sono in rapporto razionale,

√ √

ma può essere violata anche in altro modo: ad esempio, per n = 3 e ω = (1, 2, 1 + 2), si ha

· −1).

k ω = 0 con k = (1, 1,

Se la (4.24) è soddisfatta, allora la (4.17) è risolta da

X ˆ

f (I)

k ik·ϕ

χ(I, ϕ) = e (4.25)

·

ik ω

{ }

k∈K\ 0

(si è preso χ̂ = 0) e la nuova hamiltoniana ha la forma voluta

0 ˜ ˜ ˜ 2

H̃ ( I, ϕ̃) = h( I) + εf ( I) + ) . (4.26)

O(ε

ε 0

Si vede cosı̀ che il programma di rendere il sistema integrabile “a vista” a meno di termini di

2

ordine ε funziona, purché sia soddisfatta la condizione di non risonanza (4.24). La (4.26) è detta

forma normale non risonante di H , del primo ordine in ε. Essa mostra che la prima correzione

ε

all’hamiltoniana integrabile, dovuta alla perturbazione, è data dal valor medio f della perturbazione

0

sugli angoli; il nuovo termine non muove le azioni, ma corregge un po’ le frequenze del sistema e lo

rende debolmente anarmonico.

• Quanto abbiamo visto si può riformulare, con linguaggio più algebrico, in questo modo: sia

·

lo spazio delle funzioni con sviluppo di Fourier in e sia L l’operatore ω , L :

F K, ω ω

K ∂ϕ

→ . L’equazione (4.17) da risolvere si riscrive con questa notazione

F F

K K − hf i

L χ = f . (4.27)

ω

ik·ϕ ik·ϕ ik·ϕ

· ∈

Ora si ha L e = i(k ω)e , pertanto le funzioni u = e , k sono per una

K, F

ω k K

·

base di autofunzioni di L , con autovalori λ = ik ω. Perciò se è soddisfatta la relazione di

ω k

non risonanza (4.24) il nucleo di L si riduce alle sole funzioni costanti negli angoli; ma allora

ω

− hf i

f non ha componenti sul nucleo, dunque L nella (4.27) si inverte e si ha

ω X ˆ

f k

−1 − hf i)

χ = L (f = u ,

k

ω λ k

k∈K\{0}

che è la (4.25). Si vede bene che lo sviluppo di Fourier di f è naturale, in questo problema,

ik·ω

perchè nella base delle armoniche di Fourier e l’operatore L è diagonale.

ω

4.4 — Sistemi isocroni perturbati: un passo perturbativo 66

Quanto abbiamo visto fino a qui si può riassumere nella proposizione seguente:

Sia data l’hamiltoniana lineare perturbata

Proposizione 20 ·

H (I, ϕ) = ω I + εf (I, ϕ) ,

ε

e sia f della forma (4.21). Se le frequenze soddisfano la relazione di non risonanza (4.24), allora

esiste una trasformazione canonica ε–vicina all’identità tale che la nuova hamiltoniana ha la forma

(4.26); corrispondentemente per ogni moto di H si ha cost

kI(t) − |t| ≤

I(0)k < cost ε per .

ε

2

All’occorrenza, il termine ) lasciato indicato nella (4.26) si scrive facilmente: troncando

O(ε

εχ εχ

◦ ◦

infatti gli sviluppi (4.15) di h Φ e f Φ rispettivamente all’ordine due e uno, anziché uno e zero,

si trova subito per questo termine un’espressione del tipo

˜

2 (2) 3

ε f ( I, ϕ̃) + ) ,

O(ε

con 1 1

(2) {{h, {f, {f

f = χ}, χ} + χ} = + f , χ} (4.28)

0

2 2

{h, −

(si è tenuto conto che χ} = f f ).

0

C. La costruzione risonante ∗ ∗

∈ ·

Consideriamo ora il caso in cui, per un qualche k risulti k ω = 0, mentre invece la

K,

(4.24) resta soddisfatta per k non parallelo a k . In tal caso la (4.17) non ha soluzione.

K

Possiamo tuttavia ancora ottenere degli sviluppi interessanti eliminando dall’espressione (4.25) di

k

χ i termini con k k ; in questo modo tutte le componenti di Fourier di f sono rimosse all’ordine

k

ε, ad eccezione di quelle con k k che sopravvivono: corrispondentemente la nuova hamiltoniana

ha la forma, più debole della (4.26), X ˆ ˜

˜ ˜ ˜ ˜ ik·

ϕ̃

2 f ( I) e (4.29)

H̃ ( I, ϕ̃) = h( I) + εg( I, ϕ̃) + ) , con g( I, ϕ̃) =

O(ε

ε k

k∈K, kkk

ˆ

(g contiene, si osservi, la media f ). Questa espressione è detta forma normale risonante di H ,

0 ε

∗ ·

relativa alla risonanza k ω = 0. ∗

Tale forma normale ha grande interesse. Consideriamo, per capire, il caso elementare k =

(1, 0, . . . , 0), che si ha per ω con ω = 0. Le armoniche di f che non si possono eliminare sono quelle

1

che dipendono solo dall’angolo ϕ , e dunque la forma normale risonante è del tipo

1 ˜ ˜ 2

H̃ = h( I) + εg( I, ϕ̃ ) + ) .

O(ε

ε 1

˜ 37

Si vede allora che I , in generale, evolve in modo significativo già sulla scala di tempo 1/ε, mentre

1

˜ ˜

però I , . . . , I nello stesso intervallo di tempo restano quasi costanti. Il principio della media non

2 n − ∼

è più soddidsfatto, ma abbiamo trovato n 1 costanti del moto fino a t 1/ε.

37 Non è detto che lo faccia, dipende dalla forma di g e dunque di f : diciamo che non lo possiamo escludere e ce lo

aspettiamo.

4.4 — Sistemi isocroni perturbati: un passo perturbativo 67

∗ ∗

Analoga situazione si ha in realtà per k qualsiasi. Per k generico infatti tutte le azioni

∼ −

evolvono individualmente già a t 1/ε, tuttavia ancora esistono n 1 (quasi) costanti del moto.

Dall’hamiltoniana (4.29) si ha infatti X

˙˜ ˆ ˜ ik·

ϕ̃ 2

−ε ik f ( I) e + ) ,

I = O(ε

k

k∈K, kkk ∗

e dunque le azioni si muovono (quasi esattamente) in direzione di k . Corrispondentemente, tutte

le combinazioni lineari delle azioni

˜ ˜ ∗

· ·

J = α I , con α k = 0 , (4.30)

˙˜ ˙˜

2 ·

sulla scala di tempo 1/ε (quasi) si conservano. Infatti, trascurando i termini ), si ha J = α I,

O(ε

˙˜ ˙˜

k −

ma I k e dunque J = 0. Vi sono evidentemente n 1 combinazioni lineari indipendenti che

soddisfano la (4.30). ˜ ·

Dal momento che I e I sono ε–vicini, le corrispondenti combinazioni lineari J = α I sono

anch’esse (quasi) conservate. E’ interessante osservare che tra le quantità quasi conservate c’è

· ·

sempre l’hamiltoniana imperturbata h(I) = ω I (infatti, ω k = 0).

∗ ∗

• Il caso di k generico, volendo, si riporta al caso k = (1, 0, . . . , 0), solo apparentemente par-

ticolare, con un cambiamento di variabili del tipo introdotto nell’appendice E in connessione

all’esercizio 32. Per capire, si scriva in dettaglio innanzitutto il caso n = 2.

Quanto ora detto nel caso di risonanza singola si estende senza difficoltà al caso in cui siano

≤ ≤ −

presenti r relazioni di risonanza, 1 r n 1, ovvero r relazioni del tipo

(s) ·

k ω = 0 , s = 1, . . . , r ,

(1) (r) n

con ovviamente k , . . . , k indipendenti. Sia infatti lo spazio r–dimensionale generato

R Z

(1) (r)

da k , . . . , k ; si ha evidentemente n

{k ∈ ·

= : k ω = 0} .

R Z

Escludendo questa volta da χ tutte le armoniche che stanno in si trova la forma normale risonante

R,

relativa a R X ˆ ˜

˜ ˜ ˜ ˜ ik·

ϕ̃

2 f ( I) e . (4.31)

H̃ ( I, ϕ̃) = h( I) + εg( I, ϕ̃) + ) , con g( I, ϕ̃) =

O(ε

ε k

k∈K∩R

˙˜

Procedendo come sopra, dalle equazioni di Hamilton di H̃ si deduce che I è (quasi) parallelo a R,

ε

e corrispondentemente (quasi) si conservano n r combinazioni lineari indipendenti delle azioni,

precisamente le combinazioni · ⊥

α I con α .

R ·

Tra queste, si osservi, c’è sempre l’hamiltoniana imperturbata h(I) = ω I. Lo spazio è detto

R

reticolo risonante, o anche modulo risonante, associato a ω; la sua dimensione r è detta molteplicità

(ma anche dimensione) della risonanza. Una notazione più accurata, ma più pesante, sarebbe stata

.

R

ω

4.4 — Sistemi isocroni perturbati: un passo perturbativo 68

• Un esempio apparentemente molto particolare è quello in cui

{k

= = (k , . . . , k , 0, . . . , 0)} ;

R 1 r

ma a questo caso ci si riporta sempre, all’occorrenza, ancora con un cambiamento di variabili

del tipo introdotto nell’appendice E in connessione all’esercizio 32.

• La costruzione risonante si può interpretare da un punto di vista algebrico nel modo seguente:

mentre nel caso non risonante il nucleo di L è formato dalle funzioni delle sole azioni, nel

ω

caso risonante L ha un nucleo più grande, comprendente tutte le funzioni del tipo

ω X ik·ϕ

F̂ (I)e ,

F (I, ϕ) = k

k∈R

che danno evidentemente L F = 0. L’equazione per χ che si può risolvere in questo caso è

ω −

L χ = f Π f ,

ω N

e la nuova hamiltoniana corrispondentemente risulta essere

2

H̃ = h + εΠ f + )

O(ε

N

(la funzione g introdotta sopra coincide evidentemente con Π f ). Queste espressioni uni-

N

ficano il caso risonante e quello non risonante, che differiscono solo per il diverso nucleo

N . Se si aggiungono risonanze la dimensione di N cresce, e il numero di costanti del moto

corrispondentemente diminuisce.

Per n = 3 si faccia un esempio di ω con una risonanza semplice e uno con risonanza

Esercizio 42

doppia, e si scriva la forma normale nei due casi. −

Ancora una osservazione. Nel caso risonante con molteplicità r, si è detto, esistono n r

˜

·

combinazioni lineari α I delle azioni che sono costanti del moto per la forma normale troncata

all’ordine ε ˜ ˜ ˜

H̃ ( I, ϕ̃) = h( I) + εg( I, ϕ̃) .

ε ′

− stessa, che (dipendendo dagli angoli!) è da esse

A queste n r costanti del moto si aggiunge H̃ ε −

funzionalmente indipendente. Le costanti del moto dunque, nel caso risonante, non sono n r ma

n r + 1. Inoltre, con evidenza, esse sono in involuzione. Particolarmente interessante è il caso

di risonanza singola, perché allora, a dispetto della dipendenza dagli angoli, il sistema troncato, in

buona sostanza, è ancora integrabile. Si rifletta su questo punto un po’ delicato, costruendo degli

esempi (si riguardino i controesempi al principio della media, con h(I) lineare).

D. Generalizzazione: f non polinomiale.

La generalizzazione a f con un numero infinito di componenti di Fourier non è ovvia e anzi

è assai delicata. Se ripercorriamo lo stesso ragionamento fatto sopra per f polinomio di Fourier,

n

senza difficoltà arriviamo alle equazioni (4.22) e (4.23), quest’ultima però per infiniti k e non

Z

più per un numero finito di essi. Per risolvere la (4.23) per ogni singolo k è sufficiente la condizione

di non risonanza n

· 6 ∀ ∈ \ {0}

k ω = 0 k ,

Z

4.4 — Sistemi isocroni perturbati: un passo perturbativo 69

Figura 19: I “corridoi risonanti” per n = 2.

che per n = 2 equivale a ω /ω irrazionale. Ma poi ci sono problemi non banali di convergenza

1 2

della serie di Fourier per χ X ˆ

f k ik·ϕ

χ(I, ϕ) = e .

·

ik ω

n

k∈Z \{0}

·

Infatti i denominatori k ω, benché tutti diversi da zero, in assenza di ulteriori ipotesi su ω, per

opportuno k grande possono avvicinarsi arbitrariamente a zero, impedendo la convergenza della

serie a una funzione regolare.

Proseguire l’analisi del problema ci condurrebbe in questioni delicate di tipo aritmetico, nelle

quali in queste note non è sensato addentrarsi. Al solo scopo di far comprendere come sia sottile la

questione, possiamo ricordare un’ipotesi tipica su ω che, congiuntamente a ipotesi di regolarità su

f , consente di giungere a risultati molto interessanti (ben più che costruire una forma normale di

primo ordine in ε). Tale ipotesi, nota in letteratura come “condizione diofantea” di Siegel (1942),

·

è che k ω non solo sia diverso da zero, ma in qualche modo sia staccato via da zero, precisamente

che esista una costante γ > 0 tale che γ n

|k · ≥ ∀ ∈ 6

ω| k , k = 0 , (4.32)

Z

n

|k|

ove si è denotato |k| |k | · · · |k |

= + + .

1 n

Limitiamoci per semplicità a n = 2. La condizione è violata con evidenza da un insieme denso di

2

frequenze ω : tutte quelle che stanno sulle rette del piano ω , ω a pendenza razionale (figura

R 1 2

19); per esse infatti con opportuno k si ha k ω + k ω = 0 esattamente. Ma variando di poco ω

1 1 2 2

2

|k ·

certamente si ha ω| < γ/|k| , dunque la condizione è violata in un insieme, oltre che denso,

aperto (i corridoi grigi in figura 19). Ciononostante, se prendiamo una palla B di raggio R nello

R

spazio delle frequenze centrata nell’origine, e rimuoviamo da essa i corridoi, l’insieme B che resta

R,γ

(pur con interno vuoto) ha misura di Lebesgue grande per γ piccolo: precisamente,

Esiste C > 0 tale che

Proposizione 21 −1

\

mes (B B ) < C R γ mes (B ) . (4.33)

R R,γ R

(utile a comprendere la proposizione) Si consideri l’intervallo (0, 1) e si facciano degli

Esercizio 43

esempi di sottoinsiemi aperti densi, ma di misura arbitrariamente piccola. Un insieme siffatto deve

4.4 — Sistemi isocroni perturbati: un passo perturbativo 70

Figura 20: L’insieme delle ω B che violano la (4.32) per un certo k.

R

essere l’insieme dei corridoi, tagliati da una curva regolare come in figura 19. [Suggerimento: si

prenda un insieme numerabile denso qualunque, per esempio i razionali in (0, 1); attorno a ogni x j

P ∞,

a < e si faccia l’unione.]

si prenda un intervallo di ampiezza εa , con j

j j

\ ∈

Sia B = B B l’insieme delle ω B che violano la (4.32), e B

Dimostrazione. R,γ R R,γ R R,γ,k

B è

l’insieme di quelle che la violano per un certo k (figura 20). Lo spessore di R,γ,k

2 2γ

γ 2

∆= ;

2 3

kkk |k| |k|

√ 3 2

≤ ∈ 6

il volume corrispondente si stima con 2R∆ 4 2Rγ/|k| . Sommando su tutti i k , k = 0, si

Z

ottiene per B la stima

R,γ X

√ 1 .

mes (B ) < 4 2Rγ

R,γ 3

|k|

2

k∈Z \{0}

La serie converge, come si vede scrivendo ∞ ∞

X X X

1 N 4

k

= = ,

3 3 2

|k| K K

2 K=1 K=1

k∈Z \{0}

2 38

∈ |k|

ove N = 4K è il numero dei k tali che = K. La conclusione è immediata.

Z

K Si generalizzi la proposizione 21 a n qualunque. Si riscriva la condizione di Siegel

Esercizio 44 α n

|k| |k|

sostituendo a al denominatore a secondo membro, con α > 0 non necessariamente intero.

Per quali α la dimostrazione funziona ancora? [Risp: α > n 1]

E. Forme normali di ordine superiore (cenno).

Una domanda spontanea, a questo punto, è se dopo aver messo il sistema in forma normale

2 3

fino all’ordine ε non si possa fare di meglio, ovvero passare all’ordine ε , ε . . . ottenendo per un

38 −2 2

P

La serie si somma ( K = π /6), e si potrebbe cosı̀ stimare C. Ma allora a far le cose bene si guadagna

K=1

un fattore 2 perché k e −k danno lo stesso corridoio, e si guadagna ancora osservando che 2k, 3k . . . , danno corridoi

già contenuti in quello di k ... non ne vale proprio la pena.

4.5 — Sistemi non isocroni; il modello dei rotatori 71

Figura 21: Il modello dei rotatori

qualche s > 1 la forma normale di ordine s: precisamente, limitandoci per semplicità al solo caso

non risonante, ˜ ˜ ˜ ˜

s s+1

H̃ ( I, ϕ̃) = h( I) + εg ( I) + . . . + ε g ( I) + ) .

O(ε

ε 1 s

L’interesse è ovvio: se cosı̀ avviene, si ottiene un buon controllo sulle azioni per tempi più lunghi,

s

t 1/ε . La questione non è difficile (non intervengono idee nuove) ma è un po’ complessa; ci

limitiamo a qualche indicazione per il solo passo successivo, ovvero s = 2, limitatamente al caso in

cui f (I, ϕ) è un polinomio di Fourier.

Il lavoro da fare è del tutto analogo al precedente: l’hamiltoniana su cui si deve lavorare

(abolendo la tilde) è 2 ′ 3

H (I, ϕ) = h(I) + εg (I) + ε f (I, ϕ) + ) ,

O(ε

ε 1

hf i

con g = e f dato dalla (4.28); ma poiché sia f che χ sono polinomi di Fourier, è un polinomio di

1 ′

Fourier (benché di grado più elevato) anche f , e dunque si procede esattamente come per il primo

2 ˜

ε

passo: se non intervengono nuove risonanze, si trova una trasformazione canonica (I, ϕ) = Φ ( I, ϕ̃),

χ

2 ′

piccola con ε , che elimina tutte le componenti di Fourier di f , e dà alla nuova hamiltoniana

2

ε

H̃ = H Φ la forma normale del secondo ordine

χ ˜ ˜ ˜ ˜

2 3

H̃ ( I, ϕ̃) = h( I) + εg ( I) + ε g ( I) + ) ,

O(ε

ε 1 2

ove g è la media di f . In presenza di risonanze si ottiene invece una forma normale più debole.

2

Con un po’ di buona volontà si procede fino a s qualsiasi, sia nel caso non risonante che in presenza

di risonanze (ovviamente con forme normali più deboli). Per approfondire si cerchi, su qualche

testo, la parola chiave “serie di Birkhoff”.

4.5 Sistemi non isocroni; il modello dei rotatori

Studieremo qui il caso di sistemi (strettamente) non isocroni, precisamente sistemi hamiltoniani

quasi integrabili della consueta forma (4.13), assumendo però, al posto della (4.14), che le frequenze

∂h

ω = dipendano in modo sostanziale dalle azioni, precisamente che risulti

∂I

2

∂ω ∂ h

i 6

det = det = 0 . (4.34)

∂I ∂I ∂I

j i j

In queste condizioni si ha un diffeomorfismo locale tra lo spazio delle frequenze e lo spazio delle

azioni, che associa varietà regolari in uno spazio a varietà regolari nell’altro. In particolate, ai piani

·

risonanti k ω = 0 nello spazio delle frequenze restano associate varietà risonanti di equazione

·

k ω(I) = 0

nello spazio delle azioni. Le frequenze — è bene sottolinearlo — non sono più parametri del modello,

non dobbiamo distinguere tra modelli risonanti e non risonanti: le risonanze ora sono luoghi nello

spazio delle azioni.

4.5 — Sistemi non isocroni; il modello dei rotatori 72

Non studieremo il caso generale (cui tuttavia accenneremo più avanti), ma studieremo in det-

taglio un modello particolare, una catena di rotatori debolmente accoppiati, che come vedremo

racchiude l’essenziale. L’hamiltoniana del modello è

n 2

X I j + ε f (ϕ) (4.35)

H (I, ϕ) =

ε 2A

j=1

con, nel caso più semplice, n

X −

− cos(ϕ ϕ ) , ϕ = ϕ

f (ϕ) = j+1 j n+1 1

j=1

39 −1 ′′ −1

(condizioni periodiche agli estremi). Si ha ω (I) = A I , mentre l’hessiana è h (I) = A le

I;

i i

varietà risonanti sono cosı̀ piani per l’origine anche nello spazio delle azioni.

La perturbazione, si osservi, ha un numero finito di componenti di Fourier, inoltre queste sono

j

±k

del tipo particolare ove j −1,

k = (0, . . . , 0, 1, 0, . . . , 0) , (4.36)

−1,

con la coppia 1 in posizione j, j + 1. Il carattere locale dell’interazione aiuta a comprendere

meglio i risultati, ma non è realmente importante, come anche il fatto che f sia indipendente dalle

azioni e abbia media nulla. La forma della parte imperturbata

n 2

X I j

h = 2A

j=1

invece è importante: comprendere fino a che punto la si può generalizzare non è banale.

40

Nel seguito, per alleggerire le espressioni, porremo A = 1. Come dominio nello spazio delle

azioni prenderemo la palla B di raggio R.

R

Due osservazioni preliminari:

(i) Le condizioni periodiche hanno il vantaggio che tutti i siti sono equivalenti, lo svantaggio che

· · ·

c’è una quantità conservata, il momento totale J = I + + I . Non è tuttavia restrittivo

1 n

o o o 6

supporre J = J(0) = 0: infatti per ogni dato iniziale I con J = 0 possiamo eseguire la

trasformazione w dipendente dal tempo

o o

J J

˜

I = + I , ϕ = t + ϕ̃ , j = 1, . . . , n

j j j j

n n

(sistema “corotante” col moto medio; è come mettersi a cavallo del baricentro per i sistemi

che conservano il momento lineare); per questa trasformazione (puntuale, f = 0) si ha

n

X

o o

∂v J J

2 ˜

−u · −

K = = I ,

0 j

∂t n n j=1

e si vede subito che la nuova hamiltoniana K = H w + K coincide con la vecchia a meno

0

˜

o o

di un’inessenziale costante additiva. Il dato iniziale I corrispondente a I ora ha momento

totale nullo.

39 Altre condizioni al bordo interessanti sono quelle “aperte”, senza l’interazione tra il primo e l’ultimo rotatore, e

quelle “rigide” (o chiuse) in cui si aggiungono, con ovvio significato, due rotatori di indice 0 e n + 1, con fasi fisse

ϕ = ϕ = 0.

0 n+1 √ √

˜

40 formalmente è, come al solito, un riscalamento canonico: I = A I, ϕ = ϕ̃, con valenza 1/ A che però si può

togliere riscalando t.

4.5 — Sistemi non isocroni; il modello dei rotatori 73

(ii) E’ equivalente considerare il modello (4.35), con il piccolo parametro ε di fronte a f e come

si e detto I B , oppure considerare un modello privo di ε di fronte a f ,

R n 2

X I j

H(I, ϕ) = + f (ϕ) , (4.37)

2

j=1

ma in un dominio delle azioni grande con ε, precisamente

∈ .

I B ε

R/

Infatti, il riscalamento ˜

I

I = , ϕ = ϕ̃

ε ˜

riporta il dominio delle azioni a B indipendente da ε, e dà alla nuova hamiltoniana K( I, ϕ̃) =

R

√ ˜

εH( I/ ε, ϕ̃) la forma i

h ˜

n 2

X I

1 j

˜ √ + ε f ( ϕ̃) ;

K( I, ϕ̃) = 2

ε j=1

√ √

il riscalamento di tempo t = t̃ ε elimina il fattore 1/ ε di fronte a K (si usa precisamente

√ √

t/ ε

t ), e ci si ritrova con l’hamiltoniana εK che è la (4.35).

Φ = Φ

K εK

Allo stesso modo si comprende che se dentro a B consideriamo il dominio piccolo

R

∈ ,

I B ε

R √

la presenza di ε di fronte a f è illusoria: infatti se riportiamo il dominio B delle azioni a

R ε

B con il riscalamento, questa volta,

R √ ˜

I = ε I , ϕ = ϕ̃ ,

e passiamo al tempo t̃ = t ε, il parametro ε scompare del tutto dall’hamiltoniana, che prende

la forma (4.37), e dunque il modello non è in alcun modo prossimo a integrabile. Questo è

un elemento cruciale, che sarà importante nel seguito e sul quale è bene riflettere. Un aiuto

alla riflessione è dato dall’esercizio seguente:

Si prendano in esame i diversi casi considerati al punto (ii): presenza o assenza di

Esercizio 45 √ √

ε a fronte di f , raggio r del dominio delle azioni pari a R, R/ ε, R ε; si raffrontino la velocità

di evoluzione degli angoli e quella delle azioni, quest’ultima rapportata al raggio r dove le azioni

vivono. [Risposta: sono ben separate da un fattore ε nel caso di debole accoppiamento (azioni

molto più lente degli angoli), dello stesso ordine nel caso di forte accoppiamento.]

Nel seguito del paragrafo applicheremo al modello dei rotatori metodi noti di teoria delle per-

turbazioni, eseguendo un passo perturbativo fuori risonanza e in risonanza, e poi illustreremo i

risultati ottenuti confrontandoli con una semplice indagine numerica.

A. Studio analitico: un passo perturbativo, caso non risonante. Eseguiamo un passo perturbativo

εχ

con il metodo di Lie, ovvero con w = Φ . Procedendo in modo identico a quanto fatto nel paragrafo

4.5 — Sistemi non isocroni; il modello dei rotatori 74

4.4–A, si trova subito che se χ soddisfa l’equazione fondamentale (4.19), che essendo f a media

nulla si scrive ora ∂χ

· = f ,

ω(I) ∂I

allora la perturbazione si elimina all’ordine ε e la nuova hamiltoniana assume la forma normale

1

˜ ˜

2 3 {f, χ} .

H̃ = h + ε f + ) , f =

O(ε

ε 2

L’equazione per χ è risolta da n

X −

sin(ϕ ϕ )

j+1 j

χ(I, ϕ) = ,

I I

j+1 j

j=1

ovviamente dove i denominatori non si annullano, e con pochi calcoli si trova poi

h

n n

X X

− −

1 cos 2(ϕ ϕ )

1 1

j j−1

˜ −

f (I, ϕ) = + cos(ϕ ϕ )

j+1 j−1

2

2 (I I ) 4

j j−1

j=1 j=1

ih i

1 1

− −

cos(ϕ 2ϕ + ϕ ) + + ,

O(ε)

j+1 j j−1 2 2

− −

(I I ) (I I )

j+1 j j j−1

avendo qui mantenuto la notazione (I, ϕ) per le nuove variabili. Si osservi che

˜

(i) in f compaiono nuove armoniche, ma in numero finito, precisamente quelle del tipo

j+1 j

±k ±

k = k ;

(ii) χ contiene i piccoli divisori j · −

k ω(I) = I I ,

j+1 j

˜

corrispondentemente f contiene i loro quadrati (com’è ovvio, dovendo fare le derivate di χ

rispetto alle azioni). Formalmente dunque la forma normale si può scrivere ovunque tranne

che sulle risonanze, che sono qui i piani

I I = 0 , j = 1, . . . , n

j+1 j −

(due rotatori consecutivi girano alla stessa velocità; la combinazione ϕ ϕ non avanza).

j+1 j

Ma il guadagno di un ordine, in tutto un intorno ε) dei piani risonanti, è illusorio. E’

O(

infatti un guadagno vero lontano dai piani risonanti, quando i denominatori sono grandi:

˜

ma se ci si avvicina ai piani risonanti i denominatori di f rimpiccioliscono e il guadagno

√ ε, la nuova

progressivamente si perde; se poi uno dei denominatori diviene piccolo come

˜

2 k k ∼

perturbazione ha norma (qualunque sia la norma scelta) ε f ε, cioè tal quale la per-

turbazione di partenza, e non si è guadagnato nulla. (In situazioni intermedie si guadagna

1/4

qualche cosa, ma meno di un ordine in ε: ad esempio, a distanza ) dalla risonanza si ha

O(ε

˜

2 3/2 2

k k ∼

ε f ε .) Si rifletta su questo punto: algebricamente abbiamo il fattore ε di fronte alla

˙

nuova perturbazione, ma a causa dei denominatori I (per le I coinvolte nella o nelle

O(ε),

2

risonanze) è piccolo come ε, non come ε , come se il passo perturbativo non lo avessimo fatto.

4.5 — Sistemi non isocroni; il modello dei rotatori 75

|I − |

B. Moti entro una risonanza semplice. Supponiamo ora che sia I = ε) e invece

O(

2 1

|I − | 6

I = per j = 1. La miglior forma normale che siamo in grado di costruire si ottiene

O(1)

j+1 j

sfilando via da χ il termine col denominatore piccolo, ovvero prendendo

X −

sin(ϕ ϕ )

j+1 j

χ = ;

I I

j+1 j

j6 =1

corrispondentemente la nuova hamiltoniana assume la forma normale risonante

X

1

1 ˜

˜ ˜

˜ 2 2

2 2 − − I + ) . (4.38)

( I + I ) ε cos( ϕ̃ ϕ̃ ) +

H̃ ( I, ϕ̃) = O(ε

2 1

ε j

1 2

2 2 j>2

2

Fintantoché il resto di ordine ε si può trascurare, il moto dei primi due rotatori si disaccoppia dal

resto della catena ed è governato dall’hamiltoniana ridotta

1

˜ ˜ ˜ ˜

2 2 − −

( I , I , ϕ̃ , ϕ̃ ) = ( I + I ) ε cos( ϕ̃ ϕ̃ ) . (4.39)

H

ε 1 2 1 2 2 1

1 2

2

Questa è una vecchia conoscenza, infatti altro non è che la (4.9) con notazioni appena differenti;

˜ ˜

sappiamo allora che il momento complessivo J = I + I resta costante, il moto medio si disaccoppia,

1 2 √

˜ ˜ ε),

e il sistema, in buona sostanza, è un pendolo: I e I eseguono oscillatzioni di ampiezza O(

1 2

√ ˜ ˜

1 ( I + I ). Per capire ancor meglio, possiamo

con periodo di ordine 1/ ε, attorno alla media J = 1 2

2

supporre — senza perdita di generalità, come si è visto sopra — che sia J = 0; in tal caso abbiamo

˜ ˜

≃ ≃ ε, e conviene eseguire un riscalamento (uno zoom)

I I

1 2 √ 1

˜ ˆ √

I = ε I , ϕ̃ = ϕ̂ , t = t̂ . (4.40)

j j j j ε b

41 −1

Il dominio delle variabili riscalate ora è di ordine uno, e la nuova hamiltoniana = ε diviene

H H

indipendente da ε: 1

b ˆ ˆ

2 2 − −

( I + I ) cos( ϕ̂ ϕ̂ ) .

=

H 2 1

1 2

2

˜ ˜

Il moto delle variabili I , I , ϕ̃ , ϕ̃ sotto l’hamiltoniana ridotta (4.39) altro non è che questo mo-

1 2 1 2

to indipendente da ε — un rotatore libero corrispondente al moto medio, un pendolo che esegue

√ √

oscillazioni limitate — semplicemente riscalato nelle azioni e nel tempo di fattori ε e 1/ ε. Fin-

2

tantoché il resto ) si può trascurare, questo moto dei primi due rotatori si ritrova per la forma

O(ε √ √

˜ ˜

normale (4.38), con I , I che compiono oscillazioni ε) nella scala di tempo ε), mentre

O( O(1/

1 2

˜ ˜

intanto I , . . . , I restano costanti e ϕ̃ , . . . , ϕ̃ avanzano uniformemente. Il tutto si ritrova infine

3 n 1 n

anche per le variabili di partenza, a meno della deformazione piccola con ε dovuta alla trasforma-

zione canonica che ha dato al sistema la forma normale. Il principio della media è chiaramente

soddisfatto. 2

In questo caso di risonanza singola la forma normale risonante, trascurando il resto ),

O(ε

risulta integrabile (facilmente, passando alle variabili di azione–angolo del pendolo che abbiamo

incontrato, si scriverebbero tutte le sue variabili di azione–angolo). Non è questo però il punto: come

vedremo nel prossimo paragrafo C, nel caso di almeno due risonanze (coinvolgenti siti consecutivi)

l’integrabilità si perde e i moti si fanno sostanzialmente più complessi; ugualmente, con identico

meccanismo, il principio della media resterà soddisfatto.

41 −1/2 −1/2

Un fattore ε è dovuto al riscalamento delle azioni, un altro fattore ε è dovuto al riscalamento del tempo.

4.5 — Sistemi non isocroni; il modello dei rotatori 76

C. Moti entro una risonanza multipla. Per capire, è sufficiente comprendere il caso di due risonanze

contigue, ad esempio √

|I − | |I − |

I , I = ε) ; (4.41)

O(

2 1 3 2

la generalizzazione al caso di risonanze multiple poi è immediata.

Procedendo come sopra per il caso di risonanza singola, è facile ottenere una forma normale

adattata alla risonanza considerata, precisamente X

1

˜ ˜ ˜

2 2

H̃ ( I, ϕ̃) = ( I, ϕ̃) + I + ) , (4.42)

H O(ε

ε ε j

2 j>3

questa volta con 3

X

1 ˜

˜ ˜ ˜ 2 − − −

I ε [cos( ϕ̃ ϕ̃ ) + cos( ϕ̃ ϕ̃ )] . (4.43)

( I , I , I , ϕ̃ , ϕ̃ , ϕ̃ ) =

H 2 1 3 2

ε 1 2 3 1 2 3 j

2 j=1

2

Come sopra, ignoriamo il resto ) e analizziamo il moto di . Possiamo supporre anche qui

O(ε H

ε √

˜ ˜ ˜ ˜ ˜ ˜

≃ ≃ ≃

che il momento angolare totale I + I + I sia nullo; ma allora si ha I I I ε, e il

1 2 3 1 2 3

riscalamento (4.40) dà l’hamiltoniana

3

X

=1

b ˆ

2 − − −

I [cos( ϕ̂ ϕ̂ ) + cos( ϕ̂ ϕ̂ )]

H 2 1 3 2

j

2 j=1

in un dominio indipendente da ε. Questo è un sistema hamiltoniano fortemente accoppiato indi-

pendente da ε, con due gradi di libertà effettivi, che non è integrabile né prossimo a integrabile, non

esegue moti quasi periodici ma è in grado di eseguire moti profondamente diversi e sostanzialmente

42

più complessi, detti comunemente moti caotici. Nel prossimo paragrafo, dedicato all’esplorazione

numerica del modello dei rotatori, ne vedremo degli esempi. Si osservi però che grazie alla conser-

vazione dell’energia, tali moti sono limitati (infatti, la parte cinetica è definita positiva mentre la

parte potenziale è limitata) e si sviluppano su una loro scala di azione e di tempo, che evidentemen-

te non dipende da ε. Corrispondentemente, per ε piccolo, ammette moti limitati (in generale

H

ε √ ε e su una scala di

complicati, comunque piccolo sia ε) che si sviluppano su una scala di azione

√ 2

tempo 1/ ε. Fintantoché il resto ) si può ignorare, i moti caotici esistono anche nel sistema

O(ε

di partenza, precisamente appaiono come moti caotici localizzati entro la risonanza doppia, limitati

da una disuguaglianza del tipo √

o

|I − |

(t) I < cost ε ,

j j

che si sviluppano sulla scala di tempo 1/ ε.

Si faccia attenzione: la scala di tempo sulla quale il moto è complicato, non banale e non

√ ε, ovvero è molto più piccola della scala di tempo 1/ε del principio della media.

integrabile, è 1/

Ciononostante il principio della media è soddisfatto. Il principio della media, di cui qui si comincia

ad apprezzare la sottigliezza, non richiede l’integrabilità del sistema fino all’ordine ε.

42 Qui ci accontentiamo dell’intuizione. Tutto però si precisa in modo pulito e si dimostra nell’ambito della teoria dei

sistemi dinamici; lo stesso termine caotico, qui usato in modo necessariamente vago in contrapposizione a integrabile,

si formalizza in un termine tecnico, e lo si usa, in buona sostanza, per quei sistemi in cui la divergenza esponenziale

delle traiettorie vicine — quella che si ha quando la “stima a priori” non è migliorabile — interessa un insieme di

dati iniziali di misura positiva. A questa instabilità esponenziale si accompagna una sostanziale imprevedibilità dei

moti.

4.5 — Sistemi non isocroni; il modello dei rotatori 77

Figura 22: I (T ) in funzione di T , per ε = 0.9.

j

In questo modello particolare il comportamento caotico è localizzato nella catena di rotatori,

nel senso che coinvolge tre soli di essi mentre gli altri avanzano regolarmente (a meno di un piccolo

˜

effetto dovuto al fatto che I e I non coincidono). Queste particolarità aiutano l’intuizione, ma

j j √

come avremo modo di dire, non sono necessarie, e la presenza di moti caotici di ampiezza ε su

scala di tempo 1/ ε, mentre però il principio della media è soddisfatto, non è una peculiarità di

questo modello, ma rappresenta una situazione tipica.

D. Studio numerico del modello dei rotatori: le quantità calcolate. Lo studio numerico di questo

o qualunque altro sistema dinamico, hamiltoniano o no, si effettua risolvendo approssimativamente

le equazioni del moto mediante un opportuno algoritmo in cui si discretizza il tempo e si procede a

“passi di integrazione” finiti. La letteratura sull’argomento è enorme, e in parte intrecciata con lo

43

studio perturbativo. Trarre conclusioni chiare sull’affidabilità dei metodi di integrazione numerica

è difficile; il loro impiego richiede esperienza e sensibilità. Noi naturalmente non entreremo in nessun

modo in questa discussione, e con atteggiamento, per una volta, non critico, prenderemo per buoni

i risultati numerici senza ulteriori indagini.

Studieremo qui una catena di n = 8 rotatori, con hamiltoniana (4.35). Le quantità che andremo

ad esaminare sono, per ciascun moto,

(a) La media temporale delle azioni fino al tempo T , precisamente

Z T

1

I (T ) = I (t) dt .

j j

T 0

43 Si intuisce forse che la discretizzazione si può riguardare come una perturbazione delle equazioni del moto

originarie, anche se non è facile precisare in che senso.

4.5 — Sistemi non isocroni; il modello dei rotatori 78

Figura 23: γ (sinistra) e W (destra), j = 1, . . . , 6 dal basso in alto, per ε = 0.9.

j j

4.5 — Sistemi non isocroni; il modello dei rotatori 79

Figura 24: Come in figura 22, per ε = 0.5.

In pratica, se s è la discretizzazione temporale che interviene nell’intergrazione numerica,

quello che si calcola è N −1

X

1 I (ls) .

I (N s) = j

j N l=0 44 I (∞) = lim I (T ); in pratica

In linea di principio si vorrebbe calcolare la media infinita j j

T →∞

ovviamente il calcolo è troncato a T = sN grande. In condizioni di forte interazione

max max

(ε di ordine uno) ci si aspetta che tutti i rotatori si comportino, su tempi lunghi, allo stesso

modo, dunque che la media I (∞) sia la stessa per tutti e, in assenza di moto medio, sia

j

45

nulla. Viceversa, in condizioni di debole accoppiamento (ε piccolo, assenza di risonanze) ci

si aspetta che ogni rotatore vada sostanzialmente per conto proprio, mantenendo, a meno di

piccole oscillazioni, la I di partenza.

j

(b) La funzione di autocorrelazione γ (τ ) delle I , definita nel modo seguente:

j j Z T

Γ (τ ) 1

j 2

I (t + τ )I (t) dt

, Γ (τ ) = lim

γ (τ ) = I (∞) ,

j j

j

j j

2

σ T

T →∞ 0

44 Un teorema dovuto a Birkhoff garantisce l’esistenza delle medie temporali infinite per qualunque funzione (misu-

rabile) per moti generici, precisamente con la possibile eccezione di un insieme di dati iniziali di misura di Lebesgue

nulla. E’ un teorema non banale di grande importanza.

45 Un tale comportamento è anche quello che prevede la Meccanica Statistica, nella quale alla media temporale si

sostituisce una opportuna distribuzione di probabilità (la cosiddetta misura microcanonica, uniforme sulla superficie

di energia costante, per sistemi che conservino l’energia); per la simmetria del modello, tutti i rotatori non possono

che avere comportamento statistico identico.

4.5 — Sistemi non isocroni; il modello dei rotatori 80

Figura 25: Come in figura 23, per ε = 0.5.

4.5 — Sistemi non isocroni; il modello dei rotatori 81

2

dove σ = Γ (0) è la varianza temporale. In pratica il calcolo è discretizzato e troncato come

j 46

sopra. Per una generica f (t), la funzione di autocorrelazione

Z T

Γ (τ ) 1

f 2

f (t + τ )f (t) dt

, Γ (τ ) = lim

γ (τ ) = f (∞) ,

f

f 2

σ T

T →∞ 0

rappresenta la “memoria” al tempo t + τ del valore di f al tempo t: se γ (τ ) è positiva

f

(negativa) vuol dire che tipicamente, se f (t) sta sopra o sotto la media temporate f (∞), lo

stesso (l’opposto) fa f (t + τ ), ovvero una misura di f al tempo t dà qualche informazione su

f al tempo t + τ . Se invece γ (τ ) = 0, il comportamento di f al tempo t + τ è indipendente

f

(scorrelato) dal comportamento di f al tempo t. In Meccanica Statistica, il tempo di decadi-

mento a zero delle correlazioni (delle funzioni in qualche modo importanti) è identificato col

tempo di raggiungimento dell’equilibrio.

Per le nostre I , in condizioni di forte accoppiamento, ci si aspetta che γ (τ ) decada a zero

j j

su una qualche scala di tempo non troppo lunga; in condizioni di debole accoppiamento ci si

aspetta al contrario che γ (τ ) resti diversa da zero per tempi τ lunghi.

j 47

(c) Lo spettro di potenza W di I , la cui definizione è la seguente: se

j j Z ∞ iνt

(ν) e dν ,

I (t) = I

j

j −∞

2

|I(ν)|

allora W (ν) = . Anche qui naturalmente si discretizza e si tronca. Lo spettro di

j

potenza risulta essere la trasformata di Fourier della funzione di correlazione, pertanto esso

non fornisce un’informazione indipendente, ma è ugualmente utile prenderlo in considerazione.

In condizione di debole accoppiamento il moto di ciascuna j ci si aspetta sia, con buona

approssimazione, quasi periodico; corrispondentemente lo spettro di potenza sarà “a righe”,

cioè discreto con un numero finito di frequenze. Viceversa, nel caso di forte accoppiamento e

moto caotico, ci si aspetta di trovare spettro continuo (infinite frequenze in gioco).

E. I risultati numerici. Tutti i risultati che esporremo si riferiscono a dati iniziali con momento

· · ·

totale I + + I = 0.

1 n

La figura 22 mostra il comportamento delle medie I (T ) in funzione di T (su scala logaritmica),

j

per grande accoppiamento, precisamente per ε = 0.9. Il risultato è consistente con l’idea che il

I (∞) =

sistema, in queste condizioni, abbia “un buon comportamento statistico”; come atteso si ha j

0 per ogni j. La figura 23 mostra nelle stesse condizioni, più precisamente per lo stesso movimento,

la funzione di correlazione (a sinistra) e lo spettro di potenza (a destra); per ragioni grafiche le

figura si limita a soli sei rotatori. Come si vede, tutte le correlazioni decadono rapidamente, in

poche unità di tempo (tutte le velocità angolari sono di ordine uno, perciò poche unità di tempo

46 Si possono considerare correlazioni incrociate di due funzioni f e g, con ovvia definizione

T

Z

Γ (τ ) 1

f,g f (∞)g(∞) .

, Γ (τ ) = lim f (t + τ )g(t) dt −

γ = f,g

f,g 2

σ T

T →∞ 0

Quando g = f si usa il termine “autocorrelazione” (spesso sostituito, nella pratica, dal semplice “correlazione”).

47 La comprensione qui richiede un minimo di familiarità con la trasformata di Fourier, generalizzazione della serie

di Fourier quando l’intervallo di definizione delle funzioni è tutto e corrispondentemente la frequenza, qui denotata

R,

ν, anziché essere multipla di una frequenza fondamentale è una variabile continua, ν ∈ Chi non avesse tale

R.

familiarità può senza danno saltare qui e più avanti tutte le considerazioni relative allo spettro di potenza.

4.5 — Sistemi non isocroni; il modello dei rotatori 82

Figura 26: Come nelle figure 22 e 24, per ε = 0.03, con dati iniziali non risonanti.

vuol dire pochi giri di ciascun rotatore). Si osservi che lo spettro ha l’aspetto di una banda continua,

che si estende da zero a un valore ν prossimo a π, e che tutti i rotatori si comportano allo stesso

max

modo. Il moto, con evidenza, non ha nulla a che vedere con un moto quasi periodico.

Le figure 24 e 25 riportano le medesime quantità per accoppiamento più basso, ε = 0.5. L’a-

spetto qualitativo non è molto diverso, ma la scala di tempo sulla quale si manifestano i diversi

fenomeni si è dilatata; corrispondentemente la banda continua dello spettro è più stretta (le fre-

quenze in gioco sono più basse). Le figure successive 26 e 27 si rifericono invece a un valore di ε

sensibilmente più basso, precisamente ε = 0.03, con dati iniziali scelti in modo da evitare la pre-

senza di risonanze. La situazione ora è alquanto diversa: le azioni appaiono stabili, le correlazioni

48

non decadono, lo spettro si mostra discreto.

Le successive figure 28 e 29 si riferiscono al caso risonante, precisamente alla risonanza doppia

≃ ≃ ≃

I I I ε, con dati iniziali tali che I +I +I = 0; il valore di ε è ancora 0.03. Con evidenza

1 2 3 1 2 3

i rotatori 1, 2 e 3 formano un sottosistema separato interagente: la media delle loro azioni è nulla, la

correlazione decade, lo spettro di potenza mostra una banda stretta ma continua, ben diversa dalle

righe del caso precedente; nel contempo gli altri rotatori avanzano regolarmente, sostanzialmente

come nel caso precedente. La funzione di correlazione, ad esempio tramite il suo primo zero, fornisce

una elementare scala di tempo associata al moto caotico. In base all’analisi teorica sopra riportata,

questo tempo deve riscalare come 1/ ε, mentre corrispondentemente l’ampiezza della banda in W j

deve risultare proporzionale a ε. Una verifica di questa proprietà di riscalamento — rilevante,

perché coglie l’aspetto più essenziale del moto risonante — si può fare riducendo ε, ad esempio,

di un fattore 4, e controllando che il tempo di decorrelazione e l’ampiezza della banda continua

+ −

48 Si potrebbe vedere che le linee nello spettro del j-esimo rotatore sono esattamente a ν = I −I e ν = I −I ;

j+1 j j j−1

j j

sono queste in effetti le frequenze che intervengono nella trasformazione canonica che determina l’oscillazione di I j

˜

attorno a I (quasi costante).

j

4.5 — Sistemi non isocroni; il modello dei rotatori 83

Figura 27: Come nelle figure 23 e 25, per ε = 0.03, con dati iniziali

risonanti.

4.5 — Sistemi non isocroni; il modello dei rotatori 84

Figura 28: Come nella figura 23, per il medesimo ε = 0.03, ma dentro

≃ ≃ ≃

alla risonanza I I I ε.

1 2 3

siano rispettivamente aumentati e diminuiti di un fattore 2. La verifica è riportata in figura 30. La

parte superiore si riferisce a ε = 0.03, quella inferiore a ε = 0.0075. Per quest’ultimo valore di ε la

scala di tempo è raddoppiata rispetto al caso ε = 0.03, mentre la scala delle frequenze è dimezzata;

come si vede, le figure si assomigliano in modo significativo (per rendere più leggibili le figure con

lo spettro, la scala delle frequenze è stata ulteriormente dilatata di un fattore cinque, allo stesso

modo per i due valori di ε).

• Le figure 22 – 30 sono servite a illustrare la teoria sviluppata nel paragrafo precedente. Ma

vanno oltre la teoria: infatti la scala di tempo su cui si osservano, per ε piccolo, i moti

regolari, o anche i moti caotici dei primi tre rotatori ma disaccoppiati dalla parte restante

della catena, è troppo grande perché la si possa considerare spiegata dall’analisi elementare

di primo ordine sviluppata sopra. Un’analisi di ordine più elevato sarebbe necessaria. Non

possiamo qui andare oltre; si vedano però più avanti, per dare l’idea della potenzialità dei

metodi perturbativi, il teorema KAM e il teorema di Nekhoroshev.

F. Oltre il modello dei rotatori. Il modello dei rotatori che abbiamo sopra studiato ha molte

peculiarità che ci hanno semplificato lo studio analitico e — grazie soprattutto alla localizzazione

spaziale delle variabili d’azione e all’interazione anch’essa localizzata nella catena — hanno facilitato

l’esposizione dei risultati e la loro visualizzazione fisica. In realtà niente di tutto questo è realmente

necessario, tutto si generalizza in maniera abbastanza naturale (anche il passaggio da polinomio a

serie di Fourier è abbastanza indolore), ad eccezione di un punto: il meccanismo di confinamento,

per il quale abbiamo utilizzato la conservazione dell’energia. Un’estensione facile è quella a generiche

hamiltoniane imperturbate convesse, non necessariamente quadratiche né in alcun senso localizzate,

4.5 — Sistemi non isocroni; il modello dei rotatori 85

Figura 29: Come nella figura 27, per lo stesso ε = 0.03, ma dentro alla

√ o o o

≃ ≃ ≃ ε; dati iniziali tali che I + I + I = 0.

risonanza I I I

1 2 3 1 2 3

4.5 — Sistemi non isocroni; il modello dei rotatori 86

Figura 30: Correlazione e spettro di potenza di I , I , I , nella risonanza

1 2 3

≃ ≃ ≃ ε, a ε = 0.03 (alto) e ε = 0.0075 (basso).

I I I

1 2 3

4.6 — I grandi teoremi della teoria hamiltoniana delle perturbazioni 87

per le quali la conservazione dell’energia fornisce ancora il confinamento. Ma la comprensione del

problema del confinamento, e delle ipotesi minime o “naturali” su h che lo garantiscono, è di quelli

difficili. Qualche ipotesi su h più forte della (4.34) è sicuramente necessaria, se si vuole che le

azioni restino confinate (e valga il principio della media), come mostra il controesempio (4.10).

Capire a fondo il problema non è cosa da poco; l’idea fondamentale è stata introdotta nel 1977 da

Nekhoroshev, con la nozione di steepness, ma il problema — molto rilevante per la fisica: i sistemi

importanti tipicamente non sono convessi — è ancora allo studio. Ci fermiamo qui; uno studio

poco più approfondito si trova nell’appendice J.

4.6 I grandi teoremi della teoria hamiltoniana delle perturbazioni

Esponiamo qui, senza nemmeno accennare alla dimostrazione, alcuni risultati importanti di carat-

tere generale che si sono ottenuti per sistemi hamiltoniani prossimi a sistemi integrabili. Caratte-

ristica comune a tali risultati è la capacità di dominare gli effetti della perturbazione, e garantire

la stabilità delle azioni, o per tempi infiniti o per tempi che per ε piccolo crescono più rapidamente

di qualunque potenza inversa di ε: a

(ε /ε)

t e con ε , a > 0 . (4.44)

∗ ∗

A. Il teorema “KAM”.

Il teorema KAM (Kolmogorov 1954, Arnol’d 1962, Moser 1961) è il più classico dei risultati

moderni. Non è esagerato dire che sia il risultato per sé, sia i metodi introdotti nella dimostrazione,

hanno segnato una svolta profonda nella teoria hamiltoniana delle perturbazioni (e non solo). Più

che un singolo teorema è una collezione di teoremi e metodi di lavoro, che formano una vera e propria

teoria (ancora in accrescimento, in particolare nelle sue estensioni a sistemi infinito dimensionali).

Qui ci limiteremo a un singolo enunciato di base.

Il teorema riguarda sistemi hamiltoniani quasi integrabili n

∈ ×

H (I, ϕ) = h(I) + εf (I, ϕ) , (I, ϕ) B , (4.45)

T

ε

con h non degenere, precisamente tale che sia

2

∂ h

′′ ′′

6

det h (I) = 0 ove h = . (4.46)

∂I ∂I

i j

7→

E’ la situazione in cui la mappa I ω(I) è localmente invertibile, e corrispondentemente i punti

≤ −

non risonanti, come quelli con un numero arbitrario di risonanze r n 1, sono densi in B.

In buona sostanza, il teorema assicura che la struttura di sistema integrabile, precisamente la

n

decomposizione dello spazio delle fasi in tori invarianti, sui quali i moti sono quasi periodici,

T

persiste nel sistema perturbato riuscendone soltanto deformata, purché si escluda dallo spazio delle

fasi un insieme di dati iniziali di misura di Lebesgue piccola, ε).

O(

Diamo qui un enunciato, fra i diversi possibili, che più si adatta al nostro contesto (Lazutkin

1975; Chierchia e Gallavotti 1981; Pöschel 1981).

Consideriamo l’hamiltoniana H della forma (4.45). Supponiamo che:

Proposizione 22 ε n

×

i) H sia analitica e limitata in un intorno complesso D del dominio D = B ;

T

ε ext

4.6 — I grandi teoremi della teoria hamiltoniana delle perturbazioni 88

Figura 31: (a) I tori invarianti nelle nuove variabili; (b) gli stessi tori nelle

vecchie variabili, “deformati” dalla trasformazione w prossima all’identità.

ii) h sia non degenere, precisamente soddisfi la (4.46) in B;

iii) ε sia piccolo.

Allora esistono: ˜ → ⊂

(a) una trasformazione canonica prossima all’identità (I, ϕ) = w ( I, ϕ̃), w : D w (D) D ,

ε ε ε ext

di classe C , definita nel dominio D; ∞ →

(b) un’hamiltoniana integrabile h̃ prossima a h in classe C , h̃ : B R;

ε ε

(c) un sottoinsieme B B di misura di Lebesgue grande:

ε √

\ ∼

mes (B B ) ε ,

ε

˜ ˜ ˜

→ ∈

tali che la nuova hamiltoniana H̃ ( I, ϕ̃) = H (w ( I, ϕ̃)) : D coincide con h̃ per I B :

R

ε ε ε ε ε

B ˜

˜ ε

= h̃ ( I) ,

H̃ ( I, ϕ̃) ε

ε

B ˜

ε ∈

= denota uguaglianza di funzioni e derivate limitatamente a I B . La frequenza

ove il simbolo ε

˜

∂ h̃ ∈ ∼

ω = , per I B , soddisfa le relazione diofantea (4.32) con γ ε.

ε ε

˜

∂ I

Si rifletta bene su questa non comune situazione: ◦

– la trasformazione canonica, e con essa H̃ = H w, sono definiti in tutto il dominio D;

ε ε

– solo su un certo sottoinsieme di misura grande si garantisce che H̃ è indipendente dagli angoli,

e corrispondentemente il sistema, ristretto a questo sottoinsieme, si comporta come se fosse

integrabile. ˜

L’immediata conseguenza della proposizione è che le nuove azioni I, se prese inizialmente nell’in-

˜ n

{ ×

sieme grande B , restano costanti; corrispondentemente i tori I} sono invarianti e su di

T

ε

essi il moto degli angoli è lineare e quasi periodico (con frequenze diofantee). Complessivamente

questi moti formano un insieme di misura grande. L’immagine di ciascun toro nelle vecchie varia-

bili è ancora un toro invariante, solo un po’ deformato dalla trasformazione w (si veda la figura

˜

31). Le vecchie azioni I, dovendo restare prossime alle I, oscillano di poco. Il principio della me-

dia è soddisfatto per tempi infiniti, condizionatamente a prendere il dato iniziale su uno dei tori

invarianti.

L’aspetto delicato del risultato (non facile da capire) è che l’insieme B , cosı̀ come è costruito

ε

nella dimostrazione, pur avendo misura grande ha interno vuoto, più precisamente il suo comple-

\ ≥

B = B B è aperto denso. Inoltre, per n 3, B è anche connesso: come una rete o un

mentare ε ε ε

intreccio (“Arnol’d web”) di “massa” piccola, ma sparso ovunque. Da un lato dunque per la grande

4.6 — I grandi teoremi della teoria hamiltoniana delle perturbazioni 89

maggioranza in misura di dati iniziali il sistema si comporta come se fosse integrabile. Dall’altro

per nessun aperto si può garantire che le azioni resteranno prossime al valore iniziale, e la diffusione

lungo la rete (“Arnol’d diffusion”) non si può escludere. Si conoscono esempi particolarissimi di

sistemi in cui la diffusione si dimostra esistere. Fino a che punto il fenomeno sia generico, e come

avvenga — in particolare per sistemi fisicamente importanti come il Sistema Solare — è una cosa

ancora non ben compresa.

B. Il teorema di Nekhoroshev.

Il prossimo risultato che esponiamo, dovuto a Nekhoroshev (1977, un allievo di Arnol’d) è in un

certo senso complementare al teorema KAM. Riguarda anch’esso hamiltoniane della forma (4.45),

ma a h si richiede che soddisfi un’ipotesi geometrica la cui espressione più semplice, anche se non

49

la più generale, è la convessità: ′′ n

· 6 ∀u ∈ \ {0} ∈

u h (I)u = 0 , I B (4.47)

R

′′

·

(u h u deve cosı̀ essere sempre positivo o sempre negativo). Il risultato è, come per il teorema

KAM, un risultato di stabilità delle azioni. Ma a differenza del teorema KAM:

– il risultato vale per ogni dato iniziale;

– la scala di tempo su cui si assicura la stabilità delle azioni non è infinita, ma “solo” molto

lunga come nella (4.44).

L’uniformità del risultato nello spazio delle fasi lo rende molto adatto alle applicazioni fisiche; la

limitazione a tempi lunghi ma non infiniti non è molto penalizzante fisicamente, dal momento

50

che ogni modello fisico è buono in realtà solo entro una scala di tempo lunga ma finita. Le

applicazioni fisiche (alla Meccanica Celeste, alla Meccanica Statistica, alla fisica del plasma, alla

fisica degli acceleratori di particelle) sono state coltivate soprattuto in Italia.

Consideriamo H della forma (4.45). Supponiamo che:

Proposizione 23 ε n

×

i) H sia analitico e limitato in un intorno complesso del dominio D = B ;

T

ε

ii) h soddisfi l’ipotesi di convessità (4.47);

iii) ε sia piccolo.

Allora esistono costanti positive ε , T , I , a, b tali che per ogni dato iniziale in D e per

∗ ∗ ∗ a

(ε /ε)

|t| ≤ T e ∗

risulta b

|I − ≤

(t) I (0)| I ε .

i i ∗

Valori possibili di a, b sono a = b = 1/(2n).

49 ′′

Di solito si prende come ipotesi la cosiddetta quasi–convessità: precisamente che risulti u · h u(I) 6 = 0 per tutti

n 2

gli u ∈ tali che u · ω(I) = 0. Un esempio di funzione quasi–convessa ma non convessa è h(I , I ) = I + I . La

R 1 2 1 2

proprietà più generale sotto la quale il teorema vale, detta steepness, è troppo complicata per essere qui descritta.

50 9

Ad esempio, modelli hamiltoniani del Sistema Solare hanno senso solo per tempi (qualcosa come 10 anni) in cui

gli effetti dissipativi, dovuti principalmente alle maree, non si fanno sentire.

4.6 — I grandi teoremi della teoria hamiltoniana delle perturbazioni 90

• Vale la pena di osservare che il controesempio (iv) al principio della media, riportato nel

paragrafo 4.3, non soddisfa l’ipotesi di convessità (4.47), mentre la soddisfa l’esempio (iii).

C. Stime esponenziali per sistemi isocroni perturbati.

L’ultimo risultato che raccontiamo riguarda sistemi isocroni perturbati della forma già

considerata nel paragrafo precedente, con ω che soddisfa la condizione diofantea (4.32).

Sia data l’hamiltoniana

Proposizione 24 n n

· ∈ ⊂ ∈

H (I, ϕ, ε) = ω I + εf (I, ϕ, ε) , I B , ϕ .

R T

ε

Supponiamo che: n

×

a) f sia analitica e limitata in un intorno complesso di B ;

T

b) l’n–pla (ω , . . . , ω ) delle frequenze soddisfi la relazione diofantea

1 n γ n

|k · ≥ ∀ ∈ \ {0}

ω| k Z

n

|k|

per un opportuno γ > 0;

c) ε sia sufficientemente piccolo. n

×

Allora esistono costanti positive T , I , ε tali che per ogni dato iniziale in B , e per la scala

T

∗ ∗ ∗

di tempo 1/n

(ε /ε)

|t| ≤ T e ,

risulta 1/n

|I − ≤

(t) I (0)| I ε .

j j ∗

Il risultato si colloca nel solco della teoria di Nekhoroshev ma è stato enucleato per la prima

volta (in forma poco più debole) da Gallavotti (1984). Quello che si dimostra, in verità, è che esiste

˜

una trasformazione canonica (I, ϕ) = w( I, ϕ̃) piccola con ε tale che la nuova hamiltoniana ha la

forma 1/n

˜ ˜ ˜ ˜

(ε /ε) ′

·

H̃ ( I, ϕ̃) = ω I + εg( I, ε) + εe f ( I, ϕ̃) ,

ε

con g e f limitate; la stima sulla stabilità delle azioni è allora un corollario.

Una variante del risultato precedente riguarda sistemi hamiltoniani della forma

n

X · · ·

E (p , q ) + V (p, q) + V (p, q) + , (4.48)

H(p, q) = i i i 3 4

i=1

1 2

2 ≥

) mentre V , s 3, denota un polinomio omogeneo di grado s in p, q; il dominio

+q

ω (p

ove E = s

i

i i

i

2

D è un piccolo intorno dell’origine: 2n

{(p, ∈

D = q) : E (p , q ) < ε} .

R

ε i i i

Questa classe di hamiltoniane, come si è già commentato nel paragrafo 4.1, comprende innanzitutto

i sistemi hamiltoniani nell’intorno di una posizione di equilibrio stabile (p e q sono le variabili asso-

ciate ai modi normali di oscillazione), ma comprende anche, si riveda l’esercizio 22, l’hamiltoniana

4.7 — Invarianti adiabatici 91

dell’asteroide attorno ai punti lagrangiani L e L : questo caso differisce dal precedente perché

4 5

le frequenze ω non sono concordi e la stabilità del punto di equilibrio non è nota a priori. Nel

i

trattare l’hamiltoniana (4.48) non ci si può ridurre alla proposizione precedente perché, come già si

è osservato, passando alle variabili di azione–angolo intervengono le radici quadrate delle azioni e

si perde la regolarità della perturbazione. La difficoltà tuttavia è solo tecnica, e si può dimostrare

la seguente proposizione:

Sia H come sopra. Se l’n–pla delle frequenze soddisfa la condizione diofantea

Proposizione 25

(4.32) e il parametro ε che caratterizza il dominio D è sufficientemente piccolo, allora esistono

ε

costanti T , E , ε , tali che per ogni dato iniziale in D e per la scala di tempo

∗ ∗ ∗ ε

1/n

(ε /ε)

|t| < T e ∗

risulta 1/n

|E −

(t) E (0)|/ε < E ε , i = 1, . . . , n ,

i i ∗

ove si è usata la notazione agile E (t) per E (p (t), q (t)).

i i i i

Nel caso delle piccole oscillazioni attorno a una posizione di equilibrio stabile, la proposizione ci

dice che se le frequenze dei modi normali di oscillazione sono diofantee (cosa che avviene con grande

probabilità, se le frequenze sono prese a caso con riferimento alla misura di Lebesgue), allora i modi

normali sono sostanzialmente disaccoppiati per tempi lunghi (per il sistema vero, non solo per quello

linearizzato). Per il problema di L , L ci viene garantita, in più, la stabilità non perpetua ma per

4 5

tempi lunghi.

• I sistemi quasi integrabili fisicamente interessanti, ad esempio quelli che si presentano natu-

ralmente in meccanica celeste, di rado soddisfano le ipotesi del teorema KAM o del teorema di

Nekhoroshev, che difficilmente sono direttamente applicabili. Si tratta tuttavia di teoremi (o

meglio teorie) abbastanza flessibili, che si applicano magari magari dopo un lavoro prelimina-

re ad hoc sull’hamiltoniana, oppure sfruttando qualche peculiarità del sistema che compensa

il non pieno soddisfacimento di un’ipotesi. Questo è vero in particolare per il teorema di

Nekhoroshev, che ben si adatta a operare, tra gli altri, sui sistemi degeneri come il corpo

rigido, nei quali non tutte le azioni sono presenti nell’hamiltoniana imperturbata.

4.7 Invarianti adiabatici

Consideriamo un sistema hamiltoniano H(p, q, λ) dipendente da un parametro λ. Ci chiediamo che

cosa avviene se λ varia lentamente nel tempo: diciamo

λ = λ(εt) ,

con ε piccolo e λ( . ) funzione assegnata. Il problema comincia a essere interessante per t = o

O(1/ε)

maggiore, cioè quando si lascia al parametro λ il tempo di variare di una quantità che non è piccola

per ε piccolo. La domanda spontanea è se, pur variando il parametro in modo significativo, non

ci sia qualche cosa che si conserva; l’energia, si ricordi, non si conserva, per via della dipendenza

dell’hamiltoniana da t. Una definizione appropriata allora è la seguente:

4.7 — Invarianti adiabatici 92

2n+1 →

Una funzione F (p, q, λ), F : si dice essere un invariante adiabatico

R R,

Definizione 12

per il sistema di hamiltoniana H(p, q, λ(εt)), se esiste τ > 0 tale che per ogni moto del sistema

0

risulti − → →

F (p(t), q(t), λ(εt)) F (p(0), q(0), λ(0)) 0 per ε 0

≤ ≤

in tutto l’intervallo 0 t τ /ε.

0 →

Il tempo τ = εt è detto “tempo breve” del sistema; lo studio è dunque per ε 0 in un intervallo

di tempo breve fissato.

Ci ripromettiamo di studiare la presenza di un invariante adiabatico in casi semplici, applicando

un metodo perturbativo. Prima però, per illustrare la nozione, studiamo un modellino del tutto

elementare ove la presenza di un invariante adiabatico si mette in evidenza con un calcolo esplicito.

A. Un modello di gas in una dimensione.

Consideriamo un modello brutalmente semplificato di gas in una dimensione, composto da un

solo punto materiale che rimbalza avanti e indietro tra una parete fissa e un pistone che si muove

lentamente (figura 32). Detta l la distanza del pistone dalla parete fissa, prendiamo per semplicità

la legge lineare l = l + ε v t ,

0

ma quanto andiamo a dire si estende a l(εt) regolare qualsiasi.

Denotiamo con u il modulo della velocità del punto materiale; si verifica facilmente che il

prodotto lu è un invariante adiabatico del sistema, e un possibile valore di τ è τ = l /(2v). Per

0 0 0

vederlo, denotiamo con l la posizione del pistone al momento della j–esima collisione e con u il

j j

modulo della velocità del punto materiale tra la j-esima e la j + 1–esima collisione. La collisione

successiva avviene dopo il tempo t tale che u t = 2l + εvt, ovvero t = 2l /(u εv), e in quel

j j j j j

momento il pistone è nella posizione 2εvl j

l = l + ; (4.49)

j+1 j −

u εv

j 51

il nuovo valore della velocità all’uscita della collisione è poi

u = u 2εv . (4.50)

j+1 j

Le (4.49) e (4.50) forniscono una mappa (l , u ) = Φ(l , u ) da una collisione all’altra. Per le

j+1 j+1 j j

velocità la (4.50) dà banalmente −

u = u 2jεv .

j 0

E’ immediato vedere che, fintantoché il denominatore resta staccato via da zero, la mappa conserva

il prodotto lu al primo ordine in ε: risulta infatti u v

j 2

l u = l u 2εvl + 2εvl + 4ε vl

j+1 j+1 j j j j j

− −

u εv u εv

j j

2

= l u + ) .

O(ε

j j

51 E’ la consueta legge dell’urto elastico con un oggetto di massa infinita (una pallina contro un camion che si

allontana). Se non è chiaro: si denoti con w la velocità con segno del punto (u = |w|), e con w la corrispondente

velocità nel sistema di riferimento in cui il pistone appare fermo, w = w − εv. Prima dell’urto si ha w = u ,

j j

′ ′ ′ ′

w = u − εv; nell’urto w si inverte, w = −w = −(u − εv); corrispondentemente w = −(u − 2εv),

j j j+1 j

j j+1 j

u = |w | = u − 2εv.

j+1 j+1 j

4.7 — Invarianti adiabatici 93

Figura 32: Un modello elementare di gas in una dimensione.

u

)

(

u t )

(

l t

x

Figura 33: L’invariante adiabatico è l’area nel piano uv, ovvero

l’azione del sistema integrabile a parametro fissato. ≥

Di certo il denominatore è staccato da zero se imponiamo, ad esempio, u u /2; ciò limita il

j 0

numero di urti a n = u /(4εv). Il tempo trascorso è dato dalla somma dei t fino a n , e poichè

0 0 j 0

per ogni j si ha t > 2l /u , si trova un intervallo di tempo superiore a τ /ε con

j 0 0 0

l 0

τ = . (4.51)

0 2v

Durante questo tempo, poiché n = il prodotto lu è variato di Il prodotto lu è

O(1/ε), O(ε).

0

pertanto un invariante adiabatico, con τ dato dalla (4.51).

0

• Quella che abbiamo trovato è la legge delle adiabatiche in una dimensione, ove si interpreti

2

l come volume e u (a meno di una costante moltiplicativa) come temperatura. Infatti per

un gas monoatomico in dimensione d = 1 la costante γ delle adiabatiche vale (d + 2)/d = 3,

γ−1 2 2

perciò la legge delle adiabatiche T V = cost si scrive u l = cost che è proprio quello che

abbiamo trovato.

• Vale la pena di osservare che il prodotto ul, ovvero l’invariante adiabatico in questo problema,

è a meno di un fattore due l’area nel piano di fase ux sottesa alle traiettorie (discontinue) del

sistema a l costante (figura 33), ovvero è l’azione del sistema integrabile a parametro fissato.

Si stimi meglio la variazione del prodotto lu al tempo τ /ε.

O(ε)

Esercizio 46 0

Si generalizzi la dimostrazione al caso in cui il pistone si muove di moto vario, cioè

Esercizio 47

per l(τ ) L > 0 regolare qualsiasi.

4.7 — Invarianti adiabatici 94

B. L’oscillatore armonico con frequenza variabile.

La teoria degli invarianti adiabatici è semplice e ben stabilita per sistemi a un grado di libertà

che a parametro bloccato eseguono moti periodici. Qui ci limitiamo a descrivere un esempio facile

per il quale si scrive tutto esplicitamente, precisamente l’oscillatore armonico con frequenza variabile

1 2 2 2

H(p, q, εt) = (p + ω(εt) q ) , (4.52)

2

con ω : funzione assegnata, ma il risultato si generalizza opportunamente a sistemi oscillanti

R R

qualsiasi, ad esempio al pendolo (pur di restare lontani dalle separatrici, in modo che la frequenza

resti sempre staccata da zero). Precisamente, dimostriamo che

6 ≤ ≤

Per il sistema (4.52), se ω(τ ) = 0 per 0 τ τ , l’azione

Proposizione 26 0

1 2 2 2

I(p, q, ω) = (p + ω q ) (4.53)

è un invariante adiabatico.

Possiamo scomporre concettualmente le dimostrazione in tre passi.

Dimostrazione.

Primo passo, elementare: passiamo al sistema autonomo a due gradi di libertà nello spazio esteso,

1 2 2 2

ext (p + ω(τ ) q ) + εA ,

H (p, q, A, τ ) =

ε 2 ext con

ove A, τ sono variabili coniugate; poiché τ̇ = ε, si verifica immediatamente che i moti di H ε

τ (0) = 0 coincidono, per quanto riguarda p e q, con i moti di H. Nel seguito eseguiremo alcune

trasformazioni canoniche, ma tutte tali da non cambiare τ che mantiene cosı̀ il significato di tempo

breve εt.

Secondo passo, un po’ laborioso: introduciamo le variabili di azione–angolo dell’oscillatore,

estendendole in modo opportuno alla coppia (J, τ ). Precisamente, cerchiamo una trasformazione

(p, q, A, τ ) = w(I, ϕ, J, τ̂ )

in cui (i) τ non cambia, cioè τ = τ̂ ; (ii) I, ϕ sono quelle che scriveremmo se ω fosse fissato, ovvero

p p

p = 2Iω(τ ) cos ϕ , q = 2I/ω(τ ) sin ϕ , (4.54)

cosicché l’azione I è data dalla (4.53); infine (iii) l’espressione di A in funzione delle nuove variabili è

tale da rendere complessivamente canonica w. (In altre parole: per p e q scriviamo la trasformazione

canonica “a tempo bloccato” che avremmo scritto per ω costante, poi la estendiamo canonicamente

alla coppia (A, τ ) curando però che sia τ = τ̂ .) E’ facile verificare che una buona scelta di A esiste

ed è A = J + a(I, ϕ, τ ) , (4.55)

con ′

ω (τ )

a(I, ϕ, τ ) = I sin 2ϕ , (4.56)

2ω(τ )

4.7 — Invarianti adiabatici 95

ove ω denota la derivata di ω rispetto a τ . E’ facile verificarlo guardando ad esempio alle parentesi

52

di Poisson; un po’ più difficile è inventarsi le (4.55), (4.56). Un modo spontaneo di procedere

è quello di scrivere la funzione generatrice in variabili miste ϕ, τ ) che per ogni τ fissato dà la

S(p,

(4.54), o meglio la sua inversa; già sappiamo (esercizio 10) che la scelta buona è

2

p tan ϕ .

ϕ, τ ) =

S(p, 2ω(τ )

Questa generatrice si estende all’altro grado di libertà “aggiungendo l’identità”, cioè ponendo

S(p, ϕ, A, τ̂ ) = ϕ, τ̂ ) + Aτ̂ ;

S(p, ∂S ∂S

la scelta assicura che τ non cambi, infatti si ha τ = = τ̂ . A questo punto si scrive J = , e il

∂A ∂ τ̂

risultato, togliendo il cappuccio a τ̂ , è l’accoppiata (4.55), (4.56).

ext ◦

La nuova hamiltoniana = H w risulta essere

H

ε ε

(I, ϕ, J, τ ) = h(I, τ ) + εJ + εa(I, ϕ, τ ) ,

H

ε

con h(I, τ ) = ω(τ ) I .

E’ interessante osservare che la lenta dipendenza di ω dal tempo si è tradotta, al momento di passare

alle variabili di azione–angolo, nella comparsa del termine perturbativo εa(I, ϕ, τ ). E’ cruciale, si

6

vede, aver supposto ω(τ ) = 0.

Terzo passo: Su questa hamiltoniana lavoriamo ora con metodi perturbativi, mostrando che

τ 0

o

|I(t) − | |t| ≤

I < cost ε per .

ε

La presenza della variabile τ , che non è un’azione, nell’hamiltoniana imperturbata, apparentemente

rende il problema diverso da quelli visti precedentemente; vedremo però che lo stesso schema

perturbativo funziona ugualmente senza difficoltà.

Eseguiamo allora un passo perturbativo con il metodo di Lie, ovvero poniamo

˜ ˜

εχ

(I, ϕ, J, τ ) = Φ ( I, ϕ̃, J, τ̃ ) ,

avendo però l’accortezza di prendere χ indipendente da J, in modo che nella dinamica di χ (non in

quella vera!) sia τ̇ = 0, e cosı̀ nella trasformazione canonica risulti τ = τ̃ . Come risultato troviamo

εχ

◦ della forma

la nuova hamiltoniana = Φ

H̃ H

ε ε 2

= h + ε{h, χ} + ε(J + a) + ) con h = ω(τ ) I ,

H̃ O(ε

ε

e si deve determinare χ in modo che il termine di ordine ε perda la dipendenza dall’angolo ϕ.

{h,

Grazie al fatto che χ non dipende dalla variabile J coniugata a τ , la parentesi di Poisson χ} è

la stessa che si avrebbe per ω costante, e per questo la presenza di τ in h non disturba.

52 ∂A

Chi non ama le funzioni generatrici può far leva sulle parentesi di Poisson: perché risulti {τ, A} = = 1,

∂J

l’espressione di A deve essere necessariamente del tipo (4.55); la forma (4.56) di a si deduce poi facilmente imponendo

che {A, p} e {A, q} (le uniche parentesi di Poisson non banali) si annullino. Cosı̀ facendo vengono equazioni lineari

∂a ∂a

per e che si risolvono subito e danno

∂I ∂ϕ ′ ′

ω (τ ) ω (τ )

∂a

∂a = sin 2ϕ , = I cos 2ϕ ;

∂I 2ω(τ ) ∂ϕ ω(τ )

segue la (4.56).

4.7 — Invarianti adiabatici 96

p

p q

q "

1

0 /

t=

t=

Figura 34: Ad illustrazione dell’invarianza adiabatica dell’azione. La corrispon-

denza tra moti a t = 0 e t 1/ε è a parità di azione (di area), non di energia.

Osservando che la media della perturbazione è J (a infatti ha media in ϕ nulla), l’equazione da

risolvere risulta essere ∂χ

ω(τ ) = a(I, ϕ, τ ) ,

∂ϕ

ovvero ′

ω (τ )

∂χ = I sin 2ϕ ,

2

∂ϕ 2ω(τ )

ed evidentemente la soluzione c’è sempre, ′

ω (τ )

− I cos 2ϕ ;

χ(I, ϕ, τ ) = 2

4ω(τ )

si osservi che grazie alla presenza di un solo grado di libertà veloce non ci sono piccoli divisori, ma

solo ω a denominatore, che fino al tempo breve τ è garantita essere diversa da zero.

0

εχ

La trasformazione canonica Φ porta cosı̀ l’hamiltoniana nella forma

ε

˜ ˜ ˜ ˜ 2

( I, ϕ̃, J, τ ) = ω(τ ) I + ε J + ) ,

H̃ O(ε

ε

e corrispondentemente si hanno le solite stime del tipo

˜ ˜

| − ≤ ≤

I(t) I(0)| < cost ε per 0 t τ /ε .

0

εχ

D’altra parte, la trasformazione canonica Φ è ε–vicina all’identità, e in particolare si ha

˜ ˜

|I(t) − |I(0) −

I(t)| , I(0)| < cost ε ;

segue allora |I(t) − ≤ ≤

I(0)| < cost ε per 0 t τ /ε ,

0

ovvero l’invarianza adiabatica dell’azione.

Si osservi che per l’oscillatore armonico che stiamo considerando l’azione è legata all’energia E

da I = E/ω(τ ). L’invarianza adiabatica di I ci dice cosı̀ immediatamente che per lente variazioni

di ω l’energia E varia proporzionalmente a ω. La figura 34 illustra il risultato: dopo il tempo t di

ordine 1/ε la pulsazione ω(εt) è cambiata, e corrispondentemente è cambiato il ritratto in fase del

4.7 — Invarianti adiabatici 97

Figura 35: In grigio la zona spazzata dalle separatrici lentamente pulsanti. Per i mo-

ti sempre interni o esterni (al variare di ω) c’è un invariante adiabatico, con situazio-

ne non dissimile dall’oscillatore armonico; nella zona grigia l’invarianza adiabatica

è interrotta dall’attraversamento delle separatrici.

sistema (il ritratto, si intende, a parametro bloccato); moti che a t = 0 si svolgevano su una certa

curva di livello, trascorso il tempo t si svolgono non sulla curva di livello con la medesima energia,

ma su quella che ha (quasi esattamente) la medesima azione, ovvero sulla curva che sottende la

medesima area.

Il risultato, come si è detto, si trasporta sostanzialmente senza variazioni a tutti i sistemi

hamiltoniani H(p, q, λ) a un grado di libertà che per valori fissi del parametro λ abbiano moti

periodici (il ritratto in fase per ogni λ fissato ha curve chiuse):

Con riferimento a tali hamiltoniane, sia I(p, q, λ) l’azione a λ fissato, e sia ω(I, λ)

Proposizione 27 ≤ ≤

la corrispondente frequenza. Se ω(I, λ(τ )) resta staccata da zero per 0 τ τ , allora I è un

0

invariante adiabatico.

• Il caso di un sistema con separatrici che si muovono al variare del parametro, come il pendolo

a frequenza variabile 1 2 2

H(p, q, ω(εt)) = p ω(εt) cos q ,

2

si presenta in realtà più ricco e complesso dell’oscillatore armonico visto sopra. Prendiamo,

per fissare le idee, ω(τ ) = (2 + cos Ωτ ) ω ;

0

al variare di τ le separatrici (del sistema a ω bloccata) spazzano un’area come quella indicata

in grigio in figura 35. Al di fuori di quest’area, nella regione sempre interna o sempre esterna

alle separatrici lentamente pulsanti, il medodo di prova utilizzato per il pendolo funziona

perfettamente (salvo che molte espressioni, a cominciare da ϕ, τ ), restano implicite: sono

S(p,

ben definite, ma non si sbrogliano in funzioni elementari). L’invariante adiabatico, come nei

casi visti sopra, è l’azione, ovvero l’area sottesa da una traiettoria del sistema a ω bloccata.

E’ il caso della coppia di traiettorie (1) in figura: quella tratteggiata corrisponde a ω =

max

3ω , e si deforma nel mezzo periodo τ = π/Ω nella traiettoria punteggiata corrispondente

0

4.7 — Invarianti adiabatici 98

a ω = ω ; le due curve sottendono (quasi esattamente) la stessa area. Dopo un periodo

min 0

completo 2π/Ω le traiettorie riprendono (quasi esattamente) l’aspetto iniziale.

L’invarianza adiabatica viceversa si interrompe se un moto attraversa la separatrice, pas-

sando dalla regione (momentaneamente) interna a quella esterna o viceversa. E’ il caso della

coppia di curve (2): come sopra, la curva tratteggiata è una traiettoria corrispondente a ω ,

max

interna alla separatrice; nel corso del tempo la separatrice attraversa la curva, e la traiettoria

diventa esterna. Prima e dopo il passaggio l’invariante adiabatico si conserva (l’area sottesa

53

resta quasi costante); nel passaggio invece l’invariante adiabatico subisce un salto.

In realtà (sempre per sistemi con un solo grado di libertà) si dimostra di più della proposizione 27,

ad esempio:

– se H(p, q, λ(εt)) è analitica, l’azione è un invariante adiabatico per tempi molto lunghi,

ε /ε

|t| ≤ cost e ,

ove ε è una costante positiva.

∗ → ±∞,

– Sempre nel quadro analitico, se λ(τ ) tende a limiti λ per τ allora I è un invariante

±

adiabatico per ogni t, |I(t) − ∀ ∈

I(0)| < cost ε t ,

R

−∞

inoltre la variazione asintotica di I tra t = e t = +∞ è molto piccola: precisamente,

esistono i limiti I = lim I(t) e si ha

±∞ t→±∞ −ε /ε

|I − |

I < cost e .

+∞ −∞

– Infine, se H analitica dipende da εt in modo periodico l’azione è invariante adiabatico per

tutti i tempi.

Ulteriori estensioni, rilevanti per la fisica, comprendono il caso in cui al posto della dipendenza lenta

da t vi sia nel sistema un secondo grado di libertà lento (si pensi ad esempio a un elettrone che

avanza lentamente lungo le linee di un campo magnetico, ruotando attorno ad esse con la frequenza

di Larmor).

La nozione di invariante adiabatico fu formulata da P. Ehrenfest. C’è una connessione con

la quantizzazione: grazie al fatto che l’azione è la variabile quantizzata, la lenta variazione di λ

avviene senza variazione dello stato quantico. (Più precisamente, per ε piccolo la probabilità di

transizione dallo stato quantico di partenza ad un altro in un tempo t = 1/ε è piccola.)

53 Il salto si può calcolare; A.I. Neishtadt ha lavorato molto in questo campo, studiando anche la statistica possibile

dei successivi salti in un tempo lungo e la possibilità che li si possano descrivere come processo casuale diffusivo (cosa

che non risulta sempre vera: salti successivi, in certe condizioni, sono correlati e ci sono compensazioni.)

A — Introduzione al formalismo geometrico. 99

APPENDICI

A Introduzione al formalismo geometrico.

Nel primo paragrafo di questa appendice si richiama il formalismo geometrico che sta alla base

della nozione di equazione differenziale su una varietà. “Si richiama” vuol dire che si suppone già

una minima familiarità con le idee di base (la nozione stessa di varietà con le sue carte e l’atlante;

la nozione di spazio tangente e di campo vettoriale; la nozione di differenziale...). Anche chi fosse

del tutto a digiuno, tuttavia, un’idea se la può fare. Il secondo paragrafo è invece orientato alla

nozione di sistema hamiltoniano su una varietà.

Il punto di vista geometrico non è veramente necessario a capire le due idee centrali su cui si

sviluppano queste note — in buona sostanza, la nozione di sistema integrabile e di sistema prossimo

a integrabile, con le diverse scale di tempo associate al moto — ma di certo costituisce, anche se

solo intuito e non studiato a fondo, un punto di vista più maturo. Il linguaggio è un po’ informale;

lo spirito è soprattutto quello di rivisitare da un punto di vista geometrico quanto già visto nel testo

nel linguaggio delle coordinate, con poche estensioni (seppur significative, in particolare quando si

introduce la 2–forma canonica cui nel testo non si fa cenno).

Una parola sulle notazioni. E’ qui particolarmente importante distinguere gli oggetti globali,

geometrici, definiti sulla varietà, dai loro rappresentativi in una carta di coordinate locali. Le

notazioni necessarie saranno introdotte di volta in volta, ma l’idea è di usare maiuscole calligrafiche

come per le funzioni sulla varietà e la corrispondente comune minuscola f per la rappresentativa

F

locale; per oggetti a n componenti — i punti stessi della varietà, vettori, 1–forme — si useranno

notazioni del tipo x, X, ϑ per gli oggetti globali, e gli stessi simboli sottolineati x, X, ϑ per le n–ple

che li rappresentano localmente. Per le 2–forme, si userà similmente una notazione del tipo ω per

l’oggetto geometrico, ω per la matrice che lo rappresenta localmente.

A.1 Funzioni, campi vettoriali, forme

Coordinate locali.

Sia M una varietà differenziabile n-dimensionale. Denoteremo le sue carte con (U, ϕ), ove

n

⊂ →

U M e ϕ : U V biunivoca, V aperto di . Ogni carta costituisce un sistema di coordinate

R

∈ ∈ 7→ ∈

locali. Se ϕ invia x U in x = (x , . . . , x ) V , allora ϕ : x x — in notazione più

R

1 n i i

spiccia x (x) — è detta i-esima (funzione) coordinata, mentre le immagini inverse delle consuete

i n

linee coordinate di , ristrette a V , costituiscono le linee coordinate locali su M .

R e e e

∩ 6 ∅,

Date due carte (U, ϕ) e ( U , ϕ̃), posto U = U U = V = ϕ(U ), V = ϕ̃(U ), la funzione di

0 0 0 0 0

transizione e

−1

◦ →

ψ = ϕ ϕ̃ , ψ : V V

0 0

A — Introduzione al formalismo geometrico. 100

e →

Figura 36: La varietà M , due sue carte con la funzione di tranzizione ψ : V V ;

0 0

un moto (linea tratteggiata) sulla varietà e nelle carte.

rappresenta un cambiamento locale di coordinate (figura 36). Nel seguito scriveremo semplicemente

e e

→ →

ψ : V V , intendendo ψ : V V . La classe di regolarità delle funzioni di transizione è per

0 0

definizione la classe di regolarità di M . Analogamente per tutti gli oggetti geometrici (funzioni,

campi vettoriali, 1 e 2–forme) che introdurremo, la classe di regolarità sarà, per definizione, quella

dei loro rappresentativi locali. Per semplicità, e senza farne esplicita menzione, supporremo sempre

tutto di classe C .

Funzioni a valori in R. →

Sia una funzione a valori reali (o 0–forma) su M , : M per ogni carta (U, ϕ) resta

F F R;

definita la rappresentativa locale −1

◦ →

f = ϕ : V , V = ϕ(U ) .

F R

˜ e →

Se f , f sono rappresentative locali di una stessa in due diverse carte, e ψ : V V è come sopra

F

la funzione di transizione da una carta all’altra, allora si ha

˜ ˜

f = f ψ , ovvero f (x̃) = f (ψ(x̃)) ; (A.1)

viceversa, se si ha una famiglia di funzioni locali f : V una per ogni carta dell’atlante, e

R,

sono soddisfatte le relazioni di compatibilità (A.1) per ogni coppia di carte (con intersezione non

˜

vuota tra i domini), resta definita una funzione intrinseca : M La funzione f è anche detta

F R. ˜

e

pull–back di f sotto ψ (ψ va da V a V ; il pull–back porta funzioni f su V “indietro” a funzioni f

e

su V ).

Campi vettoriali; equazioni differenziali.

Come è noto, in ogni punto x M resta definito uno spazio tangente T M , dim T M = n. La

x x

collezione di tutti gli spazi tangenti ha una struttura naturale di varietà, ereditata dalla struttura

di M , e costituisce il fibrato tangente T M , dim T M = 2n; ogni punto di T M è una coppia (x, X)

∈ ∈ ∈

con x M e X T M . Un campo vettoriale su M è una mappa che ad ogni punto x M associa

x

A — Introduzione al formalismo geometrico. 101

∈ → ∈

un vettore X(x) T M , formalmente è una mappa M T M che a ogni x M associa una coppia

x

(x, X(x)) T M . Con piccolo abuso denoteremo il campo stesso con X. Per ogni carta (U, ϕ), e

per ogni x U , resta definita una base in T M formata dai vettori tangenti alle linee coordinate,

x

∂ ); il campo in x si scriverà allora

(o anche ∂ , . . . , ∂

, . . . ,

usualmente denotati x x

∂x ∂x n

1

n

1 n

X ∂

X (x)

X(x) = .

i ∂x i

i=1

La notazione introduce una piacevole confusione tra il campo e l’operazione di derivazione associata,

la cosiddetta derivata di Lie definita sotto.

→ ∈

La mappa tangente a ϕ : U V , denotata Dϕ, manda lo spazio tangente T M , x U , nel

x

∂ n

n

tangente a V in x la base canonica di :

, . . . ,

= ϕ(x), ovvero in , e associa alla base R

R ∂x ∂x n

1

∂ = e , i = 1, . . . , n. Per ogni campo vettoriale X su M , e per ogni carta (U, ϕ), resta allora

Dϕ i

∂x i

definito un campo vettoriale su V = ϕ(U ), che denotiamo X:

X(x) = (X (x), . . . , X (x))

1 n −1

(con piccolo abuso del simbolo X , usato qui al posto di X ϕ ); X si dice campo rappresentativo

i i

e

locale di X. Se X e X sono rappresentativi locali di uno stesso campo X su M in due carte diverse,

con funzione di transizione ψ dall’una all’altra come sopra, allora si ha la legge di trasformazione

∂ψ i

e −1

= J(x̃) X(x̃) , x̃ = ψ (x) , J = . (A.2)

X(x) ∂ x̃ j

Viceversa, se in tutte le carte dell’atlante sono definiti campi locali che (se i domini si intersecano)

soddisfano a due a due questa relazione di compatibilità, allora resta definito un campo X sulla

e 54

varietà. Il campo X definito dalla (A.2) si dice pull-back di X. La relazione che lega tra loro le

due basi su T M è

x n

X

∂ ∂

T

= J ij

∂ x̃ ∂x

i j

i=1

(come se si trattasse di derivate parziali).

Dato un campo vettoriale X su M restano definite un’equazione differenziale sulla varietà e

un’equazione differenziale locale in ogni carta, che si scrivono rispettivamente

ẋ = X(x) , ẋ = X(x) ;

tX

le diverse soluzioni locali Φ (riportate su M ) “si incollano bene” nell’intersezione dei domini delle

carte, e in questo modo resta definita una soluzione in grande su M , detta flusso del campo X e

tX tX ∈

denotata Φ . Se M è compatta, o comunque se Φ è prolungabile per t (cosa che supporremo

R

tX 55

{Φ ∈

sempre), allora , t è un gruppo:

R}

t+s −t

t s tX −1 0

Φ = Φ Φ , (Φ ) = Φ , Φ = .

I

X X X

X X

54 La definizione di pull-back di un campo è ben data grazie al fatto che ψ è invertibile. Per funzioni e forme invece

l’invertibilità, pur presente nel nostro contesto, non è necessaria perchè il pull–back sia per sé ben definito.

55 Quando, come nel primo capitolo di queste note, si ragiona non su una varietà ma in aperti, per dar senso

alla nozione di flusso si deve supporre, con fastidiosa restrizione, che la soluzione non esca mai dal dominio. In

una prospettiva geometrica invece non c’è alcun problema se la soluzione passa da una carta all’altra attraverso

l’intersezione dei domini.

A — Introduzione al formalismo geometrico. 102

Derivata di Lie di funzioni; parentesi di Lie.

A ogni campo vettoriale X su M resta associato un operatore di derivazione L che agisce sulle

X

funzioni M detto derivata di Lie. La definizione si può dare in coordinate (paragrafo 1.1),

R,

introducendo in ogni singola carta l’operatore di derivazione

n n

X X

∂ ∂f

L , ovvero (L (x)

= X f )(x) = X (x)

i i

X X

∂x ∂x

i i

i=1 i=1

∂ ha il consueto significato di derivata). Si riconosce immediata-

(la sottile differenza è che ora ∂x i

mente che si ha d tX ,

f )(x) = (x))

f (Φ

(L X dt t=0

e che le diverse definizioni locali sono compatibili, cosicché resta definito un operatore L agente

X

sulle funzioni M l’operatore ammette anche la definizione intrinseca

R; d tX

(L = (x)) .

F)(x) F(Φ

X dt t=0

Siano ora X e Y campi vettoriali qualsiasi su M e L , L le corrispondenti derivate di Lie. Il

X Y

prodotto L L non è una derivata di Lie corrispondente ad alcun campo vettoriale (appena ci si

X Y

mette in coordinate applicandolo a una funzione f spuntano le derivate seconde di f ), ma lo è il

commutatore −

[L , L ] = L L L L ,

X Y X Y Y X

precisamente Risulta [L , L ] = L , con Z rappresentato, in una carta qualsiasi, da

Proposizione 28 X Y Z −

Z = L Y L X . (A.3)

i i i

X Y

Calcolando in coordinate si vede subito che i termini di derivata seconda si

Dimostrazione.

semplificano e si ha

n

n n

X

X X

∂Y ∂X ∂f ∂f

i i

− −

[L , L ] f = X Y = ,

(L Y L X )

j j i i

X Y X Y

∂x ∂x ∂x ∂x

j j i i

j=1

i=1 i=1

da cui segue l’espressione (A.3) di Z. L’indipendenza dalle coordinate si trova immediatamente

P

P e

e J

J Y .

X , Y =

sostituendo X = i

i ik

ik k

k k

k

Il campo vettoriale Z su M definito in questo modo è detto parentesi di Lie di X

Definizione 13

e Y , e si denota Z = [X, Y ] .

Si ha dunque, per defnizione di parentesi di Lie,

[L , L ] = L .

X Y [X,Y ]

L’operazione è con evidenza antisimmetrica e in particolare [X, X] = 0. Con un po’ di pazienza si

verifica l’identità di Jacobi: [[X, Y ], Z] + [[Z, X], Y ] + [[Y, Z], X] = 0 , (A.4)

A — Introduzione al formalismo geometrico. 103

figlia della corrispondente relazione tra le derivate di Lie L , L , L .

X Y Z

La derivata di Lie [X, Y ] è anche detta commutatore dei campi vettoriali X e Y ; quando è

nulla si dice che i campi vettoriali commutano. Alla commutazione dei campi corrisponde quella

dei rispettivi flussi:

Si ha

Proposizione 29 sX tY tY sX

◦ ◦ ∀s, ∈

Φ Φ = Φ Φ t R

se e solo se [X, Y ] = 0.

La dimostrazione è identica a quella riportata nell’appendice C per il caso hamiltoniano.

1–forme su M .

∗ →

M lo spazio duale a T M , cioè lo spazio vettoriale delle mappe lineari T M

Sia ora T R,

x x

x ∈

detto spazio cotangente a M in x M . Ancora risulta che la collezione di tutti gli spazi cotangenti

∗ ∗

ha la struttura naturale di varietà, e si dice formare il fibrato cotangente T M , dim T M = 2n. I

∗ ∈ →

punti di T M sono coppie (x, ϑ), con x M e ϑ mappa lineare: T M Una 1–forma su M

R.

x

→ ∈

è (similmente a un campo vettoriale) una mappa M T M che a ogni x M associa un punto

(x, ϑ(x)) T M ; la 1–forma sarà denotata semplicemente con ϑ. Data una 1–forma ϑ e un campo

vettoriale X su M , resta definita una funzione : M nel modo ovvio = (ϑ(x))(X(x)).

F F(x)

R

Ovvero: una 1–forma è una mappa che manda linearmente campi vettoriali su M in funzioni

M e questa potrebbe essere usata come definizione.

R, ∗

Una base in ciascuno spazio cotangente T M è fornita dai differenziali delle funzioni coordinate

x

dϕ , . . . , dϕ , in notazione più spiccia dx , . . . , dx , perciò si potrà scrivere

1 n 1 n

n

X ∂

ϑ(x) = ϑ (x) dx , ϑ = ϑ .

i i i ∂x i

i=1

Assegnata una 1–forma ϑ su M , restano definite le sue rappresentative locali, dette anche

56

covettori, che (sempre con piccolo abuso) denoteremo

= (ϑ (x), . . . , ϑ (x)) .

ϑ(x) 1 n

La funzione ϑ(X) : M ha come rappresentativa locale il prodotto di vettore e covettore:

R n

X

· ϑ (x)X

ϑ(x) X(x) = (x) .

i i

i=1 e →

Se ϑ e ϑ̃ sono rappresentative locali di una stessa 1–forma in due diverse carte, e ψ : V V è la

funzione di transizione dall’una all’altra, allora si ha

T

ϑ̃(x̃) = J (x̃) ϑ(ψ(x̃)) (A.5)

56 I covettori, con riferimento alla legge di trasformazione locale (A.5), sono anche chiamati vettori covarianti;

corrispondentemente i consueti vettori, che invece trasformano secondo la (A.2), sono detti vettori controvarianti.

La terminologia, tipica del cosiddetto calcolo tensoriale o calcolo differenziale assoluto (G. Ricci Curbastro, T. Levi–

Civita) si estende opportunamente a matrici e in generale a oggetti a più indici, con semplici regole che garantiscono

la compatibilità del calcolo in coordinate al variare della carta e corrispondentemente la buona definizione geometrica

di ogni oggetto e ogni procedimento.

A — Introduzione al formalismo geometrico. 104

(attenzione al verso: il confronto con (A.2) mostra che se i vettori vanno con J, le forme van-

−T

no con J , inversa della trasposta, come si è visto nel paragrafo 2.1 per i momenti p), e

corrispondentemente risulta

e e

· · · ·

ϑ̃ X = ϑ X , precisamente ϑ̃(x̃) X(x̃) = ϑ(ψ(x̃)) X(ψ(x̃)) ; (A.6)

viceversa se una famiglia di 1–forme locali, una per ogni carta dell’atlante, soddisfa la relazione

di compatibilità (A.5), o equivalentemente (A.6), allora resta definita una 1–forma ϑ su M . La

è anche detta pull–back di ϑ̃ sotto ψ.

1–forma ϑ̃ →

Un caso particolare di 1–forma su M è il differenziale dF di una 0–forma o funzione M R.

La definizione intrinseca di dF è che per ogni campo vettoriale X su M si ha dF(X) = L in

F;

X

∂f ∂f

coordinate dF è rappresentata dall’n-pla delle derivate della rappresentativa f di ( ),

, . . . ,

F, ∂x ∂x n

1

e si ha n

X ∂f dx .

dF(X) = i

∂x i

i=1

Una 1–forma che sia il differnziale di una funzione si dice esatta.

.

2–forme su M

Ricordiamo infine la nozione di 2–forma. Una 2–forma esterna ω su M , o brevemente 2–forma,

è una mappa bilineare antisimmetrica che manda coppie di campi vettoriali su M in funzioni

→ ∈

M precisamente, a ogni x M è associata una mappa bilineare antisimmetrica ω(x) :

R:

× →

T M T M e dunque a ogni coppia X, Y di campi vettoriali su M resta associata una

R,

x x → −ω(X,

funzione ω(X, Y ) : M ω(Y, X) = Y ). La nozione ricorda la nozione di metrica

R,

riemanniana, da cui però differisce per il fatto (fondamentale) che l’antisimmetria sostituisce la

simmetria. In coordinate una 2–forma è rappresentata da una matrice (forse si dovrebbe dire

co-matrice) antisimmetrica ω = (ω ), precisamente si ha

ij

n

X ∂ ∂

ω (x) Y (x) , ω = ω , .

X (x)

(ω(X, Y ))(x) = ij j ij

i ∂x ∂x

i j

i,j=1

Per l’antisimmetria si scrive anche (omettiamo l’argomento x)

X −

ω(X, Y ) = ω (X Y X Y ) .

ij i j j i

0≤i<j≤n

Se ω e ω̃ sono rappresentative locali di una stessa 2–forma ω, allora si ha

T T

ω̃ = J ω J , più precisamente ω̃(x̃) = J (x̃) ω(ψ(x̃)) J(x̃) , (A.7)

e viceversa se una famiglia di 2–forme locali, una per ogni carta dell’atlante, soddisfa la relazione

è detta pull–back di

di compatibilità (A.7), allora resta definita una 2–forma su M . La 2–forma ω̃

ω sotto ψ.

Si definisce il prodotto esterno di due 1–forme, denotato “∧”, il cui risultato è una 2–forma. La

definizione è ′ ′ ′ ′ ′ ′

∧ −

(ϑ ϑ )(X, X ) = ϑ(X)ϑ (X ) ϑ(X )ϑ (X) ; (A.8)

′ ′

∧ −ϑ ∧ ∧

si ha evidentemente ϑ ϑ = ϑ e dunque ϑ ϑ = 0. Per ogni carta si possono considerare,

in particolare, i prodotti esterni dei differenziali delle coordinate:

∧ ≤ ≤

dx dx , 1 i, j n .

i j


PAGINE

170

PESO

2.54 MB

AUTORE

Markuser

PUBBLICATO

10 mesi fa


DETTAGLI
Corso di laurea: Corso di laurea in fisica
SSD:
Università: Padova - Unipd
A.A.: 2018-2019

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Markuser di informazioni apprese con la frequenza delle lezioni di Meccanica analitica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Padova - Unipd o del prof Benettin Giancarlo.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!