Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
IL TEOREMA SPETTRALE
Isometrie lineari e matrici ortogonali
Teorema
Fissata una base β ortonormale di V, un endomorfismo f: V→V è un'isometria lineare se e solo se la matrice A che rappresenta f rispetto β è ortogonale
Dimostrazione
Osserviamo che il prodotto scalare standard x·y di due vettori colonna in Rn è il prodotto (di matrici) della matrice riga xt per la matrice colonna y:
x·y = xty
Principio di sovrapposizione
Teorema
Se
\( \tilde{y}_1 \) è una soluzione particolare di \( L(y) = b_1(x) \)
\( \tilde{y}_2 \) è una soluzione particolare di \( L(y) = b_2(x) \)
allora per ogni \( c_1, c_2 \in \mathbb{R} \)
\( c_1 \tilde{y}_1 + c_2 \tilde{y}_2 \) è una soluzione particolare di \( L(y) = c_1 b_1(x) + c_2 b_2(x) \)
Dimostrazione
L'enunciato è conseguenza della linearità di L
Indicato con \( \text{Sol}(L, \phi) \) l'insieme delle soluzioni dell'equazione omogenea
- \( y' + a(x)y = \phi \) cioè \( L(y) = \phi \)
si ha che
\( \text{Sol}(L, \phi) = \ker L \)
Dunque \( \text{Sol}(L, \phi) \) è uno spazio vettoriale.
In particolare, per ogni \( c_1, c_2 \in \mathbb{R} \) e per ogni \( y_1, y_2 \in \text{Sol}(L, \phi) \), la funzione
\( c_1 y_1(x) + c_2 y_2(x) \)
è soluzione della stessa equazione.
Indicato con \( \text{Sol}(L, b) \) l'insieme delle soluzioni dell'equazione completa
- \( y' + a(x)y = b(x) \) cioè \( L(y) = b(x) \)
Sia \( \tilde{y} \in \text{Sol}(L, b) \) una soluzione particolare. Si ha che
- \( \text{Sol}(L, b) = \text{Sol}(L, \phi) + \tilde{y} \)
DERIVATE E DIFFERENZIALE
ESTREMI LIBERI
Il metodo della matrice Hessiana
Teorema
Siano \( f: A \subseteq \mathbb{R}^n \rightarrow \mathbb{R} \) una funzione di classe \( C^2(A) \) e \( x_0 \) un punto dell'aperto \( A \) che sia stazionario per \( f \). Indichiamo con \( q \) la forma quadratica associata alla matrice hessiana \( H = Hf(x_0) \) di \( f \) in \( x_0 \):
\( q(x) = x^t Hx \)
Se la forma quadratica \( q \) è
- definita positiva, allora \( x_0 \) è un punto di minimo locale forte per \( f \).
- definita negativa, allora \( x_0 \) è un punto di massimo locale forte per \( f \).
- Indefinita, allora \( x_0 \) è un punto di sella per \( f \).
Definizione
Lo sviluppo di Taylor di \( f \), centrato in \( x_0 \), del secondo ordine, con resto secondo Peano è
\( f(x_0 + h) = f(x_0) + \nabla f(x_0)h + \frac{1}{2} h^t Hf(x_0)h + o(|h|^2) \)
Poiché \( x_0 \) è un punto stazionario, cioè \( \nabla f(x_0) = \phi \), indicando \( H = Hf(x_0) \) e \( q(h) = h^t Hh \), abbiamo
\( f(x_0 + h) - f(x_0) = \frac{1}{2} q(h) + \sigma (|h|^2) \)
Indicati con \( \lambda_{min} \) e \( \lambda_{max} \) rispettivamente il minimo e il massimo autovalore di \( H \), per ogni punto \( h \in \mathbb{R}^n \) risulta
\( \lambda_{min} |h|^2 \le q(h) \le \lambda_{max} |h|^2 \)
La funzione derivabile φ ha in t=φ un punto estremante, quindi dovrà essere
ψ'(φ) = ∇f(x*, y*) ⋅ v = φ
cioè, il gradiente ∇f(x*, y*) di f è ortogonale a v. Ricordiamo che anche il gradiente ∇g(x*, y*) di g è ortogonale a v. Per la geometria di R², vettori ∇f(x*, y*) e ∇g(x*, y*) sono paralleli in quanto entrambi ortogonali a v. Dunque esiste un λ∈R tale che
∇f(x*, y*) = λ* ∇g(x*, y*)
POTENZIALE
SIMBOLI
- ∈ x ∈ S x è un elemento di S
- ∉ x ∉ S x non è un elemento di S
- ⊆ S ⊆ X S è sottoinsieme di X
- Ø l'insieme vuoto
- ∩ S ∩ T intersezione di S e T
- ∪ S ∪ T unione di S e T
- ⇔ se e solo se
- ∀ per ogni
- ∃ esiste
Determinante di una matrice
Il determinante della matrice quadrata reale A di ordine n è definito come il determinante dell'endomorfismo LA di Rn
det A = det LA
Autovalore
Un autovalore dell'endomorfismo (lineare) f:V→V è un vettore non nullo v di V tale che
f(v)=λv | Av=λv
dove λ è un numero reale (positivo negativo o nullo), detto autovalore
Autospazio
Si chiama autospazio relativo all'autovalore λ e il sottospazio vettoriale di V
Vλ = ker(f - λIdV) = {v ∈ V | fv = λv} matrici Vλ = Sol {(A - λI)v = Φ} = {v ∈ Rl| av = λv }
Molteplicità geometrica
La dimensione di Vλ si chiama molteplicità geometrica dell'autovalore λ e si denota mg(λ):
mg(λ) = dim VA
Se dim V=n , dal teorema di nullità più rango, risulta
mg(λ) = n - rk(F- λIdv) matrici mg(λ) = dim Vλ = n - rk(A - λI)