Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Ripasso
DEF: (V, +) È uno spazio vettoriale sopra un corpo (K, +, ·) se
- (V, +) È gruppo commutativo quindi + è interna
- 0 ∈ K x V = V per esterna (K,int) = K, 0 ∈ K t.c.
(k + k') · oN = k · oN + k' · oN
k (N + N') = kN + k'N'
(kK oN) oN = K (oK oN)
-k oN = -N
DEF: (W, +) È sottospazio di (V, +) ⇔ W ⊆ V e (W, +) è spazio vettoriale
PROP: W ⊆ V ⇔ ∀α β ∈ K ∀w1, w2 ∈ W si ha αw1 + βw2 ∈ W
PROP: E spazio vet. sopra campo K
E1, E2, ... Eπ ⊆ E
E = ∑i=1π Ei : ∑i=1π N · Ni ∈ t i vi t | xi2 | < E
∀i = 1, ..., π? ∀x ∈ ∑i=1π Ei ∈ a K
α = ∑i=1π N; N ∈ Ei ∀i = 1, ..., π?
∀x ∈ ∑i=1π Ei
αx = ∑i=1π αNi = αN1 + αN2 + ... + αNπe ⇒ αx ∈ ∑i=1π Ei : x = ∑i=1π
x + y = ∑i=1π ∑j=1π wi : = ∑i=1π (w + w)i ⇒ x + y ∈∑i=1π Ei
E c,oK wi : ∈ Ei
x = ∑i=1π e + ∑i=1π ωi; e, a N, wi ∈ Ei ∀i = 1, ..., π
⇒ ∑i=1π εi < ε
(2)
E spazio vettoriale
E1 + E2 = E2 ⊕ E2
PROP (2)
E1 ⊕ E2 = nullo sono equivalenti
- E1 ⊕ E2 = F0 elemento zero
- Nx + Ny = OE con Nx ∈ E1, Ny ∈ E2 → Nx = OE e Ny = OE
- Supponiamo N ∈ E1 ∩ E2 → N ∈ E1 e N ∈ E2 → -N ∈ E1 e +N ∈ E2
→ O = O + 0 = -N + (+N)
→ N = O → E1 ∩ E2 = {O}
OK
- Siccome Nx + Ny = O → Nx = -Ny → Nx + Ny ∈ E1 ∩ E2 = {O}
- → Nx = -Ny = O → Nx = O e Ny = O
OK
- Siccome N2 = Ny + Ny = N2 + N2 con Ny, N2 ∈ E1 e N2, N2 ∈ E2
- → (N2 - Ny) + (N2 - N2) = O → Ny - Ny + O e N2 - N2 = O
- OK
Diagonalizzazione autovalori autovettori
Def. Operatori lineari
Se v vettore nel SUI
se \( F: V \rightarrow V \) funzione lineare
\( F \) è operatore lineare se e solo se \( F: V \rightarrow V \) funzione lineare
se \( F: V \rightarrow V \) endomorfismo con \( L = (e_1, e_m) \) ho la stessa base
allora \( M_e, e(F) = M_e(F) \)
Quindi, si ottiene un'applicazione dall'insieme dei endomorfismi a quello delle matrici quadrate \( m \times m \).
\( \operatorname{End}(V) \rightarrow M_m(K) \)
\( F \rightarrow M_e(F) \)
Def. Matrici simili
\( A, B \in M_{m}(K) \)
\( A \) si dice simile a \( B \) se e solo se \( \exists M \in \operatorname{Gl}(m,k) \)
t.c. \( B = M^{-1} A M \)
Prop.
La relazione di similitudine tra elementi di \( M_m(K) \) è una relazione di equivalenza
- \( A = M^{-1} A M \implies A = I^{-1} A I = A \) ok → \( A N A \) riflessiva
- \( A \sim B \implies B = M^{-1} A M \) con \( M \in \operatorname{Gl}(m,k) \)
- \( B \sim C \implies A = M B M^{-1} \) e \( M^{-1} \in \operatorname{Gl}(m,k) \) → \( B \sim A \) simmetrica
- \( A \sim B \quad \text{e} \quad B \sim C \quad \text{con} \quad M, N \in \operatorname{Gl}(m,k) \) → \( B = M^{-1} A M \quad C = N^{-1} B N \) →
- \( C = N^{-1} M^{-1} A M N = (MN)^{-1} C (M N) \text{e} MN \in \operatorname{Gl}(m,k) \)
- \( A \sim C \) transitiva
→ \( \sim \) è una relazione di equivalenza
Quindi,
Tutte le matrici si ripartiscono in classi di equivalenza dove
ogni classe è formata da tutte le matrici simili ad una "campione".
PROPRIETÀ
F: V → V op univoca
e(e₁, ..., eₙ) base di V A = [e]e(F)
I AUTOVETTORI DI F : F - λI = [x1, ..., xm]
- NE(Vλ(F)) ⟺ (A - λIm) (x1, ..., xn) = 0
(F - λI)(x) = 0 ⟺ F(x) = λx
⟺ F(n) | λv(n) = 0 ⟺
- ((F - λI)(v))(k) = 0 ⟺ [ (F - λI)(w) ]e = 0
- ⟺ (A - λIm) [ (x1)(xm) ] = 0
IL NUCLEO È SOLO SE TUTTE LE SUE COMPONENTI
OK
Le coordinate degli autovettori di Vλ(F) sono le soluzioni del sistema omogeneo in x1, ..., xm
DEF:
(LA DIMENSIONE DEI OPERAZIONI SI ESPONE SULLE METRICHE)
A ∈ ℝm(k) λ ∈ k
det (A - λIm) = 0 def λ s Ø UN AUTOMORFISMO DI A
- A ∈ ℝm(k) ∀ x = (x1, ..., xn) ∈ km
- λ x = 0 ∀ i = 1, ..., m
NE AUTOVETTORE ⟺ (A - λIm) (X1, Xm) = 0
PROPRIETÀ
F : V → V
e B: base di N
A = [e]e(F) B ∈ Mn(F) (A - λI) det (B - λI) = PB(λ) = PA(λ)
MATRICE SIMILE HANNO UN STESSO POLINOMIO CARATTERISTICO
A ∼ B ⟹ ∃ U ∈ Gm(k) t.c. B = U-1 A U
PB(λ) = det (B - λIm) = det (U-1 AU - λIm) = det (U-1A U - λU-1U Im) = det (U-1 (A - λIm) U)
- PA(λ) = det(U-1(A + λIm))
- = det (A - λIm) det U
= (det x)2 det(A - λIm) det x = det (A - λIm) (Frobenius Binet Theorem)
OK
MA matrice simili HANNO AUTOVALORI DISTINTI DIFFERENTI
se A, B ∈ ℝm(k) HANNO AUTOVALORI DISTINTI
=> A ≁ B
A = (0, A')(0, 0)
matrice diagonale
quindi
det(A - λI)
(a-λ)dp(λ) => mΦ(λ0) ≥ d = mΦ(λ0) OR
3° criterio di diagonalizzazione
F ε End(V) dimV = m
F è diagonalizzabile
- p(λ) è interamente dec. in pol.
- mΦ(λ) = ma(λ) ∀ λ ε Sp(F)
F è diagonalizzabile
p(λ) è interamente diagonalizzabile -> vale 1
∀ λ0 ε Spaffa (F) t.c. mΦ(λ) + ma(λ0) => mΦ(λ0) < ma(λ0)
p(λ) è interamente diagonalizzabile
PROP
V spazio vettoriale sopra
Sia ε=(ε₁,...,εₙ) base di V
₂:=(₁,...,ₙ) R base a V*
Diciamo che ·(εj)=δij ∀ i,j = 1,...,m
- Sia Σ ai ηi = 0 ⇒ ∀h ∈ V (Σ ai ηi)(ηh) = 0
- Sia L∈V* L:N→ siano L(εei) = ai, L(εm) = 0 ∀...m