Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Sottospazi vettoriali
Proposizione
L'insieme S delle soluzioni di un sistema lineare m x n omogeneo Ax=0 è un sottospazio vettoriale di Rn
dim
- 0 è S quindi S ≠ ∅
- S è chiuso rispetto alla somma perché se x1, x2 sono due soluzioni allora A(x1+x2) = Ax1+Ax2 = 0+0 = 0
- S è chiuso rispetto al prodotto perché c∈R, se x̄ è una soluzione allora A(c x̄) = 0 ⇒ c (Ax̄) = 0 c0=0 c x̄ è una soluzione
Proposizione
Span (V1, V2, ... Vk) è un sottospazio vettoriale
dim
- basta dimostrare come sopra che:
- chiuso rispetto alla somma
- chiuso rispetto al prodotto
- 0̄ ∈ span (V1, V2, ... Vk)
Proposizione
Se v è combinazione lineare di v1, v2, … vk allora
Span(v1, v2, … vk, v) = Span (v1, v2, … vk)
dim
Ovviamente Span (v1, v2, … vk, v) ⊇ Span (v1, v2, … vk)
Dimostriamo che Span (v1, v2, … vk, v) ⊆ Span (v1, … vk).
Infatti lo span (v1, … vk) contiene (v1, v2, … vk) ma anche v per hp.
Quindi contiene Span (v1, v2, … vk, v) che è il più piccolo sottospazio vettoriale che contiene (v1, v2, … vk, v).
Proposizione
v1, v2, … vk ∈ V sono dipendenti ⇔ almeno uno di essi è combinazione lineare degli altri
dim
⇒ Per hp esiste c1v1 + c2v2 + … + ckvk = 0 con (almeno) ci ≠ 0
Portiamo a destra tutti i termini eccetto l’i-esimo.
civi = -(c1v1 + c2v2 + …. + ci-1
dim
Sia B' un'altra base con m vettori. Essendo questi vettori linearmente indipendenti, m ≤ n. D'altro canto, anche i vettori di B sono indipendenti e, essendo B' una base, n ≤ m quindi n = m
Teorema (delle estrazioni)
Sia A = {Y1, Y2 ... Yk} un insieme di generatori di V e B ⊆ A un sottinsieme massimale di vettori indipendenti (cioè i vettori di B sono indipendenti ma, se aggiungiamo un altro vettore di A, diventano dipendenti). Allora B è una base di V.
Teorema (del completamento delle basi)
Sia B' = (V1, V2, ... Vn) una base di V e siano w1, w2, ...wp ∈ V vettori indipendenti. Allora esistono n-p vettori di B che insieme a w1, w2, ... wp formano una base di V.
dim
Se Span (w1, w2, ... wp) = V, allora p = n e w1, w2, ... wp formano già
Proposizione
L'insieme S delle soluzioni di un sistema lineare Ax = ϑ è un sottospazio affine di Rn
S = V0 + W
dove V0 è una soluzione del sistema e W è l'insieme delle soluzioni del sistema lineare omogeneo associato
dim
Dimostriamo che S ⊇ V0 + W. Sia W̅ ∈ W :
A (V0 + W̅) = AV0 + AW̅ = ϑ - ϑ = ϑ
V0 + W̅ ∈ S
Dimostriamo che S ⊆ V0 + W. Sia V̅ ∈ S. Bisogna dimostrare che V̅ - V0 ∈ W :
A (V̅ - V0) = AV̅ - AV0 = ϑ - ϑ = 0
V̅ - V0 ∈ W
Nucleo
Sia \( T: V \rightarrow V' \) un'applicazione lineare \(\dim V = n\) .
Il nucleo di \( T \) è
\(\text{Ker} T = \left\{ \vec{v} \in V : T(\vec{v}) = \vec{0} \right\}\)
Proposizione
\(\text{Ker} T\) è un sottospazio vettoriale di \( V \) e \(\dim \text{Ker} T = n - \text{rg} A\),
dove \( A \) è la matrice associata rispetto a qualsiasi scelte delle basi
dim
- \(\text{Ker} T \neq \varnothing : \vec{0} \in \text{Ker} T\) perché \(T(\vec{0}) = \vec{0}\)
- chiuso rispetto alla somma: se \( V_1, V_2 \in \text{Ker} T\), allora
\(T(V_1 + V_2) = T(V_1) + T(V_2) = \vec{0} + \vec{0} = \vec{0}\)
quindi \( V_1 + V_2 \in \text{Ker} T\)
- chiuso rispetto al prodotto: se \(\vec{V} \in \text{Ker} T\) allora
\(T(c \vec{v}) = c T(\vec{v}) = c \vec{0} = \vec{0}\)
quindi \( c \vec{v} \in \text{Ker} T\)
Diagonalizzabilità
Problema Sia T : V → V un endomorfismo e siano B, B' due basi di V.
- Come sono collegate MB,B(T) e MB',B'(T)?
- Ci sono basi B per cui MB,B(T) è semplice (ovvero diagonale)?
Definizione
Due matrici A, A' e Mn si dicono simili se esiste una matrice invertibile P ∈ Mn:
- A' = P-1AP
Essere simili è una relazione di equivalenza.
Teorema
MB,B(T) e MB',B'(T) sono simili senza sim.
Viceversa se A è simile a MB,B(T), esiste una base B' per cui A = MB',B'(T): se A = P-1MB,B(T)P, allora P è la matrice del cambiamento di base che cambia da B' a B.
Definizione
Una matrice A ∈ Mn si dice diagonalizzabile se è simile ad una matrice diagonale.
Corollario
Un endomorfismo (o una matrice) è diagonalizzabile <=> esiste una base composta da autovettori
dim
Come il precedente.
#
Corollario
Se un endomorfismo di uno spazio di dimensione n (o una matrice ∈ M(n)) ha n autovalori reali e distinti allora è diagonalizzabile
dim
Siano λ1,…,λn autovalori reali e distinti. Prendiamo un autovettore per ogni autovalore e da un corollario precedente "Autovettori relativi ad autovalori distinti (diversi tra loro) sono indipendenti", allora essendo n autovettori indipendenti formano una base quindi è diagonalizzabile.
#
Attenzione: Il viceversa non vale: un endomorfismo con meno di n autovalori può essere diagonalizzabile (ad esempio b))
3 ⟹ 1
Prendo una base per ogni autospazio. Mettendo insieme questi vettori ottengo n vettori. Bisogna dimostrare che sono indipendenti.
base di E(λ₁) = V1 ... Vn₁
base di E(λ₂) = V1 ... Vn₂
... e così via
base di E(λₕ) = V1 ... Vnₕ
Sia c1V1 + ... + cnVn + c1V1 + ... + cnVn + ... c1V1 + ... + cnVn = o
Vn + Vn + ... + Vn = o
Poiché autovettori relativi ad autovalori distinti sono indipendenti, V1 = V2 = ... = Vn = o devono essere tutti nulli
per l’indipendenza dei vettori