Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
U W
8.3. Teorema di Grassman
dim(U+W) + dim(U W) = dim(U) + dim(W)
∩ 3
4. SPAZI VETTORIALI
9. SPAZI DELLE RIGHE E DELLE COLONNE DI UNA MATRICE
Data una matrice A Mat(m,n;K) gli spazi delle righe e delle colonne della matrice sono
∈
• R(A) = , …, A ) Mat(1,n;K)
ℒ(A ⊆
R(1) R(m)
• C(A) = , …, A ) Mat(m,1;K)
ℒ(A ⊆
C(1) C(n)
Data una matrice A Mat(m,n;K) vale rg(A) = dim(R(A)) = dim(C(A)).
∈
• Teorema delle righe (A S)
→
R(A) = R(S)
o dim(R(A)) = dim(R(S)) = rg(A)
o Le righe non nulle di S costituiscono una base di R(A)
o
• Teorema di Kronecker: il rg(A)=p se e solo se
Esiste una sottomatrice B Mat(p,p;K) con det(B)≠0
o ∈
Ogni sottomatrice C Mat(p+1, p+1;K) contenente B soddisfa |C|=0.
o ∈
• Teorema delle colonne
rg(A) = rg(A )
T
o dim(C(A)) = rg(A)
o
(A S) con q , …, q indici delle colonne di S che contengono i pivot, allora
o → 1 r
{A , …, A } è base di C(A).
C(q1) C(qr) 4
5. APPLICAZIONI LINEARI
Un’applicazione lineare T: V->W è una funzione tra due spazi vettoriali con due proprietà:
• T(v + v ) = T(v ) + T(v ) • T(λv) = λ T(v)
1 2 1 2
Se B={v , …, v } è una base di V, allora: T(v)=T(x v + … + x v ) = x T(v ) + … + x T(v )
1 n 1 1 n n 1 1 n n
1. MATRICE ASSOCIATA
A ogni applicazione lineare può essere associata una matrice A = M(T) che ha per colonne le
immagini degli elementi della base di V, espresse rispetto alla base di W. Le basi di V e W sono
le basi canoniche. Usando la matrice associata T(V) = A ∙ v.
Un’applicazione lineare può essere definita tramite:
• La regola: T: R -> R tale che T(x,y) = (x+y, 2x, x-y)
2 3
• Le immagini di una base: T: R -> R tale che T(e ) = (1,2,1) e T(e ) = (1,0,-1)
2 3 1 2
• La matrice associata rispetto alla base: T: R -> R tale che la matrice associata rispetto
2 3
1 1
alle basi canoniche è = [ ]
2 0
1 −1
2. IMMAGINE
L’immagine Im(T) è un’applicazione lineare T: V->W è lo spazio generato dalle immagini degli
elementi di una base B={v , …, v } di V:
1 n
Im(T) = {T(v) | v∈V} = ), …, T(v )) W.
ℒ(T(v ⊆
1 n
Utilizzando la matrice A=M(T) associata:
• Im(T) = spazio generato dalle colonne di A
• B(Im(T)) = {colonne linearmente indipendenti di A}
• dim(Im(T)) = rg(A)
3. NUCLEO
Il nucleo N(T) di una applicazione lineare T: V->W è il sottospazio di V formato dagli elementi
la cui immagine è lo 0: N(T) = {v∈V | T(v)=0} V
⊆
Utilizzando la matrice A=M(T) associata:
• N(T) = {soluzioni del sistema omogeneo associato ad A}
• dim(N(T)) = n – rg(A) dove n=dim(V)=numero incognite del sistema lineare
4. TEOREMA DI NULLITÀ PIÙ RANGO
Il teorema di nullità più rango afferma che se T: V->W allora:
dim(N(T)) + dim(Im(T)) = n = dim(V)
• Un’applicazione è detta iniettiva se dim(N(T))=0, cioè se N(T)={0}
• Un’applicazione è detta suriettiva se dim(Im(T)) = dim(W), cioè se Im(T)=W
• Un’applicazione è detta biunivoca se è sia iniettiva che suriettiva. Solo in questo caso
l’applicazione è invertibile.
6. ENDOMORFISMI E DIAGONALIZZAZIONE
1. ENDOMORFISMI
Dato V uno spazio vettoriale, un’applicazione lineare f: V->V si dice endomorfismo di V.
L’insieme degli endomorfismi di V si indica con End(V).
Un endomorfismo che sia anche isomorfismo si dice automorfismo di V ed indichiamo con GL(V)
l’insieme di tutti gli automorfismi di V.
Nello spazio End(V) abbiamo una seconda operazione interna oltre alla somma, ovvero la
composizione di due applicazioni lineari. Questo ci permette di definire l’elevamento a potenza
di una applicazione lineare, e quindi il concetto d i polinomio di applicazioni:
f = Id k=0
0
f = f End(V)
k k ∈
f ◦ … ◦ f k volte se k≠0
Allora il polinomio di f a coefficienti c con 0≤i≤k, è un’espressione del tipo:
i
P(f) = c Id + c f + c f + … + c f
2 k
0 1 2 k
2. AUTOVETTORI E AUTOVALORI
Sia V uno spazio vettoriale su campo K, e sia f End(V).
∈
Allora il vettore v si dice autovettore di f se v≠0 ed esiste λ R tale che f(v) = λ v.
∈
Lo scalare λ è detto autovalore di f associato all’autovettore v.
Se λ è un autovalore di f, allora l’insieme V = {f(v) = λ v} si chiama autospazio associato.
λ
• La molteplicità algebrica ma(λ) è la molteplicità dell’autovalore come radice del polinomio
caratteristico
• La molteplicità geometrica mg(λ) è la dimensione dell’autospazio V λ
• λ si dice regolare se ma(λ) = mg(λ)
• λ si dice semplice se ma(λ) = 1
L’applicazione f è detta diagonalizzabile se esiste una base B di V tale che la matrice
rappresentativa F rispetto alla base B è diagonale.
3. RELAZIONE DI SIMILITUDINE
Date due matrici A,B Mat(n,n;K), B si dice simile ad A se esiste una matrice S Mat(n,n;K)
∈ ∈
invertibile tale che B = S A S.
-1
La similitudine è una relazione di equivalenza nell’insieme Mat(n,n;K).
La classe di similitudine [A] è l’insieme di tutte le matrici simili ad A.
3.1. Invarianti
• rg(C [A]) = rg(A)
∈
• Tr(C [A]) = Tr(A)
∈
• det(C [A]) = det(A)
∈ 1
6. ENDOMORFISMI E DIAGONALIZZAZIONE
4. POLINOMIO CARATTERISTICO
Data una matrice A Mat(n,n;K), l’espressione P (λ) = det(A – λ I ) è detta polinomio
∈ A n
caratteristico di A. a -λ … a
11 1n
P (λ) = det(A – λ I ) = ⋮ ⋱ ⋮
| |
A n a … a -λ
n1 nn
Tutti i coefficienti e le radici di P sono invarianti per similitudine.
A
• n=1: P (λ) = a – λ
A 11
• n=2: P (λ) = det(A) – Tr(A)λ + λ 2
A
• n=3: P (λ) = det(A) – I (A)λ + Tr(A)λ – λ
2 3
A 2
4.1. Autovalori e autovettori
• λ è un autovalore di f se e solo se è radice del polinomio caratteristico, ovvero P (λ) = 0
f
• v è un autovettore associato a λ se e solo se v ker(f – λ I )
∈ n
5. CRITERI DI DIAGONALIZZABILITÀ
• L’applicazione f è diagonalizzabile se e solo se esiste una base di V composta da autovettori
• L’applicazione f è diagonalizzabile se e solo se la matrice rappresentativa F è simile ad una
|B
matrice diagonale D.
• Sia V uno s. v. con dim(V) = n <∞, l’applicazione f è diagonalizzabile se e solo se
Il polinomio caratteristico P (λ) ha esattamente n radici contante con molteplicità
o f
Ogni autovalore λ di f è regolare
o
• Sia V uno s. v. con dim(V) = n <∞, l’applicazione f è diagonalizzabile se e solo se
Il polinomio caratteristico P (λ) ha esattamente n radici contante con molteplicità
o f
Ogni autovalore λ di f è semplice
o 2
7. GEOMETRIA AFFINE
1. SPAZI AFFINI
Sia A un insieme non vuoto, V uno spazio vettoriale ed una funzione
Ψ: AxA -> V • Per ogni P la funzione Ψ : {P}xA -> V è biunivoca
P
• Vale la regola del parallelogramma: Ψ(P,Q) + Ψ(Q,R) =
(P,Q) -> ⃗⃗⃗⃗⃗
Ψ(P,R)
Allora è detto spazio affine.
=(A,V,Ψ) ⃗⃗⃗⃗⃗⃗
• Partendo da qualunque punto P è possibile raggiungere ogni Q con un unico vettore PQ .
⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗
• PQ + QR = PR perché la somma di vettori è ben definita
• P A sono detti punti
∈
• (P,Q) AxA è detto segmento orientato da P a Q
∈
⃗⃗⃗⃗⃗⃗
• PQ V è chiamato vettore geometrico da P a Q
∈
• A è il sostegno di
• V è la giacitura di
• dim() = dim(V)
se dim() = 1 -> si dice retta affine
o
se dim() = 2 -> si dice piano affine
o
2. SOTTOSPAZIO AFFINE
Dato uno spazio affine Preso S A, si dice sottospazio affine se
=(A,V,Ψ). ⊆
• Im(Ψ ) V è un sottospazio vettoriale
⊆
SxS
• (S, Im(Ψ ), Ψ ) è uno spazio affine
SxS SxS ⃗⃗⃗⃗⃗⃗
• Dato l’insieme U={PQ V | Q S} U è sottospazio vettoriale di V. U è la giacitura di S.
∈ ∈
3. SISTEMI DI RIFERIMENTO
Sia uno spazio affine contenente lo zero 0 e B={v , …, v } una base di V
=(A,V,Ψ) 1 n
• B = {0, v , …, v } è un sistema di riferimento
0 1 n
• 0 è detto origine del sistema di riferimento B 0
• Ø : A -> Mat(n,1;K) è una funzione detta mappa delle coordinate
Bo
P -> Ø (P)
Bo ⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗⃗
• P = Ø (P) = Ø (OP ) = OP sono le coordinate di P.
Bo Bo B B
4. MUTUA POSIZIONE A' B'
• S: [A’|B’] con dim(S)=p • S∩T: [A|B] = [ ]
A'' B''
• T: [A’’|B’’] con dim(T)=q
p≥q
• S,T paralleli con S⊆T sse rg[A|B] = rg(A) = n-q
• S,T paralleli disgiunti sse rg([A|B]) > rg(A) = n-q
• S,T incidenti sse rg([A|B]) = rg(A) > n-q
• S,T sghembi sse rg([A|B]) > rg(A) > n-q 1
7. GEOMETRIA AFFINE
5. IPERPIANI
Sia spazio affine e S un suo sottospazio, se dim(S) = dim() -1, allora S si dice iperpiano.
Sia uno spazio affine di dimensione dim()=n ≥2, e S,T due sottospazi con dimensioni
dim(S)=n-2 e dim(T)=n-1.
• Il fascio proprio di iperpiani con sostegno S è l’insieme di tutti gli iperpiani contenenti S.
• Il fascio improprio di iperpiani paralleli a T è l’insieme di tutti gli iperpiani paralleli a T.
In R un fascio proprio di rette ha come sostegno S un punto, mentre un fascio improprio è
2
formato da tutte le rette parallele ad una retta T.
In R un fascio proprio di piani ha come sostegno S una retta, mentre un fascio improprio è
3
formato da tutti i piani paralleli ad un piano T.
6. TRASFORMAZIONI AFFINI
Siano ) e ) due spazi affini sul