Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Trasformazioni lineari e matrici associate
E,G F,G E,F= M M .M ϕψ◦ϕ ψSi verifica facilmente che le dimensioni di tali matrici sono coerenti. Abbiamo quindi chela corrispondenza tra matrici e trasformazioni lineari è operativa, nel senso che alla trasfor-◦mazione composta ψ ϕ corrisponde il prodotto delle matrici associate alle trasformazionilineari ψ e ϕ. →Una trasformazione lineare bigettiva ϕ : V W si dice isomorfismo. Abbiamo già visto nelparagrafo precedente un esempio importante di isomorfismo: se V è uno spazio vettorialeR/C , ..., v > è una sua base, allora l’applicazione (3.3) è unsu con dim V = n e B =< v1 nisomorfismo. Vale il seguente→Teorema 3.8. Sia ϕ : V W un isomorfismo, dim V = n, dim W = m e E, F basi di V−1 → E,F: W V è un isomorfismo, m = n, M è invertibilee W rispettivamente. Allora ϕ ϕ−1F,E →E,Fe M = (M ) . Viceversa, se ϕ : V W è una trasformazione lineare con m = n−1 ϕϕE,F è invertibile, allora ϕ èUn isomorfismo ϕ-1 si chiama trasformazione inversa dell'isomorfismo ϕ; il Teorema 3.8 fornisce un ulteriore esempio dell'operatività della corrispondenza tra trasformazioni lineari e matrici.
Matrice di passaggio:
Consideriamo un importante caso speciale della situazione sopra descritta; precisamente, date due basi B = < v1, ..., vn > e B' = < v'1, ..., v'n > di uno spazio vettoriale V con dim V = n, consideriamo ϕ: (V, B) → (V, B'), dove con (V, B) intendiamo lo spazio vettoriale V munito della base B. La matrice associata sarà allora:
| p11 p12 ... p1n | | p21 p22 ... p2n | | ... ... ... | | pn1 pn2 ... pnn |
La matrice di passaggio da B a B' è denotata talvolta con P per evidenziare le basi in questione. Chiaramente, i coefficienti pij sono determinati da:
v' = p1jv1 + p2jv2 + ... + pnjvn
ovvero la colonna j-esima della matrice di passaggio P è la rappresentazione delle coordinate di vj rispetto alla base B'.
costituita dalla colonna delle co-rispetto alla base B . Inoltre, considerando le basi B =< v , ..., v >ordinate del vettore v 1j n ×=< v , ..., v > come matrici riga 1 n, abbiamoe B 1 n P,B = Bche giustifica il nome dato alla matrice P . −1 è la matrice di passaggio da B aDal Teorema 3.8 abbiamo che P è invertibile e che P , ovveroB −1= (P ) . (3.6)P →BB→B B∈Inoltre, dalla (3.5) abbiamo che per ogni v V= P v , (3.7)v B B a B agisce sulle coordinate rispetto a B e le trasformaovvero la matrice di passaggio da B . Ovviamente abbiamo anche la relazione inversanelle coordinate rispetto a B −1= P v ,v B Bin accordo con la (3.6).La matrice di passaggio consente di stabilire una relazione tra le matrici associate ad una basi di V e F, Fstessa trasformazione lineare ϕ mediante basi diverse. Siano infatti E, E→ →basi di W ; data la trasformazione lineare ϕ : V W consideriamo anche id : V V ,V→id : W W e la
trasformazione compostaW → → →) (V, E) (W, F ) (W, F ).(V, E 37Dal Teorema 3.7 otteniamo allora E ,F E,FM = P M P . (3.8) →FF E→Eϕ ϕIn particolare, poichè le matrici di passaggio sono invertibili, dalla (2.4) abbiamo E ,F E,Fρ(M ) = ρ(M ), (3.9)ϕ ϕovvero tutte le matrici associate ad una stessa trasformazione lineare hanno la stessacaratteristica. →Consideriamo infine il caso speciale di una trasformazione lineare ϕ : V V ; date due di V , la (3.8) divienebasi B e B B,B B ,BM = P M P →BB→B Bϕϕ ovvero, denotando nuovamente con P = P la matrice di passaggio da B a B, abbiamo →BB −1B,B B ,B= P M P. (3.10)M ϕϕLe considerazioni fin qui fatte sulle matrici di passaggio saranno particolarmente utili nelCapitolo 5.Nucleo e immagine →Data una trasformazione lineare ϕ : V W definiamo{v ∈ ⊂ ⊂Ker ϕ = V : ϕ(v) = 0} V e Im ϕ = immagine di ϕ W,rispettivamente nucleo e immagine di ϕ; si verifica che
Ker ϕ e Im ϕ sono sottospazi, rispettivamente, di V e W. Tali sottospazi forniscono importanti informazioni sulla trasformazione lineare ϕ.
Proposizione 3.4. Sia ϕ : V → W una trasformazione lineare. Allora:
- ϕ è iniettiva se e solo se dim Ker ϕ = 0
- ϕ è surgettiva se e solo se dim Im ϕ = dim W
Dimostrazione.
i) Poiché ϕ(0) = 0, se ϕ è iniettiva allora Ker ϕ = {0} e quindi dim Ker ϕ = 0. Viceversa, se dim Ker ϕ = 0 allora Ker ϕ = {0} e quindi se ϕ(u) = ϕ(v) abbiamo ϕ(u - v) = 0, da cui u = v ovvero ϕ è iniettiva.
ii) Ovvia.
In particolare, ϕ è un isomorfismo se e solo se dim Ker ϕ = 0 e dim Im ϕ = dim W.
Le dimensioni di Ker ϕ e Im ϕ sono calcolabili per mezzo delle matrici associate a ϕ; abbiamo infatti:
Teorema 3.9. Sia ϕ : V → W una trasformazione lineare con dim V = n e siano v1, ..., vn una base di V e M una matrice associata a ϕ mediante due basi E = {v1, ..., vn} e F = {w1, ..., wm} qualsiasi di V e W. Allora:
Im ϕ = L(ϕ(v1), ..., ϕ(vn)) e dim Im ϕ =
ρ(M ).1 n38Dimostrazione. Abbiamo visto in precedenza che ogni vettore ϕ(v) si può scrivere come), ..., ϕ(v ), quindi Im ϕ = L(ϕ(v ), ..., ϕ(v )). Siacombinazione lineare dei vettori ϕ(v1 1n nE,F sono costituite dalle colonne delle coordinateora F una base di W ; le colonne di M ϕ), ..., ϕ(v ) rispetto alla base F e quindi dal Teorema 3.4 segue che dim Im ϕ =di ϕ(v1 n E,F ). Il teorema segue allora dalla (3.9).
ρ(M ϕ →Teorema 3.10. Sia ϕ : V W una trasformazione lineare con dim V = n e sia M unamatrice associata a ϕ mediante due basi qualunque di V e W . Allora−dim Ker ϕ = n ρ(M ).
Dimostrazione. Siano E ed F basi di V e W , rispettivamente. Dalla (3.5) abbiamo che{v ∈ E,F v = 0}.Ker ϕ = V : M EϕE,F v = 0 è un sistema lineare omogeneo e quindi per il Teorema 3.5 il sottospazioMa M EϕR n n E,F E,Fdi /C delle soluzioni ha dimensione n−ρ(M ). Segue che dim Ker ϕ = n−ρ(M ),ϕ ϕe il teorema segue dalla (3.9).Dai Teoremi
3.9 e 3.10 otteniamo immediatamente il→Teorema della dimensione. Sia ϕ : V → W una trasformazione lineare. Allora dim Ker ϕ + dim Im ϕ = dim V. Abbiamo quindi, in particolare, che ϕ è un isomorfismo se e solo se dim Ker ϕ = 0 e dim V = dim W. →Osserviamo infine le seguenti proprietà di una trasformazione lineare ϕ : V → W :
i) se ϕ(v1), ..., ϕ(vk) sono linearmente indipendenti, allora v1, ..., vk sono linearmente indipendenti
ii) se ϕ è iniettiva e v1, ..., vk sono linearmente indipendenti, allora ϕ(v1), ..., ϕ(vk) sono linearmente indipendenti
iii) se ϕ è un isomorfismo, allora E = <v1, ..., vn> è una base di V se e solo se F = <ϕ(v1), ..., ϕ(vn)> è una base di W.
3.3. Sistemi lineari e trasformazioni lineari
Equazioni lineari → ∈Data una trasformazione lineare ϕ : V → W ed un vettore b ∈ W consideriamo l'equazione lineare ϕ(x) = b; (3.11) ∈ Una soluzione dell'equazione (3.11) è un vettore x ∈ V che
soddisfa la (3.11). Osserviamoper prima cosa che, ovviamente, 39 ∈(i) l’equazione (3.11) ha soluzione se e solo se b Im ϕ.∈ ⊂ {u ∈Dati un vettore v V e un insieme U V definiamo l’insieme traslato U + v = + v : u∈}. ∈ V sia una soluzione dell’equazione (3.11);U Supponiamo ora che b Im ϕ e che x0abbiamo allora .(ii) l’insieme delle soluzioni dell’equazione (3.11) è Ker ϕ + x0∈ ) = ϕ(v) + ϕ(x ) = ϕ(x ) = b, ovvero v + x èInfatti, se v Ker ϕ abbiamo ϕ(v + x0 0 0 0∈ − ; abbiamosoluzione della (3.11). Viceversa, se x V soddisfa la (3.11) poniamo v = x x0− ∈− ) = b b = 0, ovvero v Ker ϕ.allora ϕ(v) = ϕ(x) ϕ(x0 ∈Le (i) e (ii) forniscono un metodo di risoluzione dell’equazione lineare (3.11): se b Im ϕe x è una soluzione qualunque della (3.11), tutte le soluzioni della (3.11) si ottengono0 il nucleo di ϕ.traslando di x0Sistemi lineariIl metodo di risoluzione
La formula dell'equazione (3.11) fornisce a sua volta un metodo alternativo per la risoluzione dei sistemi lineari. Se consideriamo la trasformazione:
Dato un sistema lineare Ax = b con A appartenente a M m×n(R) → R^n, consideriamo la trasformazione lineare ϕ : R^n → R^m associata alla matrice A mediante le basi canoniche, ovvero ϕ(x) = Ax per la (3.5); il sistema lineare Ax = b è quindi equivalente all'equazione lineare (3.11).
Osservando che Ker ϕ coincide con il sottospazio delle soluzioni del sistema omogeneo associato Ax = 0, il metodo sopra descritto stabilisce che le soluzioni del sistema lineare Ax = b, se esistono, si possono ottenere calcolando una soluzione x0 del sistema omogeneo associato e poi traslando di x0 le soluzioni del sistema omogeneo associato. In altre parole, denotando con S e S0 rispettivamente le soluzioni dei sistemi lineari Ax = b e Ax = 0, se S è non vuoto allora S = S0 + x0.
Osserviamo infine che la condizione di risolubilità dell'equazione (3.11) espressa dalla (i) coincide, in questo caso, con...
La condizione di risolubilità è espressa dal teorema di Rouchè-Capelli. Infatti, dal Teorema 3.9 abbiamo che Im ϕ = L(Ae , ..., Ae ); ma Ae , ..., Ae1 1n nnon sono altro che le colonne C , ..., C della matrice A e quindi1 n∈ ⇔ ∈ ⇔b Im ϕ b L(C , ..., C ) ρ(A) = ρ(A|b)1 nper quanto visto nel paragrafo precedente.
Capitolo 4. GEOMETRIA ANALITICA, parte I
4.1. Vettori geometrici
Vettori geometrici R 3 può essere identificato con lo spazio euclideo tridimensionale dotatoLo spazio vettoriale ∈ R 3degli assi cartesiani x, y, z: un vettore v = (a, b, c) si identifica con il punto P di co-RR 2 e coincidonoordinate (a, b, c) e viceversa. In tale identificazione gli spazi vettorialirispettivamente con il piano formato dagli assi x, y e la retta individuata dall’asse x; per-R RR 3 2, gli spazi vettoriali e essendotanto nel seguito considereremo soltanto il caso diR 3 .