Anteprima
Vedrai una selezione di 20 pagine su 92
Appunti Geometria e algebra lineare Pag. 1 Appunti Geometria e algebra lineare Pag. 2
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 6
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 11
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 16
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 21
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 26
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 31
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 36
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 41
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 46
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 51
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 56
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 61
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 66
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 71
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 76
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 81
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 86
Anteprima di 20 pagg. su 92.
Scarica il documento per vederlo tutto.
Appunti Geometria e algebra lineare Pag. 91
1 su 92
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Trasformazioni lineari e matrici associate

E,G F,G E,F= M M .M ϕψ◦ϕ ψSi verifica facilmente che le dimensioni di tali matrici sono coerenti. Abbiamo quindi chela corrispondenza tra matrici e trasformazioni lineari è operativa, nel senso che alla trasfor-◦mazione composta ψ ϕ corrisponde il prodotto delle matrici associate alle trasformazionilineari ψ e ϕ. →Una trasformazione lineare bigettiva ϕ : V W si dice isomorfismo. Abbiamo già visto nelparagrafo precedente un esempio importante di isomorfismo: se V è uno spazio vettorialeR/C , ..., v > è una sua base, allora l’applicazione (3.3) è unsu con dim V = n e B =< v1 nisomorfismo. Vale il seguente→Teorema 3.8. Sia ϕ : V W un isomorfismo, dim V = n, dim W = m e E, F basi di V−1 → E,F: W V è un isomorfismo, m = n, M è invertibilee W rispettivamente. Allora ϕ ϕ−1F,E →E,Fe M = (M ) . Viceversa, se ϕ : V W è una trasformazione lineare con m = n−1 ϕϕE,F è invertibile, allora ϕ è

Un isomorfismo ϕ-1 si chiama trasformazione inversa dell'isomorfismo ϕ; il Teorema 3.8 fornisce un ulteriore esempio dell'operatività della corrispondenza tra trasformazioni lineari e matrici.

Matrice di passaggio:

Consideriamo un importante caso speciale della situazione sopra descritta; precisamente, date due basi B = < v1, ..., vn > e B' = < v'1, ..., v'n > di uno spazio vettoriale V con dim V = n, consideriamo ϕ: (V, B) → (V, B'), dove con (V, B) intendiamo lo spazio vettoriale V munito della base B. La matrice associata sarà allora:

| p11  p12  ...  p1n |
| p21  p22  ...  p2n |
|    ...           ...         ...    |
| pn1  pn2  ...  pnn |

La matrice di passaggio da B a B' è denotata talvolta con P per evidenziare le basi in questione. Chiaramente, i coefficienti pij sono determinati da:

v' = p1jv1 + p2jv2 + ... + pnjvn

ovvero la colonna j-esima della matrice di passaggio P è la rappresentazione delle coordinate di vj rispetto alla base B'.

costituita dalla colonna delle co-rispetto alla base B . Inoltre, considerando le basi B =< v , ..., v >ordinate del vettore v 1j n ×=< v , ..., v > come matrici riga 1 n, abbiamoe B 1 n P,B = Bche giustifica il nome dato alla matrice P . −1 è la matrice di passaggio da B aDal Teorema 3.8 abbiamo che P è invertibile e che P , ovveroB −1= (P ) . (3.6)P →BB→B B∈Inoltre, dalla (3.5) abbiamo che per ogni v V= P v , (3.7)v B B a B agisce sulle coordinate rispetto a B e le trasformaovvero la matrice di passaggio da B . Ovviamente abbiamo anche la relazione inversanelle coordinate rispetto a B −1= P v ,v B Bin accordo con la (3.6).La matrice di passaggio consente di stabilire una relazione tra le matrici associate ad una basi di V e F, Fstessa trasformazione lineare ϕ mediante basi diverse. Siano infatti E, E→ →basi di W ; data la trasformazione lineare ϕ : V W consideriamo anche id : V V ,V→id : W W e la

trasformazione compostaW → → →) (V, E) (W, F ) (W, F ).(V, E 37Dal Teorema 3.7 otteniamo allora E ,F E,FM = P M P . (3.8) →FF E→Eϕ ϕIn particolare, poichè le matrici di passaggio sono invertibili, dalla (2.4) abbiamo E ,F E,Fρ(M ) = ρ(M ), (3.9)ϕ ϕovvero tutte le matrici associate ad una stessa trasformazione lineare hanno la stessacaratteristica. →Consideriamo infine il caso speciale di una trasformazione lineare ϕ : V V ; date due di V , la (3.8) divienebasi B e B B,B B ,BM = P M P →BB→B Bϕϕ ovvero, denotando nuovamente con P = P la matrice di passaggio da B a B, abbiamo →BB −1B,B B ,B= P M P. (3.10)M ϕϕLe considerazioni fin qui fatte sulle matrici di passaggio saranno particolarmente utili nelCapitolo 5.Nucleo e immagine →Data una trasformazione lineare ϕ : V W definiamo{v ∈ ⊂ ⊂Ker ϕ = V : ϕ(v) = 0} V e Im ϕ = immagine di ϕ W,rispettivamente nucleo e immagine di ϕ; si verifica che

Ker ϕ e Im ϕ sono sottospazi, rispettivamente, di V e W. Tali sottospazi forniscono importanti informazioni sulla trasformazione lineare ϕ.

Proposizione 3.4. Sia ϕ : V → W una trasformazione lineare. Allora:

  1. ϕ è iniettiva se e solo se dim Ker ϕ = 0
  2. ϕ è surgettiva se e solo se dim Im ϕ = dim W

Dimostrazione.

i) Poiché ϕ(0) = 0, se ϕ è iniettiva allora Ker ϕ = {0} e quindi dim Ker ϕ = 0. Viceversa, se dim Ker ϕ = 0 allora Ker ϕ = {0} e quindi se ϕ(u) = ϕ(v) abbiamo ϕ(u - v) = 0, da cui u = v ovvero ϕ è iniettiva.

ii) Ovvia.

In particolare, ϕ è un isomorfismo se e solo se dim Ker ϕ = 0 e dim Im ϕ = dim W.

Le dimensioni di Ker ϕ e Im ϕ sono calcolabili per mezzo delle matrici associate a ϕ; abbiamo infatti:

Teorema 3.9. Sia ϕ : V → W una trasformazione lineare con dim V = n e siano v1, ..., vn una base di V e M una matrice associata a ϕ mediante due basi E = {v1, ..., vn} e F = {w1, ..., wm} qualsiasi di V e W. Allora:

Im ϕ = L(ϕ(v1), ..., ϕ(vn)) e dim Im ϕ =

ρ(M ).1 n38Dimostrazione. Abbiamo visto in precedenza che ogni vettore ϕ(v) si può scrivere come), ..., ϕ(v ), quindi Im ϕ = L(ϕ(v ), ..., ϕ(v )). Siacombinazione lineare dei vettori ϕ(v1 1n nE,F sono costituite dalle colonne delle coordinateora F una base di W ; le colonne di M ϕ), ..., ϕ(v ) rispetto alla base F e quindi dal Teorema 3.4 segue che dim Im ϕ =di ϕ(v1 n E,F ). Il teorema segue allora dalla (3.9).

ρ(M ϕ →Teorema 3.10. Sia ϕ : V W una trasformazione lineare con dim V = n e sia M unamatrice associata a ϕ mediante due basi qualunque di V e W . Allora−dim Ker ϕ = n ρ(M ).

Dimostrazione. Siano E ed F basi di V e W , rispettivamente. Dalla (3.5) abbiamo che{v ∈ E,F v = 0}.Ker ϕ = V : M EϕE,F v = 0 è un sistema lineare omogeneo e quindi per il Teorema 3.5 il sottospazioMa M EϕR n n E,F E,Fdi /C delle soluzioni ha dimensione n−ρ(M ). Segue che dim Ker ϕ = n−ρ(M ),ϕ ϕe il teorema segue dalla (3.9).Dai Teoremi

3.9 e 3.10 otteniamo immediatamente il→Teorema della dimensione. Sia ϕ : V → W una trasformazione lineare. Allora dim Ker ϕ + dim Im ϕ = dim V. Abbiamo quindi, in particolare, che ϕ è un isomorfismo se e solo se dim Ker ϕ = 0 e dim V = dim W. →Osserviamo infine le seguenti proprietà di una trasformazione lineare ϕ : V → W :
i) se ϕ(v1), ..., ϕ(vk) sono linearmente indipendenti, allora v1, ..., vk sono linearmente indipendenti
ii) se ϕ è iniettiva e v1, ..., vk sono linearmente indipendenti, allora ϕ(v1), ..., ϕ(vk) sono linearmente indipendenti
iii) se ϕ è un isomorfismo, allora E = <v1, ..., vn> è una base di V se e solo se F = <ϕ(v1), ..., ϕ(vn)> è una base di W.
3.3. Sistemi lineari e trasformazioni lineari
Equazioni lineari → ∈Data una trasformazione lineare ϕ : V → W ed un vettore b ∈ W consideriamo l'equazione lineare ϕ(x) = b; (3.11) ∈ Una soluzione dell'equazione (3.11) è un vettore x ∈ V che

soddisfa la (3.11). Osserviamoper prima cosa che, ovviamente, 39 ∈(i) l’equazione (3.11) ha soluzione se e solo se b Im ϕ.∈ ⊂ {u ∈Dati un vettore v V e un insieme U V definiamo l’insieme traslato U + v = + v : u∈}. ∈ V sia una soluzione dell’equazione (3.11);U Supponiamo ora che b Im ϕ e che x0abbiamo allora .(ii) l’insieme delle soluzioni dell’equazione (3.11) è Ker ϕ + x0∈ ) = ϕ(v) + ϕ(x ) = ϕ(x ) = b, ovvero v + x èInfatti, se v Ker ϕ abbiamo ϕ(v + x0 0 0 0∈ − ; abbiamosoluzione della (3.11). Viceversa, se x V soddisfa la (3.11) poniamo v = x x0− ∈− ) = b b = 0, ovvero v Ker ϕ.allora ϕ(v) = ϕ(x) ϕ(x0 ∈Le (i) e (ii) forniscono un metodo di risoluzione dell’equazione lineare (3.11): se b Im ϕe x è una soluzione qualunque della (3.11), tutte le soluzioni della (3.11) si ottengono0 il nucleo di ϕ.traslando di x0Sistemi lineariIl metodo di risoluzione

La formula dell'equazione (3.11) fornisce a sua volta un metodo alternativo per la risoluzione dei sistemi lineari. Se consideriamo la trasformazione:

Dato un sistema lineare Ax = b con A appartenente a M m×n(R) → R^n, consideriamo la trasformazione lineare ϕ : R^n → R^m associata alla matrice A mediante le basi canoniche, ovvero ϕ(x) = Ax per la (3.5); il sistema lineare Ax = b è quindi equivalente all'equazione lineare (3.11).

Osservando che Ker ϕ coincide con il sottospazio delle soluzioni del sistema omogeneo associato Ax = 0, il metodo sopra descritto stabilisce che le soluzioni del sistema lineare Ax = b, se esistono, si possono ottenere calcolando una soluzione x0 del sistema omogeneo associato e poi traslando di x0 le soluzioni del sistema omogeneo associato. In altre parole, denotando con S e S0 rispettivamente le soluzioni dei sistemi lineari Ax = b e Ax = 0, se S è non vuoto allora S = S0 + x0.

Osserviamo infine che la condizione di risolubilità dell'equazione (3.11) espressa dalla (i) coincide, in questo caso, con...

La condizione di risolubilità è espressa dal teorema di Rouchè-Capelli. Infatti, dal Teorema 3.9 abbiamo che Im ϕ = L(Ae , ..., Ae ); ma Ae , ..., Ae1 1n nnon sono altro che le colonne C , ..., C della matrice A e quindi1 n∈ ⇔ ∈ ⇔b Im ϕ b L(C , ..., C ) ρ(A) = ρ(A|b)1 nper quanto visto nel paragrafo precedente.

Capitolo 4. GEOMETRIA ANALITICA, parte I

4.1. Vettori geometrici

Vettori geometrici R 3 può essere identificato con lo spazio euclideo tridimensionale dotatoLo spazio vettoriale ∈ R 3degli assi cartesiani x, y, z: un vettore v = (a, b, c) si identifica con il punto P di co-RR 2 e coincidonoordinate (a, b, c) e viceversa. In tale identificazione gli spazi vettorialirispettivamente con il piano formato dagli assi x, y e la retta individuata dall’asse x; per-R RR 3 2, gli spazi vettoriali e essendotanto nel seguito considereremo soltanto il caso diR 3 .

Dettagli
A.A. 2021-2022
92 pagine
SSD Scienze matematiche e informatiche MAT/03 Geometria

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Francesco_Palladino di informazioni apprese con la frequenza delle lezioni di Geometria e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli studi di Genova o del prof Catalisano Maria Virginia.