Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
V
1.1.6 Spazi isomorfi e isomorfismi −→
Se U e V sono spazi vettoriali ed esiste un’applicazione lineare f : U V iniettiva e suriettiva, diremo
≃
che U e V sono tra loro isomorfi e scriverò U V . Diremo invece f un isomorfismo.
2 Proprietà e teoremi
2.1 Teoremi su nucleo e immagine di applicazioni lineari
2.1.1 Natura di sottospazio vettoriale dell’immagine di un’applicazione lineare
Si avrà che Im(f ) è un sottospazio vettoriale di V .
2.1.2 Natura di sottospazio vettoriale del nucleo di un’applicazione lineare
Si avrà che ker(f ) è un sottospazio vettoriale di U . Questo si dimostra facilmente in quanto essendo f
lineare: ′ ′ ′ ′
· ·
+ t u ) = t f (u) + t f (u ) (68)
f (tu
Dunque, dato che i due vettori fanno parte del nucleo di f :
′ ′
· ·
t f (u) + t f (u ) = o (69)
25
2.1.3 Basi e applicazioni lineari
−→
Data l’applicazione lineare f : U V e detta B = (u , . . . , u ) una base di U avremo che l’immagine
1 n
degli elementi di B è un sistema di generatori di Im(f ).
Questo in quanto: · · ·
= f (u) =⇒ v = f (a u + + a u ) (70)
v 1 n
1 n
Dunque, essendo f lineare: · · · · ·
= a f (u ) + + a f (u ) (71)
v 1 n
1 n
2.1.4 Teorema di nullità e rango
−→ ∈
Data f : U V , se dim(U ) = n avremo che:
N
dim(ker(f )) + dim(Im(f )) = n = dim(U ) (72)
2.2 Teoremi su iniettività e suriettività
2.2.1 Condizione per la suriettività ⇐⇒
Diremo l’applicazione lineare f suriettiva Im(f ) = V .
2.2.2 Condizione per l’iniettività ⇐⇒ {o}.
Diremo l’applicazione lineare f iniettiva ker(f ) =
∈
Infatti, partendo dall’ipotesi che f sia iniettiva, dato u ker(f ), avremo che:
f (u) = o =⇒ u = o (73)
′
{o},
Ipotizzando invece che ker(f ) = posto f (u) = f (u ) avremo che:
′
− ) = o
f (u) f (u (74)
Dunque, essendo f lineare: ′ ′
− − ∈
u ) = o =⇒ u u ker(f ) (75)
f (u
E dunque per l’ipotesi: ′ ′
− u = u
u = 0 =⇒ u (76)
2.2.3 Osservazioni
Si noti che:
• ⇐⇒
Im(f ) ha la stessa dimensione di V f è suriettiva
• ⇐⇒
ker(f ) ha dimensione nulla f è iniettiva
2.2.4 Legame tra iniettività e suriettività
−→ ∈
Data f : U V con dim(U ) = dim(V ) = n avremo che:
N,
⇐⇒ ⇐⇒
f è iniettiva f è suriettiva f è biettiva
La dimostrazione viene dal teorema di rango e nullità, per il quale se f è iniettiva:
dim(Im(f )) + dim(ker(f )) = dim(U ) =⇒ dim(Im(f )) = n = dim(V ) (77)
E dunque f è suriettiva.
Se invece f fosse suriettiva per ipotesi:
dim(Im(f )) + dim(ker(f )) = dim(U ) =⇒ dim(ker(f )) = 0 (78)
E dunque f è necessariamente iniettiva. 26
2.2.5 Suriettività e dimensione di dominio e codominio
−→
Sia f : U V un’applicazione lineare, allora se dim(U ) < dim(V ) allora f non è suriettiva.
Questo in quanto per il teorema di nullità e rango avremo che:
≤
dim(Im(f )) dim(U ) < dim(V ) (79)
E dunque non può essere suriettiva.
2.2.6 Iniettività e dimensione di dominio e codominio
−→
Sia f : U V un’applicazione lineare, allora se dim(U ) > dim(V ) allora f non è iniettiva.
Questo in quanto per il teorema di nullità e rango avremo che:
− ≥ −
dim(ker(f )) = dim(U ) dim(Im(f )) dim(U ) dim(V ) > 0 (80)
E dunque non può essere iniettiva.
2.3 Teoremi sulle applicazioni lineari composte
2.3.1 Linearità di un’applicazione composta
Date le applicazioni lineari: −→
f : U V (81)
−→
g : V W
◦ −→
Avremo che g f : U W è un’applicazione lineare.
Questo è facilmente dimostrabile, infatti:
′ ′ ′
′ ′ ′
· ·
· ·
+ t u + t f (u + t g(f (u
) = g(t f (u) ) = t g(f (u) ) (82)
g(f (tu
2.4 Teoremi sugli spazi isomorfi e sugli isomorfismi
n
2.4.1 Spazi isomorfi a R n
∈
Dato uno spazio vettoriale V tale che dim(V ) = n avremo che V è isomorfo a .
R, R
2.4.2 Applicazione inversa di un isomorfismo
−1
−→ −→
Sia f : U V un isomorfismo, allora f : V U è un isomorfismo.
′ ′ ′
u = v e f (u
Questo perché essendo f suriettiva, esisteranno u, tali che f (u) ) = v . Avremo che:
−1 ′ ′ −1 ′ ′ ′ ′ −1 ′ −1 ′
· ·
+ t v ) = f (f (tu + t u )) = tu + t u = t f (v) + t f (v ) (83)
f (tv
−1
Dunque f è lineare e di conseguenza un isomorfismo.
2.4.3 Transitività dell’isomorfismo ≃ ≃
Se U è isomorfo a V e V è isomorfo a W avremo che U W e W V .
3 Matrici e applicazioni lineari
3.1 Matrici rappresentative
3.1.1 Teorema di rappresentazione di un’applicazione lineare
∈ ∈
Siano U, V spazi vettoriali tali che dim(U ) = n e dim(V ) = m siano le loro basi B , B e sia
N N, U V
−→ ∈
f : U V un’applicazione lineare. Allora avremo che esiste un’unica A n, tale che:
M(m, R)
·
f (u) = A u (84)
B B
V U
3.1.2 Matrice di un’applicazione composta
Date le matrici rappresentative delle applicazioni lineari f e g, ovvero rispettivamente A e B, avremo
◦ ·
che la matrice rappresentativa di g f sarà B A 27
3.2 Cambio di base
3.3 Matrici di cambio di base −→
Si abbia l’applicazione lineare identità id : U U e siano B e C due diverse basi di U . Dirò matrice di
, dà come risultato u . Questa avrà per colonne
cambio di base la matrice la quale, se moltiplicata a u B C
le coordinate rispetto a C dei vettori che compongono la base B. Chiamata dunque P tale matrice avrò
che: ·
id(u ) = P u (85)
C B
3.3.1 Invertibilità di una matrice di cambio di base
Invertendo una matrice di cambio di base da B a C otterrò una matrice di cambio di base da C a B.
3.3.2 Teorema del cambio di base ′ ′
Siano U e V spazi vettoriali di dimensione rispettivamente n e m, siano B , B basi di U e C , C
U U
U U
′ ∈ −→
basi di V . Siano poi A, A n, le matrici che rappresentano l’applicazione lineare f : U V
M(m, R)
rispetto alle due coppie di basi. Avremo dunque che:
′ · ·
A = Q A P (86)
Il cambio di base può essere schematizzato con un diagramma del tipo:
B
A B
V W
B B −1
P P
′
B
A ′
B
V W
′ ′
B B
3.3.3 Caso particolare
In caso io voglia trovare una matrice rappresentativa in una determinata base a partire dalla sua
rappresentazione in coordinate canoniche avrò:
′ −1 · ·
A = P A P (87)
3.3.4 Matrici simili
′ ′ −1
× × · ·
Siano A, A due matrici n n. Se esiste una matrice invertibile P n n tale che A = P A P , diremo
′ ′
∼
che A è simile ad A e scriveremo A A
3.3.5 Osservazioni sulle matrici simili
Si noti che:
• A è simile a sé stessa
• ′
A è simile ad A e non solo il contrario
• Se A è simile a B che è simile a C allora A è simile a C
28
Parte V
Il determinante
1 Definizione e proprietà
1.1 Definizioni ×
1.1.1 Determinante di matrice 2 2
2
In l’area del quadrato formato dai vettori della base canonica sarà unitaria. Se applico sui due vettori
R
un’applicazione lineare, questi assumeranno valori nuovi e dunque l’area tra loro cambierà, diventando
·
A = t 1. Dirò tale valore t determinante. Si noti che se det(A) < 0 avr un cambio di orientamento
dell’area. In questo caso varrà inoltre che: −
det(A) = ad bc (88)
1.1.2 Matrice minore
Data una matrice A quadrata, dirò minore principale di A di posto (i, j) la matrice quadrata che si
ottiene da A eliminando la i-esima riga e la j-esima colonna. Mi riferirò a tale matrice con A .
ij
×
Dirò inoltre minore di A di ordine r una matrice r r ottenuta eliminando quante righe e quante colonne
∈
sia necessario da A m,
M(n, R).
≤
Se r + 1 min(n, m) e M è un minore di ordine r di A mentre N è un minore di ordine r + 1 di A, dirò
che N orla M se questo è un minore di N .
1.1.3 Contenuto algebrico
Data una matrice quadrata, chiamerò complemento algebrico al posto (i, j) il numero:
i+j ·
(−1) det(A ) (89)
ij
1.1.4 Determinante (definizione ricorsiva)
∈
Data una matrice A n, avremo:
M(n, R)
• se n = 1, allora det(A) = a
11 n
• 1+j
P · ·
se n > 1, allora: det(A) = (a (−1) det(A ))
1j 1j
j=1
1.2 Teoremi e proprietà
1.2.1 Teorema di Laplace
Avremo che, per ogni i: n
X i+j
· ·
det(A) = (a (−1) det(A )) (90)
ij ij
j=1
Essenzialmente questo teorema afferma che posso applicare la definizione ricorsiva di determinante a
qualsiasi riga e non solo alla prima.
1.2.2 Regola di Sarrus ×
Per trovare il determinante di una matrice 3 3 la riscriverò accostata a sé stessa e sommerò i prodotti
delle prime tre diagonali e sottrarrò poi quelli delle altre tre diagonali prese nel verso opposto.
29
1.2.3 Proprietà del determinante
Avremo che:
• Se una matrice ha una riga nulla, essa avrà determinante nullo
• Se una matrice ha due righe uguali, essa avrà determinante nullo
• Se moltiplico una sola riga di una matrice per uno scalare, il suo determinante verrà moltiplicato
per lo stesso scalare
• Se scambio due righe di una matrice il determinante cambierà di segno
• Il determinante è lineare sulla i-esima riga n
• Q
Data una matrice triangolare (alta o bassa) avremo: det(A) = a
ii
i=1
• Il determinante di una matrice è uguale al determinante della sua trasposta
1.2.4 Osservazione
Date le precedenti proprietà sarà facile calcolare il determinante di una matrice rendendola applicandovi
il MEG e tenendo traccia dei passaggi compiuti. Si noti come questo valga anche per le colonne e non
solo per le righe.
1.2.5 Teorema di Binet
∈
Siano A, B n, allora:
M(n, R) · ·
det(A B) = det(A) det(B) (91)
·
Si noti che questo vale anche per il determinante della matrice B A.
1.2.6 Rango e determinante