vuoi
o PayPal
tutte le volte che vuoi
X
f (v ) = a w , j = 1, . . . , n.
j ij i
i=1
Si viene quindi a creare una tabella di elementi di dati da a ; diciamo che tale
K ij ×
tabella è una matrice con m righe e n colonne, od anche una matrice di tipo m n.
0
La matrice A = (a ) rappresenta rispetto alle basi B e B l’applicazione lineare
ij
f , e la scriveremo anche come
a . . . a
11 1n
... ... ...
A = .
a . . . a
m1 mn
In particolare si ha che se X denota il vettore colonna delle coordinate di v nella
base B e Y rappresenta il vettore riga delle coordinate di f (v) rispetto alla base
0
B allora Y = AX
dove il prodotto è eseguito riga per colonna, ovvero
· · ·
y a . . . a x a x + + a x
1 11 1n 1 11 1 1n n
... ... ... ... ... ...
= = .
· · ·
y a . . . a x a x + + a x
m m1 mn n m1 1 mn n
2 3
→ −
Sia f : l’applicazione lineare definita da f (x, y) = (0, y
Esempio. R R 0
{(1, {(1,
x, x + 2y). Sia B = 2), (1, 0)} e sia B = 0, 1), (0, 1, 0), (0, 0, 1)}. Allora
dal momento che −(0,
f (1, 2) = (0, 1, 0) + 5(0, 0, 1), f (1, 0) = 1, 0) + (0, 0, 1)
0
si ha che la matrice che rappresenta f rispetto alle basi B e B è data da
0 0
−1
1 .
5 1 −
Il vettore generico (x, y) ha coordinate (y/2, x y/2) rispetto alla base B e dunque
0
le coordinate di f (x, y) rispetto alla base B sono date dal vettore riga
0 0 0
y/2 −
−1 y x
1 = .
−
x y/2
5 1 2y + x
13
− −
Dunque si deve avere f (x, y) = (y x)(0, 1, 0) + (2y + x)(0, 0, 1) = (0, y x, 2y + x)
che di fatto coincide con l’espressione di f .
Le operazioni tra applicazioni lineari si trasportano dunque sulle matrici costruite
fissando le due basi negli spazi vettoriali dati.
→
1) Se f, g : V W sono due applicazioni lineari con matrici A e B rispetto alle
0 ±
basi B e B date, allora l’applicazione f g si rappresenta con la matrice
±
A B data da
a . . . a b . . . b
11 1n 11 1n
± ±
... ... ... ... ... ...
A B = =
a . . . a b . . . b
m1 mn m1 mn
± ±
a b . . . a b
11 11 1n 1n
... ... ... .
± ±
a b . . . a b
m1 m1 mn mn
→ →
2) Se f : V W e g : Im(f ) Z sono due applicazioni lineari rappresentate
0 0 00
dalle matrici A e A rispetto alle basi B di V , B di W e B di Z allora la
00
◦
matrice che rappresenta l’applicazione lineare g f rispetto alle basi B e B
0
è data dal prodotto righe per colonne A A, ovvero da
b . . . b a . . . a
11 1m 11 1n
... ... ... ... ... ... =
b . . . b a . . . a
p1 pm m1 mn
· · · · · ·
b a + + b a . . . b a + + b a
11 11 1m m1 11 1n 1m mn
... ... ... .
· · · · · ·
b a + + b a . . . b a + + b a
p1 11 pm m1 p1 1n pm mn
0 ×
Osserviamo che il prodotto righe per colonne della matrice A di tipo p m
×
e la matrice A di tipo m n si può effettuare solamente dal momento che
0
il numero di colonne di A coincide con il numero di righe di A; la matrice
0 ×
A A viene ad essere una matrice di tipo p n.
Una delle proprietà più importanti delle applicazioni lineari è l’invertibilità: come
si trasporta questa proprietà sulla matrice che rappresenta l’applicazione lineare
×
rispetto a due basi fissate? Una matrice A di tipo n n è invertibile se e solo se
−1
×
esiste una matrice di tipo n n denotata con A tale per cui si abbia
−1 −1
AA = A A = I
×
essendo I la matrice identica n n, ovvero la matrice data da
1 0 ... 0
0 1 ... 0
I = .
... ... ... ...
0 0 ... 1
14
Per costruzione l’invertibilità di un’applicazione lineare equivale all’invertibilità
della matrice che la rappresenta rispetto ad una base arbitrariamente fissata. Se
0
→
f : V W è biiettiva e B e B sono due basi qualsiasi di V e W rispettivamente,
−1
allora la matrice C che rappresenta f è l’inversa della matrice A che rappresenta
−1 −1 −1
◦ ◦
f . Infatti si ha f f = f f = Id da cui CA = AC = I e quindi C = A .
Più precisamente si ha il seguente Teorema.
→
Sia f : V W un’applicazione lineare tra spazi vettoriali della stessa
Teorema.
dimensione. Allora f è biiettiva se e solo se la matrice che rappresenta f rispetto
0
a due basi qualsiasi B e B arbitrariamente fissate è invertibile.
−1 →
Dimostrazione. Se f è biiettiva allora esiste f : W V rappresentata da C
tale per cui CA = AC = I e dunque A è invertibile.
−1 −1
Viceversa se A è l’inversa di A allora A rappresenta un’applicazione lin-
0
→ ◦ ◦
eare g : W V rispetto alle basi B e B. Ma allora si ha g f = f g = Id per
−1
cui g = f e quindi f è biiettiva.
Occorre a questo punto un test da applicare ad una matrice quadrata A che ci
consenta di dire se la matrice in questione è invertibile o no; tale studio porta
alla nozione più importante di tutta l’algebra delle matrici, che è la nozione di
determinante. Definiamo il determinante per ricorsione: se A = (a) è una matrice
×
di tipo 1 1, allora A è costituita da un solo elemento e per definizione det A = a.
×
Sia A una matrice di tipo 2 2 data da
a a
11 12
A = .
a a
21 22
−
Allora poniamo det A = a a a a . Si procede ora per ricorsione; se
11 22 12 21
a . . . a
11 1n
... ... ...
A =
a . . . a
n1 nn
i+j
definiamo C = (−1) det(M ) dove M è la matrice ottenuta da A eliminando
ij ij ij
la i-esima riga e la j-esima colonna. Le sottomatrici quadrate M estratte da A si
ij
dicono anche minori estratti da A. Si dimostra che fissando i o j rispettivamente
i valori · · · · · ·
C + + C , C + + C
i1 in 1j nj
sono tutti uguali, e per definizione sono pari a det A.
Sia data la matrice
Esempio.
−2
0 3
−3
1 6
A = .
1 1 0
15