Che materia stai cercando?

Matematica per le applicazioni II - algebra lineare

Appunti di Matematica per le applicazioni II su algebra lineare. Nello specifico gli argomenti trattati sono i seguenti: gli spazi vettoriali, la generalità sui vettori, l'addizione e la moltiplicazione scalare, la sottrazione, le combinazioni lineari, la dipendenza... Vedi di più

Esame di Matematica per le Applicazioni II docente Prof. A. Villanacci

Anteprima

ESTRATTO DOCUMENTO

78 Cap. III

colonna della matrice X.

Si noti che, posto t

x = c z ,

j k k

k =1

dalla proprietà di linearità segue che

t t

∑ ∑

det x c z x = c det x z x .

1 k k n k 1 k n

k =1 k =1

Sia

E 1.

SEMPIO x x

1 1 1 2

X = = x x

x x 1 2

21 22

un generico elemento dell'insieme M di tutte le matrici quadrate di ordine

2

(2 ,2).

Proponiamo quale funzione determinante su M la funzione definita da

2

x x = x x x x .

det 1 2 1 1 22 1 2 21

Vogliamo dimostrare che valgono per la suddetta funzione le proprietà a

cui deve soddisfare una funzione determinante.

− −

) det cx x = (cx ) x x (cx ) = c(x x x x )

( a 1 1 2 11 22 1 2 21 1 1 22 1 2 21

= cdet x x .

1 2

Analogamente, det x cx = cdet x x .

1 2 1 2

( a ) det y + z x = (y + z ) x x (y + z )

2 1 1 2 1 1 11 22 1 2 2 1 21

− −

= y x x y + z x x z

1 1 22 1 2 2 1 1 1 22 1 2 2 1

= det y x + det z x .

1 2 1 2

x y +z = det x y + det x z .

Analogamente, det 1 2 2 1 2 1 2

− −

(b) det x x = x x x x = 0 = x x x x = det x x .

1 1 1 1 21 1 1 21 1 2 22 1 2 22 2 2

(c) det u u = (1)(1) (0)(0) = 1 .

1 2

DETERMINANTI 79

1.2 Nel paragrafo successivo dimostreremo che, qualunque sia l'insieme

M , una funzione determinante esiste ed è unica.

n

Il nostro obiettivo adesso è porre in evidenza alcune proprietà di una

funzione determinante, proprietà che discendono direttamente da quelle

indicate all'inizio della sezione precedente.

(d) Se si addiziona al j-esimo vettore colonna di x x x una

1 j n

combinazione lineare dei rimanenti vettori colonna, il determinante non

cambia. In simboli, ∑

det x x + c x x = det x x x .

1 j k k n 1 j n

k j

Infatti, per la linearità di una funzione determinante, il primo membro

della espressione precedente può essere scritto nella forma

det x x x + c det x x x

1 j n k 1 k n

k j

e ciascun termine della sommatoria al secondo membro, per la proprietà (b),

vale zero.

(e) Se gli n vettori colonna di x x x sono linearmente dipendenti,

1 j n

allora (1) det x x x = 0 .

1 j n

Infatti, per n = 1, 0 = det 0x = 0det x = 0 .

det

Per n > 1, almeno un vettore, diciamo x , può essere espresso come com-

j

binazione lineare dei rimanenti; cioè,

x = c x .

j k k

k j

Quindi,

(1) Vale anche, come dimostreremo al punto 1 dei Complementi al Cap. IV, l'affermazione reci-

proca.

80 Cap. III

∑ ∑

det x x x = det x c x x = c det x x x = 0 .

1 j n 1 k k n k 1 k n

≠ ≠

k j k j

x x x x è ottenuta da x x x x scambian-

(f) Se 1 h j n 1 j h n

do x con x (h≠ j), allora

h j −

det x x x x = det x x x x .

1 j h n 1 h j n

Infatti, −

x x x x = det x x (− x ) x

det 1 j h n 1 j h n

− −

= det x x (x x ) x

1 j j h n

− − − −

= det x x (x x ) (x x ) x

1 j j h j h n

− −

= det x x (x x ) x

1 h j h n

= det x x x x .

1 h j n

Proseguendo nell'Esempio 1, verifichiamo le ulteriori proprietà

E 2.

SEMPIO

(d),( e ),(f). −

x + cx x = (x + cx ) x x (x + cx )

(d) det 1 2 2 1 1 12 22 1 2 2 1 22

− −

x x x + cx x cx x

= x 1 1 22 1 2 21 1 2 22 1 2 2 2

= det x x .

1 2

Analogamente, det x x + cx = det x x .

1 2 1 1 2

(e) Posto x = cx , si ha

1 2 −

det cx x = (cx ) x x (cx ) = 0 .

2 2 12 22 1 2 22

− −

(f) det x x = x x x x = det x x .

2 1 1 2 21 1 1 22 1 2

2 E

SISTENZA E UNICITÀ DI UNA FUNZIONE DETERMINANTE

2.1 Dimostreremo, anzitutto, l'esistenza di una funzione determinante

utilizzando il procedimento di induzione .

(2)

(2) I dettagli delle dimostrazioni contenute in questo paragrafo possono essere omessi a una prima

lettura.

DETERMINANTI 81

Per n = 1, il dominio di una funzione determinante è costituito dall'insieme

x = x, è subito

di tutte le matrici di ordine (1 ,1). Posto, per ogni x∈R, det

) ,( a ) ,(b),(c).

( a

visto che valgono le proprietà 1 2 ,

Per n>1, assumiamo l'esistenza di una funzione determinante su M n -1

vale a dire sull'insieme di tutte le matrici quadrate di ordine (n−1, n−1).

≤ ≤

Fissato l'indice di riga i (1 i n), sia

i+1 i+n

(1) detX = (−1) x detX + ... + (−1) x detX

i 1 i 1 i n i n

dove X (k = 1, ... , n) è la matrice di ordine (n−1, n−1) ottenuta da

i k

x cancellando la riga i-esima e la colonna k-esima.

X = i j (n , n )

Vogliamo dimostrare che la (1) soddisfa le proprietà che caratterizzano

una funzione determinante.

( a ) Dalla (1) si ha che

1 * *

i+1 i+j

x cx x = (−1) x detX + ... + (−1) cx detX

det 1 j n i 1 i 1 i j i j

*

i+n

+ ... + (−1) x detX

i n i n

*

dove X è la matrice ottenuta da x cx x cancellando la riga i-

i k 1 j n

esima e la colonna k-esima.

Per ipotesi di induzione, abbiamo che

* *

detX = cdetX per k≠ j , detX = detX per k= j .

i k i k i k i k

Quindi, i+1 i+j

det x cx x = c{(−1) x detX + ... + (−1) x detX

1 j n i 1 i 1 i j i j

i+n

+ ... + (−1) x detX }

i n i n

= cdet x x x

1 j n

e la proprietà ( a ) risulta soddisfatta.

1

) Posto x = y + z , indichiamo con X la matrice ottenuta da

( a 2 j j j i k

x y x cancellando la riga i-esima e la colonna k-esima; ana-

1 j n

logamente, indichiamo con X la matrice ottenuta da x z x

i k 1 j n

cancellando la riga i-esima e la colonna k-esima.

82 Cap. III

Per ipotesi di induzione, risulta

detX = det X + det X per k≠ j ,

i k i k i k

detX = det X = det X per k= j .

i k i k i k

Pertanto, dalla (1) si ha i+1

det x y + z x = (−1) x {det X + det X }

1 j j n i 1 i 1 i 1

i+j i+n

(y + z ) detX + ... + (−1) x {det X + det X }

+ ... + (−1) i j i j i j i n i n i n

i+1 i+j i+n

x det X + ... + (−1) y det X + ... + (−1) x det X }

= {(−1) i 1 i 1 i j i j i n i n

i+1 i+j i+n

x det X + ... + (−1) z det X + ... + (−1) x det X }

+ {(−1) i 1 i 1 i j i j i n i n

x y x + det x z x .

= det 1 j n 1 j n

e la proprietà ( a ) risulta soddisfatta.

2 ≠ ≠

= x con h< j. Per ogni k h e k j, la matrice

(b) Supponiamo che sia x h j

X ha due colonne eguali e quindi, per ipotesi di induzione, detX = 0.

i k i k

Pertanto, dalla (1) si ha i+h i+j

det x x x x = (−1) x detX + (−1) x detX .

1 h j n i h i h i j i j

Dobbiamo dimostrare che il secondo membro della espressione prece-

dente vale zero. = x .

A questo fine, si osservi intanto che x i h i j

Inoltre, scambiando in sequenza la (j−1)-esima colonna di X con cia-

i k

j− h−1 colonne che la precedono, si passa da X a X .

scuna delle i h i j

Ricordando che, valendo per ipotesi di induzione la proprietà (f), a

ciascun scambio muta il segno del determinante, si ha

j - h -1 -j + h +1

detX = (−1) detX = (−1) detX

i j i h i h

da cui i+h i+j -j + h +1

det x x x x = (−1) x detX + (−1) x (−1) detX

1 h j n i h i h i h i h

i+h i+h +1

= (−1) x detX + (−1) x detX

i h i h i h i h

= 0

DETERMINANTI 83

e la proprietà (b) risulta dimostrata.

(c) La (1) fornisce direttamente i+i

detI = (−1) (1) detI = 1 .

i i

2.2 Passando adesso a esaminare l'unicità di una funzione determinante,

consideriamo su M due funzioni determinanti det e det . Dovendo valere

n 1 2

per entrambe la proprietà (c), risulta

det I = 1 = det I .

1 2

Inoltre, indicata con S = u u u u la matrice che si ottiene

1 j h n

da I = u u u u scambiando i vettori u e u (h≠ j), per la pro-

1 h j n h j

prietà (f) si ha −1

det S = = det S .

1 2

Infine, sia P la matrice ottenuta da I attraverso una permutazione dei

vettori u , ... , u . Poiché P può essere vista come la matrice ottenuta da I

1 n

attraverso una successione finita di scambi tra coppie di vettori e poiché,

d'altra parte, a ogni scambio muta simultaneamente il segno di det P e

1

det P , fermo restando il valore assoluto eguale a 1, ne consegue che

2 det P = det P .

1 2

Ciò premesso, consideriamo il j-esimo (j = 1, ... , n) vettore colonna di X

espresso nella forma n

x = x u + ... + x u = x u .

j 1 j 1 n j n i j i

i=1

Allora, come si può verificare,

n n

∑ ∑

(*) det x x = det x u x u

σ σ σ σ

1 1 n 1 (1) 1 (1) (n ) n (n )

σ σ

(1 ) = 1 (n ) = 1

n n

∑ ∑

= ... x ... x det u u .

σ σ σ σ

(1) 1 (n ) n 1 (1) (n)

σ σ

(1 ) = 1 (n ) = 1

Ora, degli n termini che costituiscono la somma scritta all'ultimo membro

n

84 Cap. III

di questa espressione ce ne sono n! nei quali i vettori u , ... , u sono

σ σ

(1) (n )

una permutazione dei vettori u , ... , u .

1 n

Per essi, quindi, ricordando quanto detto in precedenza, vale la relazione

u u = det u u .

det σ σ σ σ

1 (1) (n) 2 (1) (n)

Nei rimanenti n n! termini, la matrice u u ha due colonne

n σ σ

(1) (n )

eguali. Per questi dunque, in virtù della proprietà (b) di una funzione deter-

minante, det u u = 0 = det u u .

σ σ σ σ

1 (1) (n) 2 (1) (n)

Possiamo, pertanto, scrivere l'ultimo membro della (*) nella forma

n n

∑ ∑

... x ... x det u u .

σ σ σ σ

(1) 1 (n ) n 2 (1) (n)

σ σ

(1) = 1 (n) = 1

Ma, quest'ultima espressione rappresenta, com'è immediato riconoscere,

x x .

det 2 1 n

Quindi, det x x = det x x .

1 1 n 2 1 n

3 C

ALCOLO DI UN DETERMINANTE

3.1 Si osservi anzitutto che l'espressione (1≤ i≤ n;n≥ 2)

i+1 i+n

detX = (−1) x detX + ... + (−1) x detX ,

i 1 i 1 i n i n

considerata nel paragrafo precedente, fornisce un algoritmo per il calcolo del

determinante di una matrice X = x in funzione dei determinanti delle

i j (n , n )

matrici X ottenute da X cancellando la riga i-esima (1≤ i≤ n) e la colonna j-

i j

esima (j = 1, ... , n).

Si dice, in tal caso, che si è proceduto allo sviluppo del determinante di X

secondo gli elementi della riga i-esima.

Tale sviluppo, per l'unicità della funzione determinante, non dipende dalla

DETERMINANTI 85

riga considerata. i+j detX (i,j = 1, ... , n) sono chiamati cofattori o comple-

I termini (−1) i j

menti algebrici di x .

i j

Data una matrice

E 3.

SEMPIO x x x

11 12 13

X = x x x

21 22 23

x x x

31 32 33

si ottiene x x x x x x

+ − +

22 23 21 23 21 22

detX = x det x det x det

x x x x x x

11 12 13

32 33 31 33 31 32

x x x x x x

− + −

12 13 11 13 11 12

= x det x det x det

x x x x x x

21 22 23

32 33 31 33 31 32

x x x x x x

+ − +

12 13 11 13 11 12

= x det x det x det

x x x x x x

31 32 33

22 23 21 23 21 22

− − −

= + x x x + x x x + x x x x x x x x x x x x .

11 22 33 12 23 31 13 21 32 11 23 32 13 22 31 12 21 33

3.2 Ricordando la (*) del paragrafo precedente, possiamo scrivere

n n

∑ ∑

x x = ... x ... x det u u

det σ σ σ σ

1 n (1) 1 (n ) n (1) (n )

σ σ

(1 ) = 1 (n ) = 1

e osservare che vale l'identità

n n

∑ ∑

... x ... x det u u

σ σ σ σ

(1) 1 (n ) n (1) (n )

σ σ

(1 ) = 1 (n ) = 1

n n

∑ ∑

= ... x ... x det u u .

σ σ σ σ

1 (1) n (n ) (1) (n )

σ σ

(1 ) = 1 (n ) = 1

Ma lo scambio dei primi con i secondi indici attuato nella espressione

precedente equivale allo scambio delle righe con le colonne di X.

Ne consegue che il determinante di X è eguale al determinante della

trasposta di X e che tutte le proprietà che competono alla funzione deter-

minante considerata come funzione dei vettori colonna di X sono valide

anche per i vettori riga di X.

86 Cap. III

In particolare, si ha che (1≤ j≤ n;n≥ 2)

1+j n+j

x detX + ... + (−1) x detX .

(2) detX = (−1) 1 j 1 j n j n j

La (2) costituisce lo sviluppo del determinante di X secondo gli ele-

menti della colonna j-esima.

Data la matrice X considerata nell'Esempio 3, risulta

E 4.

SEMPIO x x x x x x

+ − +

22 23 12 13 12 13

detX = x det x det x det

x x x x x x

11 21 31

32 33 32 33 22 23

x x x x x x

− + −

21 23 11 13 11 13

= x det x det x det

x x x x x x

12 22 32

31 33 31 33 21 23

x x x x x x

+ − +

21 22 11 12 11 12

= x det x det x det

x x x x x x

13 23 33

31 32 31 32 21 22

− − − z

= +x x x + x x x + x x x x x x x x x x x x .

11 22 33 12 23 31 13 21 32 11 23 32 13 22 31 12 21 33

Si osservi, infine, che la somma dei prodotti degli elementi della riga i-

x per i cofattori degli elementi della riga h-esima (h≠ i)

esima di X = i j (n , n )

vale zero . In simboli,

(3) h +1 h +n

(3) x (−1) detX + ... + x (−1) detX = 0 .

i 1 h 1 i n h n

In effetti, il primo membro della (3) rappresenta il determinante,

sviluppato secondo gli elementi della riga h-esima, della matrice ottenuta da

X sostituendo alla riga h-esima la riga i-esima. Dunque, tale matrice ha due

righe eguali e, perciò, il suo determinante vale zero.

Per esempio, data la matrice x x

1 1 1 2

X = ,

x x

21 22

moltiplicando ciascun elemento della prima riga per i cofattori della seconda

riga e sommando, si ha

(3) Naturalmente, un'osservazione analoga vale quando si considerino, in luogo delle righe, le

colonne di X.

DETERMINANTI 87

x (−x ) + x (x ) = 0 .

11 12 12 11

4 A

LCUNI TEOREMI SUI DETERMINANTI

T 1

EOREMA

Data una matrice a blocchi di ordine (n,n)

A O

(r, r) (r, n -r)

X= C B

(n -r, r) (n -r, n -r)

si ha detX = (detA)(detB) .

Dim. La dimostrazione utilizza il procedimento di induzione nell'ordine r di

a .

A = i j (r, r)

Per r = 1, si ha detX = a detB e il teorema è senz'altro vero.

1 1

Per r > 1, supponiamo che il teorema sia vero quando la matrice A è di

ordine (r−1,r−1) e dimostriamone la validità per A di ordine (r,r).

Infatti, sviluppando il determinante di X secondo gli elementi della prima

riga si ottiene 1+1 1+r

detX = (−1) a (detA )(detB) + ... + (−1) a (detA )(detB)

1 1 1 1 1 r 1 r

1+1 1+r

{ }

(−1) a detA + ... + (−1) a detA detB

= 1 1 1 1 1 r 1 r

= (detA)(detB) .

T 2

EOREMA

Data una matrice a blocchi di ordine (2r,2r)

O A

(r, r ) (r, r )

Z = B C

(r, r ) (r, r )

si ha r

detZ = (−1) (detA)(detB) .

88 Cap. III

Dim. Si consideri anzitutto la matrice

A O

(r, r ) (r, r )

=

Z 1 C B

(r, r ) (r, r )

il cui determinante, per il Teorema 1, vale

detZ = (detA)(detB) .

1

Poiché si può passare da Z a Z con r scambi (la prima colonna con la

1

(r+1)-esima, ecc.), si ha r r

detZ = (−1) detZ = (−1) (detA)(detB) .

1

Qualora sia

C .

OROLLARIO O A

(r, r ) (r, r )

Y = −I C

(r, r ) (r, r )

il teorema precedente fornisce immediatamente

r r

(detA)(−1) (detI) = detA .

detY = (−1)

T 3

EOREMA

Date due matrici quadrate A,B dello stesso ordine, risulta

det(A B) = (detA)(detB) .

Dim. Considerata l'identità −I

A O + A B O AB

= −I B

−I B

è immediato verificare che il determinante della matrice al primo membro,

per la proprietà (d) della funzione determinante, è eguale al determinante

DETERMINANTI 89

della matrice A O

−I B

e questo, per il Teorema 1, vale (detA)(detB).

D'altro canto, il determinante della matrice al secondo membro, per il

Corollario al Teorema 2, vale det(A B), cosicché il teorema risulta provato.

Si ha

C .

OROLLARIO

det(A B) = (detA)(detB) = (detB)(detA) = det(B A) .

5 I

NVERSA DI UNA MATRICE

Ci proponiamo, adesso, di esprimere la condizione necessaria e suffi-

x e di indicare un

ciente per l'esistenza dell'inversa di una matrice X = i j (n , n )

procedimento di calcolo di tale inversa.

A questo fine, occorre anzitutto introdurre il concetto di matrice aggiunta

X, e così definita:

o, più semplicemente, di aggiunta di X, denotata con

• se n = 1, X = 1 ;

• se n > 1, X è la trasposta della matrice i cui elementi sono i cofattori di X.

Ciò premesso, vogliamo in primo luogo dimostrare che tra X e la sua

X sussiste la relazione

aggiunta

(4) X X = (detX) I .

Per n = 1, la verifica è immediata.

Per n > 1, poiché il primo membro della (4) può essere scritto nella forma

n n

Σ Σ

x x x x

1 k 1 k 1 k n k

x x

x x k =1 k =1

1 1 n 1

1 1 1 n = ,

n n

x x x x Σ Σ

n 1 n n 1 n n n x x x x

n k 1 k n k n k

k =1 k =1

90 Cap. III

ricordando la (1) e la (3), si trae subito la (4).

In modo del tutto analogo, si dimostra poi che sussiste la relazione

(5) XX = (detX) I .

Data la matrice

E 5.

SEMPIO −1 0 0

−2

X = 3 4

7 1 5

risulta −14 0 0

−5

X = .

13 4

17 1 2

Inoltre (detX = 14),

−1 −14

0 0 0 0 14 0 0

−2 −5 =

3 4 13 4 0 14 0

7 1 5 17 1 2 0 0 14

e −14 −1

0 0 0 0 14 0 0

−5 −2 = .

13 4 3 4 0 14 0

17 1 2 7 1 5 0 0 14

T 4

EOREMA ≠

Data una matrice X di ordine (n,n), se detX 0, l'inversa di X esiste ed

è espressa da -1 -1

(6) X = (detX) X . ≠

Reciprocamente, se esiste l'inversa di X, allora detX 0.

Dim. Per dimostrare la prima parte del teorema, basta verificare che il

DETERMINANTI 91

secondo membro della (6) è tale che

-1 -1

(detX) XX = X(detX) X = I .

Ma la duplice relazione che precede non è che un modo diverso di

scrivere la (4) e la (5) e, quindi, la prima parte del teorema è dimostrata.

Supposto poi che esista l'inversa di X, per il Corollario al Teorema 3, si

ha -1 -1 -1

1 = detI = det(X X) = det(X X ) = (detX)(detX )

≠ z

da cui detX 0.

Le matrici, ovviamente quadrate, il cui determinante è diverso da zero

sono dette non singolari o invertibili; viceversa, le matrici il cui deter-

minante è eguale a zero sono dette singolari o non invertibili.

Data la matrice di cui all'Esempio 5, risulta

E 6.

SEMPIO −14 −1

0 0 0 0

−5 −2

-1 -1 -1 - 1

X = 14 ) =

, ( X .

13 4 3 4

17 1 2 7 1 5

92 Cap. III

Cap. III

COMPLEMENTI

1 Dati un numero reale c e una matrice X di ordine (n,n), tenuto conto della

proprietà ( a ) della funzione determinante, si ha

1 detX .

det(cX) = c n

2 Data una matrice X di ordine (n,n), risulta (1)

n -1

detX = (detX) .

XX = (detX)I, si ottiene

Infatti, dalla relazione n

det(XX) = (detX)(detX) = det((detX)I) = (detX) .

3 ≠

Dati un numero reale c 0 e una matrice non singolare X di ordine (n,n),

posto Y = cX, si ha -1 -1

Y = c X .

-1

Infatti,

(1) Se X è la matrice nulla di ordine (1,1), il secondo membro della espressione che segue perde di

significato, mentre il primo membro assume il valore 1.

COMPLEMENTI 93

-1 -1 -1 -1 -1

Y = (detY) Y = (c detX) c X = c (detX) X = c X .

n n -1 -1 -1

4 Data una matrice (detta diagonale a blocchi, quasi diagonale)

X O

1 1

X = O X tt

≥2

dove X , ... , X sono t matrici quadrate non necessariamente dello

11 t t

stesso ordine, risulta ) ... (detX ) .

detX = (detX 1 1 t t

5 Data una matrice a blocchi A B

X = C D

dove D è invertibile, proponiamoci di calcolarne il determinante.

Per il Teorema 1, si ha I O

det = (detI)(detI) = 1

Z I

qualunque sia Z. −D -1

In particolare, se Z = C, allora

I O

det = 1 .

− -1 C I

D

Pertanto, ricordando il Teorema 3,

A B I O A B I O

( )( ) ( )

detX = det det = det

− −

-1 -1

C I C I

C D D C D D

− -1 B

A BD C − -1

= det C)detD .

= det(A B D

O D

94 Cap. III

Analogamente, se A è invertibile, si dimostra che

− - 1

detX = det(D C A B) detA .

6 Data una matrice a blocchi, invertibile,

A B

X = C D

sia non singolare.

supponiamo che A

Posto (2) − - 1

H = D CA B ,

si verifica agevolmente che la matrice −

- 1 - 1 -1 - 1 - 1 -1

A + A BH CA A BH

S = − -1 - 1 -1

H CA H -1

soddisfa alle condizioni SX = XS = I e che, pertanto, S = X .

Analogamente, se D è non singolare, posto

− -1 C ,

K = A BD

si dimostra che la matrice −

-1 -1 -1

K K BD

T = − -1 -1

D C K -1 -1 -1 -1

D CK BD + D

è l'inversa di X.

7 Date tre matrici non singolari A , C , A+ BCD , risulta (3)

(2) Si noti che, avendo supposto X invertibile, per quanto detto al punto precedente H è non

singolare.

(3) La verifica è lasciata per esercizio al lettore.

COMPLEMENTI 95

-1 - 1 - 1 -1 - 1 -1 - 1

(A + BCD) = A A B(C + DA B) DA .

8 Date due matrici x y

X = , Y =

ij hk

(n , n ) (p , p )

si dimostra che ⊗ p n

(detX) .

det(Y X) = (detY)

9 Abbiamo già osservato nel paragrafo 3 del Cap. II che può accadere che

sia XY = O senza che né X né Y siano eguali a O (esistenza di divisori (X,

≠ ≠

Y) dello zero (O)), oppure che sia XY = XZ con Y Z e X O.

Vogliamo adesso riprendere l'argomento stabilendo i seguenti teoremi.

T

EOREMA

Siano X, Y due matrici quadrate tali che XY = O. Allora, X o Y sono eguali

a O, oppure X e Y sono entrambe singolari.

≠ ≠

Dim. Supponiamo che sia X O, Y O e che almeno una delle due matrici,

-1

diciamo X, sia invertibile. Allora, XY = O implica X XY = O, e cioè Y = O,

contro l'ipotesi.

T

EOREMA

Se X è invertibile, XY = XZ oppure YX = ZX implica che sia Y = Z.

-1 -1

Dim. Infatti, XY = XZ implica X XY = X XZ, e cioè Y = Z. In modo ana-

logo, si dimostra che YX = ZX implica che sia Y = Z.

96 Cap. IV

Cap. IV

SISTEMI DI EQUAZIONI LINEARI

1 G . I

ENERALITÀ SUI SISTEMI DI EQUAZIONI LINEARI L TEOREMA DI

C

RAMER

1.1 Si consideri un sistema di equazioni lineari del tipo

x a + ... + x a = x

1 1 1 1 p p 1

...................................

(1) a + ... + x a = x

x n 1 1 n p p n

in cui a , ... , a rappresentano le incognite, mentre x , ... , x e x , ... , x

1 p 1 1 n p 1 n

denotano numeri reali assegnati che ricevono la denominazione, rispettiva-

mente, di coefficienti e termini noti del sistema.

Posto x x a x

1 1 1 p 1 1

X = , a = , x =

x x a x

n 1 n p p n

la (1) può essere scritta, più compattamente, nella forma

(1') Xa = x .

− −

Qualora sia x = 0 nel caso, cioè, in cui i termini noti siano tutti nulli il

sistema si dice (lineare) omogeneo.

Si dice poi vettore soluzione (o, più semplicemente, soluzione) del siste-

SISTEMI DI EQUAZIONI LINEARI 97

ma ogni vettore a = a tale che la (1') risulti soddisfatta.

j (p , 1 )

Il sistema è compatibile se esiste almeno un vettore soluzione; incom-

patibile nel caso contrario.

Risolvere il sistema significa decidere se esso è compatibile o incom-

patibile e, nel primo caso, calcolarne tutte le soluzioni.

È ovvio che un sistema omogeneo ammette, in ogni caso, la soluzione

banale a = 0.

1.2 Prima di affrontare in tutta generalità i vari problemi connessi con la

soluzione di un sistema di equazioni lineari, conviene considerare un caso

particolare dimostrando il seguente teorema.

(Teorema di Cramer)

T 1

EOREMA

Dato un sistema di n equazioni lineari in n incognite Xa = x, se la matrice

dei coefficienti X è invertibile, il sistema ammette un'unica soluzione fornita

dall'espressione -1

(2) a = X x . -1

Dim. Basta osservare che il vettore a = X x, la cui esistenza e unicità

sono conseguenza dell'ipotesi fatta sulla matrice X, è tale che

-1

X a = XX x = x .

Qualora sia x = 0, vale a dire nel caso in cui il sistema sia

C .

OROLLARIO

omogeneo, l'unica soluzione ammissibile è quella banale costituita dal

vettore a = 0.

Dato il sistema

E 1.

SEMPIO −10 a

2 3

1 =

a

1 1 1

2

98 Cap. IV

risulta −10 -1

2 3 1 10 3 13

-1 -1

a = = 12 = 12 .

−1 −1

1 1 1 2 1

Utilizzando la (6) del Cap. III, la (2) diventa

O 1.

SSERVAZIONE -1 -1

(2') a = X x = (detX) Xx .

Inoltre, come si verifica facilmente, quest'ultima espressione può essere

scritta nella forma detX 1 (x )

-1

a = (detX)

(2'') detX n (x )

dove X rappresenta la matrice ottenuta da X sostituendovi alla colonna i-

i (x )

esima il vettore dei termini noti x.

Considerato nuovamente il sistema di cui all'Esempio 1, uti-

E 2.

SEMPIO

lizzando la (2"), si ha −10

3

det 1 1 13

-1 -1

a = 12 = 12 .

−1

2 3

det 1 1

2 R

ANGO DI UNA MATRICE

2.1 Sia data una matrice X di ordine (n,p) e supponiamo, per il momento,

che essa non sia la matrice nulla.

I

Consideriamo poi l'insieme (X) costituito da tutte le sottomatrici qua-

drate di X, ottenute cancellando un certo numero di righe e/o di colonne non

necessariamente consecutive di X, e da X stessa nel caso che questa sia

quadrata.

SISTEMI DI EQUAZIONI LINEARI 99

Tale insieme conterrà almeno un elemento X di ordine massimo (r,r)

*

con determinante diverso da zero. Il numero r si chiama rango di X e si

indica con r(X).

Quindi, dire che la matrice X ha rango r(X) = r significa affermare che:

∈ I

(i) esiste almeno un elemento X (X) di ordine massimo (r,r) il cui

*

determinante è diverso da zero; I

(ii) se r < min{n,p}, ogni elemento di (X) di ordine ( s,s ) con s > r ha

determinante nullo.

Qualora sia X = O, si dice che X ha rango zero e si scrive r(X) = 0.

Data la matrice

E 3.

SEMPIO −1 0 2 1

−1

X = 0 1 1

−4 −2

2 0

si verifica facilmente che il determinante di ciascuno dei seguenti elementi di

I (X) di ordine (3,3)

−1 −1 −1

0 2 0 1 2 1 0 2 1

−1 −1 −1

, , ,

0 1 1 0 1 0 1 1 1

−4 −2 −4 −2 −4 −2

2 0 2 0 2 0

è eguale a zero. I (X) di ordine (2,2) il cui

D'altro canto, X contiene almeno un elemento di

determinante è diverso da zero: per esempio, la sottomatrice

−1 0

X =

1

* 0 1

−1; z

che ha determinante pertanto, r(X) = 2.

Sono ovvie proprietà del rango di una matrice le seguenti:

1. Il rango di una matrice X di ordine (n,p) è un numero compreso tra 0 e il

più piccolo dei due numeri n e p; in simboli, 0≤ r(X) min{n,p}.

100 Cap. IV

-1

2. Se una matrice X è di ordine (n,n), X esiste se e soltanto se r(X) = n.

In tal caso, si dice anche che X è di pieno rango .

(1)

3. Data una matrice Z = [X Y], ottenuta per accostamento di due matrici X

e Y, è r(X) r(Z).

4. Qualunque sia la matrice X, è r(X) = r(X ').

2.2 Il teorema seguente pone in evidenza il legame esistente tra il rango di

una matrice non nulla X e il massimo numero di vettori (colonna o riga)

linearmente indipendenti di X.

T 2

EOREMA

Data una matrice non nulla X di ordine (n,p) e rango r≤ p (r≤ n), in X

esistono r vettori colonna (riga) linearmente indipendenti.

Inoltre, se r< p (r< n), ogni altro vettore colonna (riga) di X può essere

espresso come combinazione lineare degli r vettori colonna (riga) linear-

mente indipendenti.

Dim. È sufficiente dimostrare il teorema per i vettori colonna x , ... , x di X,

1 p

sussistendo una dimostrazione del tutto analoga per i vettori riga.

Per quanto riguarda la prima parte del teorema, per ipotesi, esiste almeno

∈ I

un elemento X (X) di ordine massimo (r,r), con r≤ p, il cui determinante

*

è diverso da zero.

Supponiamo, senza perdita di generalità, che sia

x x

1 1 1 r x x

X = X = = 1 r

* *

1

* * x x

r1 rr

e domandiamoci per quali valori di c , ... , c si abbia

1 r

c x x

c

+ ... + = 0 .

1 1 r r

* *

(1) Le espressioni matrice non singolare, invertibile, di pieno rango sono equivalenti.

SISTEMI DI EQUAZIONI LINEARI 101

La relazione ora scritta rappresenta un sistema omogeneo la cui matrice

dei coefficienti X ha determinante diverso da zero.

1

*

Ne consegue che l'unica soluzione ammissibile per tale sistema è quella

banale (Cfr. il Corollario al Teorema 1) e, quindi, che x , ... , x sono

1 r

* *

linearmente indipendenti.

Ciò comporta, a sua volta, che anche x , ... , x siano linearmente indi-

1 r

pendenti, e la prima parte del teorema risulta dimostrata.

Per quanto riguarda la seconda parte del teorema, supposto r< p, si

consideri la matrice 

x x x

1 1 1 r 1 j

D = x x x

r1 rr rj

 

x x x

i1 ir ij

≤ ≤ ≤ ≤

dove 1 i n e r+1 j p.

Se i r, D possiede due righe eguali e perciò detD = 0; se i > r, D

rappresenta una sottomatrice di X di ordine (r+1,r+1) e, quindi, è ancora

detD = 0. ≤ ≤

Il cofattore dell'elemento x (1 h r) di D dipende da h e da j ma non

i h , mentre il cofattore di x è

da i e possiamo indicarlo con D j h i j

r+ 1+ r+ 1 detX = detX .

(−1) 1 1

* *

detD secondo gli elementi dell'ultima riga, si ha

Quindi, sviluppando il

x D + ... + x D + x detX = detD = 0 .

i 1 j 1 i r j r i j 1

*

Facendo assumere all'indice i, in successione, i valori 1, ... , n, dalla rela-

zione precedente si ottiene

x D + ... + x D + x detX = 0

1 1 j 1 1 r j r 1 j 1

*

x D + ... + x D + x detX = 0

n 1 j 1 n r j r n j 1

*

da cui, posto (j = r+1, ... , p; h = 1, ... , r)

102 Cap. IV

D

− j h

b = ,

jh detX 1

*

si ha infine che b x + ... + b x = x

j 1 1 j r r j

e cioè che ciascun vettore x (j = r+1, ... , p) può essere espresso come com-

j

binazione lineare degli r vettori colonna x , ... , x .

1 r

Consideriamo nuovamente la matrice X di cui all'Esempio 3.

E 4.

SEMPIO ivi

Abbiamo già posto in evidenza che r(X) = 2 e che la sottomatrice X 1

*

indicata risulta invertibile.

Verifichiamo ora, seguendo lo schema della dimostrazione appena svolta,

che ciascuno degli ultimi due vettori colonna di X si può esprimere come

combinazione lineare dei primi due.

Infatti, sviluppando il determinante delle sottomatrici

−1 −1 −1

0 2 0 2 0 2

, ,

0 1 1 0 1 1 0 1 1

−1 −4

0 2 0 1 1 2 0

secondo gli elementi dell'ultima riga, si ottiene

−1(−2) + 0(1) + 2(−1) = 0

0(−2) + 1(1) + 1(−1) = 0

2(−2) + 0(1) 4(−1) = 0

da cui −1 0 2

+ = .

(−2) 0 1 1

−4

2 0

In modo del tutto analogo si verifica poi che

−1 0 1

−1

+ (−1) = .

(−1) 0 1 −2

2 0

SISTEMI DI EQUAZIONI LINEARI 103

2.3 Posto (Cfr. l'Osservazione 6 del Cap. II) x '

1

X = x x =

1 p x '

n

si riconosce subito, tenuto conto del Teorema 2, che il rango di X è eguale

alla dimensione dello spazio vettoriale di ordine n generato dai p vettori

colonna x , ... , x o, equivalentemente, alla dimensione dello spazio vetto-

1 p

riale di ordine p generato dagli n vettori riga x , ... , x .

' '

n

1

La dimensione (comune) di tali spazi vettoriali riceve talvolta la deno-

minazione, rispettivamente, di rango per colonne e rango per righe di X.

Qualora sia r(X) = p (p n), si dice che X è di pieno rango per colonne.

Analogamente, nel caso in cui sia r(X) = n (n p), si dice che X è di

pieno rango per righe.

3 S

OLUZIONE DEI SISTEMI DI EQUAZIONI LINEARI

3.1 Siamo adesso in grado di affrontare con tutta generalità il problema

della soluzione di un sistema di equazioni lineari.

Sussiste, anzitutto, il seguente teorema.

(Teorema di Rouché-Capelli)

T 3

EOREMA

Condizione necessaria e sufficiente affinché un sistema di n equazioni

lineari in p incognite X a = x sia compatibile è che la matrice X e la

cosiddetta matrice orlata Z = X x abbiano eguale rango. ∈ I

Dim. Supposto r(X) = r , esiste almeno un elemento X (X) di ordine

(2) *

massimo (r,r) il cui determinante è diverso da zero.

Senza perdita di generalità, assumiamo che sia

(2) Il caso in cui sia r(X) = 0 non presenta alcun interesse.

104 Cap. IV

x x

1 1 1 r

X = X = .

1

* * x x

r1 rr

Chiaramente, X è una sottomatrice della matrice di ordine (n,r) formata

1

*

dagli r vettori colonna x , ... , x di Z e, poiché tali vettori sono linearmente

1 r

indipendenti, tenuto conto che r(Z) = r e del Teorema 2 applicato alla matri-

ce Z, x risulta combinazione lineare di x , ... , x secondo certi coefficienti

1 r

a , ..., a .

1 r

Ne consegue che, riscritto il sistema Xa = x nella forma

(1'') a x + ... + a x = x ,

1 1 p p

se r = p questo è certamente soddisfatto per a = a , ... , a = a , se r < p per

1 1 r r

= a , ... , a = a , a = 0 , ... , a = 0.

a 1 1 r r r+1 p

Reciprocamente, supponiamo che esistano p numeri reali a , ..., a tali

1 p

che il sistema (1'') risulti soddisfatto.

Ciò equivale ad assumere che il vettore x sia combinazione lineare di

x , ... , x secondo i coefficienti a , ..., a .

1 p 1 p

Ne consegue che i due insiemi di vettori x , ... , x e x , ... , x , x genera-

1 p 1 p

no lo stesso spazio vettoriale S (Cfr. l'Osservazione 11 del Cap. I) e, quindi,

che le matrici X e Z hanno lo stesso rango.

Il Teorema 3 suggerisce un procedimento che può essere

O 2.

SSERVAZIONE

seguito per accertare la compatibilità di un sistema di equazioni lineari.

Tale procedimento, tuttavia, dipendendo dalla valutazione del rango delle

matrici X e Z e, in definitiva, dal calcolo di un certo numero di determinanti,

può risultare assai oneroso non appena l'ordine della matrice X superi limiti

anche modesti. Qualora sia x = 0, le matrici X e Z = X 0 sono certa-

O 3.

SSERVAZIONE

mente di egual rango e, quindi, il sistema lineare omogeneo Xa = 0 è sempre

compatibile, in accordo con quanto detto alla fine della sezione 1.1.

Dato il sistema

E 5.

SEMPIO

SISTEMI DI EQUAZIONI LINEARI 105

−3 −4

2 a 1 =

1 7 15

a 2

3 4 11

si verifica facilmente che

−3 −3 −4

2 2

( ) ( )

r(X) = r = 2 , r(Z) = r = 2

1 7 1 7 15

3 4 3 4 11

e, quindi, il sistema è compatibile.

3.2 Supponiamo di aver accertato che il sistema non omogeneo di n equa-

zioni lineari in p incognite Xa = x sia compatibile e che r(X) = r(Z) = r.

Supponiamo inoltre, senza perdita di generalità e con la notazione sta-

≤ ≤

bilita in precedenza, che sia (r n; r p)

x x

1 1 1 r

= .

X 1

* x x

r1 rr

Circa le soluzioni del sistema Xa = x, per ragioni di chiarezza espositiva,

conviene distinguere le situazioni seguenti. coincide con la

(a) Supponiamo che sia r = n = p. In tal caso, la matrice X 1

*

matrice X di ordine (n,n), vale a dire si ha

x x

1 1 1 n

X = = X .

1

* x x

n 1 n n

Pertanto, in accordo con il Teorema 1, il sistema Xa = x ammette la solu-

zione (unica) -1 -1

(2) a = X x = X x .

1

*

Quanto ora detto è riassunto nel riquadro che segue.

106 Cap. IV

1 r = p -1 -1

X = X a = X x = X x

1

* 1

*

r = n

Si consideri il sistema lineare non omogeneo

E 6.

SEMPIO a

3 1 6

1 = .

−1 a

2 2

2

Poiché 3 1

X = = X

−1

1

* 2

risulta −1 −1 −8

6

-1 -1

a = (−5) = (−5) .

−2 −6

3 2 è una sotto-

(b) Supponiamo che sia r = n < p. In tal caso, la matrice X 1

*

matrice di ordine (n,n) della matrice X di ordine (n,p).

Pertanto, fatte le posizioni x a

x a

x x 1 , n +1 1 p n +1

1

1 1 1 n

X = , X = , a = , a =

1 2 1 2

* a a

x x x x n p

n 1 n n n , n +1 n p

si ha X = X X

1 2

*

e il sistema Xa = x può essere riscritto nella forma

SISTEMI DI EQUAZIONI LINEARI 107

a 1

X X = X a + X a = x

1 2 1 1 2 2

* *

a 2

da cui −

a = x X a .

X 1 1 2 2

* , quest'ultimo sistema, per il Teorema

Scelto arbitrariamente il vettore a 2

1, ammette un'unica soluzione, dipendente da a , data da

2

-1 -1

(3) a = X x X X a .

1 1 1 2 2

* *

Quindi, in corrispondenza di ogni a , mediante la (3), si ottiene un vet-

2

tore a che, unitamente al vettore a medesimo, costituisce una soluzione

1 2

di Xa = x.

In definitiva, si ha che (0: vettore colonna di ordine p− n; I: matrice unità

di ordine (p− n,p− n)) −

-1 -1

X x X X

1 1 2

* *

(4) a = a .

+ 2

I

0

Quanto ora detto è riassunto nel riquadro che segue.

1 r = n p −

-1 -1

a = X x X X a

1 1 1 2 2

* *

X X −

-1 -1

1

* 2 X x X X

1 1 2

* *

a = a

+ 2

I

0

r = n Si consideri il sistema lineare non omogeneo

E 7.

SEMPIO a 1

3 1 2 6

a = .

−1 2

2 1 2

a 3

108 Cap. IV

Poiché 3 1 2

X = , X =

−1

1 2

* 2 1

risulta −1 −1 −1 −1

6 2

-1 -1

a = (−5) (−5) a

−2 −2

1 3

3 2 3 1

−8 3

-1 -1

= (−5) + (−5) a

−6 3

1

e −8 3

−6

-1 -1

a = (−5) .

+ (−5) a

1 3

0 1

(c) Supponiamo che sia r = p < n. In tal caso, la matrice X è una sotto-

1

*

matrice di ordine (p,p) della matrice X di ordine (n,p).

Fatte le posizioni x x a

x x p+1 , 1 p+1 , p 1

1 1 1 p

X = , X = , a =

1 3

* a

x x x

x p

p 1 p p n 1 n p

x

x p+1

1

x = , x =

1 3

x x

p n

risulta X 1

X = *

X 3

e il sistema Xa = x può essere riscritto nella forma

x

a

X 1

1 = .

* x

a

X 3

3

SISTEMI DI EQUAZIONI LINEARI 109

In altri termini, il sistema in questione può essere ripartito nei sistemi

X a = x , X a = x .

1 1 3 3

*

Ciò premesso e posto che due sistemi di equazioni lineari, nelle stesse

incognite, si dicono equivalenti se hanno le medesime soluzioni

a = x sono equivalenti.

mostriamo, anzitutto, che i sistemi X a = x e X 1 1

*

In effetti, come è subito visto, ogni soluzione a di Xa = x è anche solu-

a = x .

zione di X 1 1

*

Viceversa, sia a una soluzione di X a = x , ovvero sia X a = x .

1 1 1 1

* *

Fissata l'attenzione sulla matrice orlata Z che è della forma

x

x x

1 1 1 p 1

x x

x

p 1 p

p p

Z = ,

x x

x

p +1 , 1 p +1 , p p +1

x x

x

n 1 n p n

per il Teorema 2, ciascuno degli ultimi n− p vettori riga di tale matrice è com-

binazione lineare dei primi p vettori riga, vale a dire si ha (h = p+1, ... , n)

x x x = d x x x + ... + d x x x .

h 1 h p h h 1 1 1 1 p 1 h p p 1 p p p

Ma le n− p relazioni precedenti, posto

d d

p +1 , 1 p +1 , p

D = ,

d d

n 1 n p

possono essere scritte, più compattamente, nella forma

X x = D X x

3 3 1 1

*

da cui

( ) X = D X , x = D x .

3 1 3 1

* a = x per la matrice D, si ottiene

Premoltiplicando ambo i membri di X 1 1

*

110 Cap. IV

D X a = D x da cui, tenuto conto della ( ), si desume che anche il sistema

1 1

*

X a = x risulta soddisfatto, ovvero che i sistemi X a = x e X a = x sono

3 3 1 1

*

equivalenti.

Questo vuol dire che è sufficiente concentrare l'attenzione sul secondo

sistema il quale, per il Teorema 1, ammette la soluzione (unica)

-1

(5) a = X x .

1 1

*

Quanto ora detto è riassunto nel riquadro che segue.

1 r = p

X 1

* -1

a = X x

1 1

*

r = p X 3

n

Si consideri il sistema lineare non omogeneo

E 8.

SEMPIO 3 1 6

a

−1 1 = .

2 2

a 2

1 1 1

Poiché 3 1

X = , X = 1 1

−1

1 3

* 2

risulta −1 −1 −8

6

-1 -1

a = (−5) = (−5) .

−2 −6

3 2

(d) Supponiamo che sia r < n e r < p. In tal caso, la matrice X è una sot-

1

*

SISTEMI DI EQUAZIONI LINEARI 111

tomatrice di ordine (r,r) della matrice X di ordine (n,p).

Fatte le posizioni x x

x

x

x x r+1 , 1 r+1 , p

1 , r+1 1 p

1 1 1 r

X = , X = , X =

1 2 3

* x x x x x

x

r1 rr r, r+1 rp n 1 n p

a

a x x

r+ 1

1 1 r+1

a = , a = , x = , x =

1 2 1 3

a

a x x

p

r r n

risulta X X

1 2

*

X = X 3

e il sistema Xa = x può essere riscritto nella forma

X a + X a x

1 1 2 2 1

* .

=

X a x

3 3

In altri termini, il sistema in questione può essere ripartito nei sistemi

a + X a = x , X a = x .

X 1 1 2 2 1 3 3

*

Ora, con un ragionamento analogo a quello svolto in precedenza, a

proposito della situazione descritta in (c), si può facilmente mostrare che i

a + X a = x sono equivalenti.

sistemi X a = x e X 1 1 2 2 1

*

Dunque, è sufficiente concentrare l'attenzione sul secondo sistema il qua-

le, per il Teorema 1, ammette un'unica soluzione, dipendente da a , data da

2

-1 -1

(6) a = X x X X a .

1 1 1 1 2 2

* *

, mediante la (6), si ottiene un

Pertanto, in corrispondenza di ogni a 2

vettore medesimo, costituisce una soluzio-

a che, unitamente al vettore a

1 2

ne di Xa = x.

112 Cap. IV

In definitiva, le soluzioni di Xa = x sono della forma (0: vettore colonna di

ordine p− r; I: matrice unità di ordine (p− r,p− r))

-1 -1

X x X X

1 1 1 2

* *

a = + a .

(7) 2

0 I

Quanto ora detto è riassunto nel riquadro che segue.

p

1 r −

-1 -1

a = X x X X a

1 1 1 1 2 2

* *

X X −

-1 -1

1 2

* X x X X

1 1 1 2

* *

a = + a 2

0 I

r X 3

n Si consideri il sistema lineare non omogeneo

E 9.

SEMPIO a

3 1 2 6

1

−1 a = .

2 1 2

2

−1 a

7 4 10

3

Poiché 2

3 1 −1

= , X = = 7 4

X , X

−1

1 2 3

* 1

2

risulta −1 −1 −1 −1

6 2

-1 -1

a = (−5) (−5) a

−2 −2

1 3

3 2 3 1

−8 3

-1 -1

= (−5) + (−5) a

−6 3

1

e

SISTEMI DI EQUAZIONI LINEARI 113

−8 3

−6

-1 -1

a = (−5) .

+ (−5) a

1 3

0 1

Si sottolinea che un sistema non omogeneo di n equazioni

O 4.

SSERVAZIONE

lineari in p incognite Xa = x ammette una soluzione unica se e soltanto se

r(X) = r(Z) = p (situazioni descritte in (a) e (c)). Il sistema ammette, inve-

ce, infinite soluzioni se e soltanto se r(X) = r(Z) < p (situazioni descritte in

(b) e (d)).

3.3 Passando a considerare il sistema omogeneo di n equazioni lineari in p

incognite Xa = 0, è subito visto che le soluzioni di tale sistema possono

dedursi come casi particolari delle soluzioni del corrispondente sistema non

omogeneo.

(a') Se r = n = p, l'unica soluzione ammissibile del sistema, in accordo con

il Corollario al Teorema 1, è quella banale costituita dal vettore a = 0.

(b') Se r = n < p, il sistema ammette infinite soluzioni della forma (0:

vettore colonna di ordine p− n; I: matrice unità di ordine (p− n,p− n))

− -1

X X

1 2

*

a = a .

(8) 2

I

(c') Se r = p < n, l'unica soluzione ammissibile del sistema è quella banale

costituita dal vettore a = 0.

(d') Se r < n e r < p, il sistema ammette infinite soluzioni della forma (0:

vettore colonna di ordine p− r; I: matrice unità di ordine (p− r,p− r))

− -1

X X

1 2

*

a = a .

(9) 2

I

Si sottolinea che il sistema omogeneo di n equazioni li-

O 5.

SSERVAZIONE −

neari in p incognite Xa = 0 ammette soluzioni non banali cioè, diverse

dalla soluzione a = 0 se e soltanto se r(X) < p.

114 Cap. IV

3.4 Vogliamo, adesso, porre in evidenza alcune importanti proprietà

possedute dall'insieme (eventualmente costituito dal solo vettore nullo)

delle soluzioni di un sistema lineare omogeneo Xa = 0.

Tale insieme riceve abitualmente la denominazione di nucleo (o kernel)

N

di X e sarà indicato con il simbolo (X).

T 4

EOREMA

Data una matrice X di ordine (n,p), il nucleo di X è uno spazio vettoriale

la cui dimensione, detta nullità di X, è p− r(X).

N

Dim. Siano a e b appartenenti a (X) e c un qualsiasi numero reale.

N

Allora, come è subito visto, anche a + b e c a appartengono a (X) e ,

quindi, quest'ultimo è uno spazio vettoriale (di ordine p). p

Se r(X) = 0, il nucleo di X coincide evidentemente con R e la nullità di X

è p.

Se r(X) = p, il nucleo di X si identifica con lo spazio nullo (di ordine p) e

la nullità di X è 0. N

Posto 0 < r(X) < p, vogliamo dimostrare che (X) possiede una base

(ordinata) formata da p− r(X) vettori e indicare esplicitamente quali sono i

vettori che compongono tale base.

A questo fine, è sufficiente rilevare che ogni soluzione a del sistema X a

− −

N

= 0 ovvero ogni vettore appartenente a (X) è esprimibile come

combinazione lineare dei p− r(X) vettori colonna della matrice (0: vettore

colonna di ordine p− r(X); I: matrice unità di ordine (p− r(X) ,p− r(X)))

− -1

X X

1 2

= * .

C I

linearmente indipendenti e, pertanto,

D'altro canto, questi ultimi risultano

N

formano una base (ordinata) di (X).

Dato il sistema lineare omogeneo

E 10.

SEMPIO

SISTEMI DI EQUAZIONI LINEARI 115

a 1

1 2 3 a = 0

2

2 4 6 a 3

tale che r(X) = 1, si ha (X = 1 , X = )

2 3

1 2

* a

− − −

2

a = a = = 2a 3a .

2 3

1 1 2 3

a 3

Inoltre, poiché −2 −3 ,

C = 1 0

0 1

per ogni a , a ,

2 3 −2 −3 ∈ N

a = + (X) .

a a

1 0

2 3

0 1

Si noti esplicitamente che l'insieme delle soluzioni di un

O 6.

SSERVAZIONE

sistema non omogeneo Xa = x non è uno spazio vettoriale, come risulta dal

fatto che tale insieme non contiene il vettore nullo.

4 A

LCUNI TEOREMI SUL RANGO DI UNA MATRICE

Vogliamo, adesso, completare il quadro delle nozioni fondamentali sul

rango di una matrice dimostrando i seguenti teoremi.

T 5

EOREMA

Siano X e Y due matrici tali che il prodotto XY esiste e sia p il numero di

colonne di Y (e, quindi, di XY). Allora, il rango di XY è minore o eguale al più

piccolo tra i numeri r(X) e r(Y). In simboli,

r(XY) min {r(X) , r(Y)} .

116 Cap. IV

N N

Dim. Sia (Y) il nucleo di Y; analogamente, sia (XY) il nucleo di XY.

∈ ∈ <

N N N N

Per ogni a (Y), risulta anche a (XY), cosicché (Y) (XY).

Ne consegue (Cfr. il Teorema 10 del Cap. I e il Teorema 4) che p r(Y)

≤ −

p r(XY), da cui ≤

(a) r(XY) r(Y) . ≤

Allo stesso modo si dimostra poi che r(Y'X') r(X '). Ma, poiché

r(X ') = r(X) e r(Y'X') = r(X Y), si ha ≤

(b) r(XY) r(X) .

La (a) e la (b) insieme permettono di concludere secondo quanto affer-

mato nell'enunciato del teorema.

Date le matrici

E 11.

SEMPIO 1 0 0 0 0 0

X = , Y =

0 1 0 0 1 0

0 0 0 0 0 1

entrambe di rango 2, risulta 0 0 0

( ) = 1 .

r(XY) = r 0 1 0

0 0 0

T 6

EOREMA

Il rango di una matrice rimane invariato se questa viene premoltiplicata o

postmoltiplicata per la sua trasposta.

Dim. Data una matrice X di ordine (n,p), vogliamo dimostrare che r(X) =

r(X 'X) = r(X X').

Per quanto riguarda l'eguaglianza r(X) = r(X 'X), è sufficiente provare che

il nucleo di X coincide con il nucleo di X'X; in tal caso, infatti, tenuto conto

SISTEMI DI EQUAZIONI LINEARI 117

− −

del Teorema 4, si ha che p r(X) = p r(X X'), da cui r(X) = r(X 'X).

∈ ∈ <

N N N

Ora, per ogni a (X), risulta anche a (X'X), cosicché (X)

N (X'X). ∈ N

Sia poi b (X'X), vale a dire X'X b = 0; allora, b'X'X b = 0, ovvero

(X b)'X b = 0. Ma, quest'ultima relazione implica che sia X b = 0 in quanto

l'espressione (X b)'X b rappresenta la somma dei quadrati degli elementi

∈ N

del vettore X b; quindi, b (X).

<

N N N N

Ne segue che (X'X) (X) e, in definitiva, che (X) = (X 'X).

Con una dimostrazione analoga si prova che r(X) = r(X X').

T 7

EOREMA

Il rango di una matrice rimane invariato se questa viene premoltiplicata

per una matrice di pieno rango per colonne.

Dim. Siano X una matrice di ordine (n,p) e Y una matrice di ordine (m,n) e

rango n. Vogliamo dimostrare che r(X) = r(YX).

A questo fine, è sufficiente provare che il nucleo di X coincide con il

nucleo di YX; in tal caso, infatti, tenuto conto del Teorema 4, si ha che

− −

p r(X) = p r(YX), da cui r(X) = r(YX).

∈ ∈ <

N N N N

Ora, per ogni a (X), è anche a (YX), cosicché (X) (YX).

∈ ∈

N N

Viceversa, per ogni b (YX), è anche b (X), in quanto, essendo

Y'Y invertibile ,

(3) ⇒ ⇒

b = 0} {Y'YX b = 0} {X b = 0} .

{YX <

N N N N

(YX) (X) e, in definitiva, che (X) = (YX).

Ne consegue che

Il Teorema 7 fornisce una condizione sufficiente ma non

O 7.

SSERVAZIONE

necessaria affinché il rango di una matrice rimanga invariato quando questa

viene premoltiplicata per una matrice di pieno rango.

(3) La matrice Y ' Y di ordine (n , n), per il Teorema 6, è tale che r (Y ' Y) = r (Y) = n.

118 Cap. IV

Per esempio, date le matrici

0 0 0 1 0 0

X = , Y =

0 1 0 0 1 0

0 0 0 0 0 0

è r(X) = 1 e r(Y) = 2, ma 0 0 0

( ) = 1 .

r(YX) = r 0 1 0

0 0 0

Date due matrici X di ordine (n,p) e Z di ordine (p,q) e

O 8.

SSERVAZIONE ≠

rango q, risulta, in generale, r(X) r(XZ).

Per esempio, date le matrici 1 0 0

X = , Z =

1 0 1

1 0

è r(X) = 1 e r(Z) = 1, ma 1 0 0

0

( ) ( )

r(XZ) = r = r = 0 .

1 0 0

1

1 0 0

T 8

EOREMA

Il rango di una matrice rimane invariato se questa viene premoltiplicata o

postmoltiplicata per una matrice invertibile.

Dim. Siano X una matrice di ordine (n,p) e Y e Z due matrici invertibili di

ordine, rispettivamente, (n,n) e (p,p).

Tenuto conto del Teorema 7, si ha

r(YX) = r(X) , r(X Z) = r(Z'X') = r(X ') = r(X) .

SISTEMI DI EQUAZIONI LINEARI 119

5 C

AMBIAMENTI DI BASE IN UNO SPAZIO VETTORIALE

Sia S uno spazio vettoriale di ordine n e dimensione p.

Consideriamo una base di S costituita da p vettori x , ... , x di ordine n.

1 p

Supposto che tale base sia ordinata, scriviamo un generico vettore x∈S

nella forma (Cfr. l'Osservazione 7 del Cap. II) a 1

x = a x + ... + a x = x x = Xa .

1 1 p p 1 p a p

Consideriamo, adesso, p vettori x , ... , x appartenenti a S e supponiamo

1 p

che anch'essi siano presi nell'ordinamento naturale espresso dagli indici

1, ... , p.

Poiché risulta a 11

x = a x + ... + a x = x x = Xa

1 1 1 1 p 1 p 1 p 1

a p1

..............................................................................

a 1p

x = a x + ... + a x = x x = Xa

p 1 p 1 p p p 1 p p

a pp

possiamo scrivere

X = x x = x x a a = XA .

1 p 1 p 1 p

Ma, tenuto conto del Teorema 7,

r(X) = r(XA) = r(A) .

Dunque, condizione necessaria e sufficiente affinché i p vettori x , ... , x

1 p

costituiscano a loro volta una base ordinata di S è che la matrice A, di ordine

(p,p), sia non singolare.

Qualora tale condizione sia verificata, un generico vettore x∈S può esse-

120 Cap. IV

re scritto univocamente nella forma a 1

a x + ... + a x = = Xa .

x = x x

1 1 p p 1 p a p

Pertanto, premoltiplicando il primo e l'ultimo membro dell'identità

= x = X a = XA a per X' e osservando che X'X è invertibile , il legame

Xa (4)

che sussiste tra i vettori coordinati a e a di x, rispetto alle basi ordinate di

, ... , x e x , ... , x , risulta espresso dalla relazione

S formate da x 1 p 1 p a = Aa

ovvero da - 1

a = A a .

Date le matrici X e X di cui sopra, la matrice A del

O 9.

SSERVAZIONE

cambiamento di base può essere facilmente ottenuta mediante l'espressione

- 1

A = (X'X) X' X .

(4) La matrice X' X di ordine (p , p), per il Teorema 6, è tale che r(X' X) = r(X) = p.

COMPLEMENTI 121

Cap. IV

COMPLEMENTI

1 Nel capitolo precedente abbiamo posto in evidenza che se i vettori

colonna (riga) che compongono una matrice X di ordine (n,n) sono linear-

mente dipendenti, allora detX = 0.

Vogliamo mostrare che sussiste la proprietà reciproca di quella ora ricor-

data.

In effetti, escludendo il caso banale in cui sia X = O, se detX = 0, allora

r(X) = p < n; pertanto (Cfr. il Teorema 2), in X esistono p vettori colonna

(riga) linearmente indipendenti e ogni altro vettore colonna (riga) di X può

essere espresso come combinazione lineare di tali p vettori colonna (riga)

linearmente indipendenti. Quindi, i vettori colonna (riga) di X sono linear-

mente dipendenti.

2

T

EOREMA

Date due matrici Y,X di ordine, rispettivamente, (m,n) e (n,p), condi-

zione necessaria e sufficiente affinché sia r(Y X ) = r(X ) è che risulti

N N

(YX) = (X). − −

N N

Dim. Se (YX) = (X), allora (Cfr. il Teorema 4) p r(YX) = p r(X) e,

122 Cap. IV

quindi, r(YX) = r(X).

Per dimostrare la proposizione reciproca, osserviamo intanto che, per

∈ ∈ <

N N N N

ogni a (X), risulta anche a (YX), cosicché (X) (YX).

N N

D'altra parte, se r(YX) = r(X), (X) e (YX) hanno la stessa dimen-

sione ({r(YX) = r(X)} {p−r(YX) = p−r(X)}) e, quindi, coincidono.

3 x x di ordine (n,p) e rango r, vogliamo mo-

Data una matrice X = 1 p

strare la possibilità di scomporre X nel prodotto di due matrici.

Poiché r(X) = r, lo spazio vettoriale S (di ordine n) generato dai vettori

colonna di X ha dimensione r.

Supponiamo che h , ... , h formino una base ordinata di S.

1 r

(j = 1, ... , p) di X si può allora esprimere nella

Ogni vettore colonna x j

forma k 1j

x = k h + ... + k h = = Hk

h h

j 1 j 1 r j r j

1 r k rj

ovvero X = [ x x ] = [ ] [ ] = HK .

h k

h k

1 p 1 r 1 p

− −

Le matrici H ,K di ordine, rispettivamente, (n,r) e (r,p) attuano la

desiderata scomposizione. Inoltre, per il Teorema 7, r(X) = r(HK) = r(K) = r

≤ p.

Si osservi che la scomposizione X = HK non è unica.

In effetti, se A è una matrice non singolare di ordine (r,r), allora

- 1

X = HA AK = H K .

Per esempio, data la matrice 1 1 2

X = 0 1 1

tale che r(X) = 2, si ha

COMPLEMENTI 123

1 1 1 0 1 1 1 2

X = = .

0 1 0 1 1 0 1 1

Considerata poi la matrice non singolare

2 1

A = 0 1

è anche -1

1 1 2 1 2 1 1 0 1

X = 0 1 0 1 0 1 0 1 1

1 1 2 1 3 1 1 2

-1 = .

= 2 0 2 0 1 1 0 1 1

124 Cap. V

Cap. V

TRASFORMAZIONI LINEARI

1 G

ENERALITÀ SULLE TRASFORMAZIONI LINEARI

Siano S uno spazio vettoriale di ordine n e dimensione p e Z uno spazio

vettoriale di ordine m e dimensione q. Si chiama trasformazione (applica-

zione, operatore) lineare di S in Z (o anche omomorfismo di S in Z) ogni

∈Z

funzione T che associa a ciascun vettore x∈S un vettore T(x) in modo

tale che siano soddisfatte le proprietà seguenti (x ,y∈S; a∈R):

y) = T(x ) + T(y )

(i) T(x +

(ii) T(ax) = a T(x). 3

La funzione T definita ponendo, per ogni x∈R ,

E 1.

SEMPIO x 1

2 1 3

T(x) = x 2

1 0 0 x 3 z

3 2

è, come subito si verifica, una trasformazione lineare di R in R .

Il vettore T(x) si chiama immagine di x mediante T. Si dice anche che T

trasforma x in T(x) o che T applica x su T(x).

Se S è un sottoinsieme di S, l'insieme di tutti i vettori T(x), al variare di

1

x in S , è chiamato immagine di S mediante T ed è indicato con T(S ).

1 1 1

Dati t vettori x , ... , x appartenenti a S e t numeri reali

O 1.

SSERVAZIONE 1 t

TRASFORMAZIONI LINEARI 125

a , ... , a , risulta

1 t T(a x + ... + a x ) = a T(x ) + ... + a T(x ) .

1 1 t t 1 1 t t ∈S

Qualunque sia T, l'immagine del vettore 0 è il vettore

O 2.

SSERVAZIONE

∈Z (1)

0 . Infatti, T(0) = T(0x) = 0T(x) = 0 .

Chiaramente, la funzione che associa a ogni x∈S il vet-

O 3.

SSERVAZIONE

∈Z

tore 0 è una trasformazione lineare di S in Z. Essa riceve la deno-

minazione di trasformazione (lineare) nulla ed è indicata con il simbolo O.

2 T

RASFORMAZIONI LINEARI E BASI

2.1 Supponiamo che T sia una trasformazione lineare di S in Z. Supponiamo

inoltre che x , ... , x formino una base ordinata di S e che z , ... , z formino

1 p 1 q

una base ordinata di Z.

Consideriamo poi un generico vettore a 1 ∈

x = a x + ... + a x = x x = Xa S .

1 1 p p 1 p a p

Posto (j = 1, ... , p) t 1j

T(x ) = t z + ... + t z = z z = Zt

j 1 j 1 q j q 1 q j

t qj

e tenuto conto dell'Osservazione 1, possiamo scrivere a 1

x + ... + a x ) = a T(x ) + ... + a T(x ) =

(1) T(x) = T(a T(x ) T(x )

1 1 p p 1 1 p p 1 p a p

a a

1 1

= = Z t t = ZTa .

Zt Zt 1 p

1 p a a

p p

(1) Il simbolo 0 denota sia il vettore nullo di S (di ordine n) sia il vettore nullo di Z (di ordine m).

126 Cap. V

Mediante la (1) l'immagine T(x) di x risulta espressa in funzione del vet-

tore coordinato a di x e della matrice T di ordine (q,p).

Quest'ultima matrice riceve la denominazione di matrice (rappresenta-

tiva) della trasformazione lineare T rispetto alle suddette basi ordinate

di S e Z e risulta univocamente associata a T e a tali basi.

A sua volta, il vettore c = Ta

è il vettore coordinato di T(x), rispetto alla base ordinata di Z.

,

Date le matrici Z e T(x ) T(x ) dalla relazione

O 4.

SSERVAZIONE 1 p −

− -1 s i

Z'

premoltiplicando ambo i membri per (Z 'Z)

ZT = T(x ) T(x )

1 p

ha (2) -1

T = (Z 'Z) Z' T(x ) T(x ) .

1 p 3

Consideriamo nuovamente la trasformazione lineare T di R in

E 2.

SEMPIO

2

R di cui all'Esempio 1. 3 2

Scelte le basi ordinate di R e R formate, rispettivamente, da

1 1 1

= = =

x , x , x

0 1 2

1 2 3

0 1 1

e 1 2

= , z =

z 1 2

1 1

si ha che 2 6 7

) = , T(x ) = , T(x ) =

T(x 1 2 3

1 1 1

e quindi, rispetto alle suddette basi ordinate, la matrice della trasformazione

(2) La matrice Z ' Z di ordine (q , q), per il Teorema 6 del Cap. IV, è tale che r(Z ' Z) = r(Z) = q.

TRASFORMAZIONI LINEARI 127

lineare T è −4 −5

1 1 1 2 1 1 2 6 7 0

-1

( )

T = = .

2 1 1 1 2 1 1 1 1 1 5 6

2.2 Siano, come in precedenza, X e Z le matrici i cui vettori colonna formano

due prefissate basi ordinate, rispettivamente, di S e Z.

Sia, inoltre, t t

T = 1 p

una qualsiasi matrice di ordine (q,p).

Per ogni a 1 ∈

x + ... + a x = x x = Xa S ,

x = a 1 1 p p 1 p a p

si definisca la funzione T ponendo a 1

(1') T(x) = a Z t + ... + a Z t = Z t t = ZTa .

1 1 p p 1 p a p

Si riconosce immediatamente che T è una trasformazione lineare di S in Z

(3)

univocamente associata alla matrice T .

La trasformazione lineare T definita mediante la (1') è detta indotta dalla

matrice T, relativamente alle suddette basi ordinate di S e Z.

Tenuto conto di quanto precede, possiamo concludere che esiste una

corrispondenza biunivoca tra l'insieme delle trasformazioni lineari di S in Z e

l'insieme delle matrici di ordine appropriato. Tale corrispondenza, tuttavia,

dipende strettamente dalle basi ordinate prescelte di S e Z.

Nella sezione seguente mostreremo come cambia la matrice associata a

una trasformazione lineare quando mutano le basi in questione.

(3) Possiamo anche dire che, scelti arbitrariamente i p vettori Z t , ... , Z t appartenenti a Z,

1 p

mediante la (1') risulta definita una trasformazione lineare di S in Z univocamente associata a tali

vettori.

128 Cap. V

Sia S generato dai vettori

E 3.

SEMPIO 1 1

x = =

, x

0 1

1 2

0 1

e Z generato dal vettore 0

= .

z 1

1 0

Considerata la matrice ,

T = 2 3

per ogni ∈

x = a x + a x S ,

1 1 2 2

la funzione T definita da 0 a 1

T(x) = 2 3

1 a 2

0 (4)

è una trasformazione lineare di S in Z univocamente associata a T .

2.3 Siano, come in precedenza, a il vettore coordinato di x rispetto a una

e c il vettore coordinato di T(x) ri-

, ... , x

base ordinata di S formata da x 1 p

spetto a una base ordinata di Z costituita da z , ... , z .

1 q

Considerate due nuove basi ordinate di S e Z formate, rispettivamente,

da x , ... , x e z , ... , z e posto (Cfr. il paragrafo 5 del Cap. IV)

1 p 1 q

(4) Ovvero, univocamente associata ai vettori

0 0

,

z = z =

2 3

1 2

0 0

appartenenti a Z.

TRASFORMAZIONI LINEARI 129

X = x x = x x a a = XA

1 p 1 p 1 p

Z = z z = z z b b = ZB

1 q 1 q 1 q

dove A e B sono due matrici non singolari di ordine, rispettivamente, (p,p) e

(q,q), i vettori coordinati a di x e c di T(x), relativi a quest'ultime basi, sono

dati da - 1 -1

a = A a , c = B c .

Ciò premesso, è subito visto che, potendosi scrivere

-1 -1

T(x) = ZTa = (Z B ) T(A a) = Z(B TA)a = Z T a ,

la matrice T della trasformazione lineare T, relativa alle basi ordinate di S e

Z formate da x , ... , x e z , ... , z , quando tali basi mutano nel modo qui

1 p 1 q

sopra indicato, si trasforma in -1

(2) T = B TA .

Viceversa, due matrici T e T, legate da una relazione del tipo espresso

dalla (2), possono sempre interpretarsi come matrici della stessa trasfor-

mazione lineare T, relative a due opportune coppie di basi ordinate di S e Z.

Date le matrici X ,X e Z,Z di cui sopra, le matrici A e B

O 5.

SSERVAZIONE

possono essere ottenute mediante le espressioni (Cfr. l'Osservazione 9 del

Cap. IV) -1 -1

A = (X'X) X' X , B = (Z 'Z) Z'Z .

Riprendendo l'Esempio 2, abbiamo visto che, relativamente alle

E 4.

SEMPIO 3 2

basi ordinate di R e R formate, rispettivamente, da

1 1 1

= = =

x , x , x

0 1 2

1 2 3

0 1 1

e

130 Cap. V

1 2

z = , z =

1 2

1 1

la matrice rappresentativa della trasformazione lineare T è

−4 −5

0

T = .

1 5 6

3 2

Invece, rispetto alle basi ordinate di R e R formate, rispettivamente, da

3 2 1

x = x = x =

, ,

3 3 2

1 2 3

2 2 1

e 3 5

z = , z =

1 2

2 3

− risultando 1 0 0 1 1

A = , B =

1 1 0 1 2

1 1 1

− la matrice della trasformazione lineare in questione è

1 0 0

−4 −5 −30 −29 −16

-1

1 1 0 .

T = =

1 1 0

1 2 1 5 6 21 20 11

1 1 1

Tenuto conto del Teorema 8 del Cap. IV, si ha che

O 6.

SSERVAZIONE

r(T) = r(T).

3 N

UCLEO E IMMAGINE DI UNA TRASFORMAZIONE LINEARE

3.1 Si chiama nucleo (o kernel) della trasformazione lineare T di S in Z

− −

N

l'insieme che indichiamo con (T) dei vettori x∈S tali che T( x) = 0.

TRASFORMAZIONI LINEARI 131

N N

Chiaramente, (T) è un sottospazio di S. Infatti, per tutti gli x, y∈ (T) e

∈R,

ogni a risulta

T( x + y) = T( x) + T( y) = 0 , T(a x) = aT( x) = 0 .

N

La dim( (T)) è anche detta nullità di T.

Indichiamo, al solito, con T la matrice della trasformazione lineare T

, ... , x e

rispetto a due basi ordinate di S e Z formate, rispettivamente, da x 1 p

z , ... , z .

1 q

Il nucleo di T si può determinare ricercando in primo luogo quei vettori

a = a tali che T a = 0.

j (p , 1 ) −

a che soddisfa quest'ultima condizione vale a dire, ogni

Ogni vettore

∈ −

N

a (T)) è il vettore coordinato, rispetto alla base ordinata di S, del

vettore a 1 ∈ N

x = a x + ... + a x = x x = X a (T)) .

1 1 p p 1 p a p

− −

Se r(T) = 0 vale a dire se T è la trasformazione nulla allora il nucleo

di T è S e la nullità di T è p.

Se r(T) = p, allora il nucleo di T è lo spazio nullo di S e la nullità di T è 0.

Se 0< r(T) = r< p (r≤ n), supponiamo, senza perdita di generalità, che i

t siano linearmente indipendenti.

primi r vettori colonna e riga di T = i j (q , p )

Posto t t

t t −

1 , r+1 1p -1

11 1r T T

1 2

*

T = , T = , C =

1 2 (p , p - r)

* I

t t t t

r1 rr r, r+1 rp

una base ordinata del nucleo di T, per quanto detto nella dimostrazione del

Teorema 4 del Cap. IV, è formata dai vettori colonna di C.

Pertanto, una base ordinata del nucleo di T è formata dai vettori colonna

di X = = XC

x x

(n , p - r) (p , p - r)

1 p - r (n , p - r)

132 Cap. V

e la nullità di T è p r.

3.2 Consideriamo l'immagine T(S) di S mediante T, vale a dire l'insieme dei

∈Z

vettori z per i quali esiste un vettore x∈S tale che z = T(x). ∈Z

Chiaramente, T(S) è un sottospazio di Z. Infatti, per tutti i T(x ) ,T(y)

∈R,

e ogni a risulta ∈T(S) ∈T(S)

T(x ) + T(y ) = T(x + y) , aT(x ) = T(ax) .

La dim(T(S)) è anche detta rango di T.

− −

Se r(T) = 0 vale a dire se T è la trasformazione nulla allora T(S) è lo

spazio nullo di Z e il rango di T è 0.

Se r(T) = p, vogliamo mostrare che i p vettori T(x ) , ... ,T(x ) – cioè le

1 p

immagini mediante T dei vettori che formano una base di S – costituiscono

una base di T(S) e, quindi, che il rango di T è p.

A questo fine, osserviamo intanto che, per ogni

∈S

x = a x + ... + a x ,

1 1 p p

si ha T(x) = a T(x ) + ... + a T(x )

1 1 p p

vale a dire, T(x) è esprimibile come combinazione lineare dei p vettori

) , ... ,T(x ).

T(x 1 p

Per dimostrare che T(x ) , ... ,T(x ) sono linearmente indipendenti, sup-

1 p

poniamo che esistano p numeri reali d , ... , d tali che

1 p

d T(x ) + ... + d T(x ) = 0 .

1 1 p p

Ciò implica che x + ... + d x ) = 0

T(d 1 1 p p

e, quindi, che il vettore d x + ... + d x appartiene al nucleo di T.

1 1 p p

Ma, coincidendo in questo caso il nucleo di T con lo spazio nullo di S,

TRASFORMAZIONI LINEARI 133

risulta d x + ... + d x = 0 .

1 1 p p

, ... , x implica che d , ... , d siano tutti

D'altra parte, l'indipendenza di x 1 p 1 p

nulli e ciò prova l'indipendenza di T(x ) , ... ,T(x ).

1 p

Infine, qualora sia 0 < r(T) = r < p, supponiamo che i vettori x , ... , x ,

1 p - r

x , ... , x formino una base di S ottenuta mediante il completamento di

p - r+1 p

una base del nucleo di T costituita dai vettori x , ... , x .

1 p - r

Con un ragionamento analogo a quello appena svolto, si può facilmente

provare che gli r vettori T(x ) , ... ,T( x ) formano una base di T(S) e,

p - r+1 p

quindi, che il rango di T è r.

Riprendendo l'Esempio 1, è immediato verificare che una base di

E 5.

SEMPIO

N (T) è costituita dal vettore 0

−3

x = .

1 1

3

A sua volta, una base di T(R ) si può ottenere attraverso il comple-

N

tamento della base di (T) mediante, per esempio, i vettori

1 1

x = x =

,

1 2

2 3

1 1

e, successivamente, trasformando quest'ultimi nei vettori

6 7

x ) = , T( x ) = .

T( 2 3

1 1

Poiché la dimensione di T(S) è eguale a r(T), ricordando

O 7.

SSERVAZIONE

quanto detto nella sezione che precede a proposito della dimensione di

N (T), possiamo concludere che N

dim(S) = dim( (T)) + dim(T(S))

134 Cap. V

vale a dire che sommando la nullità di T con il rango di T si ottiene la

dimensione di S.

3.3 Supponiamo, adesso, che T sia una trasformazione lineare iniettiva,

vale a dire tale che, se x,y∈S e T(x) = T(y), allora x = y ovvero tale che, se

x,y∈S e x≠ y, allora T(x) T(y).

Sussiste, in proposito, il seguente teorema.

T 1

EOREMA

Una trasformazione lineare T è iniettiva se e soltanto se la dimensione di

N (T) è eguale a zero. ∈S

Dim. Se T è iniettiva, il nucleo di T è costituito dal solo vettore 0 e,

N

quindi, dim( (T)) = 0. N

Viceversa, supponiamo che sia dim( (T)) = 0.

Se x,y∈S e T(x) = T(y), allora T(x – y) = T(x) – T(y) = 0 e, pertanto, il

N

vettore x – y appartiene a (T). N

Ma, essendo 0 l'unico elemento di (T), risulta x = y e, quindi, T è

iniettiva. ≤

Si noti che dim(T(S)) q. Qualora sia dim(T(S)) = q,

O 8.

SSERVAZIONE

come accade nell'Esempio 5, la trasformazione lineare T è detta surgettiva.

Una trasformazione lineare iniettiva e surgettiva stabilisce una corri-

spondenza biunivoca tra S e Z che è un isomorfismo (Cfr. il punto 6 dei

Complementi al Cap. I). In questo caso, ovviamente, S e Z hanno la stessa

dimensione, risultando N (T)) + dim(T(S)) = 0 + dim(Z) = dim(Z) .

dim(S) = dim(

TRASFORMAZIONI LINEARI 135

4 T

RASFORMAZIONI LINEARI DI UNO SPAZIO VETTORIALE IN SE STESSO

Supposto che sia Z = S, la funzione T che associa a ciascun vettore

∈S

x∈S un vettore T(x) in modo tale che siano soddisfatte le proprietà (i) e

(ii) di cui al paragrafo 1, si chiama trasformazione (applicazione, opera-

tore) lineare di S in se stesso (o anche endomorfismo di S).

Come facilmente si verifica, la funzione definita ponendo, per

E 6.

SEMPIO 2

ogni x∈R , −3 x

2 1

T(x) = −1 x

1 2

2

è una trasformazione lineare di R in se stesso.

Considerata la funzione che associa a ogni x∈S il vettore

O 9.

SSERVAZIONE

cx∈S, si verifica facilmente che questa è una trasformazione lineare di S in

se stesso. Essa riceve la denominazione di omotetia di rapporto c.

Per c = 1, si ha la trasformazione (lineare) identica, indicata con il

z

simbolo I.

Si applicano, ovviamente, a questo caso le considerazioni svolte in prece-

denza circa le trasformazioni lineari di S in Z.

In particolare, indichiamo con A la matrice del passaggio da una base

ordinata formata da x , ... , x , vettori colonna della matrice X, a una base

1 p

ordinata costituita da x , ... , x , vettori colonna della matrice X = XA.

1 p

Allora, la matrice T della trasformazione lineare T di S in se stesso,

relativa alla prima base, si trasforma in

- 1

(3) T = A TA .

T e T, dello stesso ordine, legate da

In generale, due matrici quadrate

una relazione del tipo scritto in (3), si dicono simili e il legame tra T e T

espresso dalla (3) si chiama trasformazione di similitudine.

Possiamo pertanto affermare che la matrice T della trasformazione

136 Cap. V

lineare T di S in se stesso, quando cambia la base ordinata, è soggetta a

una trasformazione di similitudine.

Viceversa, due matrici simili possono sempre interpretarsi come matrici

della stessa trasformazione lineare T di S in se stesso, relative a due

opportune basi ordinate di S.

Si consideri nuovamente la trasformazione lineare T di cui

E 7.

SEMPIO 2

all'Esempio 6. Rispetto alla ordinata base di R formata da

1 0

x = u = , x = u =

1 1 2 2

0 1

la matrice di T è −3

2 .

T = −1

1

2

Rispetto alla base ordinata di R formata da

−1

1

x = , x =

1 2

1 1

la matrice della stessa trasformazione lineare T è

−1 −3 −1 −1 −7

-1

1 2 1 1

T = = .

−1

1 1 1 1 1 1 3

2

Ovviamente, r(T) = r(T). Inoltre,

O 10.

SSERVAZIONE - 1 - 1

( a ) tr(T) = tr(A TA) = tr(TAA ) = tr(T)

-1 -1

= det(A TA) = det(A ) det(T) det(A) = det(T).

(b) det(T)

5 A

UTOVALORI E AUTOVETTORI

5.1 Si considerino una trasformazione lineare T di uno spazio vettoriale S

di ordine n e dimensione p in se stesso e un sottospazio S di S.

1

Si dice che S è i n v a r i a n t e rispetto a T se, per ogni x∈S , anche

1 1

TRASFORMAZIONI LINEARI 137

∈S

T(x) .

1 Fig. 1

S 1

T(x)

x

0

Data la trasformazione lineare T, proponiamoci di determinare i sotto-

spazi di S di dimensione eguale a 1 invarianti rispetto a T.

Formalmente, ciò equivale a considerare l'equazione

λx

(4) T(x) =

λ ∈R

e a ricercare quei numeri e quei vettori x≠ 0 tali che la (4) risulti

soddisfatta. Qualora siffatti numeri e vettori esistano, essi ricevono la

denominazione, rispettivamente, di autovalori (radici caratteristiche,

radici latenti, valori propri) e autovettori (vettori caratteristici, vettori

latenti, vettori propri) di T. 2

Si consideri la trasformazione lineare T di R in se stesso defi-

E 8.

SEMPIO 2

nita ponendo, per ogni x∈R , x

1 4 1

T(x) = .

x

9 1 2

λ

Si verifica facilmente che il numero reale = 7 e il vettore

2

x = c ,

3

138 Cap. V

dove c è un numero reale qualsiasi purché diverso da zero, soddisfano

λ

l'equazione T(x) = x e sono pertanto, rispettivamente, un autovalore e un

autovettore di T. 2

Si consideri la trasformazione lineare T di R in se stesso defi-

E 9.

SEMPIO 2

nita ponendo, per ogni x∈R , −x

−1 x

0 1 1

= .

T(x) = 1 0 x x

2 2 λ

In tal caso, com'è subito visto, non esiste un numero reale e un vettore

x≠ 0 tali che l'equazione −x x

λ

1 1

=

x x

2 2

risulti soddisfatta. Pertanto, la trasformazione lineare in questione non

ammette autovalori e autovettori.

5.2 Il procedimento mediante il quale si determinano gli autovalori e gli

autovettori di una trasformazione lineare T di uno spazio vettoriale S in se

stesso può essere esposto nei seguenti termini. , ... , x di ordine

Si consideri una base ordinata di S formata da p vettori x 1 p

n e sia X = x x .

1 p

Siano, inoltre, T la matrice rappresentativa di T e a il vettore coordinato

di un generico vettore x∈S, rispetto alla suddetta base ordinata di S.

La (4) può essere allora espressa nella forma

λ

(4') XTa = X a

da cui λ

= a .

(4'') Ta λ ∈R ≠

Supponiamo, adesso, che esistano un numero e un vettore a 0 che

soddisfino la (4').

TRASFORMAZIONI LINEARI 139

È ovvio che questi soddisfano anche la (4''), e viceversa.

λ

Ne consegue che è un autovalore di T e che a è il vettore coordinato,

rispetto alla base di S costituita dai vettori colonna della matrice X ,

dell'autovettore x associato a tale autovalore.

Per determinare gli autovalori e gli autovettori della trasformazione

λ ∈R ≠

lineare T occorrerà, pertanto, ricercare quei numeri e quei vettori a 0

tali che la (4'') risulti soddisfatta.

A questo fine, si osservi anzitutto che la (4'') può essere riscritta nella

forma − λ

(4''') (T I) a = 0 .

Ora, condizione necessaria e sufficiente affinché il sistema lineare

omogeneo di cui sopra ammetta soluzioni non banali è che esista almeno un

λ ∈R λ λ − λ

numero tale che, per = , il determinante della matrice T I sia

eguale a zero.

L'insieme (eventualmente vuoto) degli autovalori della trasformazione

− −

lineare T denominato anche lo spettro di T coincide dunque con l'insieme

delle soluzioni (reali) dell'equazione − λ

(5) det(T I) = 0 .

La (5) riceve la denominazione di equazione caratteristica (o secolare)

di T e il suo primo membro il quale, com'è subito visto sviluppandone il

λ −

determinante, è un polinomio di grado p in è detto p o l i n o m i o

caratteristico di T. λ

Supponiamo, adesso, che la (5) ammetta l'autovalore . Sostituendo

λ λ ,

nella (4''') a l'insieme delle soluzioni del sistema lineare omogeneo

risultante − λ

(T I) a = 0

è uno spazio vettoriale di ordine p la cui dimensione (Cfr. il Teorema 4 del

− − λ ≠

Cap. IV) è p r(T I) e, premoltiplicando ciascun vettore a 0 apparte-

140 Cap. V

nente a tale spazio vettoriale per X, si ottiene un autovettore x di T asso-

λ

ciato all'autovalore . λ

Lo spazio vettoriale generato da tutti gli autovettori associati a riceve

λ

generalmente la denominazione di autospazio di e la sua dimensione, pari

− − λ λ

a p r(T I), è anche detta molteplicità geometrica di .

Sia A la matrice del passaggio da una base ordinata

O 11.

SSERVAZIONE

, ... , x a una base ordinata costituita da x , ... , x .

formata da x 1 p 1 p

Tenuto conto della (3), si ha che

− λ − λ − λ

- 1 - 1

det(T I) = det(A ) det(T I) det(A) = det(A (T I)A)

− λI) − λI)

- 1

= det(A TA = det(T

e, quindi, matrici simili hanno lo stesso polinomio caratteristico (equazione

caratteristica, autovalori).

Poiché matrici simili identificano una stessa trasformazione lineare T, è

indifferente parlare di polinomio caratteristico (equazione caratteristica,

autovalori) di T o di T.

Sia A definita come nell'Osservazione precedente. Allo-

O 12.

SSERVAZIONE ≠ − λ

ra, ogni soluzione a 0 del sistema (T I) a = 0, risultando

− λ − λ

- 1

{ a : (T I) a = 0} = {a : A (T I) a = 0}

− λ − λ

- 1 - 1 - 1 - 1

= {a : (A TA A A) A a = 0} = {a : (T I) A a = 0} ,

-1

si trasforma, al cambiamento di base, in A a . λ

L'equazione caratteristica di T ammette l'autovalore =

O 13.

SSERVAZIONE

0 se e soltanto se T è singolare. ≠

Infatti, se T è singolare, esiste un vettore a 0 tale che T a = 0, e questa

λ λ

ultima relazione si scrive anche T a = a con = 0.

λ

Viceversa, se = 0, allora detT = 0 e, quindi, T è singolare.

2

Si consideri la trasformazione lineare T di R in se stesso la

E 10.

SEMPIO

TRASFORMAZIONI LINEARI 141

cui matrice, rispetto alla base ordinata formata da

1 0

x = , x =

1 2

1 1

è −2

1

T = .

0 1

L'equazione caratteristica di T vale a dire, l'equazione

−2 −2

1 1 0 1−λ

− λ

( ) = det = 0

det 0 1 0 1 0 1−λ

− λ

ammette l'autovalore (unico) = 1.

− λ

Poiché r(T I) = 1, le soluzioni del sistema

−2

0 a = 0

0 0

formano uno spazio vettoriale di dimensione 1 e il vettore

1

a = b ,

0

dove b è un numero reale qualsiasi purché diverso da zero, è un vettore non

nullo che appartiene a tale spazio vettoriale.

Ne consegue che 1

x = x x a = b

1 2 1 λ

è un autovettore di T corrispondente all'autovalore = 1.

Ovviamente, la dimensione dell'autospazio corrispondente a tale autova-

lore è pari 1.

5.3 Facendo seguito alle considerazioni esposte nelle due sezioni prece-

denti, vogliamo anzitutto dimostrare il seguente teorema.

142 Cap. V

T 2

EOREMA

Autovettori corrispondenti ad autovalori distinti di una trasformazione

lineare T di uno spazio vettoriale S in se stesso sono linearmente

indipendenti. λ λ λ

Dim. Supponiamo che T ammetta t autovalori distinti , , ... , e

1 2 t

* * *

consideriamo t autovettori x , x , ... , x associati a tali autovalori.

1 2 t

* * *

La dimostrazione utilizza il procedimento di induzione su t.

Se t = 1 il teorema è senz'altro vero. Sia adesso t > 1 e supponiamo che il

−1

teorema sia vero per ogni insieme di t autovettori.

Considerata la relazione

(a) c x + c x + ... + c x = 0

1 1 2 2 t t

* * *

, c , ... , c sono t numeri reali per il momento arbitrari, vogliamo

dove c 1 2 t

dimostrare che la (a) implica che sia c = c = ... = c = 0.

1 2 t

Applicando a entrambi i membri della relazione precedente la trasforma-

zione lineare T, si ottiene

T(c x + c x + ... + c x ) = c T( x ) + c T( x ) + ... + c T( x ) = 0

1 1 2 2 t t 1 1 2 2 t t

* * * * * *

da cui λ λ λ

x + c x + ... + c x = 0 .

(b) c 1 1 1 2 2 2 t t t

* * * * * *

λ

Moltiplicando la (a) per e sottraendo il risultato dalla (b), si ha

1

*

λ − λ λ − λ

(c) c ( ) x + ... + c ( ) x = 0 .

2 2 1 2 t t 1 t

* * * * * *

Ma, essendo per ipotesi x , ... , x linearmente indipendenti e

2 t

* *

λ − λ ≠

( ) 0 per s = 2 , ... , t , la (c) implica che sia c = ... = c = 0.

s 1 2 t

* *

Ne segue, come si rileva subito dalla (a), che c x = 0 e, quindi, che

1 1

*

anche c = 0.

1

TRASFORMAZIONI LINEARI 143

Una trasformazione lineare T di uno spazio vettoriale S di

C .

OROLLARIO

dimensione p in se stesso ammette al più p autovalori distinti.

Infatti, se esistessero p+1 autovalori distinti di T, allora, per il Teorema

2, S conterrebbe p+1 autovettori linearmente indipendenti, contro l'ipotesi

z

che sia dim(S) = p.

Introduciamo anzitutto la seguente definizione.

λ ≤ ≤

(1 s t) ha molteplicità algebrica (o, più

Si dice che l'autovalore s

*

semplicemente, molteplicità) m se questa è la sua molteplicità quale radi-

s

ce del polinomio caratteristico di T.

λ

Se m = 1, è detto autovalore semplice.

s s

*

Ciò premesso, dimostriamo il seguente teorema.

T 3

EOREMA

Data una trasformazione lineare T di uno spazio vettoriale S di dimen-

sione p in se stesso, sia T la matrice di tale trasformazione rispetto a una

base ordinata di S formata da x , ... , x .

1 p λ λ

Supponiamo, inoltre, che T ammetta gli autovalori distinti , ... , di

1 t

* *

molteplicità algebriche m , ... , m tali che

1 t t

∑ m = p .

s

s=1

Condizione necessaria e sufficiente affinché esista una base di S formata

da autovettori di T è che, per ogni s = 1, ... , t , sia

− λ −

(6) r(T I) = p m ,

s s

* λ

ovvero che la molteplicità algebrica di sia eguale alla sua molteplicità

s

*

geometrica .

(5)

(5) L'argomento sarà ripreso successivamente (Cfr. il paragrafo 7 del Cap. VII), dopo che avremo

introdotto il concetto di trasformazione autoaggiunta (simmetrica).

144 Cap. V

Dim. Chiaramente, la (6) esprime una condizione necessaria e sufficiente

affinché lo spazio vettoriale generato dalle soluzioni del sistema

− λ

(T I) a = 0

s

* s

*

abbia dimensione pari a m .

s ≤ ≤

Pertanto, scelti m vettori linearmente indipendenti (1 s t)

s a , ... , a

s , 1 s , m

* * s

appartenenti a tale spazio vettoriale, premoltiplicando ciascuno di essi per

la matrice X i cui vettori colonna formano una base di S, si ottengono m s

autovettori, a loro volta linearmente indipendenti,

x = X a , ... , x = X a

s , 1 s , 1 s , m s , m

* * * *

s s

λ

i quali formano una base dell'autospazio di .

s

*

Poiché autovettori associati ad autovalori distinti sono linearmente indi-

pendenti (Cfr. il Teorema 2), riunendo le basi degli autospazi associati agli

λ λ

autovalori , ... , , si ottiene una base di S formata da autovettori di T.

1 t

* *

Qualora la trasformazione lineare T di S in se stesso am-

C .

OROLLARIO

metta p autovalori e questi siano semplici, esiste una base di S formata da

autovettori di T. 2

Si consideri la trasformazione lineare T di R in se stesso la

E 11.

SEMPIO

cui matrice, rispetto alla base ordinata formata da

1 0

x = , x =

1 2

1 1

è 2+ 2 2 .

T = −1 1− 2

L'equazione caratteristica di T vale a dire, l'equazione

TRASFORMAZIONI LINEARI 145

2+ 2 2 1 0 2+ 2−λ 2

−λ

( )

det = det 0

=

−1 −1

0 1

1− 1−

2 2−λ

− λ λ

ammette gli autovalori = 3 e = 0, di molteplicità m = m = 1.

1 2 1 2

* *

− λ

Poiché r(T I) = 1, le soluzioni del sistema

1

* −1+ 2 2 a = 0

1

*

−1 −2− 2

formano uno spazio vettoriale di dimensione 1 e il vettore

− 2

a = b ,

1 , 1

* −1+ 2

dove b è un numero reale qualsiasi purché diverso da zero, è un vettore non

nullo che appartiene a tale spazio vettoriale.

Ne consegue che − 2

x = x x a = b

1 , 1 1 2 1 , 1

* * −1

λ

è un autovettore di T corrispondente all'autovalore = 3.

1

*

− λ

Analogamente, poiché r(T I) = 1, le soluzioni del sistema

2

*

2+ 2 2 a = 0

2

*

−1 1− 2

formano uno spazio vettoriale di dimensione 1 e il vettore

− 2

a = c ,

2 , 1

* 2+ 2

dove c è un numero reale qualsiasi purché diverso da zero, è un vettore non

nullo che appartiene a tale spazio vettoriale.

146 Cap. V

Ne consegue che − 2

x = x x a = c

2 , 1 1 2 2 , 1

* * 2

λ

è un autovettore di T corrispondente all'autovalore = 0.

2

*

Ovviamente, tenuto conto del Corollario al Teorema 3, gli autovettori di

2

cui sopra formano una base di R .

Supponiamo, come nell'enunciato del Teorema 3, che la trasformazione

5.4

lineare T di uno spazio vettoriale S di dimensione p in se stesso ammetta t

λ λ

, ... , di molteplicità m , ... , m con m + ... + m = p

autovalori distinti 1 t 1 t 1 t

* *

= dim(S). λ λ

Indichiamo con , ... , l'insieme di tali autovalori (eventualmente non

1 p

tutti distinti) e con x , ... , x l'insieme dei p autovettori a essi associati.

1 p

In una base ordinata di S formata da x , ... , x , la relazione (j = 1, ... , p)

1 p

λ

T( x ) = x

j j

può essere espressa nella forma λ

T a = a

j j j

da cui fatte le posizioni λ 0

1

A = a a , D =

1 p λ

0 p

− si ottiene

(7) TA = A D .

Ciò premesso, è immediato rilevare che, qualora i vettori a , ... , a siano

1 p

linearmente indipendenti, la matrice A è di pieno rango.

Pertanto,

TRASFORMAZIONI LINEARI 147

-1

(8) A TA = D .

A quale matrice del passaggio dalla base

Ciò significa che, assunta

ordinata formata da x , ... , x alla base ordinata costituita da x , ... , x , la

1 p 1 p

matrice della trasformazione lineare T, in quest'ultima base, è

λ

D = diag(λ , ... , ) .

1 p

Reciprocamente, se esiste una matrice A tale che la (8) sia soddisfatta,

allora i vettori X a , ... , X a sono autovettori corrispondenti agli autovalori

1 p

λ λ

, ... , della trasformazione lineare T associata alla matrice T.

1 p La possibilità di ridurre a forma diagonale la matrice T

O 14.

SSERVAZIONE

della trasformazione lineare T mediante una trasformazione di similitudine

x , ... , x linear-

dipende criticamente dal fatto che esistano p autovettori 1 p

mente indipendenti.

Se la trasformazione lineare T non ammette p autovalori, è chiaro che T

non risulta diagonalizzabile mediante una trasformazione di similitudine.

Se la trasformazione lineare T ammette p autovalori e questi sono tutti

semplici, allora (Cfr. il Corollario al Teorema 3) è possibile trovare p

autovettori linearmente indipendenti e T risulta diagonalizzabile attraverso

una trasformazione di similitudine.

Se i p autovalori di T non sono tutti semplici, affinché T sia riducibile a

forma diagonale mediante una trasformazione di similitudine occorre che la

molteplicità algebrica e la molteplicità geometrica di ciascun autovalore

siano eguali (Cfr. il Teorema 3).

Si consideri, riprendendo l'Esempio 11, la trasformazione linea-

E 12.

SEMPIO 2

re T di R in se stesso la cui matrice, rispetto alla base ordinata formata da

1 0

x = , x =

1 2

1 1

è

148 Cap. V

2+ 2 2

T = .

−1 1− 2 λ λ

Come si è visto, tale trasformazione ammette gli autovalori = = 3

1 1

*

λ λ

e = = 0. Quindi, T risulta diagonalizzabile attraverso una trasforma-

2 2

*

zione di similitudine.

In effetti, la matrice del passaggio dalla base ordinata formata da x , x

1 2

alla base ordinata costituita dagli autovettori

− −

2 2

x = x = , x = x =

1 1 , 1 2 1 , 1

* *

−1 2

è, come subito si verifica, − −

2 2

A = −1+ 2 2+ 2

e risulta -1

− − − −

2+ 2 2

2 2 2 2

−1

−1+ −1+

1−

2 2+ 2 2 2 2+ 2

− −

2+ 2 2 2+ 2 2 2 2 3 0

1 =

= .

−3 0 0

−1

− −1+

2 1− 1−

2 2 2 2 2+ 2

2

Si consideri la trasformazione lineare T di R in se stesso la cui

E 13.

SEMPIO

matrice, rispetto alla base ordinata formata da

1 0

x = u = , x = u =

1 1 2 2

0 1

è 0 1 .

T = 0 0

TRASFORMAZIONI LINEARI 149

Com'è subito visto, l'equazione caratteristica di T ammette un unico

λ λ

autovalore = 0 di molteplicità m = 2 e l'autospazio di ha dimensione

1 1

*

pari a 1.

Pertanto, T non è diagonalizzabile attraverso una trasformazione di simi-

litudine. 3

Si consideri la trasformazione lineare T di R in se stesso la cui

E 14.

SEMPIO

matrice, rispetto alla base ordinata formata da

1 0 0

= u = = u = = u =

x , x , x

0 1 0

1 1 2 2 3 3

0 0 1

è 1 1 1 .

T = 1 1 1

1 1 1

Come si può facilmente verificare, l'equazione caratteristica di T ammette

λ λ

gli autovalori = 3 di molteplicità m = 1 e = 0 di molteplicità m = 2.

1 1 2 2

* *

λ λ

Inoltre, l'autospazio di ha dimensione pari a 1 e l'autospazio di ha

1 2

* *

dimensione pari a 2.

Pertanto, T è diagonalizzabile attraverso una trasformazione di simili-

tudine. Nell'ipotesi che la matrice A sia di pieno rango, si pos-

O 15.

SSERVAZIONE

sono facilmente dimostrare le seguenti proprietà .

(6)

( a ) Il determinante di T è eguale al prodotto degli autovalori della trasfor-

mazione lineare T. Infatti, p

∏ λ

-1

detT = det(A TA) = det D = .

j

j=1

(6) Si noti, tuttavia, che le proprietà (a) e (b) sussistono anche nel caso in cui tale matrice non sia

di pieno rango.

150 Cap. V

(b) La traccia di T è eguale alla somma degli autovalori della trasforma-

zione lineare T. Infatti, p

∑ λ

-1 TA) = tr D = .

trT = tr(A j

j=1

(c) Il rango di T è eguale al numero degli autovalori diversi da zero della

trasformazione lineare T, come risulta subito dal fatto che

-1 TA) = r(D) .

r(T) = r(A

6 T . P

RASFORMAZIONI IDEMPOTENTI ROIETTORI

6.1 Siano S uno spazio vettoriale di ordine n e dimensione p e T una

trasformazione lineare di S in se stesso. Si dice che T è una trasformazione

(lineare) idempotente se, per ogni x∈S, risulta

2

(9) T (x) = T(T(x)) = T(x) .

Poiché, con le notazioni ormai consuete, è

2 2

(x) = T(T(x)) = X TTa = XT a

T(x) = XTa , T −

la condizione necessaria e sufficiente affinché valga la (9) è espressa

come facilmente si riconosce dalla relazione

2

T = T .

Indicando con A la matrice del passaggio da una base

O 16.

SSERVAZIONE

ordinata costituita dai vettori colonna di X a una base ordinata formata dai

- 1 2

vettori colonna di X, la matrice T si trasforma in T = A TA e T si tra-

2 - 1 - 1 - 1

sforma in T = A TA A TA = A TA = T.

Ciò significa che una trasformazione idempotente è caratterizzata dal

fatto che, rispetto a una qualunque base ordinata di S, la matrice a essa

associata è idempotente. 2

Si consideri la trasformazione lineare T di R in se stesso la

E 15.

SEMPIO

TRASFORMAZIONI LINEARI 151

cui matrice, rispetto alla base ordinata formata da

1 0

x = , x =

1 2

1 1

è 2 1

T = .

−2 −1

Poiché, come subito si constata, T è idempotente, tale è T.

Considerata poi la matrice −1 1

A = .

−2

1

del passaggio dalla base ordinata formata da x , x alla base ordinata base

1 2

costituita da −1 1

x = , x = −1

1 2

0

si ha −1 −1

-1 2 1 0

1 1 1

T = =

−2

−2 −1 −2

1 1 0 0

e la matrice che compare a secondo membro di quest'ultima espressione è

idempotente. e S due suoi

6.2 Siano S uno spazio vettoriale di dimensione p e S 1 2

− − ⊕S

sottospazi di dimensione, rispettivamente, p e p tali che S = S .

1 2 1 2

Com'è noto (Cfr. il Teorema 13 del Cap. I), ogni x∈S ammette un'unica

∈S

rappresentazione della forma x = y + z con y∈S e z .

1 2

Considerata la funzione T che associa a ogni x∈S il vettore y∈S , vo-

1

gliamo anzitutto mostrare che T è una trasformazione lineare di S in se

stesso. ∈S

Infatti, per tutti gli x , x , x tali che

1 2

152 Cap. V

∈S

x = y + z con y∈S e z

1 2

∈S ∈S

x = y + z con y e z

1 1 1 1 1 1 2

∈S ∈S

x = y + z con y e z

2 2 2 2 1 2 2

∈R,

e ogni a si ha

(i) T(x + x ) = T((y + y ) + (z + z )) = y + y = T(x ) + T(x )

1 2 1 2 1 2 1 2 1 2

(ii) T(ax) = T(ay + az) = a y = a T(x).

Inoltre, si verifica facilmente che la trasformazione lineare T qui sopra

definita gode delle seguenti proprietà:

(a) T(y) = T(y + 0) = y per tutti gli y∈S 1

(b) T(z) = T(0 + z) = 0 per tutti gli z∈S .

2

Tali proprietà determinano univocamente T, nel senso che ogni altra

che possieda le medesime proprietà risultando

trasformazione lineare T 1

T (x) = T (y + z) = T (y) + T (z) = y + 0 = y = T(x)

1 1 1 1

− coincide necessariamente con T.

La trasformazione lineare T in questione è anche detta proiettore di S su

S lungo S .

1 2

A sua volta, il vettore y è detto proiezione di x su S lungo S .

1 2

Fig. 2

S 2 ⊕

• 2

R = S S

x 1 2

S

• 1

z •

y

0

Il seguente teorema stabilisce la relazione che sussiste tra proiettori e

trasformazioni idempotenti.

TRASFORMAZIONI LINEARI 153

T 4

EOREMA

Una trasformazione lineare T di uno spazio vettoriale S in se stesso è un

proiettore se e soltanto se T è idempotente.

Dim. Supponiamo che T sia idempotente. Vogliamo dimostrare che esistono

due sottospazi S e S di S per i quali valgono le proprietà (a) e (b) indicate

1 2 ⊕S

in precedenza e tali che S = S .

1 2

Sia S definito come l'immagine T(S) di S mediante T. Se y∈S , allora y =

1 1

T(x) per qualche x∈S; quindi 2

T(y) = T(T(x)) = T (x) = T(x) = y

e la proprietà (a) risulta soddisfatta. −

Sia S costituito da tutti i vettori della forma x T(x) al variare di x in S.

2 ∈S

Si verifica facilmente che S è un sottospazio di S. Inoltre, se z , allora z

2 2

= x T(x) per qualche x∈S; quindi

− − 2

T(z) = T(x T(x)) = T(x) T (x) = 0

e la proprietà (b) risulta soddisfatta. ⊕S

Occorre, adesso, far vedere che S = S . A questo fine, si consideri,

1 2

per ogni x∈S, l'identità −

x = T(x) + (x T(x)) .

È ovvio che S = S + S . Inoltre, se per qualche x∈S accade che x appar-

1 2

tenga sia a S sia a S , deve risultare da un lato T(x) = x, dall'altro T(x) = 0.

1 2 ∩

Ma ciò implica che sia x = 0 e, quindi, che S S = S .

1 2 0

Viceversa, supponiamo che T sia un proiettore di S su S lungo S . Allora,

1 2

∈S

per ogni x∈S tale che x = y + z con y∈S e z , risulta

1 2

2

T (x) = T(T(x)) = T(T(y) + T(z)) = T(y) = y = T(x)

e, quindi, T è idempotente.

154 Cap. V

costituiscono, rispettivamente, l'imma-

Si noti che S e S

O 17.

SSERVAZIONE 1 2

gine di S mediante T e il nucleo di T.

Poiché T lascia inalterato qualunque vettore di S e

O 18.

SSERVAZIONE 1

trasforma nel vettore nullo qualunque vettore di S , T è dotata unicamente

2

λ λ (7)

degli autovalori = 1 e/o = 0 .

1 2

* * −

A tali autovalori corrispondono, rispettivamente, i sottospazi S e S di

1 2

dimensione pari a p e p (p + p = p) invarianti rispetto a T.

1 2 1 2

6.3 Escludiamo i casi banali S = S (S = S) o S = S (S = S).

1 0 2 2 0 1

è un autovettore di T corrispondente

Chiaramente, ciascun vettore di S 1

λ

all'autovalore = 1 e, analogamente, ciascun vettore di S è un auto-

1 2

* λ

vettore di T corrispondente all'autovalore = 0.

2

*

Indichiamo con x , ... , x una base ordinata di S formata da p auto-

1 p 1 1

1 λ

vettori associati all'autovalore = 1 e con x , ... , x una base ordinata

1 p + 1 p

* 1 λ

di S costituita da p autovettori associati all'autovalore = 0.

2 2 2

*

Rispetto alla base ordinata di S formata da x , ... , x , x , ... , x , per

1 p p + 1 p

1 1

ogni x∈S, possiamo scrivere

x = a x + ... + a x + a x + ... + a x

1 1 p p p + 1 p + 1 p p

1 1 1 1

da cui T(x) = T( a x + ... + a x + a x + ... + a x )

1 1 p p p + 1 p + 1 p p

1 1 1 1

= a T( x ) + ... + a T( x ) + a T( x ) + ... + a T( x )

1 1 p p p + 1 p + 1 p p

1 1 1 1

= a x + ... + a x + a 0 + ... + a 0

1 1 p p p + 1 p

1 1 1

= a x + ... + a x + 0 x + ... + 0 x

1 1 p p p + 1 p

1 1 1 a 1

1 0 0 0 a

0 1 0 0 p 1

= x x x x .

1 p p + 1 p a

1 1 0 0 0 0 p + 1

1

a

0 0 0 0 p

(7) Come si verifica facilmente, la trasformazione identica ha un unico autovalore eguale a 1 di

molteplicità p; analogamente, la trasformazione nulla ha un unico autovalore eguale a 0 di

molteplicità p.

TRASFORMAZIONI LINEARI 155

Quindi, la matrice della trasformazione idempotente (proiettore) T, rela-

tiva alla base ordinata di S qui sopra indicata, è

I O

(p , p ) (p , p )

1 1 1 2 .

D = O O

(p , p ) (p , p )

2 1 2 2

Ovviamente, − −

r(D) = p = dim(S ) = tr(D) , r(I D) = p = dim(S ) = tr(I D) .

1 1 2 2

Ricordando che il rango e la traccia di una matrice rimangono invariati

rispetto a una trasformazione di similitudine, si conclude poi che la matrice T

della trasformazione idempotente T, rispetto a una base qualsiasi di S, è

tale che − −

= dim(S ) = tr(T) , r(I T) = p = dim(S ) = tr(I T) .

r(T) = p 1 1 2 2

⊕S

6.4 Dati i sottospazi S e S di S tali che S = S , nella sezione prece-

1 2 1 2

dente abbiamo definito il proiettore T di S su S lungo S .

1 2 ∈S

Supponiamo, adesso, di associare a ogni x∈S il vettore z . Come si

2

riconosce subito, la funzione T che si viene in tal modo a definire costituisce

il proiettore di S su S lungo S .

2 1 −

Tale proiettore può essere rappresentato con I T, dove I indica la tras-

formazione identica di S (Cfr. l'Osservazione 9).

Naturalmente, se, rispetto a una prefissata base ordinata di S, T denota

− − (8)

la matrice associata a T, I T è la matrice associata a T = I T .

Inoltre, il rango e la nullità di T sono eguali, rispettivamente, alla nullità e

al rango di T. −

(8) Si noti che I T è idempotente.

156 Cap. V

Cap. V

COMPLEMENTI

1 Supponiamo che T sia una trasformazione lineare di S in Z e che x , ... , x

1 t

siano t vettori appartenenti a S.

, ... , x sono linearmente dipendenti anche T(x ) , ... , T(x ) sono li-

(a) Se x 1 t 1 t

nearmente dipendenti. Infatti, dalla relazione

x + ... + a x = 0 ,

a 1 1 t t

, ... , a numeri reali non tutti nulli, si ha

con a 1 t T(a x + ... + a x ) = a T(x ) + ... + a T(x ) = 0 .

1 1 t t 1 1 t t

) , ... , T(x ) siano linearmente indipendenti an-

Ovviamente, qualora T(x 1 t

che x , ... , x sono linearmente indipendenti.

1 t

(b) Se x , ... , x sono linearmente indipendenti, nulla si può dire in generale

1 t

circa le loro immagini T(x ) , ... , T(x ); queste possono risultare linearmente

1 t

indipendenti o linearmente dipendenti. Tuttavia, se il nucleo di T è costituito

dallo spazio nullo, si può facilmente dimostrare che T(x ) , ... , T(x ) sono

1 t

linearmente indipendenti.

2 Poiché

COMPLEMENTI 157

− λ − λ − λ

det(T I) = det(T I)' = det(T ' I)

le matrici T e T' hanno lo stesso polinomio caratteristico e, quindi, ammet-

tono i medesimi autovalori.

3 λ ≠ 0 è un autovalore di una matrice invertibile T di ordine (p,p), allora

Se

λ ≠

-1 -1

0 è un autovalore di T . Infatti,

λ λ λ

-1 p -1

0 = det(− I + T) = (− ) detT det(− I + T)

λ λT λ λT

-1 -1

p -1 -1

( )

= (− ) det(− + I) = det (− )(− + I)

− λ -1

-1

= det(T I) . λ I + T)a = 0 e l'altro

In modo analogo si dimostra che il sistema (−

− λ -1

-1

(T I) a = 0 ammettono la medesima soluzione a .

4

T

EOREMA λ ∈R,

Date due matrici X e Y , qualunque sia risulta

(p , p ) (p , p )

1 2 2 1

λ λ − λ λ −

p p

( ) ( )

det I (X Y) = det I (Y X) .

2 1

(p , p ) (p , p ) (p , p ) (p , p )

1 1 1 1 2 2 2 2

Dim. Considerata l'identità

λ −

I (XY) X I O

(p , p ) (p , p ) (p , p ) (p , p ) (p , p )

1 1 1 1 1 2 1 1 1 2

λ

O I Y I

(p , p ) (p , p ) (p , p ) (p , p )

2 1 2 2 2 1 2 2

λ

I O I X

(p , p ) (p , p ) (p , p ) (p , p )

1 1 1 2 1 1 1 2

= λ −

Y I O I (X Y)

(p , p ) (p , p ) (p , p ) (p , p ) (p , p )

2 1 2 2 2 1 1 1 1 1

prendendo il determinante di entrambi i membri, segue direttamente l'as-

serto del teorema.

158 Cap. V

Supponiamo che la matrice X Y ammetta complessivamente h

C .

OROLLARIO

≤ ≤

(0 < h p p ) autovalori diversi da zero.

1 2

Allora, la matrice Y X ammette i medesimi h autovalori diversi da zero.

λ

Infatti, se è un autovalore diverso da zero di X Y, si ha che

λ − ⇒ λ λ −

p 2

{ } { }

det( I XY) = 0 det( I XY) = 0

⇒ λ λ − ⇒ λ −

p 1

{ } { }

det( I YX) = 0 det( I YX) = 0

e viceversa. λ − −

Ovviamente, la molteplicità dell'autovalore = 0 è p h per XY e p h

1 2

per Y X.

5

T

EOREMA λ

Date due matrici X e Y , sia un autovalore diverso da zero di

(p , p ) (p , p )

1 2 2 1

XY e YX. Allora, le soluzioni a , b 0 delle equazioni

λ λ

XYa = a , YXb = b

sono legate dalle relazioni Ya = b , X b = a . λ

Dim. Infatti, se a è una soluzione non nulla dell'equazione XYa = a , allora

≠ ≠

Ya è una soluzione non nulla (λ a 0 implica Ya 0) dell'equazione

λ

YXYa = Ya, cioè Ya = b.

In modo del tutto analogo si dimostra che X b = a .

6 Siano S uno spazio vettoriale di ordine n e dimensione p e Z uno spazio

vettoriale di ordine m e dimensione q.

Considerate due trasformazioni lineari T e T di S in Z e un numero reale

1 2

COMPLEMENTI 159

c, si definiscono la somma T + T e il prodotto cT ponendo, per ogni x∈S e

1 2 1

ogni c∈R, (T + T )(x) = T (x) + T (x) , (cT )(x) = cT (x) .

1 2 1 2 1 1

Si può facilmente dimostrare che l'insieme di tutte le trasformazioni

lineari di S in Z, con le operazioni di addizione e di moltiplicazione scalare

qui sopra definite, costituisce uno spazio vettoriale su R nel senso della

definizione data al punto 5 dei Complementi al Cap. I.

Tale spazio vettoriale viene solitamente indicato con Hom(S,Z). Nel

(1)

caso in cui sia S = Z, in luogo di Hom(S,S) si usa il simbolo End(S) .

Si noti che, fissate due basi ordinate di S e Z, esiste un isomorfismo tra

lo spazio vettoriale di tutte le trasformazioni lineari di S in Z e lo spazio

vettoriale di tutte le matrici di ordine (p,q). Poiché la dimensione di

quest'ultimo spazio vettoriale è pq (Cfr. il punto 6 dei Complementi al Cap.

II), se ne deduce che dim(Hom(S,Z)) = pq.

7 Poiché R può riguardarsi come uno spazio vettoriale di dimensione 1, ha

senso parlare di trasformazioni lineari di S in R. Tali trasformazioni lineari,

che hanno come immagine numeri reali, sono dette forme (funzioni, funzio-

nali) lineari su S o anche omomorfismi di S in R.

− −

Lo spazio vettoriale di tutte le forme lineari vale a dire, Hom(S,R) è

chiamato spazio duale di S e indicato con S*.

Chiaramente, dim(S*) = dim(Hom(S,R)) = p = dim(S).

Nei riguardi dello spazio duale S*, adattando al caso in esame quanto

detto nel paragrafo 2 di questo capitolo a proposito delle trasformazioni

lineari di S in Z, possiamo affermare quanto segue.

(1) Hom sta per omomorfismo e End sta per endomorfismo.

160 Cap. V

(a) Supponiamo che x , ... , x formino una base ordinata di S e che 1 costi-

1 p

tuisca una base di R. Sia, inoltre, a 1

x = a x + ... + a x = x x = Xa

1 1 p p 1 p a p

un generico vettore appartenente a S.

Consideriamo poi le immagini f(x ) , ... , f(x ) , mediante la forma lineare f,

1 p

di x , ... , x e siano

1 p ) = t , ... , f(x ) = t .

f(x 1 1 p p

Allora, posto = t ,

= t '

f(x ) f(x ) t

1 p 1 p

risulta

(1*) f(x) = f(a x + ... + a x ) = a f(x ) + ... + a f(x )

1 1 p p 1 1 p p

a a

1 1

= f(x ) f(x ) = t t = t a .

'

1 p 1 p

a a

p p

Mediante la (1*) l'immagine f(x) di x viene espressa in funzione del

vettore coordinato a di x medesimo.

Il vettore (riga) t riceve la denominazione di vettore (rappresentativo)

'

della forma lineare f su S rispetto alla suddetta base ordinata di S e alla

prescelta base di R e risulta univocamente associato a f e a tali basi.

A sua volta, il vettore (numero reale)

c = t a

'

è il vettore coordinato di f(x), rispetto alla base prescelta di R.

(b) Sia, adesso, t = t un vettore (riga) di ordine p. Supponiamo

' j (1 , p )

inoltre, come in precedenza, che x , ... , x formino una base ordinata di S e

1 p

che 1 costituisca una base di R.

COMPLEMENTI 161

∈S,

Definita la funzione f ponendo, per ogni x = a x + ... + a x

1 1 p p

a 1

(1**) f(x) = a t + ... + a t = t t = t a

'

1 1 p p 1 p a p

si riconosce immediatamente che questa è una forma lineare su S la quale è

t

associata al vettore '. ϕ

Supposto poi che esista un'altra forma lineare la quale è associata al

− ϕ(x

t ) = t per j = 1, ... , p si ha

tale cioè che

medesimo vettore ' j j

ϕ(x) ϕ(a ϕ(x ϕ(x

= x + ... + a x ) = a ) + ... + a )

1 1 p p 1 1 p p

a 1

= a t + ... + a t = t t

1 1 p p 1 p a p

= t a = f(x)

'

e quindi f è unica.

La forma lineare f definita in (1**) è anche detta indotta dal vettore t ',

relativamente alle suddette basi di S e R.

Tenuto conto di quanto sopra, possiamo concludere che esiste una

− −

corrispondenza biunivoca dipendente dalle basi prescelte di S e R tra

l'insieme delle forme lineari e l'insieme dei vettori (riga) di ordine appro-

priato.

(c) Considerati i p vettori (riga)

1 0 0 , ... , t 0 0 1

= =

t ' '

1 p j = 1, ... , p esiste un'unica

e tenuto conto di quanto detto in (b), per ogni

forma lineare f indotta da t e risulta

'

j j

f (x) = t , ... , f (x) = t .

a = a a = a

' '

1 1 1 p p p

Pertanto, potendosi scrivere

f(x) = t a = f (x) t + ... + f (x) t ,

' 1 1 p p

162 Cap. V

f , ... , f formano un insieme generatore di S*.

1 p

Ma avendo S* dimensione p, ne consegue che le p forme lineari f , ... , f

1 p

− ciascuna delle quali associa al vettore x la sua coordinata a rispetto alla

j

base ordinata di S formata dai vettori x , ... , x sono linearmente indi-

1 p

pendenti e costituiscono dunque una base ordinata (base duale) di S*.

(d) Indichiamo, al solito, con A la matrice del passaggio da una base

ordinata formata da x , ... , x , vettori colonna della matrice X, a una base

1 p

ordinata costituita da x , ... , x , vettori colonna della matrice X = XA.

1 p -1

Allora, com'è noto, il vettore a si trasforma in a = A a.

A sua volta, il vettore t ', dovendo sussistere la relazione

-1

f(x) = t a = t AA a = t a ,

' ' '

si trasforma, in accordo con la (2) di questo capitolo, in t t

= A.

' '

Si usa anche esprimere questo diverso comportamento di a e t ', al variare

t

della base ordinata di S, dicendo che a si trasforma per controvarianza e '

per covarianza.

FORME BILINEARI E QUADRATICHE 163

Cap. VI

FORME BILINEARI E QUADRATICHE

1 F

ORME BILINEARI

Dato uno spazio vettoriale S di ordine n e dimensione p, si chiama forma

bilineare su S ogni funzione B che associa a ciascuna coppia ordinata di

∈S ×

vettori (x ,y) S un numero reale B(x ,y) in modo tale che siano verificate

∈S;

le proprietà seguenti (x ,y,v,z a,b∈R):

(i) B(x + v,y) = B(x ,y) + B(v ,y) , B(ax,y) = a B(x ,y)

,

z) = B(x ,y) + B(x ,z) B(x ,by) = bB(x ,y) .

(ii) B(x ,y+

Le proprietà di cui sopra esprimono la linearità di una forma bilineare nei

riguardi, rispettivamente, del primo e del secondo argomento della funzione.

Come facilmente si verifica, la funzione B definita ponendo, per

E 1.

SEMPIO ∈R ×

2 2

ogni (x ,y) R , y

1 0 1

x

x

B(x ,y) = −1

1 2 y

0 2

2

è una forma bilineare su R .

2 F

ORME BILINEARI E BASI

2.1 Supposto che x , ... , x formino una base ordinata di S, siano

1 p

164 Cap. VI

a 1

x = a x + ... + a x = x x = Xa

1 1 p p 1 p a p

b 1

y = b x + ... + b x = x x = Xb

1 1 p p 1 p b p

due generici vettori appartenenti a S. ,x ) assunto dalla forma

Considerato per ogni k,j = 1, ... , p il valore B(x k j

bilineare B in corrispondenza della coppia ordinata di vettori (x ,x ) e posto

k j

B(x ,x ) = c

k j k j

si ha

(1) B(x ,y) = B(a x + ... + a x , b x + ... + b x )

1 1 p p 1 1 p p

p p p p

∑ ∑ ∑ ∑

= a B(x ,x ) b = a c b

k k j j k k j j

k =1 j=1 k =1 j=1

c c b

1 1 1 p 1

a a

= = a Cb .

'

1 p c c b

p 1 p p p

Mediante la (1) il valore assunto dalla forma bilineare B, in corrispon-

∈S × S, è espresso in funzione

denza della coppia ordinata di vettori (x ,y) c .

dei vettori coordinati a di x e b di y nonché della matrice C = k j

Quest'ultima matrice riceve la denominazione di matrice (rappresenta-

tiva) di B rispetto alla suddetta base ordinata di S e risulta univocamente

associata a B e a tale base. 2

Rispetto alla base ordinata di R costituita da

E 2.

SEMPIO 1 2

= , x =

x 1 2

1 1 −

la matrice della forma bilineare definita nell'Esempio 1 risultando

, x ) = 0 , B(x , x ) = 1 , B(x , x ) = 1 , B(x , x ) = 3

B(x 1 1 1 2 2 1 2 2

− è

FORME BILINEARI E QUADRATICHE 165

0 1

C = .

1 3

2.2 Siano, adesso, X = x x la matrice i cui vettori colonna formano

1 p

una base ordinata di S e C = c una matrice di ordine (p,p).

k j

Indichiamo inoltre, come in precedenza, con x = Xa e y = Xb due generici

vettori appartenenti a S.

Definita la funzione B ponendo, per tutte le coppie ordinate di vettori

∈S × ,

(x ,y) S

(1') B(x ,y) = a Cb

'

si riconosce subito che B è una forma bilineare su S la quale è univocamente

associata alla matrice C.

La forma bilineare B definita mediante la (1') è detta indotta dalla matrice

C, relativamente alla suddetta base ordinata di S.

Tenuto conto di quanto precede, possiamo concludere che esiste una

corrispondenza biunivoca tra l'insieme delle forme bilineari e l'insieme delle

matrici di ordine appropriato. Tale corrispondenza, tuttavia, dipende stretta-

mente dalla base ordinata prescelta di S.

Nella sezione seguente mostreremo come cambia la matrice di una data

forma bilineare quando muta la base. 2

Considerata la base ordinata di R costituita dai vettori x ,x di

E 3.

SEMPIO 1 2

cui all'Esempio 2 e la matrice C ivi specificata, per ogni

a ∈ 2

1

x + a x = x x = Xa R

x = a a

1 1 2 2 1 2 2

b ∈ 2

1

y = b x + b x = x x = Xb R

1 1 2 2 1 2 b 2

la funzione B definita ponendo 0 1

B(x ,y) = a b

' 1 3

2 univocamente associata alla matrice C.

è una forma bilineare su R

166 Cap. VI

2.3 Nell'ipotesi che x , ... , x formino un'altra base ordinata di S, posto

1 p a 1

x = a x + ... + a x = = X a

x x

1 1 p p 1 p a p

b 1

y = b x + ... + b x = = X b

x x

1 1 p p 1 p b p

risulta

(2) B(x ,y) = B(a x + ... + a x , b x + ... + b x )

1 1 p p 1 1 p p

p p p p

∑ ∑ ∑ ∑

= a B( x , x ) b = a c b

k k j j k k j j

k =1 j=1 k =1 j=1

c c b

1 1 1 p 1

= a a = a Cb .

'

1 p c c b

p 1 p p p

Indichiamo con A la matrice del passaggio da una base ordinata formata

da x , ... , x , vettori colonna della matrice X, a una base ordinata costituita

1 p

da x , ... , x , vettori colonna della matrice X = XA.

1 p

Allora, è subito visto che, dall'eguaglianza

a Cb = a C b

' '

− −

essendo a = A a e b = A b (Cfr. il paragrafo 5 del Cap. IV) si ottiene

A'CA

a b = a C b

' '

ovvero −

a (A'CA C) b = 0 .

' ×

p p

Ora, quest'ultima relazione deve valere per ogni ( a , b)∈R R e, in par-

∈R ×

p p

ticolare, per ogni (u ,u ) R (k,j = 1, ... , p) dove u e u indicano, ri-

k j k j

spettivamente, il k-esimo e il j-esimo vettore canonico di ordine p.

Ne consegue che

FORME BILINEARI E QUADRATICHE 167

A'CA C = O

ossia che

(3) C = A'CA .

In generale, due matrici quadrate C e C, dello stesso ordine, legate

mediante una matrice non singolare A da una relazione del tipo scritto in

(3), si dicono congruenti e il legame tra C e C espresso dalla (3) si chiama

.

trasformazione per congruenza

Possiamo pertanto concludere che la matrice C della forma bilineare B,

quando cambia la base ordinata, è soggetta a una trasformazione per con-

gruenza.

Viceversa, due matrici C e C, legate da una relazione del tipo scritto in

(3), si possono sempre interpretare come matrici della stessa forma bili-

neare B, relativamente a due opportune basi ordinate di S.

Essendo poi r(C ) = r (A'CA) = r(C), possiamo definire il rango di una

forma bilineare B come il rango comune a ciascuna delle matrici rappre-

sentative di B.

Sia S lo spazio vettoriale generato da

E 4.

SEMPIO 1 1

x = =

, x .

1 0

1 2

1 0

Si consideri la forma bilineare B su S definita ponendo, per ogni

∈S × S

(x ,y) y

1 0 1 1

y

B(x ,y) = x x x .

0 1 1 2

1 2 3 y

0 0 1 3

La matrice di tale forma bilineare, rispetto alla base ordinata costituita

dai vettori x ,x di cui sopra, è

1 2 5 1

C = .

2 1

168 Cap. VI

La matrice della stessa forma bilineare, rispetto alla base ordinata

formata da 2 0

x = x =

,

1 1

1 2

1 1

− risultando 1 1

A = −1

1

− è '

1 1 5 1 1 1 9 5

C = = .

−1 −1

1 2 1 1 3 3

3 F

ORME BILINEARI SIMMETRICHE E FORME QUADRATICHE

3.1 Una forma bilineare B su uno spazio vettoriale S di ordine n e dimen-

∈S ×

sione p si dice simmetrica se, per ogni (x ,y) S, risulta

= B(y ,x) .

B(x ,y)

Tenuto conto della (1), è subito visto che condizione necessaria e

sufficiente affinché ciò si verifichi è che, rispetto a una qualunque base ordi-

nata di S, la matrice di B risulti simmetrica.

Data la forma bilineare simmetrica B su S, sia C la matrice di B rispetto a

una base ordinata di S costituita da x , ... , x .

1 p

Supponiamo poi di operare un cambiamento di base e che, rispetto a una

x , ... , x , la matrice C della forma

nuova base ordinata di S formata da 1 p

bilineare B sia diagonale, vale a dire sia c

C = diag( c , ... , ) .

p p

1 1

Si dice, in tal caso, che C è stata ridotta a forma canonica.

La stessa terminologia si usa nei riguardi della forma bilineare sim-

metrica B indotta da C; a sua volta, la base costituita dai vettori x , ... , x è

1 p

FORME BILINEARI E QUADRATICHE 169

detta base canonica di B.

Il problema della riduzione a forma canonica della matrice

O 1.

SSERVAZIONE

C della forma bilineare simmetrica B equivale, evidentemente, a quello di

z

trovare una matrice non singolare A tale che A'CA sia diagonale.

Nella dimostrazione del teorema seguente viene esposto un procedi-

mento di riduzione a forma canonica della matrice di una forma bilineare

simmetrica .

(1)

T 1

EOREMA

Sia B una forma bilineare simmetrica su uno spazio vettoriale S di ordine

n e dimensione p.

Sia, inoltre, C = c la matrice di B, rispetto a una base ordinata di S

k j (p , p )

formata da p vettori x , ... , x .

1 p

Se p = 1, allora ogni base di S è una base canonica di B.

Se p > 1, supposto che i primi p− 1 determinanti della sequenza

c c

1 1 1 p

∆ ∆

(1) ( p )

( ) ( )

= det c = det C , ... , = det = det C

1 1 1 p c c

p 1 p p

siano tutti diversi da zero, è allora possibile individuare una base ordinata di

S rispetto alla quale la matrice di B è (∆ = 1)

0

∆ ∆ ∆

( )

C = diag /∆ , /∆ , ... , /∆ .

1 0 2 1 p p -1

Dim. Se p = 1, la conclusione del teorema è evidente. Se p > 1, conside-

riamo i p vettori

(1)

c 1 1

x = x = x

1 1 1

0

(1) L'argomento sarà ripreso nel capitolo successivo.

170 Cap. VI

(2) (2) (2)

c c c

12 1 2 2 2

x = x + x = x + x

∆ ∆ ∆

2 1 2 1 2

1 1 1

........................................................................................................................

(p) (p) (p) (p) (p)

c c c c c

1 p (p -1) p 1 p (p -1) p p p

x = x + ... + x + x = x + ... + x + x

∆ ∆ ∆ ∆ ∆

p 1 p -1 p 1 p -1 p

p -1 p -1 p -1 p -1 p -1

(1) ( u )

dove c = 1 e c (u = 2, ... , p ; h,s = 1, ... , u) indica il cofattore dell'elemen-

h s

1 1 ( u )

to c in C .

h s

Tenuto conto dello sviluppo di un determinante secondo gli elementi di

una riga e del fatto che la somma dei prodotti degli elementi di una riga per i

cofattori di una riga diversa vale zero, si può verificare che (k,j = 1, ... , p)

B( x , x ) = 0 se k≠ j , B( x , x ) = /∆ se k= j

k j k j j j -1 x , ... , x di cui

e quindi, rispetto alla base ordinata di S costituita dai vettori 1 p

sopra, la matrice C della forma bilineare simmetrica B assume la forma

diagonale indicata nell'enunciato del teorema.

La possibilità di ridurre a forma canonica una determinata

O 2.

SSERVAZIONE

forma bilineare simmetrica B attraverso il procedimento qui sopra esposto

(2)

dipende criticamente, oltreché da B, dalla base ordinata iniziale di S . Si

noti inoltre che, mutando la base ordinata di partenza, si giunge a una

diversa forma canonica di B.

La matrice del passaggio da una base ordinata formata da

O 3.

SSERVAZIONE

, ... , x alla base canonica ordinata definita nella dimostrazione del Teo-

x 1 p

rema 1 e costituita da x , ... , x è

1 p

∆ ∆ ∆

(1) (2) /

(p)

c / c / c

1 1 1 2

0 1 p -1

1 p ∆

/

(2) (p)

0 c /∆ c .

A = p -1

2 2 1 2 p ∆

/

(p)

c

0 0 p -1

p p

(2) Si veda, al riguardo, il punto 1 dei Complementi a questo capitolo.

FORME BILINEARI E QUADRATICHE 171

Ovviamente, A è non singolare, come si verifica facilmente in conside-

razione del fatto che il suo determinante è dato dal prodotto degli elementi

situati sulla diagonale principale e che questi sono tutti eguali a 1.

3

Si consideri la forma bilineare simmetrica B su R la cui matrice,

E 5.

SEMPIO

rispetto alla base ordinata formata da

1 0 0

= = =

u , u , u

0 1 0

1 2 3

0 0 1

è 2 3/2 2 .

C = 3/2 1 0

2 0 1

Come si può facilmente verificare poiché

∆ ≠ ∆ − ≠ ∆ − ≠

= 2 0 , = 1/4 0 , = 17/4 0

1 2 3

− i vettori −3/4

1 8

−12

x = , x = , x =

0 1

1 2 3

0 0 1

formano una base canonica di B e, rispetto a tale base, risulta

2 0 0

−1/8

C = .

0 0

0 0 17

3.2 Data la forma bilineare simmetrica B su S, si consideri la funzione Q

che associa, a ogni x∈S, il numero reale Q(x) = B(x ,x).

Si dice, in tal caso, che Q è la forma quadratica su S determinata da (o

associata a) B.

Sia, adesso, X = x x la matrice i cui vettori colonna formano una

1 p

172 Cap. VI

base ordinata di S; siano, inoltre, x = Xa e y = Xb due generici vettori ap-

partenenti a S.

Poiché il valore assunto dalla forma bilineare simmetrica B, in corri-

∈S ×

spondenza di ogni (x ,y) S, è dato da

(1'') B(x ,y) = a Cb

'

dove C è la matrice simmetrica di ordine (p,p) rappresentativa di B rispetto

alla suddetta base ordinata di S, il valore assunto dalla forma quadratica Q

determinata da B, in corrispondenza del vettore x∈S, è dato da

(4) Q(x) = a Ca .

'

In altri termini, rispetto a una stessa base ordinata di S, sia la forma

bilineare simmetrica B sia la forma quadratica Q a essa associata sono

rappresentate dalla medesima matrice simmetrica C.

Reciprocamente, siano X = x x la matrice i cui vettori colonna

1 p

formano una base ordinata di S e C una matrice simmetrica di ordine (p,p).

Poiché alla matrice C è possibile associare, mediante la (1''), la forma

bilineare simmetrica B, alla stessa matrice C risulta associata, mediante la

(4), la forma quadratica Q determinata da B.

Possiamo quindi concludere che esiste una corrispondenza biunivoca tra

l'insieme delle forme bilineari simmetriche e l'insieme delle forme qua-

dratiche a esse associate, da un lato, e l'insieme delle matrici che le rappre-

sentano in una data base ordinata di S, dall'altro.

3.3 Data una forma bilineare simmetrica B su S, sia Q la forma quadratica a

essa associata.

Si dice che Q è definita positiva (definita negativa) se, per ogni x∈S

diverso dal vettore nullo, risulta Q(x) > 0 (Q(x) < 0).

Si dice poi che Q è semidefinita positiva (semidefinita negativa) o anche

≥ ≤

definita non negativa (definita non positiva) se Q(x) 0 (Q(x) 0) per

ogni x∈S e Q(x) = 0 per qualche x≠ 0.

Si dice infine che Q è indefinita se essa assume su S sia valori positivi

FORME BILINEARI E QUADRATICHE 173

sia valori negativi.

La stessa terminologia viene correntemente impiegata nei riguardi della

matrice (simmetrica) C associata, nella base ordinata prescelta di S, alla

forma quadratica Q.

3.4 Il concetto di forma quadratica definita positiva gioca un ruolo impor-

tante in molte questioni di algebra lineare.

Tra l'altro, come vedremo nel capitolo successivo, una forma bilineare

simmetrica tale che la forma quadratica a essa associata sia definita posi-

tiva è alla base della definizione di spazio euclideo.

Il teorema seguente fornisce un criterio – basato sullo studio della

matrice C associata, in una data base ordinata di S, alla forma quadratica Q

determinata da una forma bilineare simmetrica B – per riconoscere quando Q

è definita positiva .

(3)

T 2

EOREMA

Siano B una forma bilineare simmetrica su uno spazio vettoriale S di

ordine n e dimensione p e Q la forma quadratica a essa associata.

Sia inoltre C la matrice di B e quindi di Q, rispetto a una base ordinata di

S formata da p vettori x , ... , x .

1 p

Condizione necessaria e sufficiente affinché Q sia definita positiva è che i

p determinanti c c

1 1 1 p

∆ ∆

(1) ( p )

( ) ( )

= det c = det C , ... , = det = det C

1 1 1 p c c

p 1 p p

siano tutti positivi.

Dim. Supposto che Q sia definita positiva, vogliamo anzitutto dimostrare

(3) L'argomento sarà ripreso nel capitolo successivo.

174 Cap. VI

che non può essere (j = 1, ... , p)

c c B(x , x ) B(x , x )

1 1 1 j 1 1 1 j

∆ (j )

( )

= det

= det = det C = 0 .

j c c B(x , x ) B(x , x )

j 1 j j j 1 j j

∆ (j )

Infatti, se fosse = 0, i vettori riga che compongono la matrice C sa-

j

rebbero linearmente dipendenti (Cfr. quanto detto al punto 1 dei Comple-

menti al Cap. IV).

Esisterebbero, pertanto, j numeri reali c , ... , c non tutti nulli tali che

1 j

j j

∑ ∑

c B(x ,x ) B(x ,x ) = B(c x ,x ) B(c x ,x )

k k 1 k j k k 1 k k j

k =1 k =1

j j

∑ ∑

= B(c x ,x ) B(c x ,x ) = 0

k k 1 k k j (1 , j )

k =1 k =1

ovvero che (h = 1, ... , j) j

( )

B c x ,x = 0 .

k k h

k =1

Ma, moltiplicando ambo i membri di quest'ultima relazione per c e

h

sommando rispetto all'indice h, otterremmo

j j j j

∑ ∑ ∑

( )

( )

c B c x ,x = B c x , c x = B(x,x) = Q(x) = 0

h k k h k k h h

h =1 k = 1 k = 1 h = 1

dove x è diverso dal vettore nullo, in contrasto con l'ipotesi che Q sia

definita positiva. ∆ ∆ ∆

Avendo dimostrato che , ,... , sono tutti diversi da zero, esiste

1 2 p

una base ordinata di B, e quindi di Q, costituita dai vettori x , ... , x definiti

1 p

nella dimostrazione del Teorema 1, rispetto alla quale è

p

∑ j 2

(5) Q(x) = a .

∆ j

j = 1 j -1

D'altra parte, poiché Q è definita positiva, dall'espressione ora scritta

∆ = 1)

segue che (j = 1, ... , p; 0

FORME BILINEARI E QUADRATICHE 175

∆ j > 0

∆ j -1

∆ ∆ ∆

e, quindi, che , ,... , sono tutti positivi.

1 2 p ∆ ∆ ∆

Viceversa, supposto che , ,... , siano tutti positivi, il Teorema 1

1 2 p

assicura che esiste una base ordinata di S rispetto alla quale, per ogni x∈S,

vale la (5); pertanto, Q è definita positiva. 3

Si consideri la forma bilineare simmetrica B su R la cui matrice,

E 6.

SEMPIO 3

rispetto alla base ordinata di R formata da

1 0 0

u = = =

, u , u

0 1 0

1 2 3

0 0 1

è −2

7 0

−2 −2 .

C = 6

−2

0 5

Poiché risulta ∆ ∆

∆ = 7 > 0 , = 38 > 0 , = 162 > 0

1 2 3

la forma quadratica Q associata a B è definita positiva.

In effetti, rispetto alla base canonica ordinata di B costituita da

1 2/7 2/19

x = x = x =

, ,

0 1 7/19

1 2 3

0 0 1

la matrice di B e di Q è 7 0 0

C = 0 38/7 0

0 0 162/38

e questa è chiaramente definita positiva.

176 Cap. VI

Nella formulazione del teorema precedente, i determinanti

O 4.

SSERVAZIONE

∆ ∆

∆ , ,... , , ... , x

dipendono dall'ordinamento dei vettori x che formano

1 2 p 1 p

una data base ordinata iniziale di S.

Per contro, il fatto che la forma quadratica Q sia definita positiva è del

tutto indipendente da tale ordinamento.

Ciò significa che, permutando i vettori che compongono la base ordinata

∆ ∆ ∆

, , ... , , che si vengono a defi-

prescelta di S, i determinanti, diciamo 1 2 p

nire, benché diversi dai precedenti, sono ancora tutti positivi.

Consideriamo, per esempio, la forma quadratica Q su S la cui matrice,

rispetto a una base ordinata formata da x , x , è

1 2

c c

1 1 1 2

C = .

c c

21 22

Supposto che Q sia definita positiva, risulta c c

∆ ∆ 1 1 1 2

= det c = c > 0 , = det > 0 .

c c

1 1 1 1 1 2 21 22

Analogamente, rispetto a una base ordinata di S formata da x ,x , deve

2 1

essere c c

∆ ∆ 2 2 2 1

= det c = c > 0 , = det > 0 .

c c

1 2 2 2 2 2 12 11

Da quanto precede, si desume in particolare che gli elementi che

compaiono sulla diagonale principale della matrice rappresentativa di Q,

rispetto a una qualsiasi base ordinata di S, sono tutti positivi .

(4)

3.5 A conclusione di questo paragrafo vogliamo dimostrare i seguenti

teoremi, ampiamente utilizzati sia a livello teorico sia in numerose appli-

cazioni.

(4) Chiaramente, questa è una condizione necessaria ma non sufficiente affinché una forma quadra-

tica Q sia definita positiva.

FORME BILINEARI E QUADRATICHE 177

T 3

EOREMA

Sia B una forma bilineare simmetrica su uno spazio vettoriale S di ordine

n e dimensione p tale che la forma quadratica a essa associata sia definita

positiva.

Dati t vettori y , ... , y appartenenti a S e considerata la matrice (d i

1 t

Gram) B(y , y ) B(y , y )

1 1 1 t

V = B(y , y ) B(y , y )

t 1 t t

è det(V ) = 0 se e soltanto se y , ... , y sono linearmente dipendenti; altri-

1 t

menti, risulta det(V ) > 0.

Dim. Supposto che i t vettori y , ... , y siano linearmente dipendenti, esisto-

1 t

no t numeri reali c , ... , c non tutti nulli tali che

1 t t

∑ c y = 0 .

s s

s=1

Ne consegue che (h = 1, ... , t )

t

( ) ( )

c y , y = B 0 , y = 0

B s s h h

s=1

ovvero che t

∑ ( )

c B y , y = 0 .

s s h

s=1

Ma, quest'ultima relazione implica, come facilmente si verifica, che le

righe della matrice V siano linearmente dipendenti, per cui det(V ) = 0.

Reciprocamente, supposto che sia det(V ) = 0, le righe della matrice V

sono linearmente dipendenti.

Ciò significa che esistono t numeri reali c , ... , c non tutti nulli tali che

1 t

t t

∑ ∑

c =

( ) ( ) ( ) ( )

B y , y B y , y B c y , y B c y , y

s s 1 s t s s 1 s s t

s=1 s =1

178 Cap. VI

t t

∑ ∑

= = 0

( ) ( )

c B y , y c B y , y (1 , t )

s s 1 s s t

s=1 s=1

ovvero che (h = 1, ... , t ) t

( )

c y , y = 0 .

B s s h

s=1

Ma, moltiplicando ambo i membri di quest'ultima relazione per c e

h

sommando rispetto all'indice h, si ottiene

t t t t

∑ ∑ ∑ ∑

( ) ( )

c B c y , y = B c y , c y = 0 .

h s s h s s h h

h =1 s=1 s=1 h =1

D'altra parte, essendo Q definita positiva, questa relazione è soddisfatta

se e soltanto se t

∑ y = 0

c s s

s=1

ovvero se e soltanto se y , ... , y sono linearmente dipendenti.

1 t

Infine, supposto che y , ... , y siano linearmente indipendenti, questi pos-

1 t

sono essere considerati come parte di una base di S e quindi, per il Teorema

2, si ha che det(V) > 0.

T 4

EOREMA

Siano B una forma bilineare simmetrica su uno spazio vettoriale S di

ordine n e dimensione p e C la matrice della forma quadratica Q a essa

associata in una base ordinata di S formata dai vettori colonna di una

matrice X = x x .

1 p

Supposto Q definita positiva e considerata la matrice B di ordine (p,t ),

allora

(a) se r(B) = t, B'CB è definita positiva;

(b) se r(B) < t, B'CB è semidefinita positiva.

FORME BILINEARI E QUADRATICHE 179

Dim. Se r(B) = t, per ogni a di ordine t diverso dal vettore nullo risulta Ba

0, cosicché a B'CBa = (B a)'C(B a) > 0

'

è definita positiva.

e, quindi, B'CB

Se r(B) < t, esiste qualche a di ordine t diverso dal vettore nullo tale che

Ba = 0 e per il quale a B'CBa = (B a)'C(B a) = 0

'

e, quindi, B'CB è semidefinita positiva.

Dal teorema precedente risulta che, se B è invertibile,

O 5.

SSERVAZIONE

B'CB è definita positiva. -1

In particolare, è definita positiva la matrice B'CB = C , ottenuta ponendo

-1 .

B = C Si noti che, posto

O 6.

SSERVAZIONE y y x x

Y = = b b = XB ,

1 p 1 p 1 p

y , ... , y , può essere scrit-

la matrice di Gram costruita a partire dai t vettori 1 t

ta nella forma (Cfr. il Teorema 3) V = B'CB

e, quindi, V è definita positiva o semidefinita positiva a seconda che

y , ... , y siano linearmente indipendenti o dipendenti.

1 t

180 Cap. VI

Cap. VI

COMPLEMENTI

1 3

Si consideri la forma bilineare simmetrica B su R la cui matrice, rispetto

3

alla base ordinata di R formata da

1 0 0

= = =

u , u , u

0 1 0

1 2 3

0 0 1

è −1

1 1

−1 .

C = 1 2

1 2 1

Poiché ∆ ∆ −

∆ = 1 , = 0 , = 9

1 2 3

il metodo di riduzione a forma canonica di cui al Teorema 1 non può essere

applicato. 3

Viceversa, rispetto alla base ordinata di R costituita da

0 0 1

= = =

x , x , x

0 1 0

1 2 3

1 0 0

la matrice di B risulta

COMPLEMENTI 181

1 2 1

−1

C = 2 1

1 −1

1 1

e, essendo ∆ ∆ −3 ∆ −

= 1 , = , = 9 ,

1 2 3

è possibile ottenere, mediante il procedimento di cui al Teorema 1, una base

canonica ordinata di B formata dai vettori

0 0 1

−1

x = x = x =

, ,

0 1

1 2 3

−2

1 1

rispetto alla quale si ha −3

C = diag(1 , , 3) .

2 Si consideri la forma bilineare simmetrica B sullo spazio vettoriale S di

ordine n e dimensione p la cui matrice, rispetto a una base ordinata di S

-1

, ... , x , è C .

costituita da p vettori x 1 p

Posto C a

H = a 1

'

dove a è un vettore di ordine p e tenuto conto di quanto detto al punto 5 dei

Complementi al Cap. III, si ha

C a − −

= det(1)det(C a a ) = det(C a a ') ,

detH = det '

a 1

'

C a − -1 a) .

= det(C) det(1 a C

detH = det '

a 1

'

Pertanto, la forma quadratica Q determinata da B risulta definita ponen-

do, per ogni x∈S,

182 Cap. VI

det(C a a ')

-1

Q(x) = a C a = 1 .

' det(C)

3 Vogliamo adesso stabilire alcune regole di derivazione di funzioni di

vettori e matrici che risultano utili in molteplici applicazioni .

(1)

Sia f una funzione, a valori reali, degli elementi del vettore di ordine n

x 1 .

x = x n

La derivata (prima) di f rispetto a x è definita ponendo

∂f

∂x 1

∂f = .

∂x ∂f

∂x n

Analogamente, sia f una funzione, a valori reali, degli elementi della ma-

trice di ordine (n,p) x x

1 1 1 p

= = x x .

X 1 p

x x

n 1 n p

La derivata (prima) di f rispetto a X è definita ponendo

∂f ∂f

∂x ∂x

∂f ∂f ∂f

1 1 1 p

= = .

∂X ∂x ∂x

∂f ∂f 1 p

∂x ∂x

n 1 n p

(1) Per ulteriori approfondimenti si rinvia al volume di A. Graham citato in Bibliografia.

COMPLEMENTI 183

Ciò premesso e generalizzando opportunamente le definizioni ora date, è

possibile dimostrare quanto segue:

∂f

(1) f(x) = a x , = a

' ∂x

∂f = (C + C')x

(2) f(x) = x Cx ,

' ∂x

∂f = C'

(3) f(x) = Cx , ∂x ∂f = C'

(4) f(X) = tr(C X) = tr(X C) , ∂X

∂f = (C + C')X

(5) f(X) = tr(X 'CX) , ∂X

∂f = CXB + C'XB'

(6) f(X) = tr(X 'CXB) , ∂X ∂f -1

= 2CX(X'CX)

(7) f(X) = log(det(X 'CX)) con C = C', .

∂X


PAGINE

237

PESO

766.00 KB

AUTORE

Sara F

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Appunti di Matematica per le applicazioni II su algebra lineare. Nello specifico gli argomenti trattati sono i seguenti: gli spazi vettoriali, la generalità sui vettori, l'addizione e la moltiplicazione scalare, la sottrazione, le combinazioni lineari, la dipendenza e l'indipendenza lineare.


DETTAGLI
Corso di laurea: Corso di laurea in economia e commercio
SSD:
Università: Firenze - Unifi
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Sara F di informazioni apprese con la frequenza delle lezioni di Matematica per le Applicazioni II e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Firenze - Unifi o del prof Villanacci Antonio.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Matematica per le applicazioni ii

Matematica per le applicazioni II - Topologia prima parte
Appunto
Matematica per le applicazioni II - Topologia seconda parte
Appunto
Matematica per le applicazioni II - Topologia terza parte
Appunto
Matematica per le applicazioni II - Topologia quarta parte
Appunto