Che materia stai cercando?

Algebra lineare

Appunti ed esercitazioni di Algebra lineare. Nello specifico gli argomenti trattati sono i seguenti:

1. Combinazioni lineari di vettori
2. Sottospazi vettoriali
3. Sottospazio vettoriale generato da un insieme di vettori
4. Insiemi di generatori di uno spazio vettoriale
5. Insiemi di vettori linearmente indipendenti
6.... Vedi di più

Esame di Algebra lineare docente Prof. P. Cellini

Anteprima

ESTRATTO DOCUMENTO

6

definito il prodotto di A per ciascuna delle colonne di B. In effetti vale il fatto

seguente.

Proposizione 1. Le colonne di AB sono i prodotti di A per le colonne di B.

Precisamente, la i-esima colonna di AB è il prodotto di A per la i-esima colonna

di B (i = 1, . . . , k).

In particolare, le colonne di AB sono combinazioni lineari delle colonne di A.

Esempio.  

−3 0

1 2 3 −2

A = , B = 1 .

 

4 5 6 −2

7

×

Allora AB è la matrice 2 2 le cui colonne sono ordinatamente

1 2 3 1 2 3

−3 − −

2 +7 , e 0 +1 2 .

4 5 6 4 5 6

[Se non vi è chiaro, verificatelo facendo esplicitamente i conti.]

Nella prossima proposizione sono enunciate, senza dimostrazione, alcune pro-

prietà aritmetiche del prodotto di matrici. Gli studenti sono esortati a dimostrarne

almeno una per esercizio: le dimostrazioni consistono in una verifica diretta utiliz-

zando la definizione o la formula del prodotto.

Proposizione 2. Valgono le proprietà distributive:

× ×

A(B + C) = AB + AC (A n m, B e C m k),

× ×

(A + B)C = AC + BC (A e B n m, C m k).

Vale inoltre la proprietà: × ×

λ(AB) = (λA)B = A(λB) (A n m, B m k, λ scalare).

Più avanti vedremo che vale anche la proprietà associativa. 7

3. Trasposta di una matrice.

La definizione che segue è un po’ informale. Due definizioni formali sono con-

tenute nelle successive Osservazioni 1 e 2.

×

Definizione. Sia A una matrice reale n m. La trasposta di A, che si denota con

t ×

A, è la matrice m n che ha come colonne le righe di A (e come righe le colonne

di A).  

1 4

1 2 3 t

Esempio. Se A = , allora A = 2 5 .

 

4 5 6 3 6

Osservazioni immediate. t

1. Se A = (a ), allora il termine di posto (i, j) di A è a .

ij ji

m t

×

2. Se a = (a . . . a ) è un vettore riga in (quindi una matrice 1 m), allora a

R

1 m a

 

1

.

..

è il vettore colonna . Se A , . . . , A sono le righe di A, allora le colonne di

1 n

 

a

m

t t t 1 m

A sono A , . . . , A . Analogamente, se A , . . . , A sono le colonne di A, allora le

1 n

1 m

t t t

righe di A sono A , . . . , A .

t t

3. Per ogni matrice A si ha ( A) = A.

Proposizione: trasposta di un prodotto di matrici. Siano A e B due matrici

t t t

× ×

reali n m e m k, rispettivamente. Allora (AB) = B A.

Dimostrazione. Supponiamo prima che A abbia una sola riga e B una sola

b

 

1

. t

.. . Allora AB è uno scalare, quindi (AB) =

colonna, A = (a . . . a ) e B =

1 m  

b m

t t

AB, e la tesi equivale a AB = B A. Questo è immediato, infatti

b a

  

 1

1 .

.

.. ..

· · · .

(a . . . a ) = a b + + a b = (b . . . b )

1 1 n n 1 m

1 m 

  

b a

m

m

Torniamo al caso generale e indichiamo come al solito con A , . . . , A le righe di A

1 n

1 k t

e con B , . . . , B le colonne di B. Confrontiamo gli elementi di (AB) con quelli di

t t t

B A. Per l’Osservazione 1, l’elemento di posizione (i, j) di (AB) è uguale al termine

i

di posizione (j, i) di AB, quindi è uguale a A B . Per l’Osservazione 2, il termine

j

8 t t t i t

di posizione (i, j) di B A è (B ) (A ). Per la prima parte della dimostrazione

j

i t i t t t t

A B = (B ) (A ), quindi otteniamo che (AB) = B A.

j j

Problema. Utilizzando la Proposizione precedente e la Proposizione 1 della sezione

2, dimostrare che le righe di AB sono combinazioni lineari delle righe di B.

4. Matrice di un sistema lineare

Consideriamo un sistema di n equazioni lineari a coefficienti reali in m incognite

x , . . . , x :

1 m · · ·

a x + + a x = b

 11 1 1m m 1

.. .. ..

 .. .. ..

. . ..

. .

 · · ·

a x + + a x = b

n1 1 nm m n

La matrice A = (a ) si chiama la matrice dei coefficienti del sistema; il vettore

ij

b 

 1

.

.. si chiama la colonna dei termini noti del sistema; la matrice (A|b),

b = 

 b n

ottenuta aggiungendo ad A la colonna b, si chiama la matrice completa del sistema;

x 

 1

.

..

il vettore x si chiama il vettore delle incognite del sistema.

= 

 x

m

Se ricordiamo la regola di moltiplicazione tra matrici, vediamo subito che i ter-

mini a sinistra delle equazioni del sistema sono le componenti del vettore Ax. Quindi

il sistema dato equivale all’equazione, nell’incognita x,

Ax = b.

Tutti i sistemi che tratteremo saranno di equazioni lineari a coefficienti reali,

anche se non lo diremo esplicitamente.

Esempio. Consideriamo il sistema di tre equazioni nelle quattro incognite x, y, z, t:

 −

2x z + 3t = 1

 − −

x + 4y z t = 2

−x + y + 5t = 0

 9

Allora x 

     

−1 −1 |

2 0 3 1 2 0 4 1

y

−1 −1 −1 −1 |

1 4 , 2

, , 1 4 2

 

     

z

 

−1 −1 |

1 0 5 0 1 0 5 0

t

sono rispettivamente la matrice dei coefficienti, il vettore delle incognite, la colonna

dei termini noti, la matrice completa del sistema. Il sistema dato equivale all’equa-

zione x

 

   

−1

2 0 3 1

y

−1 −1

1 4 = 2 ,

 

   

z

 

−1 0

1 0 5 t

t

dove l’incognita è il vettore (x, y, z, t).

Dalla Proprietà del prodotto matrice per vettore enunciata nell Sezione 2 dedu-

ciamo immediatamente la seguente Osservazione basilare.

= b ha soluzioni se e solo se il vettore b è

Osservazione. Il sistema lineare Ax

combinazione lineare delle colonne di A.

5. Risoluzione di un sistema lineare: l’eliminazione di Gauss

Risolvere un sistema lineare a coefficienti reali

Ax = b m

di n equazioni in m incognite, vuol dire trovare tutti i vettori v in tali che

R

Av = b.

Se non esistono soluzioni, diciamo che il sistema non è risolubile.

Consideriamo tre esempi. −

x + y 3z = 1

 (1)

− y + z = 0

 2z = 1

10 −

2x + y 3z =1

 −

 y + z =0

 (2)

2z =1

 0 =2

x + x + x 3x + x = 2

1 2 3 4 5

 − −1

x + x + 2x = (3)

3 4 5

 −

 2x 4x = 2

4 5

È del tutto evidente che il sistema (1) è risolubile ed ha un’unica soluzione: basta

risolverlo per sostituzione “dal basso”, cioè: deduciamo il valore di z dalla terza

equazione; lo sostituiamo nella seconda e calcoliamo il valore di y; sostituiamo i

valori di z e y nella prima equazione e calcoliamo quello di x. L’unica soluzione del

   

x 2

sistema è y = 1/2

   

z 1/2

È anche del tutto evidente che il secondo sistema è privo di soluzioni, perché la

quarta equazione non è soddisfatta da nessuna attribuzione di valori reali a x, y, z.

Studiamo il terzo sistema. Vogliamo mostrare che questo è risolubile ed ha

infinite soluzioni. In primo luogo trasformiamolo portando le incognite x e x sul

2 5

lato destro delle equazioni: − − −

x + x 3x = 2 x x

1 3 4 2 5

 0

− −1 −

x + x = 2x (3 )

3 4 5

 2x = 2 + 4x

4 5

A sinistra del segno di uguaglianza ora abbiamo le stesse espressioni del sistema (1),

a parte il nome diverso delle incognite. Allora, se attribuiamo a x e x due valori

2 5

reali arbitrari, possiamo dedurre come abbiamo fatto per il sistema (1) i valori di

0

x , x e x in modo da soddisfare le equazioni in (3 ). Precisamente, se a e b sono

4 3 1

due numeri reali qualunque, ponendo x = a e x = b otteniamo:

2 5

dalla terza equazione, x = 1 + 2b;

4

sostituendo nella seconda, x = 1 + 2b + (1 + 2b) = 2 + 4b;

3 − − − −

sostituendo nella prima, x = 2 a b + 3(1 + 2b) (2 + 4b) = 3 a + b.

1

Quindi otteniamo che

x = 3 a + b, x = a, x = 2 + 4b, x = 1 + 2b, x = b

1 2 3 4 5 11

è una soluzione del sistema (3); inoltre è l’unica soluzione con x = a e x = b.

2 5

Poiché a e b sono arbitrari, esistono infinite soluzioni, una per ogni scelta dei numeri

a e b. Questo si riassume nel modo seguente:

L’insieme delle soluzioni del sistema (3) è

3 a + b

 

  

 a 

 

  

| ∈ . (∗)

2 + 4b a, b

  R

 

1 + 2b 

  

 

 

b

I tre sistemi che abbiamo appena studiato hanno una forma particolare, la cosid-

detta forma a scala. La nozione di sistema a scala può essere precisata in termini

della matrice completa del sistema. ×

Definizione: matrici a scala. Sia M una matrice non nulla n m. M si dice a

scala se:

(1) se M ha delle righe nulle, queste seguono (nell’ordine dall’alto verso il basso) le

righe non nulle; ≤ ≤

(2) se M , . . . , M (1 k n) sono le righe non nulle di M e, p (i = 1, . . . , k) è il

1 k i

primo elemento diverso da 0 della riga M , allora p si trova strettamenente più

i i+1

a destra di p , per i = 1, . . . , k 1.

i

Se M è a scala gli elementi p , . . . , p si chiamano i pivot di M .

1 k

Esempio 1. 1 0 1

 

 

3 1 1 1

0 3 (non a scala)

0 0 2 (a scala)  

  0 2 2 

0 0 0 0 0 5

La prima delle due matrici scritte sopra è a scala e i suoi pivot sono gli elementi

sottolineati. Invece la seconda matrice non è scala, perché non soddisfa la con-

dizione (2) della definizione. Infatti, nelle notazioni della condizione (2), p è il 3

2

sottolineato e p è il 2 sottolineato, quindi p non si trova strettamente più a destra

3 3

di p .

2

Definizione: sistemi a scala. Un sistema si dice a scala se la sua matrice

completa è a scala.

12 Per un sistema a scala, come abbiamo sperimentato negli esempi, è immediato

vedere se esistono soluzioni e, se ne esistono, calcolarle.

La tecnica di risoluzione dei sistemi che descriveremo, l’eliminazione di Gauss,

consiste nel trasformare qualunque sistema dato in un sistema a scala che abbia lo

stesso insieme di soluzioni. Le operazioni che si fanno per ottenere questo risultato

sono del tipo: (1) scambiare di posizione due equazioni; (2) cambiare una certa

equazione sommandole un multiplo di un’altra equazione. Le operazione di tipo (2)

si usano per eliminare un’incognita dall’equazione su cui operiamo.

Facciamo un esempio che chiarisca le parole in caratteri obliqui.

Esempio 2. Se ho il sistema di due equazioni

−2

2x + 2y + z = (L)

3x + y + z = 2

per eliminare la x dalla seconda equazione, sommo a questa, membro a a membro,

32

la prima equazione moltiplicata per :

3x + y + z = 2

3

−3x − −

3y z = 3

2

1

− −

2y z = 5

2

e ottengo il nuovo sistema −2

2x + 2y + z =

0

(L )

1

− −

2y z = 5

2

0

Il sistema (L ) è a scala. Se sapessi che ha le stesse soluzioni di (L), potrei lavorare

0

su (L ). Ora è chiaro che una terna di valori reali (a, b, c) per (x, y, z) che soddisfa

0

il sistema (L) soddisfa anche (L ), per come questo è costruito. Ma è vero anche il

0

viceversa, perché (L) si ottiene da (L ) facendo l’operazione inversa di quella fatta,

0

precisamente, la seconda equazione di (L) si ottiene dalla seconda equazione di (L )

3 della prima equazione. Quindi l’operazione descritta non

sommando a questa i 2

cambia le soluzioni.

Nota. Per evitare coefficienti frazionari avrei anche potuto prima moltiplicare la

seconda equazione per 2, e poi sottarre la prima equazione moltiplicata per 3. I

discorsi sulle soluzioni funzionerebbero allo stesso modo. 13

Definizione: Sistemi equivalenti. Due sistemi di equazioni lineari si dicono

equivalenti se hanno lo stesso insieme di soluzioni.

È chiaro che operazioni sulle equazioni di un sistema del tipo descritto nell’E-

sempio 2 si possono vedere come operazioni sulla matrice completa del sistema.

Riduzione a scala di una matrice: eliminazione di Gauss. L’algoritmo che

stiamo per descrivere serve a trasformare un’arbitraria matrice non nulla in una

matrice a scala. L’algoritmo è strutturato in modo che, se applicato alla matrice

completa di un sistema, la trasforma nella matrice completa di un sistema equiva-

lente. Le operazioni permesse sono:

(1) Scambiare di posizione due righe.

(2) Sommare ad una riga un multiplo di un’altra riga.

L’algoritmo procede in modo ricorsivo nel modo seguente:

(a) Se M è nulla o è già a scala, M resta invariata e la procedura termina.

(b) Altrimenti:

(1) Vediamo qual è la prima colonna non nulla di M : supponiamo sia la i-esima.

Scegliamo in modo arbitrario una riga R di M con l’i-esima componente

non nulla e, se non abbiamo scelto la prima riga, scambiamo di posto la

prima riga e la R scelta.

(2) Sia p il primo elemento non nullo di R (il pivot). L’elemento p sta sulla

prima riga e non ha elementi strettamente alla sua sinistra. Modifichiamo

le righe successive alla prima in modo da rendere nulli anche tutti i termini

che stanno sotto p (nella stessa colonna di p), nel modo seguente:

k-esima riga (1 < k): se x è il termine di posizione (k, i) (cioè (k-esima

ki

x

− ·

riga, stessa colonna di p)), sommiamo alla k-esima riga R.

ki

p

0 00

Ricorsione. Sia M la matrice ottenuta al termine del passo 2 e M la sottomatrice

0 0

di M costituita dalle righe successive alla prima. Lasciamo la prima riga di M

invariata ed eventualmente cambiamo le righe successive, applicando la procedura

00

che abbiamo appena descritto a M in luogo di M .

Esempio 3. Applichiamo la riduzione a scala alla matrice M scritta sotto.

14 1 0 1

1

1 1 0 1

  

 Non serve alcuno scambio di righe.

1

0 0 0 1 0 0 0 1

L’“ ”sottolineato è il pivot.  

 Le operazioni da fare sono: → −1 −1

M = 2 1 1 1 0 1

 

 −2·

III riga I riga

  

−1 −1

1 2 2 0 1 1

 

 IV riga I riga

V riga I riga

1 1 0 3 0 0 0 2

1 0 1

1

 

Si lavora sulle righe sotto la linea. −1

0 1 1

Dobbiamo scambiare la II riga o con E ora l’unica operazione

 

→ →

−1 −1

la III o con la IV: scegliamo la IV. 0 1

  da fare è:

  III riga + II riga

(la numerazione delle righe è riferita 0 0 0 1

 

alla matrice completa) 0 0 0 2

1 0 1 1 0 1

1

1 

 

 −1 −1

0 1 1 0 1 1 

 

 Qui scambiamo Infine:

→ →

→ 0 0 0 0 0 0 0 1

 

 −2·

V riga III riga

III e IV riga 

 

 0 0 0 0

0 0 0 1 

 

 0 0 0 2

0 0 0 2

1 1 0 1

 

−1 1

0 1 Abbiamo ottenuto la matrice a scala

→ 0 0 0 1 = S S

 . Gli elementi sottolineati sono i

  suoi pivot.

0 0 0 0 

 0 0 0 0

Nota. Il risultato finale dipende, ad ogni stadio dell’iterazione dell’algoritmo, da

come scegliamo la prima riga. Ad esempio, al passaggio dalla seconda alla terza

matrice, avremmo potuto scambiare la II riga con la III. Analogamente, all’inizio

del procedimento, avremmo potuto, come primo passo, scambiare la I riga con la

III, la IV o la V: l’unica riga che non va bene è la II, perché in corrispondenza della

seconda colonna ha uno 0.

È chiaro che un’operazione del tipo (1), cioè uno scambio di righe, sulla matrice

completa di un sistema corrisponde allo scambio di posizione di due equazioni e

perciò non cambia le soluzioni del sistema. Le operazioni del tipo (2) sono invece

analoghe a quella descritta nell’Esempio 2. Lo studente provi a generalizzare le

considerazioni fatte nell’Esempio 2 in modo da completare la dimostrazione del

risultato seguente. L L.

Proposizione 1. Sia un sistema lineare e sia M la matrice completa di Sia

0

L

poi S una matrice a scala ottenuta da M per eliminazione di Gauss e sia il

0

L L

sistema lineare di matrice completa S. Allora e sono equivalenti. 15

A questo punto scriviamo come si tratta in generale un sistema a scala. Enun-

ciamo i risultati principali.

Proposizione 2. Un sistema a scala è risolubile se e solo se la sua matrice com-

pleta non ha pivot nell’ultima colonna.

Proposizione 3. Un sistema a scala ha soluzione unica se e solo se la sua matrice

completa ha tanti pivot quante sono le incognite e tutti i pivot si trovano nella

matrice dei coefficienti.

L

Proposizione 4. Sia un sistema a scala e sia S la sua matrice completa. Sup-

poniamo che S non abbia pivot nella colonna dei termini noti e che i pivot siano

L

in numero inferiore al numero delle incognite. Allora ha infinite soluzioni.

La conclusione di questo paragrafo è dedicata alla dimostrazione delle tre propo-

sizioni precedenti. Cominciamo col dimostrare che:

se c’è un pivot nell’ultima colonna della matrice completa il sistema non

è risolubile.

Infatti se la matrice del sistema ha pivot p nell’ultima colonna, cioè nella colonna

6

dei termini noti, allora il sistema contiene l’equazione 0 = p e poiché p = 0, il sistema

non è risolubile. (Cfr. sistema (2) all’inizio del paragrafo.)

Quindi proviamo che:

se ci sono tanti pivot quante incognite, tutti nella parte dei coefficienti

della matrice completa, allora la soluzione esiste ed è unica.

Questo è il caso esemplificato dal sistema (1) all’inizio del paragrafo. L’ipotesi

equivale al fatto che il sistema è di tipo · · ·

a x + a x + + a x = b

 11 1 12 2 1n n 1

 · · ·

a x + + a x = b

 22 2 2n n 2

 ..

.. . .

 a x = b

nn n n

con gli a tutti diversi da zero. Il sistema si risolve per sostituzione dal basso,

ii

partendo dall’ ultima equazione: si trova x = b /a , si sostituisce questo valore

n n nn

a x nella penultima equazione e si determina x , si prosegue induttivamente

n n−1

fino a determinare x .

1

16 Per concludere ci basta provare che:

se non ci sono pivot nella colonna dei termini noti e i pivot sono meno

delle incognite, allora il sistema ha infinite soluzioni.

Questo è il caso esemplificato dal sistema (3) all’inizio del paragrafo. Come

primo passo separiamo le incognite corrispondenti alle colonne dei pivot da quelle

corrispondenti alle colonne senza pivot, cioè: in tutte le equazioni del sistema,

portiamo a destra dell’uguaglianza i termini con le incognite corrispondenti alle

colonne senza pivot.

Esempio:

 

− −

x x + 2x x + x = 1 x + 2x + x = 1 + x + x

1 2 3 4 5 1 3 5 2 4

 

− ⇔ − −

x + x x = 1 x x = 1 x

3 4 5 3 5 4

x = 1 x = 1

 

5 5

Ora osserviamo che se attribuiamo alle incognite che compaiono nei lati destri

delle equazioni dei valori reali arbitrari, otteniamo un sistema del tipo considerato

nella Proposizione 2, quindi un sistema con soluzione unica.

Esempio (seguito):   −

x + 2x + x = 1+ a + b x = a + 3b 4

1 3 5 1

x = a, x = b  

2 4 ⇒ − − ⇔ −

x x = 1 b x = 2 b

3 5 3

(a, b R) x = 1 x = 1

 

5 5

(l’ultimo passaggio si ottiene risolvendo il sistema per sostituzione dal basso).

Quindi il sistema ha infinite soluzioni, una per ogni scelta dei valori attribuiti

alle incognite che compaiono sul lato destro delle equazioni.

Esempio (seguito): Al variare di a e b in si ottengono infinite soluzioni; precisa-

R

mente l’insieme delle soluzioni è −

a + 3b 4

 

  

 a 

 

  

− ∈

2 b a, b .

  R

 

b

 

  

 

 

1 17

Terminologia. Nella descrizione delle soluzioni compaiono delle indeterminate o

parametri reali, o variabili libere (nell’esempio a e b), che corrispondono ai valori

delle incognite che non hanno un pivot come coefficiente (nell’esempio x e x ).

2 4

Le altre incognite sono univocamente determinate in funzione dei parametri. Il

generico vettore soluzione del sistema si chiama soluzione generale (nell’esempio

t − −

(a + 3b 4, a, 2 b, b, 1)). Fissando i parametri, cioè attribuendo ad essi

dei valori numerici, si ottiene una soluzione particolare del sistema (nell’esempio

t −

( 4, 0, 2, 0, 1) è la soluzione particolare ottenuta ponendo a = b = 0).

Nota. L’espressione della soluzione generale non è unica.

Esempio. Consideriamo il sistema di una sola equazione nelle due incognite x e y

x y = 2.

Il metodo di soluzione descritto in generale, in questo caso, si applica cosı̀:

scriviamo l’equazione come x = y + 2 e ponendo y = a troviamo la soluzione

a +2 ∈

generale (a R).

a −

Ma potremmo anche scrivere y = x 2 e ponendo x = a trovare la soluzione

a ∈

generale (a R).

a 2

E in effetti si verifica facilmente che

a +2 a

| ∈ | ∈

a = a ,

R R

a a 2

abbiamo scritto lo stesso insieme di soluzioni in due modi diversi.

Quello che non cambia è il numero dei parametri che occorrono nella soluzione

generale. 26-10-2006

Lezioni di Algebra Lineare. II Parte, paragrafi 6–9.

Contenuto

6. Gli spazi vettoriali associati a una matrice

7. Applicazioni

8. L’insieme delle soluzioni di un sistema lineare

9. Matrici quadrate, Matrici invertibili

18 6. Gli spazi vettoriali associati a una matrice

Definizione 1. Un sistema di equazioni lineari si dice omogeneo se la sua colonna

dei termini noti è nulla. Altrimenti si dice non omogeneo.

Proposizione 1. L’insieme delle soluzioni di un sistema lineare omogeneo in m

m

incognite è uno sottospazio vettoriale di .

R dove M , la matrice dei

Dimostrazione. Un sistema omogeneo è di tipo M x = 0,

×

coefficienti, è n m se m è il numero delle incognite (e n il numero delle equazioni).

m

Le soluzioni del sistema sono i v tali che M v = 0. Per dimostrare che l’insieme

R m

di queste soluzioni è un sottospazio vettoriale di utilizziamo le proprietà delle

R 0 m

operazioni tra matrici enunciate nella Proposizione 2 del Paragrafo 2. Se v, v R

0 0 0

sono soluzioni, allora M (v + v ) = M v + M v = 0 + 0 = 0, quindi anche v + v è

una soluzione. Inoltre, se λ allora M (λv) = λ(M v) = λ0 = 0, quindi anche

R,

λv è una soluzione.

Definizione 2. Spazio nullo, spazio delle colonne e spazio delle righe di

una matrice. Sia M una matrice reale n×m. A M associamo i tre spazi vettoriali

seguenti. m

N (M ) (spazio nullo di M ): il sottospazio vettoriale di costituito dall’insieme

R

delle soluzioni del sistema omogeneo M x = 0. n

C(M ) (spazio delle colonne di M ): il sottospazio vettoriale di generato dalle

R

colonne di M . m

R(M ) (spazio delle righe di M ): il sottospazio vettoriale di generato dalle

R

m

righe di M (qui vediamo come lo spazio dei vettori riga a m componenti reali).

R

Ricordando le proprietà del prodotto di una matrice per un vettore colonna

(pag. 5), otteniamo che: m

C(M {M | ∈ }.

) = v v R

× N N C C(M

Proposizione 2. Sia M una matrice n m, = (M ), = ). Allora

N − C,

dim = m dim

cioè: la dimensione dello spazio nullo è uguale al numero delle colonne meno la

dimensione dello spazio delle colonne. 19

N

Dimostrazione. Studiamo prima l’enunciato nei due casi limite: dim = 0 e

N N

dim = m (entrambi sono possibili, inoltre dim non può essere maggiore di m

m

N

perché è un sottospazio di .)

R

N {0},

Nel primo caso = quindi l’unica soluzione di M x = 0 è il vettore nullo

m

di . Questo vuol dire che l’unica combinazione lineare di colonne di M che è

R

uguale al vettore nullo è quella con tutti i coefficienti nulli, cioè che le colonne di

M sono linearmente indipendenti. Essendo per definizione un insieme di generatori

C, C C

di esse sono quindi una base di e perciò dim = m. m

m ∈

N per ogni v . Questo vuol dire

Nel secondo caso = , cioè M v = 0 R

R

che tutte le combinazioni lineari di colonne di M sono nulle e quindi che tutte le

C {0} C

colonne di M sono nulle. Perciò = e dim = 0. N

Ora supponiamo di non essere nei due casi limite, fissiamo una base B di e

N

|B | N

supponiamo = k, cosı̀ che dim = k. La tesi equivale a

N C −

dim = m k.

m

N è un sottospazio vettoriale di , quindi possiamo completare B a una base

R N

m −

B di , aggiungendo m k vettori linearmente indipendenti:

R

m ∪ {v }.

B = B , . . . , v

N

m 1 m−k

m N ⊕ }.

Per costruzione = Span{v , . . . , v Questo vuol dire che

R 1 m−k

N ∩ } {0},

Span{v , . . . , v =

1 m−k

n

e inoltre, ogni v è una somma di tipo

R · · ·

v = u + λ v + + λ v ,

1 1 m−k m−k

∈ N ∈

con u , λ Moltiplicando M per v e utilizzando le proprietà del prodotto

R.

i si ottiene

di matrici e il fatto che M u = 0,

· · · · · ·

v + + λ v ) = λ M v + + λ M v .

M v = M u + M (λ 1 1 m−k m−k 1 1 m−k m−k

m

C ∈

Poichè è l’insieme di tutti gli M v con v , abbiamo ottenuto che

R

} C.

{M , . . . , M v è un insieme di generatori di Per concludere ci basta di-

v

1 m−k

{M }

mostrare che v , . . . , M v è linearmente indipendente, cosı̀ avremo trovato

1 m−k

C −

una base di con m k elementi.

20 · ·+λ

L’insieme è linearmente indipendente, perchè se λ M v +· M v = 0,

1 1 m−k m−k

· · · · · · ∈ N

allora M (λ v + + λ v ) = 0, cioè λ v + + λ v . Come

1 1 m−k m−k 1 1 m−k m−k

· · ·

abbiamo osservato sopra, questo implica che λ v + + λ v = 0, e poiché

1 1 m−k m−k

sono linearmente indipendenti, che i λ sono tutti nulli.

i v

i i

Teorema e Definizione. Sia M una matrice reale. Vale l’uguaglianza

C(M R(M

dim ) = dim ).

La dimensione dello spazio delle colonne (e di quello delle righe) di M si chiama

rango di M e si denota con rk M .

Il teorema è chiaramente vero quando M è la matrice nulla, perciò per il resto di

questo paragrafo supporremo che M sia non nulla. Premettiamo alla dimostrazione

due osservazioni basilari. Prima di leggerle riguardate il Paragrafo 5, in particolare

l’algoritmo di riduzione a scala di una matrice e le operazioni (1) e (2) sulle righe,

che chiameremo operazioni elementari di riga.

Osservazioni.

0 0

R(M

1. Se M è ottenuta da M con operazioni elementari di riga, allora ) =

R(M ). 0

Questo è immediato perché le righe di M sono combinazioni lineari delle righe di

0

R(M ⊆ R(M

M , quindi ) ), ma anche le righe di M sono combinazioni lineari delle

0 0

R(M ⊆ R(M

righe di M , e quindi ) ). In particolare, se S è una matrice a scala

R(S) R(M

ottenuta da M mediante eliminazione di Gauss, allora = ).

0 0

N

2. Se M è ottenuta da M con operazioni elementari di riga, allora (M ) =

N (M ).

Anche questo è immediato perché le operazioni elementari di riga sulla matrice

non cambiano le soluzioni del sistema. In particolare, se

del sistema M x = 0

S è una matrice a scala ottenuta da M mediante eliminazione di Gauss, allora

N N

(S) = (M ).

3. Le operazioni elementari di riga in generale cambiano lo spazio delle colonne

di una matrice. Però vale il fatto seguente.

0

Se M è ottenuta da M con operazioni elementari di riga, allora le relazioni di

dipendenza lineare che sussistono tra le colonne di M sono esattamente le stesse

0 0

C(M C(M

che sussistono tra le colonne di M . Quindi dim ) = dim ). 21

Questo segue dal fatto che le operazioni elementari di riga non cambiano le soluzioni

del sistema omogeneo M x = 0 e dal fatto che le relazioni di dipendenza lineare tra le

colonne hanno per coefficienti esattamente le soluzioni non nulle di questo sistema.

L’asserzione precedente vale in particolare quando S è una matrice a scala ottenuta

da M mediante eliminazione di Gauss.

Dimostrazione del Teorema. Riduciamo M ad una matrice a scala S. Per le

osservazioni precedenti basta dimostrare che

C(S) R(S).

dim = dim

Dimostriamo i fatti seguenti: R(S).

(a) Le righe non nulle di S sono una base di

(b) Una colonna di S è combinazione lineare delle colonne che la precedono se e

solo non contiene un pivot. C(S).

(c) Le colonne di S che contengono i pivot sono una base di

Infatti:

(a) Siano S , . . . , S le righe non nulle di S. Per definizione S , . . . , S sono un

1 k 1 k

R(S),

insieme di generatori di quindi dobbiamo solo dimostrare che sono anche li-

· ·+λ

nearmente indipendenti. Siano λ , . . . , λ numeri reali tali che λ S +· S = 0

1 k 1 1 k k

e siano p , . . . , p i pivot di S. Se k = 1 l’asserto (a) è ovvio, quindi supponiamo

1 k

k > 1. Per ipotesi, la prima componente diversa da 0 di S è p . Consideriamo la

1 1

colonna di S che contiene p : questa ha p come prima componente e tutte le altre

1 1

componenti uguali a 0 ∗ ··· ∗

p

 

1 ∗ ··· ∗

0

 

S = .

.. ..

 

. .

 

0 ∗ ··· ∗

( λ p )+

· · ·

= λ S + + λ S =

Quindi: 0 1 1

1 1 k k ∗ ··· ∗

( 0 )+

.. ..

. .

( 0 )=

∗ ··· ∗

( λ p ).

1 1

6

Segue che λ p = 0 e, poiché p = 0, che λ = 0.

1 1 1 1 · · · ≤

Concludiamo per induzione: se sappiamo che λ = = λ = 0 (1 < i k),

1 i−1

· · · · · ·

allora λ S + + λ S = λ S + + λ S Ragionando come prima, troviamo che

1 1 k k i i k k

22 · · ·

λ S + + λ S ha come componente λ p , in corrispondenza della colonna di p ,

1 1 k k i i i

quindi λ = 0.

i 1 m 1 i

| · · · |S

(b) Siano S , . . . , S le colonne di S. Indichiamo con (S ) la matrice formata

dalle prime i colonne di S (1 i < m). Ricordiamo l’osservazione fatta alla fine

del paragrafo 4: il sistema di matrice completa (A|b) è risolubile se e solo se b

i

è combinazione lineare delle colonne di A. Perciò S è combinazione lineare di

1 i−1 1 i

| · · · |S

S , . . . , S se e solo se il sistema di matrice completa (S ) è risolubile.

Poiché questa matrice è a scala, questo succede se e solo se essa non ha pivot

nell’ultima colonna. Ma questo equivale a dire che S non ha pivot nella i-esima

colonna. C(S).

(c) Le colonne di S sono per definizione un insieme di generatori di Ri-

cordiamo il procedimento di estrazione di una base da un insieme di generatori

ordinato: basta scartare dall’insieme i vettori che sono combinazione lineare dei

precedenti. Perciò, per (b), scartando le colonne senza pivot otteniamo una base di

C(S).

Poiché le righe non nulle di una matrice a scala sono tante quanti i pivot, met-

tendo insieme (a) e (c) otteniamo che lo spazio delle righe e lo spazio delle colonne

di S (quindi di M ) hanno la stessa dimensione.

Ora la Proposizione 2 si può tradurre cosı̀:

Proposizione 2. Enunciato equivalente.

La dimensione dello spazio nullo è uguale al numero delle colonne meno il rango.

Altre osservazioni. Le Osservazioni 1 e 3 e i punti (a) e (c) della dimostrazione

precedente implicano che:

Se M è una matrice non nulla qualunque e S è una matrice a scala ottenuta da

M per eliminazione di Gauss, allora: R(M

costituiscono una base di ).

4. le righe non nulle di S

5. le colonne di M corrispondenti alle colonne di S che contengono i pivot costi-

C(M

tuiscono una base di ).

6. In particolare, per una matrice a scala il rango coincide con il numero delle righe

non nulle o, equivalentemente, dei pivot. Inoltre, per una matrice qualunque M il

23

rango si può calcolare riducendo M a scala e contando i pivot (o le righe non nulle)

della matrice ottenuta.

Esempio. Sia  

1 2 0 1

M = 1 1 1 1

 

−2

1 4 1

Mostriamo come:

(a) calcolare il rango di M e la dimensione dello spazio nullo di M ;

N C(M R(M

(b) determinare una base per ciascuno degli spazi (M ), ), ).

(a) Riduciamo M a una matrice a scala.

   

1 2 0 1 1 2 0 1

II7→ II−I III7→

III+2II

III7→ III−I

−−−−−−−→ −1 −−−−−−−−−→

M = 1 1 1 1 0 1 0

   

−2 −2

1 4 1 0 2 0

 

1 2 0 1

−1

0 1 0 = S.

 

0 0 0 0

Il rango di S è il numero delle righe non nulle di S e coincide con quello di M ,

quindi rk M = 2. La dimensione dello spazio nullo è uguale al numero delle colonne

N −

meno il rango, quindi dim (M ) = 4 2 = 2.

(b) Lo spazio delle righe di M coincide con quello di S e una sua base è data dalle

{(1 R(M

righe non nulle di S: 2 0 1), (0 1 1 0)} è una base di ).

Lo spazio delle colonne di M è diverso da quello di S, ma le relazioni lineari che

sussistono tra le colonne di M sono le stesse che sussistono tra le colonne di S. La

prima e la seconda colonna di S (le colonne dei pivot) costituiscono una base di

 

   

1 2

 

C(S), quindi l’insieme delle prime due colonne di M , 1 , 1 , è una base

   

1 4

 

C(M

di ). N = 0,

Per calcolare una base di (M ) risolviamo esplicitamente il sistema M x

= 0, che è equivalente. Risolviamo calcolando x e x in funzione di x e

anzi Sx 1 2 3

x e troviamo

4 −2x −

x = x

1 3 4

x = x

2 3

24

Ponendo x = a e x = b troviamo la soluzione generale

3 4

−2a − −2 −1

b 

    

a 1 0

, che è uguale a: a + b .

   

 

a 1 0

     

b 0 1

t t

N

Quindi (M ) = Span{ ( 2 1 1 0), ( 1 0 0 1)}. Sappiamo già che la dimensione

− −

N N

di (M ) è 2, quindi un insieme di generatori di (M ) con 2 elementi deve essere

anche una base (prima parte delle dispense, Paragrafo 7, Corollario 1). Segue che

t t

{ N

( 2 1 1 0), ( 1 0 0 1)} è una base di (M ).

− − 25

7. Applicazioni.

In questo paragrafo descriviamo delle tecniche di risoluzione di problemi basate

sulla teoria del Paragrafo 6. Prima di andare avanti nella lettura riguardate anche

i paragrafi 6 e 7 della prima parte di queste dispense, in particolare gli algoritmi

di estrazione di una base da un insieme di generatori e di completamento di un

insieme linearmente indipendente ad una base.

4

Problema 1. Dati i vettori di R

1 2 0 1

       

1 1 1 1

v = , v = , v = , v = ,

       

1 2 3 4

2 2 2 1

       

3 3 3 1

{v }

(a) stabilire se , v , v , v è linearmente dipendente o indipendente e se è un

1 2 3 4

4

insieme di generatori di ;

R },

(b) posto V = Span{v , v , v , v determinare una base e la dimensione dello

1 2 3 4

spazio vettoriale V ;

(c) determinare le coordinate di v , v , v e v rispetto alla base di V trovata.

1 2 3 4

Risoluzione. |v |v |v

(a) Sia M = (v ), la matrice che ha per colonne i vettori dati. Per stabilire

1 2 3 4

{v }

se l’insieme di vettori , v , v , v è linearmente indipendente o no, applichiamo

1 2 3 4

l’eliminazione di Gauss alla matrice M : 1 2 0 1

1 2 0 1   

 II7→ II−I III7→

III7→ III−2II

III−2I −1

1 1 1 1 0 1 0

7→ −3I 7→ −3II

IV IV IV IV

−−−−−−−−→

−−−−−−−−→

M = 

   −2 −1

0 2

2 2 2 1   

 −3 −2

3 3 3 1 0 3

1 2 0 1 1 2 0 1

  

 −1

−1 0 1 0

0 1 0 7→ −2III

IV IV

−−−−−−−−→ = S

  

−1 −1

0 0 0 0 0 0

   

−2 0 0 0 0

0 0 0

Per l’Osservazione 2 del Paragrafo 6, le relazioni che sussistono tra le colonne di

M sono le stesse che sussistono tra le colonne di S. La terza colonna di S è

combinazione lineare delle prime due, quindi anche v è combinazione lineare di v

3 1

{v }

e v . Segue che l’insieme , v , v , v è linearmente dipendente.

2 1 2 3 4

26 4

{v }

Dire che , . . . , v è un insieme di generatori di equivale a dire che lo

R

1 4 4 C(M

spazio delle colonne di M è . Ma dim ) = rk M = rk S = 3 (Teorema e

R 4

Osservazioni 4 e 5 del Paragrafo 6.) Segue che v , . . . , v non generano , perché

R

1 4

questo ha dimensione 4.

(b) V è lo spazio delle colonne di M , quindi abbiamo già visto che ha dimensione

3. Per ottenere una sua base basta prendere le colonne di M corrispondenti alle

{v }

colonne dei pivot di S: , v , v è una base di V .

1 2 4

(c) È ovvio che le coordinate di v , v , v rispetto alla base formata da essi stessi sono

1 2 4

t t t

rispettivamente (1 0 0), (0 1 0), (0 0 1). Per calcolare le coordinate di v utilizziamo

3

i calcoli del punto (a). Le relazioni di dipendenza lineare tra le colonne di M e quelle

tra le colonne di S sono le stesse. La terza colonna della matrice S è combinazione

lineare delle prime due colonne di S. Per trovare esplicitamente i coefficienti di

1 2 3

questa combinazione lineare bisogna risolvere il sistema xS + yS = S , di matrice

1 2 3 1 2 3

|S kS

completa (S ) (dove S , S , S sono le colonne di S), cioè:

x + 2y = 0

−y = 1 1 2 3

−1, −S −v

Questo ha soluzione (unica) y = x = 2, quindi 2S = S , e perciò 2v =

1 2

t

{v } −1,

v . Segue che le coordinate di v rispetto alla base , v , v sono (2, 0).

3 3 1 2 4

3

Problema 2. Dati i vettori di R

       

1 2 0 1

v = 1 , v = 1 , v = 1 , v = 1 ,

1 2 3 4

       

2 2 2 1

{v }

stabilire se , v , v , v è un insieme linearmente indipendente e se è un insieme

1 2 3 4

3 3

di generatori di . Se è un insieme di generatori, estrarre da esso una base di .

R R

3 3

Risoluzione. Poiché dim = 3, ogni insieme con più di tre vettori in è

R R

3

{v }

linearmente dipendente. L’insieme , . . . , v genera se e solo se la dimensione

R

1 4

}) }

di (Span{v , . . . , v è uguale a 3. Span{v , . . . , v è lo spazio delle colonne della

1 4 1 4

|v |v |v

matrice (v ), quindi la sua dimensione è il rango di questa matrice, che

1 2 3 4

possiamo calcolare facilmente riducendola a scala con l’eliminazione di Gauss: 

     1 2 0 1

1 2 0 1 1 2 0 1

II7→ II−I

III7→ III7→

III−2I III−2II

−−

−−−−−→ −1 −−−−−−−−→ −1

0 1 0 0 1 0

1 1 1 1     

 −1

−2 −1 0 0 0

2 2 2 1 0 2 27

{v }

La matrice a scala trovata ha rango 3, quindi , . . . , v è un insieme di generatori

1 4

3 3

{v }

di . Inoltre, dalla posizione dei pivot vediamo che , v , v è una base di .

R R

1 2 4

4

Problema 3. Dati i vettori di R 2

2

1  

  0

1

1 ,

=

, v

, v =

v =  

 

  3

2

1 0

2

2  

 

  1

3

3

{v }

verificare che , v , v è linearmente indipendente e completarlo ad una base di

1 2 3

4 .

R

Risoluzione. Per verificare che l’insieme è linearmente indipendente basta verifi-

|v |v ), o la sua trasposta, ha rango 3 [qui usiamo il fatto

care che la matrice (v

1 2 3

che un insieme di n generatori di uno spazio vettoriale di dimensione n è una base,

quindi è linearmente indipendente (Prima parte delle dispense, Paragrafo 7, Corol-

lario 1)]. Lavoriamo sulla matrice trasposta, perché questo ci permette di rispondere

rapidamente anche alla seconda richiesta del problema.

   

1 1 2 3 1 1 2 3

II7→ II−2I

III7→ III7→

III−2I III−II

−−−−−−−→ −1 −2 −3 −−−−−−−→

2 1 2 3 0

   

−1 −2 −4

2 0 0 2 0

 

1 1 2 3

−1 −2 −3

0

 

−1

0 0 0 t t t }.

Le righe della matrice a scala ottenuta costituiscono una base di Span{ v , v , v

1 2 3

Aggiungendo a queste tre righe (0 0 1 0) si ottiene ancora un insieme linearmente

1 1 2 3 

 −1 −2 −3

0 ha chiaramente rango 4. Questo implica

indipendente, perché 

 0 0 1 0 

 −1

0 0 0

(ricordate la formula di Grassman e la sua dimostrazione) che lo spazio somma di

t 4

} }

Span{v , v , v e Span{e (dove e = (0 0 1 0)) è , mentre lo spazio intersezione

R

1 2 3 3 3

{0}.

è Segue che l’unione di una base qualunque del primo sottospazio e di una base

4 {v }

qualunque del secondo sottospazio è una base di . In particolare , v , v , e

R 1 2 3 3

4

è una base di .

R

Un metodo di risoluzione alternativo a quello appena usato consiste nell’algo-

ritmo descritto nel Paragrafo 6 della prima parte di queste dispense. [I calcoli

28

risultano più pesanti se fatti “a mano”.] Si applica l’eliminazione di Gauss alla

|v |v |e |e |e |e

matrice (v ). Le colonne di questa matrice sono un insieme di

1 2 3 1 2 3 4

4

generatori di , quindi la matrice ha rango 4. Poiché le prime tre colonne sono

R

linearmente indipendenti, la matrice a scala che si ottiene avrà necessariamente tre

pivot nelle prime tre colonne e uno in una delle colonne successive. Aggiungendo

il vettore della base canonica corrispondente alla colonna di quest’ultimo pivot si

4

ottiene una base di .

R 29

8. L’insieme delle soluzioni di un sistema lineare

Mettendo insieme le Proposizioni 1 e 2 del paragrafo 6, otteniamo direttamente

la proposizione seguente.

Proposizione. L’insieme delle soluzioni di un sistema lineare omogeneo in m

m

incognite è uno sottospazio vettoriale di .

R

La sua dimensione è uguale al numero delle incognite meno il rango della matrice

dei coefficienti.

Osservazione importante. Il rango della matrice dei coefficienti è il numero

di pivot che compaiono nella sua riduzione a scala. Perciò il numero totale delle

incognite meno il rango è il numero delle incognite corrispondenti alle colonne senza

pivot. Quando risolviamo un sistema a scala con la tecnica descritta nel Paragrafo

5, queste incognite corrispondono esattamente ai parametri (varibili libere) che

compaiono nella soluzione generale. Per la Proposizione precedente otteniamo quidi

che la dimensione dello spazio delle soluzioni di un sistema omogeneo è il numero

di variabili libere che occorrono nella soluzione generale.

Nel prossimo esercizio diamo un altra esemplificazione del metodo, già usato

nell’esempio del paragrafo precedente, per determinare esplicitamente un base dello

spazio vettoriale delle soluzioni di un sistema omogeneo.

Esercizio risolto. Risolvere il seguente sistema omogeneo e determinare una base

per lo spazio delle sue soluzioni. −

x + x + x 3x + x = 0

1 2 3 4 5

− x + x + 2x = 0

3 4 5

Il sistema è a scala e possiamo risolverlo esprimendo le incognite x e x (corrispon-

1 3

denti ai pivot della matrice dei coefficienti) in funzione delle altre:

−x − −x −

x + x = + 3x x x = + 2x 3x

1 3 2 4 5 1 2 4 5

x = x + 2x x = x + 2x

3 4 5 3 4 5

L’insieme delle soluzioni è quindi

−a −

+ 2b 3c 

  

 a 

 

  

| ∈ .

b + 2c a, b, c

  R

 

b

 

  

 

 

c

30

Decomponiamo la soluzione generale “separando i parametri”, nel modo seguente:

−3

−3c −1

−a

−a − 2

2b

+ 2b 3c    

   

   

  0 0

0 1

a 0

a   

   

   

   + c 2

= a 0 + b 1

+ b + 2c

b + 2c = 0  

   

   

       

   

   

  1 0

0 0

0 b

b   

   

   

   0 1

c 0

0 0

c

Abbiamo trovato che l’insieme delle soluzioni è generato, come sottospazio vet-

5 t

toriale di , dai vettori ( 1 1 0 0 0), (2 0 1 1 0), ( 3 0 2 0 1). Ora vedia-

− −

R

mo che il rango della matrice dei coefficienti è 2 (ci sono esattamente 2 pivot),

quindi la dimensione dello spazio delle soluzioni è 3 (numero delle incognite meno

il rango). Nelle lezioni sulle basi abbiamo visto che un insieme di generatori

avente tanti elementi quanti ne ha una base è necessariamente una base, perciò

t

{ ( 1 1 0 0 0), (2 0 1 1 0), ( 3 0 2 0 1)} è una base per lo spazio delle soluzioni.

− −

Nota. Per stabilire che l’insieme di generatori trovato è linearmente indipendente

avremmo anche potuto osservare che la scrittura di una qualsiasi soluzione partico-

t

lare come combinazione lineare dei generatori ( 1 1 0 0 0), (2 0 1 1 0), ( 3 0 2 0 1)

− −

è unica. Infatti, la combinazione dei tre generatori a coefficienti a, b, c è la soluzione

= a, x = b, x = c.

con x

2 4 5

Studiamo ora l’insieme delle soluzioni di un sistema non omogeneo Ax = b in m

incognite. In questo caso l’insieme delle soluzioni non è un sottospazio vettoriale di

0

m , ad esempio, la somma di due soluzioni v e v non è una soluzione del sistema

R 0 0

perché A(v + v ) = Av + Av = b + b = 2b. Per studiare le proprietà delle soluzioni

di un sistema non omogeneo possiamo utilizzare i risultati ottenuti per i sistemi

omogenei.

Definizione 1. Dato un sistema lineare non omogeneo, di matrice completa (A|b),

chiamiamo sistema omogeneo associato a quello dato il sistema omogeneo che ha A

come matrice dei coefficienti, Ax = 0.

Teorema. Sia u una qualunque soluzione del sistema Ax = b e sia V lo spazio

vettoriale delle soluzioni del sistema omogeneo associato. Allora l’insieme delle

soluzioni di Ax = b è uguale all’insieme

def {u | ∈ }.

u + V = + v v V 31

Dimostrazione. È chiaro che ogni elemento u + v in u + V è una soluzione perché

A(u + v) = Au + Av = b + 0 = b. Viceversa, se z è una soluzione di Ax = b, allora

− − − −

z u è una soluzione di Ax = b, perché A(z u) = Az Au = b b = 0, e quindi

− ∈

z = u + (z u) u + V . A

Definizione 2. Sia U uno spazio vettoriale. Un sottoinsieme di U si dice un

sottospazio affine di U se esistono un vettore u in U e un sottospazio vettoriale V

A

di U tali che = u + V . A.

In tal caso V si chiama il sottospazio (vettoriale) di giacitura di

La dimensione di un sottospazio affine è per definizione la dimensione del suo

sottospazio di giacitura.

Osservazioni.

1. Il teorema precedente dice che l’insieme delle soluzioni di un sistema non omo-

m

geneo in m incognite, se non è vuoto, è un sottospazio affine di che ha come

R

sottospazio di giacitura l’insieme delle soluzioni del sistema omogeneo associato.

A

2. Se è un sottospazio affine, nelle notazioni della Definizione 2, il sottospazio

vettoriale di giacitura V è univocamente determinato e coincide con l’insieme delle

A:

differenze di elementi di 0 0

{z − | ∈ A}

V = z z, z [Dimostrare].

Invece il vettore u non è univocamente determinato. È chiaro che deve essere

A, ∈ A,

V , ma può essere qualunque elemento di cioè

un elemento di perché 0

A ∈ A. z è un arbitrario elemento

= z + V per ogni z Quindi abbiamo anche che se

A,

fissato di allora def

A − {z − | ∈ A}.

V = z = z z

3. Un sottospazio vettoriale W di uno spazio vettoriale U è un sottospazio affine

o qualsiasi altro vettore

(nelle notazioni della Definizione, come “u” basta prendere 0

di W e come V basta prendere W stesso).

3

4. Un sottospazio affine di , nell’interpretazione geometrica corrisponde a un

R

“traslato ” di un sottospazio vettoriale. Nelle notazioni della Definizione 2, V in

questo caso può essere l’origine, una retta o un piano per l’origine, o tutto lo spazio.

32

Il sottospazio affine u + V nel primo caso è il punto u stesso, nel secondo caso è una

retta o un piano parallelo a V e passante per u, nel terzo caso è tutto lo spazio.

Nel prossimo esempio mostriamo come la forma parametrica delle soluzioni di un

sistema non omogeneo Ax = b fornisca in modo esplicito una soluzione particolare

(la “u” del Teorema), lo spazio delle soluzioni del sistema omogeneo associato ed

una base di quest’ultimo.

Esempio 2. Consideriamo il sistema lineare

− − −

 x x x 3x = 1

1 2 3 4

−x + x + x + x = 1

1 2 3 4

 − − −

 x x x 5x = 3

1 2 3 4

Riduciamo a scala la matrice completa del sistema:

   

−1 −1 −3 | −1 −1 −3 |

1 1 1 1

II7→ II+I III7→

III−II

III7→ III−I

−1 | −−−−−−−→ −2 | −−−−−−−−→

1 1 1 1 0 0 0 2

   

−1 −1 −5 | −2 |

1 3 0 0 0 2

 

−1 −1 −3 |

1 1

−2 |

0 0 0 2 .

 

|

0 0 0 0 0

Quindi il sistema dato è equivalente a

− − −

x x x 3x = 1

1 2 3 4

− 2x = 2

4

Risolvendo in funzione di x e x troviamo

2 3 −

x = x + x 2

1 2 3

−1

x =

4

e quindi l’insieme delle soluzioni del sistema è

a + b 2

 

 

a

 

| ∈

a, b .

  R

b 

 

 

−1

Decomponiamo la soluzione generale separando le costanti e i parametri, nel modo

seguente: − −2 −2

a + b 2 a + b 1 1

           

a 0 a 0 1 0

= + = + a + b .

         

 

b 0 b 0 0 1

           

−1 −1 −1

0 0 0 33

t

Ora osserviamo che il vettore ( 2, 0, 0, 1) è una soluzione del sistema, precisa-

− −

mente è quella che si ottiene quando a = b = 0. E, poichè al variare di a, b in R,

t t

( 2, 0, 0, 1) + (a + b, a, b, 0) descrive l’insieme di tutte le soluzioni, per il Teorema

− −

e per l’Osservazione 1 otteniamo che

a + b 

  

 a 

 | ∈

a, b

  R

b

  

 

 0

è l’insieme delle soluzioni del sistema omogeneo associato. Inoltre, ragionando come

t t

{

nell’Esempio 1, otteniamo che (1, 1, 0, 0), (1, 0, 1, 0)} è una sua base.

Fin qui abbiamo dimostrato che l’insieme delle soluzioni di un sistema lineare è

un sottospazio affine, ed è un sottospazio vettoriale se il sistema è omogeneo. Vale

m

anche il viceversa, cioè: ogni sottospazio affine di è l’insieme delle soluzioni

R

di un sistema lineare in m incognite, e un sottospazio vettoriale è l’insieme delle

soluzioni di un sistema lineare omogeneo. m

A

Definizione 3. Sia un sottospazio affine di . Un sistema di equazioni lineari

R

L A A

in m incognite si dice un sistema di equazioni cartesiane di se è l’insieme

L.

delle soluzioni di m

Dunque ogni sottospazio affine di ha un sistema di equazioni cartesiane (in

R

realtà ne ha infiniti). Una dimostrazione generale di questo fatto sarà data più

avanti. A

Qui mostriamo con degli esempi come, dato un sottospazio affine = u + V ,

m m

∈ A

di , con u e V sottospazio vettoriale di di cui conosciamo un insieme

R R

di generatori, si possa ottenere esplicitamente un sistema di equazioni cartesiane di

A. t t t

Esempio 3. Sia u = (1, 1, 0, 0), v = (1, 2, 2, 2), v = (1, 1, 1, 1), V =

− − − −

1 2

} A

Span{v , v e = u + V . Determiniamo un sistema di equazioni cartesiane di

1 2 4

A A

e di V . Per definizione gli elementi di sono sono tutti i vettori x di che

R

sono somma di u e di una combinazione lineare di v e v . Equivalentemente, un

1 2

m A

vettore x in appartiene a se e solo se esistono due numeri reali s e t tali che

R

34

x = u + sv + tv , quindi se e solo se l’equazione vettoriale nelle incognite s e t

1 2 −

sv + tv = x u

1 2

t

= (x , x , x , x ), l’equazione scritta sopra è equivalente al sistema

è risolubile. Se x 1 2 3 4

lineare di matrice completa | −

1 1 x 1 

 1

| −

2 1 x 1

2

 

−2 −1 | x

 

3

−2 −1 | x

4

Applichiamo l’eliminazione di Gauss fino a ridurre a scala la matrice dei coefficienti

del sistema: | −

| − 1 1 x 1

1 1 x 1

   

1

1 II7→ II−2I III7→

III7→ III+II

III+2I −1 | −

| − 0 x 2x + 1

2 1 x 1 7→ 7→

2 1

2 IV IV +2I IV IV +II

−−−−−−−→

−−−−−−−−→

   

| −

−2 −1 | 0 1 x + 2x 2

x  

 

3 3 1

−2 −1 | | −

x 0 1 x + 2x 2

4 4 1

| −

1 1 x 1

 

1

−1 | −

0 x 2x + 1

2 1 .

 

| −

0 0 x + x 1

 

3 2

| −

0 0 x + x 1

4 2

È chiaro che il sistema corrispondente alla matrice scritta sopra è risolubile se e solo

− −

soddisfano le due equazioni x + x 1 = 0 e x + x 1 = 0,

se le coordinate di x 3 2 4 2

perciò x + x = 1

2 3

x + x = 1

2 4

A.

è un sistema di equazioni cartesiane di

Per il Teorema e per l’Osservazione 1, V è l’insieme delle soluzioni del sistema

omogeneo associato a questo, quindi

x + x = 0

2 3

x + x = 0

2 4

è un sistema di equazioni cartesiane di V .

Esercizio 1. Fissato un sistema di riferimento nello spazio, siano P, Q, R, S i punti

di coordinate     

  1 0 2

1 −3

−1 ,

1 , S :

P : , Q : 1 , R :   

 

   −2 −1 1

0 35

(a) Determinare un sistema di equazioni parametriche e un sistema di equazioni

cartesiane della retta r passante per P e Q. La retta r passa per l’origine?

(b) Verificare che P, Q, R non sono allineati e determinare un sistema di equazioni

parametriche e un sistema di equazioni cartesiane del piano π passante per essi. Il

piano π passa per l’origine?

(c) Stabilire se il punto S appartiene a r e se appartiene a π.

Risoluzione.

(a) La retta r è descritta dall’equazione vettoriale parametrica

−−→ −→ −→ −→

OX = OP + t(

OQ OP ),

dove O è l’origine del sistema di riferimento e t è un parametro reale. Dette x, y, z

le coordinate del punto indeterminato X, l’equazione sopra scritta è

     

x 1 0

−1

y = + t 2 ,

     

−2

z 0

equivalente al sistema di equazioni parametriche

 x = 1

 −1

y = + 2t

−2t

z =

Per determinare un sistema di equazioni cartesiane di r possiamo procedere come

nell’Esempio 3, imponendo la risolubilità dell’ equazione, nell’incognita t,

−→ −→ −−→ −→

− −

t(

OQ OP ) = OX OP ,

ovvero la risolubilità del sistema lineare equivalente. Scrivendo la matrice completa

di questo sistema e applicando il procedimento di eliminazione per ridurre a scala

la matrice dei coefficienti otteniamo:

   

| − |

0 x 1 2 y +1

| → | −

2 y + 1 0 x 1 ,

   

−2 | |

z 0 z + y +1

dove abbiamo sommato la seconda riga alla terza e scambiato la prima con la

seconda riga. Quindi un sistema di equazioni cartesiane di r è

x =1 −1

y + z =

36

È chiaro che l’origine non è un punto della retta perché le sue coordinate (0, 0, 0)

non soddisfano le equazioni cartesiane. −→ −→

(b) Per vedere che P, Q, R non sono allineati basta osservare che i vettori OQ− OP =

−→ −→

t t

(0, 2, 2) e OR OP = ( 1, 2, 1) non sono proporzionali. Quindi esiste un unico

− − −

piano π passante per P, Q, R. Il piano π è descritto dall’equazione vettoriale

−−→ −→ −→ −→ −→ −→

− −

OX = OP + t(

OQ OP ) + s(

OR OP ),

cioè        

−1

x 1 0

−1

y = + t 2 + s 2

       

−2 −1

z 0

e quindi dal sistema di equazioni parametriche

 −

x = 1 s

 −1

y = + 2t + 2s

−2t −

z = s

Per ottenere un’equazione cartesiana di π studiamo la risolubilità del sistema nelle

incognite s, t corrispondente all’equazione vettoriale

−→ −→ −→ −→ −−→ −→

− − −

t(

OQ OP ) + s(

OR OP ) = OX OP .

Scriviamo la matrice completa del sistema e applichiamo l’eliminazione fino a

ridurre a scala la matrice dei coefficienti:

   

−1 | − |

0 x 1 2 2 y +1

| → −1 | − →

2 2 y +1 0 x 1

   

−2 −1 | |

z 0 1 z + y +1

 

|

2 0 y +1

−1 | −

0 x 1 .

 

|

0 0 z + y + x

Allora x + y + z =0

è un’equazione cartesiana di π (sistema di una sola equazione). Il piano π passa per

l’origine perché l’equazione è omogenea e quindi è soddisfatta dalla terna (0, 0, 0).

(c) Per determinare l’appartenenza di S alla retta e al piano basta controllare se le

coordinate di S soddisfano le rispettive equazioni cartesiane. Per r: le coordinate

37

di S non soddisfano la prima equazione cartesiana, quindi S non sta su r. Per π:

le coordinate di S soddisfano l’equazione cartesiana, quindi S sta appartiene a π.

Esercizio 2. Determinare un sistema di equazioni parametriche per il piano dello

spazio di equazione cartesiana y + z = 1.

Risoluzione. Nella formulazione del testo è sottinteso che è fissato un sistema

di riferimento e che x, y, z sono le coordinate del generico punto dello spazio. Per

risolvere l’esercizio basta risolvere il sistema di una sola equazione y + z = 1 espri-

mendo le soluzioni in forma parametrica. Possiamo scegliere indifferentemente y o

z come incognita indipendente ed esprimere l’altra in funzione di quella scelta, ad

esempio −z

y = + 1.

Anche x è indipendente, visto che non vi sono condizioni su di essa. Se poniamo

x = t e z = s (s, t parametri reali), otteniamo che la soluzione generale del sistema

è  

t

−s + 1

 

s

e quindi un sistema di equazioni parametriche di π è

 x = t

 −s

y = + 1

z = s

Esercizio 3. Determinare l’intersezione dei due piani dello spazio di equazioni

cartesiane −

x = 1, x 2y + z = 3,

rispettivamente.

Risoluzione. L’intersezione dei due piani è l’insieme dei punti le cui coordinate

x, y, z soddisfano entrambe le equazioni cartesiane, cioè soddisfano il sistema

x =1

x 2y + z = 3

38

Il sistema scritto è un sistema di equazioni cartesiane per la retta intersezione dei

due piani. Risolvendo il sistema troviamo un sistema di equazioni parametriche per

la retta:

x è determinata e uguale a 1; sostituendo nella seconda equazione ed esprimendo z

in funzione di y troviamo z = 2y + 2, quindi la soluzione generale del sistema è

 

1

a

 

2a + 2

che fornisce come equazioni parametriche per la retta intersezione

 x = 1

 y = a

z = 2a + 2

  

0

La retta intersezione è perciò la retta parallela al vettore 1 e passante per il

 

2

 

1

punto di coordinate 0 .

 

2 39

9. Matrici quadrate

Una matrice quadrata è una matrice con lo stesso numero di righe e di colonne.

M ×

Indichiamo con (R) l’insieme delle matrici reali quadrate n n. È chiaro che

n

M (R) è chiuso sia rispetto alla somma sia rispetto al prodotto di matrici. La

n ×

diagonale (principale) di una matrice quadrata n n è per definizione l’insieme

≤ ≤

degli elementi di posto (i, i) della matrice (1 i n).

Definizione 1. La matrice n×n che ha tutti gli elementi della diagonale principale

×

uguali a 1 e tutti gli altri elementi uguali a 0 si chiama matrice identità n n e si

denota con I :

n ···

1 0 0

 

···

0 1 0

 

I = .

... .. ..

..

n  

.

. .

 

···

0 0 1

M

Si verifica direttamente che per ogni A in (R) si ha I A = AI = A. Quindi

n n n

M

I è l’unità moltiplicativa di (R).

n n M

Definizione 2. Una matrice A in (R) si dice invertibile se esiste una matrice

n

×

B (necessariamente n n) tale che

AB = BA = I . (∗)

n

Vedremo che:

1. Se A è invertibile, allora esiste un’unica B che soddisfa le relazioni (∗).

−1

Tale B si chiama l’inversa di A e si denota con A .

2. Affinchè A sia invertibile è necessario e sufficiente che esista B tale che AB =

−1

I . In tal caso A = B (in particolare B è unica).

n

3. Affinché esista B tale che AB = I è necessario e sufficiente che rk A = n.

n ×

Dimostrazione di 3. Se B è una matrice n n qualunque, allora le colonne di

AB sono combinazioni lineari delle colonne di A. Se AB = I , allora tutti i vettori

n

n È chiaro

della base canonica di sono combinazioni lineari delle colonne di A.

R

40 n

che allora tutti i vettori di sono combinazioni lineari di colonne di A, quindi

R

n

C(A) = e rk A = n.

R n

C(A)

Viceversa, se rk A = n, allora = , in particolare ogni vettore della base

R

n

canonica di è una combinazione lineare di colonne di A: sia

R 1 n

· · ·

e = b A + + b A (∗∗)

i 1i ni

per i = 1, . . . , n. Ricordando le proprietà del prodotto di matrici, si vede subito

che la matrice B = (b ), cioè la matrice che ha per i-esima colonna i coefficienti

ki

della combinazione lineare (∗∗) (per i = 1, . . . , n), soddisfa AB = I .

n

n

Osserviamo infine che le colonne di A sono una base di (n generatori di uno

R

spazio di dimensione n), quindi i coefficienti che compaiono nella (∗∗) sono unici e

perciò B è unica. t

Dimostrazione di 2. È chiaro che rk A = rk A. Quindi, per il punto 3, se esiste

t

una B tale che AB = I , allora esiste anche una C tale che AC = I . In questo

n n

caso abbiamo che (regola per la trasposta di un prodotto, Paragrafo 3)

t t t t t

C ( A) = I , quindi CA = I .

n n

Abbiamo ottenuto che, se esiste una B tale che AB = I , allora esiste anche una

n

0 0 0

B tale che B A = I . Per concludere dobbiamo dimostrare che B = B. Questo

n

segue dall’associatività del prodotto di matrici, infatti si ha

0 0 0 0

B = I B = (B A)B = B (AB) = B I = B .

n n

Dimostrazione di 1. L’unicità di B segue chiaramente da 3 e 2.

Riassumiamo i risultati principali che abbiamo ottenuto.

×

Proposizione. Una matrice n n è invertibile se e solo se il suo rango è uguale

−1

a n. Se la matrice A è invertibile, allora la sua inversa A è l’unica matrice che

(nell’incognita X).

soddisfa l’equazione AX = I

n

Più avanti daremo un formula per calcolare l’inversa di una matrice invertibile.

Ora descriviamo un algoritmo per il calcolo dell’inversa. 41

Algoritmo per il calcolo della matrice inversa. Per la Proposizione prece-

×

dente, per determinare esplicitamente l’inversa di una matrice n n invertibile

A è sufficiente risolvere l’equazione AX = I . Come abbiamo osservato nella di-

n

mostrazione del punto 3 precedente, questo equivale a risolvere gli n sistemi lineari

= e , per i = 1, . . . , n. Se la matrice A è invertibile ciascuno di questi sistemi

Ax i

ha soluzione unica e le n soluzioni sono le colonne della matrice inversa. Gli n

sistemi da risolvere hanno tutti come matrice dei coefficienti A, quindi è chiaro che

le operazioni di riga che riducono a scala la matrice completa di uno qualunque di

questi sistemi riducono a scala anche tutti gli altri. Perciò la riduzione a scala può

essere fatta contemporaneamente lavorando sulla matrice completa

(A|I ),

n

poiché le colonne di I sono le colonne dei termini noti degli n sistemi considerati.

n

Osserviamo che al termine della riduzione a scala A è trasformata in una matrice

triangolare superiore, cioè con tutti gli elementi sotto la diagonale uguali a 0, e in

più con tutti gli elementi della diagonale diversi da 0, se A è invertibile (altrimenti

il rango non sarebbe n). Quindi questa prima parte dell’algoritmo controlla anche

se la matrice A è invertibile.

Se chiamiamo x , . . . , x le incognite dei nostri sistemi, dall’ultima riga della

1 n

matrice a scala leggiamo direttamente il valore soluzione per x in ciascuno dei

n

sistemi, cioè, se l’ultima riga è |b

0 . . . 0 α . . . b ,

n 1 n

allora b

b n

1 , . . . , x =

x = n

n α α

n n

= e , . . . Ax = e , rispettivamente. Questo

sono i valori di x nelle soluzioni di Ax 1 n

n

vuol dire che b

b 1 n

,...,

α α

n n

−1

è l’ultima riga di A .

A questo punto, estendiamo l’algoritmo di eliminazione operando la cosiddetta

eliminazione dal basso. Cioè: eliminiamo l’incognita x da tutte le equazioni prece-

n

denti la n-esima, sommando a queste un opportuno multiplo della n-equazione.

42

Induttivamente, eliminiamo l’incognita x da tutte le equazioni precedenti la i-

i −

esima con un procedimento analogo, per i = n, n 1, fino a i = 2. È chiaro che

non cambiamo le soluzioni dei sistemi di partenza. Al termine del procedimento

avremo ottenuto una matrice del tipo ···

··· b b

α 0 0

 

11 1n

1 ···

··· b b

0 α 0 21 2n

2 

 .

..

. .. .. ..

.. 

 .. . ···

. . . .

 

···

··· b

0 0 α b n1 nn

n

Infine dividiamo la i-esima riga per α , per i = 1, . . . , n, ottenendo

i 0

···

b /α b /α

···

1 0 0 

 11 1 1

1n

···

b /α b α

···

0 1 0 21 2 2n 2 

 .

. . ..

.. .. ..

.. ..

 

. . ···

. . 

 ···

0 0 1 ···

b /α b /α

n1 n nn n ×

Ragionando come abbiamo fatto per x otteniamo che la matrice n n che si trova

n

−1

a destra della linea verticale è A .

Esempio. Calcoliamo l’inversa della matrice

 

1 1 2

−1

A = 0 0

 

1 2 6

con il procedimento appena descritto.

  

 1 0 0 1 1 2 1 0 0

1 1 2 −→ −→

−1 0 1 0 0 1 2 1 1 0

0 0 II+I

  

 −1

0 0 1 0 1 4 0 1

1 2 6 III−I

   

−1

1 1 2 1 0 0 1 1 0 3 1 I−III

−→ −1 −→

0 1 2 1 1 0 0 1 0 3 2 II−III

   

−2 −1 −2 −1

0 0 2 1 0 0 2 1

III−II

   

−1 −1

1 0 0 0 0 1 0 0 0 0

I−II

−1 −→ −1

0 1 0 3 2 0 1 0 3 2

   

−2 −1 −1 −1/2

0 0 2 1 0 0 1 1/2 1 III

2

Quindi  

−1

0 0

−1 −1

A = 3 2

 

−1 −1/2 1/2 29-11-2006

Lezioni di Algebra Lineare. III Parte, paragrafi 10–12.

Contenuto

10. Applicazioni lineari

11. Cambiamenti di base

12. Applicazioni lineari, matrici e cambiamenti di base 43

10. Applicazioni lineari.

Supponiamo che V e W siano due spazi vettoriali e che

f : V W

sia una funzione da V a W .

Definizione. Diciamo che f è un’applicazione lineare se

0 0 0

(1) f è additiva, cioè: per ogni v e v in V si ha f (v + v ) = f (v) + f (v );

(2) f è omogenea, cioè: per ogni v in V e λ in si ha f (λv) = λf (v).

R

Conseguenze fondamentali della definizione. →

Segue direttamente dalla definizione che, se f : V W è un’applicazione lineare,

∈ ∈

v , . . . , v V , λ , . . . , λ allora

R,

1 k 1 k · · · · · ·

f (λ v + + λ v ) = λ f (v ) + + λ f (v ).

1 1 k k 1 1 k k

B {v } ∈

In particolare, supponiamo che = , . . . , v sia una base di V . Se v V ,

V 1 n

allora v si scrive in modo unico unico come combinazione lineare di B , poniamo

V

· · ·

v = λ v + + λ v .

1 1 n n

Quindi · · ·

f (v) = λ f (v ) + λ f (v ).

1 1 n n

Segue che:

(1) l’azione di f su una base di V , determina l’azione di f su tutto V

e quindi che:

(2) due applicazioni lineari da V a W che assumono gli stessi valori su una base di

V , coincidono. m n

Applicazioni lineari da a . Le conseguenze della definizione che abbiamo

R R

scritto ci permettono facilmente di capire cosa sono le applicazioni lineari tra spazi

k

vettoriali di tipo . Cominciamo col dare un esempio generale di applicazione

R

44 k

lineare; poi faremo vedere che tutte le applicazioni lineari tra spazi di tipo sono

R

comprese in questo esempio. m

× ∈

Sia M una matrice n m. Allora, per ogni v , il prodotto M v è definito

R

n

ed è uguale ad un vettore di . Possiamo quindi definire la funzione

R m n

→ 7→

L : v M v.

R R

M

è un’applicazione lineare, infatti

L

M 0 0 0

n

(1) L è additiva, perché per ogni v e v in si ha L (v + v ) = M (v + v ) =

R

M M

0 0

M v+M v = L (v)+L (v ) (proprietà distributiva del prodotto di matrici,

M M

Paragrafo 2, Proposizione 2); n

(2) L è omogenea, perché per ogni v in e λ in si ha L (λv) = M (λv) =

R R

M M

λ(M v) = λL (v) (Paragrafo 2, Proposizione 2).

M m n

Quello che stiamo per vedere è che tutte le applicazioni lineari da a sono

R R

, cioè agiscono come moltiplicazione a sinistra per una matrice reale

di tipo L

M m n

× → {e }

n m. Infatti, sia f : un’applicazione lineare, , . . . , e la base

R R 1 m

m

canonica di ,

R · · · |f

M = (f (e )| (e ))

1 m b 

 1

.

.. un vettore qualunque

(la matrice di colonne f (e ), . . . , f (e )) e infine v =

1 m 

 b m

m · · ·

in . Allora v = b e + + b e , quindi

R 1 1 m m

· · ·

f (e ) + + b f (e ) = M v = L (v)

f (v) = b 1 1 m m M

(la seconda uguaglianza si ottiene usando la solita proprietà del prodotto matrice

per vettore colonna, pag. 5)

Riassumiamo i risultati ottenuti nella proposizione seguente.

m n

Proposizione 1. Sia f : una funzione. Allora:

R R ×

f è un’applicazione lineare se e solo se esiste una matrice reale M n m tale

che f = L ;

M

se f è lineare, la (unica) matrice M tale che f = L è la matrice di colonne

M m

{e }

f (e ), . . . , f (e ), dove , . . . , e è la base canonica di .

R

1 m 1 m 45

m n

Definizione: matrice rispetto alle basi canoniche. Sia f : R R

un’applicazione lineare e, con le notazioni usate sopra,

|f

M = (f (e )| . . . (e ))

1 m

(quindi f = L ). La matrice M si chiama la matrice di f rispetto alle basi

M

m n

canoniche (di e ).

R R

Problema.

Sia  

x

x + y z

3 2

→ 7→

f : , y .

R R   −

x y + z

z

Verificare che f è lineare e scriverne la matrice rispetto alle basi canoniche.

Risoluzione. Osserviamo che

   

x x

−1

1 1

f y = y ,

   

−1

1 1

z z

quindi f = L con

M

−1

1 1

M = ,

−1

1 1

e perciò è lineare. Inoltre, è chiaro che le colonne di M sono le immagini dei vettori

3

della base canonica di . Perciò M è la matrice di f rispetto alle basi canoniche.

R

Composizione di applicazioni lineari e prodotto di matrici. [da scrivere]

Definizione: nucleo e immagine di un’applicazione lineare. Sia

f : V W

un’applicazione lineare tra spazi vettoriali.

Il nucleo di f (in inglese kernel) è per definizione l’insieme

{x ∈ |

ker f = v f (v) = 0}

(dove 0 è il vettore nullo di W ).

46 L’immagine di f è l’usuale immagine insiemistica della funzione f

{f | ∈ } {w ∈ | ∃v ∈

Im f = (v) v V = W V f (v) = w}.

Nel prossimo enunciato riassumiamo le proprietà principali del nucleo e dell’im-

magine di un’applicazione lineare.

Proposizione 2.

Sia f : V W un’applicazione lineare tra spazi vettoriali. Allora

(1) ker f è un sottospazio vettoriale di V e Im f è un sottospazio vettoriale

di W . {0}.

(2) f è una funzione iniettiva se e solo se ker f =

(3) Vale la seguente formula delle dimensioni:

dim V dim ker f = dim Im f.

{0} e dim V = dim W .

(4) f è biunivoca se e solo se ker f =

(5) f è biunivoca se e solo se dim V = dim Im f = dim W .

−1

(6) Se f è biunivoca, allora la sua inversa f è un’applicazione lineare (biuni-

voca).

Omettiamo gran parte delle dimostrazioni, ma diamo delle indicazioni abba-

stanza dettagliate su come si fanno e facciamo qualche precisazione sugli enunciati.

(1) Questo punto è semplice, bisogna semplicemente verificare che ker f e Im f sono

non vuoti e chiusi rispetto alla somma e alla moltiplicazione per scalari. Sugge-

6 ∅:

riamo solo come si vede che ker f = per linearità, ker f contiene sempre almeno

il vettore nullo di V , infatti

f (0 ) = f (0 0 ) = 0f (0 ) = 0 ,

V V V W

dove lo zero senza indice e sottolineatura è lo scalare 0 e per chiarezza abbiamo

distinto nella notazione i vettori nulli di V e W (nel seguito ometteremo gli indici

V e W , è sempre chiaro dal contesto di quale vettore nullo si parla). Le altre

verifiche sono standard (provate a farne qualcuna per esercizio). 47

(2) Questo punto è molto importante. Ricordiamo la definizione iniettività: f è

iniettiva se e solo se trasforma elementi diversi del dominio in elementi diversi

(dell’immagine). Due modi equivalenti di scrivere questo sono i seguenti

f è iniettiva se e solo se vale la condizione:

(a) 0 0 0

∀ ∈ ⇔

v, v V, f (v) = f (v ) v = v

f è iniettiva se e solo se vale la condizione:

(b) per ogni w in Im f esiste un unico v in V tale che f (v) = w.

{0}

= 0, quindi la condizione ker f = vuol dire

Abbiamo già osservato che f (0)

che l’unico v in V tale che f (v) = 0 è lo 0 di V . Il punto è che se la condizione

(b) vale per w = 0, allora vale per tutti i w Im f . In effetti, quello che vale è

che 0 0 − ∈

f (v) = f (v ), se e solo se v v ker f

0

(quindi se e solo se v = v + u per un certo u in ker f )

perché 0 0

0 0 ⇔ − ⇔

− ∈ ⇔ − f (v) f (v ) = 0 f (v) = f (v ).

v v ker f f (v v ) = 0

∈ ∈

Quindi, se w Im f , v V è un qualunque elemento tale che f (v) = w, e

← 0 ∈

f (w) è l’insieme controimmagine di w, cioè l’insieme di tutti i v V tali che

0

f (v ) = w, allora ←

f (w) = v + ker f,

{v | ∈ }.

dove v + ker f = + u u ker f Poiché ker f è un sottospazio vettoriale di

V , questo vuol dire che:

la controimmagine di un qualunque w in Im f è un sottospazio affine di V che

ha come spazio vettoriale associato ker f .

(3) Questa dimostrazione è molto simile alla dimostrazione della Proposizione 2 del

∅ {0}) e la si

paragrafo 6: si considera una base B di ker f (B = se ker f =

0 0

completa a una base di V , B = B B , con B disgiunto da B. Si dimostra

V

0

{f | ∈ }

quindi che (v) v B è una base di Im f . La tesi sulle dimensioni segue

direttamente.

(4) Qui basta ricordare le definizioni:

la funzione f : V W si dice suriettiva se Im f = W , cioè se:

per ogni w in W esiste un v in V tale f (v) = w;

48 →

la funzione f : V W si dice biunivoca (o biettiva, o invertibile) se f è sia

iniettiva, sia suriettiva, cioè se:

(∗) per ogni w in W esiste, ed è unico, un v in V tale che f (v) = w.

Ora per un’applicazione lineare l’immagine è un sottospazio vettoriale del codo-

minio, quindi si ha che Im f = W se e solo se dim Im f = dim W . Segue che

f è suriettiva dim Im f = dim W .

{0},

Invece la condizione di iniettività equivale a ker f = quindi

f è iniettiva dim ker f = 0.

Utilizzando la formula delle dimensioni si ottiene che f è invertibile se e solo se

dim V = dim W e kerf = 0.

(5) Qui basta usare di nuovo la formula delle dimensioni e le considerazioni sulla

suriettività appena fatte.

−1

(6) Ricordiamo cosa è f per una funzione invertibile f . La condizione (∗) scritta

−1 →

sopra che definisce la biunivocità, permette di definire una funzione f : W V

−1

nel modo seguente: per ogni w W , poniamo f (w) = v, dove v è l’unico

−1

È immediato che f è a sua volta biunivoca;

elemento di V tale che f (v) = w. −1

quello che bisogna dimostrare è che f è anche un’applicazione lineare, se f lo

−1

è. Si tratta di verificare in modo diretto, utilizzando la definizione di f , che

essa è additiva e omogenea: provate a farlo per esercizio.

m n

Osservazione. Se f : è un’applicazione lineare invertibile, allora ab-

R R

biamo visto che m e n devono essere uguali e quindi la matrice di f rispetto alle

×

basi canoniche è una matrice quadrata n n. È immediato verificare che f risulta

−1

invertibile se e solo se questa matrice è invertibile; inoltre f è L .

−1

M

Definizione: isomorfismo di spazi vettoriali. Un’ applicazione lineare in-

vertibile f : V W si chiama anche isomorfismo (di spazi vettoriali). Se f è

−1 →

invertibile, come abbiamo appena visto anche f : W V è un isomorfismo. Due

spazi vettoriali V e W si dicono isomorfi se esiste un isomorfismo dall’uno all’altro.

49

n

Teorema. Ogni spazio vettoriale di dimensione n è isomorfo a .

R

B {v }

Dimostrazione. Sia V uno spazio vettoriale di dimensione n e = , . . . , v

1 n

una sua base. Sappiamo che ogni vettore v in V si scrive in modo unico come

B:

combinazione lineare di · · ·

v = b v + + b v ,

1 1 n n

per degli opportuni b in Associando a v il suo vettore delle coordinate rispetto

R.

i

B,

a b

 

1

.

..

7

v ,

 

b n n

otteniamo una funzione biunivoca da V a . Resta da dimostrare che questa

R

funzione è un’applicazione lineare: esercizio (molto facile) per il lettore.

50 11. Cambiamenti di base. 0

B B

Supponiamo di avere due basi e dello spazio vettoriale V . Sia dim V = n,

0

} B {w }.

B {v , . . . , v e = , . . . , w Il problema che affrontiamo in questo

= 1 n 1 n B

paragrafo è: che relazione c’è tra le coordinate rispetto a e le coordinate rispetto

0

B

a di un generico vettore v di V ?

Per ogni v V indichiamo con v il vettore delle coordinate di v rispetto alla base

t n

B: · · ·

dunque v è il vettore (a a ) di , dove a , . . . , a sono gli unici numeri

R

1 n 1 n 0

· · ·

reali tali che v = a v + + a v . Analogamente, indichiamo con v il vettore

1 1 n n 0

B

delle coordinate di v rispetto alla base .

| · · · |w : per definizione le colonne di M

Consideriamo la matrice M = w n

1

0

B B.

sono i vettori della base scritti in coordinate rispetto alla base È immediato

0 0 0 0

· · · · · ·

verificare che se v = a w + + a w , allora v = a w + + a w . Quindi, v è

1 n 1 n

n n

1 1

0 0

t · · ·

il prodotto della matrice M per il vettore colonna (a a ). Ma per definizione

n

1

0 0 0 0

t · · · B

(a a ) è v , il vettore delle coordinate di v rispetto a , quindi abbiamo

n

1

provato che 0 = v.

M v

0

B

Ora osserviamo che, poiché è una base di V , M è una matrice di rango n

(prché ogni v deve essere combinazione lineare dei w ), quindi M è invertibile.

i

−1

Moltiplicando la relazione precedente per M otteniamo quindi

0 −1

= M v.

v −1

0 0

−1

| · · · |v , cioè: le colonne di M sono i

È immediato verificare che M = v n

1 0

B, B

vettori della base scritti in coordinate rispetto alla base .

−1

Definizione. Le matrici M ed M si chiamano matrici di passaggio dalla base

0

B B

alla base e viceversa.

Problemi. 3 t t t

C B {

1. Sia la base canonica di e sia = (1 0 0), (1 1 0), (1 1 1)}.

R B C

(a) Determinare le matrici di passaggio dalla base alla base e viceversa.

t B.

(b) Scrivere le coordinate del vettore (2 5 3) rispetto alla base 51

t 3 B.

(c) Scrivere le coordinate del generico vettore (a b c) di rispetto alla base

R

0 0 0

3 t

∈ B,

(d) Se v ha coordinate (a b c ) rispetto a quali sono le sue coordinate

R C?

rispetto a

Risoluzione. B C

(a) La matrice di passaggio da a è la matrice M che ha per colonne i vettori

B C,

di scritti rispetto alla base cioè  

1 1 1

M = 0 1 1 .

 

0 0 1

C B

La matrice di passaggio da a è l’inversa di M o, equivalentemente, la matrice

3

che ha per colonne i vettori della base canonica di scritti in coordinate rispetto a

R

B,

B. , v , v i vettori di nell’ordine scritto sopra, si ha chiaramente e = v ,

Detti v

1 2 3 1 1

− − B,

e = v v , e = v v , quindi, rispetto a le coordinate di e , e , e sono

2 2 1 3 3 2 1 2 3

t t −1,

(1, 0, 0), (−1, 1, 0), (0, 1), rispettivamente. Segue che la matrice di passaggio

C B

da a è  

−1

1 0

−1 −1

M = 0 1 .

 

0 0 1

−1

t

(b) Basta moltiplicare (2 5 3) per M a sinistra:

     

−3

−1 2

1 0

−1

0 1 5 = 2 .

     

0 0 1 3 3

t t

B −

Dunque il vettore delle coordinate di (2 5 3) rispetto a è ( 3, 2, 3) (cioè

t −3v

(2 5 3) = + 2v + 3v ).

1 2 3

(c) Analogo al punto precedente:

     

−1 −

1 0 a a b

−1 −

0 1 b = b c ,

     

0 0 1 c c

− −

quindi le coordinate richieste sono a b, b c, c.

0 0 0

t

(d) Basta moltiplicare (a b c ) a sinistra per M , quindi le coordinate richieste sono

0 0 0 0 0 0

a + b + c , b + c , c .

4 3

1

1

2 B

B , .

, =

2. Consideriamo le basi di = ,

R 2

1 1

2 1 1

52 B B

(a) Determinare le matrici di passaggio da a e viceversa.

1 2

2 t

∈ B

(b) Se v ha coordinate (a b) rispetto a , quali sono le coordinate di v

R 1

B

rispetto a ?

2 0 0

2 t

∈ B

(c) Se v ha coordinate (a b ) rispetto a , quali sono le coordinate di v

R 2

B

rispetto a ?

1 B

Risoluzione. Per risolvere al problema bisogna scrivere i vettori di come combi-

1

B

nazione lineare di e viceversa. [Provate a fare il conto direttamente e confrontate

2

con la soluzione che stiamo per dare.] Poniamo

1 1 4 3

M = M = .

1 2

2 1 1 1

x 2

Se v = (quindi x, y sono le coordinate di v rispetto alla base canonica),

R

y

−1 −1

B

allora M v è il vettore delle coordinate di v rispetto a , mentre M v è il

1

1 2

−1

B

vettore delle coordinate di v rispetto a . Segue che M M ha per colonne le

2 1

2

B B

coordinate dei vettori di rispetto a , quindi è la prima delle matrici richieste.

1 2

−1 B

Analogamente, M M ha per colonne le coordinate dei vettori di rispetto a

2 2

1

B B B

, quindi è la matrice di passaggio da a . (Notate che le due matrici sono

1 2 1

l’una l’inversa dell’altra.) Calcolando esplicitamente si ottiene:

−1 −3

1 1

−1 −1

M = M = ,

1 2

−1 −1

2 4

quindi

−5 −2 −3 −2

−1 −1

M M = , M M = .

1 2

2 1

7 3 7 5

2 t

∈ B

(b) Se v ha coordinate (a b) rispetto a , allora le sue coordinate rispetto a

R 1

B sono

2

−5a

a + 7b

−1

M M = .

1

2 −2a

b + 3b

0 0

2 t

∈ B

(c) Se v ha coordinate (a b ) rispetto a , allora le sue coordinate rispetto

R 2

B

a sono

1 0 0 0

−3a

a + 7b

−1

M M = .

2 0 0 0

1 −2a + 5b

b 53

12. Applicazioni lineari, matrici e cambiamenti di base.

Supponiamo che V e W siano due spazi vettoriali e che

f : V W

sia un’applicazione lineare da V in W .

Abbiamo visto che nel caso particolare in cui V e W sono spazi vettoriali di tipo

k l’applicazione f è rappresentata da una matrice. Lo stesso vale qualunque siano

R

gli spazi V e W , una volta fissate una base di V e una base di W .

B {v }

Supponiamo = , . . . , v sia una base di V , e supponiamo fissata anche

V 1 n

B ∈

una base di W . Rappresentiamo quindi ogni vettore v V con il suo vettore

W

n B

v (in ) di coordinate rispetto a e ogni vettore di W con il suo vettore w (in

R V

m ) di coordinate rispetto a B . Consideriamo quindi la matrice

R W · · · |f

M = (f (v )| (v )) (∗)

f 1 n t

× ∈ · · ·

Per costruzione M è una matrice m n. Se v V e v = (a a ), allora per

f 1 n

· · · · · ·

definizione v = a v + + a v , quindi f (v) = a f (v ) + + a f (v ) e

1 1 n n 1 1 n n

a 

 1

.

..

· · · = L (v).

f (v) = a f (v ) + + a f (v ) = M M

1 1 n n f 

 f

a

n

Otteniamo quindi che:

se fissiamo una base di V e una base di W , allora ogni applicazione lineare f di

V in W è rappresentata dalla moltiplicazione a sinistra per una matrice, cioè è di

tipo L .

M

È chiaro che la matrice M definita in (∗) non dipende solo f , ma anche dalle

f

basi scelte. B B

Definizione. M si chiama “la matrice di f rispetto alle basi e .”

f V W

Osservazione. La definizione appena data è coerente con la Definizione 1 del

m n

× →

paragrafo 10. Basta osservare che se M è una matrice reale n m, L : R R

M

54 m

{e }

è l’applicazione lineare associata e , . . . , e è la base canonica di , allora le

R

1 m

colonne M sono ordinatamente L (e ), . . . , L (e ), scritti naturalmente rispetto

M 1 M n

n

alla base canonica di .

R

Problema risolto. Sia

x x y

2 2

→ 7→

f : .

R R −x

y 2

Verificare che f è lineare e scriverne la matrice rispetto alla base canonica di (si

R

intende sia sul dominio, sia sul codominio).

Se scegliamo come base (sia sul dominio sia sul codominio)

1 2

B = ,

1 1

qual è la matrice di f ?

Risoluzione. Per la prima parte procediamo come nell’esercizio precedente. Ab-

biamo che

−1

x 1 x

f = ,

−1

y 0 y

−1

1

quindi f è lineare perché uguale a L , con M = . Inoltre M è la

M −1 0

matrice di f rispetto alla base canonica.

Per rispondere all’ultima domanda, consideriamo la matrice di passaggio da B

alla base canonica, cioè la matrice

1 2

P = 1 1

Allora la matrice richiesta è −1

P M P.

Spieghiamo perché. In base alla definizione, per scrivere la matrice di f rispetto a

B B

dobbiamo calcolare le immagini dei vettori di e scriverle in coordinate rispetto

alla base B stessa. Visto che f è la moltiplicazione a sinistra per M abbiamo che

−1 −1

1 1 1 0 2 1 2 1

f = = ; f = =

−1 −1 −1 −2

1 0 1 1 0 1

Segue che

−1

1 1 2 0 1

= ,

MP = −1 −2

−1 1 1

0 55

cioè M P è la matrice che ha per colonne le immagini di B. Queste immagini

sono scritte però rispetto alla base canonica e non rispetto alla base B, come ci

servirebbe. Nel Paragrafo 11 abbiamo visto che per passare dalle coordinate cano-

−1

niche a quelle rispetto a B basta moltiplicare a sinistra per la matrice P , quindi

la matrice richiesta è −1

P M P,

cioè (i calcoli sono lasciati al lettore per esercizio)

−2 −5 .

1 3

Il procedimento descritto nel problema precedente si generalizza nel seguente enun-

ciato (di cui omettiamo la dimostrazione).

→ C

Proposizione. Sia f : V V un ’applicazione lineare, una base di V e M la

C. B

matrice di f rispetto a Se è un’altra base di V , allora la matrice di f rispetto

B

a è −1

P M P,

B C,

dove P è la matrice di passaggio da a cioè la matrice cha ha per colonne i

B C.

vettori di scritti rispetto alla base Versione 7-12-2005

Lezioni di Algebra Lineare. IV Parte

Autovalori e Autovettori

Supponiamo che V sia uno spazio vettoriale reale di dimensione n e che

f : V V

sia un’applicazione lineare. (Un’applicazione lineare di uno spazio vettoriale in sè

si dice anche endomorfismo dello spazio vettoriale.) ∈

Definizione 1. Un autovettore di f è un vettore v V diverso dal vettore nullo

tale che f v = αv

per un certo scalare α. ∈

Se v è un autovettore di f e α è il numero reale tale che f v = αv, allora

R

diciamo che α è un autovalore di f e che v è un autovettore relativo all’autovalore α.

Osservazioni.

1. La relazione f 0 = α0 è vera per ogni numero reale α, ma 0 non è un autovettore,

per definizione.

2. È chiaro che un autovettore, essendo non nullo per definizione, è relativo ad un

unico autovalore. n

Se fissiamo una base in V allora possiamo identificare V con e realizzare

R

f come un’applicazione di tipo L , moltiplicazione a sinistra per una matrice M

M

×

(n n). 6 è un autovettore di f se e solo se

Allora il vettore v = 0 M v = αv (∗)

∈ ×

per un certo α Se I è la matrice identità n n, allora

R. αv = (αI)v,

1

2 −(αI)v −

quindi, sommando alla (∗), otteniamo M v (αI)v = 0 e, applicando la

proprietà distributiva, −

(M αI)v = 0.

6 per definizione, la relazione precedente dice in particolare che il sistema

Poiché v = 0

omogeneo −

(M αI)x = 0

ha soluzioni non nulle e quindi, per la Proposizione 5 della III parte,

det (M αI) = 0 (∗∗)

− −

Poiché, viceversa, se det (M αI) = 0 allora (M αI)x = 0 ha delle soluzioni non

nulle, invertendo i passaggi otteniamo il risultato seguente.

Proposizione 1. Sia M la matrice di f rispetto a una qualunque base di V . Allora

il numero α è un autovalore di f se e solo se

R −

det (M αI) = 0.

Se α è un autovalore di f , allora gli autovettori di f relativi a α sono le soluzioni

non nulle del sistema omogeneo − = 0.

(M αI)x

×

Definizione 2. Sia M una matrice reale n n. Un autovettore di M è un vettore

n

∈ tale che

v diverso dal vettore nullo

R M v = αv

per un certo scalare α. ∈

Se v è un autovettore di M e α è il numero reale tale che M v = αv, allora di-

R

ciamo che α è un autovalore di M e che v è un autovettore relativo all’autovalore α.

Dunque la Proposizione 1 dice che gli autovalori e gli autovettori di f (che non

dipendono dalla scelta della base) corrispondono agli autovalori e agli autovettori

della matrice di f rispetto a una qualunque base fissata. 3

La Proposizione 1 fornisce uno strumento per calcolare gli autovalori e gli au-

tovettori di f . In più, dice quanti sono al massimo gli autovalori di f . Vale infatti

il fatto seguente. ×

Proposizione 2. Sia M una matrice n n. Allora

def −

χ (λ) = det (M λI)

M

è un polinomio di grado n nell’indeterminata λ.

Gli autovalori di M sono le radici di questo polinomio.

In particolare, gli autovalori di M sono al massimo n.

La seconda parte della Proposizione 2 segue direttamente dalla Proposizione 1.

La prima parte non è difficile da dimostrare, ma qui non ne diamo alcuna di-

mostrazione. Provate a capire perché è vera in generale, dopo avere letto l’esempio

seguente.  

1 2 3

Esempio 1. Sia M = 4 5 6 . Allora

 

7 8 9

     

1 2 3 λ 0 0 1 λ 2 3

− − −

M λI = 4 5 6 0 λ 0 = 4 5 λ 6 .

     

7 8 9 0 0 λ 7 8 9 λ

Con lo sviluppo di Lalace rispetto alla prima riga otteniamo:

− − − − − − − − −

χ (λ) = (1 λ)[(5 λ)(9 λ) 48] 2[4(9 λ) 42] + 3[32 7(5 λ)].

M

È chiaro che non vi sono termini di grado maggiore 3 e che solo il primo addendo

fornisce un contributo al termine di grado 3. Precisamente, il termine principale di

3

−λ

χ (λ) è .

M

Definizione 3. Il polinomio χ (λ) definito nella Proposizione 2 si chiama il

M

polinomio caratteristico della matrice M .

Se cambiamo la scelta della base, come sappiamo dalla seconda parte delle lezioni,

−1

la matrice M cambia in C M C, dove C è la matrice del canbiamento di base. Il

−1

polinomio caratteristico di C M C è −1 −

det (C M C λI).

4 −1 −1 −

Osserviamo che C IC = I, quindi, per la proprietà distributiva, C M C λI =

−1 −

C (M λI)C. Utilizzando il Teorema di Binet, otteniamo che il determinante di

questa matrice è

−1 −1 −1

− − −

det (C (M λI)C) = det (C )det (M λI)det C = (det C) det (M λI)det C

= det (M λI).

Otteniamo quindi il risultato seguente. ×

Proposizione 3. Se M e C sono matrici n n e C è invertibile, allora M e

−1

C M C hanno lo stesso polinomio caratteristico.

0

Quindi se le matrici M e M rappresentano il medesimo endomorfismo f di V

0

rispetto a due basi diverse, allora M e M hanno lo stesso polinomio caratteristico.

Grazie alla Proposizione 3, possiamo definire il polinomio caratteristico di un

endomorfismo. 0

Definizione 3 . Il polinomio caratteristico di f è il polinomio caratteristico della

matrice di f rispetto a una qualunque base di V .

La Proposizione 1 può essere rienunciata nel modo seguente.

Teorema 1. Gli autovalori di f sono le radici del suo polinomio caratteristico.

Gli autovettori di f relativi all’autovalore α sono gli elementi non nulli del sot-

tospazio vettoriale ker(f αId), dove Id è l’applicazione identità di V in sè.

Esempio 1. Sia    

x 2x + z

3 3

→ 7→

f : y 2y + 3z .

R R    

−z

x 3

La matrice di f rispetto alla base canonica di è

R 

 2 0 1

M = 0 2 3 

 −1

0 0 5

quindi il polinomio caratteristico di f è

2 λ 0 1 2

− −

− = (−1 λ)(2 λ)

0 2 λ 3

−1 −

0 0 λ

−1

Quindi f ha come autovalori e 2.

Per calcolare gli autovettori di f dobbiamo calcolare esplicitamente gli spazi nulli

− −

delle matrici M (−1)I e M 2I: gli elementi non nulli di questi spazi sono gli

autovettori. −1.

Calcoliamo prima gli autovettori relativi a Risolviamo quindi il sistema

omogeneo (M + I)x = 0.

La matrice dei coefficienti è  

3 0 1

M + I = 0 3 3 ,

 

0 0 0

quindi risolvendo il sistema si trova 13

− z

x = .

−z

y =

Perciò 

 1 

 − z

3 

N −z | ∈

z ,

(M + I) = R

 z

 

−1

e quindi l’insieme degli autovettori relativi a è

 

1

 

− z

3

 

−z | ∈ 6

z z = 0 .

R,

 

z

 

Calcoliamo ora gli autovettori relativi a 2 risolvendo il sistema omogeneo

− = 0.

(M 2I)x

La matrice dei coefficienti è  

0 0 1

M 2I = 0 0 3 ,

 

−3

0 0

6

quindi risolvendo il sistema si trova semplicemente

{ z = 0 ,

mentre x e y sono libere. Perciò  

 

x

 

N − | ∈

(M 2I) = y x, y R

 

0

 

e l’insieme degli autovettori relativi a 2 è

 

 

x

 

| ∈ 6

y x, y (x, y) = (0, 0) .

R,

 

0

 

Algebra: fatti da ricordare e complementi.

Sia p(x) un polinomio a coefficienti reali nell’indeterminata x. Indichiamo con

deg p(x) il grado di p(x).

• Definizione A. Una radice reale di p(x) è un numero reale α tale che p(α) = 0

(dove p(α) è il numero reale ottenuto sostituendo α all’indeterminata x).

• Teorema A. Il numero reale α è una radice di p(x) se e solo se p(x) è divisibile

per (x α), cioè se e solo se esiste un polinomio a coefficienti reali q(x) (di grado

n 1) tale che −

p(x) = (x α)q(x). (∗)

Supponiamo che α sia una radice di p(x) e consideriamo la fattorizzazione (∗).

Se α è radice anche del polinomio q(x), allora possiamo fattorizzare anche q(x) in

− −

accordo con il Teorema A, diciamo q(x) = (x α)q (x) (con deg q (x) = n 2).

2 2

Induttivamente otteniamo la fattorizzazione m

p(x) = (x α) s(x),

α −

dove m è un intero positivo e s(x) è un polinomio, di grado n m , non divisibile

α α

per (x α). L’intero m si chiama la molteplicità della radice α del polinomio p(x).

α 7

• Definizione B. La molteplicità della radice α del polinomio p(x) è il massimo

m

degli interi m tali che p(x) è divisibile per (x α) .

Esempio 2. Consideriamo il polinomio 2 2

− −

p(x) = (x 1)(x + x 2)(x + 1).

2 −2,

Il fattore x +x−2 ha come radici reali 1 e quindi si fattorizza come (x−1)(x+2),

2

mentre il fattore x + 1 non ha radici reali e quindi è irriducibile. Ne segue che

2 2

p(x) = (x 1) (x + 2)(x + 1)

−2,

e che le radici di p(x) sono 1, con molteplicità 2, e con molteplicità 1.

• Terminologia: quante radici reali ha un polinomio. Di solito, quando

diciamo che il polinomio reale p(x) ha k radici reali sottintendiamo che contiamo le

radici con la loro molteplicitá. Ad esempio per il polinomio dell’Esempio 2 diciamo

−2

che ha 3 radici reali (1 contata due volte, e contata una volta). Se invece

contiamo la radici senza tenere conte della molteplicità, allora specifichiamo che

stiamo contando le radici distinte. Ad esempio il polinomio dell’Esempio 2 ha 2

radici reali distinte.

• Teorema B. Se deg p(x) = n, allora p(x) ha al massimo n radici reali (contate

con molteplicità).

Torniamo agli autovalori.

Definizione 4. Sia α un autovalore dell’endomorfismo f . La molteplicità algebrica

di α è la molteplicità di α come radice del polinomio caratteristico di f .

Abbiamo un’altra nozione di molteplicità di un autovalore.

Definizione 5. Sia α un autovalore dell’endomorfismo f . La molteplicità geome-

trica di α è la dimensione del sottospazio vettoriale ker(f αId). −

Per definizione di autovalore, se α è un autovalore di f allora ker(f αId) è un

sottospazio non nullo, quindi la molteplicità geometrica di α è necessariamente un

intero strettamente positivo.

8 La traduzione nel linguaggio delle matrici delle precedenti definizioni è la se-

guente: 0 0

Definizione 4 +5 . Sia α un autovalore della matrice M .

La molteplicità algebrica dell’autovalore α è la sua molteplicità come radice del

polinomio caratteristico det (M λI). N −

La molteplicità geometrica di α è la dimensione dello spazio nullo (M αI).

Esempio 3. Sia    

x 2x + y

3 3

→ 7→

y

f : 2y .

R R    

x 2z

3

La matrice di f rispetto alla base canonica di è

R

 

2 1 0

M = 0 2 0

 

0 0 2

quindi il polinomio caratteristico di f è

2 λ 1 0 3

− = (2 λ) .

0 2 λ 0

0 0 2 λ

Quindi f ha come unico autovalore 2, con molteplicità algebrica 3.

La molteplicità geometrica di 2 è la dimensione dello spazio nullo della matrice

     

x 0

0 1 0

M 2I = 0 0 0 y = 0 .

     

0 0 0 z 0

× N −

Sappiamo che in generale, se A è una matrice n n, allora dim (A) = n rk A,

quindi la molteplicità geometrica di 2 è

− − −

3 rk (M 2I) = 3 1 = 2.

Esercizio 1. Considerate le due matrici

  

 2 1 0 2 0 0 .

0 2 0

M = 0 2 1 ; M =

3

1 

 

 0 0 2

0 0 2 9

Verificate che entrambe hanno lo stesso polinomio caratteristico della matrice M

dell’Esempio 3 e che la molteplicità dell’autovalore 2 è 1 per la matrice M e 3 per

1

la matrice M .

3

Una matrice quadrata si dice diagonale se ha tutti gli elementi nulli tranne al

B {v }

più quelli della diagonale principale. Supponiamo che = , . . . , v sia una

1 n

B

base dello spazio vettoriale V tale che la matrice M di f rispetto a sia diagonale,

poniamo α 0 ... ... 0

 

1 ..

0 α 0 ... .

 

2

 

.. ..

..

..

 

M = .

.

. .

. 0

 

 

.. ..

..

 

.

.

. 0

 

0 ... ... 0 α

n B,

Per definizione le colonne di M sono le coordinate di f (v ), . . . , f (v ) rispetto a e

1 n

quindi otteniamo che f (v ) = α v , per i = 1, . . . , n. Questo vuol dire che v , . . . v

i i i 1 n

sono autovettori di f , relativi agli autovalori α , . . . , α , rispettivamente.

1 n

Viceversa, è chiaro che la matrice di f rispetto ad una base costituita di au-

tovettori è una matrice diagonale e che i termini diagonali di questa matrice sono

autovalori di f .

Definizione 6. L’endomorfismo f si dice diagonalizzabile se esiste una base di f

costituita di autovettori, cioè una base rispetto alla quale f ha matrice diagonale.

La matrice reale quadrata M si dice diagonalizzabile se esiste una matrice reale

−1

invertibile C tale che C M C è una matrice diagonale.

Osservazione 3. Se M è la matrice di f rispetto a una qualunque base, allora f

è diagonalizzabile se e solo se M è diagonalizzabile. Il “solo se” è immediato dalla

definizione; il “se” segue dal fatto che ogni matrice invertibile è la matrice di un

cambiamento di base (perché ?).

Esempi.

4. L’applicazione f dell’Esempio 3 non è diagonalizzabile. Infatti il suo unico

autovalore, 2, ha molteplicità geometrica 2. Questo vuol dire che lo spazio nullo

di (M 2I) ha dimensione 2, quindi, poiché gli autovettori appartengono a questo

spazio nullo, un insieme linearmente indipendente di autovettori ha al massimo 2

10 3

elementi: ne segue che non può esistere una base di costituita di autovettori di

R

f .

5. Consideriamo l’applicazione lineare

   

x 3x

3 3

→ 7→

y

f : x + 2y .

R R    

z 2x + 2z

La matrice di f rispetto alla base canonica è

 

2 0 0

M = 1 3 0 ,

 

2 0 3

quindi il polinomio caratteristico di f è

2 λ 0 0 2

− −

− = (2 λ)(3 λ) .

1 3 λ 0

2 0 3 λ

Gli autovalori sono quindi 2, con molteplicità algebrica 1, e 3, con molteplicità

algebrica 1. Le molteplicità geometriche sono:

per 2  

0 0 0

3 − − − −

dim rk (M 2I) = 3 rk 1 1 0 = 3 2 = 1,

R  

2 0 2

e per 3  

−1 0 0

3 − − − −

dim rk (M 3I) = 3 rk 1 0 0 = 3 1 = 2.

R  

2 0 0

Quindi sappiamo che possiamo trovare un insieme indipendente di 2 autovettori rel-

ativi a 2, così come ovviamente possiamo trovare un autovettore relativo a 3 (non

nullo per definizione). Se mettendo insieme i tre autovettori così trovati ottenessimo

ancora un insieme linearmente inidipendente, avremmo una base di autovettori e

potremmo diagonalizzare f . In realtà succede proprio questo: calcoliamo esplicita-

− = 0.

mente gli autovettori di f . Risolviamo il sistema (M 2I)x

−x

x + y =0 y =

; ci conviene lasciare libera la x, otteniamo: , quindi

−x

2x + 2z = 0 z =

 

 

x

 

−x | ∈

N − x .

(M 2I) = R

 −x 


PAGINE

139

PESO

924.93 KB

AUTORE

Sara F

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Appunti ed esercitazioni di Algebra lineare. Nello specifico gli argomenti trattati sono i seguenti:

1. Combinazioni lineari di vettori
2. Sottospazi vettoriali
3. Sottospazio vettoriale generato da un insieme di vettori
4. Insiemi di generatori di uno spazio vettoriale
5. Insiemi di vettori linearmente indipendenti
6. Basi di uno spazio vettoriale
7. Dimensione di uno spazio vettoriale
8. Coordinate
9. Somma e intersezione di sottospazi vettoriali


DETTAGLI
Corso di laurea: Corso di laurea in economia e commercio
SSD:
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Sara F di informazioni apprese con la frequenza delle lezioni di Algebra lineare e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Gabriele D'Annunzio - Unich o del prof Cellini Paola.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in economia e commercio

Matematica Generale Esercizi vari
Esercitazione