vuoi
o PayPal
tutte le volte che vuoi
A + 2α1 =
α 3
α +1 0 4α + 2
se questa matrice ammette nucleo non banale (cioè di dimensione almeno
1) allora il suo determinante (l’unico ”minore” di ordine 3) sarebbe nullo:
per Laplace, questo è uguale a −
(−1 + 2α)[(2 + 2α)(4α + 2) 4(α + 1)] =
2 − −
= (−1 + 2α)(8α + 4 + 8α + 4α 4α 4) =
2
− −
= (2α 1)(8α + 8α) = 8α(2α 1)(α + 1)
Ci sono solo tre valori di α per cui ciò è possibile: α = 0, α = 1/2 e
−1.
α = Abbiamo già escluso a priori i primi due casi, che tratteremo
4 −1.
dopo. Caliamoci nel caso in cui α = Allora
0 0 4
−3 −2
− 0
A 21 =
−1 3
−2
0 0
il cui nucleo è chiaramente dato da
− 1 0 0
ker(A 21 ) =
−1 3 −1,
e quindi ha dimensione 1. Possiamo quindi concludere che, per α =
gli autovalori della matrice A sono
−1 −1
x = 0 x = x = 2
1 2 3
ad ognuno dei quali corrisponde un autospazio di dimensione 1, e pertanto
vi è diagonalizzabilità.
Un altro caso in cui potrebbe esserci diagonalizzabilità è quello in cui
α = 0: se α = 0 allora 2
p(x) = x (x + 1)
ci sono solo due autovalori −1
x = 0 x =
1 2
il primo dei quali ha molteplicità algebrica pari a 2 e il secondo pari a 1.
Affinché vi sia diagonalizzabilità deve accadere che le molteplicità alge-
briche e geometriche coincidano, ovvero deve accadere che l’autospazio rel-
ativo all’autovalore x = 0 abbia dimensione 2 e quello relativo all’autovalore
1
−1
x = abbia dimensione 1. Ma abbiamo visto che l’autospazio relativo
2
all’autovalore x = 0, ovvero il nucleo della matrice A , ha dimensione
1 α
∈
1 per ogni valore di α pertanto per α = 0 la matrice A non è
R, 0
diagonalizzabile.
In modo analogo si studia il caso α = 1/2, nel quale il polinomio
caratteristico è 2
p(x) = x(x + 1)
ovvero la matrice A presenta due autovalori
1/2 −1
x = 0 x =
1 2
il primo con molteplicità algebrica 1 e il secondo con molteplicità algebrica
2. Se vi fosse diagonalizzabilità l’autospazio relativo al secondo dovrebbe
avere dimensione 2, ma abbiamo visto che ha dimensione 1 per ogni
∈
valore di α e quindi in particolare anche per α = 1/2. Quindi A
R 1/2
non può essere diagonalizzabile. −1.
In conclusione la matrice A è diagonalizzabile soltanto per α =
α
Nota Bene: l’operazione che richiede un impiego di tempo mag-
giore nella risoluzione di esercizi come questo è il calcolo degli autospazi
−
ker(A λ1 ). In generale, infatti, per estrarre da una matrice M , il suo
n
nucleo, si risolve il sistema lineare omogeneo M x = 0. È importante saper
riconoscere e saper trattare le situazioni in cui questo genere di conti non
è necessario: spesso, come nel caso di questo esercizio, le matrici (anche
parametriche) si presentano in una forma tale per cui risulta evidente quali
siano i coefficienti che realizzano la dipendenza lineare delle loro colonne,
ESERCIZIO 1. 5
questo fatto ci consente di capire sia quali vettori sono autovettori, ma
anche di stimare la dimensione dei nuclei studiati: se trovo un vettore
non nullo che appartiene al nucleo di una matrice, allora tale nucleo ha
dimensione almeno 1. Come si fa a concludere che questa è proprio 1 e
non superiore? A tal fine, è molto importante avere presente la formula
delle dimensioni:
la somma della nullità (o dimensione del nucleo) e del rango (o
dimensione dell’immagine) della matrice di un endomorfismo è
pari al suo ordine: se M è una matrice reale quadrata di ordine
n allora dim ker(M ) + dim Im(M ) = n
il calcolo della nullità può essere quindi derivato, una volta noto il rango.
Ma per conoscere il rango di una matrice quadrata di ordine piccolo ci
viene in aiuto questo ulteriore fatto da ricordare:
il rango di una matrice è uguale al massimo ordine di un suo minore
non nullo
se una matrice ha ordine 3 e so che la sua nullità è almeno 1 so anche che
−
il suo rango è al massimo 3 1 = 2. Per avere la conferma che la nullità
sia proprio 1 dovrei sapere che il rango è esattamente 2, ma per verificare
questo basta trovare un solo minore di ordine due che non sia nullo.
Se invece volessi dimostrare che la nullità sia almeno 2 o se stessi ragio-
nando per assurdo (supponiamo che la nullità non sia uno...) basterebbe
dimostrare (o assumere) che tutti i minori di ordine due sono nulli. Ri-
cordarsi di fare esperienza su questo tipo di calcolo di nullità e rango che
guarda ai minori e non imposta faticosi sistemi lineari. −1.
b) L’unico valore del parametro α che realizza la diagonalizzabilità è α =
La matrice diagonale D ha come elementi sulla diagonale gli autovalori
−1
di A , ovvero
−1
0 0 0
−1
0 0
D =
−1
0 0 2
mentre la matrice H ha come colonne gli autovettori relativi agli au-
−1 −1,
tovalori corrispondenti nell’ordine 0, 2 (li ritrovo guardando gli au-
tospazi) e quindi è data da
2 0 1
2 1 0
H =
−1
−1 0 0
c) Per rispondere a questa domanda occorre ricordare che le matrici reali or-
togonalmente diagonalizzabili sono esattamente quelle simmetriche, per-
tanto è sufficiente capire per quali valori del parametro α la matrice S è
α
simmetrica, ovvero coincide con la propria trasposta: si vede subito che
la condizone da porre è α +1=4
−
da cui α = 4 1 = 3. E siccome è l’unico valore che la rende simmetrica
è anche l’unico valore che la rende ortogonalmente diagonalizzabile. Per
6 α = 3 diventa
2 4
S =
3 4 8
il polinomio caratteristico è 2
− − − − − − −
p(x) = (2 x)(8 x) 16 = 16 2x 8x + x 16 = x(x 10)
da cui ricavo gli autovalori x = 0 e x = 10. L’autospazio relativo al
1 2
primo è dato dal nucleo di S , ovvero dal sottospazio generato dall’autovettore
3
−1).
(2, L’autospazio relativo al secondo è invece generato da un autovet-
−1):
tore ortogonale a (2, ad esempio (1, 2). Ecco trovata una base ortog-
{(2, −1),
onale che diagonalizza S : (1, 2)}. Si verifica facilmente che
3
−1
2 1 2 4 2 1 0 0
=
−1 −1
2 4 8 2 0 10
Esercizio 2.
3
Nello spazio vettoriale dotato del prodotto scalare usuale si considerino i
R
due spazi vettoriali T =< (2, 0, 1), (1, 1, 3) > ed U =< (1, 0, 1), (0, 1, 1) >.
a) Si trovi un sistema lineare che abbia T come soluzione.
⊥
⊕U ⊕U
b) Determinare un sottospazio S non nullo tale che S e S . È unico?
c) Determinare la proiezione ortogonale di v = (1, 1, 1) su U . Determinare
⊕
le componenti di v = (1, 1, 1) su U e su S nella somma diretta S U .
d) Trovare un altro S come sopra in modo che le componenti di v = (1, 1, 1)
1
nella somma diretta siano v stesso in S e il vettore nullo in U .
1
Soluzione 2.
a) La richiesta consiste nel fornire una rappresentazione cartesiana del sot-
tospazio T . È molto importante sincerarsi di saper passare dalla rap-
presentazione vettoriale (quella in cui T è presente nel testo) a quella
parametrica e da questa a quella cartesiana. Per il primo passaggio si
3
procede cosı̀: si scrive un generico vettore di R
t (x , x , x )
1 2 3
e si pongono che condizoni affinché esso appartenga al sottospazio T
*
2 1 x 2 1
x +
1 1
∈ ⇐⇒
0 1 x 0 1
x , = α + β
2 2
x 1 3 x 1 3
3 3
x 2α + β x = 2α + β
1 1
⇐⇒ ⇐⇒
β
x x = β
=
2 2
x α + 3β x = α + 3β
3 3
Una volta scritta la rappresentazione parametrica, per ottenere quella
cartesiana, è sufficiente ”eliminare i parametri”, ovvero risolvere il sistema
scritto sopra in termini di α e β in modo da ritrovarsi con equazioni che
coinvolgano solo x , x , x : da x = β possiamo sostituire β nella terza
1 2 3 2 −
equazione ed ottenere x = α + 3x , da cui α = x 3x , che sostituito
3 2 3 2
−
nella prima equazione dà x = 2x 6x + x , ovvero
1 3 2 2
−
x + 5x 2x = 0
1 2 3
ESERCIZIO 2. 7
quest’ultima equazione è la rappresentazione cartesiana di T , ovvero il
”sistema lineare” (di una sola equazione) le cui soluzioni formano il sot-
tospazio vettoriale T .
b) Il sottospazio S richiesto deve essere in somma diretta sia con U che con
il suo ortogonale, ovvero deve avere intersezione vuota sia con l’uno che
con l’altro. È sufficiente ad esempio che sia generato da un vettore che
non appartiene ad U e non è ortogonale a tutti i vettori di U . Ad esempio
−1)
(1, 0, soddisfa queste richieste: non appartiene ad U in quanto la
matrice
1 1 0
0 0 1
−1 1 1
ha determinante non nullo e quindi le tre colonne sono vettori indipen-
⊥
−1)
denti; inoltre (1, 0, non può appartenere ad U perché non è ortogo-
nale al vettore (0, 1, 1), infatti
−1 · −1 6
1 0 0 1 1 = = 0
⊥
−1) ⊕ ⊕
pertanto se S =< (1, 0, > allora S U e S U . Certamente non è
−1)
l’unico sottospazio a soddisfare le richieste poiché anche S =< (0, 1, >
le soddisfa. Si noti che questi vettori sono ortogonali ad un solo genera-
tore di U . ⊥ 3 3
⊕
c) Siccome U U = ogni vettore di (e quindi in particolare anche
R R ⊥
∈ ∈
v = (1, 1, 1)) si scrive come somma v = v + v con v U e v U .
1 2 1 2
La proiezione ortogonale di v su U è il vettore v . Il metodo più veloce
1
per trovarlo consiste nel calcolare prima v (si tratta di proiettare v su
2
⊥ ⊥
U , che è più facile poiché U è generato da un singolo vettore), e poi
⊥
−
operare la differenza v v = v . Per il calcolo di U occorre porre le
2 1
· ·
condizioni (a, b, c) (1, 0, 1) = a + c = 0 e (a, b, c) (0, 1, 1) = b + c = 0,
⊥
∈< −1)
da cui si ricav