vuoi
o PayPal
tutte le volte che vuoi
Conseguenze fondamentali della definizione
Segue direttamente dalla definizione che, se f : V → W è un'applicazione lineare, ∀v₁, ..., vₖ ∈ V e ∀λ₁, ..., λₖ ∈ ℝ, allora: f(λ₁v₁ + ... + λₖvₖ) = λ₁f(v₁) + ... + λₖf(vₖ) In particolare, supponiamo che {v₁, ..., vₙ} sia una base di V. Se v ∈ V, allora v si scrive in modo unico come combinazione lineare di {v₁, ..., vₙ}, poniamo: v = λ₁v₁ + ... + λₙvₙ Quindi: f(v) = λ₁f(v₁) + ... + λₙf(vₙ) Segue che: (1) l'azione di f su una base di V determina l'azione di f su tutto V, e quindi che: (2) due applicazioni lineari da V a W che assumono gli stessi valori su una base di V, coincidono. Applicazioni lineari da ℝᵐ a ℝⁿ. Le conseguenze della definizione che abbiamo scritto ci permettono facilmente di capire cosaSono le applicazioni lineari tra spazi vettoriali di tipo R. Cominciamo col dare un esempio generale di applicazione lineare; poi faremo vedere che tutte le applicazioni lineari tra spazi di tipo R sono comprese in questo esempio.
Sia M una matrice m x n. Allora, per ogni v, il prodotto Mv è definito e è uguale ad un vettore di R. Possiamo quindi definire la funzione L : Rm x n → Rm : v → Mv.
L è un'applicazione lineare, infatti:
- L è additiva, perché per ogni v e v' in Rn si ha L(v + v') = M(v + v') = Mv + Mv' = L(v) + L(v') (proprietà distributiva del prodotto di matrici, Paragrafo 2, Proposizione 2).
- L è omogenea, perché per ogni v in Rn e λ in R si ha L(λv) = M(λv) = λ(Mv) = λL(v) (Paragrafo 2, Proposizione 2).
Quello che stiamo per vedere è che tutte le applicazioni lineari da Rm x n a Rm sono, cioè, agiscono come moltiplicazione a sinistra per una matrice reale di tipo Lm x n.
n× → {e }n m. Infatti, sia f : un’applicazione lineare, , . . . , e la baseR R 1 mmcanonica di ,R · · · |fM = (f (e )| (e ))1 m b 1... un vettore qualunque(la matrice di colonne f (e ), . . . , f (e )) e infine v =1 m b mm · · ·in . Allora v = b e + + b e , quindiR 1 1 m m· · ·f (e ) + + b f (e ) = M v = L (v)f (v) = b 1 1 m m M(la seconda uguaglianza si ottiene usando la solita proprietà del prodotto matriceper vettore colonna, pag. 5)Riassumiamo i risultati ottenuti nella proposizione seguente.m n→Proposizione 1. Sia f : una funzione. Allora:R R ×f è un’applicazione lineare se e solo se esiste una matrice reale M n m taleche f = L ;Mse f è lineare, la (unica) matrice M tale che f = L è la matrice di colonneM m{e }f (e ), . . . , f (e ), dove , . . . , e è la base canonica di .R1 m 1 m 45m n→Definizione: matrice rispetto alle basi canoniche. Sia f : R
Run’applicazione lineare e, con le notazioni usate sopra,|fM = (f (e )| . . . (e ))1 m(quindi f = L ). La matrice M si chiama la matrice di f rispetto alle basiMm ncanoniche (di e ).
Problema.
Sia
Verificare che f è lineare e scriverne la matrice rispetto alle basi canoniche.
Risoluzione. Osserviamo che
quindi f = L con
−11 1
e perciò è lineare. Inoltre, è chiaro che le colonne di M sono le immagini dei vettori3della base canonica di . Perciò M è la matrice di f rispetto alle basi canoniche.
RComposizione di applicazioni lineari e prodotto di matrici. [da scrivere]
Definizione: nucleo e immagine di un’applicazione lineare. Sia→f : V Wun’applicazione lineare tra spazi vettoriali.
Il nucleo di f (in inglese kernel) è per definizione l’insieme
{
(dove 0 è
Il vettore nullo di W è 0
.
L'immagine di f
è l'usuale immagine insiemistica della funzione f
:
{f
| ∈ } {w
∈ | ∃v
∈ Im f
= (v
) ∈ V = W, f
(v
) = w
}.
Nel prossimo enunciato riassumiamo le proprietà principali del nucleo e dell'immagine di un'applicazione lineare.
Proposizione 2. → Sia f
: V
→ W
un'applicazione lineare tra spazi vettoriali. Allora:
ker f
è un sottospazio vettoriale diV
eIm f
è un sottospazio vettoriale diW
.f
è una funzione iniettiva se e solo seker f
= {0
}.- Vale la seguente formula delle dimensioni:
dim V - dim ker f = dim Im f
. f
è biunivoca se e solo seker f
= {0
} edim V = dim Im f = dim W
.f
è biunivoca se e solo sedim V = dim Im f = dim W
.- Se
f
è biunivoca, allora la sua inversaf
-1 è un'applicazione lineare (biunivoca).
Omettiamo gran parte delle dimostrazioni, ma diamo delle indicazioni abbastanza dettagliate su come si fanno e facciamo qualche precisazione sugli
(1) Questo punto è semplice, bisogna semplicemente verificare che ker f e Im f sono non vuoti e chiusi rispetto alla somma e alla moltiplicazione per scalari. Suggeriamo solo come si vede che ker f = per linearità, ker f contiene sempre almeno il vettore nullo di V, infatti f(0) = f(0 + 0) = f(0) + f(0), dove lo zero senza indice e sottolineatura è lo scalare 0 e per chiarezza abbiamo distinto nella notazione i vettori nulli di V e W (nel seguito ometteremo gli indici V e W, è sempre chiaro dal contesto di quale vettore nullo si parla). Le altre verifiche sono standard (provate a farne qualcuna per esercizio). 47
(2) Questo punto è molto importante. Ricordiamo la definizione iniettività: f è iniettiva se e solo se trasforma elementi diversi del dominio in elementi diversi (dell'immagine). Due modi equivalenti di scrivere questo sono i seguenti:
f è iniettiva se e solo se vale la condizione:
(a) ∀ v, v' ∈ V, f(v) = f(v') ⇒ v = v'
v = vf è iniettiva se e solo se vale la condizione:(b) per ogni w in Im f esiste un unico v in V tale che f(v) = w.
{0}= 0, quindi la condizione ker f = vuol dire che l'unico v in V tale che f(v) = 0 è lo 0 di V. Il punto è che se la condizione (b) vale per w = 0, allora vale per tutti i w Im f. In effetti, quello che vale è che 0 ∈ f(v) = f(v'), se e solo se v - v' ∈ ker f (quindi se e solo se v = v' + u per un certo u in ker f) perché 0 ∈ f(v) - f(v') = f(v - v') = f(v' - v) = f(-v + v') = -f(v - v').
Quindi, se w Im f, v V è un qualunque elemento tale che f(v) = w, allora f(w) è l'insieme controimmagine di w, cioè l'insieme di tutti i v V tali che f(v) = w, allora f(w) = {v | v ∈ V, f(v) = w}.
Dove v + ker f = {v + u | u ∈ ker f}. Poiché ker f è un sottospazio vettoriale di V, questo vuol dire che la controimmagine di un
qualunque w in Im f è un sottospazio affine di V che ha come spazio vettoriale associato ker f .(3) Questa dimostrazione è molto simile alla dimostrazione della Proposizione 2 del∅ {0}) e la siparagrafo 6: si considera una base B di ker f (B = se ker f =0 0∪completa a una base di V , B = B B , con B disgiunto da B. Si dimostraV0{f | ∈ }quindi che (v) v B è una base di Im f . La tesi sulle dimensioni seguedirettamente.(4) Qui basta ricordare le definizioni:→la funzione f : V W si dice suriettiva se Im f = W , cioe se:per ogni w in W esiste un v in V tale f (v) = w;48 →la funzione f : V W si dice biunivoca (o biettiva, o invertibile) se f è siainiettiva, sia suriettiva, cioe se:(∗) per ogni w in W esiste, ed è unico, un v in V tale che f (v) = w.Ora per un’applicazione lineare l’immagine è un sottospazio vettoriale del codo-minio, quindi si ha che Im f = W se e solo se dim Im f = dim W . Segue che⇔f è suriettiva dim Im f
dim W = 0, Invece la condizione di iniettività equivale a ker f = quindi ⇔ f è iniettiva dim ker f = 0. Utilizzando la formula delle dimensioni si ottiene che f è invertibile se e solo se dim V = dim W e ker f = 0. (5) Qui basta usare di nuovo la formula delle dimensioni e le considerazioni sullasuriettività appena fatte. -1 (6) Ricordiamo cosa è f per una funzione invertibile f. La condizione (*) scritta -1 → sopra che definisce la biunivocità, permette di definire una funzione f : W V-1 ∈ nel modo seguente: per ogni w W, poniamo f(w) = v, dove v è l’unico -1 È immediato che f è a sua volta biunivoca; elemento di V tale che f(v) = w. -1 Quello che bisogna dimostrare è che f è anche un’applicazione lineare, se f lo -1 è. Si tratta di verificare in modo diretto, utilizzando la definizione di f, che essa è additiva e omogenea: provate a farlo per esercizio. m n→ Osservazione. Se f :
un'applicazione lineare invertibile, allora ab-R Rbiamo visto che m e n devono essere uguali e quindi la matrice di f rispetto alle×basi canoniche è una matrice quadrata n n. È immediato verificare che f risulta−1invertibile se e solo se questa matrice è invertibile; inoltre f è L .−1MDefinizione: isomorfismo di spazi vettoriali. Un’ applicazione lineare in-→vertibile f : V W si chiama anche isomorfismo (di spazi vettoriali). Se f è−1 →invertibile, come abbiamo appena visto anche f : W V è un isomorfismo. Duespazi vettoriali V e W si dicono isomorfi se esiste un isomorfismo dall’uno all’altro.49nTeorema. Ogni spazio vettoriale di dimensione n è isomorfo a .RB {v }Dimostrazione. Sia V uno spazio vettoriale di dimensione n e = , . . . , v1 nuna sua base. Sappiamo che ogni vettore v in V si scrive in modo unico comeB:combinazione linear