vuoi
o PayPal
tutte le volte che vuoi
Teorema delle dimensioni
∈Vvv′∈Kerf = vettor nullo, cioe` f e` iniettiva. 4.7: Teorema delle dimensioni.
Teorema delle dimensioni: sia f:V→W un’applicazione lineare tra due spazi vettoriali sullo stesso campo K e sia Vf.g. allora: dimKerf + dim Imf = dimV.
Dimostrazione: siano Imf e Kerf diversi dal vettor nullo. dato che V e` f.g. anche Imf e Kerf sono f.g. siaB (u ,u ,…,u ) una base di Kerf e sia B (w ,w ,…,w ) una base di Imf, esistono per definizione dik 1 2 r I 1 2 simmagine s vettori v ,v ,….,v in V tali che f(v )=w ,…,f(v )=w .se dimostriamo che B=(1 2 s 1 1 s su ,u ,…,u , v ,v ,….,v ) e` base di V abbiamo dimostrato il teorema. B e` un sistema di generatori1 2 r 1 2 sdi V. sia infatti v un vettore di V. allora f(v) e un vettore di Imf e quindi e` esprimibile comecombinazione lineare dei vettori di una base di Imf .pertanto f(v)=a w +..+a w =a f(v )+..+ a f(v ) per le proprieta` di cui godono le applicazioni lineari il vettore v-1 1 s s 1
1 s s(a v +…+a v ) appartiene a Kerf e quindi e` esprimibile come combinazione lineare dei vettori di1 1 s suna base di Kerf. quindi v-(a v +…+a v )= b u +…+b u , cioe` v= b u +…+b u +1 1 s s 1 1 r r 1 1 r ra v +…+a v ,percio` B genera V.1 1 s sComposizioni di applicazioni lineariSiano V,W e U spazi vettoriali sullo stesso campo K ed f:V→W e g:W→U due applicazioni lineari. definiamol’applicazione composta g ○ f :V→U nel seguente modo: per ogni v∈V (g ○ f)(v)= g(f(v)). Si ferifica facilmente che g○ f e` lineare e quindi la composizione di applicazioni lineari e` un’applicazione lineare.se poi f e g sono isomorfismianche g ○ f e` un’isomorfismo. -1Proposizione: f:V→W e` un isomorfismo allora anche f e` un isomorfismo4.8: Matrice associata ad un’applicazione lineare.4.9: Rappresentazione di un’applicazione lineare.Rappresentazione di un’applicazione lineareDefinizione: Sia f:V →W
espressi come combinazione lineare dei vettori di B′. La rappresentazione di f rispetto alle basi B e B′ è quindi data dalla matrice A = [a_ij] di dimensione m x n, dove a_ij è il coefficiente che moltiplica il vettore e_j nella combinazione lineare che rappresenta f(e_i) nella base B′. In altre parole, se v = x_1e_1 + x_2e_2 + ... + x_ne_n, allora f(v) = y_1f(e_1) + y_2f(e_2) + ... + y_mf(e_m), dove y_i = a_i1x_1 + a_i2x_2 + ... + a_inx_n.nespressi come combinazione lineare dei vettori di B′. dopo varie sostituzione e uguaglianze si ottiene il sistema cheesprime la rappresentazione di f nelle basi B e B′:
y = a1x1 +…+anxn
y = a1x1 +…+a2nxn
: : : : : : : : : .
y = a1x1 +…+amxn
In forma matriciale la descrizione di questo sistema e`: Y=AX dove X e` la matrice colonna contenente le componenti di un vettore v di V, Y e` la matrice colonna che contiene le componenti di f(v) in B′ e A e` detta matrice dellarappresentazione di f, le sue colonne contengono le componenti in B′ dei trasformati attraverso f dei vettori di B.
Per le f composte si ha che se f: Y=FX e g: Z=GY g ○ f : Z=(GF)X.
Teorema di binet: se esiste il prodotto GF delle matrici G ed F, allora il rango di GF ≤ al minimo tra il rango di G e quello di F. inoltre se G e` quadrata e invertibile allora il rango di GF=al rango di F.
Dimostrazione: siano F e G le matrici associate alle applicazioni lineari
f: Y = FX e g: Z = GY. Poiché per ipotesi esiste GF, allora esiste anche g ○ f. Sia la dimensione di Imf e Img sono maggiori o al più uguali alla dimensione di Im(g ○ f). Inoltre, il rango della matrice associata ad un'applicazione lineare fornisce la dimensione dell'immagine. Pertanto, il rango di GF è minore o uguale al minimo tra il rango di G e quello di F. Inoltre, se G è quadrata e invertibile, allora l'applicazione g è un isomorfismo e la dimensione di Im(g ○ f) coincide con la dimensione di Imf.
Cambiamento di base: Sia f: V → W un'applicazione lineare tra due spazi vettoriali sullo stesso campo K, e siano mf: Y = AX la rappresentazione di f rispetto alle basi B di V e B′ di W, e f′: Y′ = A′X′ la rappresentazione di f rispetto alle basi B′′ di V e B′′′ di W. Siano D la matrice del cambiamento di base da B a B′′, cioè E′ = D E, e C la matrice del cambiamento di base da B′ a B′′′.
cioè un vettore non nullo che soddisfa l'equazione f(v) = kv. La matrice della rappresentazione di f' è A' = C A D .n4.10: Matrici simili.Matrici simili. Definizione: Due matrici A e A' quadrate di ordine n si dicono simili, se esiste una matrice invertibile P, dello stesso ordine n, tale che A' = P AP. Capitolo V: ENDOMORFISMI 5.1: Autovalori e autovettori di un endomorfismo. Definizione: sia f: V→V un endomorfismo di uno spazio vettoriale sul campo K. Un elemento k∈K si dice autovalore per f se esiste un vettore non nullo v∈V detto autovettore tale che: f(v) = kv. Proposizione: sia f: V→V un endomorfismo. Allora k∈K è un autovalore per f se, e soltanto se, Kerf vettore nullo ≠ da ke v∈V è un autovettore di autovalore k se e soltanto se v∈Kerf .k Dimostrazione: k è un autovalore per f se esiste un vettore non nullo per cui f(v) = kv e quindi se f(v) = f(v) – kv = vettore nullo cioè Kerf dal vettore nullo. Ovviamente il vettore v risulta essere un autovettore.Definizione: Un autovalore k di un isomorfismo f: V→V è un valore k∈K tale che f(v) = kv per un vettore v∈V.Proposizione:
Se f è un isomorfismo, allora k∈K è un autovalore per f.Dimostrazione:
Dato che f è un isomorfismo, k è non nullo. Quindi esiste un vettore v che è un autovettore relativo all'autovalore k, cioè f(v) = kv. Applicando l'isomorfismo inverso f-1 si ottiene f-1(f(v)) = f-1(kv), da cui v = k f-1(v). Moltiplicando ambo i membri per k si ottiene f-1(v) = k v, quindi k è un autovalore.5.2: Autospazi.
Definizione: L'autospazio Vk associato a un autovalore k di un endomorfismo f: V→V è l'insieme dei vettori v∈V tali che f(v) = kv. Vk = {v∈V : f(v) = kv }5.3: Ricerca di autovalori e polinomio caratteristico.
Definizione: Se A è una matrice quadrata di ordine n, il suo polinomio caratteristico è il polinomio che si ottiene calcolando il determinante della matrice A - kI, dove k è una variabile e I è la matrice identità di ordine n.- kΔ)X = 0, dove X è la matrice colonna delle componenti di v in B.Indica p(t), il determinante della matrice A - tΔ, cioè: p(t) = A - tΔ.
L'equazione p(t) = A - tΔ = 0 è detta equazione caratteristica.
Teorema: sia f: V→V un endomorfismo di uno spazio vettoriale di dimensione n sul campo K, sia B una base di V e sia A la matrice della rappresentazione di f rispetto alla base B. Un elemento k del campo K è un autovalore di f se, e soltanto se, A - kΔ = 0. Un vettore v di V è un autovettore di autovalore k se, e soltanto se, (A - kΔ)X = 0, dove X è la matrice colonna delle componenti di v in B.
Dimostrazione: lo scalare k è autovalore di f se, e soltanto se, Kerf vettore nullo, quindi se, e soltanto se, il rango della matrice associato all'endomorfismo f è minore di n, ovvero A - kΔ = 0. Mentre v è autovettore di autovalore k se, e soltanto se, v ∈ Kerf e questo equivale alla condizione (A - kΔ)X = 0, dove X è la matrice colonna delle componenti di v in B.
= (f(v_{r+1}), ..., f(v_n)) è una matrice avente n - r righe e n - r colonne. Ora, consideriamo il polinomio caratteristico di A, che è dato da det(A - kI), dove I è la matrice identità di ordine n. Poiché A è una matrice diagonale, il polinomio caratteristico si riduce a (D - kI)(-1)^{n-r}(F - kI), dove (-1)^{n-r} è il determinante della matrice O. Il polinomio caratteristico si scompone quindi in (d_1 - k)(d_2 - k)...(d_r - k)(f_1 - k)^{n-r}, dove d_1, ..., d_r sono gli autovalori di A corrispondenti ai vettori v_1, ..., v_r e f_1, ..., f_{n-r} sono gli autovalori di A corrispondenti ai vettori f(v_{r+1}), ..., f(v_n). Poiché k è un autovalore di molteplicità algebrica a, il polinomio caratteristico deve contenere il fattore (k - k)^a = 0^a = 0. Pertanto, il polinomio caratteristico deve contenere almeno a fattori (k - k). D'altra parte, la molteplicità geometrica di k come autovalore di A è data dalla dimensione del sottospazio degli autovettori corrispondenti a k. Poiché abbiamo scelto una base B' di autovettori di A, la molteplicità geometrica di k è uguale al numero di vettori v_1, ..., v_r che sono autovettori corrispondenti a k. Quindi, abbiamo dimostrato che 1 ≤ g ≤ a, dove g è la molteplicità geometrica di k e a è la molteplicità algebrica di k.è una matrice quadrata di ordine n – r. risulta che il polinomio caratteristico p (t) coincide con il prodotto dei polinomi caratteristici delle matrici Da re F , quindi p (t) = (k – t) p (t). pertanto la molteplicità di k come radice del polinomioa F caratteristico è almeno r e dunque a . È poi evidente che essendo V dal vettor nullo la sua≥g ≠k k kdimensione è almeno 1.5.6: Caratterizzazione degli endomorfismi diagonalizzabili.
Definizione: un endomorfismo f: V→V si dice diagonalizzabile se è diagonale la matrice della sua rappresentazione rispetto ad una qualunque base di V.
Teorema: sia f: V→V un endomorfismo di uno spazio vettoriale di dimensione n sul campo K, e siano k ,k ,….,k i1 2 rsuoi autovalori distinti. Sono equivalenti le seguenti proposizioni:
- f è diagonalizzabile
- V = V ⊕V ⊕…..⊕Vk1 k2 kr
- le radici del polinomio caratteristico appartengono tutte al campo K e sono
tutte autovalori regolaricioè la loro a =g .k k
Capitolo VI: GEOMETRIA ANALITICA
6.1: Prodotto scalare standard tra vettori geometrici.
Sia u, v (oV ) e : V xV ho∈V
3 2 3u, v = { | u | | v | cos θ
0E’ = 0 se u = 0 oppure v = 0, dove θ è l’angolo convesso che non contiene i prolungamenti dei lati tra u e v.
Proprietà:
- u v = v u
- u u ≥ 0 SEMPRE e u u = 0 ⇔ u = 0
- u (v + v ') = uv + uv '
- (u + u ') v = uv + u ' v
- (k u) v = k (uv) = u(k v)
Un vettore u (oV ) si dice VERSORE se il modulo di questo vettore è 1: | u |=1∈V
Cioè u è versore ⇔ u u = 1
6. 2: Basi ortonormali.
u, v (oV )