Che materia stai cercando?

Algebra lineare e geometria - Appunti Appunti scolastici Premium

Appunti di Algebra lineare e geometria, in cui è presente tutta la teoria di un corso di Geometria e\o Algebra Lineare del primo anno di fisica, ingegneria e prima parte di un corso di Geometria 1 per matematica. Tutti i teoremi sono dimostrati. Argomenti trattati: numeri complessi, matrici e determinanti, sistemi lineari, spazi... Vedi di più

Esame di Algebra lineare e geometria docente Prof. L. Bertani

Anteprima

ESTRATTO DOCUMENTO

Capitolo 2

Numeri complessi

Il campo dei numeri complessi costituisce la chiusura algebrica del campo dei numeri

C 2 −1,

reali Definita l’unita’ immaginaria i tale che i = il campo dei numeri complessi

R. ∈

e’ costituito dai numeri della forma a + ib con a, b

C R.

⇐⇒ <(z) =(z)

z = a + ib = a e = b 0 0 0

Dati i numeri complessi z = a + ib e z = a + ib si definiscono le operazioni di:

0 0 0

• somma z + z = (a + a ) + i(b + b ) con le proprieta’ :

– commutativa

– associativa

– elemento neutro

– opposto

0 0 0 0 0

• −

prodotto zz = (aa bb ) + i(ab + a b) con le proprieta’ :

– commutativa

– associativa

– elemento neutro −1 a b

∀ ∈ \ {0}∃ −

– inverso z z = i

C 2 2 2 2

a +b a +b

Definizione 2.1. Dato il numero complesso z = a + ib si definisce coniugato di z (e si

indica con z̄ ) il numero complesso z̄ = a ib.

Le proprieta’ del coniugato di un numero complesso sono:

• ∈

z + z̄ = 2a R

2 2

• ∈

z z̄ = a + b R

¯

0 0

• z + z = z̄ + z

¯

0 0

• zz = z̄ z 3

• ⇐⇒ ∈

z = z̄ z R

Definizione 2.2. Si definisce modulo del numero complesso z = a + ib il numero reale

√ √

2 2

|z|= a + b = z z̄ = ρ.

Definizione 2.3. Si definisce argomento del numero complesso z = a + ib l’angolo

aρ b

θ = arccos = arcsin .

ρ

forma trigonometrica di un numero complesso: z = ρ(cos θ + i sin θ)

0 0 0

⇐⇒ ∧ ∈

z = z ρ = ρ θ = θ + 2πk, k Z

0 0 0 0

zz = ρρ [cos(θ + θ ) + i sin(θ + θ )]

n n

formula di De Moivre: z = ρ [cos(nθ) + i sin(nθ)]

Teorema 2.0.1 (fondamentale dell’algebra). Un’equazione algebrica di grado n a coef-

ficienti reali ha sempre esattamente n soluzioni in campo complesso.

Proposizione 2.0.2. Un’equazione algebrica di grado dispari a coefficienti reali ha

sempre almeno una soluzione reale.

n ∈ ∀ ∈

Dimostrazione. Sia a x + ....... + a x + a = 0 con a i = 0...n e sia α

R C

n 1 0 i

n

soluzione, quindi a α + ....... + a α + a = 0 . Per le proprieta’ dei numeri complessi, sia

n 1 0 n

n

ha anche che a α + ....... + a α + a = 0̄ e conseguentemente a ᾱ +.......+a ᾱ+a = 0

n 1 0 n 1 0

, quindi anche ᾱ e’ soluzione. α e ᾱ sono soluzioni accoppiate, quindi se n e’ dispari, per

il teorema fondamentale dell’algebra, un numero dispari di coppie di soluzioni coniugate

(in particolare almeno 1) deve coincidere ed essere percio’ un unico numero reale. Si e’

quindi provato che un’equazione algebrica di grado dispari a coefficienti reali ha almeno

una radice reale. n

radici n-esime di un numero complesso: x = α = ρ (cos θ + i sin θ )

0 0 0 0

n

⇐⇒

α = ρ(cos θ + i sin θ) e’ soluzione α = α

0 √ θ 2πk

n ⇐⇒ ∧ ∈

ρ (cos(nθ) + i sin(nθ)) = ρ (cos θ + i sin θ ) ρ = ρ θ = + ,k

0

n Z

0 0 0 0 n n a+ib

Definizione 2.4. Si definisce esponenziale complesso il numero complesso e =

a

e (cos b + i sin b). L’esponenziale complesso gode delle stesse proprieta’ delle potenze

di numeri reali. iθ

Dall’uguaglianza e = cos θ + i sin θ si puo’ giungere alla forma esponenziale di un

numero complesso z = ρe 4

Capitolo 3

Matrici, determinanti e sistemi lineari

·

Definizione 3.1. Si definisce matrice m n ad elementi in un campo K un insieme di

·

m n elementi del campo disposti in m righe e n colonne.

 

a a . . . a

11 12 1n

...

 

A =  

...

 

a a . . . a

m1 m2 mn

Definizione 3.2. Se m = n la matrice e’ detta quadrata e gli elementi a tali che i = j

ij

formano la diagonale principale mentre quelli tali che i + j = n + 1 formano la diagonale

secondaria. ∈ ·

Definizione 3.3. Si definisce matrice trasposta di una matrice A K(m n) la matrice

t ∈ ·

A K(n m) ottenuta scambiando le righe con le colonne.

∈ ·

Definizione 3.4. Una matrice quadrata A K(n n) e’ detta:

t

• ∀

simmetrica se a = a i, j = 1....n e quindi A = A

ij ji t

• −a ∀ −

antisimmetrica se a = i, j = 1....n quindi A = A e a = 0

ij ji ii

• ∀

triangolare superiore se a = 0 i > j

ij

• ∀

triangolare inferiore se a = 0 i < j

ij

• ∀ 6

diagonale se a = 0 i = j

ij ∈ ·

Somma di matrici A = (a ) e B = (b ) K(m n) : A + B = (a + b ) con le

ij ij ij ij

proprietá:

• commutativa

• associativa

• elemento neutro 5

• opposto ·

L’insieme delle matrici m n con l’operazione di somma costituisce un gruppo abeliano

·

(M (m n), +) ∀ ∈ ∀ ∈ ·

Prodotto di una matrice per uno scalare del campo λ K, A K(m n)

λA = (λa )

ij ∈ · ∈ · ·

Prodotto righe per colonne A K(m n) e B K(n p) : si definisce A B =

n

P

∈ · a b con le proprietá:

C K(m p) con c =

ij ik kj

k=1

• associativa

• distributiva del prodotto rispetto alla somma ∈ ·

n.b.: non vale la proprieta’ commutativa (e, tranne nel caso in cui A K(m n) e

∈ ·

B K(n m), se e’ definito AB non sara’ definito BA)

Definizione 3.5. Si definisce determinante di una matrice quadrata una funzione che

associa ad una matrice quadrata un numero del campo con determinate proprieta’ (mul-

· →

tilinearitá, alternanza, normalizzazione per la matrice identitá) f : K(n n) K,

7−→ |

A detA =| A

n=1 A = (a ) detA = a

11 11

 

a a

11 12 −

n=2 A = detA = a a a a

11 22 12 21

 

a a

21 22

A = sottomatrice ottenuta cancellando l’i-esima riga e la j-esima colonna

ij

1’ formula di Laplace n i+k

P

• (−1) a detA

rispetto alla riga i detA = ik ik

k=1 n j+k

P

• rispetto alla colonna j detA = (−1) a detA

kj kj

k=1

2’ formula di Laplace n

X k+r

(−1) a detA = 0

kr ks

k=1

6

con r = s

Osservazione 1. La seconda formula di Laplace implica che se una matrice ha due righe

uguali allora il determinante é nullo. 6

Proprietá del determinante

  

a a . . . a A

11 12 1n 1

... . . .

  

notazione A = =

  

... . . .

  

a a . . . a A

n1 n2 nn n

 

 

A A

1 1

... . . .

 

 

 

 

• ρA A

P1. det = ρdet

i i

 

 

 

 

... . . .

 

 

A A

n n

Dimostrazione. Per induzione, dopo aver verificato il caso banale n=1, si suppone

vera la proprietá per ordine n-1 e si dimostra essere vera per ordine n.

 

A 1

...

  n

  i+k

P

ρA

det = (−1) ρa detA = ρdetA.

i ik ik

 

  k=1

. . .

 

A n

     

A A A

1 1 1

... . . . . . .

     

     

• A + B A B

P2. det = det + det

i i i i

     

     

... . . . . . .

     

A A A

n n n

Dimostrazione. Per induzione, dopo aver verificato il caso banale n=1, si suppone

vera la proprietá per ordine n-1 e si dimostra essere vera per ordine n.

 

A 1

...

  n

  i+k

P

A + B (−1) (a + b )detA = detA + detB.

=

det i i ik ik ik

 

  k=1

. . .

 

A n  

  A

A 1

1 . . .

. . .

   

   

A

A j

i  

  

   6

−det

• . . .

. . . con i = j

=

P3. det    

   

A A

j i

 

 

   

. . . . . .

   

A A n

n

Dimostrazione. Si verifica applicando le proprietá precedenti alla seguente matrice

con determinante nullo (avendo due righe uguali)

7   

   

 

 A

A

A A A

1 1 1

1

1 . . . . . . . . .

. . .

...   

   

 

   

   

 

 A A A

A

A + A i j j

i

i j   

   

 

   

   

 

 . . . . . . . . .

. . .

. . . + det

= 0 = det

det + det + det =

  

   

 

   

   

 

 A A A

A

A + A j i j

i

i j   

   

 

   

   

 

 . . . . . . . . .

. . .

...   

   

 

 A A A

A

A n n n

n

n 

 

 

 

 A

A

A

A 1

1

1

1 . . .

. . .

. . .

. . . 

 

 

 

 

 

 

 

 A

A

A

A j

i

j

i 

 

 

 

 

 

 

 

 −det . . .

. . .

. . .

. . . .

=

=⇒ det

+ det

det 

 

 

 

 

 

 

 

 A

A

A

A i

j

i

j 

 

 

 

 

 

 

 

 . . .

. . .

. . .

. . . 

 

 

 

 A

A

A

A n

n

n

n

• ∈ ·

P4. Il determinante della matrice identitá (A (n n) tale che a = δ , dove δ

ij ij ij

6

e’ il delta di Kronecker, uguale a 1 se i = j e uguale a 0 se i = j) vale 1.

Il determinante non cambia se si somma ad una riga una combinazione lineare delle

rimanenti righe.

Si dimostra essere unica la funzione che gode delle proprietá P1, P2, P3 e P4.

Le proprietá enunciate per le righe valgono ugualmente per le colonne e in particolare

t

vale anche che detA = det A

Teorema 3.0.3 (di Binet). det(AB) = det(A)det(B) det(AB)

· → 6 ∀ ∈ ·

Dimostrazione. f : K(n n) K fissata B con detB = 0 A (n n) f (A) = det(B)

f (A) gode delle proprietá P1, P2, P3, P4 e quindi f (A) = det(A)

det(AB) ⇐⇒

det(A) = det(AB) = det(A)det(B)

det(B)

il teorema, come si proverá pi avanti, continua a valere anche se det(B) = 0

6

Teorema 3.0.4 (di invertibilitá). A é invertibile se e solo se detA = 0

−1 −1

⇒ 6

Dimostrazione. Hp)∃ A /AA = I Ts) detA = 0

−1 −1

det(AA ) = det(I) = 1, per il teorema di Binet det(A)det(A ) = 1 e per la legge di

6

annullamento del prodotto deve essere detA = 0

−1 −1

⇐ 6 ∃

Hp)detA = 0 Ts) A /AA = I

detA

i+j ij

considero B = (b ) = ((−1) )

ij detA detA detA

1+n

   

a a . . . a . . . . . . (−1)

11 n1

11 12 1n detA detA

... ...

   

A = B =

   

... ...

   

detA detA

1+n

a a . . . a (−1) ......

1n nn

n1 n2 nn detA detA

AB =⇒

• i-esima riga di A per i-esima colonna di B, per la prima formula di Laplace é uguale

a1 8

• 6

i-esima riga per j-esima colonna (i = j), per la seconda formula di Laplace é nullo

−1

AB é quindi uguale alla matrice identitá, perci B = A .

Si é quindi trovata esplicitamente l’espressione dell’inversa di una matrice con determi-

nante non nullo.

Sistemi lineari

Prendiamo in considerazione un sistema quadrato (detto di Cramer) di n equazioni in n

incognite

a x + . . . . . . + a x = b

11 1 1n n 1

......

a x + . . . . . . + a x = b

 n1 1 nn n n

il sistema pu essere scritto in forma matriciale 

 

 

 x

b

a a . . . a 1

1

11 12 1n . . .

. . .

... 

 

 

 AX = B

X =

B =

A = 

 

 

 . . .

. . .

... 

 

 

 x

b

a a . . . a n

n

n1 n2 nn detA detA

1+n

 

  b

. . . . . . (−1)

11 n1 1

detA detA . . .

. . .

−1  

 

6

Se detA = 0 si pu scrivere X = A B =  

 

. . .

...

 

 

detA detA

1+n b

......

(−1) nn

1n n

detA detA

(1) (i−1) (i+1) n

det(A ...A BA ...A )

Ciascuna delle incognite x sará quindi uguale a (regola di

i detA

Cramer) ∈ ⇐⇒

Definizione 3.6. Si definisce rango di una matrice ρ(A) = p N

• ∃ una sottomatrice di ordine p con determinante non nullo

• ogni sottomatrice di ordine superiore a p ha determinante nullo

Definizione 3.7. In una matrice A, r righe si dicono linearmente indipendenti se l’unica

loro combinazione lineare che fornisce la riga nulla é quella a coefficienti tutti nulli.

Definizione 3.8. In una matrice A, r righe si dicono linearmente dipendenti se esiste

una loro combinazione lineare a coefficienti non tutti nulli che fornisce la riga nulla

e in questo caso é possibile esplicitare una riga il cui coefficiente é non nullo come

combinazione lineare delle rimanenti.

proprietá del rango: 0

• ⇒ ≤

A’ sottomatrice di A ρ(A ) ρ(A)

t

• ρ(A) = ρ( A) 9

• scambiando due righe o colonne il rango non cambia

Osservazione 2. Se A , A , . . . , A indipendenti⇒ ogni sottinsieme é linearmente indi-

1 2 n

pendente. ⇒

Osservazione 3. Se A , A , . . . , A dipendenti se si aggiungono righe, restano dipen-

1 2 n

denti. ∈ ·

Teorema 3.0.5 (degli orlati). Sia A K(m n). Se ρ(A) = p allora esistono p ri-

ghe (e colonne) linearmente indipendenti e ogni altra e’ combinazione lineare delle p

indipendenti.  

a . . . a . . . a

11 1p 1n

...

 

 

a . . . a . . . a

Dimostrazione. A = p1 pp pn

 

 

...

 

a . . . . . . . . . a

m1 mn

B sottomatrice di A di ordine p con determinante diverso da 0 perché il rango di A é p

⇒ 6 ⇒righe

(righe dipendenti detB = 0)⇔ (detB = 0 indipendenti)

 

a ... a a

11 1p 1,p+1

. . . . . . ...

0  

B =  

a ... a ...

p1 pp

 

a . . . a a

p+1,1 p+1,p p+1,p+1

B’ e’ orlata con una riga in pi scelta tra la rimanenti e una colonna qualunque

0

• ∀

1’ caso i > p j = 1, ..., p 2 colonne uguali quindi detB = 0

• ∀

2’ caso i > p j = p + 1, ..., n B’ sottomatrice di A di ordine p+1 ma il rango di

0

A é p quindi detB = 0

0

1+j i+j 6

0 = (−1) detB + . . . + (−1) a detB = 0 con detB = 0

ij

1j 0

1+j

(−1) a detB

ij 1j

∀ ⇒ −

i > p∀ j = 1, ..., n a a = + . . . = λ a + . . . + λ a =

ij ij 1 1j p pj

detB

p

P λ a

i ij

i=1

Teorema 3.0.6 (di Rouché -Capelli). Un sistema m·n ha soluzione se e solo se il rango

della matrice incompleta é uguale a quello della matrice completa.

a x + . . . . . . + a x = b

11 1 1n n 1

Dimostrazione. . . . . . .

a x + . . . . . . + a x = b

 m1 1 mn n m

   

a a . . . a a a . . . a b

11 12 1n 11 12 1n 1

... ...

0

   

A = A =

   

... ...

   

a a . . . a a a . . . a b

m1 m2 mn m1 m2 mn m

0

⇒ ∃

Hp) (α , ...., α ) soluzione Ts) ρ(A) = ρ(A )

1 n 10

(1) (n)

α A + ..... + α A = B B é combinazione lineare delle colonne di A quindi il rango

1 n

delle due matrici é uguale .

0

⇐ ∃

Hp) ρ(A) = ρ(A ) = p Ts) (α , ...., α ) soluzione

1 n

in A ci sono p colonne linearmente indipendenti e, per il teorema degli orlati, anche in

A’ (1) (p) (p+1) (n)

B = α A + ..... + α A + 0A + ..... + 0A quindi (α , ...., α , 0, ..., 0) é soluzio-

1 p 1 p

ne.

Se un sistema m·n verifica l’ipotesi di Rouch-Capelli posso considerare il sistema equiva-

lente ottenuto considerando solo le p righe che hanno concorso alla determinazione del

rango

(1) sistema m·n (2) sistema p·n con p≤ n

Se(α , ...., α ) é soluzione di (1) lo é sicuramente anche di (2)

1 n

Se (α , ...., α ) é soluzione di (2)

1 n p

p

p n

n n P P

P

P

P P

∀ d b = b

d ( a α ) =

d a α =

j = p + 1, ..., n a α = j

i

i

ij i h h

h hi

h hi i=1

i=1 i=1 h=1

h=1

h=1

In generale posso sempre ricondurre un sistema m·n che verifica l’ipotesi di Rouch-

Capelli ad un sistema p·p di Cramer (con p rango delle matrici completa e incompleta).

n−p

Il sistema avrá soluzioni.

Osservazione 4. Un sistema in cui i termini noti sono tutti nulli é detto omogeneo e

verifica sempre l’ipotesi del teorema di Rouché-Capelli.

11

Capitolo 4

Spazi Vettoriali

Definizione 4.1. Dato un insieme V e un campo K si dice spazio vettoriale un insieme

V, i cui elementi sono detti vettori, che gode di due operazioni interne:

• ∀ ∈ → ∈

somma v, w V+ : (v, w) v + w = u V con:

– proprietá commutativa

– proprietá associativa

– elemento neutro 0 tale che v + 0 = v

∀ ∈ −v

– opposto v V∃ tale che v + (−v) = 0

• ∀ ∈ ∈ · × →

prodotto di un vettore per uno scalare λ K, v V : K V V

→ ∈

(λ, v) λv = w V con:

– proprietá distributiva di uno scalare rispetto alla somma di vettori

– proprietá distributiva di un vettore rispetto alla somma di scalare

– associativa del prodotto di due scalari e un vettore

·

– elemento neutro 1 tale che 1 v = v

proprietá di uno spazio vettoriale:

• il vettor nullo (elemento neutro della somma) esiste ed é unico:

0 0 0 0

per assurdo 0,0 sono distinti quindi 0 + 0 = 0 e 0 + 0 = 0 ma essendo la stessa

0

espressione deve essere 0 = 0 quindi il vettor nullo é unico.

• l’opposto di v esiste ed é unico:

0 0 0 0

−v −v −v

per assurdo e sono distinti quindi (−v + v) + (−v ) = 0 + (−v ) =

0

−v −v −v

e + (v + (−v )) = + 0 = ma, essendo la stessa espressione calcolata

0

−v −v

sfruttando la proprietá associativa della somma di vettori, deve essere =

quindi l’opposto é unico

• ∀ ∈ ·

λ K λ 0 = 0

· · · ·

λ(v + 0) = λ v + λ 0 e λ(v + 0) = λ v quindi λ 0 si comporta da vettor nullo

ed é uguale a 0 12

• ∀ ∈ −v

v V (−1)v = ·

(−1 + 1)v = (−1)v + v e 0 v = 0 quindi (−1)v si comporta da opposto ed é

−v

uguale a ∈ ∈

Definizione 4.2. Dati v , ...., v V e λ , ....., λ K si dice combinazione lineare

1 n 1 n

l’espressione λ v + .... + λ v .

1 1 n n

Definizione 4.3. Si dice che v , ...., v sono linearmente indipendenti se l’unica loro

1 n

combinazione lineare che fornisce il vettor nullo é quella a coefficienti tutti nulli.

Definizione 4.4. Si dice che v , ...., v sono linearmente dipendenti se esiste una loro

1 n

combinazione lineare a coefficienti non tutti nulli che fornisce il vettor nullo.

Definizione 4.5. Si definisce sottospazio vettoriale di uno spazio vettoriale V su K un

insieme W V che é esso stesso uno spazio vettoriale rispetto alle operazioni definite

su V.

Condizione sufficiente per essere un sottospazio é che sia:

• chiuso rispetto alla somma di vettori

• chiuso rispetto al prodotto di un vettore per uno scalare del campo

n {(x ∀ ∈

Definizione 4.6. = , ..., x ) : i = 1...n, x é uno spazio vettoriale su

R R} R

1 n i

Dati x = (x , ..., x ) e y = (y , ..., y ) si ha per definizione che:

1 n 1 n

• x + y = (x + y , ..., x + y )

1 1 n n

• λx = (λx , ..., λx )

1 n

Si considerano W e W sottospazi di V

1 2

S

• W W in generale non é un sottospazio

1 2

T

• W W é un sottospazio vettoriale.

1 2 T

∀ ∈ {x, ∈ ⇒ {x ∈ {x, ∈

Dimostrazione. x, y W W , y} W + y} W e y}

1 2 1 1

T

⇒ {x ∈ {x ∈

W + y} W quindi + y} W W

2 2 1 2

T

∀ ∈ ∈ ∈ ⇒ ∈ ∈ ⇒ ∈

x W W ,λ x W λx W e x W λx W quindi

R,

1 2 1 1 2 2

T

λx W W .

1 2

• {w ∈ ∈ }

somma di sottospazi vettoriali: S = + w : w W ,w W = W +

1 2 1 1 2 2 1

W V

2 0 0 0

∀ ∈ ⇒

s , s W + W s = w + w e s = w + w s + s = (w + w ) +

1 2 1 2 1 1 2 2 1 2 1

1 2 1

0 ∈

(w + w ) S

2 2

∀ ∈ ∈ ∈

s W + W ,∀ λ s = λ(w + w ) = (λw ) + (λw ) S

R,

1 1 2 1 1 2 1 2

La somma di sottospazi é ancora un sottospazio vettoriale

13

T {0}

Definizione 4.7. Se W W = allora W + W é detta somma diretta ed é

1 2 1 2

L

denotata con W W .

1 2 L ⇐⇒ ∀ ∈

Proposizione 4.0.7. W W é diretta s W + W , s = w + w é unica

1 2 1 2 1 2

0 0 0 0

⇒ 6 6

Dimostrazione. per assurdo s = w + w e s = w + w con w = w e w = w .

1 2 1 2

1 2 1 2

0 0 0 0

− − ⇒ − − 6

Quindi 0 = w w + w w w w = w w = 0. Assurdo che esista un

1 2 1 2

1 2 1 2

vettore diverso dal vettor nullo appartenente all’intersezione.

T

⇐ ∃ 6 ∈

per assurdo z = 0 W W quindi si puo’ esprimere s come somma di due

1 2 −z)

vettori, uno per ciascuno dei due sottospazi (w +z)+(w ma questo é assurdo perché

1 2

il vettore non sarebbe ottenibile in un unico modo come somma di vettori appartenenti

ai due sottospazi.

Dati n sottospazi tali che le intersezioni a due a due contengano solo il vettor nullo,

non é detto che siano tutti n in somma diretta. Essi lo sono solamente se, oltre alla

condizione precedente, contengono solo il vettor nullo ricorsivamente la somma diretta

dei precedenti con uno dei rimanenti.

L L ⇐⇒

W . . . W ciascun vettore della somma é esprimibile in modo unico come

1 n

somma di un vettore di ciascun sottospazio. ∈ {λ

Definizione 4.8. Sia V spazio vettoriale su K, v , ...., v V. W = v +....+λ v :

1 n 1 1 n n

∀ ∈

i = 1, ..., n,λ K} = L(v , ...., v ) = Span(v , ...., v ) é detto spazio generato da

i 1 n 1 n

v , ...., v .

1 n

Proposizione 4.0.8. W é un sottospazio vettoriale di V.

∀ ∈

Dimostrazione. x, y W x = α v + .... + α v e y = β v + .... + β v

1 1 n n 1 1 n n

∈ ∈

x + y = (α + β )v + .... + (α + β )v W e λx = (λα )v + .... + (λα )v W.

1 1 1 n n n 1 1 n n

Proprietá dei sottospazi generati

• L(v , ...., v ) = L(v , ...., v ) dove σ(i) indica una permutazione biiettiva.

1 n σ(1) σ(n)

• ∀ ∈

se v , ...., v sono linearmente indipendenti allora x L(v , ...., v )

1 n 1 n

x = α v + .... + α v é unica.

1 1 n n ∃x −

Dimostrazione. suppongo che = β v + .... + β v quindi 0 = (α β )v +

1 1 n n 1 1 1

.... + (α β )v ma α = β perché sono linearmente indipendenti.

n n n i i

• ≤

Siano v , ...., v generatori di W. Se v , ...., v con p n sono linearmente e

1 n 1 p

i successivi sono combinazione lineare dei primi p allora W = L(v , ...., v ) =

1 n

L(v , ...., v ).

1 p 14 p

P

∀ α v

Dimostrazione. k = p + 1, ...n, v = i i

k i=1

⇐⇒ ⊆ ⊆

U = W U W e W U

L’inclusione U = L(v , ...., v ) W é banale se si pongono i coefficienti dei vettori

1 p

v , ...., v uguali a 0

p+1 n ∀ ∈

L’inclusione opposta deriva dal fatto che w W,w = b v +...+b v +b v +

1 1 p p p+1 p+1

... + b v = b v + ... + b v + b f (v , ...., v ) + ... + b f (v , ...., v ) cioé una

n n 1 1 p p p+1 1 p n 1 p

combinazione lineare dei soli primi p vettori indipendenti. Dalla verifica della

doppia inclusione ne discende l’uguaglianza.

• ∈ 6

Sia W = L(v , ...., v ) e v W, x = α v + .... + α v con α = 0 allora

1 n 1 1 n n i

W = L(v , ..., v , ..., v ) = L(v , ..., v, ..., v ).

1 n 1 n

i {λ

Dimostrazione. L(v , ..., v, ..., v ) = v + ... + λ (α v + .... + α v ) + ... +

1 n 1 1 i 1 1 n n

} {(λ }

λ v = + λ α )v + ... + α v + ... + (λ + λ α )v = L(v , ..., v , ..., v )

n n 1 i 1 1 i n i n n 1 n

i i

1

{λ − − − }

L(v , ..., v , ..., v ) = v + ... + (v α v ... α v ) + ... + λ v =

1 n 1 1 1 1 n n n n

i α i

L(v , ..., v, ..., v ).

1 n {e } ⊆

Definizione 4.9. Si definisce base di uno spazio vettoriale V un insieme B = , . . . , e

1 n

V tale che:

• L(e , ...., e ) = V

1 n

• e , ...., e sono linearmente indipendenti

1 n ∀ ∈

Se B é una base di V allora x V, x = a v + .... + a v é esprimibile in modo unico

1 1 n n

e (a , . . . , a ) é l’n-upla delle componenti del vettore rispetto alla base B

1 n n {(1,

Definizione 4.10. base canonica di : B = 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, . . . , 0, 1)}.

R {e }

Teorema 4.0.9 (di completamento ad una base). Se in V spazio vettoriale B = , . . . , e

1 n

é una base e w , . . . , w (con p n) sono linearmente indipendenti allora anche

1 p

{w }

, . . . , w , e , . . . , e é una base di V.

1 p i i

n−p

1 6 6

Dimostrazione. 0 = x = a v + .... + a v suppongo a = 0 (altrimenti cambio ordi-

1 1 n n 1

{w }

ne) e dimostro che B = , e , . . . , e é una base. Per l’ultima proprietá degli spazi

1 2 n

generati L(B ) genera V, resta quindi da dimostrare che sono linearmente indipenden-

1

ti. Si devono distinguere due casi: se a = 0 gli altri coefficienti devono essere tutti

1

nulli perché sottinsieme di vettori di una base quindi i vettori di B sono indipenden-

1

6

ti; se a = 0 potrei esplicitare w come combinazione lineare degli altri vettori ma in

1 1

questo caso avrei due diverse espressioni di w e ci non é possibile. Resta quindi di-

1

mostrato che sono generatori e indipendenti quindi formano una base. Si procede cosi

per iterazione con tutti gli n-p vettori indipendenti finché si arriva a dimostrare che

{w }

B = , . . . , w , e , . . . , e é una base di V.

1 1 p i i

n−p

1 15 ⊆ ⊆

Definizione 4.11. Sia V spazio vettoriale e Q V. B Q é detto sottinsieme

S

∀ ∈ {a}

massimale di vettori linearmente indipendenti in Q se a Q, B é costituito da

vettori linearmente dipendenti. {e }

Proposizione 4.0.10. Sia V spazio vettoriale e B = , . . . , e base di V. Allora B

1 n

é un sottinsieme massimale di vettori linearmente indipendenti.

∀ ∈ − − −

Dimostrazione. v V, v = a e + .... + a e quindi v a e .... a e = 0 perci

1 1 n n 1 1 n n

sono linearmente dipendenti (il coefficiente di v é uguale a 1).

{v }

Proposizione 4.0.11. Se Q = , . . . , v genera V, allora B sottinsieme massimale

1 n

di vettori linearmente indipendenti in Q é una base di V.

Dimostrazione. L(B) = L(Q) = V per una proprietá degli spazi generati e i vettori di

B sono tutti indipendenti quindi B é una base.

{v } {w }

Proposizione 4.0.12. Siano B = , . . . , v e B = , . . . , w basi di V. Allora

1 1 n 2 1 m

m = n. ⇒

Dimostrazione. per assurdo n < m esistono m-n vettori linearmente indipendenti

S {m − }

in B e quindi B n vettori indipendenti in B diventerebbe una base per il

2 1 2

teorema di completamento ma ci é assurdo perché B é un sottinsieme massimale di

1

vettori linearmente indipendenti. Si giunge ad un assurdo anche ponendo m < n e

quindi deve essere m=n.

Definizione 4.12. Si definisce dimensione di uno spazio vettoriale il numero di vettori

che costituiscono una base dello spazio

S

∈ {0}

dimV = n N

⊆ ⇒ ≤

W V dimW dimV ∀ ∈

dim{0} = 0 perché non ammette basi in quanto λ0 = 0, λ K

Teorema 4.0.13 (Relazione di Grassmann). Siano V uno spazio vettoriale e W,U

T

sottospazi di V. Allora dimW + dimU = dimW + U + dimW U }),

Dimostrazione. Si determina una base dell’intersezione di h vettori ({v , ..., v e per

1 h

})

completamento si determinano una base di U di p(≥h) vettori ({u , ..., u e una base

1 p

}).

di W di q(≥h) vettori ({w , ..., w Si deve dimostrare che la somma ha una base

1 q

formata dai p+q-h vettori indipendenti presi dalle basi dei due sottospazi

}).

({v , ..., v , u , ..., u , w , ..., w Essi sono sicuramente generatori quindi resta

1 p q

h h+1 h+1

da dimostrare che sono linearmente indipendenti.

p q

h

X X X

α v + β u + γ w = 0

i j

i j k k

i=1 j=h+1 k=h+1

16

p q

h

X X X

α v + β u = γ w

i j

i j k k

i=1 j=h+1 k=h+1

(Il primo membro appartiene a U e il secondo a W e, data l’uguaglianza, il vettore deve

appartenere all’intersezione ed é esprimibile come combinazione lineare dei vettori della

base) q

q h

h P

P

P

P ⇒

− δ v = 0. L’ultima espressione é una com-

γ w +

δ v

γ w = l l

k k

l l

k k l=1

k=h+1

l=1

k=h+1 ∀ ∀

binazione lineare dei vettori di base di W quindi l = 1, ..., h δ = 0 e k = h + 1, ..., q

l

γ = 0

k p

h P

P

∀ β u = 0 che é una com-

α v +

Dato che k = h + 1, ..., q γ = 0 si pu scrivere j

i j

i

k i=1 j=h+1

∀ ∀

binazione lineare dei vettori di base di U e quindi i = 1, ..., h α = 0 e j = h + 1, ..., p

i

β = 0. I coefficienti della combinazione lineare dei vettori di base della somma devo-

j

no essere tutti nulli per dare il vettor nullo ed é quindi verificato che sono linearmente

indipendenti. Avendo giá detto che sono generatori, costituiscono una base.

17

Capitolo 5

Applicazioni lineari →

Definizione 5.1. Dati due spazi vettoriali V e W su un campo K, f: V W é detta

applicazione (ovunque definita e funzionale) lineare (o omomorfismo) se:

• ∀ ∈

v , v V, f (v + v ) = f (v ) + f (v )

1 2 1 2 1 2

• ∀ ∈ ∀ ∈ ·

v V, λ K, f (λv) = λ f (v)

∀ ∈

Osservazione 5. f (0 ) = 0 poiché v V, f (v + 0 ) = f (v) e f (v + 0 ) =

V W V V

f (v) + f (0 ) quindi f (0 ) = 0 (condizione necessaria affinché un’applicazione sia

V V W

lineare é che il vettor nullo dello spazio di partenza sia trasformato nel vettor nullo dello

spazio di arrivo).

→ →

Siano f : V W e g : V W applicazioni lineari.

(f + g) : V W

∀ ∈

v V, (f + g)(v) = f (v) + g(v)

• ∀ ∈

v , v V (f + g)(v + v ) = f (v + v ) + g(v + v ) = f (v ) + f (v ) + g(v ) +

1 2 1 2 1 2 1 2 1 2 1

g(v ) = (f + g)(v ) + (f + g)(v )

2 1 2

• ∀ ∈ · · ·

v V (f + g)(λv) = f (λv) + g(λv) = λ f (v) + λ g(v) = λ (f + g)(v)

La somma di applicazioni lineari é ancora una applicazione lineare.

· →

λ f : V W

∀ ∈ · ·

v V, (λ f )(v) = λ f (v)

• ∀ ∈ · · · · ·

v , v V (λ f )(v + v ) = λ f (v + v ) = λ f (v ) + λ f (v ) = (λ f )(v ) +

1 2 1 2 1 2 1 2 1

·

(λ f )(v )

2

• ∀ ∈ · · · · ·

v V (λ f )(µv) = λ f (µ v) = λµ f (v) = µ(λ f )(v)

Il prodotto di una applicazione lineare per uno scalare é ancora una applicazione lineare.

Le applicazioni lineari da V a W costituiscono quindi uno spazio vettoriale, indicato

con Hom(V, W) 18 ∈

Definizione 5.2. Si definisce nucleo di un’applicazione lineare Kerf ={v V: f(v)=

}.

0 w ∈

Definizione 5.3. Si definisce immagine di un’applicazione lineare Imf ={w W tali

∃v ∈

che V|f(v)= w}.

Proposizione 5.0.14. Ker f é un sottospazio vettoriale di V.

∀ ∈ ⇒

Dimostrazione. v , v Kerf , f(v )=0 e f(v )=0 f(v + v )=0 + 0 = 0

1 2 1 2 1 2

W W W W W

quindi v + v Kerf .

1 2

∀ ∈ ∀ ∈ ∈Kerf

v Kerf , λ K, f(λv)=λ0 =0 quindi λv .

W W

Proposizione 5.0.15. Im f é un sottospazio vettoriale di W.

∀ ∈ ∃ ∈ ⇒f(v

Dimostrazione. w , w Imf , v , v V|f(v )=w e f(v )=w )+f(v )=w +

1 2 1 2 1 1 2 2 1 2 1

w =f(v + v ) quindi w + w Imf .

2 1 2 1 2

∀ ∈ ∀ ∈ ∈ ∈

w Imf , λ K,∃v V| λf(v)=f(λv)=λw Imf .

→ ⇔ {0 } ⇒ ∀ 6

Proposizione 5.0.16. f : V W lineare é iniettiva Kerf = proof v =

V

6 }.

0 f (v) = f (0 ) = 0 quindi Kerf ={0

V V W V

⇐ ∀ 6 − 6 − 6

v = v v v = 0 quindi f (v v ) = 0 (solo il vettor nullo di V dá il

1 2 1 2 1 2

V W

− 6 ⇒ 6

vettor nullo di W)⇒ f (v ) f (v ) = 0 f (v ) = f (v )

1 2 1 2

W

f : V W lineare é:

• ⇒ ⇔ {0 }

iniettiva monomorfismo Kerf = V

• ⇒ ⇔

suriettiva epimorfismo Imf = W

• ⇒ ⇔Kerf {0 }

biiettiva isomorfismo = e Imf = W

V

Definizione 5.4. Un’applicazione lineare da uno spazio vettoriale in se stesso é detta

endomorfismo. →

Teorema 5.0.17. Siano V, W spazi vettoriali e f : V W lineare. Allora dimV =

dimkerf + dimImf . {v } {f ⊆

Dimostrazione. precisazione: B = , . . . , v base di V e Q = (v ), . . . , f (v )}

1 n 1 n

W ∀ ∈ ∃v ∈

L(Q) =Imf perché w W, V|f(v)= w

ni=1 ni=1

P P

v = α v f (v) = α v = w

i i

i i

dimKerf = p. Si devono distinguere i casi:

∗ p = 0. Si deve dimostrare che la dimensione dell’immagine coincide con quella dello

spazio di partenza. Imf = L(f (v ), . . . , f (v )) generano l’immagine. Resta da dimo-

1 n

strare che sono indipendenti. ⇒

α f (v ) + ... + α f (v ) = 0 f (α v + ... + α v ) = 0 . α v + ... + α v deve

1 1 n n 1 1 n n 1 1 n n

W W

quindi appartenere al nucleo che, avendo dimensione 0, é formato dal solo vettor nullo.

19

α v +...+α v = 0 implica che tutti i coefficienti siano nulli perché é una combinazio-

1 1 n n V

ne lineare dei vettori di una base di V. E’ quindi dimostrato che una base dell’immagine

é formata da n vettori e la dimensione é uguale a quella dello spazio di partenza.

∗ ∀ ∈

p = n Kerf = V essendo un suo sottospazio di dimensione n. v V, f (v) = 0 e

W

{0 },

quindi Imf = cioé dimImf =0.

W

∗ {u } {w } ∃v

0 < p < n B = , ..., u B = , ..., w (con q=n-p) quindi , ..., v

1 p 1 q 1 q

Kerf Imf

tali che k = 1, .., q , f (v ) = w

i i

{u }

Si deve dimostrare che B = , ..., u , v , ...., v é una base di V.

1 p 1 q

∀ ∈ ⇒

v V, f (v) = α w +....+α w = α f (v )+....+α f (v ) = f (α v +....+α v )

1 1 q q 1 1 q q 1 1 q q

⇒ −....−α −....−

f (v)−f (α v +....+α v ) = 0 f (v−α v v ) = 0 quindi v−α v

1 1 q q 1 1 q q 1 1

W W

α v Kerf . Quest’ultimo vettore é quindi esprimibile come combinazione lineare dei

q q p

q

p

q P

P

P

P ⇒

− β u quindi

α v +

β u v =

α v =

vettori di base del nucleo, cioé v k k

k i

k k

k i i=1

i=1 k=1

k=1

una combinazione lineare dei q vettori la cui immagine costituisce una base dell’immagine

e dei p vettori che costituiscono una base del nucleo genera tutti i vettori di V. Resta da

dimostrare che sono tutti indipendenti. Si prende in considerazione la generica combina-

zione lineare uguagliata al vettor nullo di V, β u + ... + β u + α v + ... + α v = 0 .

1 1 p p 1 1 q q V

Applicando la f si ottiene (1) β f (u ) + ... + β f (u ) + α f (v ) + ... + α f (v ) =

1 1 p p 1 1 q q

β f (u ) + ... + β f (u ) + α f (w ) + ... + α f (w ) = 0 . La f applicata ai primi

1 1 p p 1 1 q q W

p vettori che appartengono al nucleo fa ottenere il vettor nullo, perci resta l’ugua-

glianza α f (w ) + ... + α f (w ) = 0 che, essendo una combinazione lineare dei

1 1 q q W ∀

vettori di base dell’immagine implica che i = 1, ..., q,α = 0. La (1) quindi resta

i

⇒ ⇒

β f (u )+...+β f (u ) = 0 β f (u )+...+β f (u ) = 0 f (β u )+...+β u ) =

1 1 p p 1 1 p p 1 1 p p

W W

0 che é l’immagine di una combinazione lineare dei vettori di base del nucleo, il che im-

W ∀

plica che i = 1, ..., p, β = 0. Si é dimostrato che tutti i coefficienti devono essere nulli

i

per dare il vettor nullo. Sono quindi linearmente indipendenti e costituiscono una base

dello spazio di partenza. L’uguaglianza dimensionale iniziale é quindi dimostrata.

Un’applicazione lineare f : V W é unica se sono fissate le immagini dei vettori di

n m

base dello spazio di partenza. Essa é rappresentabile, rispetto alle basi dello spazio di

partenza (di cui sono state fissate le immagini )e di quello di arrivo, in modo univoco da

·

una matrice m n.

→ {v } {w }

f : V W e B = , ...., v base di V, B = , ...., w base di W

1 n 1 m

V W

f (v ) = a w + ...... + a w

1 11 1 m1 m

f (v ) = a w + ...... + a w

2 12 1 m2 m

......

f (v ) = a w + ...... + a w

n 1n 1 mn m  

a a . . . a

11 12 1n

a a . . . a

21 22 2n

 

 

... ... ... ...

La matrice rappresentativa rispetto alle basi B e B é A =

V W  

 

... ... ... ...

 

a a . . . a

m1 m2 mn

Dimensione dell’immagine dimImf = ρ(A)

∀ ∈

v V, v = x v + .... + x v

1 1 n n 20

w = f (v) = f (x v + .... + x v ) = x f (v ) + .... + x f (v ) =

1 1 n n 1 1 n n

x (a w + ...... + a w ) + .... + x (a w + ...... + a w )

1 11 1 m1 m n 1n 1 mn m

Ponendo y = a x +.....+a x ,....,y = a x +.....a x si ha w = y w +....y w

1 11 1 1n n m m1 1 mn n 1 1 m m

 x 1

. . . 

 (n-upla delle componenti di v rispetto alla base di V) e

Definendo X = 

. . . 

 x n

 y

1

. . . 

 (m-upla delle componenti di w rispetto alla base di W) si ha l’uguaglianza

Y = 

 . . . 

y m Y = AX

Composizione di applicazioni lineari

→ →

Siano f : V W e g : W U due applicazioni lineari.

n m m p

{v } {w } {u }

Siano B = , ...., v , B = , ...., w e B = , ...., u e A e B rispettiva-

1 n 1 m 1 p

V W U

mente le matrici rappresentative di f e g rispetto alle date basi.

Si pu definire la composizione g f = g(f (v)) e dati i vettori delle componenti rispetto

     

x y z

1 1 1

. . . . . . . . .

     

alle rispettive basi (X = , Y = , Z = ) si ha l’uguaglianza

     

. . . . . . . . .

     

x y z

n m p

Z = BY = BAX.

Imf = f (V )

n

Img = g(W )

m

Im(g f ) = g(f (V ))

n

◦ ⊆Img ≤

Im(g f ) quindi ρ(BA) ρ(B)

L’ultima disuguaglianza dimostra che se B ha determinante nullo anche BA deve avere

determinante nullo perché il suo rango é minore o uguale a quello di B. Questa é una

possibile dimostrazione del caso escluso dalla dimostrazione del teorema di Binet.

21

Capitolo 6

Geometria analitica

~ ~ ~ ~

Definizione 6.1. Siano AB e CD segmenti orientati. AB é equipollente a CD se :

1) hanno la stessa direzione

2) hanno lo stesso verso

3) hanno la stessa lunghezza

Definizione 6.2. Si dice vettore geometrico la classe di equivalenza (cioé che gode della

~

proprietá riflessiva, simmetrica e transitiva ) rappresentata dal segmento orientato AB.

Somma di vettori geometrici: ~u + ~v

• Se hanno la stessa direzione e verso si sommano le lunghezze come se fossi scalari

e la direzione e il verso restano quelli dei due vettori di partenza.

• Se hanno stessa direzione e verso opposto la lunghezza é data dal modulo della

differenza delle lunghezze, la direzione non cambia e il verso é quello del vettore di

lunghezza maggiore.

• Se non hanno la stessa direzione il vettore somma é rappresentato dalla diagonale

del parallelogramma che ha i due vettori come lati adiacenti.

La somma di vettori gode delle proprietá: commutativa, associativa, elemento neutro e

opposto.

Prodotto di un vettore geometrico per uno scalare: λ~u

Il vettore risultante ha la stessa direzione del vettore di partenza, stesso verso se λ > 0

o verso opposto se λ < 0 e lunghezza moltiplicata per il modulo del coefficiente λ.

Il prodotto di un vettore per uno scalare gode delle proprietá distributiva di un vettore

rispetto alla somma di scalari, di uno scalare rispetto alla somma di vettori, associativa

di due scalari e un vettore e di esistenza dell’elemento neutro (lo scalare 1).

V : spazio vettoriale dei vettori geometrici del piano

2

V : spazio vettoriale dei vettori geometrici dello spazio tridimensionale

3 22


PAGINE

45

PESO

381.26 KB

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Appunti di Algebra lineare e geometria, in cui è presente tutta la teoria di un corso di Geometria e\o Algebra Lineare del primo anno di fisica, ingegneria e prima parte di un corso di Geometria 1 per matematica. Tutti i teoremi sono dimostrati. Argomenti trattati: numeri complessi, matrici e determinanti, sistemi lineari, spazi vettoriali, applicazioni lineari, geometria analitica affine nel piano e nello spazio, cambiamenti di base di endomorfismi, autovalori e autovettori, diagonalizzabilità di endomorfismi, forme bilineari e prodotti scalari, endomorfismi simmetrici e teorema spettrale reale, isometrie lineari e loro classificazione nel piano e nello spazio, proiezioni e triangolarizzabilità di endomorfismi.


DETTAGLI
Corso di laurea: Corso di laurea in matematica
SSD:
Università: Parma - Unipr
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher divo.poma di informazioni apprese con la frequenza delle lezioni di Algebra lineare e geometria e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Parma - Unipr o del prof Bertani Laura.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!