Anteprima
Vedrai una selezione di 9 pagine su 38
Algebra e geometria Pag. 1 Algebra e geometria Pag. 2
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Algebra e geometria Pag. 6
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Algebra e geometria Pag. 11
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Algebra e geometria Pag. 16
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Algebra e geometria Pag. 21
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Algebra e geometria Pag. 26
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Algebra e geometria Pag. 31
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Algebra e geometria Pag. 36
1 su 38
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

APPLICAZIONI LINEARI

Siano V, U due spazi vettoriali su un campo K.

Un’applicazione f: V→U è lineare se:

1. ꓯ v v ϵ V, f(v + v ) = f (v ) + f(v )

1, 2 1 2 1 2

2. ꓯ v ϵ V, α ϵ K, f(αv) = αf(v)

Equivalentemente, f è lineare se:

ꓯ v v ϵ V, ꓯ α , α ϵ K, f(α v +α v ) = α f(v ) + α f(v )

1, 2 1 2 1 1 2 2 1 1 2 2

Osservazioni

1. La somma di applicazioni lineari è lineare

2. Il prodotto per uno scalare di un’applicazione lineare è

lineare

3. La composizione di applicazioni lineari è lineare

Hom

Per definizione Hom(V;U) = {f: V→U lineari}

Nucleo

Sia f: V→U applicazione lineare tra due spazi vettoriali V, U.

Si dice nucleo di f l’insieme di tutti i vettori in V che vengono

mandati in 0 e si scrive

Ker(f) = { v ϵ V / f(v) = 0 }

Immagine

Sia f: V→U applicazione lineare tra due spazi vettoriali V, U.

Si dice immagine di f l’insieme di tutti i vettori di U che vengono

da qualche vettore in V e si scrive

Im (f) = { u ϵ U / f(v) = u }

Osservazioni

1. f è iniettiva ↔ ker(f) = {0}

2. f è suriettiva ↔ Im(f) = U, ossia ꓯ u ϵ U, ꓱ v ϵ V / f(v) = u

Isomorfismo

f: V→U è un isomorfismo se è un’applicazione lineare ed è

biunivoca, ossia f isomorfismo ↔ ker(f) = {0} e Im(f) = U

Teorema

Data una base { v v v } di V e dati vettori u , … u ϵ U

1, 2,… n 1 n

f: V→U è un isomorfismo ↔ {u , … u } è base di U

1 n

Corollario

Tutti gli spazi vettoriali su K della stessa dimensione sono tra loro

isomorfi

Teorema del rango

Sia f: V→U un’applicazione lineare

Dim (kerf) + dim (Im f) = dim V

Teorema

Siano V, U spazi vettoriali.

Sia { v v v } una base di V e siano u , … u ϵ U

1, 2,… n 1 n

Allora esiste una e una sola applicazione lineare f: V→U tale che

f(v ) = u …. f(v ) = u

1 1 n n

MATRICI

Sia K un campo, siano m, n ≥ 1

M = {matrici m x n a coefficienti in K } è uno spazio vettoriale

m,n

rispetto alle operazioni di somma e prodotto per uno scalare

elemento per elemento 11 ⋯ 1

( )

⋮ ⋱ ⋮

1 ⋯

Dim M = m x n

m,n

Una sua base è data da un insieme di matrici elementari

Matrice elementare

Si dice matrice elementare la matrice E una matrice del tipo

i,j

0 ⋯ 0

( )

⋮ 1 ⋱ ⋮

0 ⋯ 0

Osservazione

Se A è matrice di f e B è matrice di g, allora

1. A + B = matrice di f + g

2. αA = matrice di αA

In altre parole, fissata una base B di V e una base C di U

l’applicazione Hom(V;U) → M m,n

è lineare, e in particolare è un isomorfismo

Osservazione n

Ogni spazio vettoriale V di dimensione n si identifica con K e n =

dimV. Tale identificazione dipende dalla base scelta.

Se fisso una base B = { v v v } di V e una base C = {u , … u } di

1, 2,… n 1 n

U, un’applicazione lineare f: V→U può essere rappresentata da

11 ⋯ 1

( )

una matrice m x n = con m righe e n colonne.

⋮ ⋱ ⋮

1 ⋯

In questa matrice f(v )= a u + ….. + a u

j 1j 1 mj m

Questo definisce un’applicazione

Ψ : Hom(V→U) →M

B,C m,n

che è lineare, infatti:

1. Ψ (f + g)= Ψ (f) + Ψ (g)

B,C B,C B,C

2. Ψ (αf) = α Ψ (f)

B,C B,C

Matrice di una composizione

Siano A, B ϵ M rispettivamente le matrici delle applicazioni

m,n

lineari f e g.

Allora matrice di f ◦ g = AB ( )()

(AB) =

i,j =1

Matrice identità

Ogni spazio vettoriale ha l’applicazione id: V→V tale che id(v) = v

ꓯ v ϵ V

Fissata una qualunque base { v v v } di V, la matrice

1, 2,… n

dell’applicazione identità è del tipo

1 ⋯ 0

1

0 ⋱ 0

I = 1 1

0 ⋯ 1)

(

Rango

Data una matrice A, si dice rango di A rk(A):

1. Il massimo numero di colonne linearmente indipendenti

2. Il massimo numero di righe linearmente indipendenti

3. La dimensione del sottospazio generato dalle colonne di A

4. La dimensione del sottospazio generato dalle righe di A

5. Il massimo ordine di un minore (matrice quadrata)

invertibile (detA ≠ 0)

Il rango inoltre è uguale al numero di pivot (a, b, c) di una matrice

a scala, del tipo 0

0 0

Osservazione

Rk(A) = Im(f) dunque il teorema del rango può essere riscritto

come Dim(kerA) = n – dim rkA dove n= dimV

Cambiamenti di base

Sia V spazio vettoriale su K e siano { v v v } e {u , … u } due

1, 2,… n 1 n

basi di V.

Poiché { v v v } è base di V, ogni u ϵ {u , … u } può essere

1, 2,… n j 1 n

scritto come: =1

∑ β(kj)v(k)

u = β v +……+ β vn =

j 1j 1 nj

e si ottiene una matrice B = {β } con k= 1….n e j fisso.

kj

D’altra parte, poiché {u , … u } è base, ogni v ϵ { v v v } può

1 n i 1, 2,… n

essere espresso come: ℎ=1

∑ ɣ(hi)u(h)

v = ɣ u + …..+ ɣ u =

i 1i 1 ni n

e si ottiene una matrice G = {ɣ } con h= 1…n e i fisso.

hi -1

Se moltiplico B e G ottengo la matrice identità → B = G

Ora, sia f: V→ V lineare, sia A la sua matrice nella base { v v v }

1, 2,… n

e M la sua matrice nella base {u , … u }

1 n

Se A = {α } → f(v ) = α v + …. + α v

ik k 1k 1 nk n

=1 =1

∑ ∑

β(kj)v(k) β(kj)

f(u ) = f( ) = f(v ) =

j k

==1 ==1

∑ ∑

α(ik)β(kj)v(i) ɣ(hi)α(ik)β(kj)u(h)

=

-1

Quindi M = B AB dove B è la matrice del cambio di base.

Matrici simili

Due matrici A e M sono simili se esiste una matrice invertibile B

-1

tale che M = B AB

Due matrici sono simili ↔ rappresentano la stessa applicazione

lineare

Determinante

Il determinante serve a stabilire se una matrice è invertire.

• =

Il determinante di una matrice 2x2 è

DetA = ab – bc

• ℎ

Il determinante di una matrice 3x3 B= si calcola

con la regola di Sarrus, per cui detB = aei + dhc + gbf – ceg –

fha – ibd

Proprietà:

• Il determinante è lineare in ogni riga, ossia

1 1 1

( ) ( ) ( )

Det = α det + β det

+

• Il determinante è alternante, ossia

1 1

( ) ( )

Det = -det

• Det (Im) = 1

• T

Det (A ) = det A, da cui deriva che l’applicazione è lineare e

alternante anche in ogni colonna

• Det (AB) = det A x det B

In particolare, se A e M sono due matrici che rappresentano

-1

la stessa applicazione f in due diverse basi, per cui M = B AB,

-1 -1 -1

allora det M = det (B AB) = detB detA detB = det (B B)

detA = detI det A → det M = det A

• Det (A) ≠ 0 → A è invertibile

• Il determinante di una qualunque matrice

… … . 1 …

1 … .

( ) si calcola con il metodo di Laplace,

ossia cancellando la i-esima riga (o la j-esima colonna) e

ij

considerando la matrice A per ogni colonna j

i+1 i1 i+n in

Det A = (-1) a det (A ) + ….. + (-1) a det (A )

i1 in

Matrice inversa

Fissata una base B di V e una base C di U, sia A la matrice di f.

-1 -1

Si definisce A la matrice di f . Per le proprietà del prodotto di

matrici si ha:

-1 -1

1. f ◦ f = id → A A = I

-1 -1

2. f ◦ f = id → AA = I

-1

Dunque A è la matrice che, moltiplicata per A, da la matrice

identità.

Calcolo la matrice inversa

Una matrice quadrata A è invertibile ↔ i suoi vettori colonna

sono linearmente indipendenti, in altre parole se detA≠0

1

-1 T

A = cof (A) dove

det 11 ⋯ 1 i+j ij

( )

Cof (A) = con C = (-1) det (A )

⋮ ⋱ ⋮ ij

1 ⋯

Matrice diagonale

Una matrice D ϵ M si dice matrice diagonale se è nella forma

m,n 1 0 0 0

0 2 0 0

( )

D= 0 0 3 0

0 0 0 4

Osservazioni

1 0 0 0 1 0 0 0

0 2 0 0 0 2 0 0

➢ ( ) ( )

Se D= ed E=

0 0 3 0 0 0 3 0

0 0 0 4 0 0 0 4

11 0 0 0

0 22 0 0

( )

allora DE=ED= 0 0 33 0

0 0 0 44

1 0 0 0

0 2 0 0

➢ ( )

Se D= allora det D = d1d2d3…dn

0 0 3 0

0 0 0 4

1 0 0 0

0 2 0 0

➢ -1

( )

Se D= allora D =

0 0 3 0

0 0 0 4

1 0 0 0

1 1

0 0 0

2 1

0 0 0

3 1

0 0 0

( )

4

Autovalore

Sia f: V→V un’applicazione lineare

ϵ K si dice autovalore di f se ꓱ vϵV, v≠0 tale che f(v)=v

Tale vettore v è detto autovettore.

Inoltre, sia v autovettore e αϵK, allora anche αv è autovettore.

Proposizione

Se esiste una base di V, B= { v v v } composto da autovettori,

1, 2,… n

allora la matrice di f nella base B è una matrice diagonale

1 0 0 0

0 2 0 0

( )

D= 0 0 3 0

0 0 0

Quindi diagonalizzare una funzione significa trovare una base di

autovettori.

Osservazione ,

Sia v un autovettore di autovalore per f: V→V si può osservare

che f(v)= ()(v) quindi (f-)(v) = 0

Quindi v ϵ ker (f-)

Polinomio caratteristico

Si dice polinomio caratteristico p()= det (f-)

è autovalore ↔ p()= 0

Funzione diagonalizzabile

f:V→V è diagonalizzabile se ꓱ una base B di V tale che la sua

matrice D è diagonale

v

è autovalore per f se ꓱ v≠0, vϵV tale che f(v)=

Autospazio

Sia autovalore di f, l’autospazio relativo a è V = { vϵV / f(v)=v}

λ

Molteplicità geometrica ,

Si definisce molteplicità geometrica di mg() = dim V λ

• ≥

Se è autovalore, mg () 1

&b

Dettagli
A.A. 2021-2022
38 pagine
1 download
SSD Scienze matematiche e informatiche MAT/02 Algebra

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher saradublini.sd di informazioni apprese con la frequenza delle lezioni di Algebra e geometria lineare e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università degli Studi di Bologna o del prof Moci Luca.