Anteprima
Vedrai una selezione di 10 pagine su 45
Geometria e Algebra Lineare (GAL) - Appunti completi del corso Pag. 1 Geometria e Algebra Lineare (GAL) - Appunti completi del corso Pag. 2
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Geometria e Algebra Lineare (GAL) - Appunti completi del corso Pag. 6
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Geometria e Algebra Lineare (GAL) - Appunti completi del corso Pag. 11
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Geometria e Algebra Lineare (GAL) - Appunti completi del corso Pag. 16
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Geometria e Algebra Lineare (GAL) - Appunti completi del corso Pag. 21
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Geometria e Algebra Lineare (GAL) - Appunti completi del corso Pag. 26
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Geometria e Algebra Lineare (GAL) - Appunti completi del corso Pag. 31
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Geometria e Algebra Lineare (GAL) - Appunti completi del corso Pag. 36
Anteprima di 10 pagg. su 45.
Scarica il documento per vederlo tutto.
Geometria e Algebra Lineare (GAL) - Appunti completi del corso Pag. 41
1 su 45
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

V

1.1.6 Spazi isomorfi e isomorfismi −→

Se U e V sono spazi vettoriali ed esiste un’applicazione lineare f : U V iniettiva e suriettiva, diremo

che U e V sono tra loro isomorfi e scriverò U V . Diremo invece f un isomorfismo.

2 Proprietà e teoremi

2.1 Teoremi su nucleo e immagine di applicazioni lineari

2.1.1 Natura di sottospazio vettoriale dell’immagine di un’applicazione lineare

Si avrà che Im(f ) è un sottospazio vettoriale di V .

2.1.2 Natura di sottospazio vettoriale del nucleo di un’applicazione lineare

Si avrà che ker(f ) è un sottospazio vettoriale di U . Questo si dimostra facilmente in quanto essendo f

lineare: ′ ′ ′ ′

· ·

+ t u ) = t f (u) + t f (u ) (68)

f (tu

Dunque, dato che i due vettori fanno parte del nucleo di f :

′ ′

· ·

t f (u) + t f (u ) = o (69)

25

2.1.3 Basi e applicazioni lineari

−→

Data l’applicazione lineare f : U V e detta B = (u , . . . , u ) una base di U avremo che l’immagine

1 n

degli elementi di B è un sistema di generatori di Im(f ).

Questo in quanto: · · ·

= f (u) =⇒ v = f (a u + + a u ) (70)

v 1 n

1 n

Dunque, essendo f lineare: · · · · ·

= a f (u ) + + a f (u ) (71)

v 1 n

1 n

2.1.4 Teorema di nullità e rango

−→ ∈

Data f : U V , se dim(U ) = n avremo che:

N

dim(ker(f )) + dim(Im(f )) = n = dim(U ) (72)

2.2 Teoremi su iniettività e suriettività

2.2.1 Condizione per la suriettività ⇐⇒

Diremo l’applicazione lineare f suriettiva Im(f ) = V .

2.2.2 Condizione per l’iniettività ⇐⇒ {o}.

Diremo l’applicazione lineare f iniettiva ker(f ) =

Infatti, partendo dall’ipotesi che f sia iniettiva, dato u ker(f ), avremo che:

f (u) = o =⇒ u = o (73)

{o},

Ipotizzando invece che ker(f ) = posto f (u) = f (u ) avremo che:

− ) = o

f (u) f (u (74)

Dunque, essendo f lineare: ′ ′

− − ∈

u ) = o =⇒ u u ker(f ) (75)

f (u

E dunque per l’ipotesi: ′ ′

− u = u

u = 0 =⇒ u (76)

2.2.3 Osservazioni

Si noti che:

• ⇐⇒

Im(f ) ha la stessa dimensione di V f è suriettiva

• ⇐⇒

ker(f ) ha dimensione nulla f è iniettiva

2.2.4 Legame tra iniettività e suriettività

−→ ∈

Data f : U V con dim(U ) = dim(V ) = n avremo che:

N,

⇐⇒ ⇐⇒

f è iniettiva f è suriettiva f è biettiva

La dimostrazione viene dal teorema di rango e nullità, per il quale se f è iniettiva:

dim(Im(f )) + dim(ker(f )) = dim(U ) =⇒ dim(Im(f )) = n = dim(V ) (77)

E dunque f è suriettiva.

Se invece f fosse suriettiva per ipotesi:

dim(Im(f )) + dim(ker(f )) = dim(U ) =⇒ dim(ker(f )) = 0 (78)

E dunque f è necessariamente iniettiva. 26

2.2.5 Suriettività e dimensione di dominio e codominio

−→

Sia f : U V un’applicazione lineare, allora se dim(U ) < dim(V ) allora f non è suriettiva.

Questo in quanto per il teorema di nullità e rango avremo che:

dim(Im(f )) dim(U ) < dim(V ) (79)

E dunque non può essere suriettiva.

2.2.6 Iniettività e dimensione di dominio e codominio

−→

Sia f : U V un’applicazione lineare, allora se dim(U ) > dim(V ) allora f non è iniettiva.

Questo in quanto per il teorema di nullità e rango avremo che:

− ≥ −

dim(ker(f )) = dim(U ) dim(Im(f )) dim(U ) dim(V ) > 0 (80)

E dunque non può essere iniettiva.

2.3 Teoremi sulle applicazioni lineari composte

2.3.1 Linearità di un’applicazione composta

Date le applicazioni lineari: −→

f : U V (81)

−→

g : V W

◦ −→

Avremo che g f : U W è un’applicazione lineare.

Questo è facilmente dimostrabile, infatti:

′ ′ ′

′ ′ ′

· ·

· ·

+ t u + t f (u + t g(f (u

) = g(t f (u) ) = t g(f (u) ) (82)

g(f (tu

2.4 Teoremi sugli spazi isomorfi e sugli isomorfismi

n

2.4.1 Spazi isomorfi a R n

Dato uno spazio vettoriale V tale che dim(V ) = n avremo che V è isomorfo a .

R, R

2.4.2 Applicazione inversa di un isomorfismo

−1

−→ −→

Sia f : U V un isomorfismo, allora f : V U è un isomorfismo.

′ ′ ′

u = v e f (u

Questo perché essendo f suriettiva, esisteranno u, tali che f (u) ) = v . Avremo che:

−1 ′ ′ −1 ′ ′ ′ ′ −1 ′ −1 ′

· ·

+ t v ) = f (f (tu + t u )) = tu + t u = t f (v) + t f (v ) (83)

f (tv

−1

Dunque f è lineare e di conseguenza un isomorfismo.

2.4.3 Transitività dell’isomorfismo ≃ ≃

Se U è isomorfo a V e V è isomorfo a W avremo che U W e W V .

3 Matrici e applicazioni lineari

3.1 Matrici rappresentative

3.1.1 Teorema di rappresentazione di un’applicazione lineare

∈ ∈

Siano U, V spazi vettoriali tali che dim(U ) = n e dim(V ) = m siano le loro basi B , B e sia

N N, U V

−→ ∈

f : U V un’applicazione lineare. Allora avremo che esiste un’unica A n, tale che:

M(m, R)

·

f (u) = A u (84)

B B

V U

3.1.2 Matrice di un’applicazione composta

Date le matrici rappresentative delle applicazioni lineari f e g, ovvero rispettivamente A e B, avremo

◦ ·

che la matrice rappresentativa di g f sarà B A 27

3.2 Cambio di base

3.3 Matrici di cambio di base −→

Si abbia l’applicazione lineare identità id : U U e siano B e C due diverse basi di U . Dirò matrice di

, dà come risultato u . Questa avrà per colonne

cambio di base la matrice la quale, se moltiplicata a u B C

le coordinate rispetto a C dei vettori che compongono la base B. Chiamata dunque P tale matrice avrò

che: ·

id(u ) = P u (85)

C B

3.3.1 Invertibilità di una matrice di cambio di base

Invertendo una matrice di cambio di base da B a C otterrò una matrice di cambio di base da C a B.

3.3.2 Teorema del cambio di base ′ ′

Siano U e V spazi vettoriali di dimensione rispettivamente n e m, siano B , B basi di U e C , C

U U

U U

′ ∈ −→

basi di V . Siano poi A, A n, le matrici che rappresentano l’applicazione lineare f : U V

M(m, R)

rispetto alle due coppie di basi. Avremo dunque che:

′ · ·

A = Q A P (86)

Il cambio di base può essere schematizzato con un diagramma del tipo:

B

A B

V W

B B −1

P P

B

A ′

B

V W

′ ′

B B

3.3.3 Caso particolare

In caso io voglia trovare una matrice rappresentativa in una determinata base a partire dalla sua

rappresentazione in coordinate canoniche avrò:

′ −1 · ·

A = P A P (87)

3.3.4 Matrici simili

′ ′ −1

× × · ·

Siano A, A due matrici n n. Se esiste una matrice invertibile P n n tale che A = P A P , diremo

′ ′

che A è simile ad A e scriveremo A A

3.3.5 Osservazioni sulle matrici simili

Si noti che:

• A è simile a sé stessa

• ′

A è simile ad A e non solo il contrario

• Se A è simile a B che è simile a C allora A è simile a C

28

Parte V

Il determinante

1 Definizione e proprietà

1.1 Definizioni ×

1.1.1 Determinante di matrice 2 2

2

In l’area del quadrato formato dai vettori della base canonica sarà unitaria. Se applico sui due vettori

R

un’applicazione lineare, questi assumeranno valori nuovi e dunque l’area tra loro cambierà, diventando

·

A = t 1. Dirò tale valore t determinante. Si noti che se det(A) < 0 avr un cambio di orientamento

dell’area. In questo caso varrà inoltre che: −

det(A) = ad bc (88)

1.1.2 Matrice minore

Data una matrice A quadrata, dirò minore principale di A di posto (i, j) la matrice quadrata che si

ottiene da A eliminando la i-esima riga e la j-esima colonna. Mi riferirò a tale matrice con A .

ij

×

Dirò inoltre minore di A di ordine r una matrice r r ottenuta eliminando quante righe e quante colonne

sia necessario da A m,

M(n, R).

Se r + 1 min(n, m) e M è un minore di ordine r di A mentre N è un minore di ordine r + 1 di A, dirò

che N orla M se questo è un minore di N .

1.1.3 Contenuto algebrico

Data una matrice quadrata, chiamerò complemento algebrico al posto (i, j) il numero:

i+j ·

(−1) det(A ) (89)

ij

1.1.4 Determinante (definizione ricorsiva)

Data una matrice A n, avremo:

M(n, R)

• se n = 1, allora det(A) = a

11 n

• 1+j

P · ·

se n > 1, allora: det(A) = (a (−1) det(A ))

1j 1j

j=1

1.2 Teoremi e proprietà

1.2.1 Teorema di Laplace

Avremo che, per ogni i: n

X i+j

· ·

det(A) = (a (−1) det(A )) (90)

ij ij

j=1

Essenzialmente questo teorema afferma che posso applicare la definizione ricorsiva di determinante a

qualsiasi riga e non solo alla prima.

1.2.2 Regola di Sarrus ×

Per trovare il determinante di una matrice 3 3 la riscriverò accostata a sé stessa e sommerò i prodotti

delle prime tre diagonali e sottrarrò poi quelli delle altre tre diagonali prese nel verso opposto.

29

1.2.3 Proprietà del determinante

Avremo che:

• Se una matrice ha una riga nulla, essa avrà determinante nullo

• Se una matrice ha due righe uguali, essa avrà determinante nullo

• Se moltiplico una sola riga di una matrice per uno scalare, il suo determinante verrà moltiplicato

per lo stesso scalare

• Se scambio due righe di una matrice il determinante cambierà di segno

• Il determinante è lineare sulla i-esima riga n

• Q

Data una matrice triangolare (alta o bassa) avremo: det(A) = a

ii

i=1

• Il determinante di una matrice è uguale al determinante della sua trasposta

1.2.4 Osservazione

Date le precedenti proprietà sarà facile calcolare il determinante di una matrice rendendola applicandovi

il MEG e tenendo traccia dei passaggi compiuti. Si noti come questo valga anche per le colonne e non

solo per le righe.

1.2.5 Teorema di Binet

Siano A, B n, allora:

M(n, R) · ·

det(A B) = det(A) det(B) (91)

·

Si noti che questo vale anche per il determinante della matrice B A.

1.2.6 Rango e determinante

Dettagli
Publisher
A.A. 2023-2024
45 pagine
SSD Scienze matematiche e informatiche MAT/02 Algebra

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Andrea_Pasini di informazioni apprese con la frequenza delle lezioni di Algebra e geometria lineare e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Politecnico di Milano o del prof Frigeri Achille.