Anteprima
Vedrai una selezione di 6 pagine su 24
Geometria e algebra lineare Pag. 1 Geometria e algebra lineare Pag. 2
Anteprima di 6 pagg. su 24.
Scarica il documento per vederlo tutto.
Geometria e algebra lineare Pag. 6
Anteprima di 6 pagg. su 24.
Scarica il documento per vederlo tutto.
Geometria e algebra lineare Pag. 11
Anteprima di 6 pagg. su 24.
Scarica il documento per vederlo tutto.
Geometria e algebra lineare Pag. 16
Anteprima di 6 pagg. su 24.
Scarica il documento per vederlo tutto.
Geometria e algebra lineare Pag. 21
1 su 24
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

U W

8.3. Teorema di Grassman

dim(U+W) + dim(U W) = dim(U) + dim(W)

∩ 3

4. SPAZI VETTORIALI

9. SPAZI DELLE RIGHE E DELLE COLONNE DI UNA MATRICE

Data una matrice A Mat(m,n;K) gli spazi delle righe e delle colonne della matrice sono

• R(A) = , …, A ) Mat(1,n;K)

ℒ(A ⊆

R(1) R(m)

• C(A) = , …, A ) Mat(m,1;K)

ℒ(A ⊆

C(1) C(n)

Data una matrice A Mat(m,n;K) vale rg(A) = dim(R(A)) = dim(C(A)).

• Teorema delle righe (A S)

R(A) = R(S)

o dim(R(A)) = dim(R(S)) = rg(A)

o Le righe non nulle di S costituiscono una base di R(A)

o

• Teorema di Kronecker: il rg(A)=p se e solo se

Esiste una sottomatrice B Mat(p,p;K) con det(B)≠0

o ∈

Ogni sottomatrice C Mat(p+1, p+1;K) contenente B soddisfa |C|=0.

o ∈

• Teorema delle colonne

rg(A) = rg(A )

T

o dim(C(A)) = rg(A)

o

(A S) con q , …, q indici delle colonne di S che contengono i pivot, allora

o → 1 r

{A , …, A } è base di C(A).

C(q1) C(qr) 4

5. APPLICAZIONI LINEARI

Un’applicazione lineare T: V->W è una funzione tra due spazi vettoriali con due proprietà:

• T(v + v ) = T(v ) + T(v ) • T(λv) = λ T(v)

1 2 1 2

Se B={v , …, v } è una base di V, allora: T(v)=T(x v + … + x v ) = x T(v ) + … + x T(v )

1 n 1 1 n n 1 1 n n

1. MATRICE ASSOCIATA

A ogni applicazione lineare può essere associata una matrice A = M(T) che ha per colonne le

immagini degli elementi della base di V, espresse rispetto alla base di W. Le basi di V e W sono

le basi canoniche. Usando la matrice associata T(V) = A ∙ v.

Un’applicazione lineare può essere definita tramite:

• La regola: T: R -> R tale che T(x,y) = (x+y, 2x, x-y)

2 3

• Le immagini di una base: T: R -> R tale che T(e ) = (1,2,1) e T(e ) = (1,0,-1)

2 3 1 2

• La matrice associata rispetto alla base: T: R -> R tale che la matrice associata rispetto

2 3

1 1

alle basi canoniche è = [ ]

2 0

1 −1

2. IMMAGINE

L’immagine Im(T) è un’applicazione lineare T: V->W è lo spazio generato dalle immagini degli

elementi di una base B={v , …, v } di V:

1 n

Im(T) = {T(v) | v∈V} = ), …, T(v )) W.

ℒ(T(v ⊆

1 n

Utilizzando la matrice A=M(T) associata:

• Im(T) = spazio generato dalle colonne di A

• B(Im(T)) = {colonne linearmente indipendenti di A}

• dim(Im(T)) = rg(A)

3. NUCLEO

Il nucleo N(T) di una applicazione lineare T: V->W è il sottospazio di V formato dagli elementi

la cui immagine è lo 0: N(T) = {v∈V | T(v)=0} V

Utilizzando la matrice A=M(T) associata:

• N(T) = {soluzioni del sistema omogeneo associato ad A}

• dim(N(T)) = n – rg(A) dove n=dim(V)=numero incognite del sistema lineare

4. TEOREMA DI NULLITÀ PIÙ RANGO

Il teorema di nullità più rango afferma che se T: V->W allora:

dim(N(T)) + dim(Im(T)) = n = dim(V)

• Un’applicazione è detta iniettiva se dim(N(T))=0, cioè se N(T)={0}

• Un’applicazione è detta suriettiva se dim(Im(T)) = dim(W), cioè se Im(T)=W

• Un’applicazione è detta biunivoca se è sia iniettiva che suriettiva. Solo in questo caso

l’applicazione è invertibile.

6. ENDOMORFISMI E DIAGONALIZZAZIONE

1. ENDOMORFISMI

Dato V uno spazio vettoriale, un’applicazione lineare f: V->V si dice endomorfismo di V.

L’insieme degli endomorfismi di V si indica con End(V).

Un endomorfismo che sia anche isomorfismo si dice automorfismo di V ed indichiamo con GL(V)

l’insieme di tutti gli automorfismi di V.

Nello spazio End(V) abbiamo una seconda operazione interna oltre alla somma, ovvero la

composizione di due applicazioni lineari. Questo ci permette di definire l’elevamento a potenza

di una applicazione lineare, e quindi il concetto d i polinomio di applicazioni:

f = Id k=0

0

f = f End(V)

k k ∈

f ◦ … ◦ f k volte se k≠0

Allora il polinomio di f a coefficienti c con 0≤i≤k, è un’espressione del tipo:

i

P(f) = c Id + c f + c f + … + c f

2 k

0 1 2 k

2. AUTOVETTORI E AUTOVALORI

Sia V uno spazio vettoriale su campo K, e sia f End(V).

Allora il vettore v si dice autovettore di f se v≠0 ed esiste λ R tale che f(v) = λ v.

Lo scalare λ è detto autovalore di f associato all’autovettore v.

Se λ è un autovalore di f, allora l’insieme V = {f(v) = λ v} si chiama autospazio associato.

λ

• La molteplicità algebrica ma(λ) è la molteplicità dell’autovalore come radice del polinomio

caratteristico

• La molteplicità geometrica mg(λ) è la dimensione dell’autospazio V λ

• λ si dice regolare se ma(λ) = mg(λ)

• λ si dice semplice se ma(λ) = 1

L’applicazione f è detta diagonalizzabile se esiste una base B di V tale che la matrice

rappresentativa F rispetto alla base B è diagonale.

3. RELAZIONE DI SIMILITUDINE

Date due matrici A,B Mat(n,n;K), B si dice simile ad A se esiste una matrice S Mat(n,n;K)

∈ ∈

invertibile tale che B = S A S.

-1

La similitudine è una relazione di equivalenza nell’insieme Mat(n,n;K).

La classe di similitudine [A] è l’insieme di tutte le matrici simili ad A.

3.1. Invarianti

• rg(C [A]) = rg(A)

• Tr(C [A]) = Tr(A)

• det(C [A]) = det(A)

∈ 1

6. ENDOMORFISMI E DIAGONALIZZAZIONE

4. POLINOMIO CARATTERISTICO

Data una matrice A Mat(n,n;K), l’espressione P (λ) = det(A – λ I ) è detta polinomio

∈ A n

caratteristico di A. a -λ … a

11 1n

P (λ) = det(A – λ I ) = ⋮ ⋱ ⋮

| |

A n a … a -λ

n1 nn

Tutti i coefficienti e le radici di P sono invarianti per similitudine.

A

• n=1: P (λ) = a – λ

A 11

• n=2: P (λ) = det(A) – Tr(A)λ + λ 2

A

• n=3: P (λ) = det(A) – I (A)λ + Tr(A)λ – λ

2 3

A 2

4.1. Autovalori e autovettori

• λ è un autovalore di f se e solo se è radice del polinomio caratteristico, ovvero P (λ) = 0

f

• v è un autovettore associato a λ se e solo se v ker(f – λ I )

∈ n

5. CRITERI DI DIAGONALIZZABILITÀ

• L’applicazione f è diagonalizzabile se e solo se esiste una base di V composta da autovettori

• L’applicazione f è diagonalizzabile se e solo se la matrice rappresentativa F è simile ad una

|B

matrice diagonale D.

• Sia V uno s. v. con dim(V) = n <∞, l’applicazione f è diagonalizzabile se e solo se

Il polinomio caratteristico P (λ) ha esattamente n radici contante con molteplicità

o f

Ogni autovalore λ di f è regolare

o

• Sia V uno s. v. con dim(V) = n <∞, l’applicazione f è diagonalizzabile se e solo se

Il polinomio caratteristico P (λ) ha esattamente n radici contante con molteplicità

o f

Ogni autovalore λ di f è semplice

o 2

7. GEOMETRIA AFFINE

1. SPAZI AFFINI

Sia A un insieme non vuoto, V uno spazio vettoriale ed una funzione

Ψ: AxA -> V • Per ogni P la funzione Ψ : {P}xA -> V è biunivoca

P

• Vale la regola del parallelogramma: Ψ(P,Q) + Ψ(Q,R) =

(P,Q) -> ⃗⃗⃗⃗⃗

Ψ(P,R)

Allora è detto spazio affine.

=(A,V,Ψ) ⃗⃗⃗⃗⃗⃗

• Partendo da qualunque punto P è possibile raggiungere ogni Q con un unico vettore PQ .

⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗

• PQ + QR = PR perché la somma di vettori è ben definita

• P A sono detti punti

• (P,Q) AxA è detto segmento orientato da P a Q

⃗⃗⃗⃗⃗⃗

• PQ V è chiamato vettore geometrico da P a Q

• A è il sostegno di

• V è la giacitura di

• dim() = dim(V)

se dim() = 1 -> si dice retta affine

o

se dim() = 2 -> si dice piano affine

o

2. SOTTOSPAZIO AFFINE

Dato uno spazio affine Preso S A, si dice sottospazio affine se

=(A,V,Ψ). ⊆

• Im(Ψ ) V è un sottospazio vettoriale

SxS

• (S, Im(Ψ ), Ψ ) è uno spazio affine

SxS SxS ⃗⃗⃗⃗⃗⃗

• Dato l’insieme U={PQ V | Q S} U è sottospazio vettoriale di V. U è la giacitura di S.

∈ ∈

3. SISTEMI DI RIFERIMENTO

Sia uno spazio affine contenente lo zero 0 e B={v , …, v } una base di V

=(A,V,Ψ) 1 n

• B = {0, v , …, v } è un sistema di riferimento

0 1 n

• 0 è detto origine del sistema di riferimento B 0

• Ø : A -> Mat(n,1;K) è una funzione detta mappa delle coordinate

Bo

P -> Ø (P)

Bo ⃗⃗⃗⃗⃗⃗ ⃗⃗⃗⃗⃗⃗

• P = Ø (P) = Ø (OP ) = OP sono le coordinate di P.

Bo Bo B B

4. MUTUA POSIZIONE A' B'

• S: [A’|B’] con dim(S)=p • S∩T: [A|B] = [ ]

A'' B''

• T: [A’’|B’’] con dim(T)=q

p≥q

• S,T paralleli con S⊆T sse rg[A|B] = rg(A) = n-q

• S,T paralleli disgiunti sse rg([A|B]) > rg(A) = n-q

• S,T incidenti sse rg([A|B]) = rg(A) > n-q

• S,T sghembi sse rg([A|B]) > rg(A) > n-q 1

7. GEOMETRIA AFFINE

5. IPERPIANI

Sia spazio affine e S un suo sottospazio, se dim(S) = dim() -1, allora S si dice iperpiano.

Sia uno spazio affine di dimensione dim()=n ≥2, e S,T due sottospazi con dimensioni

dim(S)=n-2 e dim(T)=n-1.

• Il fascio proprio di iperpiani con sostegno S è l’insieme di tutti gli iperpiani contenenti S.

• Il fascio improprio di iperpiani paralleli a T è l’insieme di tutti gli iperpiani paralleli a T.

In R un fascio proprio di rette ha come sostegno S un punto, mentre un fascio improprio è

2

formato da tutte le rette parallele ad una retta T.

In R un fascio proprio di piani ha come sostegno S una retta, mentre un fascio improprio è

3

formato da tutti i piani paralleli ad un piano T.

6. TRASFORMAZIONI AFFINI

Siano ) e ) due spazi affini sul

Dettagli
A.A. 2021-2022
24 pagine
SSD Scienze matematiche e informatiche MAT/02 Algebra

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher edoCappelletti99 di informazioni apprese con la frequenza delle lezioni di Algebra e geometria lineare e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Politecnico di Milano o del prof Compagnoni Marco.