Che materia stai cercando?

Appunti Geometria

Matrici: Matrici ad elementi reali. Lo spazio vettoriale M(m,n)(). Trasposta di una matrice. Matrici quadrate. Matrici simmetriche e antisimmetriche. Decomposizione di una matrice quadrata in parti simmetrica ed antisimmetrica. Matrici triangolari e matrici diagonali. Prodotto di una matrice riga per una matrice colonna. Prodotto righe per colonne di matrici. Matrici unità. Matrici invertibili.... Vedi di più

Esame di Geometria e combinatoria docente Prof. F. Trujillo

Anteprima

ESTRATTO DOCUMENTO

c v + c v + c v + … + c v = O (1)

1 1 2 2 3 3 k k v

v ,v ,v , …, v sono l.i. se e solo se (1) si verifica solo per c =0, c =0, c =0 … c =0

1 2 3 k 1 2 3 k i

v ,v ,v , …, v sono l.d. se e solo se (1) si verifica anche per qualche c ≠ 0

1 2 3 k i

INSIEMEME DI GENERATORI

Un insieme, finito o infinito, di vettori v si dice un insieme di generatori di V se ogni

vettore si può scrivere come combinazione lineare di essi

n

oss: in R i vettori v ,v ,v , …, v , k>=n, costituiscono un insieme di generatori se e

1 2 3 k

solo se ne esistono n vettori l.i. tra di loro

Se W ha un insieme di generatori v ,v ,v , …, v , e se w ,w ,w , …,w sono dei

1 2 3 k 1 2 3 n

vettori, la combinazione lineare di v ,v ,v , …, v , allora

1 2 3 k

v1,v2,v3, …, vk , w1,w2,w3, …,wn

è un insieme di generatori di W

BASI DI UNO SPAZIO VETTORIALE

Una base di uno spazio vettoriale V è un insieme (finito e infinito) di vettori che

contemporaneamente

1. siano un insieme di generatori di V

2. comunque se ne prenda un numero finito, essi siano l.i.

Il numero di vettori di una base per uno spazio vettoriale V e un invariante si dice la

dimensione di

V = dim(V)

Teorema: Sia B=( v ,v ,v , …, v ) una base dello spazio vettoriale V, ogni vettore v di

1 2 3 n

V si può scrivere in modo unico come combinazione lineare dei vettori della base:

v = x v + x v + x v + … + x v

1 1 2 2 3 3 n n

I coefficienti v ,v ,v , …, v sono le coordinate di v rispetto alla base di B

1 2 3 n

v = B x X (n,1)

oss: Le coordinate di un vettore dipendono dalla base impegnata

oss: Le coordinate del vettore nullo rispetto ad una qualsiasi base sono tutte nulle sia

B=( v ,v ,v , …, v ) base di V sia O = c v + c v + c v + … + c v perché

1 2 3 n v 1 1 2 2 3 3 n n

v ,v ,v , …, v sono l.i. Allora c =0 , c =0 , c =0 , … , c =0

1 2 3 n 1 2 3 n

Teorema: Sia B=( v ,v ,v , …, v ) una base di V, allora

1 2 3 n

1. comunque si aggiunga un vettore v appartenente a V alla base, i vettori

v ,v ,v , …, v sono l.d.

1 2 3 n

2. ogni insieme di vettori w ,w ,w , …,w , con k>n, è un insieme l.d.

1 2 3 n

Teorema: Sia dim(V) = n, allora n vettori v ,v ,v , …, v costituiscono una base di V

1 2 3 n

se e solo se loro sono l.i.

TEOREMA DI COMPLETAMENTO DELLE BASI

Sia V uno spazio vettoriale reale con dim(V) = n, e siano v ,v ,v , …, v (k<n) vettori

1 2 3 n

l.i. . Esistono n-k vettori w , w , … , w tali che v ,v ,v , …, v , w , w , … , w

k+1 k+2 n 1 2 3 n k+1 k+2 n

costituiscono una base di V

n

SOTTOSPAZI DI R n

Se W è un sottospazio di R , allora

n

dim(W) <= dim(R ) = n. n

In particolare dim(W) = n se e solo se W = R

CODIMENSIONE

Si definisce la codimensione di W:

codim(W) = rg(A)

dove A matrice di coefficienti del sistema di equazioni cartesiane che rappresenta il

sottospazio W dunque per il teorema di R-C:

n

n – codim(W) = dim(W), n = dim(R )

n

dim(W) + codim(W) = n = dim(R )

INTERSEZIONE E SOMMA DI SOTTOSPAZI

n n

Dati due sottospazi U e W di R si definiscono i sottoinsiemi di R

-intersezione: U∩W

-unione: U W

-somma: U+W n

I sottoinsiemi U∩W e U+W sono sottospazi di R . Inoltre si verifica

dim(U+W) + dim(U∩W) = dim(U) + dim(W) Formula di Grassmann

n

U W in generale non è un sottospazio di R

oss: 1. Il sottoinsieme ∪

2. I sottospazi U e W contengono il sottospazio U∩W

3. U e W sono sottospazi di U+W

Rn n

Il sottospazio nullo O è sottospazio di qualsiasi altro sottospazio di R

4. Rn

Se U∩W = O allora la somma U+W si dice somma diretta e si scrive U W

n

Inoltre se U W = R , allora U e W si dicono sottospazi supplementari

⊕ Rn n

U e W sono supplementari se e solo se U∩W = O e U+W=R se e solo se

dim(U∩W) = 0 e dim(U+W)= dim(U) + dim(W) = n

n n

proposizione: - se U+W=R , allora ogni vettore appartenente a R si può scrivere

come somma

v= u+w (*) n

- se U W = R allora la decomposizione in (*) è unica ovvero esiste

un unica u e w tale che v= u+w

PRODOTTI SCALARI

• PRODOTTO SCALARE TRA VETTORI

n

Dati due vettori u e v di R , si definisce il loro prodotto scalare standard il numero

t

<u , v> = u x v = X x Y = x x y + x x y + … + x x y

1 1 2 2 n n

PROPRIETA' FONDAMENTALI

1. <v+v' , w> = <v , w> + <v' , w>

2. <v, w+w'> = <v , w> + <v , w'>

3. <c x v , w> = <v , c x w> = c x <v , w>

Queste tre proprietà dicono che il prodotto scalare è bilmeare

n n

< , > : R x R R

( v , w ) < v, w>

4. <v , w> = <w , v>

5. < v , v> ≥ 0 Rn

< v , v> = 0 se e solo se v = O

Rn

< v , v> > 0 se e solo se v ≠ O

NORMA

Dato un vettore v si definisce la sua norma o modulo il numero

2 2 2 2

||v|| = sqrt(< v ,v>) = sqrt( (x ) + (x ) + (x ) + … + (x ) )

1 2 3 n

INTERPETRAZIONE GEOMETRICA DELLA NORMA

n

Due vettori v e v di R si dicono perpendicolari o ortogonali se < v , v > = 0

1 2 1 2

Rn

Proprietà: 6. Non degenerazione: se < v ,w> = 0 allora v = O , ovvero il vettore

nullo è l'unico vettore ortogonale ad qualsiasi altro vettore

DISUGUAGLIANZA DI CAUCHY – SCHWARTZ

|< v , w>| ≤ ||v|| x ||w||

L'uguaglianza si verifica se e solo se v ed w sono l.d.

Si ha: -||v|| x ||w|| ≤ < u , w> ≤ ||v|| x ||w||

Rn

per w , v ≠ O : -1 ≤ (< u , w>)/(||v|| x ||w||) ≤ 1

Dati due vettori v, w non nulli, il coseno dell'angolo che si osserva tra di loro è

cos( v ,w ) = (< u , w>)/(||v|| x ||w||)

Se uno dei vettori è il vettore nullo allora cos(v,w) = 0 e l'angolo è indefinito.

Dalla definizione si cos( v, w):

< v, w> = ||v|| x ||w|| x cos( v, w)

Proprietà:

1. || c x v || = |c| x ||v||

2. || v + w || ≤ ||v|| + ||w|| (disuguaglianza triangolare)

3. 2 2 2

|| v + w || = ||v|| + ||w|| (teorema di pitagora)

Proposizione: Dati due vettori v e w non proporzionali allora l'area del

parallelogramma costruito su di loro

2

(A<v,w>) = |<v,v> <v,w>|

|<w,v> <w,w>|

BASI ORTONORMALI

Dato un vettore non nullo v, si definisce il suo versore o vettore unitario

u = v / ||v|| è tale che ||u|| = || ( v / ||v||) || = ( 1 / ||v|| ) x ||v|| = 1

Def: Una base B=( v ,v ,v , …, v )

1 2 3 n

si dice ortogonale se i vettori sono 2 a 2 ortogonali ovvero < v , v > = 0

i j

si dice ortonormale se è una base ortogonale costituita da versori

COEFFICIENTE DI FOURIER

Dati due vettori v e w l.i. non ortogonali

P (w) = vettore proiezione ortogonale di w secondo la direzione di v

Rv

P (w) = a x u u = ( v / ||v|| )

Rv

a = ||w|| x cos(v,w) = ( <v,w>/||v|| )

P (w) = ( <v,w> / <v,v> ) x v

Rv coefficiente di fourier

Lemma: se v e w sono due vettori non nulli ortogonali fra loro, allora sono l.i.

Teorema: se v ,v ,v , …, v sono vettori non nulli a 2 a 2 ortogonali fra di loro, allora

1 2 3 k

sono l.i.

Teorema: se v ,v ,v , …, v sono vettori non nulli a 2 a 2 ortogonali fra di loro allora

1 2 3 n

loro costituiscono una base ortogonale

Procedimento di Gram-Schimidt: (…) si può applicare ad una base di un sottospazio

W per ottenere una sua base ortogonale

SOTTOSPAZIO COMPLEMENTO ORTOGONALE DI UN SOTTOSPAZIO

n n

Il complemento ortogonale di un sottospazio W di R è l'insieme dei vettori di R

ortogonali ad ogni vettore di W

W = { <v,w> = 0 }

⊥ n

Proposizione: - W è un sottospazio vettoriale di R

⊥ n

- W e W sono supplementari ovvero W W = R

⊥ ⊥

BASI EQUIVERSE E CONTRAVERSE

n

Due basi B e B' di R con matrice P di cambiamento di basi, si dicono:

equiverse se det(P)>0

– contraverse se det(P)<0

– n

oss: nell'insieme O di tutte le basi di R la relazione fra le basi

B è equiversa a B'

è una relazione di equivalenza.

Esistono due classi di equivalenza: fissiamo una base B si hanno le classi

+

O = { C appartenente ad O | C è equiversa a B }

-

O = { C appartenente ad O | C è contraversa a B } + -

costituite da basi equiverse fra di loro pertanto O = O O

n + -

Assegnare un orientazione ad R consiste in scegliere uno dei due insiemi O o O

APPLICAZIONI LINEARI

• n m n m

Un'applicazione lineare F: R R tra gli spazi vettoriali R ed R è una

corrispondenza che rispetta le operazioni di addizione tra vettori e moltiplicazione

per uno scalare in ciascuno spazio ovvero:

1. F(v+w) = F(v) + F(w)

2. F(c x v) = c x F(v)

IMMAGINE DI UN'APPLICAZIONE LINEARE

n m

Data un'applicazione lineare F: R R

F(c x v) = c x F(v)

in particolare per c=0:

Rn Rm

F(O ) = O

per c=-1:

F(-v) = -F(v)

NUCLEO DI UN'APPLICAZIONE LINEARE

n m

Sia F: R R un'applicazione lineare, si definisce il suo nucleo o kernel di F

l'insieme Rm

Nu(F) = Ker(F) = { F(v) = O } n

Proposizione: - Nu(F) è un sottospazio vettoriale di R

n

- dim(Nu(F)) = dim(R ) – rg(A) = n – rg(A) } (nullità di F)

dove A è una matrice associata ad F

APPLICAZIONE LINEARE INIETTIVA

Un'applicazione lineare si dice iniettiva se v ≠ w allora F(v) ≠ F(w)

Rn

L'applicazione lineare è iniettiva se e solo se Nu(F) = {O }

IMMAGINE

Data un'applicazione lineare, si definisce l'immagine di F l'insieme

Im(F) = { F(v) = w } m

Proposizione: 1. Im(F) è un sottospazio di R

n

2. Se B=( v ,v ,v , …, v ) è una base di R , allora

1 2 3 n

Im(F) = L{F(v ),F(v ),...,F(v )}

1 2 n

con dim(Im(F)) = rg(A)

Teorema: Data un applicazione lineare allora

n

dim(Nu(F)) + dim(Im(F)) = dim(R ) = n (Teorema della nullità più rango)

TIPI DI APPLICAZIONI LINEARI m

Un'applicazione lineare si dice surriettiva se Im(F) = R

Un'applicazione lineare è biettiva (iniettiva e surriettiva) allora n=m

Un'applicazione lineare biettiva si dice un isomorfismo lineare. Ed è un isomorfismo

lineare se e solo se A ( matrice associata ad F) è non singolare. (det(A) ≠ 0)

n

Un'applicazione lineare si dice endomorfismo o operatore di R

OPERAZIONI SULLE APPLICAZIONI LINEARI

n m n m

Siano F: R R e G: R R due applicazioni lineari, con c appartenente ad

R, si definiscono le seguenti:

– applicazione somma: (F + G) = F(v) + G(v)

(v)

con matrice associata A = A + A

F+G F G

– applicazione prodotto per uno scalare: (c * F) = c * F(v)

(v)

con matrice associata A = c * A

c*F F

APPLICAZIONE LINEARE COMPOSTA

n m m p

Date le applicazioni lineari F: R R e G: R R , allora si definisce

l'applicazione lineare composta di G con F

(G o F) = G(F(v))

(v)

con matrice associata

A = A x A

G o F F G n n

Teorema: se F: R R è un isomorfismo lineare, allora esiste l'applicazione

-1 n n -1 -1

inversa F : R R tale che F o F = I e F o F = I

-1 -1

Inoltre se A è una matrice associata ad F, allora A è una matrice associata ad F e

OPERATORI

• MATRICI SIMILI

Due matrici A,A' si dicono simili se esiste una matrice invertibile P tale che

(n)

-1

A' = P x A x P n n n

Teorema: Un operatore lineare T: R R si rappresenta in basi diverse di R con

matrici simili

MATRICI DIAGONALIZZABILI

Una matrice A si dice diagonalizzabile se è simile ad una matrice diagonale. Un

(n) n

operatore T di R si dice diagonalizzabile se ammette una matrice diagonale, rispetto

ad una base, che lo rappresenta n

AUTOVALORI ED AUTOVETTORI DI UN OPERATORE DI R

n n n

Sia T: R R un operatore lineare di R . Un vettore, non nullo, si dice

autovettore di T se esiste uno scalare λ tale che

T(v) = λ x v

λ è un autovalore di T associato all'autovettore v

v è un autovettore di T associato all'autovalore di λ

n

Def: Sia λ un autovalore di un operatore T di R , si definisce l'autospazio relativo ad

λ

E(λ) = { T(v) = λv }

Proposizione: n

1. E(λ) è un sottospazio vettoriale di R

2. Se λ, u sono due autovalori diversi di T, allora

Rn

E(λ) ∩ E(u) = {O } ovvero

E(λ) E(u)

3. Determinazione degli autovalori e dei autovettori:

sia v un autovettore di T relativo all'autovalore λ:

T(v) = λv = λI(v) Rn

se e solo se T(v) - λI(v) = O

Rn

se e solo se (T - I λ)(v) = O

se e solo se v appartiene a Nu(T - I λ)

se e solo se esistono autosoluzioni per il sistema quadrato omogeneo se

det( A - λI ) = 0 equazione caratteristica di T

(n)

p( λ) = det( A - λI ) polinomio caratteristico di T

(n)

le cui radici sono gli autovalori di T;

n

grado(p) = dim(R ) = n

MOLTEPLICITA' ALGEBRICA E MOLTEPLICITA' GEOMETRICA

Per ogni autovalore λ di un operatore T si definiscono

la molteplicità algebrica:

– m (λ) = n° volte in cui λ è radice di p(λ)

a

la molteplicità geometrica:

– m (λ) = dim(E(λ))

g

Proposizione: 1 ≤ m (λ) ≤ m (λ)

g a n n

Teorema: Per un operatore T: R R sono equivalenti le seguenti affermazioni

1. T è diagonalizzabile

n

2. esiste una base di R costituita da autovettori di T

3. tutti gli autovalori λ , λ , … , λ di T sono numeri reali e m (λ ) = m (λ )

1 2 k a i g i

4. tutti gli autovalori λ , λ , … , λ di T sono numeri reali e

1 2 k

m (λ ) + m (λ ) + … + m (λ ) = n

g 1 g 2 g k

ovvero n

E(λ ) E(λ ) ... E(λ ) = R

⊕ ⊕ ⊕

1 2 k

n n

Corollario: Se l'operatore T: R R ammette n autovalori reali e distinti, allora T

è diagonalizzabile

Teorema:

Il polinomio caratteristico p(λ) dipende sollo dall'operatore T ovvero non dipende

dalla matrice associata ad T n n n

Def: Un sottospazio W di R si dice invariante per l'operatore T: R R se

T(w) appartiene a W n n

Proposizione: Se λ è un autovalore dell'operatore T: R R , allora l'autospazio

E(λ) = {T(v) = λ x v }

è invariante per l'operatore T

OPERATORI SIMMETRICI

n n n

Sia T: R R un operatore lineare di R , A la sua matrice associata rispetto ad

una base ortonormale (es. la base canonica). Si definisce l'operatore trasposto di T,

t n n t

T: R R con matrice associata la matrice A

t t

Proprietà di T: <T(v),w> = <v, T(w)> t t

Def: L'operatore si dice simmetrico se T = T ovvero A = A ovvero

<T(v),w> = <v,T(w)>

t t

e antisimmetrico se T = -T ovvero A = -A ovvero

<T(v),w> = - <v,T(w)>


PAGINE

18

PESO

42.18 KB

PUBBLICATO

+1 anno fa


DESCRIZIONE APPUNTO

Matrici: Matrici ad elementi reali. Lo spazio vettoriale M(m,n)(). Trasposta di una matrice. Matrici quadrate. Matrici simmetriche e antisimmetriche. Decomposizione di una matrice quadrata in parti simmetrica ed antisimmetrica. Matrici triangolari e matrici diagonali. Prodotto di una matrice riga per una matrice colonna. Prodotto righe per colonne di matrici. Matrici unità. Matrici invertibili. Inversa della trasposta e del prodotto di matrici invertibili. Il gruppo GL(n; ).

Determinanti e rango: Determinante di una matrice (1,1). Complemento algebrico di un elemento di una matrice quadrata. Teorema di Laplace (senza dimostrazione). Proprietà dei determinanti. Teorema di Binet (senza dimostrazione). Matrici singolari e non. Inversa di una matrice non singolare. Il teorema di Cramer. Dipendenza ed indipendenza lineare delle colonne (righe) di una matrice. Rango di una matrice. Caso delle matrici quadrate. Metodo degli orlati. Teorema di Rouchè-Capelli: Metodo generale di soluzione dei sistemi lineari. Metodo di eliminazione-riduzione di Gauss-Jordan: determinazione del rango di una matrice, risoluzione di un sistema lineare, determinazione della inversa di una matrice non singolare.

Spazi vettoriali: Lo spazio dei vettori geometrici applicati in un punto. Segmenti orientati equipollenti. Vettori liberi. Spazi affini e spazi vettoriali. Un esempio fondamentale: lo spazio Rn.
Spazi vettoriali reali. Sottospazi di uno spazio vettoriale. Combinazioni lineari di vettori. Generatori di uno spazio o di un sottospazio vettoriale. Dipendenza ed indipendenza lineare di vettori. Base di uno spazio vettoriale e coordinate di un vettore in una base. Il teorema di completamento delle basi. Basi finite e dimensione di uno spazio vettoriale. Riduzione ad Rn. Cambiamenti di base e trasformazioni di coordinate. Orientazione di Rn: basi equiverse e controverse. Sottospazi di Rn: basi, dimensione, equazioni parametriche, codimensione, equazioni cartesiane. Intersezione e somma di due o più sottospazi. Formula di Grassmann. Somme dirette. Sottospazi supplementari.

Prodotti scalari: Prodotto scalare standard in Rn e sue proprietà; definita positività e non degenerazione. Norma o lunghezza di un vettore. Diseguaglianza di Cauchy-Schwarz. Misure angolari. Area del parallelogramma. Volume del parallelepipedo. Proiezione di un vettore su un altro. Coefficienti di Fourier. Basi ortogonali e basi ortonormali di uno spazio o di un sottospazio. Procedimento di Gram-Schmidt. Complemento ortogonale di un sottospazio. Proiezione ortogonale di un vettore su un sottospazio. Cambiamenti di basi ortonormali. Matrici ortogonali.

Applicazioni lineari: Definizione ed esempi. Matrice di un'applicazione lineare rispetto a due basi fissate. Nucleo ed immagine. Teorema nullità più rango. Applicazioni lineari iniettive, suriettive, bijettive. Isomorfismi. Composizione di applicazioni lineari e prodotto di matrici. Isomorfismi e matrici invertibili. Matrice di un'applicazione lineare e cambiamenti di base.

Operatori: Endomorfismi o operatori di Rn. Potenze di un endomorfismo. Operatori e cambiamenti di base: matrici simili. Matrici ed operatori diagonalizzabili. Autovettori ed autovalori di un operatore. Autospazi. Spettro di un operatore. Polinomio caratteristico ed equazione caratteristica. Calcolo degli autovalori e degli autovettori. Molteplicità algebrica e molteplicità geometrica di un autovalore. Teorema fondamentale sulla diagonalizzabilità. Trasposto di un operatore. Operatori simmetrici ed antisimmetrici. Il teorema spettrale (senza dimostrazione). Operatori ortogonali. Isometrie.


DETTAGLI
Corso di laurea: Corso di laurea in ingegneria informatica
SSD:
A.A.: 2015-2016

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher crazy.wip di informazioni apprese con la frequenza delle lezioni di Geometria e combinatoria e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Roma Tre - Uniroma3 o del prof Trujillo Francisco Leon.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Corso di laurea in ingegneria informatica

Appunti Analisi I
Appunto
Analisi matematica, primo modulo - Appunti
Appunto
Analisi matematica, secondo modulo - Appunti
Appunto
Testi d'esame con soluzioni - Analisi Matematica 1
Esercitazione