Che materia stai cercando?

Anteprima

ESTRATTO DOCUMENTO

PROGRAMMA DEL CORSO DI “GEOMETRIA E ALGEBRA”

A.A. 2007/2008

Proff. G. MAGRO – G. PICA - G. DONATI

INTRODUZIONE

Operazioni definite su un insieme. Operazioni interne ed esterne. Generalità sulle strutture algebriche: struttura di

gruppo, anello, campo.

SPAZI VETTORIALI

Definizione e proprietà elementari. Esempi notevoli di spazi vettoriali : spazio dei vettori numerici di ordine n su un

campo, spazio vettoriale delle matrici di un dato tipo, spazio vettoriale geometrico. Sottospazi di uno spazio vettoriale.

Dipendenza e indipendenza lineare. Sistemi di generatori. Lemma di Steinitz (senza dimostrazione). Basi e dimensione.

Metodi per determinare una base. Intersezione e somma di sottospazi. Formula di Grassmann (senza dimostrazione).

Somma diretta di sottospazi. Sottospazi complementari. Riferimenti di uno spazio vettoriale. Componenti di un vettore

in un riferimento. Spazi vettoriali isomorfi. Isomorfismo coordinato associato a un riferimento.

MATRICI

Matrici su un campo. Matrici quadrate, diagonali, triangolari e simmetriche. Matrice trasposta.Operazioni sulle matrici:

somma, prodotto per uno scalare, prodotto righe per colonne. Determinante di una matrice quadrata. Proprietà

elementari dei determinanti (senza dimostrazione). Regola di Sarrus. Calcolo del determinante con il metodo della

riduzione a gradini (metodo di Gauss). Complemento algebrico. Teorema di Laplace (senza dimostrazione). Matrici

invertibili. Calcolo della matrice inversa di una matrice invertibile. Rango di una matrice. Teorema degli orlati (senza

dimostrazione). Calcolo del rango di una matrice.

SISTEMI LINEARI

Sistemi lineari compatibili. Teorema di Rouché-Capelli. Teorema di unicità. Teorema di Cramer (senza dimostrazione).

Sistemi a gradini. Risoluzione dei sistemi lineari con il metodo di Gauss. Sistemi lineari omogenei. Spazio delle

soluzioni di un sistema lineare omogeneo. Rappresentazione parametrica e cartesiana di sottospazi vettoriali.

APPLICAZIONI LINEARI

Definizione e proprietà. Applicazioni lineari notevoli. Composizione di applicazioni lineari. Isomorfismi. Nucleo e

immagine di una trasformazione lineare. Applicazioni lineari iniettive. Teorema delle dimensioni. Matrice associata ad

un’applicazione lineare. Rappresentazione di un’applicazione lineare. Matrici simili.

ENDOMORFISMI

Autovalori e autovettori di un endomorfismo. Autospazi. Ricerca di autovalori e polinimio caratteristico. Molteplicità

algebrica e geometrica. Endomorfismi diagonalizzabili. Caratterizzazione degli endomorfismi diagonalizzabili.

GEOMETRIA ANALITICA

Prodotto scalare standard tra vettori geometrici. Basi ortonormali. Riferimenti cartesiani monometrici ortogonali in un

piano. Rappresentazione parametrica e cartesiana di una retta in un piano. Condizioni analitiche di parallelismo e di

ortogonalità di due rette in un piano. Punto medio di un segmento.

Riferimenti cartesiani monometrici ortogonali nello spazio. Rappresentazioni parametrica e cartesiana di un piano.

Condizioni di parallelismo e ortogonalità tra due piani. Rappresentazione parametrica e cartesiana di una retta nello

spazio. Condizioni di parallelismo e ortogonalità tra rette nello spazio. Condizioni di parallelismo e ortogonalità tra una

retta e un piano. Posizione geometrica reciproca di rette e piani nello spazio. Fasci di piani. Condizione affinché tre

piani appartengano a un fascio. Rette complanari e sghembe.

TESTI CONSIGLIATI

1. S. Pellegrini - A. Benini - F. Morini,“ALGEBRA LINEARE 1”,“ALGEBRA LINEARE 2”,Ed. F. Apolloni - Brescia.

2. P. Biondi. , P. M. Lo Re. “Appunti di Geometria”, E.DI.S.U.

Capitolo : INTRODUZIONE

I: Operazioni definite su un insieme.

II: Operazioni interne ed esterne.

III: Generalità sulle strutture algebriche: struttura di gruppo, anello, campo.

Capitolo I: SPAZI VETTORIALI

1.1: Definizione e proprietà elementari.

1.2: Esempi notevoli di spazi vettoriali : spazio dei vettori numerici di ordine n su un campo, spazio vettoriale

delle matrici di un dato tipo, spazio vettoriale geometrico.

1.3: Sottospazi di uno spazio vettoriale.

1.4: Dipendenza e indipendenza lineare.

1.5: Sistemi di generatori.

1.6: Lemma di Steinitz (senza dimostrazione).

1.7: Basi e dimensione.

1.8: Metodi per determinare una base.

1.9: Intersezione e somma di sottospazi.

1.10: Formula di Grassmann (senza dimostrazione).

1.11: Somma diretta di sottospazi.

1.12: Sottospazi complementari.

1.13: Riferimenti di uno spazio vettoriale.

1.14: Componenti di un vettore in un riferimento.

1.15: Spazi vettoriali isomorfi.

1.16: Isomorfismo coordinato associato a un riferimento.

Capitolo II: MATRICI

2.1: Matrici su un campo.

2.2: Matrici quadrate, diagonali, triangolari e simmetriche.

2.3: Matrice trasposta.

2.4: Operazioni sulle matrici: somma, prodotto per uno scalare, prodotto righe per colonne.

2.5: Determinante di una matrice quadrata.

2.6: Proprietà elementari dei determinanti (senza dimostrazione).

2.7: Regola di Sarrus.

2.8: Calcolo del determinante con il metodo della riduzione a gradini (metodo di Gauss).

2.9: Complemento algebrico.

2.10: Teorema di Laplace (senza dimostrazione).

2.11: Matrici invertibili.

2.12: Calcolo della matrice inversa di una matrice invertibile.

2.13: Rango di una matrice.

2.14: Teorema degli orlati (senza dimostrazione).

2.15: Calcolo del rango di una matrice.

Capitolo III: SISTEMI LINEARI

3.1: Sistemi lineari compatibili.

3.2: Teorema di Rouché-Capelli.

3.3: Teorema di unicità.

3.4: Teorema di Cramer (senza dimostrazione).

3.5: Sistemi a gradini.

3.6: Risoluzione dei sistemi lineari con il metodo di Gauss.

3.7: Sistemi lineari omogenei.

3.8: Spazio delle soluzioni di un sistema lineare omogeneo.

3.9: Rappresentazione parametrica e cartesiana di sottospazi vettoriali.

Capitolo VI: APPLICAZIONI LINEARI

4.1: Definizione e proprietà.

4.2: Applicazioni lineari notevoli.

4.3: Composizione di applicazioni lineari.

4.4: Isomorfismi.

4.5: Nucleo e immagine di una trasformazione lineare.

4.6: Applicazioni lineari iniettive.

4.7: Teorema delle dimensioni.

4.8: Matrice associata ad un’applicazione lineare.

4.9: Rappresentazione di un’applicazione lineare.

4.10: Matrici simili.

Capitolo V: ENDOMORFISMI

5.1: Autovalori e autovettori di un endomorfismo.

5.2: Autospazi.

5.3: Ricerca di autovalori e polinimio caratteristico.

5.4: Molteplicità algebrica e geometrica.

5.5: Endomorfismi diagonalizzabili.

5.6: Caratterizzazione degli endomorfismi diagonalizzabili.

Capitolo VI: GEOMETRIA ANALITICA

6.1: Prodotto scalare standard tra vettori geometrici.

6.2: Basi ortonormali.

6.3: Riferimenti cartesiani monometrici ortogonali in un piano.

6.4: Rappresentazione parametrica e cartesiana di una retta in un piano.

6.5: Condizioni analitiche di parallelismo e di ortogonalità di due rette in un piano.

6.6: Punto medio di un segmento.

6.7: Riferimenti cartesiani monometrici ortogonali nello spazio.

6.8: Rappresentazioni parametrica e cartesiana di un piano.

6.9: Condizioni di parallelismo e ortogonalità tra due piani.

6.10: Rappresentazione parametrica e cartesiana di una retta nello spazio.

6.11: Condizioni di parallelismo e ortogonalità tra rette nello spazio.

6.12: Condizioni di parallelismo e ortogonalità tra una retta e un piano.

6.13: Posizione geometrica reciproca di rette e piani nello spazio.

6.14: Fasci di piani.

6.15: Condizione affinché tre piani appartengano a un fascio.

6.16: Rette complanari e sghembe.

Capitolo : INTRODUZIONE

I: Operazioni definite su un insieme.

II: Operazioni interne ed esterne.

III: Generalità sulle strutture algebriche: struttura di gruppo, anello, campo.

GRUPPO : La struttura (G,*) con *: G X G ->G è un GRUPPO se:

1) * è ASSOCIATIVA [(x * y) * z = x * (y * z)]

2) Esiste in G l’elemento NEUTRO [ x * e = e * x = x]

1 1

3) Ogni elemento di G è INVERTIBILE [ x * x = x * x = e]

Se 4) * è anche COMMUTATIVA [ x * y = y * x] il gruppo è ABELIANO

ANELLO: La struttura (A, +, _ ) è un ANELLO se:

1) (A, +) è un gruppo ABELIANO con elemento neutro indicato con 0

2) (A, • ) è ASSOCIATIVO

3) Vale la PROPRIETA’ DISTRIBUTIVA DEL PRODOTTO RISPETTO ALLA SOMMA

a(b+c) = ab + ac; (a+b)c = ac + ab

Se 4) (A, • ) è COMMUTATIVO l’anello si dice COMMUTATIVO

Se 5) (A, • ) è dotato di ELEMENTO NEUTRO l’anello è UNITARIO

CAMPO: Il CAMPO è un ANELLO UNITARIO e COMMUTATIVO (A, +, _ ) con ogni elemento

diverso dallo 0 INVERTIBILE.

Capitolo I: SPAZI VETTORIALI

1.1: Definizione e proprietà elementari.

Siano K un campo e V un insieme. Diremo che V e` uno spazio vettoriale sul campo K se sono definite due

operazioni: un’operazione interna su V(+) detta somma, ed un’operazione esterna(x) detta prodotto, tali che:

1) (V,+) sia un gruppo abeliano, cioe` goda delle proprieta` associativa e commutativa, abbia l'elemento nuetro e

abbia l'inverso.

2) il prodotto esterno soddisfi le seguenti proprieta`:

(h X k) Xv = hX (kXv)

(h+k) X v = hv + kv

h X (v+w) = hv + hw

1 X v = v

1.2: Esempi notevoli di spazi vettoriali : spazio dei vettori numerici di ordine n su un campo, spazio

vettoriale delle matrici di un dato tipo, spazio vettoriale geometrico.

n

Ho: a v a v .... a v 0 → a a .... a V K : Spazio vettoriale numerico di ordine n su campo K

+ + + = = = = = 0 =

1 1 2 2 t t 1 2 t

K[x]: Spazio vettoriale dei polinomi nell’indeterminata x su campo K

V : Spazio vettoriale geometrico

3 m,n

K : Spazio vettoriale delle matrici su campo K

1.3: Sottospazi di uno spazio vettoriale.

Sia V una uno spazio vettoriale sul campo K,e sia U sottoinsieme di V con U diverso dal vettore nullo.

Diciamo che U e` sottospazio vettoriale se anche lui e` spazio vettoriale su K, cioe` se gode delle stesse proprieta` di V,

restringendo la somma a UXU ed il prodotto a kXU.

1.4: Dipendenza e indipendenza lineare.

Definizione: Sia V uno spazio vettoriale e A [v ,v ,…..,v ] un sistema di vettori di V. il sistema A si dice libero,

(k) 1 2 n

ovvero i vettori di A si dicono linearmente indipendenti, se l'unica combinazione lineare dei vettori

v ,v ,…..,v che da il vettor nullo è quella a coefficienti tutti nulli. Se il sistema non è libero diremo che è

1 2 n

legato, ovvero i suoi vettori sono linearmente dipendenti.

1.5: Sistemi di generatori.

Definizione: Sia V uno spazio vettoriale e sia A un sistema non vuoto di vettori di V, si dice copertura lineare di

(k)

A,e si indica L(a), l'insieme di vettori di V che si possono esprimere come combinazione lineare di un

(k)

numero finito di vettori di A.

Definizione: Sia V uno spazio vettoriale e sia A V. Il sottospazio vettoriale L(A) si dice spazio generato da A. Se

poi L(A)=V, si dice che A è un sistema di generatori di V.

Diremo che V è finitamente generato(f.g.) se esiste in esso almeno un sistema di generatori.

(k)

Teorema: ogni spazio vettoriale V f.g. non banale ammette almeno un sistema libero di generatori.

(k)

Dimostrazione: sia S=[ v ,v ,…..,v ] un sistema di generatori di V , se S è un sistema libero di generatori allora

1 2 n (k)

il teorema è dimostrato, se S non è libero allora un suo vettore v è combinazione lineare degli

i

altri e quindi si può eliminare perché S\{v } è ancora un sistema di generatori si V.ora se S è

i

libero il teorema è dimostrato sennò si continua come prima.

1.6: Lemma di Steinitz (senza dimostrazione).

Lemma di steinitz: sia V uno spazio vettoriale f.g., sia B=[v ,v ,…..,v ] un suo sistema di generatori e sia

(k) 1 2 n

A=[u ,u ,……,u ] un sistema libero di vettori di V.allora m<=n.

1 2 m

1.7: Basi e dimensione.

Si dice base di uno spazio vettoriale V f.g. una sequenza libera di generatori di V .

(k) (k)

Teorema: tutte le basi di uno spazio vettorile V hanno lo stesso numero di vettori

(k)

Dimostrazione: siano B=[v ,v ,…..,v ] e A =[u ,u ,……,u ] due basi di V(k) .poiché B è un sistema di generatori

1 2 n 1 2 m

di V e A è un sistema libero si ha che m<=n ma invertendo i ruoli si ottiene che n<=m e quindi

m=n.

Teorema: una sequenza B=[v ,v ,…..,v ] è base se, e soltanto se, ogni vettore di V(k) si può esprimere in modo unico

1 2 n

come combinazione lineare dei vettori di B.

Lemma: se A'=[v ,v ,…..,v ] e A''=[u ,u ,……,u ] sono sequenze di vettori di V(k) tali che A=A'∪A'' è una sequenza

1 2 n 1 2 m

libera e A'∩A''=∅,allora L(A') ∩L(A'')={∅}.

Dimostrazione: se per assurdo in L(A') un vettore w≠∅ si avrebbe w=a v +a v +…..+a v ma anche

∃ ∩L(A'') 1 1 2 2 n n

w=b u +b u +…..+b u sottraendo membro a membro si otterrebbe una combinazione lineare a

1 1 2 2 m m

coefficienti non tutti nulli che da il vettor nullo dai vettori della sequenza A che per ipotesi è

libera cioè un assurdo.

Teorema del complemento di una base: sia V (k) uno spazio vettoriale di dimensione n e sia A=[v ,v ,…..,v ] ,ove

n 1 2 p

p≤n, una sequenza libera di vettori di V (k). Allora in qualunque base di

n

V (k) esiste una sequenza B' di vettori tale che A∪B' è base di V (k), inoltre

n n

L(A) e L(B') hanno in comune solo il vettor nullo.

Dimostrazione: applicando il lemma di steinitz ad una base B di V (k) si possono sostituire p vettori di B con i

n

vettori di A ottenendo così un nuovo sistema B'' di generatori di V (k) che, essendo un sistema di

n

n generatori in uno spazio di dimensione n è base. Il sistema B' creato è appunto formato dagli n-

p vettori di B''\A.il resto e diretta applicazione del lemma precedente.

1.8: Metodi per determinare una base.

Tutte le basi di uno spazio vettoriale hanno la stessa cardinalità.

La dimensione di uno spazio vettoriale V coincide con il massimo numero di vettori lin. Ind. di V. Cioè: dim V = n

Sia V uno spazio vett. Fin. Gen, {u w / u , w } V { 0 } , ogni sistema lin. Ind. di vettori di V è contenuto

+ ∈V ∈U ∈W ≠

in una base di questo spazio vettoriale.

1.9: Intersezione e somma di sottospazi.

Dati due sottospazi U e W di uno spazio vettoriale V(K) la loro intersezione è l'insieme: U∩W={v∈V : v∈U e v∈W}

Proposizione: se U e W sono sottospazi di uno spazio vettoriale V(K), allora U∩W è un sottospazio vettoriale di V(K).

Proposizione: siano U e W due sottospazi di uno spazio vettorile V(K), allora:

U W è un sottospazio↔U W oppure W U

∪ ⊆ ⊆

Definizione: siano U ,U ,……,U sottospazi dello spazio vettoriale V(K). Si dice somma dei sottospazi U :

1 2 r i

S= U +U +……+U ={u +u +….+u : u } S è un sottospazio di V(K)

∈U

1 2 r 1 2 r i i

1.10: Formula di Grassmann (senza dimostrazione).

Proposizione formula di grassmann: siano U e W due sottospazi di uno spazio vettoriale V(K) f.g..allora

dim(U + W)= dimU + dim W – dim(U W)

1.11: Somma diretta di sottospazi.

Definizione somma diretta: dati U ,U ,……,U sottospazi dello spazio vettoriale V(K). La loro somma si dice diretta

1 2 r

e si scrive S= U ,se ogni vettore z∈S è esprimibile in modo unico come

⊕U ⊕……⊕U

1 2 r

somma di r vettori uno per ogni U .

i

Proposizione: siano U ,U ,……,U sottospazi dello spazio vettoriale V(K). La loro somma è diretta se e soltanto se,

1 2 r

scegliendo m≤r vettori u non nulli e al più uno in ogni sottospazio U , i vettori u ,u ,…,u sono

i i 1 2 m

linearmente indipendenti.

Definizione: siano U e W due sottospazi di uno spazio vettoriale V(K). Si dice somma di U e W

U + W ={u+w : u∈U, w∈W}

Proposizione: il sottospazio minimo contenente U e W è U+W.

Dimostrazione: dobbiamo dimostrare che L(U∪W)=U + W. Osserviamo che U∪W U + W e quindi L(U∪W)

= U + W, inoltre U⊆U∪W e W⊆U∪W quindi, U⊆ L(U∪W) e W da cui

⊆L(U+W) ⊆L(U∪W),

U + W⊆ L(U∪W).

Proposizione: la somma di due sottospazi U e W di uno spazio vettoriale V(K) è diretta se e soltanto se U∩W = {∅}.

Corollario: uno spazio vettoriale V(K) è somma diretta dei suoi sottospazi U e W se e soltanto se U∩W={∅} e

U + W = V

1.12: Sottospazi complementari.

Definizione: se U è un sottospazio vettoriale di V (K), si dice complemento diretto di U in V , un sottospazio

n

vettoriale W di V tale che U W=V.

n

1.13: Riferimenti di uno spazio vettoriale.

1.14: Componenti di un vettore in un riferimento.

1.15: Spazi vettoriali isomorfi.

1.16: Isomorfismo coordinato associato a un riferimento.

Capitolo II: MATRICI

Richiami di calcolo combinatorio

Dato un numero naturale n, si chiama n fattoriale il numero denotato con n! ed ottenuto dal prodotto dei primi n

numeri interi: n! =

Si assume, per convenzione, 0! = 1.

Si chiama permutazione di una funzione biettiva p : .

=

L’insieme delle permutazioni di si denota con S ed è formato da n! elementi.

n

Ogni permutazione si può rappresentare con la scrittura:

oppure, più semplicemente, con: dove p = p(i).

i

Sia p S , si dice che p presenta una inversione nella coppia (h,k) x se h<k e p(h)>p(k).

n (p)

Il numero di coppie di inversione per p si indica con (p). Si chiama segno di p il numero: sign(p) = (-1)

La permutazione p è detta di classe pari se sign(p) = 1 ( (p) pari), di classe dispari se sign(p) = -1 ( (p) dispari).

2.1: Matrici su un campo.

2.2: Matrici quadrate, diagonali, triangolari e simmetriche.

2.3: Matrice trasposta.

2.4: Operazioni sulle matrici: somma, prodotto per uno scalare, prodotto righe per colonne.

2.5: Determinante di una matrice quadrata.

2.6: Proprietà elementari dei determinanti (senza dimostrazione).

Definizione di determinante:

Sia A , si chiama determinante della matrice A il numero:

det (A) = =

cioè la somma di tutti i possibili prodotti di n elementi appartenenti a righe e colonne diverse tra loro.

Proprietà dei determinanti

Il determinante di una matrice A gode delle seguenti proprietà:

d ) = ;

1

d ) Se B è ottenuta scambiando due righe (o colonne) di A, allora = - ;

2

d ) Se B è ottenuta da A sommando ad una riga (o colonna) una combinazione lineare delle restanti righe (colonne),

3

allora = ;

d ) Il determinante di A si annulla se e solo se le righe o le colonne di A sono linearmente dipendenti.

4

2.7: Regola di Sarrus.

2.8: Calcolo del determinante con il metodo della riduzione a gradini (Metodo di Gauss).

Il metodo di eliminazione di Gauss è una procedura che permette di trasformare una qualunque matrice quadrata A in

una matrice triangolare , mediante una successione finita di trasformazioni elementari del tipo :

: scambio di due differenti righe: (o colonne: );

: somma di una riga (o colonna) con un’altra moltiplicata per uno scalare: ( ).

Poiché le trasformazioni del tipo cambiano il segno del determinante, mentre le trasformazioni del tipo non

alterano il determinante, le matrici A ed avranno lo stesso determinante se si è operato un numero pari di scambi di

righe o colonne, se invece si è operato un numero dispari di scambi allora = .

Descriviamo ora il metodo di eliminazione di Gauss. Sia

A =

Una matrice quadrata di ordine n. Mediante scambi di righe o colonne facciamo in modo che (se A è diversa

dalla matrice nulla ciò è sempre possibile). Dobbiamo ora operare in modo che tutti gli elementi della prima colonna,

eccetto il primo, siano nulli. Pertanto, per ogni basta sottrarre alla j-esima riga della matrice A la prima

riga moltiplicata per .

Si ottiene così una matrice del tipo: =

che ha lo stesso determinante della matrice A o, al più, il suo opposto. Operando in modo analogo sulle colonna

successive, si perviene ad una matrice triangolare il cui determinante differisce da quello di A al più per il segno.

2.9: Complemento algebrico.


ACQUISTATO

1 volte

PAGINE

17

PESO

903.53 KB

AUTORE

Menzo

PUBBLICATO

+1 anno fa


DETTAGLI
Corso di laurea: Corso di laurea in ingegneria informatica
SSD:
A.A.: 2013-2014

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Menzo di informazioni apprese con la frequenza delle lezioni di Geometria e Algebra lineare e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Napoli Federico II - Unina o del prof Donati Giorgio.

Acquista con carta o conto PayPal

Scarica il file tutte le volte che vuoi

Paga con un conto PayPal per usufruire della garanzia Soddisfatto o rimborsato

Recensioni
Ti è piaciuto questo appunto? Valutalo!

Altri appunti di Geometria e algebra lineare

Geometria e Algebra - prova d'esame con soluzioni
Esercitazione
Geometria e Algebra - Determinanti
Dispensa
Geometria e Algebra - Esercizi
Esercitazione
Definizioni e Teoremi di Geometria e Algebra
Appunto