Anteprima
Vedrai una selezione di 10 pagine su 72
Geometria, Prof. Chiara De Fabritiis, Teoremi e dimostrazioni Pag. 1 Geometria, Prof. Chiara De Fabritiis, Teoremi e dimostrazioni Pag. 2
Anteprima di 10 pagg. su 72.
Scarica il documento per vederlo tutto.
Geometria, Prof. Chiara De Fabritiis, Teoremi e dimostrazioni Pag. 6
Anteprima di 10 pagg. su 72.
Scarica il documento per vederlo tutto.
Geometria, Prof. Chiara De Fabritiis, Teoremi e dimostrazioni Pag. 11
Anteprima di 10 pagg. su 72.
Scarica il documento per vederlo tutto.
Geometria, Prof. Chiara De Fabritiis, Teoremi e dimostrazioni Pag. 16
Anteprima di 10 pagg. su 72.
Scarica il documento per vederlo tutto.
Geometria, Prof. Chiara De Fabritiis, Teoremi e dimostrazioni Pag. 21
Anteprima di 10 pagg. su 72.
Scarica il documento per vederlo tutto.
Geometria, Prof. Chiara De Fabritiis, Teoremi e dimostrazioni Pag. 26
Anteprima di 10 pagg. su 72.
Scarica il documento per vederlo tutto.
Geometria, Prof. Chiara De Fabritiis, Teoremi e dimostrazioni Pag. 31
Anteprima di 10 pagg. su 72.
Scarica il documento per vederlo tutto.
Geometria, Prof. Chiara De Fabritiis, Teoremi e dimostrazioni Pag. 36
Anteprima di 10 pagg. su 72.
Scarica il documento per vederlo tutto.
Geometria, Prof. Chiara De Fabritiis, Teoremi e dimostrazioni Pag. 41
1 su 72
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento
  1. Definizione di spazio vettoriale e proprieta
  2. Definizione di sottospazio vettoriale
  3. Combinazioni lineari e span
  4. Definizione di sistema di generatori
  5. Definizione di lineare indipendenza/dipendenza
  6. Definizione di base
  7. Definizione di coordinate
  8. Definizione sottoinsieme massimale di vettori linearmente indipendenti
  9. Definizione di spazio vettoriale finitamente generato
  10. Teorema del completamento
  11. Definizione di dimensione di uno spazio vettoriale
  12. Teorema di Grassman e teorema della dimensione/del rango
  13. Definizione applicazioni lineari
  14. Definizione nucleo e immagine di uno spazio vettoriale
  15. Applicazioni lineari iniettive
  16. Applicazioni lineari surgettive
  17. Applicazioni lineari bigettive
  18. Teorema di Rouché-Capelli
  19. Teorema di struttura per sistemi lineari
  20. Mosse di Gauss e risoluzione a scala di matrici
  21. Rappresentazioni parametriche e cartesiane di un sottospazio
  22. Sottospazio affine
  23. Composizione di applicazioni lineari
  24. Applicazioni lineari invertibili
  25. Isomorfismi e teorema sull'isomorfismo
  1. Prodotto tra matrici
  2. Gruppo lineare e proprietà
  3. Teorema sulle matrici
  4. Calcolo dell'inversa di una matrice
  5. Matrice del cambiamento di base
  6. Matrice associata a un endomorfismo lineare
  7. Matrici simili
  8. Teorema sul determinante
  9. Teorema di Laplace
  10. Formula di Sarrus
  11. Teorema di Binet
  12. Metodo di Cramer
  13. Teorema degli orlati
  14. Endomorfismo lineare diagonalizzabile (triangolabile)
  15. Definizione di autovettore e autovalore
  16. Definizione di spettro
  17. Teorema sul polinomio caratteristico
  18. Molteplicità algebrica e geometrica di un autovalore
  19. Teorema di un endomorfismo diagonalizzabile
  20. Schema per trovare basi di autovettori
  21. Prodotto scalare canonico su n
  22. Prodotto scalare su uno spazio vettoriale
  23. Nucleo di un prodotto scalare
  24. Segno di un prodotto scalare
  25. Proprietà prodotto scalare
  26. Spazio vettoriale metrico
  27. Norma di un vettore e proprietà
  28. Angolo fra due vettori non nulli

Indipendenza/Dipendenza Lineare e Basi:

Definizione di generatori di V:

I vettori v1,...,vn e V si dicono sistema di generatori

di V se Span(v1,...,vn) = V, cioè:

∀ v ∈ V ∃ λ1,..., λn ∈ ℝ t.c. v = λ1v1 + ... + λnvn

Definizione di lineare indipendenza/dipendenza:

I vettori v1,...,vn si dicono linearmente indipendenti

se λ1v1 + ... + λnvn = 0 cioè se λ1 = ... = λn = 0

I vettori v1,...,vn si dicono linearmente dipendenti

se ∃ λ1,..., λn non tutti nulli tali che λ1v1 + ... + λnvn = 0,

cioe se uno dei vettori si puo scrivere come

combinazione lineare degli altri:

v1 = (2/λ1)v2 + ... + (n/λ1)vn

Definizione di base:

I vettori v1,...,vn si dicono base di V se:

  1. Sono linearmente indipendenti
  2. Sono un sistema di generatori di V

Definizione di coordinate:

Sia B = {v1,...,vn} una base di V e v ∈ V, gli n

numeri reali (x1,...,xn) tali che v = x1v1 + ... + xnvn

sono le coordinate di v rispetto alla base B.

x = [x1 |xn] sono uniche! ∀ v ∈ V, ∃! x1,...,xn ∈ ℝ

t.c. v = x1v1 + ... + xnvn

Nucleo e immagine di un'applicazione lineare:

T: V → W applicazione lineare

  • ker T = {ξ ∈ V : T(ξ) = 0} = T-1(0) (nucleo di T)
  • im T = {η ∈ V : ∃ ν ∋ η = T(ν)} = T(V) (immagine di T)

Ker T è un sottospazio vettoriale di V

Im T è un sottospazio vettoriale di W

Applicazioni lineari iniettive:

T: V → W lineare T è iniettiva ⟺ ker T = {ξ₀}

T(0) = 0 ⇒ 0 ∈ ker T = T-1(0)

T(v1) = T(v2) ⇒ T(v1 - v2) = 0 v1 - v2 ∈ ker T v1 = v2

Teorema (della dimensione/del rango):

T: V → W applicazione lineare. Allora:

dim V = dim ker T + dim im T

Applicazioni lineari surgettive:

T: V → W lineare T è surgettiva ⟺ ker T = {ξ₀}

Applicazioni lineari bigettive:

V, W spazi vettoriali, dim V = dim W

T: V → W lineare. Allora T iniettiva ⟺ T surgettiva ⟺ T bigettiva

Mosse di Gauss

I Mossa di Gauss: Scambio di righe

II Mossa di Gauss: Sostituire a una riga la sua somma con un multiplo dell’altra.

{Ri = bi}

{Ri = bi} ⇔ {Rj = bj}

{Rj + λ Ri = bj + λ bi}

R3 - α3/P2∙R2

Rn - αn/Pn∙Rn

Ax = b , Sx = c Riduzione a scala con k pivot, allora:

  1. Ax = b e Sx = c sono equivalenti
  2. ker A = ker S
  3. rg A = rg S
  4. Indicata con Sj1, ..., Sjr le colonne di S in cui compaiono i pivot. Allora Aj1, ..., Ajr sono una base di Im A = Span (Aj1, ..., Ajr)

Teorema sulle matrici:

Sia A ∈ Mm,n(ℝ) le seguenti affermazioni sono equivalenti:

  1. A invertibile
  2. LA invertibile
  3. LA iniettiva
  4. LA surgettiva
  5. rg A = n
  6. Colonne di A linearmente indipendenti
  7. Righe di A linearmente indipendenti
  8. Ax = 0 ha come soluzione x = 0
  9. ∀b ∈ ℝⁿ il sistema Ax = b ha un'unica soluzione
  10. Tutte le righe di una riduzione a scala di A sono non nulle
  11. det A ≠ 0

Calcolo dell'inversa di una matrice:

A ∈ Mm,n(ℝ) ∃! X ∈ Mm,n(ℝ) t.c. AX = In

AX = In, X = [X1 ... Xn] In = [e1 ... en]

AX = A[X1 ... Xn] = [AX1 ... AXn] = [e1 ... en]

AXi = ei

AXn = en

|A| Inrisoluzione a scala S | G →risoluzione all'indietro D | C →divisione per i pivot In | A-1 |

Teorema (Sviluppo di Laplace):

Det A = Σk=1n (-1)i+k aik · Det Aik = Σk=1n (-1)k+j ajk · Det Akj

∀j=1,..., n

Det A = Det AT

  1. Scambiando fra loro 2 colonne il det cambia di segno
  2. Somando ad una colonna un multiplo di un’altra il determinante rimane invariato.

Formula di Sarrus:

a b c d e f g h i

Det |ad ei − fh| − b| di − fg| + c|dh − eg| = = a(ei−fh)−b(di−fg)+c(dh−eg)= = 2ei + bfg + cdh − (2fh+bdi+ceg)

a b c a b d e f d e g h i g h

⇒ 2ei + bfg + cdh - (bdi + afh + ceg)

Dettagli
Publisher
A.A. 2018-2019
72 pagine
4 download
SSD Scienze matematiche e informatiche MAT/03 Geometria

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher s.brescini97 di informazioni apprese con la frequenza delle lezioni di Geometria e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Università Politecnica delle Marche - Ancona o del prof De Fabritiis Chiara.