Estratto del documento

Algebra lineare

Spazi vettoriali

Si definisce spazio vettoriale un insieme V i cui elementi sono chiusi rispetto alle operazioni di somma e prodotto per uno scalare. Ovvero:

  • 0 ∈ V
  • Se u, v ∈ V, anche u + v ∈ V
  • Se u ∈ V e t ∈ R, anche tu ∈ V

Un sottoinsieme U di V si dice sottospazio, anch'esso chiuso rispetto alle operazioni precedenti. Viene detto che un vettore v è una combinazione lineare di vettori v1, v2, ..., vd se esistono scalari t1, t2, ..., td per cui:

v = t1v1 + t2v2 + ... + tdvd

Sia H l'insieme delle combinazioni lineari: H(v1, v2, ..., vd) sarà un sottospazio vettoriale di V che si dice generato da v1, v2, ..., vd.

Un insieme di questo tipo si dice che è un insieme di vettori linearmente dipendenti se esistono degli scalari non nulli tali che:

t1v1 + t2v2 + ... + tdvd = 0

Si dice che l'insieme al contrario è fatto di vettori linearmente indipendenti se:

t1 = t2 = ... = td = 0

I vettori formano una base di V se e solo se generano V e sono linearmente indipendenti.

Si dice che uno spazio vettoriale V ha dimensione finita se è generato da un numero finito di vettori. Il numero di elementi di una base di questo spazio si dice dimensione.

Applicazioni lineari

Th. di rappresentazione

Sia f : V → W tale che v → w = f(v). Se f è lineare (additiva + omogenea) esiste ed è unica la matrice A che rappresenta l’azione di f, ovvero:

f(v) = Av

Nucleo

{v ∈ V : f(v) = 0} ≡ {v ∈ V : Av = 0}

Immagine

{w ∈ W : ∃ v ∈ V : f(v) = w} ≡ {w ∈ W : ∃ v ∈ V : Av = w}

Suriettività ed iniettività

Un’applicazione si definisce:

  • Suriettiva se Image(f) = W
  • Iniettiva se e solo se Ker(f) = {0}

Teorema di nullità più rango

Sia f : V → W tale che v → w = f(v) = Av. Se f è lineare, allora:

dim(Ker(f)) + dim(Image(f)) = dim(V)

Endomorfismo

Si definisce tale un’applicazione del tipo f : V → V. Th. f è iniettiva ↔ f è suriettiva.

Autovettori

Si definiscono autovettori delle direzioni privilegiate che non vengono modificate dall’azione di f: w = λv ∃ v. Affinché il sistema abbia soluzioni non banali, occorre che A - λI v = 0: un’equazione polinomiale chiamata equazione caratteristica det(A - λI) = 0 avente esattamente soluzioni in C. Si definiscono autovalori le radici dell’equazione caratteristica.

Proprietà degli autovettori

  • Se v1 è un autovettore relativo a λ, ogni suo multiplo sarà autovettore relativo allo stesso autovalore.
  • Se v e u sono autovettori relativi ad uno stesso autovalore, anche la loro somma è autovettore dello stesso autovalore.
  • Se v è autovettore di A e u ≠ v, allora v e u sono linearmente indipendenti.
  • Autovalori di una matrice triangolare si trovano sulla diagonale.

Autospazi e molteplicità

Dalle proprietà precedenti, si definisce autospazio l’insieme degli spazi relativi ad uno stesso autovalore. È uno spazio vettoriale. Chiamo polinomio caratteristico quello derivante da det(A - λI). Sarà un polinomio di grado n nella variabile λ.

P(λ) = det(A - λI) = (-1)nλn + ... + cn-1λn-1 + c0

Se λ0 è radice di P(λ), allora, per il teorema di Ruffini, P(λ) è divisibile per (λ - λ0), ovvero esiste un polinomio di grado n - 1, chiamato Q(λ), tale che:

P(λ) = (λ - λ0) Q(λ)

Il numero m si dice molteplicità algebrica.

Def. Si definisce invece molteplicità geometrica di un autovalore, la dimensione del suo autospazio. In generale:

1 ≤ malgebrica ≤ mgeometrica

Dato λ0, radice di calcolo, la molteplicità geometrica come:

g(λ0) = n - r(A - λ0I)

Dove n è la dimensione di A.

Matrici simili

Def. A e B si dicono simili se esiste P non singolare tale che:

P-1AP = B

Matrici diagonali

Def. A è diagonalizzabile se esiste una matrice D simile ad A, cioè:

∃ P : P-1AP = D

Con D = diag(x1, ..., xn), dove xi sono autovalori di A.

Proprietà matrici simili e diagonalizzabili

  • Se A e B sono simili → hanno gli stessi autovalori.
  • Se A è diagonalizzabile → D (simile ad A) ha sulla diagonale gli autovalori di A.

Th. A è diagonalizzabile ↔ ha n autovettori linearmente indipendenti. Quindi diagonalizzare significa scegliere una base B in modo da rappresentare un'applicazione nel modo più semplice possibile.

Matrici ortogonali

Se una matrice è simmetrica → TTAv = uTATv. Una matrice U è ortogonale se U-1 = UT (ha colonne ortogonali tra loro e di modulo unitario).

Teorema spettrale

  • Se A è simmetrica → autovalori di A sono reali.
  • Se A è simmetrica → autospazi di autovalori diversi sono linearmente indipendenti ed ortogonali tra loro.
  • Se A è simmetrica → tutti gli autovalori sono regolari.

Quindi: le matrici simmetriche sono ortogonalmente diagonalizzabili, ovvero:

∃ U : UTATU = D

Cambiamenti di base

Dalla base canonica a una base B

Data un'applicazione lineare avente matrice di rappresentazione A (in base canonica), scelgo una base B = {v1, v2, ..., vn}

BεAεεεB • AB • P = PεB

Dove PεB è la matrice che ha per colonne i vettori di B.

Da una base B alla base canonica

εεBAB•P = P

Calcolo differenziale per funzioni a più variabili

Derivate parziali

∂f/ ∂x: limt→0 (f(x0+t, y0) - f(x0, y0)) / t

∂f/ ∂y: limt→0 (f(x0, y0+t) - f(x0, y0)) / t

Derivate direzionali

∂f/ ∂v: limt→0 (f(x0+at, y0+bt) - f(x0, y0)) / √(a2+b2)t

Lungo r: x = x0 + at, y = y0 + bt

Continuità

lim(x,y)→(x0,y0) f(x,y) = f(x0,y0)

Differenziabilità

Una funzione f è differenziabile in (x0, y0) se:

lim(x,y)→(x0,y0) [f(x,y) - f(x0,y0) - ∂f/∂x(x0,y0)(x-x0) - ∂f/∂y(x0,y0)(y-y0)] / √(x-x0)2+(y-y0)2 = 0

Teorema del differenziale totale

Sia f : A → R. Se f ∈ C1(A), ovvero è continua e con derivate continue, allora f è differenziabile in A.

Conseguenze

  • Se f è differenziabile → f è continua in P0.
  • Teo. del gradiente: ∇f = (∂f/∂x, ∂f/∂y) indica la direzione di massima crescita di f.
  • ∇f(P0) è ortogonale alle curve di livello.

Limiti

lim(x,y)→(x0,y0) f(x,y) = l ↔ ∀P : |f(P) - l| < ε, ∃δ > 0 : |P - P0| < δ

Anteprima
Vedrai una selezione di 9 pagine su 37
Riassunto esame Analisi e geometria II, prof. Vegni Pag. 1 Riassunto esame Analisi e geometria II, prof. Vegni Pag. 2
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Riassunto esame Analisi e geometria II, prof. Vegni Pag. 6
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Riassunto esame Analisi e geometria II, prof. Vegni Pag. 11
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Riassunto esame Analisi e geometria II, prof. Vegni Pag. 16
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Riassunto esame Analisi e geometria II, prof. Vegni Pag. 21
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Riassunto esame Analisi e geometria II, prof. Vegni Pag. 26
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Riassunto esame Analisi e geometria II, prof. Vegni Pag. 31
Anteprima di 9 pagg. su 37.
Scarica il documento per vederlo tutto.
Riassunto esame Analisi e geometria II, prof. Vegni Pag. 36
1 su 37
D/illustrazione/soddisfatti o rimborsati
Acquista con carta o PayPal
Scarica i documenti tutte le volte che vuoi
Dettagli
SSD
Scienze matematiche e informatiche MAT/03 Geometria

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Andrew94sax di informazioni apprese con la frequenza delle lezioni di Analisi e geometria II e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Politecnico di Milano o del prof Vegni Federico Mario Giovanni.
Appunti correlati Invia appunti e guadagna

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community