Algebra lineare
Spazi vettoriali
Si definisce spazio vettoriale un insieme V i cui elementi sono chiusi rispetto alle operazioni di somma e prodotto per uno scalare. Ovvero:
- 0 ∈ V
- Se u, v ∈ V, anche u + v ∈ V
- Se u ∈ V e t ∈ R, anche tu ∈ V
Un sottoinsieme U di V si dice sottospazio, anch'esso chiuso rispetto alle operazioni precedenti. Viene detto che un vettore v è una combinazione lineare di vettori v1, v2, ..., vd se esistono scalari t1, t2, ..., td per cui:
v = t1v1 + t2v2 + ... + tdvd
Sia H l'insieme delle combinazioni lineari: H(v1, v2, ..., vd) sarà un sottospazio vettoriale di V che si dice generato da v1, v2, ..., vd.
Un insieme di questo tipo si dice che è un insieme di vettori linearmente dipendenti se esistono degli scalari non nulli tali che:
t1v1 + t2v2 + ... + tdvd = 0
Si dice che l'insieme al contrario è fatto di vettori linearmente indipendenti se:
t1 = t2 = ... = td = 0
I vettori formano una base di V se e solo se generano V e sono linearmente indipendenti.
Si dice che uno spazio vettoriale V ha dimensione finita se è generato da un numero finito di vettori. Il numero di elementi di una base di questo spazio si dice dimensione.
Applicazioni lineari
Th. di rappresentazione
Sia f : V → W tale che v → w = f(v). Se f è lineare (additiva + omogenea) esiste ed è unica la matrice A che rappresenta l’azione di f, ovvero:
f(v) = Av
Nucleo
{v ∈ V : f(v) = 0} ≡ {v ∈ V : Av = 0}
Immagine
{w ∈ W : ∃ v ∈ V : f(v) = w} ≡ {w ∈ W : ∃ v ∈ V : Av = w}
Suriettività ed iniettività
Un’applicazione si definisce:
- Suriettiva se Image(f) = W
- Iniettiva se e solo se Ker(f) = {0}
Teorema di nullità più rango
Sia f : V → W tale che v → w = f(v) = Av. Se f è lineare, allora:
dim(Ker(f)) + dim(Image(f)) = dim(V)
Endomorfismo
Si definisce tale un’applicazione del tipo f : V → V. Th. f è iniettiva ↔ f è suriettiva.
Autovettori
Si definiscono autovettori delle direzioni privilegiate che non vengono modificate dall’azione di f: w = λv ∃ v. Affinché il sistema abbia soluzioni non banali, occorre che A - λI v = 0: un’equazione polinomiale chiamata equazione caratteristica det(A - λI) = 0 avente esattamente soluzioni in C. Si definiscono autovalori le radici dell’equazione caratteristica.
Proprietà degli autovettori
- Se v1 è un autovettore relativo a λ, ogni suo multiplo sarà autovettore relativo allo stesso autovalore.
- Se v e u sono autovettori relativi ad uno stesso autovalore, anche la loro somma è autovettore dello stesso autovalore.
- Se v è autovettore di A e u ≠ v, allora v e u sono linearmente indipendenti.
- Autovalori di una matrice triangolare si trovano sulla diagonale.
Autospazi e molteplicità
Dalle proprietà precedenti, si definisce autospazio l’insieme degli spazi relativi ad uno stesso autovalore. È uno spazio vettoriale. Chiamo polinomio caratteristico quello derivante da det(A - λI). Sarà un polinomio di grado n nella variabile λ.
P(λ) = det(A - λI) = (-1)nλn + ... + cn-1λn-1 + c0
Se λ0 è radice di P(λ), allora, per il teorema di Ruffini, P(λ) è divisibile per (λ - λ0), ovvero esiste un polinomio di grado n - 1, chiamato Q(λ), tale che:
P(λ) = (λ - λ0) Q(λ)
Il numero m si dice molteplicità algebrica.
Def. Si definisce invece molteplicità geometrica di un autovalore, la dimensione del suo autospazio. In generale:
1 ≤ malgebrica ≤ mgeometrica
Dato λ0, radice di calcolo, la molteplicità geometrica come:
g(λ0) = n - r(A - λ0I)
Dove n è la dimensione di A.
Matrici simili
Def. A e B si dicono simili se esiste P non singolare tale che:
P-1AP = B
Matrici diagonali
Def. A è diagonalizzabile se esiste una matrice D simile ad A, cioè:
∃ P : P-1AP = D
Con D = diag(x1, ..., xn), dove xi sono autovalori di A.
Proprietà matrici simili e diagonalizzabili
- Se A e B sono simili → hanno gli stessi autovalori.
- Se A è diagonalizzabile → D (simile ad A) ha sulla diagonale gli autovalori di A.
Th. A è diagonalizzabile ↔ ha n autovettori linearmente indipendenti. Quindi diagonalizzare significa scegliere una base B in modo da rappresentare un'applicazione nel modo più semplice possibile.
Matrici ortogonali
Se una matrice è simmetrica → TTAv = uTATv. Una matrice U è ortogonale se U-1 = UT (ha colonne ortogonali tra loro e di modulo unitario).
Teorema spettrale
- Se A è simmetrica → autovalori di A sono reali.
- Se A è simmetrica → autospazi di autovalori diversi sono linearmente indipendenti ed ortogonali tra loro.
- Se A è simmetrica → tutti gli autovalori sono regolari.
Quindi: le matrici simmetriche sono ortogonalmente diagonalizzabili, ovvero:
∃ U : UTATU = D
Cambiamenti di base
Dalla base canonica a una base B
Data un'applicazione lineare avente matrice di rappresentazione A (in base canonica), scelgo una base B = {v1, v2, ..., vn}
BεAεεεB • AB • P = PεB
Dove PεB è la matrice che ha per colonne i vettori di B.
Da una base B alla base canonica
εεBAB•P = PBε
Calcolo differenziale per funzioni a più variabili
Derivate parziali
∂f/ ∂x: limt→0 (f(x0+t, y0) - f(x0, y0)) / t
∂f/ ∂y: limt→0 (f(x0, y0+t) - f(x0, y0)) / t
Derivate direzionali
∂f/ ∂v: limt→0 (f(x0+at, y0+bt) - f(x0, y0)) / √(a2+b2)t
Lungo r: x = x0 + at, y = y0 + bt
Continuità
lim(x,y)→(x0,y0) f(x,y) = f(x0,y0)
Differenziabilità
Una funzione f è differenziabile in (x0, y0) se:
lim(x,y)→(x0,y0) [f(x,y) - f(x0,y0) - ∂f/∂x(x0,y0)(x-x0) - ∂f/∂y(x0,y0)(y-y0)] / √(x-x0)2+(y-y0)2 = 0
Teorema del differenziale totale
Sia f : A → R. Se f ∈ C1(A), ovvero è continua e con derivate continue, allora f è differenziabile in A.
Conseguenze
- Se f è differenziabile → f è continua in P0.
- Teo. del gradiente: ∇f = (∂f/∂x, ∂f/∂y) indica la direzione di massima crescita di f.
- ∇f(P0) è ortogonale alle curve di livello.
Limiti
lim(x,y)→(x0,y0) f(x,y) = l ↔ ∀P : |f(P) - l| < ε, ∃δ > 0 : |P - P0| < δ
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
-
Algebra Lineare - Riassunto esame e formulario, prof. Vegni
-
Riassunto esame Analisi matematica I, prof. Vegni
-
Riassunto Geometria
-
Riassunto esame "analisi e geometria 1", prof. Lanzarone