Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
- Definizione di spazio vettoriale e proprieta
- Definizione di sottospazio vettoriale
- Combinazioni lineari e span
- Definizione di sistema di generatori
- Definizione di lineare indipendenza/dipendenza
- Definizione di base
- Definizione di coordinate
- Definizione sottoinsieme massimale di vettori linearmente indipendenti
- Definizione di spazio vettoriale finitamente generato
- Teorema del completamento
- Definizione di dimensione di uno spazio vettoriale
- Teorema di Grassman e teorema della dimensione/del rango
- Definizione applicazioni lineari
- Definizione nucleo e immagine di uno spazio vettoriale
- Applicazioni lineari iniettive
- Applicazioni lineari surgettive
- Applicazioni lineari bigettive
- Teorema di Rouché-Capelli
- Teorema di struttura per sistemi lineari
- Mosse di Gauss e risoluzione a scala di matrici
- Rappresentazioni parametriche e cartesiane di un sottospazio
- Sottospazio affine
- Composizione di applicazioni lineari
- Applicazioni lineari invertibili
- Isomorfismi e teorema sull'isomorfismo
- Prodotto tra matrici
- Gruppo lineare e proprietà
- Teorema sulle matrici
- Calcolo dell'inversa di una matrice
- Matrice del cambiamento di base
- Matrice associata a un endomorfismo lineare
- Matrici simili
- Teorema sul determinante
- Teorema di Laplace
- Formula di Sarrus
- Teorema di Binet
- Metodo di Cramer
- Teorema degli orlati
- Endomorfismo lineare diagonalizzabile (triangolabile)
- Definizione di autovettore e autovalore
- Definizione di spettro
- Teorema sul polinomio caratteristico
- Molteplicità algebrica e geometrica di un autovalore
- Teorema di un endomorfismo diagonalizzabile
- Schema per trovare basi di autovettori
- Prodotto scalare canonico su n
- Prodotto scalare su uno spazio vettoriale
- Nucleo di un prodotto scalare
- Segno di un prodotto scalare
- Proprietà prodotto scalare
- Spazio vettoriale metrico
- Norma di un vettore e proprietà
- Angolo fra due vettori non nulli
Indipendenza/Dipendenza Lineare e Basi:
Definizione di generatori di V:
I vettori v1,...,vn e V si dicono sistema di generatori
di V se Span(v1,...,vn) = V, cioè:
∀ v ∈ V ∃ λ1,..., λn ∈ ℝ t.c. v = λ1v1 + ... + λnvn
Definizione di lineare indipendenza/dipendenza:
I vettori v1,...,vn si dicono linearmente indipendenti
se λ1v1 + ... + λnvn = 0 cioè se λ1 = ... = λn = 0
I vettori v1,...,vn si dicono linearmente dipendenti
se ∃ λ1,..., λn non tutti nulli tali che λ1v1 + ... + λnvn = 0,
cioe se uno dei vettori si puo scrivere come
combinazione lineare degli altri:
v1 = (-λ2/λ1)v2 + ... + (-λn/λ1)vn
Definizione di base:
I vettori v1,...,vn si dicono base di V se:
- Sono linearmente indipendenti
- Sono un sistema di generatori di V
Definizione di coordinate:
Sia B = {v1,...,vn} una base di V e v ∈ V, gli n
numeri reali (x1,...,xn) tali che v = x1v1 + ... + xnvn
sono le coordinate di v rispetto alla base B.
x = [x1 |xn] sono uniche! ∀ v ∈ V, ∃! x1,...,xn ∈ ℝ
t.c. v = x1v1 + ... + xnvn
Nucleo e immagine di un'applicazione lineare:
T: V → W applicazione lineare
- ker T = {ξ ∈ V : T(ξ) = 0} = T-1(0) (nucleo di T)
- im T = {η ∈ V : ∃ ν ∋ η = T(ν)} = T(V) (immagine di T)
Ker T è un sottospazio vettoriale di V
Im T è un sottospazio vettoriale di W
Applicazioni lineari iniettive:
T: V → W lineare T è iniettiva ⟺ ker T = {ξ₀}
T(0) = 0 ⇒ 0 ∈ ker T = T-1(0)
T(v1) = T(v2) ⇒ T(v1 - v2) = 0 v1 - v2 ∈ ker T v1 = v2
Teorema (della dimensione/del rango):
T: V → W applicazione lineare. Allora:
dim V = dim ker T + dim im T
Applicazioni lineari surgettive:
T: V → W lineare T è surgettiva ⟺ ker T = {ξ₀}
Applicazioni lineari bigettive:
V, W spazi vettoriali, dim V = dim W
T: V → W lineare. Allora T iniettiva ⟺ T surgettiva ⟺ T bigettiva
Mosse di Gauss
I Mossa di Gauss: Scambio di righe
II Mossa di Gauss: Sostituire a una riga la sua somma con un multiplo dell’altra.
{Ri = bi}
{Ri = bi} ⇔ {Rj = bj}
{Rj + λ Ri = bj + λ bi}
R3 - α3/P2∙R2
Rn - αn/Pn∙Rn
Ax = b , Sx = c Riduzione a scala con k pivot, allora:
- Ax = b e Sx = c sono equivalenti
- ker A = ker S
- rg A = rg S
- Indicata con Sj1, ..., Sjr le colonne di S in cui compaiono i pivot. Allora Aj1, ..., Ajr sono una base di Im A = Span (Aj1, ..., Ajr)
Teorema sulle matrici:
Sia A ∈ Mm,n(ℝ) le seguenti affermazioni sono equivalenti:
- A invertibile
- LA invertibile
- LA iniettiva
- LA surgettiva
- rg A = n
- Colonne di A linearmente indipendenti
- Righe di A linearmente indipendenti
- Ax = 0 ha come soluzione x = 0
- ∀b ∈ ℝⁿ il sistema Ax = b ha un'unica soluzione
- Tutte le righe di una riduzione a scala di A sono non nulle
- det A ≠ 0
Calcolo dell'inversa di una matrice:
A ∈ Mm,n(ℝ) ∃! X ∈ Mm,n(ℝ) t.c. AX = In
AX = In, X = [X1 ... Xn] In = [e1 ... en]
AX = A[X1 ... Xn] = [AX1 ... AXn] = [e1 ... en]
AXi = ei
AXn = en
|A| In →risoluzione a scala S | G →risoluzione all'indietro D | C →divisione per i pivot In | A-1 |
Teorema (Sviluppo di Laplace):
Det A = Σk=1n (-1)i+k aik · Det Aik = Σk=1n (-1)k+j ajk · Det Akj
∀j=1,..., n
Det A = Det AT
- Scambiando fra loro 2 colonne il det cambia di segno
- Somando ad una colonna un multiplo di un’altra il determinante rimane invariato.
Formula di Sarrus:
a b c d e f g h iDet |ad ei − fh| − b| di − fg| + c|dh − eg| = = a(ei−fh)−b(di−fg)+c(dh−eg)= = 2ei + bfg + cdh − (2fh+bdi+ceg)
a b c a b d e f d e g h i g h⇒ 2ei + bfg + cdh - (bdi + afh + ceg)