Geometria e algebra lineare
Eliminazione di Gauss
Un sistema lineare è compatibile se ammette almeno una soluzione. Una matrice quadrata è non singolare se tutti i suoi pivot sono non nulli (singolare altrimenti).
Spazi vettoriali
Uno spazio vettoriale su R è un insieme V su cui sono definite due operazioni con proprietà:
- Somma: associatività, elemento opposto, commutatività, neutro.
- Prodotto per scalari: distributività, associatività, elemento neutro, opposto.
Un sottospazio vettoriale di uno spazio vettoriale V è un sottoinsieme chiuso rispetto alla somma e al prodotto per scalari.
Un sistema lineare della forma Ax = 0 è detto omogeneo.
La combinazione lineare è il vettore: α₁v₁ + α₂v₂ + ... + αₖvₖ.
Lo span (sottospazio generato) dei vettori è l'insieme di tutte le possibili combinazioni lineari di quei vettori.
Un insieme di vettori si dice linearmente dipendente se esistono α₁, α₂, ..., αₖ non tutti nulli tali che α₁v₁ + α₂v₂ + ... + αₖvₖ = 0. Si dice linearmente indipendente se implica che α₁ = α₂ = ... = αₖ = 0.
Un insieme di vettori di V è una base di V se:
- V = Span(v₁, ..., vₙ), cioè sono un sistema di generatori di V;
- v₁, ..., vₙ sono linearmente indipendenti.
Un sottoinsieme di uno spazio vettoriale V è un sottoinsieme massimale in A di vettori linearmente indipendenti se gli elementi di B sono linearmente indipendenti e aggiungendo a B un elemento di A si ottiene un insieme di vettori linearmente dipendenti.
Due sottospazi U e W di V si dicono supplementari se V = U ⊕ W.
Applicazioni lineari
Un’applicazione lineare fra due spazi vettoriali V e W è una funzione tale che T: V → W è additiva e omogenea. Se si parla di endomorfismo, T(V) = T(V) - T(0) = T(v) - v.
La trasposizione, che associa a una matrice A, la trasposta AT.
A ogni applicazione lineare sono associati due sottoinsiemi:
- Ker(T): {v ∈ V | T(v) = 0}, il nucleo.
- Im(T): {T(v) | v ∈ V}, l’immagine.
Il rango di un’applicazione lineare è la dimensione dell’immagine: rg(T) = dim(Im(T)).
Il rango di A è la dimensione dello spazio generato dalle colonne.
La traccia tr(A) di una matrice quadrata A è la somma degli elementi sulla diagonale principale.
Matrici e applicazioni lineari
Un sottospazio affine L di uno spazio vettoriale V è un sottoinsieme di V della forma L = v₀ + W, con v₀ ∈ V e W sottospazio vettoriale di V. Allora L è parallelo a W e W è il sottospazio di giacitura di L.
L’insieme delle applicazioni lineari da V in W è uno spazio vettoriale (additivo, omogeneo).
La composizione di S e T, T o S: U → W, è anche essa lineare. Un’applicazione lineare T è invertibile se esiste un’applicazione lineare S, inversa di T, tale che T o S = id.
Due spazi vettoriali V e W sono isomorfi se esiste un isomorfismo fra V e W, cioè un’applicazione lineare T invertibile.
Date due matrici A ∈ M(m, n, R) e B ∈ M(n, p, R), la matrice C ∈ M(m, p, R) tale che C = A · B è il prodotto (righe per colonne) di A e B.
Una matrice è invertibile se esiste una matrice B (inversa di A, indicata con A-1) tale che AB = BA = I. L’insieme delle matrici invertibili di ordine n è GL(n, R).
Teorema: Se A ∈ M(n, n, R), allora sono equivalenti:
- A è invertibile,
- A è iniettiva,
- A è suriettiva,
- Ax = 0 ha come unica soluzione x = 0,
- righe di A linearmente indipendenti,
- colonne di A linearmente indipendenti,
- i pivot di A sono non nulli.
Ax = b ha come unica soluzione x se b ∈ Rⁿ e x è la soluzione di A b.
Cambiamenti di base
x' = Bx viene chiamata matrice di cambiamento di base da A a B: B = (F(v₁) | F(v₂) | ... | F(vₙ)).
La matrice A è la matrice associata a T rispetto alle basi B e C: A(w₁, ..., wₙ) = (T(v₁) | T(v₂) | ... | T(vₙ)).
Due matrici quadrate A, B si dicono simili se esiste una matrice P tale che B = P-1AP. La classe di similitudine di una matrice A è {B ∈ M(n, R) | B = P-1AP, P ∈ GL(n, R)}.
Determinanti
Determinante (matrice A):
- È zero se due righe sono uguali;
- È zero se A ha una riga nulla;
- È lineare in ogni riga;
- Se S è una matrice triangolare superiore ottenuta da A, allora det(A) = det(S);
- Se le righe sono linearmente dipendenti, allora det(A) = 0.
Data A ∈ M(n, n, R), siano p₁, ..., pₙ i pivot ottenuti tramite un’eliminazione di Gauss effettuata con scambi di righe, allora det(A) = (-1)σp₁p₂...pₙ.
Sia A ∈ M(n, n, R), la matrice ottenuta cancellando riga i e colonna j di A è detta minore di A.
Sviluppo di Laplace del determinante lungo la colonna j-esima (o la riga i-esima):
det(A) = Σ(-1)i+jaijdet(Aij), j = 1, ..., n.
Sia A ∈ M(n, n, R), allora det(A) = det(AT).
Teorema di Binet: Se A, B ∈ M(n, n, R), allora det(AB) = det(A)det(B).
Se det(A) ≠ 0, allora A è invertibile. Se det(A) = 0, allora A non è invertibile.
Sia A ∈ M(n, n, R); una sottomatrice di ordine p di A è una matrice ottenuta considerando solo p righe e colonne di A. Orlare A': aggiungere un’altra riga e colonna di A ad A'.
Teorema degli orlati: Se A ∈ M(n, n, R), rg(A) = r se e solo se esiste una sottomatrice di ordine r di A non singolare, e tutte le sottomatrici di ordine r+1 sono singolari.
-
Riassunto esame Algebra e geometria, Prof. Belardo Francesco, libro consigliato Geometria e algebra lineare, V. De …
-
Riassunto esame Geometria e Algebra lineare, Prof. Nannicini Antonella, libro consigliato Lezioni di algebra linear…
-
Riassunto esame Matematica per il Design, prof. Paoletti, libro consigliato Geometria Analitica e Algebra Lineare, …
-
Riassunto esame Geometria e algebra lineare, Prof. Cavicchioli Alberto, libro consigliato Geometria e algebra linea…