vuoi
o PayPal
tutte le volte che vuoi
Algebra Lineare e Geometria Analitica: Tecnica e Dimostrazioni
- Struttura Algebrica: insieme dotato di una operazione (A, x)
- Proprietà delle strutture algebriche:
- P. Associativa: ∀ a, b, c ∈ A (a•b)•c = a•(b•c)
- Esistenza E. Neutro: ∃ e ∈ A | ∀ a ∈ A a•e = e•a = a
- Esistenza E. Inverso: ∀ a ∈ A, ∃ a⁻¹ ∈ A | a•a⁻¹ = e
- Gruppo: struttura algebrica in cui valgono le 3 proprietà sopraindicate
- Gruppo Commutativo o Abeliano: ulteriore condizione è la della proprietà commutativa rispetto all'operazione x
- Campo: insieme dotato di due operazioni (A, +, x) in cui:
- (A, +) è un gruppo commutativo
- (A\{0}, x) è un gruppo commutativo
- Valgono le proprietà distributiva: a•(b+c) = a•b + a•c
- Spazio Vettoriale: struttura algebrica composta da due operazioni che gode delle seguenti proprietà:
- (V, +) è un gruppo commutativo
- Vale la proprietà distributiva per la somma di vettori
- ∀ a ∈ R ∀ u, v ∈ V: a•(u+v) = a•u + a•v
- Vale la proprietà distributiva per la somma di scalari
- ∀ a, b ∈ R, ∀ v ∈ V: (a+b)•v = a•v + b•v
- ∀ a, b ∈ R ∀ u ∈ V: (a•b)•u = a•(b•u)
- ∀ v ∈ V: 1•v = v
- ∃ e ∈ V | ∀ v ∈ V: v + e = v: esiste e, il vettore nullo
- Proposizione: in ogni spazio vettoriale V ∀ v ∈ V, 0•v = 0
- Combinazione Lineare: sia V uno spazio vettoriale, siano v₁, v₂, v₃, ..., vₙ ∈ V. Si dice combinazione lineare di v₁, v₂, v₃, ..., vₙ l'espressione del tipo: a₁v₁ + a₂v₂ + ... + aₙvₙ con a₁, a₂, ..., aₙ ∈ R
- Insieme di Generazione:
- Un insieme G⊆V si dice sistema di generazione per V se ogni v ∈ V si può descrivere come combinazione lineare degli elementi di G
- Cioè: comunque scelto v∈V, esistono a₁, a₂, ..., aₙ ∈ R tali che v = a₁v₁ + a₂v₂ + ... + aₙvₙ con v₁, v₂, ..., vₙ ∈ G
- Un insieme di generatori si dice "d'itterale" se i vettori di G sono linearmente indipendenti
- Indipendenza Lineare:
- Dei vettori v₁, v₂, v₃, ..., vₙ in uno spazio vettoriale V si dicono linearmente indipendenti se l'unica combinazione che dà il vettore nullo è quella con i coefficienti tutti nulli
- a₁v₁ + a₂v₂ + ... + aₙvₙ = 0 v allora i vettori v₁, v₂, ..., vₙ sono linearmente indipendenti
- Proposizione: siano v₁, v₂, ..., vₙ ∈ V, s ≥ 2 allora ∃ 2, 3 almeno.
- - v₁, v₂, ..., vₙ sono linearmente indipendenti
- - Nessun tra v₁, ..., vₙ è combinazione lineare di rimanenti
- Dimostrazione:
- a) Supponiamo che v₁, v₂, ..., vₙ siano linearmente indipendenti: allora per definizione l'unica combinazione che dà il vettore nullo è quella con coefficienti nulli
- Infatti, se così non fosse, esisterebbero a₂v₂ + a₃v₃ + ... + aₙvₙ = 0
Dimostrazione
Sia A' la matrice ottenuta da A tramite l'eliminazione di Gauss. Se consideriamo i suoi vettori colonna, essi ci dicono che essi generano lo stesso sottospazio in R^n. Questo poiché l'el. di Gauss consiste in
- Somma di un m.d.c. ad un'altra (la quale non cambia quindi l'insieme generato da A)
- Pergne che i d di A' sono indipendenti? Tante quante sono i pivot.
A' = (P1 P2 ... Pm)
Trascurando eventualmente le colonne nulli si ottengono che le M righe non nulle sono indipendenti
Siano A1, ..., Ar le righe non nulle e sia:
- a1A1 + a2A2 + ... + arAr = (0, ..., 0)
- (combinazione lineare nulla)
- In tale combinazione dovranno avere ai = 0 perché nella posizione di pi (in A') esso è l'unico elemento non nullo, la combinazione allora diviene:
- a1A1 + ... apAr = (0, ..., 0)
- Pertanto il ragionamento riguarda a dire che tutti i coefficienti devono obbligatoriamente essere nulli.
- Quiindi A1, ..., Ar sono linearmente indipendenti.
Cap 5: Applicazioni Lineari
- Applicazione Lineare
- ∀u, v ∈ V f(u + v) = f(u) + f(v)
- ∀v ∈ V ∀λ £R f(λv) = λf(v)
- Endomorfismo: Applicazione lineare da uno spazio a se stesso.
- Osservazione: Le applicazioni lineari portano sempre l'elemento nullo dello spazio di partenza nell'elemento nullo dello spazio di arrivo f(0v) = 0w
Sia V e W due spazi vettoriali e f : V = W una funzione. Essa si dice applicazione lineare se verifica le seguenti proprietà:
Nucleo, Immagine, Iniettività e Suriettività
Def: Data un'applicazione lineare f : V = W consideriamo i due insiemi associati ad essa:
- Immagine di f: Imf = {w ∈ W | ∃v ∈ V, f(v) = w}
- Nucleo di f: Kerf = {v ∈ V | f(v) = 0w}
- Iniettività: Imf e Kerf sono sottospazi di W e V rispettivamente.
- ∅ Nucleo di f (Kerf)
- Inoltre, ∀a, b ∈ Kerf e ∀λ, μ ∈ R, si ha:
- f(αa + βb) = ∅, αf(a) + βf(b) = 0w + 0w = 0w
- Kerf è chiuso rispetto alle operazioni di somma e prodotto
- Immagine di f (Imf): ∅f(a) = b =́a' = f(a') + f(a")
- Quindi b = f(a') + f(a") è univocamente espresso in termini di a' + a".
- Inoltre, banalmente ∅b ∈ Imf
Banamente 0V ∈ Kerf
=≫ Considerando che Imf è sottospazio di W.
-
Proprietà del determinante
- Se A ha due righe (o colonne) uguali oppure una riga nulla, allora detA = 0.
- Il determinante è lineare rispetto alla somma di righe.
- Il determinante è lineare rispetto al prodotto di una riga per uno scalare.
- Se P è l'elemento, scambiando di posto due righe di A, allora: detA' = -detA.
- detA = detAT.
- Per matrici triangolari superiori, detA = a11a22...ann.
- Teorema di Binet: ∀A,B∈Rn×n, det(A·B) = det(A)·det(B).
Dimostrazioni: - Si basta sviluppare tramite Laplace il determinante di una matrice 2×2 e procedere per induzione.
- Si basta sviluppare il determinante rispetto alla riga in questione: detA = (b1 + c1)A1 + (b2 + c2)A2 + ... + (bn + cn)An. = b1A1 + ... + bnAn + c1A1 + ... + cnAn = detA + detA'. C.V.D.
- Come nel caso precedente, sviluppando il det. rispetto alla riga in questione: A1(det(Aij))An = 0, C.V.D.
- La dimostrazione è fatta per induzione. Per n = 2 sia A = (a b)(c d), A' = (c a)(c d), sviluppiamo il determinante. detA = ad - cb. detA' = cb - cd ⟶ detA = -detA'.
- Procediamo per induzione per n = 3 Dispose i complementi algebrici sapendo orientamenti da R Ikon con righe scambiate: Aij' = - Aij ∀ i ∈ {1,...,n} Da cui si poi verificare che : detA = -detA'. C.V.D.
- La dimostrazione è immediata per n=1,2, per n=3 procediamo per induzione. Sviluppo secondo una prima colonna: detA = a11a22+ a11ann + 0Ann. C.V.D. = - det A (-1)ndetA11A[a12n- a21n]. C.V.D.
-
Determinante di una matrice dopo eliminazione di Gauss
Sia A'∈Rm×n ottenuta da A tramite eliminazione di Gauss, allora: detA' ≠ 0 detA
-
Proposizione. Proprieta' fondamentale del determinante
Sia A∈Rn×n allora si ha che: detA = 0 ⟺ r(A) < n
- Dimostrazione:
Sia A' = (aij) la matrice ottenuta da A tramite eliminazione di Gauss; allora r(A)< n se e solo se r(A') < n che avviene se e solo se det A'∈... a1n = 0 (poiché r(A') < n se ha almeno una riga nulla e la riga si porta fino al nodo i + 1) quindi scivolando risultando che detA' ≠ 0 di scema.