vuoi
o PayPal
tutte le volte che vuoi
Unicità dell'inversa di una matrice
Per assurdo, A-1 inverse di A-1 ≠ A
A'-1 A' = A' A'-1
A'-1 (A' A'-1) = (A'-1 A') A'-1
In A' = A'
Metodo di eliminazione di Gauss (Meg: riduzione a scala)
Data una matrice A ∈ Mk (m, n) esiste un algoritmo che con un numero finito di operazioni elementari sulle righe la riduce a scala
A ∈ Mk (m, n) A = [aij]
- Se A ∈ a scala ⟹ ho finito
- Altrimenti: Sia C(1) la prima colonna di A, da sinistra, non nulla
- Sia aR(1) il primo elemento dall'alto non nullo di C(1)
- (1) Scambio la riga 1 di A con la riga R-esima (R(1) ≠ 0)
- (2) Sostituisco la riga k-esima Ck con
(ak1/aR(1)1) Cj
Ripetiamo (2) per tutte le righe
- Sia A' la matrice ottenuta da A eliminando la mesima riga
- A' ∈ Mk (m-1, n) ⟹ A' è a scala ⟺ A è a scala
- Ora si ripete l'algoritmo con A' al posto di A finché la matrice è a scala. L'algoritmo termina al più in n passi.
Teorema di struttura delle soluzioni di un sistema lineare
Sia Ax = b un sistema lineare. Sia xp soluzione del sistema.
Le soluzioni del sistema lineare sono nella forma xp + xh
Dove xp è una qualsiasi soluzione del sistema associato (Ax = 0)
(xp si dica soluzione particolare)
xp + xh è soluzione del sistema, infatti
A (xp + xh) = Axp + Axh = b + 0 = b
Viceversa, se x è soluzione del sistema, insiemi che è nella forma xp + xh
Ax = b
A (xp + xh) = Axp + Axh = y
(xp - xh) b = b - 0 = 0
⇒ Ax = 0
Teorema di Cramer
Si consideri un sistema di n equazioni in n incognite della forma Ax = b. Se x(A) = n, il sistema ammette unica soluzione, qualunque sia b.
A ∈ HK(n, n) [A|b] ≠ 0 ∀ b ∈ IK
x(A), x(U) = n
Ux = b è equivalente a Ax = b
- Risolvo indietro e determino l'unica soluzione.
Ker(A) è sottospazio vettoriale di IKn
V = IKn
A ∈ HK(m, n)
Ker(A) = Σ x ∈ IKn: Ax = 0 3 ≤ V
- A0 = 0 0 ∈ Ker(A)
- ∀x1, x2 ∈ Ker(A) A(x1 + x2) = Ax1 + Ax2 = 0 + 0 = 0 ⇒ (x1 + x2) ∈ Ker(A)
- ∀x ∈ Ker(A) ∀t ∈ IK A(t ⋅ x) = t ⋅ Ax = t ⋅ 0 = 0 ⇒ (t ⋅ x) ∈ Ker(A)
⇒ Ker(A) è sottospazio vettoriale di IKn
Sottospazio generato da un insieme di vettori
L(u1, ..., uR) è sottospazio vettoriale di V.
Dim V spazio vettoriale su IK, u1, ..., uR ∈ V, t1, t2, ... sR ∈ IK
- 0 ∈ L(u1, ..., uR) t1 = 0
- t1u1 + t2u2 + (s1 + s2 + sR)uR (t1 + s1)u1 + (t2 + s2)uR = combinazione lineare di u1, u2 ∈ L(u1, u2)
- t ∈ IK t (t1u1 + t2u2) ∈ L(u1, u2) = combinazione lineare di u1, u2 Ré V ∈ L (u1, u2)
⇒ L(u1, uR) è sottospazio vettoriale di V.
U = p1 w1 w2 w3
1 0 0 . . . pm 0 1 0 . . . 1 0 0 1 . . . 0 0 0 0Le r righe non nulle di U
sono una base per Row(U) = Row(A)
Supponiamo per comodo dimostriamo che i pivot si spostano a
destra di una colonna quando passo alla riga successiva
considero una combinazione lineare delle righe non nulle di U
t1u1 + t2u2 +.....+ trur = 0 si ottiene:
[]
trurl + t2p2 + t2u2 + t2p2 ⇒ 0 t3 2p3 ... = 0 = t2 = t3 = 0⇒ dim (Row(A)) = dim (Row(U)) = r(A)
A ∈ Mn,n:
(a) r(A) = n
(b) Ker(A) = {0n}
(C) A ∈ invertibile
(a) ⇔ (b)
Ker(A) contiene x tale che Ax = 0 se Ker(A) = {0n}
(c) → (b) sia A invertibile per ipotesi
(a) 1A
(a)A x = 0 ⇔ x = 0
→ Ker(A) = {0n}
Conoscemi i sistemi lineari
Ax = e1 r(A) = n ciascun sistema
Ax = e2
ha 1 soluzione
→ Aψ = e1 Aψ2 = e2 A... = en
A [u1u2...ur] = [e1, e2, e3...en]
= B = In
→ AB = In (se Barnette inversa sinistra → Ker(B): {0n}
Considero il sistema: Bx = 0
A(B x) - A 0 → 0 x = 0 → x = 0
⇔ r(A) = n
Ripetendo la dimostrazione per B ho che:
AB = In
B A = In {⇒ B = A-1 ⇒ A è invertibile
Condizione di ortogonalità
x = <x,b>/<b,b> = <x,b/|b|2>
Se per assurdo ||x - v || sia nullo per Pitagora
||x - u2|| 2 + ||c2 u1|| = ||x||2
z > 0 - strettamente positivo
||x - u || 2 = ||x - y ||
Proprietà di una base ortonormale
Sia B = {g1, ..., gn} base ortogonale & y ∈ V ´ = n∑i=1<y,gi>
- <x 2 + x1, ... xn
- Sia W: <x,w> = x1y1 + ... + xnyn
- <g1 + g '*' >
Dato che <y1, y2> e <gi, gj> >= 0
- <{u} m1, yi + y1 + yn> = <x, gi>.
- xi = 0 + <x, gi> > 0 + ... 0 * + x1 * xi2
- x1..xn yn xj gn ym = x1 + ... xn
se b1,... bn formano una base ortonormale
<b, di> = xi, ||x|| 2
Matrici ortogonale V ∈ O(n) ⇔ Col(U) formano una base per Kn
V ∈ Mr (n,n) Si dice che V è ortogonale se U' U =1
Teorema di Pitagora e Carnot (U, W ∈ V)
- Pitagora: ||u2 = ||z1 w ||2 (con z1, W)
- Carnot: ||u2> + 11u12 + 2 <z1,W>
< z w> = <W, W> + <u1,w> + <z1;W S> = z2 + 1.2 ÷ 1 un w2
Se U, W ottengo Pitagora, infatti <z1,W> = 0
γ = n V ∈ V a due a due ortogonali fra loro vale
Il Teorema di Pitagora generalizzato
γ1 / γj ‖u1 + ... + um‖ = ‖u1‖2 + ... + ‖ um‖ 2