Anteprima
Vedrai una selezione di 4 pagine su 15
Raccolta Dimostrazioni di algebra Lineare e geometria analitica Pag. 1 Raccolta Dimostrazioni di algebra Lineare e geometria analitica Pag. 2
Anteprima di 4 pagg. su 15.
Scarica il documento per vederlo tutto.
Raccolta Dimostrazioni di algebra Lineare e geometria analitica Pag. 6
Anteprima di 4 pagg. su 15.
Scarica il documento per vederlo tutto.
Raccolta Dimostrazioni di algebra Lineare e geometria analitica Pag. 11
1 su 15
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Unicità dell'inversa di una matrice

Per assurdo, A-1 inverse di A-1 ≠ A

A'-1 A' = A' A'-1

A'-1 (A' A'-1) = (A'-1 A') A'-1

In A' = A'

Metodo di eliminazione di Gauss (Meg: riduzione a scala)

Data una matrice A ∈ Mk (m, n) esiste un algoritmo che con un numero finito di operazioni elementari sulle righe la riduce a scala

A ∈ Mk (m, n) A = [aij]

  • Se A ∈ a scala ⟹ ho finito
  • Altrimenti: Sia C(1) la prima colonna di A, da sinistra, non nulla
  • Sia aR(1) il primo elemento dall'alto non nullo di C(1)
  • (1) Scambio la riga 1 di A con la riga R-esima (R(1) ≠ 0)
  • (2) Sostituisco la riga k-esima Ck con

(ak1/aR(1)1) Cj

Ripetiamo (2) per tutte le righe

  • Sia A' la matrice ottenuta da A eliminando la mesima riga
  • A' ∈ Mk (m-1, n) ⟹ A' è a scala ⟺ A è a scala
  • Ora si ripete l'algoritmo con A' al posto di A finché la matrice è a scala. L'algoritmo termina al più in n passi.

Teorema di struttura delle soluzioni di un sistema lineare

Sia Ax = b un sistema lineare. Sia xp soluzione del sistema.

Le soluzioni del sistema lineare sono nella forma xp + xh

Dove xp è una qualsiasi soluzione del sistema associato (Ax = 0)

(xp si dica soluzione particolare)

xp + xh è soluzione del sistema, infatti

A (xp + xh) = Axp + Axh = b + 0 = b

Viceversa, se x è soluzione del sistema, insiemi che è nella forma xp + xh

Ax = b

A (xp + xh) = Axp + Axh = y

(xp - xh) b = b - 0 = 0

⇒ Ax = 0

Teorema di Cramer

Si consideri un sistema di n equazioni in n incognite della forma Ax = b. Se x(A) = n, il sistema ammette unica soluzione, qualunque sia b.

A ∈ HK(n, n) [A|b] ≠ 0 ∀ b ∈ IK

x(A), x(U) = n

Ux = b è equivalente a Ax = b

  • Risolvo indietro e determino l'unica soluzione.

Ker(A) è sottospazio vettoriale di IKn

V = IKn

A ∈ HK(m, n)

Ker(A) = Σ x ∈ IKn: Ax = 0 3 ≤ V

  1. A0 = 0 0 ∈ Ker(A)
  2. ∀x1, x2 ∈ Ker(A) A(x1 + x2) = Ax1 + Ax2 = 0 + 0 = 0 ⇒ (x1 + x2) ∈ Ker(A)
  3. ∀x ∈ Ker(A) ∀t ∈ IK A(t ⋅ x) = t ⋅ Ax = t ⋅ 0 = 0 ⇒ (t ⋅ x) ∈ Ker(A)

⇒ Ker(A) è sottospazio vettoriale di IKn

Sottospazio generato da un insieme di vettori

L(u1, ..., uR) è sottospazio vettoriale di V.

Dim V spazio vettoriale su IK, u1, ..., uR ∈ V, t1, t2, ... sR ∈ IK

  1. 0 ∈ L(u1, ..., uR) t1 = 0
  2. t1u1 + t2u2 + (s1 + s2 + sR)uR (t1 + s1)u1 + (t2 + s2)uR = combinazione lineare di u1, u2 ∈ L(u1, u2)
  3. t ∈ IK t (t1u1 + t2u2) ∈ L(u1, u2) = combinazione lineare di u1, u2 Ré V ∈ L (u1, u2)

⇒ L(u1, uR) è sottospazio vettoriale di V.

U = p1 w1 w2 w3

1 0 0 . . . pm 0 1 0 . . . 1 0 0 1 . . . 0 0 0 0

Le r righe non nulle di U

sono una base per Row(U) = Row(A)

Supponiamo per comodo dimostriamo che i pivot si spostano a

destra di una colonna quando passo alla riga successiva

considero una combinazione lineare delle righe non nulle di U

t1u1 + t2u2 +.....+ trur = 0 si ottiene:

[]

trurl + t2p2 + t2u2 + t2p2 ⇒ 0 t3 2p3 ... = 0 = t2 = t3 = 0

⇒ dim (Row(A)) = dim (Row(U)) = r(A)

A ∈ Mn,n:

(a) r(A) = n

(b) Ker(A) = {0n}

(C) A ∈ invertibile

(a) ⇔ (b)

Ker(A) contiene x tale che Ax = 0 se Ker(A) = {0n}

(c) → (b) sia A invertibile per ipotesi

(a) 1A

(a)A x = 0 ⇔ x = 0

→ Ker(A) = {0n}

Conoscemi i sistemi lineari

Ax = e1 r(A) = n ciascun sistema

Ax = e2

ha 1 soluzione

→ Aψ = e12 = e2 A... = en

A [u1u2...ur] = [e1, e2, e3...en]

= B = In

→ AB = In (se Barnette inversa sinistra → Ker(B): {0n}

Considero il sistema: Bx = 0

A(B x) - A 0 → 0 x = 0 → x = 0

⇔ r(A) = n

Ripetendo la dimostrazione per B ho che:

AB = In

B A = In {⇒ B = A-1 ⇒ A è invertibile

Condizione di ortogonalità

x = <x,b>/<b,b> = <x,b/|b|2>

Se per assurdo ||x - v || sia nullo per Pitagora

||x - u2|| 2 + ||c2 u1|| = ||x||2

z > 0 - strettamente positivo

||x - u || 2 = ||x - y ||

Proprietà di una base ortonormale

Sia B = {g1, ..., gn} base ortogonale & y ∈ V ´ = ni=1<y,gi>

  1. <x 2 + x1, ... xn
  2. Sia W: <x,w> = x1y1 + ... + xnyn
  3. <g1 + g '*' >

Dato che <y1, y2> e <gi, gj> >= 0

  1. <{u} m1, yi + y1 + yn> = <x, gi>.
  2. xi = 0 + <x, gi> > 0 + ... 0 * + x1 * xi2
  3. x1..xn yn xj gn ym = x1 + ... xn

se b1,... bn formano una base ortonormale

<b, di> = xi, ||x|| 2

Matrici ortogonale V ∈ O(n) ⇔ Col(U) formano una base per Kn

V ∈ Mr (n,n) Si dice che V è ortogonale se U' U =1

Teorema di Pitagora e Carnot (U, W ∈ V)

  1. Pitagora: ||u2 = ||z1 w ||2 (con z1, W)
  2. Carnot: ||u2> + 11u12 + 2 <z1,W>

< z w> = <W, W> + <u1,w> + <z1;W S> = z2 + 1.2 ÷ 1 un w2

Se U, W ottengo Pitagora, infatti <z1,W> = 0

γ = n V ∈ V a due a due ortogonali fra loro vale

Il Teorema di Pitagora generalizzato

γ1 / γj   ‖u1 + ... + um‖ = ‖u12 + ... + ‖ um2

Dettagli
A.A. 2014-2015
15 pagine
SSD Scienze matematiche e informatiche MAT/02 Algebra

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher Nicola_Valsecchi di informazioni apprese con la frequenza delle lezioni di Algebra lineare e geometria analitica e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Politecnico di Milano o del prof Sabadini Irene.