Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
Scarica il documento per vederlo tutto.
vuoi
o PayPal
tutte le volte che vuoi
Prodotto scalare e Ortogonalità
Teor:
V(ℝⁿ) spazio vettoriale con prodotto scalare.
A ∈ V(ℝⁿ) A ≠ 0 allora:
- 1. A⁻¹ = V(ℝⁿ)
- 3. A⁻¹ = { A, A(s)ᵀ = 0 }
Obs:
V(ℝⁿ) spazio vettoriale diviso col prodotto scalare
A ∉ V(ℝⁿ), A = 9
B ⊆ ℝ³ → β(A) = β(C) = β⁻¹(A)
A = | |β (A)ᵀ = |β(C)ᵀ = β⁻¹
=> Dato A ∈ V(ℝⁿ) per trovare A⁻¹ determino una base
B ⊆ β(A) e calcolo β⁻¹
Prop:
V(ℝⁿ) spazio vettoriale col prodotto scalare
" " V,W ∈ V(ℝⁿ) con
W • W = 0
(in ℝⁿ cop. prec. (3,4,5,6)) (3,4,1,ℝ²) | -g
Allora è settore possibile scrivere V = V₁ + V₂ dove
V₁ = vettore proiettivo a W
V₂ = vettore ortog. a W
U₂ = V
V₁ = V - V₂
V₂ = V₁ + V
W = | (V • W)
W = | (U₂ = V)
2 Coffe numeri
D) Il lungo W
D) V lungo W
PROPRIETA
- || V || >= 0 V u Vn (R)
- || u || = 0 <=> u = 0
- || u, v ||
- || u || || v ||
PROPRIETA
- || u-v || <= || u || || v || DISEGUAGLIANZA DI COUCHY - SCHWARTZ
- || u+v || <= || u ||+ || u-v || DISEGUAGLIANZA TRIANGOLARE
TEOREMA
B = { e1... en } UNA BASE DI Vn (R)
UNA SEQUENZA B1 = { e1 1, e2 1 ... en 1 } COSÌ DEFINITA
e11 = e1
ei1 = ei - Σ ej 1 ei1 / e1 e 1
PROPRIETA
B = { e1, .. em } BASE ORTONORMALE DI Vn (R) DI v = L-Ef
CONSIDERIAMO UN VETTORE V ЕС L. COEFF DI PROIEZIONE
DI v СU B
V = x q1 + ... am em Bx = V еxi / e1 e1 + Bogono
B DI ORTONORM. => 2A S вn eN
TEOREMA
AX S Vm (R) A ≠ 0 => Vm (R) B(A) і A у
-S м COSTR а 1 уск еn А Т
A є Vq і Aᐟ ∈ Vm (R) => Vm (R) є Аᐟ еA T
θ є A ме
ОЛИ A м а з в яellige di l A шanthche di l copчonnor
ПАКРАЗПАЛСIA sbie sich лекарств а(Иц)=s(A)
RE dopы definep с ед зт зуша вш х
ФД едкости dell prodotto дощерер eleccidea (case) quic еt
1 аше 2 ед до pità
осгалит adohazo prigetto -{ 1 ed до ~ в c(a) (in urise йохитфм) }
locno et dite 2 decesho
Р(T) in r(u)= і([ід тићcнес] [и R) [ад ед d{ esinincia
в T обидetti в_in N ει 2=q 1-m={it Ы рас)ередtour) (Е X я hoм топ)вадашек
Prop.
Due matrici simili hanno lo stesso determinante e lo stesso polinomio caratteristico.
Dim.
- A, B simili → ∃ P → det (ch. p. B – x^m I)→ det B = det (P-1AP) = det A det B
- PB(x) = det (BxIn) = det (x x
x
) = det ((-1)nx
(A-xIn))
olde In = PA(x) = det ((-1) det ((A – xIn) - x= PB(λ)
Osserv.
Una matrice è diagonalizzabile in C sse In(λi ) ammette una base
- Autovettori di A
Dim.
- A ∈ Mn(K) diagonalz. ↔ D∈ Mn(K) con det ch sis. D = iε cioè Pλ = A+Ix det A
- D =
Sc&r = ...
- Scrivo per colonne → D R (Prp...con) T...₀ₖ
- Det P = 0⇔ le m colonne di P sono linearmente indipendenti→ formano una base di Ikn
Poi che ⇒ PS AP si ottiene PD
- P — Pλ A
- λ = √ -1AP = A A A = A A
Pλ2