vuoi
o PayPal
tutte le volte che vuoi
Prodotti Scalari
Proposizione (!)
Sia V uno spazio vettoriale metrico con norma || ||.
Allora:
- (i) ||v|| = 0 <=> v = 0
- (ii) ||v|| > 0 ∀ v ≠ 0
- (iii) ||λv|| = |λ| ||v|| ∀ λ ∈ R ∀ v ∈ V ||v+w||2 = ||v||2 + 2⟨v,w⟩ + ||w||2 ∀ v, w ∈ V
- (iv) Disuguaglianza di Cauchy-Schwarz (l'uguaglianza vale <=> v e w sono lin. dip.) |⟨v,w⟩| ≤ ||v||·||w|| ∀ v, w ∈ V
- (v) Disuguaglianza triangolare |||v|| - ||w||| ≤ ||v+w|| ≤ ||v|| + ||w||
- (vi) ⟨v,w⟩ = 1/4 [||v+w||2 - ||v-w||2] ∀ v, w ∈ V
Dimostrazione:
In uno spazio vettoriale metrico la norma || || : V → (R)+ è definita da: ||v|| = √⟨v,v⟩
Quindi:
- (i) Se v = 0, allora ||v|| = √0 = 0, 0 ≤ 0
- (ii) Se v ≠ 0, allora, essendo la norma una funzione
∀v∈V (v≠0)
omogeneità
additività 1a variabile
additività 2a variabile
simmetrica
(iv)
Se v=0 (oppure ω=0) allora la disuguaglianza di Cauchy-Schwarz è banalmente verificata!
Supponiamo, quindi, che v, w ≠ 0. Siccome, da ipotesi della proposizione, siamo in uno spazio vettoriale metrico, per definizione di quest'ultimo, sappiamo che ⟨⋅,⋅⟩ è definito positivo (ovvero <v,v> ≥ 0 ∀v ≠ 0). Quindi si ha ∀a, b ∈ ℝ:
per il punto (iii) e ipotesis
In particolare, prendendo a=‖w‖2 e b=<v,ω>≤0, otteniamo
Proposizione
("Combinazioni lineari" per basi ortogonali e ortonormali)
Sia \(\{v_1, \ldots, v_n\}\) una base ortogonale di uno spazio vettoriale metrico \(V\).
Allora \(\forall v \in V\)
\(v = \frac{\langle v, v_1 \rangle}{\langle v_1, v_1 \rangle} v_1 + \ldots + \frac{\langle v, v_n \rangle}{\langle v_n, v_n \rangle} v_n\)
In particolare, se \(\{v_1, \ldots, v_n\}\) è una base ortonormale si ha
\(\forall v \in V\)
\(v = \langle v, v_1 \rangle v_1 + \ldots + \langle v, v_n \rangle v_n\)
Dimostrazione:
Siccome \(\{v_1, \ldots, v_n\}\) è una base, allora
\(v = \alpha_1 v_1 + \ldots + \alpha_n v_n\)
Moltiplicando tutto scalarmente per \(v_j\), otteniamo
\(\langle v, v_j \rangle = \langle \alpha_1 v_1 + \ldots + \alpha_n v_n, v_j \rangle\)
che grazie all'ortogonalità della base diventa
\(\langle v, v_j \rangle = \alpha_j \langle v_j, v_j \rangle\)
Quindi :
\(\alpha_j = \frac{\langle v, v_j \rangle}{\langle v_j, v_j \rangle}\) \(\forall j = 1, \ldots, n\)
\(\rightarrow\) Coefficienti di Fourier
Di conseguenza,
\(v = \frac{\langle v, v_1 \rangle}{\langle v_1, v_1 \rangle} v_1 + \ldots + \frac{\langle v, v_n \rangle}{\langle v_n, v_n \rangle} v_n\)
(ii) ⇒ (iii)
Sapendo che {v1, ..., vn} è una base ortonormale si ha che:
- v = <v, v1>v1 + ... + <v, vn>vn ∀v∈V
- ||v||2 = |<v, v1>|2 + ... + |<v, vn>|2 ∀v∈V
Allora, abbiamo che
||T(v)||2 = <T(v), T(v)> ||T(v)||2 = <T(∑i=1n <v, vi>vi), T(∑j=1n <v, vj>vj)> ||T(v)||2 = ∑i=1n <v, vi><T(vi), ∑j=1n <v, vj>T(vj)> ||T(v)||2 = ∑i=1n ∑j=1n <v, vi><v, vj><T(vi), T(vj)>
Per le proprietà delle sommatorie: ∑i=1n bj δij= bi ||T(v)||2 = ∑i=1n |<v, vi>|2 = ||v||2
In particolare, T(v) = 0 ⇔ ||v|| = ||T(v)|| = 0 ⇔ v = 0 ⇔ Ker T = {0} ⇔ T è invertibile
(iii) ⇒ (i)
Ricordando che <v, w> = -1/4[||v+w||2 - ||v-w||2], troviamo che
<T(v), T(w)> = -1/ 4 [||T(v) + T(w)||2 - ||T(v) - T(w)||2] = -1/4 [||T(v+w)||2 - ||T(v-w)||2]
||v||2 = -1/4 [||v+w||2 - ||v-w||2]