vuoi
o PayPal
tutte le volte che vuoi
R
Per esempio, ogni elemento di si scrive come combinazione lineare dei vettori e
0, 1
( ) . λ u λ u …+ λ u λ , λ , … , λ
+ + =0 =0
Se abbiamo solo quando tutti parliamo di
1 1 2 2 n n 1 2 n λ
indipendenza lineare. Se la relazione vale anche con uno o più diverso da 0 i vettori
sono linearmente dipendenti.
Gli Spazi Vettoriali, questi sconosciuti
B u , u , … ,u
{ } V
è una base di se
1 2 n u
1) I vettori sono linearmente indipendenti
V
2) B è un sistema di generatori di (ogni vettore di v si può scrivere come
∀ ∃
vϵV λ 1< j<n : v=λ u λ u λ u
( ) + +…+
combinazione lineare dei vettori in B, cioè j 1 1 2 2 n n
Teorema: Esiste sempre ed è unica la rappresentazione di un vettore in una base
data.
∀ ∃!
v λ , λ , … , λ :v= λ u λ u …+ λ u
( ) + +
1 2 n 1 1 2 2 n n
L'esistenza è implicita dalla definizione stessa di base.
α
Assumiamo che esistano altri coefficienti tali che
v u u α u u λ u λ u
=α +α +…+ =λ + +…+ .
1 1 2 2 n n 1 1 2 2 n n
Portiamo tutti i termini allo stesso membro e mettiamo in evidenza:
α
¿
α .
2− λ u α λ u
¿ ( )
(¿ ) +…+ − =0
2 2 n n n
¿
¿
Siccome B è una base i suoi coefficienti u sono linearmente indipendenti questa relazione è
u
verificata solo quando tutti i coefficienti degli sono pari a zero:
⟺ ⟺
α u α α
( )
−λ =0 −λ =0 =λ C.V.D.
n n n n n n n
Abbiamo quindi dimostrato che i coefficienti in una base esistono sempre e sono unici: essi
c v λ , λ , … , λ
( ) =( )
prendono in nome di componenti o coordinate di V in B: .
B 1 2 n
〈 〉
c v B= 0,1 , 1,0
( ) =v ( ) ( )
Se la base è detta canonica (es: .
B
Lemma di Steinitz: Un sistema che contiene più vettori di quanti ne contenga la base
è linearmente dipendente.
{ }
T v , v , … , v
1 2 m m>n
dato con implica ==========> T linearmente
B u ,u , … , u
{ }
1 2 n
dipendente Gli Spazi Vettoriali, questi sconosciuti
Essendo B una base possiamo scrivere ogni v come una combinazione lineare di B:
{ v u u …+a u
=a +a +
1 11 1 21 2 n1 n
v u u …+a u
=a +a +
2 12 1 22 2 n2 n
…
v u u u
=a +a +…+a
m 1m 1 2m 2 nm n
Ma, sempre perché B è una base, i suoi vettori devono essere linearmente indipendenti:
λ v λ v λ v
+ +…+ =0
1 1 2 2 m m
Sostituiamo
λ u a u a u λ u a u a u λ a u u u
(a + +…+ )+ (a + +…+ )+…+ ( +a +…+a )=0
1 11 1 21 2 n1 n 2 12 1 22 2 n2 n m 1m 1 2m 2 nm n
Facciamo i calcoli e mettiamo in evidenza i vari u
λ a λ a …+ λ a a λ a λ a u a λ a λ a
( + + )u +(λ + +…+ ) +…+(λ + +…+ )u =0
1 11 2 12 m 1m 1 1 21 2 22 m 2m 2 1 n1 2 n2 m nm n
Per essere T linearmente indipendente, esso deve avere tutti i coefficienti di u pari a zero
{ λ a λ a λ a
+ +…+ =0
1 11 2 12 m 1m
λ a λ a …+ λ a
+ + =0
1 21 2 22 m 2m
…
λ a λ a λ a
+ +…+ =0
1 n1 2 n2 m nm λ
Otteniamo così un sistema di m equazioni ed n incognite in . Siccome m>n per ipotesi,
λ
avremo un sistema di infinite soluzioni. Esistendo dunque anche soluzioni diverse da
zero, il sistema T è linearmente dipendente. C.V.D.
Teorema della base: Tutte le basi dello stesso spazio vettoriale hanno lo stesso numero
di vettori (= dimensione)
B u ⟺
B
( ) m≤ n
(v )
è base di V e è linearmente indipendente per il Lemma di
1 n 2 m
Steinitz
B u ⟺
B
( ) n ≤m
(v )
è linearmente indipendente e è base di V per il Lemma di
1 n 2 m
Steinitz n=m n=m
Quindi per forza . C.V.D. Questo numero prende il nome di dimensione di V e
dim V
si indica con
Teorema: basta che B sia linearmente indipendente perché sia una base.
Dimostriamo che B è anche generatrice in uno spazio V con dimV=n:
∃ λ , λ , … , λ , λ λ u λ u λ v
+…+ + =0
non tutti nulli tali che :
1 2 n n+1 1 1 n n n+1 λ , λ , … , λ
Visto che B è linearmente indipendente per ipotesi tutti i suoi coefficienti 1 2 n
λ
saranno pari a zero. Siccome i coefficienti devono essere non tutti nulli, dovrà essere
n +1
Gli Spazi Vettoriali, questi sconosciuti
diverso da zero
v u …+ λ u
−λ =λ +
n+1 1 1 n n λ
Allora potremo scrivere v come combinazione lineare degli elementi di B usando −λ n+1
come coefficienti
λ λ
1 n
v u u
= +…+ C.V.D
1 n
−λ −λ
n n+1
+1 W V
Un sottoinsieme di uno spazio è un sottospazio se esso che stabile (o chiuso)
V
rispetto alle operazioni indotte da quelle di .
Questo significa che la somma e il prodotto per uno scalare devono dare un risultato
contenuto nel sottoinsieme:
u+ v ϵ W αv ϵ W AX =0
Teorema: le soluzioni di un sistema lineare omogeneo costituiscono un
n n−rg A
R
sottospazio vettoriale di di dimensione
Dimostrazione: A X A X
X =0 =0
date due soluzioni tali che e dimostriamo che operando su di esse
1 2
rimaniamo nel sottoinsieme
A X X X A X αA X A X
( )
+ =A + =0 = (α )=0
1 1
1 2 1 2 { x y=0
−
Ad esempio, il vettore soluzione del sistema omogeneo è anche un
x y
+ +2z=0
sottospazio di dimensione 1, infatti n=3 e il rango della matrice A è pari a 2. Trovando le
W ;−z ; z , z ϵ R
={(−z ) }
soluzioni rispetto al parametro k avremo l'insieme delle soluzioni che
dim W =1
per il teorema dimostrato prima è anche sottospazio di .
Il vettore nullo non può essere base (ma non so da dove viene fuori questa cosa, né so cosa
centra)
Teorema: ogni sottospazio contiene il vettore nullo (condizione necessaria ma non
sufficiente).
Dimostrazione: per la definizioni di spazi vettoriali esiste sempre l'opposto. Siccome ogni
sottospazio è a sua volta uno spazio vettoriale vale la stessa definizione. Ma dimostriamolo:
vϵW −1 −v
Moltiplicando il vettore per lo scalare abbiamo ancora appartenente a
Gli Spazi Vettoriali, questi sconosciuti
W W v −v
. E sommando i due elementi di , e , abbiamo un terzo elemento sempre
W v (−v )
+ =0
appartenente a pari a . C.V.D.
( )
1 b
W M R)
{ } (
Ad esempio, non è sottospazio di perché non contiene il vettore nullo.
2
c d
Rappresentazione cartesiana di un sottospazio
Aggiungiamo una riga di variabili (x, y, z, t...) alla matrice A che ha come righe i diversi
vettori del sottospazio. Imponendo questa ultima riga uguale a zero, imponiamo la sua
lineare dipendenza dalle prime due, ovvero otteniamo i valori in funzione delle variabili,
il che equivale proprio alla rappresentazione cartesiana. ( )
1 0 1
−2
( )
1 0 1
−2
〈 〉
V 1,−2,0,1 , 0,1,2,−1 → A= →
( ) ( )
= 0 1 2 −1
Esempio: 0 1 2 −1 x y z t
Usiamo le mosse di Gauss per ottenere il numero di equazioni all'ultima riga pari al rango
della matrice (2) ( )
( ) ( )
1 0 1 1 0 1 1 0 1
−2 −2 −2
→ →
0 1 2 0 1 2 0 1 2
−1 −1 −1
x y z t 0 y−2x z t 0 0 z−2( y−2x t−x+ y−2x
−x )
{
z−2y+ 4x=0
A questo punto avremo ottenuto il sistema , ovvero la rappresentazione
t−3x y=0
+
cartesiana cercata.
Somma di sottospazi
W W w=w , w ϵ W , w ϵ W
{ }
=W + = +w
1 2 1 2 1 1 2 2
Se l'intersezione dei sottospazi si riduce al solo vettore nullo si parla di somma diretta.
W =W +W
⊕W ⟺ 1 2
W =W 1 2 W ∩W ={0 }
1 2
Relazione di Grassmann
W W V
Se e sono due sottospazi di uno spazio vettoriale avremo che
1 2
dim(W dimW ∩W
+W )=dimW + −dim(W )
1 2 1 2 1 2
Osservazione, se la somma è diretta l'ultimo addendo si annulla.
Ogni spazio ha due sottospazi banali: il vettore nullo e se stesso.
Gli Spazi Vettoriali, questi sconosciuti
Spazi Euclidei R
Uno spazio vettoriale su si dice Euclideo Reale se è dotato di prodotto scalare.
VxV → R
∙:
V R
Dato uno spazio vettoriale su , un'applicazione si dice prodotto
↦
u , v u ∙ v
( )
scalare se ha queste proprietà:
u ∙ v=v ∙ u
1. commutatività
u+ v ∙ w=u ∙ w+v ∙ w
( )
2. distributività
λu ∙ v=λ ∙ v)
(u
3. omogeneità
⇔
u ∙u ≥ 0 u ∙u=0 u=0
4. e positività
0 ∙u=0 u ∙(u−u)=0
Osservazione: , infatti (-u esiste sempre e sommato a u da zero per
u ∙u−u ∙u=0
definizione di spazi); per la proprietà distributiva avremo, , in quanto somma di
due scalari opposti. x , … , x ∙ y , … , y y , … , x , y
( ) ( ) =x
Il prodotto scalare non è unico. Quello viene detto
1 n 1 n 1 1 n n
canonico. 2
∀ u , v ϵV u ∙ v ≤ u∙ u v ∙ v
( ) ( ) ( )
Diseguaglianza di Cauchy-Schwarz: si ha che 0=0
Dimostrazione: Se uno dei vettori è nullo la diseguaglianza è ovvia,
Altrimenti possiamo dimostrare con due procedimenti alternativi la diseguaglianza. Il più
semplice:
λϵ R λu+ v) ∙( λu+ v) ≥ 0
(
posto sfruttiamo la proprietà di positività .
2
λ u ∙u+ λu∙ v v ∙ λu+ v ∙ v ≥ 0
+
sfruttando la distributività risolviamo il prodotto scalare 2
u∙v λ ∙ u)+2λ u ∙ v ∙ v 0
( )
(u +(v )≥
grazie all'omogeneità sommiamo i termini in
λ
questo polinomio di secondo grado in è sempre positivo come abbiamo detto all'inizio,
2
⇔4
∆< 0 u ∙ v u ∙ u v ∙ v ≤ 0
( ) ( ) ( )
−4
dunque avrà i