vuoi
o PayPal
tutte le volte che vuoi
TEOREMI
Teorema di Binet:
Definizione:
A, B [matrici quadrate, con stesso ordine, e valori in K].
det (A · B) = det A · det B
Dimostrazione:
Altro teorema:
Se A [M. quadrata, nxn] e E [M. elementare quadrata, nxn] Allora det(A· E) = detA· detE
Dimostrazione Binet:
• Se detA e detB ≠ 0 Allora: A = E ·.... · E
1 k
––(per l’Altro teorema)→ det(A·B) = det(E ) · .... · det(E ) · det(B)
1 k
––(per l’Altro teorema)→ det(A) = det(E ) · .... · det(E )
1 k
det(A · B) = det(A) · det(B)
• Se (detB o) detA = 0 Allora:
Dato che: ρ(A·B) ≤ min{ρ(A), ρ(B)}
Se il detA = 0 Allora ρ(A) non è massimo → ρ(A·B) non è massimo → det(A·B) = 0
Quindi: det(A· B) = det(A)· det(B) → 0 = 0 · detB (sempre vera)
Teorema di Rouche-Capelli:
Definizione:
A e (A|b) [matrice incompleta e completa], rappresentano un sistema lineare che:
!(!|!) > ! !
1) Se | nessuna soluzioni.
n è il numero di incognite.
!(!|!) = !(!) = !!!|
2) Se [sistema compatibile] una sola soluzione. !!! !
!(!|!) = !(!) < !!!| !!∞ !!
3) Se [sistema compatibile] infinite soluzioni .
Dimostrazione:
Ax = b questa relazione richiede che:
b [vettore noto] sia l'immagine di x [vettore ignoto] ottenuta mediante
n m
F : K → K [applicazione lineare] associata ad A.
Si ha che: Ax = F(x)
Il sistema ammette soluzione solo se b fa parte dell'immagine di F quindi quando ρ(A) = ρ(A|b).
• Se x [soluzione di (A|b) | Ax = b] E v [è una soluzione di (A|0) | Av = 0] Allora
∃ 0 0
A(x + v) = Ax + Av = b + 0 = b
0 0
Lo spazio delle soluzioni (ottenuto traslando il nucleo con il vettore x ) è il sottospazio affine:
0
Sol(A|b) = x + Sol(A|0)
0
Quindi: dim ( Sol(A|b) ) = dim( Sol(A|0) )
• Applichiamo il teorema della dimensione secondo cui: dim( Ker ) = n - ρ(A)
Ottenendo: dim( Sol(A|b) ) = dim( Ker ) = n - ρ(A)
Teorema di Grassmann:
Definizione:
Dato V [spazio vettoriale su K , dimensione finita] e W,U [sottospazi di V].
W + U = {w + u | w W, u U} [sottospazio somma di W e U]
∈ ∈
W ∩ U [sottospazio intersezione] Allora:
dim(W + U) = dim(W) + dim(U) – dim(W ∩ U)
Se W ∩ U = {0} Allora U e W sono in somma diretta E:
dim(W + U) = dim(W) + dim(U) ⊕
Se V = U + W si indica con: V = U W [V si decompone in somma diretta di U e W].
Dimostrazione:
B = {v , … , v } [base di W ∩ U] e d = dim(W ∩ U)
1 d
B = {v , … , v , u , … , u } [base di U] e s = dim(U)
U 1 d 1 s-d
B = {v , … , v , w , … , w } [base di W] e t = dim(W)
W 1 d 1 t-d
∪ ∪
B B B [sistema di generatori di U + W] che dobbiamo dimostrare essere lin. Indipendenti.
U W
• Supponiamo l’esistenza di una combinazione lineare nulla:
v = λ v + … + λ v u = µ u + … + µ u w = τ w + … + τ w
1 1 d d 1 1 s-d s-d 1 1 t-d t-d
v + u + w = 0 v = 0 , v + u = 0 , v + w = 0 u + w = 0 sono combinazioni lineari banali.
• Usando le notazioni iniziali:
dim(W + U) = d + (s – d) + (t – d) = s + t – d = dim(U) + dim(W) - dim(W ∩ U)
Teorema di Lagrange
Definizione:
Dato G [gruppo] e H [sottogruppo] Allora:
|G| è divisibile per |H|
Dimostrazione:
Dato che: ∈ ∈
• aH = { ah | h H , a G } [insieme delle classi laterali (sinistre) di H in G]
• |G| [ordine di G (G è unione o “somma” delle classi laterali)].
• |G : H| [numero delle classi laterali - indice di H in G]
• H aH è biezione a G , h H quindi le classi laterali non hanno elementi in comune.
∀ ∈ ∈
Se G è finito, le classi laterali hanno stesso ordine = |H|
Allora: |G| = |H| · |G:H|
|G| è divisibile per |H| e da come risultato |G:H| (che è intero).
Teorema del completamento
Definizione:
Dato V [spazio vettoriale su K , di dimensione n] e
v , … , v [vettori linearmente indipendenti in V] Allora:
1 k
k ≤ n
1) Se k = n Allora v , … , v è una base.
1 k
2) Se k < n Allora n-k [vettori] v , … , v (in genere, vettori di una base canonica) t.c.
∃ k+1 n
l'insieme ordinato v , … , v , v , … , v è una base.
1 k k+1 n
Dimostrazione (procedimento):
Sia v , … , v [sottoinsieme di V , composto da vettori linearmente indipendenti].
1 k
w , … , w [base (generalmente, canonica) aggiunta al sottoinsieme di V precedente].
1 n
Si ottiene S = (v , … , v , w , … , w ) [insieme ordinato]
1 k 1 n
S genera tutto lo spazio V.
• Si applica l'algoritmo di estrazione di una base che elimina, partendo da sinistra, quei vettori che
sono dipendenti dai vettori precedenti.
I primi k vettori sono indipendenti, l'algoritmo eliminerà soltanto alcuni dei vettori w , ottenendo
i
una base contenente v , … , v (ed eventualmente qualche vettore w ).
1 k i
Teorema Spettrale
Definizione: ∃
t t diag(λ , … , λ )
A = A [matrice reale simmetrica] ↔ Q ortogonale | Q AQ = D = ! !
A è simmetrica, quindi, valgono le seguenti proprietà:
!λ , … , λ
1) Gli autovalori di A sono reali.
! !
2) Autovettori [relativi ad autovalori distinti] sono ortogonali.
! !
∃B !base!di!!R
3) A è ortogonalmente diagonalizzabile → formata da autovettori di A.
Spettro: è l’insieme degli autovalori.
Dimostrazione 1): -1
Ip: Sia Q una matrice ortogonale | Q AQ = D
t
Ts: A è simmetrica [ A = A ] t -1
1) Q è ortogonale [ovvero Q = Q ]:
-1 -1 -1 -1 -1
Q AQ = D → QQ AQQ = QDQ → A = QDQ
t
2) D è diagonale [ovvero D = D ]:
-1 t t -1 t -1 t -1 t -1
Q A Q = D → QQ A QQ = QD Q → A = QDQ
-1 t
1,2) QDQ = A = A