Anteprima
Vedrai una selezione di 9 pagine su 38
Teoremi e dimostrazioni di Analisi 2 - parte 1/2 Pag. 1 Teoremi e dimostrazioni di Analisi 2 - parte 1/2 Pag. 2
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Teoremi e dimostrazioni di Analisi 2 - parte 1/2 Pag. 6
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Teoremi e dimostrazioni di Analisi 2 - parte 1/2 Pag. 11
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Teoremi e dimostrazioni di Analisi 2 - parte 1/2 Pag. 16
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Teoremi e dimostrazioni di Analisi 2 - parte 1/2 Pag. 21
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Teoremi e dimostrazioni di Analisi 2 - parte 1/2 Pag. 26
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Teoremi e dimostrazioni di Analisi 2 - parte 1/2 Pag. 31
Anteprima di 9 pagg. su 38.
Scarica il documento per vederlo tutto.
Teoremi e dimostrazioni di Analisi 2 - parte 1/2 Pag. 36
1 su 38
D/illustrazione/soddisfatti o rimborsati
Disdici quando
vuoi
Acquista con carta
o PayPal
Scarica i documenti
tutte le volte che vuoi
Estratto del documento

Ag 2

SPAZI VETTORIALI

teorema della dimensione

Teorema

Tutte le basi di uno spazio vettoriale V hanno la stessa cardinalità

Dimensione

La dimensione di uno spazio vettoriale finitamente generato dimV è il numero di elementi di una sua qualsiasi base.

Dimostrazione

Supponiamo per assurdo che n > k

V = span {v1, v2, ..., vk} e possiamo scrivere w1 = a1v1 + a2v2 + ... + akvk. I vettori w1, w2, ..., wn sono linearmente indipendenti, quindi almeno uno dei coefficienti ai, diciamo a1, deve essere nullo.

Ricavando v1 = w1 - w2/a1 - ak/a1vk, abbiamo dunque V = span {w1, w2, ..., wk} e possiamo scrivere w2 = b1v1 + b2v2 + bkvk. I vettori w1, w2, ..., wn sono linearmente indipendenti, quindi almeno uno dei coefficienti b2, diciamo b2, deve essere non nullo.

Ricavando v2 = - b1/b2w1 + w2/b2 - bk/b2vk, abbiamo dunque V = span {w1, w3, w3}.

Ripetendo il procedimento k volte, si giunge a V = span {w1, w1, ..., wk} e quindi risulta wk+1 = c1w1 + c1w1 + ... + ckwk, contro l'ipotesi di indipendenza.

Siano (w1, v2, ..., vk) e (w1, w2, ..., wn) due basi dello spazio vettoriale V.

Poiché i vettori v1, v1, ..., vk generano V e i vettori w1, w1, ..., wn sono linearmente indipendenti, per il precedente lemma risulta k > n.

Ma anche i vettori w1, w1, ..., wn generano V e i vettori v1, v1, ..., vk sono linearmente indipendenti, quindi n ≥ k. Dunque n = k.

Linearità e dipendenza

Teorema

Ogni applicazione lineare trasforma vettori linearmente dipendenti in vettori linearmente dipendenti

Dimostrazione

Sia f:V→W un'applicazione lineare e siano v, v₁,..., vₙ vettori di V linearmente dipendenti, cioè esistono a₁, a₂,..., aₙ non tutti nulli tali che

a₁v + a₂v₂ + ... + aₙvₙ = 0V

per la linearità di f, possiamo scrivere il vettore nullo di W come segue

0W = f(0V) = f(a₁v + a₂v₂ + ... + aₙvₙ) = a1f(v) + a2f(v₂) + ... + anf(vₙ)

dunque f(v), f(v₁),..., f(vₙ) sono linearmente dipendenti

Isomorfismi e dimensioni

Teorema

Due spazi vettoriali V e W finitamente generati sono isomorfi se e solo se dimV = dimW.

Dimostrazione

Se V e W sono isomorfi, esiste un isomorfismo f: V → W.Poiché f è inietivo, si ha dimV ≤ dimW.Poiché f è suriettivo, si ha dimV ≥ dimW.quindi dimV = dimW.

Se dimV = dimW, siano V = (v₁, v₂, ..., vn) una base per V e W = (w₁, w₂, ..., wn) una base per W. Le applicazioni lineari che assegnano ad ogni vettore le coordinate

φV: V → ℝn    φW: W → ℝn

sono isomorfismi, quindi

φW-1 ◦ φV: V → W

è un isomorfismo

Rango e invertibilità

Teorema

Una matrice è invertibile se e solo se quadrata e di rango massimo

Rango

Sia A un insieme finito di vettori dello spazio V. Si definisce rango rK di A la dimensione del sottospazio generato dai vettori di A.

rK A = dim span A

Invertibilità

La matrice A risulta invertibile (cioè esiste B tale che AB = I e BA = I). Similmente, l'applicazione lineare F è un isomorfismo se e solo se la matrice MF è invertibile

LA(n) = (LA)-1 , M(f-1) = (HF)-1

Dimostrazione

A invertibile ↔ LA isomorfismo;

↔ LA : Rn → Rn rK LA = n;

↔ A quadrata di ordine n, rK A = n

Teorema di Binet

Teorema

Siano f e g due endomorfismi dello spazio vettoriale V

det(fg) = (det f)(det g)

Corollario (teorema per matrici)

Siano A e B due matrici quadrate dello stesso ordine

det(AB) = (det A)(det B)

Dimostrazione per endomorfismi, nel caso dimV=2

per ogni forma n, si ha

Ω(fΞ(u),fΞ(v)) = det(fΞ)Ω(u,v)

ma anche Ξ(fΞ(u),fΞ(v)) = det(f)Ω(Ξ(u),Ξ(v))

        = det(f) det(Ξ)Ω(u,v)

Dall'unicità del determinante, segue l'enunciato

Dimostrazione per matrici

det(AB) = det LAB

    det(LA LB)

    (det LA)(det LB)

    (det A)(det B)

Criterio di diagonalizzabilità

Definizione

Gli autovalori con molteplicità geometrica uguale alla molteplicità algebrica sono detti regolari.

Una matrice quadrata A è diagonalizzabile su IR se e solo se gli autovalori di A sono tutti reali e regolari.

Dimostrazione

Siano λ1,...,λk gli autovalori (tutti reali); a1,...,ak le loro molteplicità algebriche, g1,...,gk le loro molteplicità geometriche.

Gli autovettori si trovano negli autospazi; quindi, se vogliamo una base di IRn che sia formata da autovettori di A, dobbiamo prendere g1 vettori indipendenti (il massimo numero possibile) in Vλ1, g2 vettori indipendenti in Vλ2, ... gk vettori indipendenti in Vλk.

Dato che questi g1+...+gk autovettori (sicuramente indipendenti) siano una base di IRn occorre che siano n.

Poiché gi≤ai, abbiamo g1+...+gk ≤ a1+...+ak = n.

La condizione g1+...+gk=n equivale quindi a gi=ai, per ogni i=1,...,n.

Proiezione ortogonale e distanza minima

Teorema

Sia V uno spazio vettoriale euclideo e W un suo sottospazio.

  1. Ogni vettore a ∈ V si scrive in modo unico come a = a1 + a dove a1 è un vettore di W (la proiezione ortogonale di a su W) e a è un vettore ortogonale a (ogni vettore di) W.
  2. Data una base ortogonale β = (b1,...,bm) di W, risultano a1 = (a,b1) b1 + ... + (a,bm) bm, ‖b12 ‖bm2

Se β = (u1,...,um) è una base ortogonale di W, allora a1 = (a,u1) u1 + ... + (a,um) um.

  1. La proiezione ortogonale a1 di a su W è il vettore di W a distanza minima da a, cioè ‖a - a1‖ < ‖a - w‖ per ogni w ∈ W w ≠ a1

Dimostrazione

Fissiamo una base ortogonale β = (b1,...,bm) di W. Il vettore proiezione ortogonale a1 è un vettore di W, quindi si scrive in un unico modo come combinazione lineare dei vettori della base β: a1 = α1b1 + α2b2 + ... + αmbm.

Dettagli
Publisher
A.A. 2023-2024
38 pagine
SSD Scienze matematiche e informatiche MAT/05 Analisi matematica

I contenuti di questa pagina costituiscono rielaborazioni personali del Publisher JDarks1966 di informazioni apprese con la frequenza delle lezioni di Analisi 2 e studio autonomo di eventuali libri di riferimento in preparazione dell'esame finale o della tesi. Non devono intendersi come materiale ufficiale dell'università Politecnico di Milano o del prof Citterio Maurizio Giovanni.