vuoi
o PayPal
tutte le volte che vuoi
Settimana 1
- Vettori Geometrici
Colonne εRm z | z1 → R =
n
A(v) =
Combinazione lineare: dati vettori → m⃗, u⃗εRn
∀λ, μ ε r → εK (campo) si dicono scalari
=> (λm⃗ + μu⃗)(x) definita
= λ m⃗(x) + μ u⃗(x)
Spazio vettoriale euclideo (Rm) → suddetto prodotto scalare euclideo
Cioè forma bilineare simmetrica e definita positiva
- Biliner. < λ m⃗ + μ u⃗, ĝ > = λ < m⃗, ĝ > + μ < u⃗, ĝ >
- Simmetrica < λ m⃗, ĝ > = < ĝ, m⃗ >
- Definita positiva ↔ ∀ m⃗ ≠ ĝ => < m⃗, m⃗ > ≠ 0
- < m⃗, m⃗ > = 0 => m⃗ = ĝ
- Norma = funzione: Rn → R
- ||m⃗ || = √< m⃗, m⃗ >
- = √ m21 + m22 + … m2n
- Disuguaglianza di Schwartz: |< m⃗, u⃗ > | ≤ | | m⃗ | | | | u⃗ | |
- < m⃗, u⃗ > = cos (m⃗, u⃗) • | | m⃗ | | • | | u⃗ | |
- Def. Siano n⃗ , u⃗ ε Rn → si dicono ortogonali < n⃗ , u⃗ > = 0
- Def. Si ⬩ ⬩ ε ⬩ si dice ⬩ ⬩ se | ⬩ ⬩ ⬩
- Determinante 2x2 = se = o, vettor
- Sia n⃗, ε R2 il determinante è ▭ n⃗ u⃗
- | |
- = l’unica forma bilineare anti-simmetrica tale che ^ = ∧ ⬩ = 1
- Área parallelogramma ^ = ∧ ⬩
- Determinante 3x3
A = 1/2 || p0∧p1∧p2 ||
- Volume parallelepipedo
- Prodotto vettoriale: L'unica applicazione bilineare antisimmetrica tale che A × B = M2U3 - M3U2 M3U1 - M1U3 M1U2 - M2U1
Sezione 2
- Prodotto misto = dati 3 vettori A, B, C ∈ ℝ3 A ⋅ (B × C) = B ⋅ (C × A) = C ⋅ (A × B)
- LA = X × C e ortogonale a B se X ≠ 0
- Costruire gli Segno coordinati ⇔ A × B = 0
- Spazio affine euclideo ℰn = n-dimensionale insieme di punti con proprie coordinate
Colonna: O (0,0,...,0)
- ℝn agisce per traslazione su ℰn:
- ∀X ∈ ℰn, ∀Xn - X1
- •Direzione = sia =0, la direzione di n = λ∈ ℝ
- Se α e β = [0]
- Retta affine
- Sia P0 ∈ ℰn e sia mn ∈ n passando per o: P0 + [λt∀t]
Equazioni delle rette:
- - Intrinseca: P0 + [λt]
- - Parametrica: (x0, y0, z0) = t 2 dimensioni
- - Cartesiana: sistema lineare
Settimana 5
- Algebra lineare su ℂ:
- N. numeri complessi ⇔ ℂ - Spazio vettoriale, con conseguenza complessi
- dimℂ ℂ2 = 2 → 2 prodotti complessi
- In generale pol. dim = q ⟹ q ≠ q
- Operazioni elementari di riga:
- Si dice ottenuta per trasformazioni elementari di riga da A ⟹ A si ottiene:
- Scambiando 2 righe
- Moltiplicando una riga per uno scalare
- Agiungendo a ri un multiplo di un'altra riga
- Nucleo ker(A) = {v, Av = 0}
- Due matrici sono equivalenti se sono ottenute da trasformazioni riga
Settimana 6
- Matrici inverse n x n:
- ∀ A∈ Kn invertibile
- Metodi per calcolare A*:
- 1. Calcolare matrice (coeff A) con determinante Δ-1
- 2. Considerando matrice completa con ideale (intero o complessa)
Proof matrice ortogonale (⇐)
<Ci(A), Gj(A)> = δ = δi,j
∀i, j
|Ci(A)| = A * λ4
-Autovalori relativi a 1 asse di rotazione
Teorema spettro delle matrici simmetriche
Sia A ∈ ℝnxn : A = AT (simmetrica)
- Spec (A) ⊆ ℝ
- Σ indxi(A) = n
- ind+1(A) ind-1(A) ∀ i ∈ Spec(A)
- A è diagonalizzabile per mezzo di una matrice ortogonale, ossia:
∃P ∈ ℝ : PTAP = PTA2
Settimana 11
Problema di Gram - Schmidt
-Dati una base (v1…vp) U ∈ G(⊕n), costruire base (b1…bn) ortogonale |bi, j|
-Preso gli stessi vettori esegui continuano:
[u1] = [bu]
[u2…un] = b1…bn
- b2 = vu/|vu|
- b3 = c2/|c2|
- b4 = c3/|c3|
- bk = ck/|ck|
Con c3 = v3 - (v2)
Con stesso di ortogonalizzazione
Teorema di Cayley-Hamilton
Sia Δ ∈ kirnxn e PA(T) = (-1)ndet(A- T l)…
⇒ P(A) = 0n*n
Settimana 12
Retta - Dato extra → ➔ → = (b, b) è ortogonale con r
-Se b < 0, equilibrio senza cors
y = mx + q
Con m = - a/b q = - c/b
Nuovi riedizioni tra rette
- Retta extra: r.x + b.y + c = 0
- Retta ordinaria: r'.x + q'.y + c
- Cons. Di
Ad + bb = O
m*n + * = O