vuoi
o PayPal
tutte le volte che vuoi
Matrici
Δm x n = (colonne) (colonna)
[ai,j] = righe altre
(a1,1, a1,2, ..., a1,m) (am,1, am,2, ..., am,m)
Operazioni tra Matrici
- Somma
[A+B]i,j = [A]i,j + [B]i,j
Proprietà:
- Commutativa
- Associativa
- Esistenza elemento neutro
- Opposto
A+0m,n = A -A (matrice opposta)
- Prodotto per scalare
[αA]i,j = α [A]i,j
Proprietà:
- α(A+B) = αA + αB
- (α+β)A = αA + βA
- α(βA) = (βα)A
- -ΔA = A
- Prodotto tra Matrici
A ∈ Mm,n B ∈ Mn,p
(colonna) (righe) devono essere uguali
A⋅B ∈ Mm,p
Σ [AB]i,j = [A]i,k[B]k,j, k=1
Proprietà:
- Non è sempre commutativo!
Trasposizione
AT
Si ottiene scambiando le righe con le colonne
Proprietà:
- (AT)T = A
- (A⋅B)T = BT⋅AT , (dA)T = dAT
- Se A=C* ∈ moltiplicabile, anche CTAT∈, (AC)T = CTAT
Determinante
Associato a matrice quadrate det(A) oppure |A| Se m=n=2 A=(a bc d) --> det(A)= ad-bc
Se m≥n deti(A) = ∑ni=1(-1)2+iai,jdet(Ai,j)
Operazioni elementari (ERO)
E riduzione
Si trasforma una matrice in un'altra con stesse dimensioni
ERO
I Tipo: Aggiungendo a una riga a volte un'altra
II Tipo: Scambiando due righe
III Tipo: Moltiplicando per a una riga
Data matrice A, quella che ottengo con ERO, B → A → B
(Si possono riferire anche alle colonne)
N.B. Per il calcolo del det conviene sceglere una riga o una colonna che presenta degli zeri Se A,B ∈ Hm, det(AB)= det(A)det(B) formula di Binet Se A∈Em det(AT) = det(A) - det(BA)
Matrici a scala
ϵ normalizzata se i pivot sono 1
Teorema di riduzione:
Ogni matrice non nulla A ∈ ℍ_m,n è equivalente per righe a un’unica matrice a scala ridotta normalizzata, indicata con SRN
Rango A ⩽ min(m, n), se non è nulla, il rango di A, r_2(A) è il numero dei pivot della SRN
Matrici invertibili
L’un matrice è invertibile se il suo determinante è ≠ da 0!
1° metodo:
- [A | A⁻¹]
- det(A⁻¹) = 1/det(A)
2° metodo:
- Nei calcoli coi ero è considerata come una sola matrice per tramite ero deve diventare I_m
Proprietà:
- (A⁻¹)⁻¹ = A
- AA⁻¹ = I_m
- (AB)⁻¹ = B⁻¹ A⁻¹
- det(A⁻¹) = 1/det(A)
Determinante tramite riduzione
- Le ero hanno degli effetti sul determinante
- Scambio tra righe → cambio segno del determinante
- Moltiplicazione per scalare K = K determinante (K ≠ 0)
N.B.
- Se A ∈ ℍ_m è matrice a colla
- Se r < m, | det(A) = 0
- Se r = m, | determinante = prodotto pivot
Sistemi lineari
Un può avere 3 tipi di soluzione:
- Sol(∅) = ∅ se impossibile
- Sol(s) è formata da uno solo elemento → s è determinato
- Sol(s) è ∞ infiniti elementi → s è indeterminato
Per risolverlo il sistema lo risolvo sotto forma di matrice, vengono usati principalmente 3 metodi:
- Sostituzione (quella classica), è più lunga da utilizzare
- Metodo di Gauss (riduzione tramite ero)
- Regola di Cramer (per sistemi quadrati)
ENDOMORFISMO
ϕ: V → V applicazione lineare, se V=W, è un endomorfismo
ϕ: V → Vi è un endomorfismo semplice se esiste una base di V formata da autovettori di ϕ e se la matrice associata è diagonalizzabile
ALGORITMO DI GRAM-SCHMIDT
Serve per costruire una famiglia di vettori ortogonali partendo da una famiglia di vettori linearmente indipendenti e una base qualunque e una ortogonale e una ortonormale
Partiamo da un I. spazio vettoriale:
- Contruire {W1, W2, ..., Wm}
- W2 = V2 - (V2 • W1) / (W1) W1
- Wi = Vi - Σi Wi-1 / Wi-1 = i=a,..,m
- → La base ortonormale di V
BASE ORTOGONALE
- Dati X1, X2 non nulli, sono ortogonali (X1⊥X2)
- se X1 • X2 = 0 → non sono L. I.
- Lo prodotto scalare
BASE ORTONORMALE
- Sono ortogonali
- Ha norma = 1