vuoi
o PayPal
tutte le volte che vuoi
Per un sistema in cui il numero delle equazioni è uguale a quello delle incognite (n eq, n inc)
● Teorema di Cramer: un sistema lineare di n equazioni in n incognite della forma Ax=b
la cui matrice dei coefficienti sia quadrata e non singolare ammette una ed una sola
soluzione costituita dalla n-upla x1=|A1|/|A|, x2=|A2|/|A|, …, xn=|An|/|A|, dove Ai è la matrice
ottenuta dalla A sostituendo al posto della i-esima colonna la colonna dei termini noti.
Per un generico sistema lineare con m equazioni in n incognite
● Teorema di Rouché-Capelli: sia Ax=b un sistema lineare di m equazioni in n
incognite; esso ammette soluzioni se e solo se r(A)=r(A|b) dove A|b è la matrice ottenuta da
A completandola con la colonna dei termini noti.
Un sistema lineare possibile di m equazioni in n incognite in cui il rango della
matrice dei coefficienti sia r<n ammette ∞^n-r soluzioni, cioè infinite soluzioni
dipendenti da n-r parametri. Se r=n il sistema equivale ad un sistema di r
equazioni in r incognite con matrice dei coefficienti non singolare, quindi
ammette una ed una sola soluzione per il teorema di Cramer.
Se il vettore b=0 è il vettore nullo, il sistema Ax=0 si chiama omogeneo, esso è sempre
possibile ed ammette sempre come soluzione banale il vettore nullo. Un sistema omogeneo
di n equazioni in n incognite Ax=0 ammette soluzioni non banali se e solo se det(A)=0. Un
sistema omogeneo di m equazioni in n incognite ammette autosoluzioni (=soluzioni non
banali) se e solo se r(A)<n.
Se il rango della matrice dei coefficienti è r allora il sistema possiede n-r soluzioni
indipendenti, nel senso che tutte le altre che sono infinite sono combinazioni lineari delle
precedenti.
OSS. considerando un sistema lineare : Ax=b, il sistema lineare omogeneo Ax=0 che ha la
stessa matrice dei coefficienti si chiama sistema omogeneo associato. Conoscendo una
soluzione generale x0 del sistema omogeneo associato e una soluzione particolare x1 del
sistema , la soluzione generale di quest’ultimo si può esprimere come x=x0+x1.
Matrici
Una matrice è una tabella ordinata degli elementi di un dato insieme.
| a11 a12 … a1n |
| a21 a22 … a2n |
A=| . . . . | matrice dei coefficienti | a11 a12 … a1n b1 |
| . . . . | | a21 a22 … a2n b2 |
| am1 am2 … amn | C= | . . . . . | matrice
| b1 | | am1 am2 … amn bm|
completa
B= | b2 | matrice (o vettore) di tipo (m,n)
| … | dei termini noti
| bm |
I vari tipi di matrici:
● matrice riga: composta da una sola riga
● matrice colonna: composta da una sola colonna
● matrice di tipo (m,n): matrice rettangolare con m righe e n colonne
● matrice quadrata [di tipo (n,n)]: matrice con lo stesso numero di righe e di colonne
● matrice diagonale: matrice quadrata in cui gli elementi sono tutti nulli ad eccezione di
quelli posti sulla diagonale principale
● matrice identità I: matrice diagonale avente tutti 1 sulla diagonale principale e tutti 0
altrove
● matrice nulla: di dimensioni qualsiasi costituita da soli 0 e indicata con il simbolo 0
● matrice triangolare superiore: matrice quadrata avente tutti gli elementi al di sotto
della diagonale principale uguali a zero ( a21, a31, a32 )
● matrice triangolare inferiore: matrice quadrata avente tutti gli elementi al di sopra
della diagonale principale uguali a 0 ( a12, a13, a23 )
● matrice a gradini: di qualsiasi dimensioni dove il primo elemento è diverso da ‘ della i-
esima riga con i>1 è più a destra del primo elemento diverso da 0 della riga precedente
● matrice simmetrica: matrice quadrata di ordine n>1 i cui elementi sono
simmetrici rispetto alla diagonale principale. per ogni i, j ∈ {1,2, …, n} con i≠j
risulta aij=aji
● matrice antisimmetrica: matrice quadrata dove aij=-aji
● matrice trasposta: di tipo (m,n) ottenuta scambiando le righe con le colonne di una
matrice A e si scrive AT
● matrice ridotta: A di tipo (m,n) di elemento generico aij se in ogni riga che
non contiene solo 0 esiste un elemento aij≠0 tale che per ogni k con i<k≤m si ha
akj=0. per una qualsiasi matrice A esiste una matrice B ridotta per righe
equivalente alla A
● matrice inversa: sia A una matrice quadrata di ordine n; una matrice B tale che
AB=BA=I prende il nome di inversa di A. Una matrice che ammette inversa è detta
invertibile.
Somma di matrici
Se A=[aik] e B=[bik] sono due matrici dello stesso tipo, diciamo C=[cik] la
somma di A e B e scriviamo C=A+B se ogni elemento di C è la somma degli
elementi corrispondenti di A e B, ovvero si ha che cik=aik+bik ∀i,k.
La somma gode delle proprietà di cui gode un gruppo abeliano (=associativa, commutativa,
esistenza elemento neutro, esistenza opposto, (A+B)T=AT+BT).
Prodotto esterno o prodotto per uno scalare = = ∀
Se � è un numero (scalare) e A=[aik] è una matrice si ha B= �A se bik= �aik, i, k. Le proprietà
(= ( ( =
del prodotto per uno scalare sono: �0=0=0A; 1A=A; (�β)A= �(βA)=β(�A); (�+β)A= �A+βA;
= ⇒
�(A+B)= �A+βB; �A=0 �=0 oppure A=0
Combinazioni lineari
Date n matrici dello stesso tipo A1, A2, …, An e n scalari 1, 2, …, n, diciamo combinazione
lineare delle Ai con i B= ∑ (i=1 a n) iAi = 1A1 + 2A2 + … + nAn.
Le matrici possono essere:
● linearmente dipendenti: se una combinazione lineare di n matrici dà la matrice nulla
anche se non tutti i coefficienti sono nulli. k matrici A1, …, Ak sono linearmente dipendenti se
e solo se almeno una di esse si può scrivere come combinazione lineare delle altre
● linearmente indipendente: se una combinazione di n matrici dà la matrice nulla
perché tutti i coefficienti sono nulli
Prodotto tra matrici
Siano A e B due matrici di tipo (m,p) e (p,n); diciamo prodotto righe per colonne
la matrice C=AB=[cik] di tipo (m,n) se l’elemento generico cik è la somma dei
prodotti degli elementi della i-esima riga di A per gli elementi della k-esima
colonna di B, cioè cik=∑(j=1 a p) aijbjk.
OSS. il numero delle colonne della prima matrice deve coincidere con il numero delle righe
della seconda, in tal caso A è conformabile con B.
OSS. non vale la legge di annullamento del prodotto cioè se il prodotto dà la matrice nulla
per forza A=0 oppure B=0. Dunque per il prodotto di matrici non vale, in generale, la
proprietà commutativa, tuttavia esistono coppie di matrici A e B tali che AB=BA, esse si
chiamano permutabili o si dice che commutano.
Le proprietà del prodotto sono: associativa, distributiva, associatività mista. esistenza
elemento neutro, A0=0A=0, (AB)T=BTAT.
Potenza di una matrice quadrata
?
Polinomi di matrici
Dato un polinomio di grado n a0xn+a1x2+...+an-1x+an possiamo ora formalmente sostituire
alla variabile c una matrice A ottenendo il polinomio matriciale a0An+a1A2+...+an-1A+anI.
Matrici a blocchi
?
Determinante
Sia Mn l’insieme delle matrici quadrate di ordine n e sia A∈Mn. Il determinante di
A è il valore di una funzione che ha come dominio Mn e come codominio R o C,
quindi det: Mn↦R/C. Il determinante può essere scritto così: detA, det(A), |A|.
Definizione determinante:
● in maniera ricorsiva:
ㄱ
Sia A= Γa b quadrata di ordine 2, allora il determinante di A e det(A)=ad-bc.
」
Lc d
Per dare una definizione bisogna introdurre il minore complementare: se A∈Mn il
minore complementare è l’elemento aik e lo chiameremo Mik il determinante
della sottomatrice che si ottiene da A cancellando la i-esima riga e la k-esima
colonna. Chiameremo complemento algebrico dell’elemento aik e lo indicheremo
come Aik il determinante della sottomatrice di ordine n-1 che si ottiene da A
cancellando la i-esima riga e la k-esima colonna, con il proprio segno se i+k è
pari, col segno opposto se i+k è dispari, cioè Aik=(-1)^i+k Mik.
Def. Sia A∈Mn, si ha det(A)=∑(k=1 n) aikAik, cioè la somma dei prodotti degli
elementi di una linea di A (riga o colonna) per i rispettivi complementi algebrici.
Per calcolare il determinante di una matrice quadrata di ordine n, possiamo calcolare un
certo numero (al massimo n) di determinanti di matrici di ordine n-1, a loro volta questi
determinanti calcolando al più n-1 determinanti di matrici di ordine n-2 e così via, quindi, in
pratica, basta saper calcolare il determinante di una matrice di ordine 2.
● definizione classica
Se A∈Mn chiamiamo prodotto associato di A il prodotto di n elementi di A presi in
modo tale che in ciascuno di essi non ci siano due elementi appartenenti alla
stessa riga/colonna.
Def. Il determinante della matrice A∈Mn è la somma di tutti i possibili prodotti
associati ad A, presi ciascuno con il proprio segno o con il segno opposto a
seconda che la permutazione dei
secondi indici sia di classe pari o di classe dispari, cioè, formalmente det(A)= ∑(-
1)^t•a1k1a2k2…ankn dove la somma è estesa a tutte le permutazioni dei
secondi indici e t è il numero degli scambi che la permutazione dei secondi indici
presenta rispetto alla prima.
● definizione prof
Sia A=(aij)∈Mn(K), si dice determinante di A e si scrive |A| o det(A), lo scalare
che è il risultato dell’operazione tale che:
● se n=1 |A|=a11
● se n=2 |A|=a11•a22-a21•a12
● se n=3 Regola di Sarrus:
● se n=4, 5, … Teorema di Laplace. Data A=(aij)∈Mn(K)
○ per righe: scelgo la i-esima riga |A|=∑(h=1, n) aih•μih=∑(h=1, n) aih•(-
1)^i+h•|Aih|
○ per colonne: scelgo la j-esima colonna |A|=∑(k=1, n) akj•μkj=∑(k=1, n)
akj•(-1)^k+j•|Akj|
NB Il determinante di matrici diagonali e triangolari è dato dal prodotto degli elementi della
diagonale principale.
● Primo teorema di Laplace: Sia A∈Mn, si ha det(A)=∑(k=1, n) aik•Aik cioè il
determinante è la somma dei prodotti degli elementi algebrici di una linea (riga o
colonna) per i rispettivi complementi algebrici.
● Secondo teorema di Laplace: La somma dei prodotti degli elementi di una
riga/colonna per i complementi algebrici degli elementi di una linea parallela è
nulla, cioè ∑(j) aijAkj=0.
Proprietà del determinante:
Sia A una matrice quadrata di ordine n, allora sussistono le seguenti proprietà:
● det(A)=det(AT)
● scambiando tra loro due colonne di A si ottiene una matrice B tale che |A|=-|B|
● se una colonna di A è nulla, allora det(A)=0 e la matrice si chiama singolare
Una matrice è singolare se e solo se le sue colonne/righe formano un sistema di vettori
linearmente dipendenti.
● se ad una colonna di A si somma una combinazione lineare