Indice
Definizioni
Definizione 1. Matrice inversa. Sia[math]A[/math]
una matrice quadrata di ordine [math]n[/math]
. Si chiama matrice inversa di [math]A[/math]
e si indica con [math]A^{-1}[/math]
una matrice quadrata di ordine [math]n[/math]
, se esiste, tale che \[ \begin{array}{cc} A \cdot A^{-1} = I, & A^{-1} \cdot A = I \end{array} \] dove [math]I[/math]
è la matrice identica di ordine [math]n[/math]
. Definizione 2. Matrice invertibile. Una matrice quadrata [math]A[/math]
per la quale esista una matrice inversa è detta invertibile, o non singolare. Definizione 3. Matrice singolare. Una matrice quadrata [math]A[/math]
per la quale non esista una matrice inversa è detta singolare, o non invertibile. Osservazione 1. Se una matrice [math]A[/math]
è invertibile, allora la sua inversa [math]A^{-1}[/math]
è unica. Infatti, se esistessero due matrici [math]B[/math]
e [math]C[/math]
entrambe inverse di [math]A[/math]
, potremmo applicare la definizione 1 e l’associatività del prodotto matriciale per provare la seguente uguaglianza \[ C = I \cdot C = (B \cdot A) \cdot C = B \cdot (A \cdot C) = B \cdot I = B \] la quale dimostra che [math]C = B[/math]
, e che quindi esiste solamente un’inversa per la matrice [math]A[/math]
. Osservazione 2. Se una matrice [math]A[/math]
è invertibile, allora il suo determinante è diverso da 0 e il determinante della sua inversa, anch’esso non nullo, è il reciproco del determinante di [math]A[/math]
. Infatti se [math]A[/math]
è invertibile, allora vale \[ \begin{array}{ccc} \begin{aligned} &A \cdot A^{-1} = I \Rightarrow \\ &|A \cdot A^{-1}| = |I| = 1 \Rightarrow \\ &|A| \cdot |A^{-1}| = 1 \Rightarrow \\ &|A^{-1}| = \frac{1}{|A|} \end{aligned} \end{array} \] Il terzo passaggio segue dal secondo per il Teorema di Binet, e prova che i determinanti in gioco sono entrambi non nulli. Il quarto passaggio prova poi l’ultima affermazione fatta. Teorema di Laplace
Sia[math]A[/math]
una matrice quadrata di ordine [math]n[/math]
tale che [math]|A| \neq 0[/math]
. Allora [math]A[/math]
è invertibile, e la sua inversa è la trasposta della matrice [math]A'[/math]
dei complementi algebrici di [math]A[/math]
, divisa per [math]|A|[/math]
. In formule, \[ A^{-1} = \frac{A'_T}{|A|} = \begin{pmatrix} \displaystyle\frac{A_{11}}{|A|} & \displaystyle\frac{A_{21}}{|A|} & \cdots & \displaystyle\frac{A_{n1}}{|A|} \\ \displaystyle\frac{A_{12}}{|A|} & \displaystyle\frac{A_{22}}{|A|} & \cdots & \displaystyle\frac{A_{n2}}{|A|} \\ \vdots & \vdots & \ddots & \vdots \\ \displaystyle\frac{A_{1n}}{|A|} & \displaystyle\frac{A_{2n}}{|A|} & \cdots & \displaystyle\frac{A_{nn}}{|A|} \end{pmatrix} \] Dimostrazione. Dall’osservazione 1 sappiamo già che, se l’inversa della matrice [math]A[/math]
esiste, allora essa è unica. Ciò significa che ci basta dimostrare che la matrice [math]A^{-1}[/math]
su scritta gode delle proprietà di cui alla definizione 1, ovvero che [math]A \cdot A^{-1} = I[/math]
, poiché l’altra proprietà si prova in maniera molto simile. Effettuiamo dunque il prodotto matriciale \[ B = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \cdots & a_{nn} \end{pmatrix} \cdot \begin{pmatrix} \displaystyle\frac{A_{11}}{|A|} & \displaystyle\frac{A_{21}}{|A|} & \cdots & \displaystyle\frac{A_{n1}}{|A|} \\ \displaystyle\frac{A_{12}}{|A|} & \displaystyle\frac{A_{22}}{|A|} & \cdots & \displaystyle\frac{A_{n2}}{|A|} \\ \vdots & \vdots & \ddots & \vdots \\ \displaystyle\frac{A_{1n}}{|A|} & \displaystyle\frac{A_{2n}}{|A|} & \cdots & \displaystyle\frac{A_{nn}}{|A|} \end{pmatrix} \] Il generico elemento della matrice [math]B[/math]
di posto [math](j,k)[/math]
, ovvero [math]b_{jk}[/math]
, si potrà scrivere come \[ b_{jk} = \displaystyle\sum_{i=1}^{n} a_{ji} \frac{A_{ki}}{|A|} = \frac{1}{|A|} \sum_{i=1}^{n} a_{ji} A_{ki} \] Si distinguono adesso due casi. Se [math]j = k[/math]
, ovvero se l’elemento [math]b_{jk}[/math]
si trova sulla diagonale principale della matrice [math]B[/math]
, allora scriveremo \[ b_{jj} = \frac{1}{|A|} \sum_{i=1}^{n} a_{ji} A_{ji} = \frac{1}{|A|} |A| = 1 \] in quanto la somma data è, per definizione, il determinante della matrice [math]A[/math]
sviluppato rispetto alla [math]j[/math]
-esima riga. Qualora invece dovesse risultare [math]j \neq k[/math]
, la somma scritta appare essere lo sviluppo di un determinante, ma i complementi algebrici associati agli elementi della riga [math]j[/math]
-esima sono quelli relativi alla riga [math]k[/math]
-esima. Si tratta cioè, a tutti gli effetti, del determinante della matrice che si ottiene da [math]A[/math]
sostituendo alla riga [math]k[/math]
-esima una copia della [math]j[/math]
-esima. Tale matrice ha però due righe uguali, il che significa che il suo determinante è nullo. Riassumendo, \[ b_{jk} = \begin{cases} 1, & \text{se } j = k \\ 0, & \text{se } j \neq k \end{cases} \] ovvero gli elementi della diagonale principale di [math]B[/math]
sono 1, e tutti gli altri 0: questo significa che [math]B[/math]
è la matrice identica, col che il teorema è dimostrato. Osservazione 3. È subito chiara la motivazione per cui deve risultare [math]|A| \neq 0[/math]
. Se così non fosse, infatti, la divisione per il determinante di [math]A[/math]
necessaria alla definizione della matrice inversa sarebbe impossibile da eseguire. Esempi
Esempio 1. Calcolare l’inversa della matrice \[ A = \begin{pmatrix} 0 & -1 & 2 \\ 1 & 0 & -1 \\ 0 & 1 & 0 \end{pmatrix} \] Per calcolare l’inversa di[math]A[/math]
vogliamo applicare il Teorema di Laplace; per far ciò dobbiamo prima accertarci che sia [math]|A| \neq 0[/math]
, altrimenti [math]A[/math]
non sarà invertibile. Utilizzando la regola di Sarrus o sviluppando il determinante rispetto alla terza riga scopriamo subito che [math]|A| = 2[/math]
, e dunque esiste l’inversa di [math]A[/math]
. Calcoliamo adesso i complementi algebrici di tutti i suoi elementi: \[ \begin{array}{cc} A_{11} = \begin{vmatrix} 0 & -1 \\ 1 & 0 \end{vmatrix} = 1, & A_{12} = -\begin{vmatrix} 1 & -1 \\ 0 & 0 \end{vmatrix} = 0 \ldots \end{array} \] Terminata questa operazione, scriviamo la matrice dei complementi algebrici, troviamone la trasposta e dividiamo quanto ottenuto per il determinante di [math]A[/math]
: \[ \begin{array}{ccc} A' = \begin{pmatrix} 1 & 0 & 1 \\ 2 & 0 & 0 \\ 1 & 2 & 1 \end{pmatrix} \Rightarrow & A'_T = \begin{pmatrix} 1 & 2 & 1 \\ 0 & 0 & 2 \\ 1 & 0 & 1 \end{pmatrix} \Rightarrow & A^{-1} = \begin{pmatrix} \displaystyle\frac{1}{2} & 1 & \displaystyle\frac{1}{2} \\ 0 & 0 & 1 \\ \displaystyle\frac{1}{2} & 0 & \displaystyle\frac{1}{2} \end{pmatrix} & \end{array} \] Così abbiamo trovato l’inversa. Verifichiamo quanto calcolato: \[ \begin{array}{c} A \cdot A^{-1} = \begin{pmatrix} 0 & -1 & 2 \\ 1 & 0 & -1 \\ 0 & 1 & 0 \end{pmatrix} \cdot \begin{pmatrix} \displaystyle\frac{1}{2} & 1 & \displaystyle\frac{1}{2} \\ 0 & 0 & 1 \\ \displaystyle\frac{1}{2} & 0 & \displaystyle\frac{1}{2} \end{pmatrix} = \\ = \begin{pmatrix} 1 & 0 & -1+1 \\ \displaystyle\frac{1}{2}-\displaystyle\frac{1}{2} & 1 & \displaystyle\frac{1}{2}-\displaystyle\frac{1}{2} \\ 0 & 0 & 1 \end{pmatrix} = I \end{array} \]