redazione
Genius
9 min. di lettura
Vota

Indice

  1. Teorema di Laplace
  2. Esempi
  3. Definizioni

Definizioni

Definizione 1. Matrice inversa. Sia
[math]A[/math]
una matrice quadrata di ordine
[math]n[/math]
. Si chiama matrice inversa di
[math]A[/math]
e si indica con
[math]A^{-1}[/math]
una matrice quadrata di ordine
[math]n[/math]
, se esiste, tale che \[ \begin{array}{cc} A \cdot A^{-1} = I, & A^{-1} \cdot A = I \end{array} \] dove
[math]I[/math]
è la matrice identica di ordine
[math]n[/math]
. Definizione 2.
Matrice invertibile. Una matrice quadrata
[math]A[/math]
per la quale esista una matrice inversa è detta invertibile, o non singolare. Definizione 3. Matrice singolare. Una matrice quadrata
[math]A[/math]
per la quale non esista una matrice inversa è detta singolare, o non invertibile. Osservazione 1. Se una matrice
[math]A[/math]
è invertibile, allora la sua inversa
[math]A^{-1}[/math]
è unica. Infatti, se esistessero due matrici
[math]B[/math]
e
[math]C[/math]
entrambe inverse di
[math]A[/math]
, potremmo applicare la definizione 1 e l’associatività del prodotto matriciale per provare la seguente uguaglianza \[ C = I \cdot C = (B \cdot A) \cdot C = B \cdot (A \cdot C) = B \cdot I = B \] la quale dimostra che
[math]C = B[/math]
, e che quindi esiste solamente un’inversa per la matrice
[math]A[/math]
. Osservazione 2. Se una matrice
[math]A[/math]
è invertibile, allora il suo determinante è diverso da 0 e il determinante della sua inversa, anch’esso non nullo, è il reciproco del determinante di
[math]A[/math]
. Infatti se
[math]A[/math]
è invertibile, allora vale \[ \begin{array}{ccc} \begin{aligned} &A \cdot A^{-1} = I \Rightarrow \\ &|A \cdot A^{-1}| = |I| = 1 \Rightarrow \\ &|A| \cdot |A^{-1}| = 1 \Rightarrow \\ &|A^{-1}| = \frac{1}{|A|} \end{aligned} \end{array} \] Il terzo passaggio segue dal secondo per il Teorema di Binet, e prova che i determinanti in gioco sono entrambi non nulli. Il quarto passaggio prova poi l’ultima affermazione fatta.

Teorema di Laplace

Sia
[math]A[/math]
una matrice quadrata di ordine
[math]n[/math]
tale che
[math]|A| \neq 0[/math]
. Allora
[math]A[/math]
è invertibile, e la sua inversa è la trasposta della matrice
[math]A'[/math]
dei complementi algebrici di
[math]A[/math]
, divisa per
[math]|A|[/math]
. In formule, \[ A^{-1} = \frac{A'_T}{|A|} = \begin{pmatrix} \displaystyle\frac{A_{11}}{|A|} & \displaystyle\frac{A_{21}}{|A|} & \cdots & \displaystyle\frac{A_{n1}}{|A|} \\ \displaystyle\frac{A_{12}}{|A|} & \displaystyle\frac{A_{22}}{|A|} & \cdots & \displaystyle\frac{A_{n2}}{|A|} \\ \vdots & \vdots & \ddots & \vdots \\ \displaystyle\frac{A_{1n}}{|A|} & \displaystyle\frac{A_{2n}}{|A|} & \cdots & \displaystyle\frac{A_{nn}}{|A|} \end{pmatrix} \] Dimostrazione. Dall’osservazione 1 sappiamo già che, se l’inversa della matrice
[math]A[/math]
esiste, allora essa è unica. Ciò significa che ci basta dimostrare che la matrice
[math]A^{-1}[/math]
su scritta gode delle proprietà di cui alla definizione 1, ovvero che
[math]A \cdot A^{-1} = I[/math]
, poiché l’altra proprietà si prova in maniera molto simile. Effettuiamo dunque il prodotto matriciale \[ B = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \cdots & a_{nn} \end{pmatrix} \cdot \begin{pmatrix} \displaystyle\frac{A_{11}}{|A|} & \displaystyle\frac{A_{21}}{|A|} & \cdots & \displaystyle\frac{A_{n1}}{|A|} \\ \displaystyle\frac{A_{12}}{|A|} & \displaystyle\frac{A_{22}}{|A|} & \cdots & \displaystyle\frac{A_{n2}}{|A|} \\ \vdots & \vdots & \ddots & \vdots \\ \displaystyle\frac{A_{1n}}{|A|} & \displaystyle\frac{A_{2n}}{|A|} & \cdots & \displaystyle\frac{A_{nn}}{|A|} \end{pmatrix} \] Il generico elemento della matrice
[math]B[/math]
di posto
[math](j,k)[/math]
, ovvero
[math]b_{jk}[/math]
, si potrà scrivere come \[ b_{jk} = \displaystyle\sum_{i=1}^{n} a_{ji} \frac{A_{ki}}{|A|} = \frac{1}{|A|} \sum_{i=1}^{n} a_{ji} A_{ki} \] Si distinguono adesso due casi. Se
[math]j = k[/math]
, ovvero se l’elemento
[math]b_{jk}[/math]
si trova sulla diagonale principale della matrice
[math]B[/math]
, allora scriveremo \[ b_{jj} = \frac{1}{|A|} \sum_{i=1}^{n} a_{ji} A_{ji} = \frac{1}{|A|} |A| = 1 \] in quanto la somma data è, per definizione, il determinante della matrice
[math]A[/math]
sviluppato rispetto alla
[math]j[/math]
-esima riga. Qualora invece dovesse risultare
[math]j \neq k[/math]
, la somma scritta appare essere lo sviluppo di un determinante, ma i complementi algebrici associati agli elementi della riga
[math]j[/math]
-esima sono quelli relativi alla riga
[math]k[/math]
-esima. Si tratta cioè, a tutti gli effetti, del determinante della matrice che si ottiene da
[math]A[/math]
sostituendo alla riga
[math]k[/math]
-esima una copia della
[math]j[/math]
-esima. Tale matrice ha però due righe uguali, il che significa che il suo determinante è nullo. Riassumendo, \[ b_{jk} = \begin{cases} 1, & \text{se } j = k \\ 0, & \text{se } j \neq k \end{cases} \] ovvero gli elementi della diagonale principale di
[math]B[/math]
sono 1, e tutti gli altri 0: questo significa che
[math]B[/math]
è la matrice identica, col che il teorema è dimostrato. Osservazione 3. È subito chiara la motivazione per cui deve risultare
[math]|A| \neq 0[/math]
. Se così non fosse, infatti, la divisione per il determinante di
[math]A[/math]
necessaria alla definizione della matrice inversa sarebbe impossibile da eseguire.

Esempi

Esempio 1. Calcolare l’inversa della matrice \[ A = \begin{pmatrix} 0 & -1 & 2 \\ 1 & 0 & -1 \\ 0 & 1 & 0 \end{pmatrix} \] Per calcolare l’inversa di
[math]A[/math]
vogliamo applicare il Teorema di Laplace; per far ciò dobbiamo prima accertarci che sia
[math]|A| \neq 0[/math]
, altrimenti
[math]A[/math]
non sarà invertibile. Utilizzando la regola di Sarrus o sviluppando il determinante rispetto alla terza riga scopriamo subito che
[math]|A| = 2[/math]
, e dunque esiste l’inversa di
[math]A[/math]
. Calcoliamo adesso i complementi algebrici di tutti i suoi elementi: \[ \begin{array}{cc} A_{11} = \begin{vmatrix} 0 & -1 \\ 1 & 0 \end{vmatrix} = 1, & A_{12} = -\begin{vmatrix} 1 & -1 \\ 0 & 0 \end{vmatrix} = 0 \ldots \end{array} \] Terminata questa operazione, scriviamo la matrice dei complementi algebrici, troviamone la trasposta e dividiamo quanto ottenuto per il determinante di
[math]A[/math]
: \[ \begin{array}{ccc} A' = \begin{pmatrix} 1 & 0 & 1 \\ 2 & 0 & 0 \\ 1 & 2 & 1 \end{pmatrix} \Rightarrow & A'_T = \begin{pmatrix} 1 & 2 & 1 \\ 0 & 0 & 2 \\ 1 & 0 & 1 \end{pmatrix} \Rightarrow & A^{-1} = \begin{pmatrix} \displaystyle\frac{1}{2} & 1 & \displaystyle\frac{1}{2} \\ 0 & 0 & 1 \\ \displaystyle\frac{1}{2} & 0 & \displaystyle\frac{1}{2} \end{pmatrix} & \end{array} \] Così abbiamo trovato l’inversa. Verifichiamo quanto calcolato: \[ \begin{array}{c} A \cdot A^{-1} = \begin{pmatrix} 0 & -1 & 2 \\ 1 & 0 & -1 \\ 0 & 1 & 0 \end{pmatrix} \cdot \begin{pmatrix} \displaystyle\frac{1}{2} & 1 & \displaystyle\frac{1}{2} \\ 0 & 0 & 1 \\ \displaystyle\frac{1}{2} & 0 & \displaystyle\frac{1}{2} \end{pmatrix} = \\ = \begin{pmatrix} 1 & 0 & -1+1 \\ \displaystyle\frac{1}{2}-\displaystyle\frac{1}{2} & 1 & \displaystyle\frac{1}{2}-\displaystyle\frac{1}{2} \\ 0 & 0 & 1 \end{pmatrix} = I \end{array} \]

Domande e risposte

Hai bisogno di aiuto?
Chiedi alla community