Unha interpretación espacial dunha matriz 3x3 é a de 3 planos secantes só na orixe. As coordenadas da matriz serían os coeficientes dos tres vectores normais ao plano nunha base dada.
En matemáticas , en particular en álxebra linear , unha matriz cadrada de orde n dise que é invertíbel , non singular , non dexenerada ou regular se existe outra matriz cadrada de orde n , chamada matriz inversa de A e denotada por
A
−
1
{\displaystyle A^{-1}}
se
A
⋅
A
−
1
=
A
−
1
⋅
A
=
I
n
{\displaystyle A\cdot A^{-1}=A^{-1}\cdot A=I_{n}}
, onde
I
n
{\displaystyle I_{n}}
é a matriz identidade de orde n e o produto utilizado é o produto de matrices usual.
Unha matriz cadrada non invertíbel dise que é singular ou dexenerada . Unha matriz é singular se e só se o seu determinante é nulo. A matriz singular
A
{\displaystyle A}
caracterízase porque a súa multiplicación pola matriz columna
X
{\displaystyle X}
é igual a cero para algún
X
{\displaystyle X}
non nulo. O conxunto destes vectores (e ao subespazo vectorial formado por eles) chamarase
k
e
r
A
{\displaystyle kerA}
(de kernel , núcleo en inglés), para unha matriz invertíbel
k
e
r
A
{\displaystyle kerA}
é o vector nulo.
A inversión de matrices é o proceso de atopar a matriz inversa dunha matriz dada.
Dada unha matriz de tamaño 2 x 2 con determinante non nulo, temos
A
−
1
=
[
a
b
c
d
]
−
1
=
1
det
(
A
)
[
d
−
b
−
c
a
]
=
1
a
d
−
b
c
[
d
−
b
−
c
a
]
{\displaystyle A^{-1}={\begin{bmatrix}a&b\\c&d\end{bmatrix}}^{-1}={\frac {1}{\det(A)}}{\begin{bmatrix}\,\,\,d&\!\!-b\\-c&\,a\\\end{bmatrix}}={\frac {1}{ad-bc}}{\begin{bmatrix}\,\,\,d&\!\!-b\\-c&\,a\\\end{bmatrix}}}
e esta está definida a condición de que
a
d
−
b
c
≠
0
{\displaystyle ad-bc\neq 0}
con
a
,
b
,
c
,
d
∈
R
{\displaystyle a,b,c,d\in \mathbb {R} }
. Así por exemplo a inversa da matriz
[
2
1
5
3
]
↦
[
2
1
5
3
]
−
1
=
[
3
−
1
−
5
2
]
,
{\displaystyle {\begin{bmatrix}2&1\\5&3\end{bmatrix}}\mapsto {\begin{bmatrix}2&1\\5&3\end{bmatrix}}^{-1}={\begin{bmatrix}3&-1\\-5&2\end{bmatrix}},}
xa que
[
2
1
5
3
]
[
3
−
1
−
5
2
]
=
[
1
0
0
1
]
{\displaystyle {\begin{bmatrix}2&1\\5&3\end{bmatrix}}{\begin{bmatrix}3&-1\\-5&2\end{bmatrix}}={\begin{bmatrix}1&0\\0&1\end{bmatrix}}}
Dada unha matriz
A
{\displaystyle A}
de tamaño
3
×
3
{\displaystyle 3\times 3}
con determinante non nulo:
A
−
1
=
[
a
b
c
d
e
f
g
h
i
]
−
1
=
1
det
(
A
)
[
A
B
C
D
E
F
G
H
I
]
T
=
1
det
(
A
)
[
A
D
G
B
E
H
C
F
I
]
{\displaystyle A^{-1}={\begin{bmatrix}a&b&c\\d&e&f\\g&h&i\\\end{bmatrix}}^{-1}={\frac {1}{\det(A)}}{\begin{bmatrix}\,A&\,B&\,C\\\,D&\,E&\,F\\\,G&\,H&\,I\\\end{bmatrix}}^{T}={\frac {1}{\det(A)}}{\begin{bmatrix}\,A&\,D&\,G\\\,B&\,E&\,H\\\,C&\,F&\,I\\\end{bmatrix}}}
onde se definen
A
=
(
e
i
−
f
h
)
D
=
−
(
b
i
−
c
h
)
G
=
(
b
f
−
c
e
)
B
=
−
(
d
i
−
f
g
)
E
=
(
a
i
−
c
g
)
H
=
−
(
a
f
−
c
d
)
C
=
(
d
h
−
e
g
)
F
=
−
(
a
h
−
b
g
)
I
=
(
a
e
−
b
d
)
{\displaystyle {\begin{matrix}A=(ei-fh)&D=-(bi-ch)&G=(bf-ce)\\B=-(di-fg)&E=(ai-cg)&H=-(af-cd)\\C=(dh-eg)&F=-(ah-bg)&I=(ae-bd)\\\end{matrix}}}
Coa notación de cofactores teríamos
C
=
[
A
=
C
11
B
=
C
12
C
=
C
13
D
=
C
21
E
=
C
22
F
=
C
23
G
=
C
31
H
=
C
32
I
=
C
33
]
{\displaystyle \mathbf {C} ={\begin{bmatrix}A=C_{11}&B=C_{12}&C=C_{13}\\D=C_{21}&E=C_{22}&F=C_{23}\\G=C_{31}&H=C_{32}&I=C_{33}\end{bmatrix}}}
A
−
1
=
1
det
(
A
)
C
T
.
{\displaystyle \mathbf {A} ^{-1}={\frac {1}{\operatorname {det} (\mathbf {A} )}}\mathbf {C} ^{\mathsf {T}}.}
Se temos
A
=
[
3
0
2
2
0
−
2
0
1
1
]
.
{\displaystyle A={\begin{bmatrix}3&0&2\\2&0&-2\\0&1&1\\\end{bmatrix}}.}
det
(
A
)
=
3
⋅
2
−
2
⋅
(
−
2
)
−
0
⋅
0
=
10.
{\displaystyle \det(A)=3\cdot 2-2\cdot (-2)-0\cdot 0=10.}
C
=
[
2
−
2
2
2
3
−
3
0
10
0
]
{\displaystyle C={\begin{bmatrix}2&-2&2\\2&3&-3\\0&10&0\\\end{bmatrix}}}
;
C
T
=
[
2
2
0
−
2
3
10
2
−
3
0
]
.
{\displaystyle \quad C^{T}={\begin{bmatrix}2&2&0\\-2&3&10\\2&-3&0\\\end{bmatrix}}.}
A
−
1
=
[
0.2
0.2
0
−
0.2
0.3
1
0.2
−
0.3
0
]
.
{\displaystyle A^{-1}={\begin{bmatrix}0.2&0.2&0\\-0.2&0.3&1\\0.2&-0.3&0\\\end{bmatrix}}.}
Sexa
A
∈
R
n
×
n
{\displaystyle A\in \mathbb {R} ^{n\times n}}
unha matriz de rango máximo
A matriz inversa de
A
{\displaystyle A}
é única.
Se
B
∈
R
n
×
n
{\displaystyle B\in \mathbb {R} ^{n\times n}}
e
C
∈
R
n
×
n
{\displaystyle C\in \mathbb {R} ^{n\times n}}
daquela a matriz inversa do produto
B
C
{\displaystyle BC}
é
(
B
C
)
−
1
=
C
−
1
B
−
1
{\displaystyle \left(BC\right)^{-1}={C}^{-1}{B}^{-1}}
Se a matriz
A
{\displaystyle A}
é invertíbel, tamén o é a súa transposta, e a inversa da súa transposta é a transposta da súa inversa, é dicir
(
A
T
)
−
1
=
(
A
−
1
)
T
{\displaystyle \left(A^{T}\right)^{-1}=\left(A^{-1}\right)^{T}}
(
(
A
−
1
)
−
1
)
=
A
{\displaystyle \left((A^{-1})^{-1}\right)=A}
Unha matriz con coeficientes nos reais é invertíbel se e só se o determinante de
A
{\displaystyle A}
é distinto de cero. A maiores, a inversa satisfai a igualdade:
A
−
1
=
1
|
A
|
adj
(
A
)
{\displaystyle {A^{-1}}={1 \over {\begin{vmatrix}A\end{vmatrix}}}\operatorname {adj} (A)\ }
onde
|
A
|
{\displaystyle {\begin{vmatrix}A\end{vmatrix}}}
é o determinante de
A
{\displaystyle A}
e
adj
(
A
)
{\displaystyle \operatorname {adj} {(A)}\ }
é a matriz de adxuntos de
A
{\displaystyle A}
, entendida como á matriz de cofactores transposta . (adj do inglés adjugate ).
O conxunto de matrices
n
×
n
{\displaystyle n\times n}
con compoñentes sobre o corpo
K
{\displaystyle \mathbf {K} }
que admiten inversa, co produto de matrices, ten unha estrutura isomorfa ao grupo linear
GL
(
n
,
K
)
{\displaystyle {\text{GL}}(n,\mathbf {K} )}
de orde. Neste grupo a operación de inversa é un automorfismo
(
⋅
)
−
1
:
GL
(
n
,
K
)
→
GL
(
n
,
K
)
{\displaystyle (\cdot )^{-1}:{\text{GL}}(n,\mathbf {K} )\to {\text{GL}}(n,\mathbf {K} )}
.
Supoñamos que
B
{\displaystyle B}
e
C
{\displaystyle C}
son inversas de
A
{\displaystyle A}
A
B
=
B
A
=
I
,
e
A
C
=
C
A
=
I
{\displaystyle AB=BA=I,\quad {\text{e}}\quad AC=CA=I}
Multiplicando ambas as relacións por
C
{\displaystyle C}
(
B
A
)
C
=
I
C
=
C
,
e
(
B
A
)
C
=
B
(
A
C
)
=
B
I
=
B
{\displaystyle (BA)C=IC=C,\quad {\text{e}}\quad (BA)C=B(AC)=BI=B}
De modo que
B
=
C
{\displaystyle B=C}
e próbase que a inversa é única.
Probarase a dupla implicación.
Supoñamos que existe
B
{\displaystyle B}
tal que
A
B
=
B
A
=
I
{\displaystyle AB=BA=I}
. Entón ao aplicar a función determinante obtense
det
(
A
B
)
=
det
(
B
A
)
=
det
(
I
)
.
{\displaystyle \det \left(AB\right)=\det \left(BA\right)=\det \left(I\right).}
Utilizando a propiedade multiplicativa do determinante e sabendo que
det
(
I
)
=
1
{\displaystyle \det(I)=1}
temos
det
(
A
)
det
(
B
)
=
1
,
{\displaystyle \det \left(A\right)\det \left(B\right)=1,}
polo que deducimos que
det
(
A
)
{\displaystyle \det(A)}
é distinto de cero.
Supoña que o determinante de
A
{\displaystyle A}
é diferente de cero. Sexa
a
i
j
{\displaystyle a_{ij}}
o elemento ij da matriz
A
{\displaystyle A}
e sexa
A
i
j
{\displaystyle A_{ij}}
a matriz
A
{\displaystyle A}
sen a liña
i
{\displaystyle i}
e a columna
j
{\displaystyle j}
(comunmente coñecido como
j
{\displaystyle j}
-ésimo menor de A). Entón temos que
det
(
A
)
=
∑
i
=
1
n
(
−
1
)
i
+
j
a
i
j
det
(
A
i
j
)
.
{\displaystyle \det(A)=\sum _{i=1}^{n}(-1)^{i+j}a_{ij}\det(A_{ij}).}
A maiores, se
k
≠
j
{\displaystyle k\neq j}
, entón podemos deducir que
∑
i
=
1
n
(
−
1
)
i
+
j
a
i
k
det
(
A
i
j
)
=
0
,
{\displaystyle \sum _{i=1}^{n}(-1)^{i+j}a_{ik}\det(A_{ij})=0,}
xa que a parte esquerda da relación é o determinante de
A
{\displaystyle A}
coa columna
j
{\displaystyle j}
substituída pola columna
k
{\displaystyle k}
e, de novo debido ás propiedades do determinante, sabemos que unha matriz con dúas filas iguais ten determinante cero.
Das dúas ecuacións anteriores podemos obter
δ
j
k
det
(
A
)
=
∑
i
=
1
n
(
−
1
)
i
+
j
det
(
A
i
j
)
a
i
k
.
{\displaystyle \delta _{jk}\det \left(A\right)=\sum _{i=1}^{n}(-1)^{i+j}\det \left(A_{ij}\right)a_{ik}.}
onde
δ
j
k
{\displaystyle \delta _{jk}}
é o delta de Kronecker .
Polo tanto, sabendo qie
(
I
)
i
j
=
δ
i
j
{\displaystyle (I)_{ij}=\delta _{ij}}
temos que
det
(
A
)
I
=
(
adj
(
A
)
)
A
,
{\displaystyle \det \left(A\right)I=\left({\mbox{adj}}(A)\right)A,}
é dicir, que
A
{\displaystyle A}
ten inversa pola esquerda
(
adj
(
A
)
)
T
det
(
A
)
.
{\displaystyle {\frac {\left({\text{adj}}(A)\right)^{T}}{\det \left(A\right)}}.}
Como
(
adj
(
A
)
)
T
=
adj
(
A
T
)
{\displaystyle \left({\text{adj}}(A)\right)^{T}={\text{adj}}\left(A^{T}\right)}
, así
A
T
{\displaystyle A^{T}}
tamén ten unha inversa pola esquerda que é
(
adj
(
A
T
)
)
T
det
(
A
T
)
=
adj
(
A
)
det
(
A
)
.
{\displaystyle {\frac {\left({\text{adj}}(A^{T})\right)^{T}}{\det \left(A^{T}\right)}}={\frac {{\text{adj}}(A)}{\det \left(A\right)}}.}
Daquela
adj
(
A
)
det
(
A
)
A
T
=
I
,
{\displaystyle {\frac {{\text{adj}}(A)}{\det \left(A\right)}}A^{T}=I,}
logo, aplicando a transposta
A
(
adj
(
A
)
)
T
det
(
A
)
=
I
,
{\displaystyle A{\frac {\left({\text{adj}}(A)\right)^{T}}{\det \left(A\right)}}=I,}
que é o que se quería demostrar.
Pódese facer do seguinte xeito: [ 1]
A
−
1
=
[
a
b
c
d
]
−
1
=
1
det
(
A
)
[
d
−
b
−
c
a
]
=
1
a
d
−
b
c
[
d
−
b
−
c
a
]
{\displaystyle \mathbf {A} ^{-1}={\begin{bmatrix}a&b\\c&d\\\end{bmatrix}}^{-1}={\frac {1}{\det(\mathbf {A} )}}{\begin{bmatrix}\,\,\,d&\!\!-b\\-c&\,a\\\end{bmatrix}}={\frac {1}{ad-bc}}{\begin{bmatrix}\,\,\,d&\!\!-b\\-c&\,a\\\end{bmatrix}}}
Isto é posíbel sempre que
a
d
−
b
c
≠
0
{\displaystyle ad-bc\neq 0}
, é dicir, o determinante da matriz non é cero.
Exemplo numérico:
C
=
[
1
2
3
4
]
,
C
−
1
=
[
1
2
3
4
]
−
1
=
1
−
2
[
4
−
2
−
3
1
]
{\displaystyle C={\begin{bmatrix}1&2\\3&4\end{bmatrix}},\ C^{-1}={\begin{bmatrix}1&2\\3&4\end{bmatrix}}^{-1}={\frac {1}{-2}}{\begin{bmatrix}\,\,\,\,\,4&-2\\-3&\,\,\,\,\,1\end{bmatrix}}}
Para matrices de orde superior pódese utilizar a seguinte fórmula:
A
−
1
=
1
|
A
|
adj
(
A
)
{\displaystyle {A^{-1}}={1 \over {\begin{vmatrix}A\end{vmatrix}}}\ \operatorname {adj} (A)\ }
Onde
|
A
|
{\displaystyle {\begin{vmatrix}A\end{vmatrix}}}
é o determinante de
A
{\displaystyle A}
e
adj
(
A
)
{\displaystyle \ \operatorname {adj} {(A)}\ }
é a matriz adxunta de
A
{\displaystyle A}
.
Cando a matriz ten máis de tres filas, esta fórmula é moi ineficiente e leva a longos cálculos. Existen métodos alternativos para calcular a matriz inversa que son moito máis eficientes.
O método de eliminación de Gauss-Jordan pódese usar para determinar se unha matriz dada é invertíbel e para atopar a súa inversa. Unha alternativa é a descomposición LU , que descompón unha matriz dada como produto de dúas matrices triangulares, unha inferior e outra superior, moito máis fácil de inverter. Usando o método de Gauss-Jordan, a matriz dada colócase á esquerda e a matriz de identidade á dereita. Despois, mediante o uso de pivotes, inténtase formar a matriz identidade da esquerda e a matriz que resulte á dereita será a matriz inversa da dada.
Por exemplo, considere a seguinte matriz:
A
=
(
1
2
3
0
1
4
5
6
0
)
{\displaystyle A={\begin{pmatrix}1&2&3\\0&1&4\\5&6&0\end{pmatrix}}}
Para atopar a matriz inversa
A
−
1
{\displaystyle A^{-1}}
, seguimos estes pasos:
Formar a matriz aumentada
[
A
|
I
]
{\displaystyle [A|I]}
:
[
A
|
I
]
=
(
1
2
3
1
0
0
0
1
4
0
1
0
5
6
0
0
0
1
)
{\displaystyle [A|I]=\left({\begin{array}{ccc|ccc}1&2&3&1&0&0\\0&1&4&0&1&0\\5&6&0&0&0&1\end{array}}\right)}
Aplicar operacións elementais de fila:
Paso 1: Restar 5 veces a primeira fila da terceira fila:
(
1
2
3
1
0
0
0
1
4
0
1
0
0
−
4
−
15
−
5
0
1
)
{\displaystyle \left({\begin{array}{ccc|ccc}1&2&3&1&0&0\\0&1&4&0&1&0\\0&-4&-15&-5&0&1\end{array}}\right)}
Paso 2: Sumar 4 veces a segunda fila á terceira fila:
(
1
2
3
1
0
0
0
1
4
0
1
0
0
0
1
−
5
4
1
)
{\displaystyle \left({\begin{array}{ccc|ccc}1&2&3&1&0&0\\0&1&4&0&1&0\\0&0&1&-5&4&1\end{array}}\right)}
Paso 3: Restar 3 veces a terceira fila da primeira fila e 4 veces a terceira fila da segunda fila:
(
1
2
0
16
−
12
−
3
0
1
0
20
−
15
−
4
0
0
1
−
5
4
1
)
{\displaystyle \left({\begin{array}{ccc|ccc}1&2&0&16&-12&-3\\0&1&0&20&-15&-4\\0&0&1&-5&4&1\end{array}}\right)}
Paso 4: Restar 2 veces a segunda fila da primeira fila:
(
1
0
0
−
24
18
5
0
1
0
20
−
15
−
4
0
0
1
−
5
4
1
)
{\displaystyle \left({\begin{array}{ccc|ccc}1&0&0&-24&18&5\\0&1&0&20&-15&-4\\0&0&1&-5&4&1\end{array}}\right)}
No lado dereito da matriz aumentada temos a matriz inversa da orixinal.
O conxunto de todas as matrices
n
×
n
{\displaystyle n\times n}
que admite inverso é unha representación linear do grupo linear de orde n , denotado como
GL
(
n
)
{\displaystyle {\textrm {GL}}(n)}
. Este grupo ten importantes aplicacións en álxebra e física. A maiores
GL
(
n
)
⊂
M
n
×
n
{\displaystyle {\textrm {GL}}(n)\subset M_{n\times n}}
é un conxunto aberto (coa topoloxía inducida de
R
n
2
{\displaystyle \mathbb {R} ^{n^{2}}}
).