# Criando um vetor
x = c(1,2,3)
x[1] 1 2 3
Econometria I
Vitor Hugo Miro
A álgebra linear é uma ferramenta essencial para entender, modelar e resolver problemas em econometria.
O presente material não pretende cobrir todos os tópicos de forma integral, mas espera ser válido para a revisão dos principais conceitos aplicados em econometria.
Um vetor em \(\mathbb{R}^n\) é definido da seguinte forma:
\[ \mathbf{x} = \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix} \]
EXEMPLO
Vamos criar o vetor
\[ \mathbf{x}= \begin{bmatrix} 1\\ 2\\ 3 \end{bmatrix} \]
Por sua vez, uma matriz \(n \times m\) é escrita da seguinte forma:
\[ \mathbf{A}= \begin{bmatrix} a_{11} & a_{12} & \ldots & a_{1m}\\ a_{21} & a_{22} & \ldots & a_{2m}\\ \vdots & \vdots & \ddots & \vdots\\ a_{n1} & a_{n2} & \ldots & a_{nm} \end{bmatrix} \]
No caso em que \(n = m\), temos uma matriz denominada como matriz quadrada.
EXEMPLO
Vamos criar a matriz
\[ \mathbf{A}= \begin{bmatrix} 2 & 3 & 5 \\ 6 & 1 & 3 \end{bmatrix} \]
No R a criação de matrizes pode ser realziada com a função:
matrix(value, nrow, ncol, byrow, dimnames)
Os parâmetros são:
value: especifica a entrada do vetor, ou seja, cada entrada especifica os elementos em uma matriz.nrow: especifica o tamanho da linha na matriz.ncol: especifica o tamanho da coluna na matriz.byrow: tem como entrada um valor booleano (TRUE ou FALSE). Se TRUE, os elementos da matriz são organizados na linha, enquanto FALSE organizará o elemento por coluna.dimnames: especifica o nome dado a cada elemento de linhas e colunas de uma matriz. [,1] [,2] [,3]
[1,] 2 3 5
[2,] 6 1 3
Vejamos outro exemplo:
As operações algébricas básicas com matrizes são operações de soma e multiplicação.
\[ \mathbf{A} = \left[\begin{array}{cc} a_{11} & a_{12}\\ a_{21} & a_{22} \end{array}\right],~ \mathbf{B} = \left[\begin{array}{cc} b_{11} & b_{12}\\ b_{21} & b_{22} \end{array}\right],~ \mathbf{A}+\mathbf{B} = \left[\begin{array}{cc} a_{11}+b_{11} & a_{12}+b_{12}\\ a_{21}+b_{21} & a_{22}+b_{22} \end{array}\right] \]
EXEMPLO
Para as matrizes
\[ \mathbf{A}=\begin{bmatrix} 4 & 9\\ 2 & 1 \end{bmatrix}, \quad \mathbf{B}=\begin{bmatrix} 2 & 0\\ 0 & 7 \end{bmatrix} \]
No caso de uma adição, temos:
\[ \mathbf{A+B} = \begin{bmatrix} 4 & 9\\ 2 & 1 \end{bmatrix} + \begin{bmatrix} 2 & 0\\ 0 & 7 \end{bmatrix} = \begin{bmatrix} 4+2 & 9+0\\ 2+0 & 1+7 \end{bmatrix} = \begin{bmatrix} 6 & 9\\ 2 & 8 \end{bmatrix} \] No caso de uma diferença:
\[ \mathbf{A-B} = \begin{bmatrix} 4 & 9\\ 2 & 1 \end{bmatrix} - \begin{bmatrix} 2 & 0\\ 0 & 7 \end{bmatrix} = \begin{bmatrix} 4-2 & 9-0\\ 2-0 & 1-7 \end{bmatrix} = \begin{bmatrix} 2 & 9\\ 2 & -6 \end{bmatrix} \]
# Definição das matrizes
A = matrix(c(4,9,2,1),2,2,byrow=TRUE)
B = matrix(c(2,0,0,7),2,2,byrow=TRUE)
# Soma
soma = A+B
soma [,1] [,2]
[1,] 6 9
[2,] 2 8
[,1] [,2]
[1,] 2 9
[2,] 2 -6
Propriedades da soma de matrizes
Associação: \((A+B)+C = A + (B+C)\)
Comutação: \((A+B) = (B+A)\)
Elemento neutro: \(A + 0 = A\)
Seja uma matriz \(\mathbf{A}\)
\[ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{bmatrix} \]
Dado um escalar \(k\), a multiplicação de \(A\) por este escalar é definida como:
\[ k \cdot \mathbf{A} = \begin{bmatrix} k \cdot a_{11} & k \cdot a_{12}\\ k \cdot a_{21} & k \cdot a_{22} \end{bmatrix} \]
EXEMPLO
\[ \mathbf{A}=\begin{bmatrix} 3 & -1\\ 0 & 5 \end{bmatrix} \]
com $k = 2 $, temos:
\[ 2 \cdot \begin{bmatrix} 3 & -1\\ 0 & 5 \end{bmatrix} = \begin{bmatrix} 2\cdot 3 & 2\cdot (-1)\\ 2\cdot 0 & 2\cdot5 \end{bmatrix} = \begin{bmatrix} 6 & -2\\ 0 & 10 \end{bmatrix} \]
A transposição de uma matriz \(m \times n\) é indicada por \(\mathbf{A}'\) e possui dimensão \(n \times m\).
EXEMPLO
# Definindo a matriz A 3x3
A <- matrix(c(4, 5,
3, 1,
5, 0), nrow = 3, byrow = TRUE)
# Imprimindo a matriz A
cat("Matriz A:\n")Matriz A:
[,1] [,2]
[1,] 4 5
[2,] 3 1
[3,] 5 0
A transposta é obtida com o operador t().
# Calculando a transposta de A
A_trans <- t(A)
# Imprimindo a transposta de A
cat("\nTransposta de A:\n")
Transposta de A:
[,1] [,2] [,3]
[1,] 4 3 5
[2,] 5 1 0
Também é importante nos acostumarmos com a transposição de vetores.
Dado um vetor coluna \[ \mathbf{b}= \begin{bmatrix} b_1 \\ b_2 \\ b_3 \end{bmatrix}\] Sua versão trasposta é dada por um vetor linha
\[ \mathbf{b}'= \begin{bmatrix} b_1 & b_2 & b_3 \end{bmatrix}\]
Sejam as matrizes
\[ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{bmatrix}_{2 \times 3} ; \quad \mathbf{D} = \begin{bmatrix} d_{11} & d_{12} \\ d_{21} & d_{22} \\ d_{31} & d_{32} \end{bmatrix}_{3 \times 2} \]
\(\mathbf{A}\) é uma matriz \(2 \times 3\) e \(\mathbf{D}\) é uma matriz \(3 \times 2\), então as dimensões internas coincidem e temos:
\[ \mathbf{C} = \mathbf{A} \times \mathbf{D} = \begin{bmatrix} a_{11}d_{11} + a_{12}d_{21} + a_{13}d_{31} & a_{11}d_{12} + a_{12}d_{22} + a_{13}d_{32} \\ a_{21}d_{11} + a_{22}d_{21} + a_{23}d_{31} & a_{21}d_{12} + a_{22}d_{22} + a_{23}d_{32} \end{bmatrix} \]
EXEMPLO
Considere as duas matrizes a seguir:
\[ \mathbf{A}=\left[\begin{array}{cc} 1 & 2\\ 3 & 4 \end{array}\right]\textrm{ e } \mathbf{B}=\left[\begin{array}{ccc} 1 & 2 & 1\\ 3 & 4 & 2 \end{array}\right]. \]
Por sua vez, o produto de duas matrizes é dado por:
\[ \begin{align*} \mathbf{C} = \mathbf{A}\cdot\mathbf{B} & =\left[\begin{array}{cc} 1 & 2\\ 3 & 4 \end{array}\right]\cdot\left[\begin{array}{ccc} 1 & 2 & 1\\ 3 & 4 & 2 \end{array}\right]\\ & =\left[\begin{array}{ccc} 1\cdot1+2\cdot3 & 1\cdot2+2\cdot4 & 1\cdot1+2\cdot2\\ 3\cdot1+4\cdot3 & 3\cdot2+4\cdot4 & 3\cdot1+4\cdot2 \end{array}\right]\\ & =\left[\begin{array}{ccc} 7 & 10 & 5\\ 15 & 22 & 11 \end{array}\right] \end{align*} \]
Cuidado com o operador ∗ quando trabalhando com vetores e matrizes no R; a multiplicação de matrizes é feita usando o operador %*%.
A =
[,1] [,2]
[1,] 1 2
[2,] 3 4
B =
[,1] [,2] [,3]
[1,] 1 2 1
[2,] 3 4 2
O produto de \(\mathbf{A}\) e \(\mathbf{B}\) é dado por:
Propriedades da multiplicação
Associação: \((AB)C = A(BC)\)
Distribuição: \(A(B + C) = AB + AC\) e \((A+B)C = AC + BC\)
Elemento Neutro: se \(A\) é uma matriz quadrada \(AI = A\)
O produto interno de dois vetores \(\mathbf{u}\) e \(\mathbf{v}\) em \(\mathbb{R}^n\) é definido como:
\[ \mathbf{u} \cdot \mathbf{v} = u_1 v_1 + u_2 v_2 + \ldots + u_n v_n = \sum_{i=1}^n u_i v_i \]
Alternativamente, o produto interno \(\mathbf{u} \cdot \mathbf{v}\) é dado pela multiplicação \(\mathbf{u}' \mathbf{v}\).
\[ \mathbf{u}' \mathbf{v} = \begin{bmatrix} u_1 & u_2 & \cdots & u_n \end{bmatrix} \begin{bmatrix} v_1 \\ v_2 \\ \vdots \\ v_n \end{bmatrix} = u_1 v_1 + u_2 v_2 + \cdots + u_n v_n \]
EXEMPLO
Sejam os vetores
\[ \mathbf{u} = \begin{bmatrix} 3 \\ -1 \\ 4 \end{bmatrix}, \quad \mathbf{v} = \begin{bmatrix} 2 \\ 5 \\ -1 \end{bmatrix} \]
O produto interno \(\mathbf{u} \cdot \mathbf{v}\) é calculado como:
\[ \mathbf{u} \cdot \mathbf{v} = (3 \cdot 2) + (-1 \cdot 5) + (4 \cdot -1) = 6 - 5 - 4 = -3 \]
Ou, em notação somatória:
\[ \mathbf{u} \cdot \mathbf{v} = \sum_{i=1}^3 u_i v_i = u_1 v_1 + u_2 v_2 + u_3 v_3 = 6 - 5 - 4 = -3 \]
vetor u:
[1] 3 -1 4
vetor v:
[1] 2 5 -1
Produto interno de u e v:
[1] -3
Uma aplicação importante do produto interno é a soma de quadrados, que pode ser definida como o produto interno de um vetor por ele mesmo:
\[ \mathbf{x} \cdot \mathbf{x} = x_1 x_1 + x_2 x_2 + \cdots + x_n x_n = \sum_{i=1}^n x_i^2 \]
EXEMPLO
No R podemos calcular um produto interno com o operador %*%.
vetor x:
[1] 2 -1 3
Produto interno de x por x:
[,1]
[1,] 14
Se \(\mathbf{u} \cdot \mathbf{v} = 0\), então \(\mathbf{u}\) e \(\mathbf{v}\) são ortogonais.
Uma matriz quadrada com elementos diferentes de zero na diagonal principal e zero nas demais posições é denominada matriz diagonal.
\[ \mathbf{A}_{2 \times 2} = \begin{bmatrix} 2 & 0 \\ 0 & 3 \end{bmatrix} \quad \text{e} \quad \mathbf{B}_{3 \times 3} = \begin{bmatrix} -2 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & 1 \end{bmatrix} \]
Uma matriz diagnonal cujos elementos diagonais são todos iguais é denominada matriz escalar.
\[ \mathbf{S} = \begin{bmatrix} \sigma & 0 & 0 & 0 & 0 \\ 0 & \sigma & 0 & 0 & 0 \\ 0 & 0 & \sigma & 0 & 0 \\ 0 & 0 & 0 & \sigma & 0 \\ 0 & 0 & 0 & 0 & \sigma \end{bmatrix} \]
Uma matriz diagonal e escalar cujos elementos diagonais são todos iguais a 1 é chamada matriz identidade, e denotada por \(\mathbf{I}_n\).
\[ \mathbf{I}_3 = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} \quad \text{e} \quad \mathbf{I}_4 = \begin{bmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{bmatrix} \]
Usando o R, a matriz identidade pode ser gerada com o comando diag().
Definida uma matriz
\[ \mathbf{A}= \begin{bmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{bmatrix} \]
Pré multiplicando \(\mathbf{A}\) pela matriz identidade \(\mathbf{I}\):
\[ \begin{align*} \mathbf{I} \cdot \mathbf{A} &= \mathbf{A} \\ &= \begin{bmatrix} 1 & 0\\ 0 & 1 \end{bmatrix} \cdot \begin{bmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{bmatrix} \\ & = \begin{bmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{bmatrix} \end{align*} \]
Uma matriz quadrada, \(\mathbf{P}\), é simétrica se for igual à sua transposta, ou seja:
\[ \mathbf{P} = \mathbf{P}' \]
Isso significa que os elementos da matriz são simétricos em relação à diagonal principal, ou seja, \(p_{ij} = p_{ji}\) para todos os \(i\) e \(j\).
EXEMPLO
Considere a matriz \(\mathbf{P}\) de ordem \(3 \times 3\):
\[ \mathbf{P} = \begin{bmatrix} 4 & 1 & 3 \\ 1 & 5 & 2 \\ 3 & 2 & 6 \end{bmatrix} \]
Essa matriz é simétrica porque \(\mathbf{P} = \mathbf{P}'\), ou seja:
\[ \mathbf{P}' = \begin{bmatrix} 4 & 1 & 3 \\ 1 & 5 & 2 \\ 3 & 2 & 6 \end{bmatrix} = \mathbf{P} \]
Dada a matriz \(\mathbf{A}\) de dimensão \(m \times n\), se todas as colunas e linhas de \(\mathbf{A}\) forem eliminadas, com exceção das \(r\) linhas e \(s\) colunas, a matriz resultante da ordem \(r \times s\) será denominada submatriz de \(\mathbf{A}\). Sendo assim, se
\[ \mathbf{A}_{3 \times 3} = \begin{bmatrix} 3 & 5 & 7 \\ 8 & 2 & 1 \\ 3 & 2 & 1 \end{bmatrix} \]
e se eliminarmos a terceira linha e a terceira coluna de \(\mathbf{A}\), obteremos
\[ \mathbf{B}_{2 \times 2} = \begin{bmatrix} 3 & 5 \\ 8 & 2 \end{bmatrix} \]
que corresponde a uma submatriz de \(\mathbf{A}\) cuja ordem é \(2 \times 2\).
O determinante de uma matriz quadrada \(\mathbf{A}\) de ordem \(n \times n\) é um número escalar que fornece informações importantes sobre as propriedades da matriz.
O determinante está relacionado diretamente à invertibilidade da matriz, ao volume de transformações lineares e à natureza das soluções de sistemas de equações lineares.
Para uma matriz \(2 \times 2\):
\[ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} \]
o determinante é calculado como:
\[ \det(\mathbf{A}) = a_{11}a_{22} - a_{12}a_{21} \]
Para uma matriz \(3 \times 3\):
\[ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{bmatrix} \]
o determinante é calculado usando a regra de Sarrus ou o co-fator:
\[ \det(\mathbf{A}) = a_{11}a_{22}a_{33} - a_{11}a_{23}a_{32} + a_{12}a_{23}a_{31} - a_{12}a_{21}a_{33} + a_{13}a_{21}a_{32} - a_{13}a_{22}a_{31} \]
Propriedades importantes do determinante
Invertibilidade: Uma matriz \(\mathbf{A}\) é inversível se, e somente se, \(\det(\mathbf{A}) \neq 0\). Caso contrário, a matriz é singular (não possui inversa).
Transformação do Volume: O valor absoluto do determinante de \(\mathbf{A}\) pode ser interpretado como o fator de escala do volume de um objeto geométrico ao ser transformado pela matriz \(\mathbf{A}\).
Multiplicação de Matrizes: O determinante do produto de duas matrizes é o produto dos determinantes: \(\det(\mathbf{A} \mathbf{B}) = \det(\mathbf{A}) \cdot \det(\mathbf{B})\).
Troca de Linhas: Se duas linhas (ou colunas) de uma matriz forem trocadas, o sinal do determinante será invertido.
Linha (ou Coluna) Zero: Se uma linha (ou coluna) de \(\mathbf{A}\) é composta inteiramente por zeros, então \(\det(\mathbf{A}) = 0\).
EXEMPLO
Usando o R, o determinante de uma matriz é calculado com a função det().
# Definindo uma matriz 3x3
A = matrix(c(2, 4, 3, 1, -1, 0, 3, 5, 2), nrow = 3, byrow = TRUE)
cat("Matriz A:\n")Matriz A:
[,1] [,2] [,3]
[1,] 2 4 3
[2,] 1 -1 0
[3,] 3 5 2
Determinante de A:
[1] 12
Em econometria, o determinante tem aplicações diretas na resolução de sistemas de equações lineares, na análise de matrizes de variância-covariância e na estabilidade de estimadores.
Se a \(i\)-ésima linha e a \(j\)-ésima coluna de uma matriz \(\mathbf{A}\) com dimensão \(n \times n\) são excluídas, o determinante da submatriz resultante é chamado de o menor do elemento \(a_{ij}\) (o elemento na interseção da \(i\)-ésima linha e \(j\)-ésima coluna) e é denotado por \(|M_{ij}|\).
\[ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{bmatrix} \]
O menor de \(a_{11}\) é
\[ |M_{11}| = \begin{vmatrix} a_{22} & a_{23} \\ a_{32} & a_{33} \end{vmatrix} = a_{22}a_{33} - a_{23}a_{32} \]
De forma semelhante, o menor de \(a_{21}\) é
\[ |M_{21}| = \begin{vmatrix} a_{12} & a_{13} \\ a_{32} & a_{33} \end{vmatrix} = a_{12}a_{33} - a_{13}a_{32} \]
Os menores de outros elementos de \(\mathbf{A}\) podem ser encontrados de maneira semelhante.
O cofator do elemento \(a_{ij}\) de uma matriz \(\mathbf{A}\) de origem \(n \times n\), denotado por \(c_{ij}\), é definido como:
\[ c_{ij} = (-1)^{i+j} |M_{ij}| \]
Em outras palavras, um cofator é um menor “sinalizado”: com sinal positivo se \(i + j\) for par e negativo se \(i + j\) for ímpar.
o cofator do elemento \(a_{11}\) da matriz \(\mathbf{A}_{3 \times 3}\) anteriormente dada é \(a_{22}a_{33} - a_{23}a_{32}\),
o cofator do elemento \(a_{21}\) é \(-(a_{12}a_{33} - a_{13}a_{32})\), uma vez que a soma dos subscritos \(2\) e \(1\) é \(3\), que é um número ímpar.
Matriz de Cofator
Substituindo os elementos \(a_{ij}\) de uma matriz \(\mathbf{A}\) pelos seus cofatores, obtemos uma matriz conhecida como matriz de cofator de \(\mathbf{A}\), denotada por \(\text{cof}(\mathbf{A})\).
Matriz Adjunta
A matriz adjunta, escrita como \(\text{adj}(\mathbf{A})\), é a transposta da matriz de cofator: \(\text{adj}(\mathbf{A}) = (\text{cof}(\mathbf{A}))'\).
O posto de uma matriz \(\mathbf{A}\) é o número máximo de linhas ou colunas linearmente independentes de \(\mathbf{A}\).
Um conjunto de vetores é linearmente independente se nenhum deles pode ser escrito como uma combinação linear de um número finito de outros vetores do conjunto.
Outra forma de definir isso é que o posto de uma matriz é a ordem da maior submatriz quadrada cujo determinante não é zero.
O posto máximo de uma matriz \(m \times n\) é \(\min(m, n)\).
Uma matriz de posto completo é aquela que possui o maior posto possível, ou seja, o posto é igual ao número de linhas ou colunas (o que for menor).
No caso de uma matriz quadrada \(\mathbf{A}_{n \times n}\), ela é invertível se, e somente se, \(\mathbf{A}\) tiver posto \(n\) (isto é, \(\mathbf{A}\) tem posto completo).
EXEMPLO
# Definindo a matriz B 3x3 que não é de posto pleno
B <- matrix(c(1, 2, 3,
2, 4, 6,
3, 6, 9), nrow = 3, byrow = TRUE)
# Imprimindo a matriz B
cat("Matriz B:\n")Matriz B:
[,1] [,2] [,3]
[1,] 1 2 3
[2,] 2 4 6
[3,] 3 6 9
Vamos verificar o determinante de \(\mathbf{B}\)
Determinante de B: 0
Note que, uma vez que \(\det(\mathbf{B}) = 0\), então \(\mathbf{B}\) não é “posto completo”.
O traço de uma matriz \(\mathbf{A}_{n \times n}\) é a soma dos elementos na diagonal principal:
\[ \text{tr}(\mathbf{A}) = a_{11} + a_{22} + \dots + a_{nn} = \sum_{i=1}^{n} a_{ii}. \]
EXEMPLO
# Definindo a matriz C 3x3
C <- matrix(c(4, 1, 3,
2, 5, 7,
0, 6, 8), nrow = 3, byrow = TRUE)
# Imprimindo a matriz C
cat("Matriz C:\n")Matriz C:
[,1] [,2] [,3]
[1,] 4 1 3
[2,] 2 5 7
[3,] 0 6 8
No R podemos calcular o traço de uma matriz somando os elementos da sua diagonal principal.
A inversão de uma matriz é uma operação que, para uma matriz quadrada \(\mathbf{A}\), busca encontrar outra matriz \(\mathbf{A}^{-1}\) tal que:
\[ \mathbf{A} \cdot \mathbf{A}^{-1} = \mathbf{I} \]
onde \(\mathbf{I}\) é a matriz identidade de mesma ordem que \(\mathbf{A}\).
Somente matrizes quadradas de posto completo (ou seja, \(\det(\mathbf{A}) \neq 0)\) possuem uma inversa.
Propriedades da matriz inversa
Unicidade: A inversa de uma matriz, quando existe, é única.
Produto: A inversa do produto de duas matrizes \(\mathbf{A}\) e \(\mathbf{B}\) é dada por \((\mathbf{A} \cdot \mathbf{B})^{-1} = \mathbf{B}^{-1} \cdot \mathbf{A}^{-1}\).
Transposição: A transposta da inversa de uma matriz é igual à inversa da transposta: \((\mathbf{A}^{-1})^{\prime} = (\mathbf{A}^{\prime})^{-1}\).
Se \(\mathbf{A}\) é quadrada e não singular (\(\det(\mathbf{A}) \neq 0\)), a sua inversa \(\mathbf{A}\^{-1}\) pode ser encontrada da seguinte forma:
\[ \mathbf{A}^{-1} = \frac{1}{\det(\mathbf{A})} (\text{adj} \, \mathbf{A}) \]
Os passos envolvidos neste cálculo são os seguintes:
Descubra o determinante de \(\mathbf{A}\). Se não for zero, execute o passo 2.
Substitua cada elemento \(a_{ij}\) de \(\mathbf{A}\) por seu cofator para obter a matriz de cofator.
Transponha a matriz de cofator para obter a matriz adjunta.
Divida cada elemento da matriz adjunta por \(\det(\mathbf{A})\).
Para uma matriz \(2 \times 2\), dada por:
\[ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} \] Sua inversa é:
\[ \mathbf{A}^{-1} = \frac{1}{\det(\mathbf{A})} \begin{bmatrix} a_{22} & -a_{12} \\ -a_{21} & a_{11} \end{bmatrix} \]
EXEMPLO
Vamos calcular a inversa de uma matriz \(2 \times 2\) usando o R. Aqui a inversa de uma matriz pode ser calculada com a função solve().
Matriz A:
[,1] [,2]
[1,] 4 7
[2,] 2 6
Matriz inversa de A:
[,1] [,2]
[1,] 0.6 -0.7
[2,] -0.2 0.4
Matriz Identidade:
[,1] [,2]
[1,] 1 0
[2,] 0 1
No caso de uma matriz \(3 \times 3\):
# Definindo uma matriz 3x3
B = matrix(c(2, 1, 3,
1, -1, 2,
3, 0, -1), nrow = 3, byrow = TRUE)
cat("Matriz B:\n")Matriz B:
[,1] [,2] [,3]
[1,] 2 1 3
[2,] 1 -1 2
[3,] 3 0 -1
Matriz inversa de B:
[,1] [,2] [,3]
[1,] 0.05555556 0.05555556 0.27777778
[2,] 0.38888889 -0.61111111 -0.05555556
[3,] 0.16666667 0.16666667 -0.16666667
# Verificando a propriedade: B * B_inv = I
I3 = round(B %*% B_inv, digits = 4)
cat("Matriz identidade:\n")Matriz identidade:
[,1] [,2] [,3]
[1,] 1 0 0
[2,] 0 1 0
[3,] 0 0 1