Revisão de Álgebra Linear

Econometria I

Author

Vitor Hugo Miro

Introdução

A álgebra linear é uma ferramenta essencial para entender, modelar e resolver problemas em econometria.

O presente material não pretende cobrir todos os tópicos de forma integral, mas espera ser válido para a revisão dos principais conceitos aplicados em econometria.

1. Elementos básicos: vetores e matrizes

Um vetor em \(\mathbb{R}^n\) é definido da seguinte forma:

\[ \mathbf{x} = \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix} \]

EXEMPLO

Vamos criar o vetor

\[ \mathbf{x}= \begin{bmatrix} 1\\ 2\\ 3 \end{bmatrix} \]

# Criando um vetor
x = c(1,2,3)
x
[1] 1 2 3

Por sua vez, uma matriz \(n \times m\) é escrita da seguinte forma:

\[ \mathbf{A}= \begin{bmatrix} a_{11} & a_{12} & \ldots & a_{1m}\\ a_{21} & a_{22} & \ldots & a_{2m}\\ \vdots & \vdots & \ddots & \vdots\\ a_{n1} & a_{n2} & \ldots & a_{nm} \end{bmatrix} \]

No caso em que \(n = m\), temos uma matriz denominada como matriz quadrada.

EXEMPLO

Vamos criar a matriz

\[ \mathbf{A}= \begin{bmatrix} 2 & 3 & 5 \\ 6 & 1 & 3 \end{bmatrix} \]

No R a criação de matrizes pode ser realziada com a função:

matrix(value, nrow, ncol, byrow, dimnames)

Os parâmetros são:

  • value: especifica a entrada do vetor, ou seja, cada entrada especifica os elementos em uma matriz.
  • nrow: especifica o tamanho da linha na matriz.
  • ncol: especifica o tamanho da coluna na matriz.
  • byrow: tem como entrada um valor booleano (TRUE ou FALSE). Se TRUE, os elementos da matriz são organizados na linha, enquanto FALSE organizará o elemento por coluna.
  • dimnames: especifica o nome dado a cada elemento de linhas e colunas de uma matriz.
A = matrix(data=c(2,3,5,6,1,3),nrow=2,ncol=3,byrow=TRUE)
print(A)
     [,1] [,2] [,3]
[1,]    2    3    5
[2,]    6    1    3

Vejamos outro exemplo:

B <- matrix(c(1, 5, 7, 
              -1, 0, 4, 
              8, 9, 11), 
            nrow=3, 
            byrow = TRUE, 
            dimnames = list(c("r1","r2","r3"), c("c1","c2","c3")))
print(B)
   c1 c2 c3
r1  1  5  7
r2 -1  0  4
r3  8  9 11

2. Operações básicas

As operações algébricas básicas com matrizes são operações de soma e multiplicação.

Soma (e diferença)

\[ \mathbf{A} = \left[\begin{array}{cc} a_{11} & a_{12}\\ a_{21} & a_{22} \end{array}\right],~ \mathbf{B} = \left[\begin{array}{cc} b_{11} & b_{12}\\ b_{21} & b_{22} \end{array}\right],~ \mathbf{A}+\mathbf{B} = \left[\begin{array}{cc} a_{11}+b_{11} & a_{12}+b_{12}\\ a_{21}+b_{21} & a_{22}+b_{22} \end{array}\right] \]

EXEMPLO

Para as matrizes

\[ \mathbf{A}=\begin{bmatrix} 4 & 9\\ 2 & 1 \end{bmatrix}, \quad \mathbf{B}=\begin{bmatrix} 2 & 0\\ 0 & 7 \end{bmatrix} \]

No caso de uma adição, temos:

\[ \mathbf{A+B} = \begin{bmatrix} 4 & 9\\ 2 & 1 \end{bmatrix} + \begin{bmatrix} 2 & 0\\ 0 & 7 \end{bmatrix} = \begin{bmatrix} 4+2 & 9+0\\ 2+0 & 1+7 \end{bmatrix} = \begin{bmatrix} 6 & 9\\ 2 & 8 \end{bmatrix} \] No caso de uma diferença:

\[ \mathbf{A-B} = \begin{bmatrix} 4 & 9\\ 2 & 1 \end{bmatrix} - \begin{bmatrix} 2 & 0\\ 0 & 7 \end{bmatrix} = \begin{bmatrix} 4-2 & 9-0\\ 2-0 & 1-7 \end{bmatrix} = \begin{bmatrix} 2 & 9\\ 2 & -6 \end{bmatrix} \]

# Definição das matrizes
A = matrix(c(4,9,2,1),2,2,byrow=TRUE)
B = matrix(c(2,0,0,7),2,2,byrow=TRUE)

# Soma
soma = A+B
soma
     [,1] [,2]
[1,]    6    9
[2,]    2    8
# Subtração
dif = A-B
dif
     [,1] [,2]
[1,]    2    9
[2,]    2   -6

Propriedades da soma de matrizes

  • Associação: \((A+B)+C = A + (B+C)\)

  • Comutação: \((A+B) = (B+A)\)

  • Elemento neutro: \(A + 0 = A\)

Multiplicação por um escalar

Seja uma matriz \(\mathbf{A}\)

\[ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{bmatrix} \]

Dado um escalar \(k\), a multiplicação de \(A\) por este escalar é definida como:

\[ k \cdot \mathbf{A} = \begin{bmatrix} k \cdot a_{11} & k \cdot a_{12}\\ k \cdot a_{21} & k \cdot a_{22} \end{bmatrix} \]

EXEMPLO

\[ \mathbf{A}=\begin{bmatrix} 3 & -1\\ 0 & 5 \end{bmatrix} \]

com $k = 2 $, temos:

\[ 2 \cdot \begin{bmatrix} 3 & -1\\ 0 & 5 \end{bmatrix} = \begin{bmatrix} 2\cdot 3 & 2\cdot (-1)\\ 2\cdot 0 & 2\cdot5 \end{bmatrix} = \begin{bmatrix} 6 & -2\\ 0 & 10 \end{bmatrix} \]

# Definir a matriz A
A = matrix(c(3,-1,0,5), 2, 2, byrow=TRUE)

# Definir um escalar
k = 2

# Produto da matriz A por um escalar
C = k*A
C
     [,1] [,2]
[1,]    6   -2
[2,]    0   10

Transposição

A transposição de uma matriz \(m \times n\) é indicada por \(\mathbf{A}'\) e possui dimensão \(n \times m\).

EXEMPLO

# Definindo a matriz A 3x3
A <- matrix(c(4, 5, 
              3, 1,
              5, 0), nrow = 3, byrow = TRUE)

# Imprimindo a matriz A
cat("Matriz A:\n")
Matriz A:
print(A)
     [,1] [,2]
[1,]    4    5
[2,]    3    1
[3,]    5    0

A transposta é obtida com o operador t().

# Calculando a transposta de A
A_trans <- t(A)

# Imprimindo a transposta de A
cat("\nTransposta de A:\n")

Transposta de A:
print(A_trans)
     [,1] [,2] [,3]
[1,]    4    3    5
[2,]    5    1    0

Também é importante nos acostumarmos com a transposição de vetores.

Dado um vetor coluna \[ \mathbf{b}= \begin{bmatrix} b_1 \\ b_2 \\ b_3 \end{bmatrix}\] Sua versão trasposta é dada por um vetor linha

\[ \mathbf{b}'= \begin{bmatrix} b_1 & b_2 & b_3 \end{bmatrix}\]

Multiplicação de matrizes

Sejam as matrizes

\[ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{bmatrix}_{2 \times 3} ; \quad \mathbf{D} = \begin{bmatrix} d_{11} & d_{12} \\ d_{21} & d_{22} \\ d_{31} & d_{32} \end{bmatrix}_{3 \times 2} \]

\(\mathbf{A}\) é uma matriz \(2 \times 3\) e \(\mathbf{D}\) é uma matriz \(3 \times 2\), então as dimensões internas coincidem e temos:

\[ \mathbf{C} = \mathbf{A} \times \mathbf{D} = \begin{bmatrix} a_{11}d_{11} + a_{12}d_{21} + a_{13}d_{31} & a_{11}d_{12} + a_{12}d_{22} + a_{13}d_{32} \\ a_{21}d_{11} + a_{22}d_{21} + a_{23}d_{31} & a_{21}d_{12} + a_{22}d_{22} + a_{23}d_{32} \end{bmatrix} \]

EXEMPLO

Considere as duas matrizes a seguir:

\[ \mathbf{A}=\left[\begin{array}{cc} 1 & 2\\ 3 & 4 \end{array}\right]\textrm{ e } \mathbf{B}=\left[\begin{array}{ccc} 1 & 2 & 1\\ 3 & 4 & 2 \end{array}\right]. \]

Por sua vez, o produto de duas matrizes é dado por:

\[ \begin{align*} \mathbf{C} = \mathbf{A}\cdot\mathbf{B} & =\left[\begin{array}{cc} 1 & 2\\ 3 & 4 \end{array}\right]\cdot\left[\begin{array}{ccc} 1 & 2 & 1\\ 3 & 4 & 2 \end{array}\right]\\ & =\left[\begin{array}{ccc} 1\cdot1+2\cdot3 & 1\cdot2+2\cdot4 & 1\cdot1+2\cdot2\\ 3\cdot1+4\cdot3 & 3\cdot2+4\cdot4 & 3\cdot1+4\cdot2 \end{array}\right]\\ & =\left[\begin{array}{ccc} 7 & 10 & 5\\ 15 & 22 & 11 \end{array}\right] \end{align*} \]

Cuidado com o operador quando trabalhando com vetores e matrizes no R; a multiplicação de matrizes é feita usando o operador %*%.

# Definindo a matriz A
A = matrix(1:4,2,2, byrow=TRUE)
cat("A =\n")
A =
print(A)
     [,1] [,2]
[1,]    1    2
[2,]    3    4
# Definindo a matriz B
B = matrix(c(1,2,1,3,4,2),2,3,byrow=TRUE)
cat("B =\n")
B =
print(B)
     [,1] [,2] [,3]
[1,]    1    2    1
[2,]    3    4    2

O produto de \(\mathbf{A}\) e \(\mathbf{B}\) é dado por:

C = A%*%B
C
     [,1] [,2] [,3]
[1,]    7   10    5
[2,]   15   22   11

Propriedades da multiplicação

  • Associação: \((AB)C = A(BC)\)

  • Distribuição: \(A(B + C) = AB + AC\) e \((A+B)C = AC + BC\)

  • Elemento Neutro: se \(A\) é uma matriz quadrada \(AI = A\)

Produto Interno

O produto interno de dois vetores \(\mathbf{u}\) e \(\mathbf{v}\) em \(\mathbb{R}^n\) é definido como:

\[ \mathbf{u} \cdot \mathbf{v} = u_1 v_1 + u_2 v_2 + \ldots + u_n v_n = \sum_{i=1}^n u_i v_i \]

Alternativamente, o produto interno \(\mathbf{u} \cdot \mathbf{v}\) é dado pela multiplicação \(\mathbf{u}' \mathbf{v}\).

\[ \mathbf{u}' \mathbf{v} = \begin{bmatrix} u_1 & u_2 & \cdots & u_n \end{bmatrix} \begin{bmatrix} v_1 \\ v_2 \\ \vdots \\ v_n \end{bmatrix} = u_1 v_1 + u_2 v_2 + \cdots + u_n v_n \]

EXEMPLO

Sejam os vetores

\[ \mathbf{u} = \begin{bmatrix} 3 \\ -1 \\ 4 \end{bmatrix}, \quad \mathbf{v} = \begin{bmatrix} 2 \\ 5 \\ -1 \end{bmatrix} \]

O produto interno \(\mathbf{u} \cdot \mathbf{v}\) é calculado como:

\[ \mathbf{u} \cdot \mathbf{v} = (3 \cdot 2) + (-1 \cdot 5) + (4 \cdot -1) = 6 - 5 - 4 = -3 \]

Ou, em notação somatória:

\[ \mathbf{u} \cdot \mathbf{v} = \sum_{i=1}^3 u_i v_i = u_1 v_1 + u_2 v_2 + u_3 v_3 = 6 - 5 - 4 = -3 \]

# Definindo os vetores u e v
u <- c(3, -1, 4)
cat("vetor u:\n")
vetor u:
print(u)
[1]  3 -1  4
v <- c(2, 5, -1)
cat("vetor v:\n")
vetor v:
print(v)
[1]  2  5 -1
# Calculando o produto interno entre u e v
pi <- sum(u * v)
cat("Produto interno de u e v:\n")
Produto interno de u e v:
pi
[1] -3

Uma aplicação importante do produto interno é a soma de quadrados, que pode ser definida como o produto interno de um vetor por ele mesmo:

\[ \mathbf{x} \cdot \mathbf{x} = x_1 x_1 + x_2 x_2 + \cdots + x_n x_n = \sum_{i=1}^n x_i^2 \]

EXEMPLO

No R podemos calcular um produto interno com o operador %*%.

# Definindo o vetor x 
x = c(2, -1, 3)
cat("vetor x:\n")
vetor x:
print(x)
[1]  2 -1  3
# Valculando o produto interno
pix = x %*% x
cat("Produto interno de x por x:\n")
Produto interno de x por x:
print(pix)
     [,1]
[1,]   14

Se \(\mathbf{u} \cdot \mathbf{v} = 0\), então \(\mathbf{u}\) e \(\mathbf{v}\) são ortogonais.

3. Matrizes importantes

Matriz diagonal

Uma matriz quadrada com elementos diferentes de zero na diagonal principal e zero nas demais posições é denominada matriz diagonal.

\[ \mathbf{A}_{2 \times 2} = \begin{bmatrix} 2 & 0 \\ 0 & 3 \end{bmatrix} \quad \text{e} \quad \mathbf{B}_{3 \times 3} = \begin{bmatrix} -2 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & 1 \end{bmatrix} \]

Matriz escalar

Uma matriz diagnonal cujos elementos diagonais são todos iguais é denominada matriz escalar.

\[ \mathbf{S} = \begin{bmatrix} \sigma & 0 & 0 & 0 & 0 \\ 0 & \sigma & 0 & 0 & 0 \\ 0 & 0 & \sigma & 0 & 0 \\ 0 & 0 & 0 & \sigma & 0 \\ 0 & 0 & 0 & 0 & \sigma \end{bmatrix} \]

Matriz identidade

Uma matriz diagonal e escalar cujos elementos diagonais são todos iguais a 1 é chamada matriz identidade, e denotada por \(\mathbf{I}_n\).

\[ \mathbf{I}_3 = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} \quad \text{e} \quad \mathbf{I}_4 = \begin{bmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{bmatrix} \]

Usando o R, a matriz identidade pode ser gerada com o comando diag().

# Definindo uma matriz identidade de dimensão 2X2
I = diag(2)
I
     [,1] [,2]
[1,]    1    0
[2,]    0    1

Definida uma matriz

\[ \mathbf{A}= \begin{bmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{bmatrix} \]

Pré multiplicando \(\mathbf{A}\) pela matriz identidade \(\mathbf{I}\):

\[ \begin{align*} \mathbf{I} \cdot \mathbf{A} &= \mathbf{A} \\ &= \begin{bmatrix} 1 & 0\\ 0 & 1 \end{bmatrix} \cdot \begin{bmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{bmatrix} \\ & = \begin{bmatrix} a_{11} & a_{12}\\ a_{21} & a_{22} \end{bmatrix} \end{align*} \]

# Definindo uma matriz A
A = matrix(c(1,2,3,4), 2, 2, byrow=TRUE)

# Pre multiplicando A pela matriz identidade
I%*%A
     [,1] [,2]
[1,]    1    2
[2,]    3    4

Matriz simétrica

Uma matriz quadrada, \(\mathbf{P}\), é simétrica se for igual à sua transposta, ou seja:

\[ \mathbf{P} = \mathbf{P}' \]

Isso significa que os elementos da matriz são simétricos em relação à diagonal principal, ou seja, \(p_{ij} = p_{ji}\) para todos os \(i\) e \(j\).

EXEMPLO

Considere a matriz \(\mathbf{P}\) de ordem \(3 \times 3\):

\[ \mathbf{P} = \begin{bmatrix} 4 & 1 & 3 \\ 1 & 5 & 2 \\ 3 & 2 & 6 \end{bmatrix} \]

Essa matriz é simétrica porque \(\mathbf{P} = \mathbf{P}'\), ou seja:

\[ \mathbf{P}' = \begin{bmatrix} 4 & 1 & 3 \\ 1 & 5 & 2 \\ 3 & 2 & 6 \end{bmatrix} = \mathbf{P} \]

Submatriz

Dada a matriz \(\mathbf{A}\) de dimensão \(m \times n\), se todas as colunas e linhas de \(\mathbf{A}\) forem eliminadas, com exceção das \(r\) linhas e \(s\) colunas, a matriz resultante da ordem \(r \times s\) será denominada submatriz de \(\mathbf{A}\). Sendo assim, se

\[ \mathbf{A}_{3 \times 3} = \begin{bmatrix} 3 & 5 & 7 \\ 8 & 2 & 1 \\ 3 & 2 & 1 \end{bmatrix} \]

e se eliminarmos a terceira linha e a terceira coluna de \(\mathbf{A}\), obteremos

\[ \mathbf{B}_{2 \times 2} = \begin{bmatrix} 3 & 5 \\ 8 & 2 \end{bmatrix} \]

que corresponde a uma submatriz de \(\mathbf{A}\) cuja ordem é \(2 \times 2\).

4. Propriedades de uma matriz

Determinante de uma matriz

O determinante de uma matriz quadrada \(\mathbf{A}\) de ordem \(n \times n\) é um número escalar que fornece informações importantes sobre as propriedades da matriz.

O determinante está relacionado diretamente à invertibilidade da matriz, ao volume de transformações lineares e à natureza das soluções de sistemas de equações lineares.

Para uma matriz \(2 \times 2\):

\[ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} \]

o determinante é calculado como:

\[ \det(\mathbf{A}) = a_{11}a_{22} - a_{12}a_{21} \]

Para uma matriz \(3 \times 3\):

\[ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{bmatrix} \]

o determinante é calculado usando a regra de Sarrus ou o co-fator:

\[ \det(\mathbf{A}) = a_{11}a_{22}a_{33} - a_{11}a_{23}a_{32} + a_{12}a_{23}a_{31} - a_{12}a_{21}a_{33} + a_{13}a_{21}a_{32} - a_{13}a_{22}a_{31} \]

Propriedades importantes do determinante

  • Invertibilidade: Uma matriz \(\mathbf{A}\) é inversível se, e somente se, \(\det(\mathbf{A}) \neq 0\). Caso contrário, a matriz é singular (não possui inversa).

  • Transformação do Volume: O valor absoluto do determinante de \(\mathbf{A}\) pode ser interpretado como o fator de escala do volume de um objeto geométrico ao ser transformado pela matriz \(\mathbf{A}\).

  • Multiplicação de Matrizes: O determinante do produto de duas matrizes é o produto dos determinantes: \(\det(\mathbf{A} \mathbf{B}) = \det(\mathbf{A}) \cdot \det(\mathbf{B})\).

  • Troca de Linhas: Se duas linhas (ou colunas) de uma matriz forem trocadas, o sinal do determinante será invertido.

  • Linha (ou Coluna) Zero: Se uma linha (ou coluna) de \(\mathbf{A}\) é composta inteiramente por zeros, então \(\det(\mathbf{A}) = 0\).

EXEMPLO

Usando o R, o determinante de uma matriz é calculado com a função det().

# Definindo uma matriz 3x3
A = matrix(c(2, 4, 3, 1, -1, 0, 3, 5, 2), nrow = 3, byrow = TRUE)
cat("Matriz A:\n")
Matriz A:
A
     [,1] [,2] [,3]
[1,]    2    4    3
[2,]    1   -1    0
[3,]    3    5    2
# Calculando o determinante
cat("Determinante de A:\n")
Determinante de A:
det(A)
[1] 12

Em econometria, o determinante tem aplicações diretas na resolução de sistemas de equações lineares, na análise de matrizes de variância-covariância e na estabilidade de estimadores.

Menor

Se a \(i\)-ésima linha e a \(j\)-ésima coluna de uma matriz \(\mathbf{A}\) com dimensão \(n \times n\) são excluídas, o determinante da submatriz resultante é chamado de o menor do elemento \(a_{ij}\) (o elemento na interseção da \(i\)-ésima linha e \(j\)-ésima coluna) e é denotado por \(|M_{ij}|\).

\[ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{bmatrix} \]

O menor de \(a_{11}\) é

\[ |M_{11}| = \begin{vmatrix} a_{22} & a_{23} \\ a_{32} & a_{33} \end{vmatrix} = a_{22}a_{33} - a_{23}a_{32} \]

De forma semelhante, o menor de \(a_{21}\) é

\[ |M_{21}| = \begin{vmatrix} a_{12} & a_{13} \\ a_{32} & a_{33} \end{vmatrix} = a_{12}a_{33} - a_{13}a_{32} \]

Os menores de outros elementos de \(\mathbf{A}\) podem ser encontrados de maneira semelhante.

Cofator

O cofator do elemento \(a_{ij}\) de uma matriz \(\mathbf{A}\) de origem \(n \times n\), denotado por \(c_{ij}\), é definido como:

\[ c_{ij} = (-1)^{i+j} |M_{ij}| \]

Em outras palavras, um cofator é um menor “sinalizado”: com sinal positivo se \(i + j\) for par e negativo se \(i + j\) for ímpar.

  • o cofator do elemento \(a_{11}\) da matriz \(\mathbf{A}_{3 \times 3}\) anteriormente dada é \(a_{22}a_{33} - a_{23}a_{32}\),

  • o cofator do elemento \(a_{21}\) é \(-(a_{12}a_{33} - a_{13}a_{32})\), uma vez que a soma dos subscritos \(2\) e \(1\) é \(3\), que é um número ímpar.

Matriz de Cofator

Substituindo os elementos \(a_{ij}\) de uma matriz \(\mathbf{A}\) pelos seus cofatores, obtemos uma matriz conhecida como matriz de cofator de \(\mathbf{A}\), denotada por \(\text{cof}(\mathbf{A})\).

Matriz Adjunta

A matriz adjunta, escrita como \(\text{adj}(\mathbf{A})\), é a transposta da matriz de cofator: \(\text{adj}(\mathbf{A}) = (\text{cof}(\mathbf{A}))'\).

Posto de uma matriz

O posto de uma matriz \(\mathbf{A}\) é o número máximo de linhas ou colunas linearmente independentes de \(\mathbf{A}\).

Um conjunto de vetores é linearmente independente se nenhum deles pode ser escrito como uma combinação linear de um número finito de outros vetores do conjunto.

Outra forma de definir isso é que o posto de uma matriz é a ordem da maior submatriz quadrada cujo determinante não é zero.

  • O posto máximo de uma matriz \(m \times n\) é \(\min(m, n)\).

  • Uma matriz de posto completo é aquela que possui o maior posto possível, ou seja, o posto é igual ao número de linhas ou colunas (o que for menor).

  • No caso de uma matriz quadrada \(\mathbf{A}_{n \times n}\), ela é invertível se, e somente se, \(\mathbf{A}\) tiver posto \(n\) (isto é, \(\mathbf{A}\) tem posto completo).

EXEMPLO

# Definindo a matriz B 3x3 que não é de posto pleno
B <- matrix(c(1, 2, 3,
              2, 4, 6,
              3, 6, 9), nrow = 3, byrow = TRUE)

# Imprimindo a matriz B
cat("Matriz B:\n")
Matriz B:
print(B)
     [,1] [,2] [,3]
[1,]    1    2    3
[2,]    2    4    6
[3,]    3    6    9

Vamos verificar o determinante de \(\mathbf{B}\)

# Verificando o determinante de B
det_B <- det(B)
cat("\nDeterminante de B:", det_B, "\n")

Determinante de B: 0 

Note que, uma vez que \(\det(\mathbf{B}) = 0\), então \(\mathbf{B}\) não é “posto completo”.

# Calculando o posto de B usando a função qr() para confirmação
posto_B <- qr(B)$rank
cat("Posto da matriz B:", posto_B, "\n")
Posto da matriz B: 1 

Traço de uma matriz

O traço de uma matriz \(\mathbf{A}_{n \times n}\) é a soma dos elementos na diagonal principal:

\[ \text{tr}(\mathbf{A}) = a_{11} + a_{22} + \dots + a_{nn} = \sum_{i=1}^{n} a_{ii}. \]

EXEMPLO

# Definindo a matriz C 3x3
C <- matrix(c(4, 1, 3,
              2, 5, 7,
              0, 6, 8), nrow = 3, byrow = TRUE)

# Imprimindo a matriz C
cat("Matriz C:\n")
Matriz C:
print(C)
     [,1] [,2] [,3]
[1,]    4    1    3
[2,]    2    5    7
[3,]    0    6    8

No R podemos calcular o traço de uma matriz somando os elementos da sua diagonal principal.

# Calculando o traço de C
traco_C <- sum(diag(C))
cat("\nTraço da matriz C:", traco_C, "\n")

Traço da matriz C: 17 

5. Inversão de matrizes

A inversão de uma matriz é uma operação que, para uma matriz quadrada \(\mathbf{A}\), busca encontrar outra matriz \(\mathbf{A}^{-1}\) tal que:

\[ \mathbf{A} \cdot \mathbf{A}^{-1} = \mathbf{I} \]

onde \(\mathbf{I}\) é a matriz identidade de mesma ordem que \(\mathbf{A}\).

Somente matrizes quadradas de posto completo (ou seja, \(\det(\mathbf{A}) \neq 0)\) possuem uma inversa.

Propriedades da matriz inversa

  • Unicidade: A inversa de uma matriz, quando existe, é única.

  • Produto: A inversa do produto de duas matrizes \(\mathbf{A}\) e \(\mathbf{B}\) é dada por \((\mathbf{A} \cdot \mathbf{B})^{-1} = \mathbf{B}^{-1} \cdot \mathbf{A}^{-1}\).

  • Transposição: A transposta da inversa de uma matriz é igual à inversa da transposta: \((\mathbf{A}^{-1})^{\prime} = (\mathbf{A}^{\prime})^{-1}\).

Encontrando a inversa de uma matriz quadrada

Se \(\mathbf{A}\) é quadrada e não singular (\(\det(\mathbf{A}) \neq 0\)), a sua inversa \(\mathbf{A}\^{-1}\) pode ser encontrada da seguinte forma:

\[ \mathbf{A}^{-1} = \frac{1}{\det(\mathbf{A})} (\text{adj} \, \mathbf{A}) \]

Os passos envolvidos neste cálculo são os seguintes:

  1. Descubra o determinante de \(\mathbf{A}\). Se não for zero, execute o passo 2.

  2. Substitua cada elemento \(a_{ij}\) de \(\mathbf{A}\) por seu cofator para obter a matriz de cofator.

  3. Transponha a matriz de cofator para obter a matriz adjunta.

  4. Divida cada elemento da matriz adjunta por \(\det(\mathbf{A})\).

Para uma matriz \(2 \times 2\), dada por:

\[ \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} \] Sua inversa é:

\[ \mathbf{A}^{-1} = \frac{1}{\det(\mathbf{A})} \begin{bmatrix} a_{22} & -a_{12} \\ -a_{21} & a_{11} \end{bmatrix} \]

EXEMPLO

Vamos calcular a inversa de uma matriz \(2 \times 2\) usando o R. Aqui a inversa de uma matriz pode ser calculada com a função solve().

# Definindo uma matriz 2x2
A = matrix(c(4, 7,
             2, 6), nrow = 2, byrow = TRUE)
cat("Matriz A:\n")
Matriz A:
print(A)
     [,1] [,2]
[1,]    4    7
[2,]    2    6
# Calculando a inversa
A_inv = solve(A)
cat("Matriz inversa de A:\n")
Matriz inversa de A:
print(A_inv)
     [,1] [,2]
[1,]  0.6 -0.7
[2,] -0.2  0.4
# Verificando a propriedade: A * A_inv = I
I = A %*% A_inv
cat("Matriz Identidade:\n")
Matriz Identidade:
print(I)
     [,1] [,2]
[1,]    1    0
[2,]    0    1

No caso de uma matriz \(3 \times 3\):

# Definindo uma matriz 3x3
B = matrix(c(2, 1, 3,
             1, -1, 2,
             3, 0, -1), nrow = 3, byrow = TRUE)
cat("Matriz B:\n")
Matriz B:
print(B)
     [,1] [,2] [,3]
[1,]    2    1    3
[2,]    1   -1    2
[3,]    3    0   -1
# Calculando a inversa
B_inv = solve(B)
cat("Matriz inversa de B:\n")
Matriz inversa de B:
print(B_inv)
           [,1]        [,2]        [,3]
[1,] 0.05555556  0.05555556  0.27777778
[2,] 0.38888889 -0.61111111 -0.05555556
[3,] 0.16666667  0.16666667 -0.16666667
# Verificando a propriedade: B * B_inv = I
I3 = round(B %*% B_inv, digits = 4)
cat("Matriz identidade:\n")
Matriz identidade:
print(I3)
     [,1] [,2] [,3]
[1,]    1    0    0
[2,]    0    1    0
[3,]    0    0    1