Encontrar exemplo de matriz inversa.  Algoritmo para calcular a matriz inversa usando complementos algébricos: o método da matriz adjunta (união)

Encontrar exemplo de matriz inversa. Algoritmo para calcular a matriz inversa usando complementos algébricos: o método da matriz adjunta (união)

Na primeira parte, o método de encontrar matriz inversa com a ajuda de adições algébricas. Aqui descrevemos outro método para encontrar matrizes inversas: usando as transformações de Gauss e Gauss-Jordan. Freqüentemente, esse método de encontrar a matriz inversa é chamado de método das transformações elementares.

Método das transformações elementares

Para aplicar este método, a matriz dada $A$ e a matriz identidade $E$ são escritas em uma matriz, ou seja, formam uma matriz da forma $(A|E)$ (essa matriz também é chamada de matriz estendida). Depois disso, com a ajuda de transformações elementares realizadas com as linhas da matriz expandida, a matriz à esquerda da linha torna-se a unidade e a matriz expandida assume a forma $\left(E| A^(-1) \right )$. Transformações elementares nesta situação incluem as seguintes ações:

  1. Substituindo duas linhas.
  2. Multiplicar todos os elementos de uma string por algum número diferente de zero.
  3. Adicionando aos elementos de uma linha os elementos correspondentes de outra linha, multiplicados por qualquer fator.

Essas transformações elementares podem ser aplicadas de diferentes maneiras. Normalmente, o método de Gauss ou o método de Gauss-Jordan é escolhido. Em geral, os métodos de Gauss e Gauss-Jordan são projetados para resolver sistemas de equações algébricas, não para encontrar matrizes inversas. A frase "aplicar o método de Gauss para encontrar a inversa de uma matriz" deve ser entendida aqui como "aplicar as operações inerentes ao método de Gauss para encontrar a inversa de uma matriz".

A numeração dos exemplos continuou desde a primeira parte. Nos exemplos e o uso do método de Gauss para encontrar a matriz inversa é considerado, e nos exemplos e o uso do método de Gauss-Jordan é analisado. Deve-se notar que, se durante a solução todos os elementos de alguma linha ou coluna da matriz localizada antes da linha forem zerados, a matriz inversa não existe.

Exemplo #5

Encontre a matriz $A^(-1)$ se $A=\left(\begin(array) (ccc) 7 & 4 & 6 \\ 2 & 5 & -4 \\ 1 & -1 & 3 \end( array )\direita)$.

Neste exemplo, a matriz inversa será encontrada usando o método gaussiano. Matriz expandida, tendo em caso Geral forma $(A|E)$, em este exemplo terá este formato: $ \left(\begin(array) (ccc|ccc) 7 & 4 & 6 & 1 & 0 & 0 \\ 2 & 5 & -4 & 0 & 1 & 0 \\ 1 & -1 & 3 & 0 & 0 & 1 \end(array) \right)$.

Objetivo: usando transformações elementares, traga a matriz aumentada para a forma $\left(E|A^(-1) \right)$. Aplicamos as mesmas operações que são usadas na solução de sistemas equações lineares método Gaussiano. Para aplicar o método gaussiano, é conveniente quando o primeiro elemento da primeira linha da matriz expandida é um. Para conseguir isso, trocamos a primeira e terceira linhas da matriz expandida, que se torna: $ \left(\begin(array) (ccc|ccc) 1 & -1 & 3 & 0 & 0 & 1 \\ 2 & 5 & - 4 & 0 & 1 & 0 \\ 7 & 4 & 6 & 1 & 0 & 0 \end(array) \right)$.

Agora vamos à solução. O método gaussiano é dividido em dois estágios: direto e reverso ( descrição detalhada este método para resolver sistemas de equações é dado nos exemplos do tópico relevante). As mesmas duas etapas serão aplicadas no processo de encontrar a matriz inversa.

golpe para a frente

Primeiro passo

Com a ajuda da primeira linha, redefinimos os elementos da primeira coluna localizados na primeira linha:

Deixe-me comentar um pouco sobre o que eu fiz. A notação $II-2\cdot I$ significa que os elementos correspondentes da primeira linha, previamente multiplicados por dois, foram subtraídos dos elementos da segunda linha. Esta ação pode ser escrita separadamente da seguinte forma:

A ação $III-7\cdot I$ é executada exatamente da mesma maneira. Se houver dificuldades na execução dessas operações, elas podem ser executadas separadamente (semelhante à ação $II-2\cdot I$ mostrada acima) e o resultado é inserido na matriz expandida.

Segundo passo

Com a ajuda da segunda linha, redefinimos o elemento da segunda coluna, localizado abaixo da segunda linha:

Divida a terceira linha por 5:

A corrida reta acabou. Todos os elementos localizados abaixo da diagonal principal da matriz até a linha foram zerados.

Marcha ré

Primeiro passo

Com a ajuda da terceira linha, redefinimos os elementos da terceira coluna localizada acima da terceira linha:

Antes de passar para a próxima etapa, divida a segunda linha por $ 7$:

Segundo passo

Com a ajuda da segunda linha, redefinimos os elementos da segunda coluna localizada acima da segunda linha:

As transformações estão concluídas, a matriz inversa é encontrada pelo método Gaussiano: $A^(-1)=\left(\begin(array) (ccc) -11/5 & 18/5 & 46/5 \\ 2 & -3 & -8 \ \ 7/5 & -11/5 & -27/5 \end(array) \right)$. A verificação, se necessário, pode ser feita da mesma forma que nos exemplos anteriores. Se você pular todas as explicações, a solução assumirá a forma:

Responda: $A^(-1)=\left(\begin(array) (ccc) -11/5 & 18/5 & 46/5 \\ 2 & -3 & -8 \\ 7/5 & -11/ 5 & ​​​​-27/5 \end(array) \right)$.

Exemplo #6

Encontre a matriz $A^(-1)$ se $A=\left(\begin(array) (cccc) -5 & 4 & 1 & 0 \\ 2 & 3 & -2 & 1 \\ 0 & 7 & - 4 & -3 \\ 1 & 4 & 0 & 6 \end(array) \right)$.

Para encontrar a matriz inversa neste exemplo, usaremos as mesmas operações usadas na solução de sistemas de equações lineares usando o método de Gauss. Explicações detalhadas são dadas, mas aqui nos limitamos a breves comentários. Vamos escrever a matriz aumentada: $\left(\begin(array) (cccc|cccc) -5 & 4 & 1 & 0 & 1 & 0 & 0 & 0 \\ 2 & 3 & -2 & 1 &0 &1&0 &0 \ \ 0 & 7 & -4 & -3 &0 & 0 & 1 & 0\\ 1 & 4 & 0 & 6 &0 &0 & 0 & 1 \end(array) \right)$. Troque a primeira e a quarta linha desta matriz: $\left(\begin(array) (cccc|cccc) 1 & 4 & 0 & 6 &0 &0 & 0 & 1 \\ 2 & 3 & -2 & 1 &0 &1&0 &0 \ \ 0 & 7 & -4 & -3 &0 & 0 & 1 & 0\\ -5 & 4 & 1 & 0 & 1 & 0 & 0 & 0 \end(array) \right)$.

golpe para a frente

As transformações de execução direta estão concluídas. Todos os elementos localizados sob a diagonal principal da matriz à esquerda da linha são zerados.

Marcha ré

Inverso Gaussiano encontrado, $A^(-1)=\left(\begin(array) (cccc) -13/14 & -75/8 & 31/8 & 7/2 \\ -19/8 & - 117/ 16 & 49/16 & 11/4 \\ -23/4 & -141/8 & 57/8 & 13/2 \\ 17/8 & 103/6 & -43/16 & -9/4 \ end( matriz)\direita)$. A verificação, se necessária, é realizada da mesma forma que nos exemplos nº 2 e nº 3.

Responda: $A^(-1)=\left(\begin(array) (cccc) -13/14 & -75/8 & 31/8 & 7/2 \\ -19/8 & -117/16 & 49 /16 & 11/4 \\ -23/4 & -141/8 & 57/8 & 13/2 \\ 17/8 & 103/6 & -43/16 & -9/4 \end(array) \ certo) $.

Exemplo #7

Encontre a matriz $A^(-1)$ se $A=\left(\begin(array) (ccc) 2 & 3 & 4 \\ 7 & 1 & 9 \\ -4 & 5 & -2 \end( array )\direita)$.

Para encontrar a matriz inversa, aplicamos as operações característica do método Gauss-Jordan. A diferença do método Gaussiano, considerado nos exemplos anteriores e , é que a solução é realizada em uma etapa. Deixe-me lembrá-lo de que o método de Gauss é dividido em 2 etapas: o movimento para frente (“fazemos” zeros sob a diagonal principal da matriz até a barra) e o movimento reverso (redefinimos os elementos acima da diagonal principal da matriz à barra). Para calcular a matriz inversa pelo método de Gauss-Jordan não são necessários dois estágios de solução. Primeiro, vamos fazer uma matriz aumentada: $(A|E)$:

$$ (A|E)=\left(\begin(array) (ccc|ccc) 2 & 3 & 4 & 1 & 0 & 0\\ 7 & 1 & 9 & 0 & 1 & 0\\ -4 & 5 & ​​​​-2 &0 & 0 & 1 \end(array) \right) $$

Primeiro passo

Defina todos os elementos da primeira coluna como zero, exceto um. Na primeira coluna, todos os elementos são diferentes de zero, então podemos escolher qualquer elemento. Tomemos, por exemplo, $(-4)$:

O elemento selecionado $(-4)$ está na terceira linha, então usamos a terceira linha para zerar os elementos selecionados da primeira coluna:

Vamos tornar o primeiro elemento da terceira linha igual a um. Para fazer isso, dividimos os elementos da terceira linha da matriz expandida por $(-4)$:

Agora vamos começar a zerar os elementos correspondentes da primeira coluna:

Em etapas posteriores não será mais possível utilizar a terceira linha, pois já a aplicamos na primeira etapa.

Segundo passo

Vamos escolher algum elemento diferente de zero da segunda coluna e definir todos os outros elementos da segunda coluna como zero. Podemos escolher qualquer um dos dois elementos: $\frac(11)(2)$ ou $\frac(39)(4)$. O elemento $\left(-\frac(5)(4) \right)$ não pode ser selecionado porque está localizado na terceira linha, que usamos no passo anterior. Vamos selecionar o elemento $\frac(11)(2)$, que está na primeira linha. Vamos mudar $\frac(11)(2)$ para um na primeira linha:

Agora vamos definir os elementos correspondentes da segunda coluna para zero:

Em raciocínio adicional, a primeira linha não pode ser usada.

Terceiro passo

É necessário redefinir todos os elementos da terceira coluna, exceto um. Precisamos escolher algum elemento diferente de zero da terceira coluna. No entanto, não podemos pegar $\frac(6)(11)$ ou $\frac(13)(11)$ porque esses elementos estão na primeira e na terceira linhas que usamos anteriormente. A escolha é pequena: resta apenas o elemento $\frac(2)(11)$, que está na segunda linha. Divida todos os elementos da segunda linha por $\frac(2)(11)$:

Agora vamos definir os elementos correspondentes da terceira coluna para zero:

As transformações pelo método de Gauss-Jordan estão concluídas. Resta apenas fazer com que a matriz até a linha se torne unidade. Para fazer isso, você deve alterar a ordem das linhas. Primeiro, troque a primeira e a terceira linhas:

$$ \left(\begin(array) (ccc|ccc) 1 & 0 & 0 & 47/4 & -13/2 & -23/4 \\ 0 & 0 & 1 & -39/4 & 11/2 & 19/4 \\ 0 & 1 & 0 & 11/2 & -3 & -5/2 \end(array) \right) $$

Agora vamos trocar a segunda e terceira linhas:

$$ \left(\begin(array) (ccc|ccc) 1 & 0 & 0 & 47/4 & -13/2 & -23/4 \\ 0 & 1 & 0 & 11/2 & -3 & - 5/2 \\ 0 & 0 & 1 & -39/4 & 11/2 & 19/4 \end(array) \right) $$

Então $A^(-1)=\left(\begin(array) (ccc) 47/4 & -13/2 & -23/4 \\ 11/2 & -3 & -5/2 \\ - 39 /4 & 11/2 & 19/4 \end(array) \right)$. Naturalmente, a solução pode ser realizada de maneira diferente, escolhendo os elementos da diagonal principal. Geralmente é exatamente isso que eles fazem, pois neste caso, ao final da solução, as linhas não precisarão ser trocadas. Dei a solução anterior apenas com um propósito: mostrar que a escolha de uma linha a cada passo não é fundamental. Se escolhermos elementos diagonais em cada etapa, a solução será a seguinte.

Este tópico é um dos mais odiados entre os alunos. Pior, provavelmente, apenas determinantes.

O truque é que o próprio conceito de elemento inverso (e não estou falando apenas de matrizes agora) nos remete à operação de multiplicação. Mesmo em currículo escolar a multiplicação é considerada operação complicada, e a multiplicação de matrizes geralmente é um tópico separado, para o qual tenho um parágrafo inteiro e um tutorial em vídeo dedicado a ele.

Hoje não entraremos em detalhes sobre cálculos de matrizes. Apenas lembre-se: como as matrizes são denotadas, como são multiplicadas e o que se segue disso.

Revisão: Multiplicação de Matrizes

Em primeiro lugar, vamos concordar com a notação. Uma matriz $A$ de tamanho $\left[ m\times n \right]$ é simplesmente uma tabela de números com exatamente $m$ linhas e $n$ colunas:

\=\underbrace(\left[ \begin(matriz) ((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) \\ (( a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) \\ ... & ... & ... & ... \\ ((a)_(m1)) & ((a)_(m2)) & ... & ((a)_(mn)) \\\end(matriz) \right])_(n)\]

Para não confundir acidentalmente linhas e colunas em alguns lugares (acredite, no exame você pode confundir um com um duque - o que podemos dizer sobre algumas linhas aí), basta dar uma olhada na foto:

Determinação de índices para células de matriz

O que está acontecendo? Se colocarmos o sistema de coordenadas padrão $OXY$ no canto superior esquerdo e direcionarmos os eixos para que cubram toda a matriz, então cada célula desta matriz pode ser associada exclusivamente às coordenadas $\left(x;y \right) $ - este será o número da linha e o número da coluna.

Por que o sistema de coordenadas é colocado exatamente no canto superior esquerdo? Sim, porque é a partir daí que começamos a ler quaisquer textos. É muito fácil de lembrar.

Por que o eixo $x$ está apontando para baixo e não para a direita? Novamente, é simples: pegue o sistema de coordenadas padrão (o eixo $x$ vai para a direita, o eixo $y$ vai para cima) e gire-o para que ele inclua a matriz. Esta é uma rotação de 90 graus no sentido horário - vemos o resultado na imagem.

Em geral, descobrimos como determinar os índices dos elementos da matriz. Agora vamos lidar com a multiplicação.

Definição. As matrizes $A=\left[ m\times n \right]$ e $B=\left[ n\times k \right]$, quando o número de colunas da primeira coincide com o número de linhas da segunda, são chamado de consistente.

Está nessa ordem. Pode-se ser ambíguo e dizer que as matrizes $A$ e $B$ formam um par ordenado $\left(A;B \right)$: se forem consistentes nesta ordem, então não é necessário que $B $ e $A$, esses. o par $\left(B;A \right)$ também é consistente.

Somente matrizes consistentes podem ser multiplicadas.

Definição. O produto de matrizes consistentes $A=\left[ m\times n \right]$ e $B=\left[ n\times k \right]$ é a nova matriz $C=\left[ m\times k \right ]$ , cujos elementos $((c)_(ij))$ são calculados pela fórmula:

\[((c)_(ij))=\soma\limits_(k=1)^(n)(((a)_(ik)))\cdot ((b)_(kj))\]

Em outras palavras: para obter o elemento $((c)_(ij))$ da matriz $C=A\cdot B$, você precisa pegar a linha $i$ da primeira matriz, a $j$ -ésima coluna da segunda matriz e, em seguida, multiplique em pares os elementos desta linha e coluna. Some os resultados.

Sim, essa é uma definição dura. Vários fatos decorrem imediatamente disso:

  1. A multiplicação de matrizes é, em geral, não comutativa: $A\cdot B\ne B\cdot A$;
  2. No entanto, a multiplicação é associativa: $\left(A\cdot B \right)\cdot C=A\cdot \left(B\cdot C \right)$;
  3. E ainda distributivo: $\left(A+B \right)\cdot C=A\cdot C+B\cdot C$;
  4. E distributivo novamente: $A\cdot \left(B+C \right)=A\cdot B+A\cdot C$.

A distributividade da multiplicação teve que ser descrita separadamente para a soma multiplicadora esquerda e direita apenas por causa da não comutatividade da operação de multiplicação.

Se, no entanto, $A\cdot B=B\cdot A$, essas matrizes são chamadas de permutáveis.

Entre todas as matrizes que são multiplicadas por algo ali, existem algumas especiais - aquelas que, quando multiplicadas por qualquer matriz $A$, dão novamente $A$:

Definição. Uma matriz $E$ é chamada identidade se $A\cdot E=A$ ou $E\cdot A=A$. No caso de uma matriz quadrada $A$ podemos escrever:

A matriz identidade é uma convidada frequente na resolução equações matriciais. E, em geral, um convidado frequente no mundo das matrizes. :)

E por causa desse $E$, alguém criou todo o jogo que será escrito a seguir.

O que é uma matriz inversa

Como a multiplicação de matrizes é uma operação muito demorada (você precisa multiplicar várias linhas e colunas), o conceito de matriz inversa também não é o mais trivial. E precisa de alguma explicação.

Definição de chave

Bem, é hora de saber a verdade.

Definição. A matriz $B$ é chamada de inversa da matriz $A$ se

A matriz inversa é denotada por $((A)^(-1))$ (não confundir com o grau!), então a definição pode ser reescrita assim:

Parece que tudo é extremamente simples e claro. Mas ao analisar tal definição, várias questões surgem imediatamente:

  1. Uma matriz inversa sempre existe? E se nem sempre, como determinar: quando existe e quando não?
  2. E quem disse que tal matriz é exatamente uma? E se para alguma matriz original $A$ houver toda uma multidão de inversas?
  3. Como são todos esses "reversos"? E como você realmente os conta?

Quanto aos algoritmos de cálculo - falaremos sobre isso um pouco mais tarde. Mas vamos responder ao resto das perguntas agora. Vamos organizá-los na forma de afirmações-lemas separados.

Propriedades básicas

Vamos começar com a aparência da matriz $A$ para que ela tenha $((A)^(-1))$. Agora vamos nos certificar de que ambas as matrizes devem ser quadradas e do mesmo tamanho: $\left[ n\times n \right]$.

Lema 1. Dada uma matriz $A$ e sua inversa $((A)^(-1))$. Então ambas as matrizes são quadradas e têm a mesma ordem $n$.

Prova. Tudo é simples. Seja a matriz $A=\esquerda[ m\vezes n \direita]$, $((A)^(-1))=\esquerda[ a\vezes b \direita]$. Como o produto $A\cdot ((A)^(-1))=E$ existe por definição, as matrizes $A$ e $((A)^(-1))$ são consistentes nessa ordem:

\[\begin(align) & \left[ m\times n \right]\cdot \left[ a\times b \right]=\left[ m\times b \right] \\ & n=a \end( alinhar)\]

Esta é uma consequência direta do algoritmo de multiplicação de matrizes: os coeficientes $n$ e $a$ são "trânsito" e devem ser iguais.

Ao mesmo tempo, a multiplicação inversa também é definida: $((A)^(-1))\cdot A=E$, então as matrizes $((A)^(-1))$ e $A$ são também consistente nesta ordem:

\[\begin(align) & \left[ a\times b \right]\cdot \left[ m\times n \right]=\left[ a\times n \right] \\ & b=m \end( alinhar)\]

Assim, sem perda de generalidade, podemos assumir que $A=\esquerda[ m\vezes n \direita]$, $((A)^(-1))=\esquerda[ n\vezes m \direita]$. No entanto, de acordo com a definição de $A\cdot ((A)^(-1))=((A)^(-1))\cdot A$, então as dimensões das matrizes são exatamente as mesmas:

\[\begin(align) & \left[ m\times n \right]=\left[ n\times m \right] \\ & m=n \end(align)\]

Acontece que todas as três matrizes - $A$, $((A)^(-1))$ e $E$ - são quadradas em tamanho $\left[ n\times n \right]$. O lema está provado.

Bem, isso já é bom. Vemos que apenas matrizes quadradas são invertíveis. Agora vamos garantir que a matriz inversa seja sempre a mesma.

Lema 2. Dada uma matriz $A$ e sua inversa $((A)^(-1))$. Então esta matriz inversa é única.

Prova. Vamos começar do contrário: deixe a matriz $A$ ter pelo menos duas instâncias de inversas — $B$ e $C$. Então, de acordo com a definição, as seguintes igualdades são verdadeiras:

\[\begin(align) & A\cdot B=B\cdot A=E; \\ & A\cdot C=C\cdot A=E. \\ \end(align)\]

Do Lema 1 concluímos que todas as quatro matrizes $A$, $B$, $C$ e $E$ são quadradas da mesma ordem: $\left[ n\times n \right]$. Portanto, o produto é definido:

Como a multiplicação de matrizes é associativa (mas não comutativa!), podemos escrever:

\[\begin(align) & B\cdot A\cdot C=\left(B\cdot A \right)\cdot C=E\cdot C=C; \\ & B\cdot A\cdot C=B\cdot \left(A\cdot C \right)=B\cdot E=B; \\ & B\cdot A\cdot C=C=B\Rightarrow B=C. \\ \end(align)\]

Temos a única opção possível: duas cópias da matriz inversa são iguais. O lema está provado.

O raciocínio acima quase literalmente repete a prova da unicidade do elemento inverso para todo numeros reais$b\ne 0$. A única adição significativa é levar em conta a dimensão das matrizes.

No entanto, ainda não sabemos nada sobre se algum matriz quadradaé reversível. Aqui o determinante vem em nosso auxílio - esta é uma característica chave para todas as matrizes quadradas.

Lema 3 . Dada uma matriz $A$. Se a matriz $((A)^(-1))$ inversa a ela existe, então o determinante da matriz original é diferente de zero:

\[\esquerda| A \right|\ne 0\]

Prova. Já sabemos que $A$ e $((A)^(-1))$ são matrizes quadradas de tamanho $\left[ n\times n \right]$. Portanto, para cada um deles é possível calcular o determinante: $\left| A \direita|$ e $\esquerda| ((A)^(-1)) \right|$. No entanto, o determinante do produto é igual ao produto dos determinantes:

\[\esquerda| A\cdot B \direita|=\esquerda| A \direita|\cdot \esquerda| B \right|\Rightarrow \left| A\cdot ((A)^(-1)) \direita|=\esquerda| A \direita|\cdot \esquerda| ((A)^(-1)) \direita|\]

Mas de acordo com a definição de $A\cdot ((A)^(-1))=E$, e o determinante de $E$ é sempre igual a 1, então

\[\begin(align) & A\cdot ((A)^(-1))=E; \\ & \left| A\cdot ((A)^(-1)) \direita|=\esquerda| E\direita|; \\ & \left| A \direita|\cdot \esquerda| ((A)^(-1)) \direita|=1. \\ \end(align)\]

O produto de dois números é igual a um apenas se cada um desses números for diferente de zero:

\[\esquerda| A \right|\ne 0;\quad \left| ((A)^(-1)) \right|\ne 0.\]

Acontece que $\left| A \right|\ne 0$. O lema está provado.

Na verdade, esse requisito é bastante lógico. Agora vamos analisar o algoritmo para encontrar a matriz inversa - e ficará completamente claro porque, em princípio, nenhuma matriz inversa pode existir com um determinante zero.

Mas primeiro, vamos formular uma definição "auxiliar":

Definição. Uma matriz degenerada é uma matriz quadrada de tamanho $\left[ n\times n \right]$ cujo determinante é zero.

Assim, podemos afirmar que qualquer matriz invertível é não degenerada.

Como encontrar a matriz inversa

Agora vamos considerar um algoritmo universal para encontrar matrizes inversas. Em geral, existem dois algoritmos geralmente aceitos e também consideraremos o segundo hoje.

A que será considerada agora é muito eficiente para matrizes de tamanho $\left[ 2\times 2 \right]$ e - em parte - de tamanho $\left[ 3\times 3 \right]$. Mas partindo do tamanho $\left[ 4\times 4 \right]$ é melhor não usar. Por que - agora você entenderá tudo.

adições algébricas

Prepare-se. Agora haverá dor. Não, não se preocupe: uma linda enfermeira de saia, meias com renda não vem até você e não vai te dar uma injeção na nádega. Tudo é muito mais prosaico: adições algébricas e Sua Majestade a "Union Matrix" estão chegando até você.

Vamos começar com o principal. Seja uma matriz quadrada de tamanho $A=\left[ n\times n \right]$ cujos elementos são nomeados $((a)_(ij))$. Então, para cada um desses elementos, pode-se definir um complemento algébrico:

Definição. Complemento algébrico $((A)_(ij))$ ao elemento $((a)_(ij))$ na $i$-ésima linha e $j$-ésima coluna da matriz $A=\left [ n \times n \right]$ é uma construção da forma

\[((A)_(ij))=((\left(-1 \right))^(i+j))\cdot M_(ij)^(*)\]

Onde $M_(ij)^(*)$ é o determinante da matriz obtido do $A$ original deletando a mesma $i$-ésima linha e $j$-ésima coluna.

Novamente. O complemento algébrico para o elemento da matriz com coordenadas $\left(i;j \right)$ é denotado como $((A)_(ij))$ e é calculado de acordo com o esquema:

  1. Primeiro, excluímos a $i$-linha e a $j$-ésima coluna da matriz original. Obtemos uma nova matriz quadrada e denotamos seu determinante como $M_(ij)^(*)$.
  2. Em seguida, multiplicamos esse determinante por $((\left(-1 \right))^(i+j))$ - a princípio essa expressão pode parecer alucinante, mas na verdade apenas descobrimos o sinal na frente de $ M_(ij)^(*) $.
  3. Contamos - obtemos um número específico. Aqueles. a adição algébrica é apenas um número, não uma nova matriz, e assim por diante.

A própria matriz $M_(ij)^(*)$ é chamada de menor complementar ao elemento $((a)_(ij))$. E, nesse sentido, a definição acima de um complemento algébrico é um caso especial de uma definição complexa- o que consideramos na lição sobre o determinante.

Nota importante. Na verdade, na matemática "adulta", as adições algébricas são definidas da seguinte forma:

  1. Tomamos $k$ linhas e $k$ colunas em uma matriz quadrada. Em sua interseção, obtemos uma matriz de tamanho $\left[ k\times k \right]$ — seu determinante é chamado de menor de ordem $k$ e é denotado por $((M)_(k))$.
  2. Em seguida, riscamos essas linhas $k$ "selecionadas" e colunas $k$. Novamente, obtemos uma matriz quadrada - seu determinante é chamado de menor complementar e é denotado por $M_(k)^(*)$.
  3. Multiplique $M_(k)^(*)$ por $((\left(-1 \right))^(t))$, onde $t$ é (atenção agora!) a soma dos números de todas as linhas selecionadas e colunas. Esta será a adição algébrica.

Dê uma olhada na terceira etapa: na verdade, há uma soma de $ 2k $ termos! Outra coisa é que para $k=1$ obtemos apenas 2 termos - estes serão os mesmos $i+j$ - as "coordenadas" do elemento $((a)_(ij))$, para as quais estamos procurando um complemento algébrico.

Portanto, hoje usamos uma definição ligeiramente simplificada. Mas, como veremos mais adiante, será mais do que suficiente. Muito mais importante é o seguinte:

Definição. A matriz de união $S$ à matriz quadrada $A=\left[ n\times n \right]$ é uma nova matriz de tamanho $\left[ n\times n \right]$, que é obtida de $A$ substituindo $(( a)_(ij))$ por complementos algébricos $((A)_(ij))$:

\\Seta direita S=\esquerda[ \begin(matriz) ((A)_(11)) & ((A)_(12)) & ... & ((A)_(1n)) \\ (( A)_(21)) & ((A)_(22)) & ... & ((A)_(2n)) \\ ... & ... & ... & ... \\ ((A)_(n1)) & ((A)_(n2)) & ... & ((A)_(nn)) \\\end(matriz) \right]\]

O primeiro pensamento que surge no momento de perceber essa definição é “isso é quanto você tem que contar no total!” Relaxa: tem que contar, mas nem tanto. :)

Bem, tudo isso é muito bom, mas por que é necessário? Mas por que.

teorema principal

Vamos voltar um pouco. Lembre-se, o Lema 3 afirmou que uma matriz invertível $A$ é sempre não singular (ou seja, seu determinante é diferente de zero: $\left| A \right|\ne 0$).

Então, a recíproca também é verdadeira: se a matriz $A$ não é degenerada, então ela é sempre invertível. E existe até um esquema de busca $((A)^(-1))$. Confira:

Teorema da matriz inversa. Seja uma matriz quadrada $A=\left[ n\times n \right]$ e seu determinante diferente de zero: $\left| A \right|\ne 0$. Então a matriz inversa $((A)^(-1))$ existe e é calculada pela fórmula:

\[((A)^(-1))=\frac(1)(\esquerda| A \direita|)\cdot ((S)^(T))\]

E agora - tudo igual, mas com caligrafia legível. Para encontrar a matriz inversa, você precisa:

  1. Calcule o determinante $\left| A \right|$ e verifique se é diferente de zero.
  2. Compile a matriz de união $S$, ou seja, conte 100500 adições algébricas $((A)_(ij))$ e coloque-as no lugar $((a)_(ij))$.
  3. Transponha esta matriz $S$ e então multiplique-a por algum número $q=(1)/(\left| A \right|)\;$.

E é isso! A matriz inversa $((A)^(-1))$ é encontrada. Vejamos exemplos:

\[\left[ \begin(matrix) 3 & 1 \\ 5 & 2 \\\end(matrix) \right]\]

Solução. Vamos verificar a reversibilidade. Vamos calcular o determinante:

\[\esquerda| A \direita|=\esquerda| \begin(matriz) 3 & 1 \\ 5 & 2 \\\end(matriz) \right|=3\cdot 2-1\cdot 5=6-5=1\]

O determinante é diferente de zero. Então a matriz é invertível. Vamos criar uma matriz de união:

Vamos calcular as adições algébricas:

\[\begin(align) & ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| 2\direita|=2; \\ & ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| 5\direita|=-5; \\ & ((A)_(21))=((\left(-1 \right))^(2+1))\cdot \left| 1 \right|=-1; \\ & ((A)_(22))=((\left(-1 \right))^(2+2))\cdot \left| 3\direita|=3. \\ \end(align)\]

Preste atenção: determinantes |2|, |5|, |1| e |3| são os determinantes de matrizes de tamanho $\left[ 1\times 1 \right]$, não módulos. Aqueles. se houver números negativos nos determinantes, não é necessário remover o "menos".

No total, nossa matriz de união fica assim:

\[((A)^(-1))=\frac(1)(\esquerda| A \direita|)\cdot ((S)^(T))=\frac(1)(1)\cdot ( (\left[ \begin(array)(*(35)(r)) 2 & -5 \\ -1 & 3 \\\end(array) \right])^(T))=\left[ \begin (array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]\]

OK está tudo acabado Agora. Problema resolvido.

Responda. $\left[ \begin(array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]$

Uma tarefa. Encontre a matriz inversa:

\[\left[ \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right] \]

Solução. Novamente, consideramos o determinante:

\[\begin(align) & \left| \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right|=\begin(matriz ) \left(1\cdot 2\cdot 1+\left(-1 \right)\cdot \left(-1 \right)\cdot 1+2\cdot 0\cdot 0 \right)- \\ -\left (2\cdot 2\cdot 1+\left(-1 \right)\cdot 0\cdot 1+1\cdot \left(-1 \right)\cdot 0 \right) \\\end(matrix)= \ \ & =\left(2+1+0 \right)-\left(4+0+0 \right)=-1\ne 0. \\ \end(align)\]

O determinante é diferente de zero — a matriz é invertível. Mas agora vai ser o mais minúsculo: você tem que contar até 9 (nove, caramba!) Adições algébricas. E cada um deles conterá o qualificador $\left[ 2\times 2 \right]$. Voou:

\[\begin(matriz) ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| \begin(matriz) 2 & -1 \\ 0 & 1 \\\end(matriz) \right|=2; \\ ((A)_(12))=((\left(-1 \right))^(1+2))\cdot \left| \begin(matriz) 0 & -1 \\ 1 & 1 \\\end(matriz) \right|=-1; \\ ((A)_(13))=((\left(-1 \right))^(1+3))\cdot \left| \begin(matriz) 0 & 2 \\ 1 & 0 \\\end(matriz) \right|=-2; \\ ... \\ ((A)_(33))=((\left(-1 \right))^(3+3))\cdot \left| \begin(matriz) 1 & -1 \\ 0 & 2 \\\end(matriz) \right|=2; \\ \end(matriz)\]

Resumindo, a matriz de união ficará assim:

Portanto, a matriz inversa será:

\[((A)^(-1))=\frac(1)(-1)\cdot \left[ \begin(matriz) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 & 1 & 2 \\\end(matriz) \right]=\left[ \begin(array)(*(35)(r))-2 & -1 & 3 \\ 1 & 1 & -1 \ \ 2 & 1 & -2 \\\end(array) \right]\]

Bom, isso é tudo. Aqui está a resposta.

Responda. $\left[ \begin(array)(*(35)(r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\end(array) \right ]$

Como você pode ver, ao final de cada exemplo, realizamos uma verificação. A este respeito, uma nota importante:

Não tenha preguiça de conferir. Multiplique a matriz original pela inversa encontrada - você deve obter $E$.

É muito mais fácil e rápido realizar essa verificação do que procurar um erro em cálculos posteriores, quando, por exemplo, você resolve uma equação matricial.

Caminho alternativo

Como eu disse, o teorema da matriz inversa funciona bem para os tamanhos $\left[ 2\times 2 \right]$ e $\left[ 3\times 3 \right]$ (no último caso, não é tão "bonito" mais). ”), mas para matrizes tamanhos grandes a tristeza começa.

Mas não se preocupe: existe um algoritmo alternativo que pode ser usado para encontrar calmamente o inverso mesmo para a matriz $\left[ 10\times 10 \right]$. Mas, como costuma acontecer, para considerar esse algoritmo, precisamos de um pouco de conhecimento teórico.

transformações elementares

Entre as várias transformações da matriz, existem várias especiais - são chamadas de elementares. Existem exatamente três dessas transformações:

  1. Multiplicação. Você pode pegar a $i$-ésima linha (coluna) e multiplicá-la por qualquer número $k\ne 0$;
  2. Adição. Adicione à $i$-ésima linha (coluna) qualquer outra $j$-ésima linha (coluna) multiplicada por qualquer número $k\ne 0$ (claro, $k=0$ também é possível, mas qual é o ponto disso? ?Nada vai mudar).
  3. Permutação. Pegue as $i$-ésimas e $j$-ésimas linhas (colunas) e troque-as.

Por que essas transformações são chamadas de elementares (para grandes matrizes elas não parecem tão elementares) e por que existem apenas três delas - essas questões estão além do escopo da lição de hoje. Portanto, não entraremos em detalhes.

Outra coisa importante: temos que realizar todas essas perversões na matriz associada. Sim, sim, você ouviu direito. Agora haverá mais uma definição - a última da lição de hoje.

Matriz anexada

Certamente na escola você resolveu sistemas de equações usando o método da adição. Bem, subtraia outro de uma linha, multiplique alguma linha por um número - isso é tudo.

Então: agora vai ficar tudo igual, mas já “de forma adulta”. Preparar?

Definição. Seja dada a matriz $A=\left[ n\times n \right]$ e matriz de identidade$E$ é do mesmo tamanho que $n$. Então a matriz associada $\left[ A\left| E\certo. \right]$ é uma nova matriz $\left[ n\times 2n \right]$ que se parece com isto:

\[\esquerda[ A\esquerda| E\certo. \right]=\left[ \begin(array)(rrrr|rrrr)((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) & 1 & 0 & ... & 0 \\((a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) & 0 & 1 & ... & 0 \\... & ... & ... & ... & ... & ... & ... & ... \\((a)_(n1)) & ((a)_(n2)) & ... & ((a)_(nn)) & 0 & 0 & ... & 1 \\\end(array) \right]\]

Resumindo, pegamos a matriz $A$, à direita atribuímos a ela a matriz identidade $E$ do tamanho necessário, separamos com uma barra vertical para beleza - aqui está a anexa. :)

Qual é o problema? E aqui está o que:

Teorema. Seja a matriz $A$ invertível. Considere a matriz adjunta $\left[ A\left| E\certo. \certo]$. Se estiver usando transformações elementares de strings trazê-lo para a forma $\left[ E\left| Brilhante. \right]$, ou seja multiplicando, subtraindo e rearranjando linhas para obter de $A$ a matriz $E$ à direita, então a matriz $B$ obtida à esquerda é o inverso de $A$:

\[\esquerda[ A\esquerda| E\certo. \direita]\para \esquerda[ E\esquerda| Brilhante. \right]\Rightarrow B=((A)^(-1))\]

É simples assim! Resumindo, o algoritmo para encontrar a matriz inversa se parece com isso:

  1. Escreva a matriz associada $\left[ A\left| E\certo. \direita]$;
  2. Realize conversões elementares de strings até que apareça $E$ à direita em vez de $A$;
  3. Claro, algo também aparecerá à esquerda - uma certa matriz $B$. Este será o inverso;
  4. LUCROS! :)

Claro, muito mais fácil dizer do que fazer. Vejamos alguns exemplos: para os tamanhos $\left[ 3\times 3 \right]$ e $\left[ 4\times 4 \right]$.

Uma tarefa. Encontre a matriz inversa:

\[\left[ \begin(array)(*(35)(r)) 1 & 5 & 1 \\ 3 & 2 & 1 \\ 6 & -2 & 1 \\\end(array) \right]\ ]

Solução. Compomos a matriz em anexo:

\[\left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & -2 & 1 & 0 & 0 & 1 \\\end(array) \right]\]

Como a última coluna da matriz original é preenchida com uns, subtraia a primeira linha do restante:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & - 2 & 1 & 0 & 0 & 1 \\\end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\\end(matrix)\to \\ & \to \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Não há mais unidades, exceto a primeira linha. Mas não o tocamos, caso contrário, as unidades recém-removidas começarão a "se multiplicar" na terceira coluna.

Mas podemos subtrair a segunda linha duas vezes da última - obtemos uma unidade no canto inferior esquerdo:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right]\begin(matrix) \ \\ \downarrow \\ -2 \\\end(matrix)\to \\ & \left [ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Agora podemos subtrair a última linha da primeira e duas vezes da segunda - desta forma iremos “zerar” a primeira coluna:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -1 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \ para \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Multiplique a segunda linha por -1 e depois subtraia 6 vezes da primeira e adicione 1 vez à última:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\end(matriz) \right]\begin(matriz) \ \\ \left| \cdot \left(-1 \right) \right. \\ \ \\\end(matriz)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -6 \\ \updownarrow \\ +1 \\\end (matriz)\para \\ & \para \left[ \begin(array)(rrr|rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & 0 & 0 & 4 & -7 & 3 \\\end(array) \right] \\ \end(align)\]

Resta apenas trocar as linhas 1 e 3:

\[\left[ \begin(array)(rrr|rrr) 1 & 0 & 0 & 4 & -7 & 3 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 0 & 0 & 1 & - 18 & 32 & -13 \\\end(array) \right]\]

Preparar! À direita está a matriz inversa necessária.

Responda. $\left[ \begin(array)(*(35)(r))4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\end(array) \right ]$

Uma tarefa. Encontre a matriz inversa:

\[\left[ \begin(matriz) 1 & 4 & 2 & 3 \\ 1 & -2 & 1 & -2 \\ 1 & -1 & 1 & 1 \\ 0 & -10 & -2 & -5 \\\end(matriz) \direita]\]

Solução. Novamente compomos o anexo:

\[\left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\]

Vamos pegar um pouco emprestado, nos preocupar com o quanto temos que contar agora... e começar a contar. Para começar, “zeramos” a primeira coluna subtraindo a linha 1 das linhas 2 e 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \\ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\begin(matriz) \downarrow \\ -1 \\ -1 \\ \ \\\end(matriz)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 e 2 e 3 e 1 e 0 e 0 e 0 \\ 0 e -6 e -1 e -5 e -1 e 1 e 0 e 0 \\ 0 e -5 e -1 e -2 e -1 e 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Observamos muitos "menos" nas linhas 2-4. Multiplique todas as três linhas por -1 e, em seguida, queime a terceira coluna subtraindo a linha 3 do restante:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & - 1 e 1 e 0 e 0 \\ 0 e -5 e -1 e -2 e -1 e 0 e 1 e 0 \\ 0 e -10 e -2 e -5 e 0 e 0 e 0 e 1 \\ \end(array) \right]\begin(matrix) \ \\ \left| \cdot \left(-1 \right) \right. \\ \esquerda| \cdot \left(-1 \right) \right. \\ \esquerda| \cdot \left(-1 \right) \right. \\\end(matriz)\para \\ & \para \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & 6 & 1 & 5 e 1 e -1 e 0 e 0 \\ 0 e 5 e 1 e 2 e 1 e 0 e -1 e 0 \\ 0 e 10 e 2 e 5 e 0 e 0 e 0 e -1 \\ \end (array) \right]\begin(matrix) -2 \\ -1 \\ \updownarrow \\ -2 \\\end(matrix)\to \\ & \to \left[ \begin(array)( rrrr| rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Agora é hora de "fritar" a última coluna da matriz original: subtraia a linha 4 do resto:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array ) \right]\begin(matrix) +1 \\ -3 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 e -6 e 0 e 0 e -3 e 0 e 4 e -1 \\ 0 e 1 e 0 e 0 e 6 e -1 e -5 e 3 \\ 0 e 5 e 1 e 0 e 5 e 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Lançamento final: "queime" a segunda coluna subtraindo a linha 2 da linha 1 e 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end( array) \right]\begin(matrix) 6 \\ \updownarrow \\ -5 \\ \ \\\end(matrix)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

E novamente, a matriz identidade à esquerda, então a inversa à direita. :)

Responda. $\left[ \begin(matriz) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\end(matriz) \right]$

Uma matriz inversa para um dado é tal matriz, a multiplicação do original pelo qual dá uma matriz identidade: Uma condição obrigatória e suficiente para a presença de uma matriz inversa é a desigualdade do determinante do original (que por sua vez implica que a matriz deve ser quadrada). Se o determinante de uma matriz for igual a zero, então ela é chamada de degenerada e tal matriz não possui inversa. NO matemática superior matrizes inversas têm importância e são usados ​​para resolver uma série de problemas. Por exemplo, em encontrando a matriz inversa um método matricial para resolver sistemas de equações é construído. Nosso site de serviço permite calcular matriz inversa online dois métodos: o método de Gauss-Jordan e usando a matriz de adições algébricas. A primeira implica um grande número de transformações elementares dentro da matriz, a segunda - o cálculo das adições determinantes e algébricas a todos os elementos. Para calcular o determinante de uma matriz online, você pode usar nosso outro serviço - Calcular o determinante de uma matriz online

.

Encontre a matriz inversa no site

local na rede Internet permite que você encontre matriz inversa online rápido e gratuito. No site, os cálculos são feitos pelo nosso serviço e o resultado é exibido com solução detalhada Por localização matriz inversa. O servidor sempre dá apenas a resposta exata e correta. Em tarefas por definição matriz inversa online, é necessário que o determinante matrizes foi diferente de zero, caso contrário local na rede Internet relatará a impossibilidade de encontrar a matriz inversa devido ao fato do determinante da matriz original ser igual a zero. Encontrar tarefa matriz inversa encontrado em muitos ramos da matemática, sendo um dos conceitos mais básicos da álgebra e uma ferramenta matemática em problemas aplicados. Independente definição de matriz inversa requer muito esforço, muito tempo, cálculos e muito cuidado para não cometer um deslize ou um pequeno erro nos cálculos. Portanto, nosso serviço encontrando a matriz inversa online facilitará muito sua tarefa e se tornará uma ferramenta indispensável para resolver problemas matemáticos. Mesmo se você encontrar matriz inversa você mesmo, recomendamos verificar sua solução em nosso servidor. Insira sua matriz original em nosso Calculate Inverse Matrix Online e verifique sua resposta. Nosso sistema nunca está errado e encontra matriz inversa dada dimensão no modo conectados imediatamente! No site local na rede Internet entradas de caracteres são permitidas em elementos matrizes, nesse caso matriz inversa online será apresentado em forma simbólica geral.

Métodos para encontrar a matriz inversa, . Considere uma matriz quadrada

Denote Δ = det A.

A matriz quadrada A é chamada não degenerado, ou não especial se seu determinante for diferente de zero, e degenerar, ou especial, E seΔ = 0.

Uma matriz quadrada B existe para uma matriz quadrada A de mesma ordem se seu produto A B = B A = E, onde E é a matriz identidade de mesma ordem que as matrizes A e B.

Teorema . Para que a matriz A tenha uma matriz inversa, é necessário e suficiente que seu determinante seja diferente de zero.

Matriz inversa à matriz A, denotada por A- 1 então B = A - 1 e é calculado pela fórmula

, (1)

onde À i j - complementos algébricos dos elementos a i j da matriz A..

Calcular A -1 pela fórmula (1) para matrizes de alta ordem é muito trabalhoso, então na prática é conveniente encontrar A -1 usando o método das transformações elementares (EP). Qualquer matriz não singular A pode ser reduzida pelo EP de apenas colunas (ou apenas linhas) à matriz identidade E. Se os EPs executados na matriz A forem aplicados na mesma ordem à matriz identidade E, então o resultado é uma matriz inversa. É conveniente realizar um EP nas matrizes A e E simultaneamente, escrevendo ambas as matrizes lado a lado na linha. Notamos mais uma vez que ao buscar a forma canônica de uma matriz, para encontrá-la, pode-se utilizar transformações de linhas e colunas. Se você precisar encontrar a matriz inversa, deverá usar apenas linhas ou apenas colunas no processo de transformação.

Exemplo 2.10. para matriz encontre A -1 .

Solução.Primeiro encontramos o determinante da matriz A
então a matriz inversa existe e podemos encontrá-la pela fórmula: , onde A i j (i,j=1,2,3) - complementos algébricos dos elementos a i j da matriz original.

Onde .

Exemplo 2.11. Usando o método das transformações elementares, encontre A -1 para a matriz: A=.

Solução.Atribuímos uma matriz identidade da mesma ordem à matriz original à direita: . Com a ajuda de transformações elementares de colunas, reduzimos a “metade” esquerda à identidade, realizando simultaneamente exatamente essas transformações na matriz direita.
Para fazer isso, troque a primeira e a segunda colunas:
~ . Adicionamos a primeira à terceira coluna e a primeira multiplicada por -2 à segunda: . Da primeira coluna subtraímos o segundo dobrado e do terceiro - o segundo multiplicado por 6; . Vamos adicionar a terceira coluna à primeira e à segunda: . Multiplique a última coluna por -1: . A matriz quadrada obtida à direita da barra vertical é a matriz inversa à matriz dada A. Portanto,
.

Definição 1: Uma matriz é dita degenerada se seu determinante é zero.

Definição 2: Uma matriz é dita não singular se seu determinante não for igual a zero.

A matriz "A" é chamada matriz inversa, se a condição A*A-1 = A-1 *A = E (matriz identidade) for satisfeita.

Uma matriz quadrada é invertível apenas se for não singular.

Esquema para calcular a matriz inversa:

1) Calcule o determinante da matriz "A" se A = 0, então a matriz inversa não existe.

2) Encontre todos os complementos algébricos da matriz "A".

3) Compor uma matriz de adições algébricas (Aij )

4) Transponha a matriz de complementos algébricos (Aij )T

5) Multiplique a matriz transposta pelo recíproco do determinante desta matriz.

6) Execute uma verificação:

À primeira vista pode parecer difícil, mas na verdade tudo é muito simples. Todas as soluções são baseadas em operações aritméticas simples, o principal na hora de resolver é não se confundir com os sinais "-" e "+", e não perdê-los.

E agora vamos resolver uma tarefa prática junto com você calculando a matriz inversa.

Tarefa: encontre a matriz inversa "A", mostrada na figura abaixo:

Resolvemos tudo exatamente como indicado no plano de cálculo da matriz inversa.

1. A primeira coisa a fazer é encontrar o determinante da matriz "A":

Explicação:

Simplificamos nosso determinante usando suas funções principais. Primeiro, adicionamos à 2ª e 3ª linha os elementos da primeira linha, multiplicados por um número.

Em segundo lugar, alteramos a 2ª e 3ª colunas do determinante e, de acordo com suas propriedades, alteramos o sinal na frente dele.

Em terceiro lugar, retiramos o fator comum (-1) da segunda linha, mudando assim o sinal novamente, e ele se tornou positivo. Também simplificamos a linha 3 da mesma forma que no início do exemplo.

Temos um determinante triangular, em que os elementos abaixo da diagonal são iguais a zero, e pela propriedade 7 é igual ao produto dos elementos da diagonal. Como resultado, obtivemos A = 26, portanto, a matriz inversa existe.

A11 = 1*(3+1) = 4

A12 \u003d -1 * (9 + 2) \u003d -11

A13 = 1*1 = 1

A21 = -1*(-6) = 6

A22 = 1*(3-0) = 3

A23 = -1*(1+4) = -5

A31 = 1*2 = 2

A32 = -1*(-1) = -1

A33 = 1+(1+6) = 7

3. O próximo passo é compilar uma matriz das adições resultantes:

5. Multiplicamos esta matriz pelo recíproco do determinante, ou seja, por 1/26:

6. Bem, agora só falta verificar:

Durante a verificação, recebemos uma matriz de identidade, portanto, a decisão foi tomada de forma absolutamente correta.

2 maneiras de calcular a matriz inversa.

1. Transformação elementar de matrizes

2. Matriz inversa através de um conversor elementar.

A transformação de matriz elementar inclui:

1. Multiplicando uma string por um número diferente de zero.

2. Somando a qualquer linha de outra linha, multiplicado por um número.

3. Trocando as linhas da matriz.

4. Aplicando uma cadeia de transformações elementares, obtemos outra matriz.

MAS -1 = ?

1. (A|E) ~ (E|A -1 )

2. Um -1*A=E

Considere isso exemplo prático com números reais.

Exercício: Encontre a matriz inversa.

Solução:

Vamos checar:

Um pequeno esclarecimento sobre a solução:

Primeiro trocamos as linhas 1 e 2 da matriz, depois multiplicamos a primeira linha por (-1).

Depois disso, a primeira linha foi multiplicada por (-2) e somada à segunda linha da matriz. Em seguida, multiplicamos a 2ª linha por 1/4.

O estágio final da transformação foi a multiplicação da segunda linha por 2 e a adição da primeira. Como resultado, temos uma matriz identidade à esquerda, portanto, a matriz inversa é a matriz à direita.

Após a verificação, ficamos convencidos do acerto da decisão.

Como você pode ver, calcular a matriz inversa é muito simples.

Ao concluir esta palestra, também gostaria de dedicar algum tempo às propriedades de tal matriz.