Qual matriz é chamada de inversa?  Encontrando a matriz inversa

Qual matriz é chamada de inversa? Encontrando a matriz inversa

Para qualquer matriz não singular A existe uma matriz única A -1 tal que

A*A -1 =A -1 *A = E,

onde E é a matriz identidade das mesmas ordens de A. A matriz A -1 é chamada de inversa da matriz A.

Caso alguém tenha esquecido, na matriz identidade, exceto a diagonal preenchida com uns, todas as outras posições são preenchidas com zeros, um exemplo de matriz identidade:

Encontrando a matriz inversa usando o método da matriz adjunta

matriz inversaé determinado pela fórmula:

onde A ij - elementos a ij.

Aqueles. Para calcular a matriz inversa, você precisa calcular o determinante desta matriz. Em seguida, encontre os complementos algébricos para todos os seus elementos e componha uma nova matriz a partir deles. Em seguida você precisa transportar esta matriz. E divida cada elemento da nova matriz pelo determinante da matriz original.

Vejamos alguns exemplos.

Encontre A -1 para uma matriz

Solução. Vamos encontrar A -1 usando o método da matriz adjunta. Temos det A = 2. Vamos encontrar os complementos algébricos dos elementos da matriz A. Em nesse caso os complementos algébricos dos elementos da matriz serão os elementos correspondentes da própria matriz, tomados com um sinal de acordo com a fórmula

Temos A 11 = 3, A 12 = -4, A 21 = -1, A 22 = 2. Formamos a matriz adjunta

Transportamos a matriz A*:

Encontramos a matriz inversa usando a fórmula:

Nós temos:

Usando o método da matriz adjunta, encontre A -1 se

Solução Primeiramente calculamos a definição desta matriz para verificar a existência da matriz inversa. Nós temos

Aqui adicionamos aos elementos da segunda linha os elementos da terceira linha, previamente multiplicados por (-1), e depois expandimos o determinante para a segunda linha. Como a definição desta matriz é diferente de zero, existe sua matriz inversa. Para construir a matriz adjunta, encontramos os complementos algébricos dos elementos desta matriz. Nós temos

De acordo com a fórmula

matriz de transporte A*:

Então de acordo com a fórmula

Encontrando a matriz inversa usando o método das transformações elementares

Além do método para encontrar a matriz inversa, que segue da fórmula (método da matriz adjunta), existe um método para encontrar a matriz inversa, chamado método das transformações elementares.

Transformações de matriz elementar

As seguintes transformações são chamadas de transformações de matriz elementar:

1) reorganização de linhas (colunas);

2) multiplicar uma linha (coluna) por um número diferente de zero;

3) somar aos elementos de uma linha (coluna) os elementos correspondentes de outra linha (coluna), previamente multiplicados por um determinado número.

Para encontrar a matriz A -1, construímos uma matriz retangular B = (A|E) de ordens (n; 2n), somando à matriz A à direita matriz de identidade E através da linha divisória:

Vejamos um exemplo.

Usando o método das transformações elementares, encontre A -1 se

Solução. Formamos a matriz B:

Vamos denotar as linhas da matriz B por α 1, α 2, α 3. Vamos realizar as seguintes transformações nas linhas da matriz B.

Este tema é um dos mais odiados entre os estudantes. Pior, provavelmente, são as eliminatórias.

O truque é que o próprio conceito de elemento inverso (e não estou falando apenas de matrizes agora) nos remete à operação de multiplicação. Mesmo em currículo escolar contagens de multiplicação operação complexa, e a multiplicação de matrizes é um tópico totalmente separado, ao qual tenho um parágrafo inteiro e um tutorial em vídeo dedicados.

Hoje não entraremos em detalhes dos cálculos matriciais. Vamos apenas lembrar: como as matrizes são designadas, como são multiplicadas e o que se segue disso.

Revisão: Multiplicação de Matrizes

Em primeiro lugar, vamos concordar com a notação. Uma matriz $A$ de tamanho $\left[ m\times n \right]$ é simplesmente uma tabela de números com exatamente $m$ linhas e $n$ colunas:

\=\underbrace(\left[ \begin(matriz) ((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) \\ (( a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) \\ ... & ... & ... & ... \\ ((a)_(m1)) & ((a)_(m2)) & ... & ((a)_(mn)) \\\end(matriz) \right])_(n)\]

Para evitar misturar acidentalmente linhas e colunas (acredite, em uma prova você pode confundir um com um dois, quanto mais algumas linhas), basta olhar a imagem:

Determinando índices para células de matriz

O que está acontecendo? Se você colocar o sistema de coordenadas padrão $OXY$ no canto superior esquerdo e direcionar os eixos para que cubram toda a matriz, então cada célula desta matriz pode ser associada exclusivamente às coordenadas $\left(x;y \right)$ - este será o número da linha e o número da coluna.

Por que o sistema de coordenadas está colocado no canto superior esquerdo? Sim, porque é a partir daí que começamos a ler quaisquer textos. É muito fácil de lembrar.

Por que o eixo $x$ está direcionado para baixo e não para a direita? Novamente, é simples: pegue um sistema de coordenadas padrão (o eixo $x$ vai para a direita, o eixo $y$ vai para cima) e gire-o para que cubra a matriz. Esta é uma rotação de 90 graus no sentido horário - vemos o resultado na imagem.

Em geral, descobrimos como determinar os índices dos elementos da matriz. Agora vamos dar uma olhada na multiplicação.

Definição. As matrizes $A=\left[ m\times n \right]$ e $B=\left[ n\times k \right]$, quando o número de colunas da primeira coincide com o número de linhas da segunda, são chamado de consistente.

Exatamente nessa ordem. Pode-se ficar confuso e dizer que as matrizes $A$ e $B$ formam um par ordenado $\left(A;B \right)$: se elas são consistentes nesta ordem, então não é de todo necessário que $B $ e $A$ aqueles. o par $\left(B;A \right)$ também é consistente.

Somente matrizes correspondentes podem ser multiplicadas.

Definição. O produto das matrizes correspondentes $A=\left[ m\times n \right]$ e $B=\left[ n\times k \right]$ é a nova matriz $C=\left[ m\times k \right ]$ , cujos elementos $((c)_(ij))$ são calculados de acordo com a fórmula:

\[((c)_(ij))=\soma\limites_(k=1)^(n)(((a)_(ik)))\cdot ((b)_(kj))\]

Em outras palavras: para obter o elemento $((c)_(ij))$ da matriz $C=A\cdot B$, você precisa pegar a linha $i$ da primeira matriz, a $j$ -ésima coluna da segunda matriz e, em seguida, multiplique em pares os elementos desta linha e coluna. Some os resultados.

Sim, essa é uma definição muito dura. Vários fatos decorrem imediatamente disso:

  1. A multiplicação de matrizes, em geral, é não comutativa: $A\cdot B\ne B\cdot A$;
  2. No entanto, a multiplicação é associativa: $\left(A\cdot B \right)\cdot C=A\cdot \left(B\cdot C \right)$;
  3. E mesmo distributivamente: $\left(A+B \right)\cdot C=A\cdot C+B\cdot C$;
  4. E mais uma vez distributivamente: $A\cdot \left(B+C \right)=A\cdot B+A\cdot C$.

A distributividade da multiplicação teve que ser descrita separadamente para os fatores de soma esquerdo e direito precisamente por causa da não comutatividade da operação de multiplicação.

Se acontecer que $A\cdot B=B\cdot A$, tais matrizes são chamadas comutativas.

Entre todas as matrizes que são multiplicadas por algo ali, existem algumas especiais - aquelas que, quando multiplicadas por qualquer matriz $A$, novamente dão $A$:

Definição. Uma matriz $E$ é chamada identidade se $A\cdot E=A$ ou $E\cdot A=A$. No caso de uma matriz quadrada $A$ podemos escrever:

A matriz identidade é uma convidada frequente na resolução equações matriciais. E em geral, um convidado frequente no mundo das matrizes :).

E por causa desse $E$, alguém inventou todas as bobagens que serão escritas a seguir.

O que é uma matriz inversa

Como a multiplicação de matrizes é uma operação muito trabalhosa (é preciso multiplicar um monte de linhas e colunas), o conceito de matriz inversa também não é o mais trivial. E exigindo alguma explicação.

Definição-chave

Bem, é hora de saber a verdade.

Definição. Uma matriz $B$ é chamada de inversa de uma matriz $A$ se

A matriz inversa é denotada por $((A)^(-1))$ (não deve ser confundida com o grau!), então a definição pode ser reescrita da seguinte forma:

Parece que tudo é extremamente simples e claro. Mas ao analisar esta definição, surgem imediatamente várias questões:

  1. Sempre existe uma matriz inversa? E se nem sempre, então como determinar: quando existe e quando não existe?
  2. E quem disse que existe exatamente uma dessas matrizes? E se para alguma matriz inicial $A$ houver uma multidão de inversas?
  3. Como são todas essas “reversões”? E como, exatamente, devemos contá-los?

Quanto aos algoritmos de cálculo, falaremos sobre isso um pouco mais tarde. Mas responderemos às perguntas restantes agora. Vamos formulá-los na forma de enunciados-lemas separados.

Propriedades básicas

Vamos começar explicando como a matriz $A$ deveria, em princípio, parecer para que $((A)^(-1))$ existisse para ela. Agora vamos ter certeza de que ambas as matrizes devem ser quadradas e do mesmo tamanho: $\left[ n\times n \right]$.

Lema 1. Dada uma matriz $A$ e sua inversa $((A)^(-1))$. Então ambas as matrizes são quadradas e da mesma ordem $n$.

Prova. É simples. Seja a matriz $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ a\times b \right]$. Como o produto $A\cdot ((A)^(-1))=E$ existe por definição, as matrizes $A$ e $((A)^(-1))$ são consistentes na ordem mostrada:

\[\begin(align) & \left[ m\times n \right]\cdot \left[ a\times b \right]=\left[ m\times b \right] \\ & n=a \end( alinhar)\]

Isto é uma consequência direta do algoritmo de multiplicação de matrizes: os coeficientes $n$ e $a$ são “trânsito” e devem ser iguais.

Ao mesmo tempo, a multiplicação inversa também é definida: $((A)^(-1))\cdot A=E$, portanto as matrizes $((A)^(-1))$ e $A$ são também consistente na ordem especificada:

\[\begin(align) & \left[ a\times b \right]\cdot \left[ m\times n \right]=\left[ a\times n \right] \\ & b=m \end( alinhar)\]

Assim, sem perda de generalidade, podemos assumir que $A=\left[ m\times n \right]$, $((A)^(-1))=\left[ n\times m \right]$. No entanto, de acordo com a definição de $A\cdot ((A)^(-1))=((A)^(-1))\cdot A$, portanto os tamanhos das matrizes coincidem estritamente:

\[\begin(align) & \left[ m\times n \right]=\left[ n\times m \right] \\ & m=n \end(align)\]

Acontece que todas as três matrizes - $A$, $((A)^(-1))$ e $E$ - são matrizes quadradas de tamanho $\left[ n\times n \right]$. O lema está provado.

Bem, isso não é ruim. Vemos que apenas matrizes quadradas são invertíveis. Agora vamos ter certeza de que a matriz inversa é sempre a mesma.

Lema 2. Dada uma matriz $A$ e sua inversa $((A)^(-1))$. Então esta matriz inversa é a única.

Prova. Vamos pela contradição: deixe a matriz $A$ ter pelo menos duas inversas - $B$ e $C$. Então, de acordo com a definição, as seguintes igualdades são verdadeiras:

\[\begin(align) & A\cdot B=B\cdot A=E; \\ & A\cponto C=C\cponto A=E. \\ \fim(alinhar)\]

Do Lema 1 concluímos que todas as quatro matrizes - $A$, $B$, $C$ e $E$ - são quadrados da mesma ordem: $\left[ n\times n \right]$. Portanto, o produto é definido:

Como a multiplicação de matrizes é associativa (mas não comutativa!), podemos escrever:

\[\begin(align) & B\cdot A\cdot C=\left(B\cdot A \right)\cdot C=E\cdot C=C; \\ & B\cdot A\cdot C=B\cdot \left(A\cdot C \right)=B\cdot E=B; \\ & B\cponto A\cdot C=C=B\Rightarrow B=C. \\ \fim(alinhar)\]

Temos a única opção possível: duas cópias da matriz inversa são iguais. O lema está provado.

Os argumentos acima repetem quase literalmente a prova da unicidade do elemento inverso para todos numeros reais$b\ne 0$. A única adição significativa é levar em conta a dimensão das matrizes.

No entanto, ainda não sabemos nada sobre se toda matriz quadrada é invertível. É aqui que o determinante vem em nosso auxílio - esta é uma característica fundamental para todos matrizes quadradas.

Lema 3. Dada uma matriz $A$. Se sua matriz inversa $((A)^(-1))$ existe, então o determinante da matriz original é diferente de zero:

\[\esquerda| A\certo|\ne 0\]

Prova. Já sabemos que $A$ e $((A)^(-1))$ são matrizes quadradas de tamanho $\left[ n\times n \right]$. Portanto, para cada um deles podemos calcular o determinante: $\left| A\direita|$ e $\esquerda| ((A)^(-1)) \direito|$. Porém, o determinante de um produto é igual ao produto dos determinantes:

\[\esquerda| A\cponto B \direita|=\esquerda| Um \right|\cdot \left| B \direita|\Rightarrow \esquerda| A\cponto ((A)^(-1)) \direita|=\esquerda| Um \right|\cdot \left| ((A)^(-1)) \certo|\]

Mas de acordo com a definição, $A\cdot ((A)^(-1))=E$, e o determinante de $E$ é sempre igual a 1, então

\[\begin(align) & A\cdot ((A)^(-1))=E; \\ & \esquerda| A\cponto ((A)^(-1)) \direita|=\esquerda| E\certo|; \\ & \esquerda| Um \right|\cdot \left| ((A)^(-1)) \direito|=1. \\ \fim(alinhar)\]

O produto de dois números é igual a um somente se cada um desses números for diferente de zero:

\[\esquerda| A \right|\ne 0;\quad \left| ((A)^(-1)) \direito|\ne 0.\]

Acontece que $\left| A \certo|\ne 0$. O lema está provado.

Na verdade, este requisito é bastante lógico. Agora analisaremos o algoritmo para encontrar a matriz inversa - e ficará completamente claro por que, com um determinante zero, em princípio, nenhuma matriz inversa pode existir.

Mas primeiro, vamos formular uma definição “auxiliar”:

Definição. Uma matriz singular é uma matriz quadrada de tamanho $\left[ n\times n \right]$ cujo determinante é zero.

Assim, podemos afirmar que toda matriz invertível é não singular.

Como encontrar o inverso de uma matriz

Agora consideraremos um algoritmo universal para encontrar matrizes inversas. Em geral, existem dois algoritmos geralmente aceitos, e também consideraremos o segundo hoje.

O que será discutido agora é muito eficaz para matrizes de tamanho $\left[ 2\times 2 \right]$ e - parcialmente - tamanho $\left[ 3\times 3 \right]$. Mas a partir do tamanho $\left[ 4\times 4 \right]$ é melhor não usá-lo. Por que - agora você entenderá tudo sozinho.

Adições algébricas

Prepare-se. Agora haverá dor. Não, não se preocupe: uma enfermeira linda de saia, meia com renda não vai chegar até você e dar uma injeção na nádega. Tudo é muito mais prosaico: acréscimos algébricos e Sua Majestade a “Matriz da União” chegam até você.

Vamos começar com o principal. Seja uma matriz quadrada de tamanho $A=\left[ n\times n \right]$, cujos elementos são chamados $((a)_(ij))$. Então, para cada elemento, podemos definir um complemento algébrico:

Definição. Complemento algébrico $((A)_(ij))$ ao elemento $((a)_(ij))$ localizado na $i$ésima linha e $j$ésima coluna da matriz $A=\left[ n \times n \right]$ é uma construção da forma

\[((A)_(ij))=((\esquerda(-1 \direita))^(i+j))\cdot M_(ij)^(*)\]

Onde $M_(ij)^(*)$ é o determinante da matriz obtida do $A$ original excluindo a mesma $i$ésima linha e $j$ésima coluna.

De novo. O complemento algébrico para um elemento da matriz com coordenadas $\left(i;j \right)$ é denotado como $((A)_(ij))$ e é calculado de acordo com o esquema:

  1. Primeiro, excluímos a $i$-linha e $j$-ésima coluna da matriz original. Obtemos uma nova matriz quadrada e denotamos seu determinante como $M_(ij)^(*)$.
  2. Então multiplicamos esse determinante por $((\left(-1 \right))^(i+j))$ - a princípio essa expressão pode parecer alucinante, mas em essência estamos simplesmente descobrindo o sinal na frente de $M_(ij)^(*) $.
  3. Contamos e obtemos um número específico. Aqueles. a adição algébrica é precisamente um número, e não uma nova matriz, etc.

A própria matriz $M_(ij)^(*)$ é chamada de menor adicional ao elemento $((a)_(ij))$. E neste sentido, a definição acima de complemento algébrico é um caso especial de um complemento mais definição complexa- o que vimos na lição sobre o determinante.

Nota importante. Na verdade, na matemática “adulta”, as adições algébricas são definidas da seguinte forma:

  1. Pegamos $k$ linhas e $k$ colunas em uma matriz quadrada. Na sua intersecção obtemos uma matriz de tamanho $\left[ k\times k \right]$ - seu determinante é chamado de menor de ordem $k$ e é denotado $((M)_(k))$.
  2. Em seguida, riscamos essas $k$ linhas e $k$ colunas “selecionadas”. Mais uma vez, você obtém uma matriz quadrada - seu determinante é chamado de menor adicional e é denotado $M_(k)^(*)$.
  3. Multiplique $M_(k)^(*)$ por $((\left(-1 \right))^(t))$, onde $t$ é (atenção agora!) a soma dos números de todas as linhas selecionadas e colunas. Esta será a adição algébrica.

Veja a terceira etapa: na verdade, há uma soma de termos de $2k$! Outra coisa é que para $k=1$ obteremos apenas 2 termos - estes serão os mesmos $i+j$ - as “coordenadas” do elemento $((a)_(ij))$ para o qual estamos procurando um complemento algébrico.

Então hoje estamos usando uma definição um pouco simplificada. Mas, como veremos mais tarde, será mais que suficiente. O seguinte é muito mais importante:

Definição. A matriz aliada $S$ à matriz quadrada $A=\left[ n\times n \right]$ é uma nova matriz de tamanho $\left[ n\times n \right]$, que é obtida de $A$ substituindo $(( a)_(ij))$ por adições algébricas $((A)_(ij))$:

\\Rightarrow S=\left[ \begin(matriz) ((A)_(11)) & ((A)_(12)) & ... & ((A)_(1n)) \\ (( A)_(21)) & ((A)_(22)) & ... & ((A)_(2n)) \\ ... & ... & ... & ... \\ ((A)_(n1)) & ((A)_(n2)) & ... & ((A)_(nn)) \\\end(matriz) \right]\]

O primeiro pensamento que surge no momento de concretizar esta definição é “quanto terá que ser contado!” Relaxe: você terá que contar, mas não tanto :)

Bem, tudo isso é muito bom, mas por que é necessário? Mas por que.

Teorema principal

Vamos voltar um pouco. Lembre-se, o Lema 3 afirmou que uma matriz invertível $A$ é sempre não singular (ou seja, seu determinante é diferente de zero: $\left| A \right|\ne 0$).

Então, o oposto também é verdadeiro: se a matriz $A$ não for singular, então ela é sempre invertível. E existe até um esquema de busca para $((A)^(-1))$. Confira:

Teorema da matriz inversa. Seja dada uma matriz quadrada $A=\left[ n\times n \right]$, e seu determinante é diferente de zero: $\left| A \certo|\ne 0$. Então a matriz inversa $((A)^(-1))$ existe e é calculada pela fórmula:

\[((A)^(-1))=\frac(1)(\esquerda| A \direita|)\cdot ((S)^(T))\]

E agora - tudo é igual, mas com caligrafia legível. Para encontrar a matriz inversa, você precisa:

  1. Calcule o determinante $\left| A \right|$ e certifique-se de que seja diferente de zero.
  2. Construa a matriz de união $S$, ou seja, conte 100500 adições algébricas$((A)_(ij))$ e coloque-os no lugar $((a)_(ij))$.
  3. Transponha esta matriz $S$ e multiplique-a por algum número $q=(1)/(\left| A \right|)\;$.

Isso é tudo! A matriz inversa $((A)^(-1))$ foi encontrada. Vejamos exemplos:

\[\left[ \begin(matriz) 3 & 1 \\ 5 & 2 \\\end(matriz) \right]\]

Solução. Vamos verificar a reversibilidade. Vamos calcular o determinante:

\[\esquerda| A\direita|=\esquerda| \begin(matriz) 3 & 1 \\ 5 & 2 \\\end(matriz) \right|=3\cdot 2-1\cdot 5=6-5=1\]

O determinante é diferente de zero. Isso significa que a matriz é invertível. Vamos criar uma matriz de união:

Vamos calcular as adições algébricas:

\[\begin(align) & ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| 2 \direito|=2; \\ & ((A)_(12))=((\esquerda(-1 \direita))^(1+2))\cdot \esquerda| 5 \direita|=-5; \\ & ((A)_(21))=((\esquerda(-1 \direita))^(2+1))\cdot \esquerda| 1 \direita|=-1; \\ & ((A)_(22))=((\esquerda(-1 \direita))^(2+2))\cdot \esquerda| 3 \certo|=3. \\ \fim(alinhar)\]

Observe: os determinantes |2|, |5|, |1| e |3| são determinantes de matrizes de tamanho $\left[ 1\times 1 \right]$, e não de módulos. Aqueles. Se houvesse números negativos nos determinantes, não há necessidade de retirar o “menos”.

No total, nossa matriz sindical fica assim:

\[((A)^(-1))=\frac(1)(\left| A \right|)\cdot ((S)^(T))=\frac(1)(1)\cdot ( (\left[ \begin(array)(*(35)(r)) 2 & -5 \\ -1 & 3 \\\end(array) \right])^(T))=\left[ \begin (matriz)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]\]

OK, está tudo acabado agora. O problema está resolvido.

Responder. $\left[ \begin(array)(*(35)(r)) 2 & -1 \\ -5 & 3 \\\end(array) \right]$

Tarefa. Encontre a matriz inversa:

\[\left[ \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right] \]

Solução. Calculamos o determinante novamente:

\[\begin(alinhar) & \left| \begin(array)(*(35)(r)) 1 & -1 & 2 \\ 0 & 2 & -1 \\ 1 & 0 & 1 \\\end(array) \right|=\begin(matriz ) \left(1\cdot 2\cdot 1+\left(-1 \right)\cdot \left(-1 \right)\cdot 1+2\cdot 0\cdot 0 \right)- \\ -\left (2\cdot 2\cdot 1+\left(-1 \right)\cdot 0\cdot 1+1\cdot \left(-1 \right)\cdot 0 \right) \\\end(matriz)= \ \ & =\esquerda(2+1+0 \direita)-\esquerda(4+0+0 \direita)=-1\ne 0. \\ \end(align)\]

O determinante é diferente de zero – a matriz é invertível. Mas agora vai ser muito difícil: precisamos de contar até 9 (nove, filho da puta!) adições algébricas. E cada um deles conterá o determinante $\left[ 2\times 2 \right]$. Voou:

\[\begin(matriz) ((A)_(11))=((\left(-1 \right))^(1+1))\cdot \left| \begin(matriz) 2 & -1 \\ 0 & 1 \\\end(matriz) \right|=2; \\ ((A)_(12))=((\esquerda(-1 \direita))^(1+2))\cdot \esquerda| \begin(matriz) 0 & -1 \\ 1 & 1 \\\end(matriz) \right|=-1; \\ ((A)_(13))=((\esquerda(-1 \direita))^(1+3))\cdot \esquerda| \begin(matriz) 0 & 2 \\ 1 & 0 \\\end(matriz) \right|=-2; \\ ... \\ ((A)_(33))=((\esquerda(-1 \direita))^(3+3))\cdot \esquerda| \begin(matriz) 1 & -1 \\ 0 & 2 \\\end(matriz) \right|=2; \\ \fim(matriz)\]

Resumindo, a matriz sindical ficará assim:

Portanto, a matriz inversa será:

\[((A)^(-1))=\frac(1)(-1)\cdot \left[ \begin(matriz) 2 & -1 & -2 \\ 1 & -1 & -1 \\ -3 & 1 & 2 \\\end(matriz) \right]=\left[ \begin(array)(*(35)(r))-2 & -1 & 3 \\ 1 & 1 & -1 \ \2 & 1 & -2 \\\end(array) \right]\]

É isso. Aqui está a resposta.

Responder. $\left[ \begin(array)(*(35)(r)) -2 & -1 & 3 \\ 1 & 1 & -1 \\ 2 & 1 & -2 \\\end(array) \right ]$

Como você pode ver, ao final de cada exemplo realizamos uma verificação. Neste sentido, uma observação importante:

Não tenha preguiça de verificar. Multiplique a matriz original pela matriz inversa encontrada - você deverá obter $E$.

Realizar essa verificação é muito mais fácil e rápido do que procurar erros em cálculos posteriores quando, por exemplo, você está resolvendo uma equação matricial.

Caminho alternativo

Como eu disse, o teorema da matriz inversa funciona muito bem para os tamanhos $\left[ 2\times 2 \right]$ e $\left[ 3\times 3 \right]$ (neste último caso, não é tão “ótimo” " ), mas para matrizes tamanhos grandes a tristeza começa.

Mas não se preocupe: existe um algoritmo alternativo com o qual você pode encontrar com calma o inverso mesmo para a matriz $\left[ 10\times 10 \right]$. Mas, como acontece frequentemente, para considerar este algoritmo precisamos de uma pequena introdução teórica.

Transformações elementares

Entre todas as transformações matriciais possíveis, existem várias especiais - são chamadas de elementares. Existem exatamente três dessas transformações:

  1. Multiplicação. Você pode pegar a $i$ésima linha (coluna) e multiplicá-la por qualquer número $k\ne 0$;
  2. Adição. Adicione à $i$-ésima linha (coluna) qualquer outra $j$-ésima linha (coluna), multiplicada por qualquer número $k\ne 0$ (você pode, é claro, fazer $k=0$, mas o que é o ponto?
  3. Rearranjo. Pegue as $i$ésimas e $j$ésimas linhas (colunas) e troque de lugar.

Por que essas transformações são chamadas de elementares (para matrizes grandes elas não parecem tão elementares) e por que existem apenas três delas - essas questões estão além do escopo da lição de hoje. Portanto, não entraremos em detalhes.

Outra coisa é importante: temos que realizar todas essas perversões na matriz adjunta. Sim, sim: você ouviu direito. Agora haverá mais uma definição - a última da lição de hoje.

Matriz adjunta

Certamente na escola você resolveu sistemas de equações usando o método de adição. Bem, subtraia outra de uma linha, multiplique alguma linha por um número - isso é tudo.

Então: agora tudo será igual, mas de forma “adulta”. Preparar?

Definição. Seja dada uma matriz $A=\left[ n\times n \right]$ e uma matriz identidade $E$ do mesmo tamanho $n$. Então a matriz adjunta $\left[ A\left| Certo. \right]$ é uma nova matriz de tamanho $\left[ n\times 2n \right]$ que se parece com isto:

\[\esquerda[ A\esquerda| Certo. \direita]=\esquerda[ \begin(matriz)(rrrr|rrrr)((a)_(11)) & ((a)_(12)) & ... & ((a)_(1n)) & 1 & 0 & ... & 0 \\((a)_(21)) & ((a)_(22)) & ... & ((a)_(2n)) & 0 & 1 & ... & 0 \\... & ... & ... & ... & ... & ... & ... & ... \\((a)_(n1)) & ((a)_(n2)) & ... & ((a)_(nn)) & 0 & 0 & ... & 1 \\\end(array) \right]\]

Resumindo, pegamos a matriz $A$, à direita atribuímos a ela a matriz identidade $E$ do tamanho desejado, separamos elas com uma barra vertical para beleza - aqui você tem a adjunta :).

Qual é o problema? Aqui está o que:

Teorema. Seja a matriz $A$ invertível. Considere a matriz adjunta $\left[ A\left| Certo. \certo]$. Se estiver usando conversões de string elementares traga-o para o formato $\left[ E\left| Brilhante. \certo]$, ou seja, multiplicando, subtraindo e reorganizando linhas para obter de $A$ a matriz $E$ à direita, então a matriz $B$ obtida à esquerda é o inverso de $A$:

\[\esquerda[ A\esquerda| Certo. \direita]\para \esquerda[ E\esquerda| Brilhante. \direita]\Rightarrow B=((A)^(-1))\]

É simples assim! Resumindo, o algoritmo para encontrar a matriz inversa é assim:

  1. Escreva a matriz adjunta $\left[ A\left| Certo. \direita]$;
  2. Execute conversões elementares de strings até que $E$ apareça em vez de $A$;
  3. Claro, algo também aparecerá à esquerda - uma certa matriz $B$. Isto será o oposto;
  4. LUCRO!:)

Claro, é muito mais fácil falar do que fazer. Então, vejamos alguns exemplos: para os tamanhos $\left[ 3\times 3 \right]$ e $\left[ 4\times 4 \right]$.

Tarefa. Encontre a matriz inversa:

\[\left[ \begin(array)(*(35)(r)) 1 & 5 & 1 \\ 3 & 2 & 1 \\ 6 & -2 & 1 \\\end(array) \right]\ ]

Solução. Criamos a matriz adjunta:

\[\left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & -2 & 1 & 0 & 0 e 1 \\\fim(matriz) \direita]\]

Como a última coluna da matriz original é preenchida com unidades, subtraia a primeira linha do resto:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 3 & 2 & 1 & 0 & 1 & 0 \\ 6 & - 2 & 1 & 0 & 0 & 1 \\\end(array) \right]\begin(matrix) \downarrow \\ -1 \\ -1 \\\end(matrix)\to \\ & \to \left [\begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Não há mais unidades, exceto a primeira linha. Mas não tocamos nisso, caso contrário as unidades recém-removidas começarão a “multiplicar” na terceira coluna.

Mas podemos subtrair a segunda linha da última duas vezes - obtemos uma no canto inferior esquerdo:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 5 & -7 & 0 & -1 & 0 & 1 \\\end(array) \right]\begin(matrix) \ \\ \downarrow \\ -2 \\\end(matrix)\to \\ & \left [\begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Agora podemos subtrair a última linha da primeira e duas vezes da segunda - assim “zeramos” a primeira coluna:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 1 & 5 & 1 & 1 & 0 & 0 \\ 2 & -3 & 0 & -1 & 1 & 0 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -1 \\ -2 \\ \uparrow \\\end(matrix)\to \\ & \ para \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right] \\ \end(align)\]

Multiplique a segunda linha por −1, subtraia 6 vezes da primeira e adicione 1 vez à última:

\[\begin(align) & \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & -1 & 0 & -3 & 5 & -2 \ \ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) \ \\ \left| \cdot \left(-1 \right) \right. \\ \ \\\end(matriz)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 6 & 1 & 0 & 2 & -1 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & -1 & 0 & 1 & -2 & 1 \\\end(array) \right]\begin(matrix) -6 \\ \updownarrow \\ +1 \\\end (matriz)\to \\ & \to \left[ \begin(array)(rrr|rrr) 0 & 0 & 1 & -18 & 32 & -13 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 1 & 0 & 0 & 4 & -7 & 3 \\\end(array) \right] \\ \end(align)\]

Resta apenas trocar as linhas 1 e 3:

\[\left[ \begin(array)(rrr|rrr) 1 & 0 & 0 & 4 & -7 & 3 \\ 0 & 1 & 0 & 3 & -5 & 2 \\ 0 & 0 & 1 & - 18 e 32 e -13 \\\end(array) \right]\]

Preparar! À direita está a matriz inversa necessária.

Responder. $\left[ \begin(array)(*(35)(r))4 & -7 & 3 \\ 3 & -5 & 2 \\ -18 & 32 & -13 \\\end(array) \right ]$

Tarefa. Encontre a matriz inversa:

\[\left[ \begin(matriz) 1 & 4 & 2 & 3 \\ 1 & -2 & 1 & -2 \\ 1 & -1 & 1 & 1 \\ 0 & -10 & -2 & -5 \\\fim(matriz) \direita]\]

Solução. Compomos o adjunto novamente:

\[\left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \ \ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right]\]

Vamos chorar um pouco, ficar tristes com o quanto temos que contar agora... e começar a contar. Primeiro, vamos “zerar” a primeira coluna subtraindo a linha 1 das linhas 2 e 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 1 & -2 & 1 & -2 & 0 & 1 & 0 & 0 \\ 1 & -1 & 1 & 1 & 0 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(matriz) \right]\begin(matriz) \downarrow \\ -1 \\ -1 \\ \ \\\end(matriz)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & -1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\\end(array) \right] \\ \end(align)\]

Vemos muitos “contras” nas linhas 2-4. Multiplique todas as três linhas por −1 e, em seguida, queime a terceira coluna subtraindo a linha 3 do resto:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & -6 & -1 & -5 & - 1 & 1 & 0 & 0 \\ 0 & -5 & -1 & -2 & -1 & 0 & 1 & 0 \\ 0 & -10 & -2 & -5 & 0 & 0 & 0 & 1 \\ \end(array) \right]\begin(matriz) \ \\ \left| \cdot \left(-1 \right) \right. \\ \esquerda| \cdot \left(-1 \right) \right. \\ \esquerda| \cdot \left(-1 \right) \right. \\\end(matriz)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 4 & 2 & 3 & 1 & 0 & 0 & 0 \\ 0 & 6 & 1 & 5 e 1 e -1 e 0 e 0 \\ 0 e 5 e 1 e 2 e 1 e 0 e -1 e 0 \\ 0 e 10 e 2 e 5 e 0 e 0 e 0 e -1 \\ \end (matriz) \right]\begin(matriz) -2 \\ -1 \\ \updownarrow \\ -2 \\\end(matriz)\to \\ & \to \left[ \begin(array)( rrrr| rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Agora é a hora de “fritar” a última coluna da matriz original: subtraia a linha 4 do resto:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & -1 & -1 & 0 & 2 & 0 \\ 0 & 1 & 0 & 3 & 0 & -1 & 1 & 0 \\ 0 & 5 & 1 & 2 & 1 & 0 & -1 & 0 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(matriz ) \right]\begin(matriz) +1 \\ -3 \\ -2 \\ \uparrow \\\end(matriz)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 e -6 e 0 e 0 e -3 e 0 e 4 e -1 \\ 0 e 1 e 0 e 0 e 6 e -1 e -5 e 3 \\ 0 e 5 e 1 e 0 e 5 e 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

Lançamento final: “queime” a segunda coluna subtraindo a linha 2 das linhas 1 e 3:

\[\begin(align) & \left[ \begin(array)(rrrr|rrrr) 1 & -6 & 0 & 0 & -3 & 0 & 4 & -1 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 5 & 1 & 0 & 5 & 0 & -5 & 2 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end( matriz) \right]\begin(matriz) 6 \\ \updownarrow \\ -5 \\ \ \\\end(matriz)\to \\ & \to \left[ \begin(array)(rrrr|rrrr) 1 & 0 & 0 & 0 & 33 & -6 & -26 & -17 \\ 0 & 1 & 0 & 0 & 6 & -1 & -5 & 3 \\ 0 & 0 & 1 & 0 & -25 & 5 & 20 & -13 \\ 0 & 0 & 0 & 1 & -2 & 0 & 2 & -1 \\\end(array) \right] \\ \end(align)\]

E novamente a matriz identidade está à esquerda, o que significa que o inverso está à direita :).

Responder. $\left[ \begin(matriz) 33 & -6 & -26 & 17 \\ 6 & -1 & -5 & 3 \\ -25 & 5 & 20 & -13 \\ -2 & 0 & 2 & - 1 \\\fim(matriz) \direita]$

Métodos para encontrar a matriz inversa, . Considere uma matriz quadrada

Vamos denotar Δ =det A.

A matriz quadrada A é chamada não degenerado, ou não especial, se seu determinante for diferente de zero, e degenerar, ou especial, SeΔ = 0.

Uma matriz quadrada B é para uma matriz quadrada A da mesma ordem se seu produto for A B = B A = E, onde E é a matriz identidade da mesma ordem que as matrizes A e B.

Teorema . Para que a matriz A tenha uma matriz inversa é necessário e suficiente que o seu determinante seja diferente de zero.

A matriz inversa da matriz A, denotada por A- 1, então B = A - 1 e é calculado pela fórmula

, (1)

onde A i j são complementos algébricos dos elementos a i j da matriz A..

Calcular A -1 usando a fórmula (1) para matrizes de ordem superior é muito trabalhoso, portanto, na prática, é conveniente encontrar A -1 usando o método das transformações elementares (ET). Qualquer matriz não singular A pode ser reduzida à matriz identidade E aplicando apenas as colunas (ou apenas as linhas) à matriz identidade. Se as transformações perfeitas sobre a matriz A forem aplicadas na mesma ordem à matriz identidade E, o resultado será uma matriz inversa. É conveniente realizar EP nas matrizes A e E simultaneamente, escrevendo ambas as matrizes lado a lado através de uma linha. Observemos mais uma vez que ao buscar a forma canônica de uma matriz, para encontrá-la, pode-se utilizar transformações de linhas e colunas. Se você precisar encontrar o inverso de uma matriz, deverá usar apenas linhas ou apenas colunas durante o processo de transformação.

Exemplo 2.10. Para matriz encontre A -1 .

Solução.Primeiro encontramos o determinante da matriz A
Isso significa que a matriz inversa existe e podemos encontrá-la usando a fórmula: , onde A i j (i,j=1,2,3) são adições algébricas de elementos a i j da matriz original.

Onde .

Exemplo 2.11. Usando o método das transformações elementares, encontre A -1 para a matriz: A = .

Solução.Atribuímos à matriz original à direita uma matriz identidade da mesma ordem: . Usando transformações elementares das colunas, reduziremos a “metade” esquerda à unidade, realizando simultaneamente exatamente as mesmas transformações na matriz direita.
Para fazer isso, troque a primeira e a segunda colunas:
~ . À terceira coluna adicionamos a primeira e à segunda - a primeira, multiplicada por -2: . Da primeira coluna subtraímos a segunda duplicada e da terceira - a segunda multiplicada por 6; . Vamos adicionar a terceira coluna à primeira e à segunda: . Multiplique a última coluna por -1: . A matriz quadrada obtida à direita da barra vertical é a matriz inversa da matriz A dada.
.

Álgebra matricial - Matriz inversa

matriz inversa

Matriz inversaé uma matriz que, quando multiplicada à direita e à esquerda por uma determinada matriz, dá a matriz identidade.
Vamos denotar a matriz inversa da matriz A through , então, de acordo com a definição, obtemos:

Onde E- matriz de identidade.
Matriz quadrada chamado não especial (não degenerado) se seu determinante não for zero. Caso contrário, é chamado especial (degenerar) ou singular.

O teorema é válido: Toda matriz não singular possui uma matriz inversa.

A operação para encontrar a matriz inversa é chamada apelo matrizes. Vamos considerar o algoritmo de inversão de matrizes. Seja dada uma matriz não singular n-ª ordem:

onde Δ = det A ≠ 0.

Adição algébrica de um elemento matrizes n-ª ordem Aé chamado de determinante de uma matriz tomada com um certo sinal ( n–1)ª ordem obtida pela exclusão eu-ésima linha e j a coluna da matriz A:

Vamos criar o chamado apegado matriz:

onde estão os complementos algébricos dos elementos correspondentes da matriz A.
Observe que adições algébricas de elementos de linha da matriz A são colocados nas colunas correspondentes da matriz à , ou seja, a matriz é transposta ao mesmo tempo.
Dividindo todos os elementos da matriz à por Δ – o valor do determinante da matriz A, obtemos a matriz inversa como resultado:

Observemos uma série de propriedades especiais da matriz inversa:
1) para uma determinada matriz A sua matriz inversa é o único;
2) se houver uma matriz inversa, então reverso à direita E esquerda reversa as matrizes coincidem com ele;
3) uma matriz quadrada especial (singular) não possui uma matriz inversa.

Propriedades básicas de uma matriz inversa:
1) o determinante da matriz inversa e o determinante da matriz original são recíprocos;
2) a matriz inversa do produto das matrizes quadradas é igual ao produto da matriz inversa dos fatores, tomado na ordem inversa:

3) a matriz inversa transposta é igual à matriz inversa da matriz transposta dada:

EXEMPLO Calcule o inverso da matriz dada.

A matriz inversa para uma determinada matriz é tal matriz, multiplicando a original pela qual se obtém a matriz identidade: Uma condição obrigatória e suficiente para a presença de uma matriz inversa é que o determinante da matriz original seja diferente de zero (o que por sua vez implica que a matriz deve ser quadrada). Se o determinante de uma matriz for igual a zero, então ela é chamada de singular e tal matriz não possui inversa. EM matemática superior matrizes inversas têm importante e são usados ​​para resolver uma série de problemas. Por exemplo, em encontrando a matriz inversa um método matricial para resolução de sistemas de equações foi construído. Nosso site de serviços permite calcular matriz inversa on-line dois métodos: o método de Gauss-Jordan e o uso da matriz de adições algébricas. Interrupção implica um grande número de transformações elementares dentro da matriz, a segunda é o cálculo do determinante e das adições algébricas a todos os elementos. Para calcular o determinante de uma matriz online, você pode usar nosso outro serviço - Cálculo do determinante de uma matriz online

.

Encontre a matriz inversa do site

local na rede Internet permite que você encontre matriz inversa on-line rápido e gratuito. No site os cálculos são feitos pelo nosso serviço e o resultado é exibido com solução detalhada ao encontrar matriz inversa. O servidor sempre dá apenas uma resposta precisa e correta. Em tarefas por definição matriz inversa on-line, é necessário que o determinante matrizes era diferente de zero, caso contrário local na rede Internet reportará a impossibilidade de encontrar a matriz inversa devido ao fato do determinante da matriz original ser igual a zero. A tarefa de encontrar matriz inversa encontrado em muitos ramos da matemática, sendo um dos conceitos mais básicos da álgebra e uma ferramenta matemática em problemas aplicados. Independente definição de matriz inversa requer um esforço significativo, muito tempo, cálculos e muito cuidado para evitar erros de digitação ou pequenos erros nos cálculos. Portanto nosso serviço encontrando a matriz inversa online facilitará muito a sua tarefa e se tornará uma ferramenta indispensável para a resolução de problemas matemáticos. Mesmo se você encontre a matriz inversa você mesmo, recomendamos verificar sua solução em nosso servidor. Insira sua matriz original em nosso site Calcule a matriz inversa online e verifique sua resposta. Nosso sistema nunca comete erros e encontra matriz inversa dada dimensão no modo on-line imediatamente! No site local na rede Internet entradas de caracteres são permitidas em elementos matrizes, nesse caso matriz inversa on-line será apresentado de forma simbólica geral.