Inverse Matrizen
Im Folgenden findest du die Definition und Einführung in die Berechnung von inversen Matrizen. Außerdem werden die Voraussetzungen für die Existenz einer Inversen erläutert.
Inhaltsverzeichnis zum Thema
- Was ist eine inverse Matrix?
- Voraussetzung für die Existenz einer inversen Matrix
- Möglichkeiten der Berechnung einer inversen Matrix
- Wichtige Rechenregeln und nützliche Eigenschaften
Was ist eine inverse Matrix?
Zum Einstieg wird nochmal die Bedeutung des Kehrwertes wiederholt. Der Kehrwert einer von $0$ verschiedenen Zahl $a$, ist in der Arithmetik diejenige Zahl, die mit $a$ multipliziert $1$ ergibt.
$a \cdot a^{-1}=a \cdot \frac{1}{a}= \frac{a}{a}=1$
$a^n \cdot a^{-n}=a^n \cdot \frac{1}{a^n}= \frac{a^n}{a^n}=1$
Wird eine Zahl mit ihrem Kehrwert multipliziert, ist das Ergebnis $1$. Diese Überlegung wird nun auf Matrizen angewendet. Es soll demnach eine Matrix gefunden werden, welche multipliziert mit der Ausgangsmatrix die Einheitsmatrix, im Allgemeinen mit $I$ bezeichnet, ergibt. Eine solche Matrix wird auch inverse Matrix oder kurz Inverse, früher auch Kehrmatrix, genannt und mit $A^{-1}$ bezeichnet.
Sei $A$ eine Matrix, die eine inverse Matrix $A^{-1}$ besitzt und $I$ die Einheitsmatrix mit derselben Dimension wie $A$, dann gilt:
$A \cdot A^{-1}=I$.
Beachte, dass es sich hierbei um eine Matrixmultiplikation handelt.
Voraussetzung für die Existenz einer inversen Matrix
Nicht jede Matrix besitzt eine inverse Matrix. Nur quadratische Matrizen, also Matrizen mit gleicher Zeilen- und Spaltenanzahl, können eine Inverse besitzen.
Quadratische Matrizen mit gleicher Zeilen- und Spaltenanzahl werden häufig auch als ${n\times n}$ Matrizen, gesprochen n kreuz n und formal geschrieben mit $A \in \mathbb{R}^{n\times n}$, bezeichnet. Für solche quadratischen Matrizen $A \in \mathbb{R}^{n\times n}$ existiert eine inverse Matrix $A^{-1} \in \mathbb{R}^{n\times n}$, wenn die Determinante der Matrix $A$ ungleich Null ist: $\det (A) \neq 0$.
Matrizen, in denen Zeilen oder Spalten linear abhängig voneinander sind, deren Determinante also gleich $0$ sind, besitzen keine inverse Matrix und werden auch als singuläre Matrizen bezeichnet. Reguläre oder invertierbare Matrizen sind hingegen Matrizen, die eine inverse Matrix besitzen.
Möglichkeiten der Berechnung einer inversen Matrix
Im folgenden Abschnitt werden unterschiedliche Berechnungsvarianten zur Bestimmung einer solchen inversen Matrix vorgestellt. Es wird sich an dieser Stelle auf die zwei bekanntesten Verfahren beschränkt.
Bestimmung der inversen Matrix über die Adjunkte
Die Adjunkte wird meist mit $adj(A)$ bezeichnet. Die Adjunkte ist die Transponierte der Kofaktormatrix einer Ausgangsmatrix $A$. Die Kofaktormatrix $Cof(A)$ enthält alle Unterdeterminanten der Ausgangsmatrix $A$. Dabei wird allen Elementen, deren Summe aus ihrer Zeilennummer und ihrer Spaltennummer ungerade ist, ein negatives Vorzeichen hinzugefügt.
Die inverse Matrix $A^{-1}$ lässt sich auch mit Hilfe der Adjunkten der Matrix $A$ bestimmen:
$A^{-1}=\frac{1}{\det (A)} \cdot adj (A)$.
Dieses Verfahren wird häufig bei $2 \times 2$ Matrizen angewendet, da sich hier die Determinanten schnell berechnen lassen:
$A^{-1}=\begin{pmatrix} a& b\\ c& d \end{pmatrix}^{-1}=\frac{1}{\det (A)} \cdot adj \begin{pmatrix} a& b\\ c& d \end{pmatrix}=\frac{1}{(ad-bc)} \cdot \begin{pmatrix} d& -b\\ -c& a \end{pmatrix}$
Als Beispiel sei die Matrix $A$ gegeben. Die inverse Matrix $A^{-1}$ soll berechnet werden, wobei:
$A=\begin{pmatrix} 1& 3\\ 4& 2 \end{pmatrix}$
Die Berechnung der Inversen $A^{-1}$ mittels Adjunkten wäre dann die folgende:
$A^{-1}=\frac{1}{\det A} \cdot adj \begin{pmatrix} 1& 3\\ 4& 2 \end{pmatrix}=\frac{1}{(1\cdot 2-3 \cdot 4)} \cdot \begin{pmatrix} 2& -3\\ -4& 1 \end{pmatrix}$
$=\frac{1}{(-10)} \cdot \begin{pmatrix} 2& -3\\ -4& 1 \end{pmatrix}= \begin{pmatrix} -0,2& 0,3\\ 0,4& -0,1 \end{pmatrix}$
An dieser Stelle sei noch auf die Berechnung der Inversen einer Matrix mittels Cramerscher Regel hingewiesen. Das Verfahren basiert ebenfalls auf der Berechnung der Determinanten, wird aber in der Praxis auf Grund des Rechenaufwandes nicht so häufig angewendet.
Gauß-Jordan-Verfahren
Das Gauß-Jordan-Verfahren ist eine Erweiterung des gaußschen Eliminationsverfahrens zum Lösen von linearen Gleichungssystemen. Soll also zu einer Matrix $A$ die inverse Matrix $A^{-1}$ berechnet werden, so muss die Matrix um die Einheitsmatrix in der Dimension von $A$ erweitert werden. Es genügt nicht, die Matrix wie sonst in die reduzierte Stufenform zu bringen. Die linke Seite der Matrix muss in die Form der Einheitsmatrix gebracht werden, dann steht auf der rechten Seite die inverse Matrix $A^{-1}$.
Zur Veranschaulichung der Berechnung des Inversen mittels Gauß-Jordan-Verfahren ein Beispiel:
Gesucht ist die inverse Matrix $A^{-1}$ von der Matrix $A$, wobei $A$ gegeben ist mit:
$A=\begin{pmatrix} 1 & 2 & 1 \\ 4 & 6 & 1 \\ 0 & 1 & 2 \end{pmatrix} $
Lösung:
$ \begin{array} {c c c c} (A \vert E) = & \left(\begin{matrix} 1 & 2 & 1 \\ 4 & 6 & 1 \\ 0 & 1 & 2 \end{matrix} \left\vert \begin{matrix} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{matrix} \right)\right. & \underrightarrow{\text {II} -4\cdot \text {I}} & \left( \begin{matrix} 1 & 2 & 1 \\ \mathbf{0} &\mathbf{ -2 }& \mathbf{-3} \\ 0 & 1 & 2 \end{matrix} \left\vert \begin{matrix} 1 & 0 & 0\\ \mathbf{-4} &\mathbf{1} & \mathbf{0}\\ 0 & 0 & 1 \end{matrix} \right)\right. \\ \underrightarrow{ \frac{\text {II}} {-2}} & \left( \begin{matrix} 1 & 2 & 1 \\ \mathbf{0} & \mathbf{1} &\mathbf{ \frac{3}{2}} \\ 0 & 1 & 2 \end{matrix} \left\vert \begin{matrix} 1 & 0 & 0\\ \mathbf{2}& \mathbf{-\frac{1}{2}} & \mathbf{0}\\ 0 & 0 & 1 \end{matrix} \right)\right. & \underrightarrow{\text {III} -\text {II}} & \left( \begin{matrix} 1 & 2 & 1 \\ 0 & 1 & \frac{3}{2}\\ \mathbf{0} & \mathbf{0} & \mathbf{\frac{1}{2}} \end{matrix} \left\vert \begin{matrix} 1 & 0 & 0\\ 2 & -\frac{1}{2} & 0\\ \mathbf{ -2} &\mathbf{ \frac{1}{2}} & \mathbf{1} \end{matrix} \right)\right. \\ \underrightarrow{2 \cdot \text {III}} & \left( \begin{matrix} 1 & 2 & 1 \\ 0 & 1 & \frac{3}{2}\\ \mathbf{0} & \mathbf{0} & \mathbf{1} \end{matrix} \left\vert \begin{matrix} 1 & 0 & 0\\ 2 & -\frac{1}{2}& 0\\ \mathbf{-4} & \mathbf{1} & \mathbf{2} \end{matrix} \right)\right. & \underrightarrow{ \text {II}-\frac{3}{2} \cdot \text {III}} & \left( \begin{matrix} 1 & 2 & 1 \\ 0 & 1 & 0\\ \mathbf{0} & \mathbf{0} & \mathbf{1} \end{matrix} \left\vert \begin{matrix} 1 & 0 & 0\\ 8 & -2& -3\\ \mathbf{-4} & \mathbf{1} & \mathbf{2} \end{matrix} \right)\right. \\ \underrightarrow{ \text {I}-2 \cdot \text {II}} & \left( \begin{matrix} \mathbf{1} & \mathbf{0} & \mathbf{1} \\ 0 & 1 & 0\\ 0 & 0 & 1 \end{matrix} \left\vert \begin{matrix} \mathbf{-15} & \mathbf{4} & \mathbf{6}\\ 8 & -2& -3\\ -4 & 1 & 2 \end{matrix} \right)\right. & \underrightarrow{ \text {I}-\text {III}} & \left( \begin{matrix} \mathbf{1} & \mathbf{0} & \mathbf{0} \\ 0 & 1 & 0\\ 0 & 0 & 1 \end{matrix} \left\vert \begin{matrix} \mathbf{-11} & \mathbf{3} & \mathbf{4}\\ 8 & -2& -3\\ -4 & 1 & 2 \end{matrix} \right)\right. \end{array}$
$ \rightarrow A^{-1}= \begin{pmatrix} -11 & 3 & 4\\ 8 & -2& -3\\ -4 & 1 & 2\end{pmatrix}$
Zur Kontrolle kannst du nun mittels Matrixmultiplikation prüfen, ob gilt:
$A \cdot A^{-1}= \begin{pmatrix} 1 & 2 & 1 \\ 4 & 6 & 1 \\ 0 & 1 & 2 \end{pmatrix} \cdot \begin{pmatrix} -11 & 3 & 4\\ 8 & -2& -3\\ -4 & 1 & 2 \end{pmatrix}= \begin{pmatrix} 1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1 \end{pmatrix}$
Wichtige Rechenregeln und nützliche Eigenschaften
Eigenschaften
- Der Rang einer Matrix ist gleich dem Rang ihrer Inversen: $rg(A)=rg(A^{-1})$.
- Die inverse Matrix einer Inversen entspricht der Ausgangsmatrix: $(A^{-1})^{-1}=A$.
- Die Determinante einer inversen Matrix entspricht dem Inversen der Determinanten der Ausgangsmatrix: $\det (A^{-1})=\det (A)^{-1}$.
Rechenregeln
- Das Inverse eines Matrixprodukts entspricht dem Produkt der inversen Matrizen: $(A \cdot B)^{-1}=B^{-1} \cdot A^{-1}$.
- Für die Inverse des Produkts mehrerer Matrizen gilt die allgemeine Produktformel:
$ \quad (A_1 \cdot A_2 \cdot \dots. \cdot A_n)^{-1}=(A_n)^{-1} \cdot \dots. \cdot (A_1)^{-1}$.
- Für die Multiplikation mit einem Skalar $k \neq 0$ gilt analog: $(k \cdot A)^{-1}=k^{-1} \cdot A^{-1}.$
- Das Inverse einer Transponierten Matrix entspricht der transponierten inversen Matrix: $(A^{T})^{-1}=(A^{-1})^{T}$.
Alle Videos zum Thema
Videos zum Thema
Inverse Matrizen (1 Video)
Beliebteste Themen in Mathematik
- Römische Zahlen
- Prozentrechnung
- Primzahlen
- Geometrische Lagebeziehungen
- Was ist eine Ecke?
- Rechteck
- Was ist eine Gleichung?
- Pq-Formel
- Binomische Formeln
- Trapez
- Volumen Zylinder
- Umfang Kreis
- Quadrat
- Division
- Raute
- Parallelogramm
- Polynomdivision
- Was Ist Eine Viertelstunde
- Prisma
- Mitternachtsformel
- Äquivalenzumformung
- Grundrechenarten Begriffe
- Größer Kleiner Zeichen
- Dreiecksarten
- Aufbau von Dreiecken
- Quader
- Satz Des Pythagoras
- Dreieck Grundschule
- Erste Binomische Formel
- Kreis
- Trigonometrie
- Trigonometrische Funktionen
- Standardabweichung
- Flächeninhalt
- Volumen Kugel
- Zahlen In Worten Schreiben
- Meter
- Orthogonalität
- Schriftlich Multiplizieren
- Brüche gleichnamig machen
- Brüche Multiplizieren
- Potenzgesetze
- Distributivgesetz
- Flächeninhalt Dreieck
- Rationale Zahlen
- Volumen Berechnen
- Brüche Addieren
- Kongruenz
- Exponentialfunktion
- Exponentialfunktion Beispiel