Eine quadratische Matrix A heißt regulär oder invertierbar, falls sie eine Inverse besitzt  ⇔  ∃ B: B*A = A*B = E  ⇔  ∃ B: A*B = E  ⇔  ∃ B: B*A = E. Die Inverse von A wird mit A-1 gekennzeichnet. 

Eine Matrix, die keine Inverse besitzt, wird singuläre Matrix genannt. Die Menge aller invertierbaren (n,n)-Matrizen über einem Skalarenkörper K bildet eine Gruppe bezüglich der Matrizenmultiplikation, die allgemeine lineare Gruppe GLn(K).

Verwendungszweck

  1. Ist die Inverse einer Matrix A bekannt, so ist das LGS A·x = b sehr einfach zu lösen: x = A-1·b (→ Multiplikation beider Seiten mit A-1)
  2. Reguläre Matrizen stellen bijektive lineare Abbildungen dar. Die Inversen dieser Matrizen sind die zugehörigen linearen Umkehrabbildungen. Diese spielen in vielen Bereichen eine wichtige Rolle, so z.B. bei der Transformation von mehrdimensionalen λ-Dichten.

Berechnungsverfahren

  1. Gauß-Jordan-Algorithmus (erweitertes Gauß-Eliminationsverfahren)
  2. Adjunkten-Verfahren

Zu 1.)

Hierbei wenden wir auf die erweiterte Matrix A|E den Gauß-Jordan-Algorithmus und erhalten so eine reduzierte Stufenmatrix von der Form E|B mit B=A-1.

Beweisskizze:

Ist die Matrix A invertierbar, so kommen wir durch wiederholte Anwendung der elementaren Matrizenumformungen stets von der Matrix A|E zu einer Matrix der Form E|B.  Die wiederholte Anwendung der elementaren Matrizenumformungen entspricht einer linksseitigen Multiplikation der Matrix A|E mit einer regulären Matrix U (→ Produkt von Frobeniusmatrizen).
⇒ U*(A|E) = U*A|U*E = E|U, also gilt: U*A = E (⇔ U=A-1) und U steht rechts von E (wie behauptet!) ♣

Zu 2.)

Mittels der Adjunkten einer Matrix berechnet sich die Inverse nach folgender Vorschrift:  A-1 = adj(A)/det(A). Für 2×2 und 3×3-Matrizen ist dieses Verfahren geeignet, nicht aber für höhere Dimensionen.