Eine Matrix kann als kompakte Schreibweise für eine lineare Transformation aufgefasst werden. Die Spalten der Matrix geben an, wohin die natürlichen Basisvektoren transformiert werden. Und ist die lineare Transformation des Vektors .
Wenn zwei lineare Transformationen nacheinander ausgeführt werden, entspricht das dem Matrixprodukt. Wenn ein Vektor zuerst durch eine Matrix transformiert wird und anschließend noch eine lineare Transformation durchgeführt wird, dann erhält man Das gleiche Resultat erhält man durch eine einzelne lineare Transformation mit der Matrix . Die Matrixmultiplikation fasst also zwei Schritte zu einem zusammen. Damit wird auch klar, warum das Matrixprodukt nicht kommutativ ist.
5.2 Einheitsmatrix
Eine besondere Matrix ist die Einheitsmatrix (engl. identity matrix). Sie transformiert einen Vektor auf sich selber. Sie hat auf der Diagonalen Einsen und überall sonst Nullen. Die Einheitsmatrix der Dimension wird als oder (wenn die Dimension klar ist) einfach als notiert. Einheitsmatrizen sind quadratisch und sehen so aus: Für jede beliebige Matrix (also auch für Spalten- oder Zeilenvektoren) gilt sofern die Dimensionen passen.
In R generiert man eine Einheitsmatrix der Dimension mit der Funktion diag (leider ist dieser Name nicht sehr intuitiv):
diag(3)
[,1] [,2] [,3]
[1,] 1 0 0
[2,] 0 1 0
[3,] 0 0 1
5.3 Rang einer Matrix
Unter dem Rang einer Matrix versteht man die Anzahl der linear unabhängigen Spalten (oder Zeilen) einer Matrix. Der Rang kann niemals größer sein als das Minimum von Spaltenzahl und Zeilenzahl der Matrix. Für eine Matrix mit Dimensionen gilt also immer, dass . Da die Zahl der linear unabhängigen Zeilen immer gleich der Zahl der linear unabhängigen Spalten ist, braucht man nicht zu sagen, ob man den “Zeilenrang” oder den “Spaltenrang” angibt - die beiden sind gleich: Wenn ist, sagt man auch, dass die Matrix vollen Rang hat. Eine quadratische Matrix der Dimension mit vollem Rang nennt man auch regulär. Wenn sie keinen vollen Rang hat, heißt sie singulär.
Für den Rang gibt es eine Reihe von Rechenregeln. So gilt Der Rang eines Matrixprodukt kann nicht größer sein als die Ränge der beiden Faktormatrizen, d.h. Multipliziert man eine Matrix mit einer quadratischen Matrix vollen Rangs, so hat das Produkt den Rang von , Auch für die Summe zweier Matrizen lässt sich eine Aussage über den Rang treffen. Es gilt
Leider gibt es in R standardmäßig keine Funktion, die den Rang einer Matrix berechnet. Das Paket pracma stellt jedoch die Funktion Rank zur Verfügung, mit der man den Rang leicht ausrechnen kann. Beispielsweise hat die Matrix
library(pracma)A <-matrix(1:9, 3, 3)A
[,1] [,2] [,3]
[1,] 1 4 7
[2,] 2 5 8
[3,] 3 6 9
den Rang
Rank(A)
[1] 2
Diese Matrix hat also keinen vollen Rang, sie ist singulär. Jede der drei Spalten lässt sich als Linearkombination der beiden anderen Spalten ausdrücken. Mit Hilfe der Funktion nullspace, die ebenfalls von dem Paket pracma bereit gestellt wird, kann man die Skalare finden, für die gilt Für die Beispielmatrix ergibt sich
Zur Notation: Mit e-16 ist die wissenschaftliche Schreibweise gemeint. Der Nullvektor wird zwar nicht exakt getroffen, aber die Abweichung ist erst in der 16. Nachkommastelle zu sehen. Diese kleinen Abweichungen werden durch Rundungsfehler verursacht. Wenn das Ergebnis auf viele Stellen (z.B. 12) nach dem Komma gerundet wird, ergibt sich tatsächlich der Nullvektor,
Die drei Skalare, die in dem Vektor lambda zusammengefasst sind, stellen nicht die einzige Lösung dar. Multipliziert man sie mit einer beliebigen Konstante (außer Null), so erhält man drei andere Skalare, die ebenfalls auf den Nullvektor führen.
Der Rang einer Matrix lässt sich auch mit dem Gauß-Jordan-Verfahren bestimmen, das wir ja bereits in Kapitel Abschnitt 2.7.3 kennen gelernt haben. Wie sieht das an der Beispielmatrix aus? Zuerst subtrahieren wir von und im gleichen Schritt von . In nächsten Schritt subtrahieren wir von . Da die letzte Zeile nur aus Nullen besteht, hat die Matrix keinen vollen Rang. Dass der Rang der Matrix 2 (und nicht nur 1) beträgt, erkennt man daran, dass die ersten beiden Zeilen linear unabhängig voneinander sind. Wenn als Ergebnis der Gauß-Jordan-Methode an Ende zwei Zeilen ausschließlich Nullen enthalten, dann hat die Matrix den Rang 1.
5.4 Determinante
Die Determinante einer -Matrix gibt an, auf das Wie-viel-Fache eine Fläche sich durch eine lineare Transformation verändert. Wenn die Determinante 2 beträgt, dann verdoppelt sich eine Fläche durch die lineare Transformation. Ist die Determinante 0.5, dann halbiert sich die Fläche.
Als Beispiel betrachten wir die lineare Transformation Die folgende Abbildung zeigt, wie sich das Einheitsquadrat (das durch die beiden natürlichen Basisvektoren gebildet wird) vergrößert.
Die Fläche des Einheitsquadrats ist 1, die Fläche der Transformation (also des Parallelogramms) beträgt 3. Die Determinante der Matrix ist also Ein Hinweis zur Notation: In der ökonometrischen Literatur wird die Determinante sehr häufig auch als geschrieben.
Die Determinante einer -Matrix kann allgemein wie folgt berechnet werden: Für die Beispielmatrix erhält man Wenn die Basisvektoren ihre relative Ausrichtung ändern - wenn also der erste Basisvektor nach der Transformation nicht mehr rechts, sondern links vom zweiten Basisvektor liegt, dann “klappt die Abbildung um” und die Determinante ist negativ. Als Beispiel sehen wir uns die folgende lineare Transformation an: Die beiden Basisvektoren vor und nach der Transformation zeigt die Abbildung:
Die Determinante ist betragsmäßig genauso groß wie in dem vorherigen Beispiel. Da die Abbildung aber “umgeklappt” ist, ist jetzt negativ, nämlich . Das ergibt sich auch durch die Formel Kann es auch passieren, dass die Determinante den Wert Null annimmt? Ja, und zwar dann, wenn die Fläche der Abbildung auf Null schrumpft, weil die beiden Basisvektoren nach der Transformation linear abhängig sind. Sie zeigen dann in die gleiche (oder genau entgegengesetzte) Richtung, so dass die Abbildung kein Parallelogramm ergibt, sondern nur eine Gerade. Die Fläche einer Gerade ist 0, so dass die Determinante in diesem Fall 0 ist. Mit anderen Worten: An der Determinante kann man erkennen, ob die Matrix vollen Rang hat. Der Rang ist nicht voll, wenn die Determinante Null ist. Da der Rang einer Matrix mit der linearen Unabhängigkeit der Spaltenvektoren zusammenhängt, kann die Determinante auch zur Feststellung der linearen Unabhängigkeit von Vektoren dienen: Wenn die Determinante ungleich Null ist, dann sind die Vektoren linear unabhängig.
Im dreidimensionalen Raum hat die Determinante eine ähnliche geometrische Interpretation. Sie gibt für eine -Matrix an, auf das Wie-viel-Fache sich das Volumen eines Einheitswürfels durch die lineare Transformation vergrößert (oder verkleinert). Wenn die transformierten Basisvektoren alle in einer Ebene liegen (also einer durch eine Linearkombination der beiden anderen darstellbar ist), dann ist das Volumen Null. In diesem Fall nimmt auch die Determinante den Wert 0 an. Das gleiche gilt, wenn die transformierten Basisvektoren alle auf einer Geraden liegen. Die Determinante gibt also auch für -Matrizen an, ob sie vollen Rang haben oder nicht. Wenn die Determinante 0 ist, hat die Matrix keinen vollen Rang. Ob der Rang 2 oder 1 (oder 0) ist, kann man an der Determinante jedoch nicht erkennen.
Die analytische Formel für die Berechnung der Determinante ist bei (-Matrizen schon recht komplex, nämlich Determinanten sind auch für noch höherdimensionale Räume definiert. Für eine quadratische -Matrix () ist die Determinante rekursiv definiert. wobei die Matrix ist, die sich aus ergibt, wenn man die erste Zeile und die -te Spalte herausstreicht. Ab Dimension ist es sehr aufwendig, Determinanten “per Hand” zu berechnen, nur für den zweidimensionalen (und teilweise den dreidimensionalen) Fall sind die Formeln noch einigermaßen übersichtlich.
Determinanten berechnet man natürlich normalerweise nicht “per Hand”. In R gibt es die Funktion det für die Berechnung von Determinanten. Für die -Matrix [ =] ergibt sich zum Beispiel
A <-matrix(1:4, 2, 2)det(A)
[1] -2
Die Determinante der -Matrix [ =] ist
A <-matrix(1:9, 3, 3)det(A)
[1] 0
Die drei Vektoren , und sind folglich linear abhängig (wie wir ja weiter oben bereits gesehen haben) .
Allgemein gilt für -Matrizen Reguläre Matrizen haben vollen Rang und eine Determinante ungleich 0, singuläre Matrizen haben keinen vollen Rang und eine Determinante von 0.
Es gibt noch weitere Rechenregeln für Determinanten, die manchmal hilfreich sind. Die Determinante der Transponierten entspricht der Determinante der Ausgangsmatrix,
Für die Determinante des Produkts zweier Matrizen gilt Mit der geometrischen Interpretation ist dieser Zusammenhang klar: Wenn wir eine Fläche zuerst mit transformieren und anschließend mit , so vervielfacht sich die Fläche im ersten Schritt um und die so vergrößerte (oder verkleinerte) Fläche vervielfacht sich im zweiten Schritt um .
Ferner gilt für eine -Matrix Auch dieser Zusammenhang erschließt sich intuitiv mit der geometrischen Sichtweise. Wenn jede Spalte in mit multipliziert wird, bedeutet das, dass alle Basisvektoren um das -fache weiter gestreckt (oder gestaucht werden) als ohne die Skalarmultiplikation. Im zweidimensionalen Fall werden also beide Vektoren um das -fache verlängert (oder verkürzt), so dass die Fläche sich um verändert. Für jede weitere Dimension muss der Faktor mit einem weiteren multipliziert werden.
5.5 Inverse Matrix
Matrizen können als Repräsentation von linearen Transformationen aufgefasst werden. Wie in Kapitel Kapitel 3 für den zweidimensionalen Fall gezeigt wurde, gibt eine Matrix an, dass der erste natürliche Basisvektor nach transformiert wird, der zweite nach . Entsprechend wird jeder andere Punkt nach bewegt. Kann man die lineare Transformation wieder rückgängig machen? Gibt es eine andere lineare Transformation, die dazu führt, dass der transformierte Punkt wieder an seinen Ursprungsort zurückkehrt? Die Antwort auf diese Frage lautet: Ja, aber nicht immer.
Eine Rücktransformation ist unter der Bedingung möglich, dass die Basisvektoren durch die lineare Transformation nicht linear abhängig werden. Mit anderen Worten, wenn die lineare Transformation dazu führt, dass die Basisvektoren linear abhängig sind, dann kann die Transformation nicht mehr rückgängig gemacht werden. Die Matrix muss also vollen Rang haben bzw. es muss sich um eine reguläre Matrix handeln.
Die Matrix, die die lineare Transformation rückgängig macht, nennt man inverse Matrix oder kurz Inverse (engl. inverse - mit der Betonung auf der zweiten Silbe) von und schreibt . Wenn also dann gilt Da den Effekt von aufhebt, gilt es ergibt sich also die Einheitsmatrix. Das gleiche gilt auch in die andere Richtung, d.h.
Beispiel:
Die Inverse der Matrix ist Wie man leicht nachprüfen kann, ergibt sowohl als auch die Einheitsmatrix.
Die Inverse der Transponierten ist
Beim Invertieren einer Matrixmultiplikation muss man aufpassen, weil das Matrixprodukt nicht kommutativ ist. Es gilt Dass die Reihenfolge sich ändert, wird in der geometrischen Sichtweise klar: Die Transformation bedeutet, dass zuerst angewendet wird und anschließend Um die beiden Transformationen wieder rückgängig zu machen, muss nun zuerst durch zurücktransformiert werden. Und anschließend wird der Effekt von durch aufgehoben.
Die Determinante der Inversen ist Dieser Zusammenhang ist leicht geoemtrisch interpretierbar. Die Determinante der Inversen gibt an, auf das Wie-viel-Fache sich eine Fläche durch die Transformation verändert. Da die Transformation gerade zurückgängig macht, muss die Fläche wieder auf ihre ursprüngliche Größe zurückgesetzt werden. Wenn sie also bei der Transformation mit auf das -Fache angewachsen ist, dann muss sie bei der inversen Transformation um den Faktor wachsen.
Die Inverse hat nicht nur die geometrische Interpretation, dass sie eine lineare Transformation rückgängig macht. Das wichtigste Einsatzfeld der Inversen besteht in den Wirtschaftswissenschaften und speziell in der Ökonometrie darin, bei der Lösung linearer Gleichungssysteme zu helfen. Darauf gehen wir in Kapitel 7 näher ein.
Wie findet man konkret die Inverse einer gegebenen Matrix? Man kann die Inverse entweder per Hand oder mit R (bzw. anderen Computerprogrammen) finden. Der Weg per Hand ist natürlich mühsamer, aber dennoch sollte man ihn kennen, weil in einigen Situationen R als Werkzeug nicht zur Verfügung steht, z.B. weil einige (oder alle) Matrixelemente nicht mit ihren konkreten numerischen Werten gegeben sind, sondern nur als Symbole. Wir sehen uns zuerst an, wie man die Inverse in R berechnet.
Leider hat die R-Funktion für die Berechnung der Inversen einen nicht gerade intuitiven Namen. Sie lautet solve.
Als Ergebnis erhält man in beiden Fällen die Einheitsmatrix. Die kleinen Abweichungen sind wieder darauf zurückzuführen, dass reelle Zahlen in R (oder anderen Computerprogrammen) nicht immer exakt repräsentiert werden können. Es kommt dann zu Rundungsfehlern, die jedoch meist nicht ins Gewicht fallen. Die Möglichkeit von Rundungsfehlern sollte man bei der Arbeit mit numerischen Verfahren immer im Hinterkopf behalten. Eine naive Kontrolle, ob invA wirklich die Inverse von A ist, führt nämlich zum falschen Ergebnis:
all(A %*% invA ==diag(2))
[1] FALSE
Runden auf 12 Stellen hilft.
all(round(A %*% invA, 12) ==diag(2))
[1] TRUE
Achtung: Die Schreibweise A^(-1) ist in R möglich, es gibt keine Fehlermeldung. Das Ergebnis von A^(-1) ist aber nicht die inverse Matrix von A. Stattdessen werden von allen Elementen der Matrix die Kehrwerte berechnet. In R ergibt also
A^(-1) %*% A
[,1] [,2]
[1,] 0 -1.5
[2,] 3 0.0
nicht die Einheitsmatrix! Das ist ein gefährlicher Fehler, weil er nicht zu einer Fehlermeldung führt.
Für die Berechnung per Hand ist eine Variante des Gauß-Jordan-Verfahrens gut geeignet (vgl. Abschnitt 2.7.3). An einem Beispiel lässt sich das am besten veranschaulichen. Wir suchen die Inverse der -Matrix Zunächst ergänzt man die Matrixelemente auf der rechten Seite um die Einheitsmatrix (abgetrennt mit einem senkrechten Strich). Die Zeilen numerieren wir mit römischen Ziffern. Nun werden die drei Zeilen mit den üblichen erlaubten Umformungen Schritt für Schritt so verändert, dass auf der linken Seite die Einheitsmatrix entsteht. Die Elemente rechts vom Strich werden dabei mit verändert. Zuerst wird das Element unten links auf 0 gesetzt, dazu rechnen wir und erhalten: Als nächstes eleminieren wir die 4 in der ersten Spalte, indem wir durch ersetzen: Nun ersetzt man die 11 in der unteren Zeile, anschließend die 3 in der ersten Zeile usw., bis die Seite links vom senkrechten Strich eine Diagonalmatrix ist. Dann wird die Diagonalmatrix durch geeignete Multiplikationen der drei Zeilen zur Einheitsmatrix umgeformt. Wenn links vom Strich die Einheitsmatrix steht, dann hat man rechts vom Strich die Inverse. Wir lassen die einzelnen weiteren Schritte hier aus Platzgründen aus. Am Ende erhält man Die Inverse von ist also Was geschieht, wenn die Matrix singulär ist und es keine Inverse gibt? Das Gauß-Jordan-Verfahren kann bei singulären Matrizen eingesetzt werden, man muss also nicht wissen, ob die Matrix, deren Inverse man sucht, überhaupt invertierbar ist. Bei den Umformungen einer singulären Matrix tritt an irgendeiner Stelle die Situation auf, dass alle Elemente einer Zeile gleich Null sind. Damit lässt sich die Matrix links vom Strich nicht in die Einheitsmatrix überführen.
Beispiel:
Wir versuchen, die singuläre Matrix mit dem Gauß-Jordan-Verfahren zu invertieren. Der erste Schritt soll auf eine 0 in der unteren linken Ecke führen. Dazu rechnen wir (z.B.) 3(I)-(III) und erhalten Der nächste Schritt ersetzt die 4 in der zweiten Zeile durch eine 0, dazu rechnen wir 2(I)-(II): Subtrahiert man nun die dritte von der zweiten Zeile und schreibt die Differenz in die letzte Zeile, dann bestehen alle Elemente der letzten Zeile (links vom Strich) aus Nullen. Das zeigt, dass die Matrix singulär ist. Man kann also das Verfahren abbrechen, denn es gibt keine Inverse.