8 Eigenwerte
In Kapitel 3 wurde gezeigt, dass durch eine lineare Transformation alle Punkte des
8.1 Grundidee
Für manche Anwendungen ist die Frage interessant, ob es bei einer gegebenen linearen Transformation Geraden gibt, deren Lage sich durch die Transformation nicht ändert. Für eine vollständige Untersuchung dieser Frage braucht man als mathematisches Werkzeug komplexe Zahlen (die eine reelle und eine imaginäre Komponente haben). Wir beschränken uns im Folgenden zur Vereinfachung jedoch auf Fälle, in denen man ausschließlich mit reellen Zahlen arbeiten kann.
Wenn eine Gerade durch die lineare Transformation nicht verändert wird, dann bedeutet das, dass Vektoren, die auf dieser Gerade liegen, höchstens ihre Norm ändern. Sie können länger oder kürzer werden oder auch in die exakt entgegengesetzte Richtung umschlagen, aber sie bleiben auf der Geraden liegen.
Die folgenden beiden Abbildungen zeigen das beispielhaft für die lineare Transformation, die durch die Matrix
In der folgenden Abbildung werden die fünf Vektoren transformiert. Die dünnen Linien zeigen die Lage der Vektoren vor der Transformation.
Man erkennt, dass drei Vektoren ihre Richtung verändern (nämlich die beiden Basisvektoren und der blaue Vektor, der nach unten links gezeigt hat). Die beiden anderen Vektoren (grün und rot) ändern ihre Richtung durch die Transformation nicht, nur ihre Norm ist anders als vor der Transformation. Der grüne Vektor wird durch die Transformation verkürzt, der rote verlängert.
Vektoren, die ihre Richtung bei einer linearen Transformation nicht verändern, nennt man Eigenvektoren (engl. eigen vectors). Die Skalare, die angeben, wie sich die Länge der Eigenvektoren verändert, heißen Eigenwerte (engl. eigen values). In der obigen Abbildung sieht man, dass einer der beiden Eigenwerte größer als 1 ist (nämlich für den roten Vektor, der nach rechts unten zeigt), und dass der andere Eigenwert kleiner ist als 1 (denn der grüne Eigenvektor verkürzt sich).
8.2 Definition
Formal definieren wir Eigenvektoren und Eigenwerte einer
An der Gleichung erkennt man leicht, dass die Eigenvektoren nicht eindeutig sind, denn wenn
8.3 Berechnung
Wie findet man die Eigenwerte und -vektoren? Formt man die Definitionsgleichung um, so erhält man
Beispiel:
Wenn eine Matrix numerisch komplett spezifiziert ist, berechnet man ihre Eigenwerte und -vektoren gewöhnlich nicht “per Hand”, sondern mit dem Computer. In höheren Dimensionen wäre eine Berechnung per Hand zu zeitraubend, im zweidimensionalen Fall ist es jedoch noch machbar und illustriert das prinzipielle Vorgehen. Darum sehen wir uns die Berechnung der Eigenwerte an der Beispielmatrix eigen
. Sie gibt als Output nicht nur einen Vektor der Eigenwerte aus, sondern auch eine Matrix, in der die zugehörigen Eigenvektoren zusammengefasst sind. Wir speichern den Output hier unter dem Namen E
.
<- matrix(c(4,-1,-3,1), 2, 2)
A <- eigen(A) E
Diese beiden Bestandteile des Outputs werden in einer Liste zusammengefasst. Das erste Listenelement ist der Vektor der Eigenwerte ($values
), das zweite Element ist die Matrix der Eigenvektoren ($vectors
) Die Eigenwerte sind
$values E
[1] 4.7912878 0.2087122
Und die Eigenvektoren sind (spaltenweise angeordnet)
$vectors E
[,1] [,2]
[1,] 0.9669305 0.6205203
[2,] -0.2550401 0.7841904
Da die Eigenvektoren nicht eindeutig, sondern nur bis auf die Skalierung gegeben sind, werden sie hier auf die Norm 1 skaliert. Jedes beliebige Vielfache eines Eigenvektors ist ebenfalls ein Eigenvektor.
Eigenwerte hängen eng mit der Determinante zusammen. Das Produkt aller Eigenwerte ist genauso groß wie die Determinante,
Die Summe der Eigenwerte entspricht der Spur (also der Summe der Diagonalelemente der Matrix).
Nicht für jede Matrix sind die Eigenwerte reell. Es kann durchaus passieren, dass einige oder alle Eigenwerte (und auch die Eigenvektoren) komplexe Zahlen sind. Wir ignorieren das in diesem Kurs. Seien Sie aber nicht verwundert, wenn Ihnen von R ein Output geliefert wird, der ungefähr so aussieht:
<- matrix(c(1,2,-2,1), 2, 2)
B eigen(B)
eigen() decomposition
$values
[1] 1+2i 1-2i
$vectors
[,1] [,2]
[1,] 0.0000000+0.7071068i 0.0000000-0.7071068i
[2,] 0.7071068+0.0000000i 0.7071068+0.0000000i
8.4 Symmetrische Matrizen
Für symmetrische Matrizen (mit reellen Elementen) sind die Eigenwerte immer reell. Das ist ein Spezialfall, der in der Ökonometrie recht häufig vorkommt. Das ist auch der Grund, warum es in einem Grundlagenkurs gerechtfertigt ist, komplexe Eigenwerte zu ignorieren.
Ferner gilt für symmetrische Matrizen, dass der Rang einer Matrix der Anzahl der Eigenwerte entspricht, die nicht 0 sind.