8  Eigenwerte

In wurde gezeigt, dass durch eine lineare Transformation alle Punkte des R2 auf andere Punkte in R2 bewegt (transformiert) werden. Für höhere Dimensionen gilt das natürlich analog, aber wir betrachten im folgenden nur den einfacheren zweidimensionalen Fall, weil er leicht zu visualisieren ist. Die Linearität der Transformation führt dazu, dass Geraden auch nach der Transformation wieder Geraden sind und dass Parallelen weiterhin parallel zueinander liegen. Der Nullpunkt bleibt unverändert.

8.1 Grundidee

Für manche Anwendungen ist die Frage interessant, ob es bei einer gegebenen linearen Transformation Geraden gibt, deren Lage sich durch die Transformation nicht ändert. Für eine vollständige Untersuchung dieser Frage braucht man als mathematisches Werkzeug komplexe Zahlen (die eine reelle und eine imaginäre Komponente haben). Wir beschränken uns im Folgenden zur Vereinfachung jedoch auf Fälle, in denen man ausschließlich mit reellen Zahlen arbeiten kann.

Wenn eine Gerade durch die lineare Transformation nicht verändert wird, dann bedeutet das, dass Vektoren, die auf dieser Gerade liegen, höchstens ihre Norm ändern. Sie können länger oder kürzer werden oder auch in die exakt entgegengesetzte Richtung umschlagen, aber sie bleiben auf der Geraden liegen.

Die folgenden beiden Abbildungen zeigen das beispielhaft für die lineare Transformation, die durch die Matrix A=[4311] beschrieben wird. In der ersten Abbildung sieht man fünf Vektoren vor der Transformation, u.a. die beiden Basisvektoren.

In der folgenden Abbildung werden die fünf Vektoren transformiert. Die dünnen Linien zeigen die Lage der Vektoren vor der Transformation.

Man erkennt, dass drei Vektoren ihre Richtung verändern (nämlich die beiden Basisvektoren und der blaue Vektor, der nach unten links gezeigt hat). Die beiden anderen Vektoren (grün und rot) ändern ihre Richtung durch die Transformation nicht, nur ihre Norm ist anders als vor der Transformation. Der grüne Vektor wird durch die Transformation verkürzt, der rote verlängert.

Vektoren, die ihre Richtung bei einer linearen Transformation nicht verändern, nennt man Eigenvektoren (engl. eigen vectors). Die Skalare, die angeben, wie sich die Länge der Eigenvektoren verändert, heißen Eigenwerte (engl. eigen values). In der obigen Abbildung sieht man, dass einer der beiden Eigenwerte größer als 1 ist (nämlich für den roten Vektor, der nach rechts unten zeigt), und dass der andere Eigenwert kleiner ist als 1 (denn der grüne Eigenvektor verkürzt sich).

8.2 Definition

Formal definieren wir Eigenvektoren und Eigenwerte einer (n×n)-Matrix A wie folgt. Wenn für λR und x0 Ax=λx gilt, dann heißt x Eigenvektor von A zum Eigenwert λ.

An der Gleichung erkennt man leicht, dass die Eigenvektoren nicht eindeutig sind, denn wenn x ein Eigenvektor ist, dann ist auch ein Vielfaches von x wieder ein Eigenvektor.

8.3 Berechnung

Wie findet man die Eigenwerte und -vektoren? Formt man die Definitionsgleichung um, so erhält man AxλIx=0, wobei I die (n×n)-Einheitsmatrix ist. Nun kann x ausgeklammert werden, (AλI)x=0. Aus wissen wir, dass diese Gleichung nur dann eine (nicht eindeutige) Lösung x0 hat, wenn die Matrix (AλI) singulär ist. Das bedeutet, dass die Determinante 0 sein muss. Mit anderen Worten: Damit λ ein Eigenwert ist, muss es so gewählt werden, dass det(AλI)=0 ist. Man nennt diese Gleichung (in λ) die charakteristische Gleichung oder das charakteristische Polynom der Matrix.

Beispiel:

Wenn eine Matrix numerisch komplett spezifiziert ist, berechnet man ihre Eigenwerte und -vektoren gewöhnlich nicht “per Hand”, sondern mit dem Computer. In höheren Dimensionen wäre eine Berechnung per Hand zu zeitraubend, im zweidimensionalen Fall ist es jedoch noch machbar und illustriert das prinzipielle Vorgehen. Darum sehen wir uns die Berechnung der Eigenwerte an der Beispielmatrix A=[4311] genauer an. Die Determinante von AλI=[4λ311λ] beträgt (4λ)(1λ)(3)(1). Es handelt sich also um einen quadratischen Ausdruck in λ. Nullsetzen und Umformen ergibt (4λ)(1λ)3=045λ+λ23=0λ25λ+1=0λ=52±2541λ14.7913λ20.2087. In R lautet die Funktion zum Berechnen der Eigenwerte eigen. Sie gibt als Output nicht nur einen Vektor der Eigenwerte aus, sondern auch eine Matrix, in der die zugehörigen Eigenvektoren zusammengefasst sind. Wir speichern den Output hier unter dem Namen E.

A <- matrix(c(4,-1,-3,1), 2, 2)
E <- eigen(A)

Diese beiden Bestandteile des Outputs werden in einer Liste zusammengefasst. Das erste Listenelement ist der Vektor der Eigenwerte ($values), das zweite Element ist die Matrix der Eigenvektoren ($vectors) Die Eigenwerte sind

E$values
[1] 4.7912878 0.2087122

Und die Eigenvektoren sind (spaltenweise angeordnet)

E$vectors
           [,1]      [,2]
[1,]  0.9669305 0.6205203
[2,] -0.2550401 0.7841904

Da die Eigenvektoren nicht eindeutig, sondern nur bis auf die Skalierung gegeben sind, werden sie hier auf die Norm 1 skaliert. Jedes beliebige Vielfache eines Eigenvektors ist ebenfalls ein Eigenvektor.

Eigenwerte hängen eng mit der Determinante zusammen. Das Produkt aller Eigenwerte ist genauso groß wie die Determinante, i=1nλi=det(A). Daraus folgt unmittelbar, dass eine Matrix singulär ist, wenn sie (mindestens) einen Eigenwert 0 hat.

Die Summe der Eigenwerte entspricht der Spur (also der Summe der Diagonalelemente der Matrix).

Nicht für jede Matrix sind die Eigenwerte reell. Es kann durchaus passieren, dass einige oder alle Eigenwerte (und auch die Eigenvektoren) komplexe Zahlen sind. Wir ignorieren das in diesem Kurs. Seien Sie aber nicht verwundert, wenn Ihnen von R ein Output geliefert wird, der ungefähr so aussieht:

B <- matrix(c(1,2,-2,1), 2, 2)
eigen(B)
eigen() decomposition
$values
[1] 1+2i 1-2i

$vectors
                     [,1]                 [,2]
[1,] 0.0000000+0.7071068i 0.0000000-0.7071068i
[2,] 0.7071068+0.0000000i 0.7071068+0.0000000i

8.4 Symmetrische Matrizen

Für symmetrische Matrizen (mit reellen Elementen) sind die Eigenwerte immer reell. Das ist ein Spezialfall, der in der Ökonometrie recht häufig vorkommt. Das ist auch der Grund, warum es in einem Grundlagenkurs gerechtfertigt ist, komplexe Eigenwerte zu ignorieren.

Ferner gilt für symmetrische Matrizen, dass der Rang einer Matrix der Anzahl der Eigenwerte entspricht, die nicht 0 sind.