Zufallsvariablen sind Funktionen aus dem Ergebnisraum in die Menge der reellen Zahlen. Es ist natürlich möglich, nicht nur eine solche Funktion zu betrachten, sondern mehrere gleichzeitig. Man erhält dann mehrere Zufallsvariablen, die jedoch alle vom gleichen zugrundeliegenden Zufallsvorgang abhängen und auf dem gleichen Ergebnisraum basieren. Ordnet man diese Zufallsvariablen in Form eines Vektors an, dann spricht man von einem Zufallsvektor (engl. random vector). Man sagt auch, dass die Zufallsvariablen eine gemeinsame Verteilung (engl. joint distribution) haben. Auch die beiden Begriffe univariat und multivariat werden häufig verwendet, wenn von einer oder mehreren Zufallsvariablen die Rede ist.
Gemeinsame Verteilungen sind erheblich interessanter und vielseitiger als eindimensionale Zufallsvariablen, weil sie auch Zusammenhänge und Abhängigkeiten zwischen den Variablen beschreiben können.
Beispiel: Kleinere und größere Augenzahl
Zwei Würfel werden geworfen. Die Zufallsvariable sei die kleinere Augenzahl, die Zufallsvariable die größere Augenzahl. Die beiden Zufallsvariablen und basieren auf dem gleichen Ergebnisraum. Sie haben eine gemeinsame Verteilung. Das lässt sich etwa so veranschaulichen:
Beispiel: Aktienportfolio mit zwei Aktien
Wir betrachten die Tagesrenditen von zwei Aktien an einem zukünftigen Tag. Sei die Tagesrendite der Volkswagenaktie und die Tagesrendite von BASF. Dann haben und eine gemeinsame Verteilung. Die gemeinsame Verteilung hat mehr Informationen als die beiden einzelnen Verteilungen für sich genommen. In der gemeinsamen Verteilung stecken auch Informationen über die Art des Zusammenhangs. Das ist z.B. wichtig, wenn man das Risiko seines Portfolios managen will.
Im folgenden gehen wir Schritt für Schritt fast genauso vor wie bei den univariaten Zufallsvariablen in Kapitel 3.
5.1 Verteilungsfunktion
Alle wichtigen Eigenschaften der Verteilung einer univariaten Zufallsvariable werden durch ihre Verteilungsfunktion beschrieben. Wie lässt sich die Idee einer Verteilungsfunktion auf Zufallsvektoren übertragen?
Definition: Gemeinsame Verteilungsfunktion
Sei eine Ergebnismenge, seien und zwei Zufallsvariablen. Dann ist die gemeinsame Verteilungsfunktion (engl. joint cumulative distribution function) von und .
Wenn aus dem Kontext eindeutig hervorgeht, um welchen Zufallsvektor bzw. um welche Zufallsvariablen es sich handelt, können die Subindizes entfallen. Die gemeinsame Verteilungsfunktion lässt sich leicht auf mehr als zwei Zufallsvariablen verallgemeinern. Da die Notation dann etwas unübersichtlicher wird, beschränken wir uns auf den Fall von zwei Zufallsvariablen. Alle wichtigen Konzepte lassen sich auch gut in diesem Fall verstehen.
Eigenschaften der gemeinsamen Verteilungsfunktion:
ist monoton steigend (aber nicht unbedingt streng monoton steigend) in und .
Es gilt und .
Es gilt .
5.2 Gemeinsam diskrete Zufallsvariablen
Im univariaten Fall haben wir uns auf zwei Klassen von Zufallsvariablen beschränkt, nämlich diskrete und stetige Zufallsvariablen. Das lässt sich leicht auf den mehrdimensionalen Fall verallgemeinern.
Definition: Gemeinsam diskrete Zufallsvariablen
Zwei Zufallsvariablen und heißen gemeinsam diskret (engl. jointly discrete), wenn es endlich viele oder abzählbar unendlich viele Werte und gibt, so dass mit .
Gemeinsam diskrete Zufallsvariablen haben eine gemeinsame Wahrscheinlichkeitsfunktion (engl. joint probability function), nämlich Wenn die Zahl der unterschiedlichen möglichen Werte, die und annehmen können, nicht allzu groß ist, dann kann man die gemeinsamen Wahrscheinlichkeiten übersichtlich in Form einer Wahrscheinlichkeitstabelle darstellen:
Beispiel: Kleinere und größere Augenzahl
Zwei Würfel werden geworfen. Die gemeinsame Wahrscheinlichkeitsfunktion der beiden Zufallsvariablen : “kleinere Augenzahl” und : “größere Augenzahl” sieht als Wahrscheinlichkeitstabelle so aus: Der Wert der gemeinsamen Verteilungsfunktion an der Stelle gibt die Wahrscheinlichkeit an, dass ist und gleichzeitig . Diese Wahrscheinlichkeit ergibt sich, indem man alle Wahrscheinlichkeiten aus der Tabelle addiert, die in den ersten beiden Spalten () und in den ersten fünf Zeilen () stehen. Man erhält
5.3 Gemeinsam stetige Zufallsvariablen
Definition: Gemeinsam stetige Zufallsvariablen
Die Zufallsvariablen und heißen gemeinsam stetig (engl. jointly continuous), falls es eine Funktion gibt mit Die Funktion heißt gemeinsame Dichte oder Dichtefunktion (engl. joint density function) von und .
Wenn die Verteilungsfunktion partiell differenzierbar ist, dann erhält man die Dichte, indem man die Verteilungsfunktion nach beiden Argumenten ableitet, Da die Verteilungsfunktion monoton steigend ist, kann die Dichte nie negativ sein (sie kann jedoch in einigen Bereichen 0 sein). Für gilt also Das gesamte Volumen unter der Dichte beträgt 1, Die gemeinsame Dichte zweier Zufallsvariablen kann man sich als Gebirge mit einem Volumen von 1 vorstellen. Die Bereiche , in denen das Gebirge hoch ist, kommen mit einer höheren Wahrscheinlichkeit vor, als die Bereiche, in denen es niedrig ist.
Die verschiedenen Arten der grafischen Darstellung werden nun für eine konkrete gemeinsame Dichte vorgestellt. Die Dichte der beiden Zufallsvariablen und sei für
In der folgenden 3D-Abbildung, die Sie mit der Maus bewegen können (allerdings leider nicht auf einem Tablet), erkennt man, dass die Dichte um den Punkt herum besonders hoch ist. Die gemeinsame Realisation von und wird also mit hoher Wahrscheinlichkeit irgendwo in der Nähe des Nullpunkts liegen. Außerdem ist eine leichte Asymmetrie zu erkennen. Es ist sehr unwahrscheinlich, dass sowohl als auch in beide größer als 3 sind. Hingegen kann es (wenn auch mit eher kleiner Wahrscheinlichkeit) passieren, dass beide Zufallsvariable kleiner als sind.
Weitere Möglichkeiten, ein Dichtegebirge grafisch darzustellen, sind Contour-Plots und Image-Plots. In einem Contour-Plot sieht man die Höhenlinien der Dichtefunktion wie auf einer normalen Landkarte. In einem Image-Plot werden die Höhen durch Farben repräsentiert.
Der Contour-Plot für die obige Dichte sieht so aus:
R-Code zeigen
# Die Vektoren x und y und die Matrix f wurden weiter oben berechnet.contour(x, y, f,xlab="x", ylab="y")
Ein Vorteil des Contour-Plots besteht darin, dass man leicht erkennen kann, wo die Dichte hoch ist. Ein farbiger Image-Plot der gleichen Dichte zeigt folgendes Bild:
R-Code zeigen
# Die Vektoren x und y und die Matrix f wurden weiter oben berechnet.filled.contour(x, y, f,xlab="x", ylab="y")
Wenn man sich für die Wahrscheinlichkeit interessiert, dass die Zufallsvariable in einem bestimmten Bereich landet, muss man das Volumen der Dichte über diesem Bereich berechnen. Für einen rechteckigen Bereich berechnet man das Doppel-Integral Lässt man das Rechteck unendlich groß werden, ergibt sich das Gesamtvolumen 1. Die Herleitung des Doppelintegrals ist in vielen Fällen umständlich, in manchen Fällen sogar in geschlossener Form unmöglich. Numerische Verfahren erlauben jedoch eine approximative Berechnung der Wahrscheinlichkeit. In dem folgenden Beispiel ist die Dichte des Zufallsvektors von einer Form, die eine geschlossene Herleitung des Doppelintegrals erlaubt.
Beispiel: Gemeinsame Dichte
Der gemeinsam stetig verteilte Zufallsvektor hat die gemeinsame Dichtefunktion Die obere Intervallgrenze () für ist gerundet, streng genommen lautet die Obergrenze . Dieser Wert stellt sicher, dass das gesamte Volumen unter der Dichte 1 ergibt.
Wie groß ist die Wahrscheinlichkeit, dass in dem Intervall und gleichzeitig in dem Intervall liegt? Diese Wahrscheinlichkeit ergibt sich als das Doppelintegral Zuerst bestimmen wir das innere Integral. Es ist Dieser Ausdruck wird nun in das äußere Integral eingesetzt. Man erhält Die Wahrscheinlichkeit, das die Realisation des Zufallsvektors in dem Rechteck liegt, beträgt also 5.7 Prozent.
5.4 Randverteilungen
Alle Informationen über die gemeinsame Verteilung eines Zufallsvektors sind in der gemeinsamen Dichte oder der gemeinsamen Verteilungsfunktion enthalten. In manchen Situationen interessiert man sich jedoch gar nicht für die gemeinsame Verteilung, sondern nur für die Verteilung einer der beiden Variablen.
Definition: Randverteilung
Als Randverteilung (engl. marginal distribution) bezeichnet man die Verteilung einer Zufallsvariablen eines Zufallsvektors, wenn die restlichen Zufallsvariablen des Zufallsvektors ignoriert werden.
Die Randverteilungen lassen sich besonders einfach aus der gemeinsamen Verteilungsfunktion ableiten. Es gilt nämlich
wobei und die Randverteilungsfunktionen von und sind. Man erhält also die Randverteilungsfunktionen, indem man die jeweils andere Variable gegen unendlich gehen lässt.
Wenn und gemeinsam diskret verteilt sind, ergeben sich die Randwahrscheinlichkeitsfunktionen aus der gemeinsamen Wahrscheinlichkeitsfunktion,
Beispiel: Kleinere und größere Augenzahl
Zwei Würfel werden geworfen. Die gemeinsame Wahrscheinlichkeitsfunktion der beiden Zufallsvariablen : “kleinere Augenzahl” und : “größere Augenzahl” sieht als Wahrscheinlichkeitstabelle so aus: Die Zeilensummen ergeben die Randverteilung von , die Spaltensummen die Randverteilung von . Die Wahrscheinlichkeiten sind:
Wenn und gemeinsam stetig verteilt sind, erhält man die Randdichten aus der gemeinsamen Dichte wie folgt.
Man sagt auch, dass man “herausintegriert”, um die Randdichte von zu erhalten, und umgekehrt.
Beispiel: Randdichte
Der gemeinsam stetig verteilte Zufallsvektor hat die gemeinsame Dichtefunktion Wie sehen die beiden Randdichten aus? Die Randdichte von erhält man, indem man “herausintegriert”. Wenn nicht in dem Interval liegt, ist die Randdichte offensichtlich 0. Wir betrachten darum nur den Fall, dass in dem Intervall liegt. Dann gilt
Nun bestimmen wir die Randdichte von , indem wir über integrieren.
für . Für ist die Dichte .
5.5 Unabhängigkeit
Definition: Unabhängigkeit
Zwei Zufallsvariablen und heißen stochastisch unabhängig oder unabhängig (engl. independent), wenn für alle gilt
Wenn die Zufallsvariablen nicht unabhängig sind, nennt man sie abhängig. Sowohl bei abhängigen als auch bei unabhängigen Zufallsvariablen gilt, dass die Randverteilungen aus der gemeinsamen Verteilung hergeleitet werden können. Im Gegensatz dazu ist die Herleitung der gemeinsamen Verteilung aus den Randverteilungen nur möglich, wenn die Zufallsvariablen unabhängig sind.
Wenn und gemeinsam diskret verteilt sind, dann gilt bei Unabhängigkeit für alle und
Zwei Würfel werden geworfen. Die gemeinsame Wahrscheinlichkeitsfunktion der beiden Zufallsvariablen : “kleinere Augenzahl” und : “größere Augenzahl”. Sind und unabhängig? Um diese Frage zu beantworten, betrachten wir die gemeinsame Wahrscheinlichkeit . Sie ist offensichtlich 0, denn die kleinere Augenzahl kann niemals größer sein als die größere Augenzahl . Wir wissen aber bereits, dass und sind. Damit ist die Bedingung für Unabhängigkeit verletzt und und sind abhängig voneinander.
Wenn und gemeinsam stetig verteilt sind, ergibt sich bei Unabhängigkeit die gemeinsame Dichte als Produkt der beiden Randdichten,
Der gemeinsam stetig verteilte Zufallsvektor hat die gemeinsame Dichtefunktion Sind und unabhängig? Die beiden Randdichten wurden bereits weiter oben ermittelt. Wir werten sie an den beiden willkürlich ausgewählten Stellen und aus.
Das Produkt ist also . Setzt man und in die gemeinsame Dichte ein, erhält man Die beiden Werte sind nicht gleich. Die Zufallsvariablen und sind also nicht unabhängig.
5.6 Bedingte Verteilungen
Wir betrachten wieder eine gemeinsame Verteilung von zwei Zufallsvariablen und . Während man sich bei den Randverteilungen fragt, wie eine Zufallsvariable verteilt ist, wenn man die andere ignoriert, stellt man sich bei bedingten Verteilungen die Frage, wie eine Zufallsvariable verteilt ist, wenn man den Wert der anderen Zufallsvariable kennt (oder annimmt).
Definition: Bedingte Verteilung
Als bedingte Verteilung (engl. conditional distribution) bezeichnet man die Verteilung einer Zufallsvariable einer gemeinsamen Verteilung, wenn die andere Zufallsvariable auf einen bestimmten Wert fixiert wird.
Wie ist (die bedingte Variable) verteilt, wenn man weiß (oder annimmt), dass (die bedingende Variable) den Wert hat? Oder umgekehrt: Wie ist (bedingte Variable) verteilt, wenn man kennt (bedingende Variable)? Bedingte Verteilungen sind deswegen in der Ökonomik wichtig, weil sie Informationsstände abbilden können. Die Bedingung gibt an, welche Information ein Agent hat.
Für gemeinsam diskrete Verteilungen mit für und gilt: Die bedingte Verteilung von gegeben ist für Es gibt also nicht nur eine bedingte Verteilung von , sondern (nämlich für jeden möglichen Wert von eine).
Vertauscht man die beiden Variablen, so ergeben sich die bedingten Verteilungen von gegeben . Sie sind für festes und
Ein Blick auf die Wahrscheinlichkeitstabelle zeigt, dass die bedingte Verteilung sich aus einer Zeile oder Spalte der Tabelle ergibt, indem man diese Zeile oder Spalte durch den zugehörigen Wert der Randverteilung dividiert. Aus der fett markierten ersten Spalte erhält man beispielsweise die bedingte Verteilung von gegeben , indem man die Spalteneinträge durch teilt.
Für gemeinsam stetige Verteilungen mit der gemeinsamen Dichte gilt: Die bedingte Dichte von gegeben ist Es gibt also wiederum nicht nur eine bedingte Verteilung von , sondern nun sogar unendlich viele (nämlich für jeden Wert aus dem Träger von eine).
Durch Vertauschen von und erhält man die bedingte Verteilung von gegeben . Die bedingte Dichte lautet
Wenn und unabhängig sind, dann sind alle bedingten Verteilungen gleich der Randverteilung. Das gilt sowohl für gemeinsam stetige als auch für gemeinsam diskrete Verteilungen. Die Herleitung ist einfach, wenn man die Definition der Unabhängigkeit berücksichtigt. Als Beispiel sehen wir uns den stetigen Fall an. Die bedingte Dichte von gegeben ist Bei Unabhängigkeit gilt , so dass Unabhängigkeit bedeutet also mit anderen Worten, dass die Information keinen Einfluss auf die Form der Verteilung von hat. Die Verteilung von hängt bei Unabhängigkeit nicht davon ab, welchen Wert annimmt (und umgekehrt).
Beispiel: Bedingte Dichte
Der gemeinsam stetig verteilte Zufallsvektor hat die gemeinsame Dichtefunktion Wie sieht die bedingte Dichte von gegeben aus? Für die Herleitung braucht man die Randdichte von . Sie wurde bereits hergeleitet, Man erhält als bedingte Dichte von gegeben
für .
Bedingte Verteilungen sind univariate Verteilungen. Für jeden Wert der bedingenden Zufallsvariable ergibt sich eine univariate Verteilung. Im Allgemeinen sind sie alle unterschiedlich, aber das muss nicht unbedingt so sein. Wenn und unabhängig sind, dann sind die univariaten bedingten Verteilungen alle gleich.
Für univariate Verteilungen kann man all die Parameter berechnen, die in Kapitel 3 eingeführt wurden, z.B. den Erwartungswert oder die Varianz. Man spricht dann von bedingten Erwartungswerten und bedingten Varianzen. Die gängige Notation ist und . Für jeden Wert der bedingenden Zufallsvariable erhält man einen bedingten Erwartungswert und eine bedingte Varianz. Es handelt sich quasi um Funktionen von . Für gemeinsam stetige Zufallsvariablen berechnet man den bedingten Erwartungswert als und die bedingte Varianz als Die Formeln sind vollständig analog zu den Formeln in Kapitel 3.6 und Kapitel 3.7. Nur wird die Dichte durch die auf bedingte Dichte ersetzt (und im Fall der Varianz der Erwartungswert durch den bedingten Erwartungswert). Für gemeinsam diskret verteilte Zufallsvariablen geht man analog vor.
Beispiel: Bedingte Erwartungswerte
Der gemeinsam stetig verteilte Zufallsvektor hat die gemeinsame Dichtefunktion Zur Berechnung des bedingten Erwartungswerts von gegeben benötigt man die bedingte Dichte. Wir haben sie im letzten Beispiel hergeleitet. Sie ist für gegebenes
für . Damit ergibt sich der bedingte Erwartungswert
Für jeden Wert von in dem Intervall erhält man einen anderen bedingten Erwartungswert für . Grafisch lässt sich das so darstellen:
x <-seq(from=0, to=1.11963, length=200)plot(x, (6*x+3)/(12*x+4), type="l",xlab="x", ylab="E(Y|X=x)",main="Bedingte Erwartungswerte von Y")
Der Erwartungswert von ist also bei kleinen Werten von größer als bei großen Werten. Wenn bekannt ist, dass den Wert 1 annimmt, dann erwartet man für im Mittel ungefähr den Wert 0.55. Ist dagegen nur knapp über 0, dann erwartet man im Mittel für fast 0.75.