dbinom(k, size=n, prob=p)
4 Standardverteilungen
Für viele Anwendungsfälle gibt es Standardverteilungen, die bestimmte Zufallsvorgänge sehr gut beschreiben können. Eine übersichtliche Liste wichtiger Standardverteilungen finden Sie auf der deutschsprachigen Wikipedia-Seite (-> Link). Die entsprechende englischsprachige Seite (-> Link) listet noch mehr Verteilungen auf, stellt ihre Eigenschaften aber nicht so übersichtlich dar. In diesem Kurs lernen Sie exemplarisch einige ausgewählte diskrete und stetige Standardverteilungen kennen. Der Transfer auf beliebige weitere Standardverteilungen fällt dann leicht.
4.1 Standardverteilungen in R
Die meisten Standardverteilungen sind in R implementiert oder lassen sich leicht durch R-Pakete ergänzen. Zu jeder Standardverteilung gibt es R-Funktionen, mit denen man ihre Verteilungs- und Quantilfunktion sowie die Dichte- bzw. Wahrscheinlichkeitsfunktion auswerten kann. Außerdem stellt R Funktionen bereit, mit denen sich Realisationen von Zufallsvariablen generieren lassen, die einer Standardverteilung folgen.
Die Syntax der R-Funktionen ist sehr einfach und für alle Standardverteilungen nahezu gleich:
dVERTEILUNG(x, PARAMETER)
: Dichte- oder WahrscheinlichkeitsfunktionpVERTEILUNG(q, PARAMETER)
: VerteilungsfunktionqVERTEILUNG(p, PARAMETER)
: Quantilfunktion
Dabei ist VERTEILUNG
eine Abkürzung für den Namen der Standardverteilung und PARAMETER
ist der Parameter der Verteilung (bzw. die Parameter, wenn es mehrere sind). Mit x
, q
und p
werden die Stellen bezeichnet, an denen die Dichte- oder Wahrscheinlichkeitsfunktion, die Verteilungsfunktion und die Quantilfunktion ausgewertet werden sollen. Im Kapitel A.4 wird genauer erklärt, auf welche Weisen man Funktionsargumente eingeben kann.
Um Realisationen der Zufallsvariable zu ziehen, nutzt man die R-Funktionen
rVERTEILUNG(n, PARAMETER)
Das erste Argument (n
) gibt an, wie viele (unabhängige) Ziehungen aus der Zufallsvariable simuliert werden sollen. Die Ziehungen werden als Zufallszahlen bezeichnet. Die Funktion liefert als Output einen Vektor der Länge n
.
Es gibt noch eine weitere R-Funktion zum Ziehen von Zufallszahlen, nämlich die Funktion
sample
Sie dient dazu, aus einem Vektor zufällig Elemente auszuwählen. Eine ausführliche Beschreibung folgt in Kapitel 4.4. In Kapitel 7.2 und Kapitel 7.4 wird erklärt, wie man in R mit Hilfe von Zufallszahlen sogenannte Monte-Carlo-Simulationen durchführt.
4.2 Diskrete Verteilungen
4.2.1 Bernoulli-Verteilung
Ein Zufallsexperiment heißt Bernoulli-Experiment, wenn es nur darauf ankommt, ob etwas eintritt (“Erfolg”, \(A\)) oder nicht eintritt (“Misserfolg”, \(\bar A\)). Die Wahrscheinlichkeit eines Erfolgs bezeichnen wir mit dem Parameter \(\pi\) (der hier nichts mit der Kreiszahl 3.14159… zu tun hat), \[ P(A)=\pi. \] Die Indikatorvariable \(1_A\) ist eine Zufallsvariable mit \[ 1_A=\left\{ \begin{array}{ll} 1 & \text{ wenn }A\text{ eintritt}\\ 0 & \text{ wenn }\bar A\text{ eintritt}\\ \end{array} \right. \] Die Zufallsvariable \(1_A\) heißt Bernoulli-verteilt (engl. Bernoulli distributed) mit Parameter \(\pi\). Die Wahrscheinlichkeitsfunktion lautet \[ f(x)=\left\{ \begin{array}{ll} 1-\pi & \text{ wenn }x=0\\ \pi & \text{ wenn }x=1\\ 0 & \text{ sonst.} \end{array} \right. \] Der Erwartungswert lässt sich nun leicht ausrechnen. Es gilt \[ E(1_A)=0\cdot (1-\pi)+1\cdot \pi=\pi. \] Und die Varianz beträgt
\[\begin{align*} Var(1_A)&=(0-\pi)^2\cdot (1-\pi)+(1-\pi)^2\cdot \pi\\ &=\pi^2(1-\pi)+(1-\pi)^2\pi\\ &=\pi^2-\pi^3+(1-2\pi+\pi^2)\pi\\ &=\pi^2-\pi^3+\pi-2\pi^2+\pi^3\\ &=\pi-\pi^2\\ &=\pi (1-\pi). \end{align*}\]
4.2.2 Binomialverteilung
Eine Zufallsvariable \(X\) folgt einer Binomialverteilung (engl. binomial distribution) mit den Parametern \(n\) und \(\pi\), wenn der Träger \[ T_X=\{0,1,2,\ldots,n\} \] ist und die Wahrscheinlichkeitsfunktion für \(k=0,1,2,\ldots,n\) \[ P(X=k)={n \choose k} \pi^k (1-\pi)^{n-k} \] lautet. Der Ausdruck \({n \choose k}\) heißt Binomialkoeffizient, er ist eine Kurzschreibweise für \[ {n \choose k} =\frac{n!}{k!(n-k)!}, \] wobei \(n!\) die Fakultät von \(n\) ist, d.h. \[ n!=1\cdot 2\cdot\ldots\cdot n. \] Die Binomialverteilung ergibt sich, wenn ein Bernoulli-Experiment \(n\)-mal unabhängig wiederholt wird. Mit \(A_1, A_2,\ldots, A_n\) bezeichnen wir die Ereignisse, ob bei der \(i\)-ten Wiederholung ein Erfolg oder Misserfolg aufgetreten ist. Dazu werden die \(n\) Zufallsvariablen \[ 1_{A_i}=\left\{ \begin{array}{ll} 1 & \text{ wenn }A_i\text{ eintritt}\\ 0 & \text{ wenn }\bar A_i\text{ eintritt} \end{array} \right. \] definiert. Dann ist die Summe \[ X=\sum_{i=1}^n 1_{A_i} \] eine binomialverteilte Zufallsvariable. Sie gibt an, wie viele Erfolge bei den \(n\) Wiederholungen aufgetreten sind. Die Verteilung von \(X\) hängt davon ab, welche Werte \(n\) und \(\pi\) annehmen. Für \(n=1\) ergibt sich als Spezialfall die Bernoulli-Verteilung mit Parameter \(\pi\).
Die übliche Kurzschreibweise für eine binomialverteilte Zufallsvariable mit den Parametern \(n\) und \(\pi\) lautet \[ X\sim B(n,\pi). \] Der Erwartungswert und die Varianz betragen
\[\begin{align*} E(X) &= n\pi\\ Var(X) &= n\pi (1-\pi). \end{align*}\]
Auf die Herleitungen verzichten wir an dieser Stelle. Sie sind sehr einfach mit den Methoden durchführbar, die in Kapitel 6 behandelt werden.
In R ist die Abkürzung für die Binomialverteilung binom
. Die R-Funktion zur Berechnung der Wahrscheinlichkeitsfunktion \(P(X=k)\) einer binomialverteilten Zufallsvariable \(X\) mit den Parametern \(n\) und \(p\) ist
Die Verteilungsfunktion \(F(x)=P(X\le x)\) wird in R berechnet durch
pbinom(x, size=n, prob=p)
Und die Quantilfunktion kann in R ausgewertet werden mit der R-Funktion
qbinom(q, size=n, prob=p)
Diese Funktion berechnet das \(q\)-Quantil.
Alle drei Funktionen können auch an mehreren Stellen gleichzeitig ausgewertet werden, indem man für k
, x
oder q
einen Vektor einsetzt.
4.2.3 Poisson-Verteilung
Eine Zufallsvariable \(X\) heißt Poisson-verteilt (engl. Poisson distributed) mit dem Parameter \(\lambda\), wenn sie die Wahrscheinlichkeitsfunktion \[ P(X=x)=e^{-\lambda}\frac{\lambda^x}{x!} \] für \(x=0,1,2,\ldots\) hat. Die übliche Kurzschreibweise ist \(X\sim Po(\lambda)\).
Der Träger der Poisson-Verteilung besteht aus allen natürlichen Zahlen (und der Null). Erwartungswert und Varianz sind beide
\[\begin{align*} E(X) &= \lambda\\ Var(X) &= \lambda. \end{align*}\]
In R ist die Abkürzung für die Poisson-Verteilung pois
. Die R-Funktion zur Berechnung der Wahrscheinlichkeitsfunktion \(P(X=x)\) einer Poisson-verteilten Zufallsvariable \(X\) mit dem Parameter \(\lambda\) ist
dpois(x, lambda)
Die Verteilungsfunktion \(F(x)=P(X\le x)\) wird in R berechnet durch
ppois(x, lambda)
Und die Quantilfunktion ist
qpois(p, lambda)
Es gibt zwei Anwendungsbereiche, in denen die Poisson-Verteilung besonders gut zur Modellierung geeignet ist. Zum einen ist es die Approximation einer Binomialverteilung, wenn die Zahl der Ziehungen groß und die Wahrscheinlichkeit eines Erfolgs klein ist. Zum anderen kann die Poisson-Verteilung gut zur Modellierung von “Schalterproblemen” eingesetzt werden.
Die Approximation einer Binomialverteilung durch eine Poisson-Verteilung ist sehr präzise möglich, wenn \(n\) groß und gleichzeitig \(\pi\) klein ist. Die Poisson-Verteilung ergibt sich als Grenzwert, wenn \(n\to\infty\) und \(\pi\) so gegen 0 konvergiert, dass \(n\pi\) gegen eine Konstante konvergiert. In diesem Fall gilt \[ P(X=x)={n\choose x}\pi^x (1-\pi)^{n-x}\approx e^{-\lambda}\frac{\lambda^x}{x!} \] mit \(\lambda=n\pi\), d.h. der Parameter \(\lambda\) der Poisson-Verteilung wird bei der Approximation auf den Erwartungswert der Binomialverteilung gesetzt. Die folgende Tabelle zeigt die Wahrscheinlichkeiten \(P(X=k)\) für \(k=0,1,\ldots,5\) bei einigen Binomialverteilungen und ihre Approximation durch eine Poisson-Verteilung.
k | B(10, 0.1) | B(100, 0.01) | B(1000, 0.001) | Po(1) |
---|---|---|---|---|
0 | 0.34868 | 0.36603 | 0.36770 | 0.36788 |
1 | 0.38742 | 0.36973 | 0.36806 | 0.36788 |
2 | 0.19371 | 0.18486 | 0.18403 | 0.18394 |
3 | 0.05740 | 0.06100 | 0.06128 | 0.06131 |
4 | 0.01116 | 0.01494 | 0.01529 | 0.01533 |
5 | 0.00149 | 0.00290 | 0.00305 | 0.00307 |
Man erkennt, dass selbst bei \(n=10\) und \(\pi=0.1\) die Approximation schon einigermaßen gut ist. Für \(n=1000\) und \(\pi=0.001\) sind die Unterschiede zwischen Binomial- und Poisson-Verteilung vernachlässigbar.
Ein weiterer wichtiger Anwendungsbereich der Poisson-Verteilung sind “Schalterprobleme”. Dabei wird die Zahl von Kunden als Zufallsvariable modelliert, die innerhalb einer bestimmten Zeitspanne am Schalter eintreffen. Eine besondere Eigenschaft der Poisson-Verteilung ist es, dass dann auch die Zahl der eintreffenden Kunden für eine längere oder kürzere Zeitspanne poisson-verteilt ist. Der Parameter der Verteilung verändert sich proportional zur Länge der Zeitspanne.
4.3 Stetige Verteilungen
4.3.1 Normalverteilung
Die mit großem Abstand wichtigste Verteilung überhaupt ist die Normalverteilung (engl. normal distribution), manchmal auch Gauß-Verteilung (engl. Gaussian distribution) genannt. Sie ist aus zwei Gründen so wichtig. Zum einen lassen sich viele empirische Phänomene sehr gut durch eine Normalverteilung modellieren, z.B. biometrische Größen (Körpergröße und -gewicht), ökonomische Größen (Jahresrenditen von Aktien oder Anleihen), Messfehler und Produktionsabweichungen. Zum anderen spielt die Normalverteilung eine extrem wichtige Rolle in der Schätz- und Testtheorie, die später in diesem Kurs in Kapitel 10 und Kapitel 11 behandelt werden.
Everybody believes in the normal distribution: the experimenters because they think it is a mathematical theorem and the mathematicians because they think it is an experimental fact. (Quelle nicht rekonstruierbar.)
Bevor die allgemeine Normalverteilung eingeführt wird, definieren wir zuerst die Standardnormalverteilung. Eine Zufallsvariable \(U\) heißt standardnormalverteilt, wenn sie für \(u\in\mathbb{R}\) die Dichte \[ \phi(u)=\frac{1}{\sqrt{2\pi}}\exp\left(-\frac{1}{2}u^2\right) \] hat. Die Kurzschreibweise lautet \(U\sim N(0,1)\). Das Symbol \(\phi\) (“klein phi”) ist die gängige Notation für die Dichte der Standardnormalverteilung.
Das “Herz” der Standardnormalverteilung ist die Funktion \(e^{-u^2}\). Alle anderen Bestandteile der Dichte dienen letztlich nur der Normierung. Ein Plot der Dichte zeigt, dass sie eine Glockenkurve beschreibt, die symmetrisch um die Null herum verläuft.
R-Code zeigen
<- seq(from=-4, to=4, length=200)
x plot(x, dnorm(x),
type="l",
main="Dichte der Standardnormalverteilung",
xlab="x",
ylab=expression(phi(x)),
yaxs="i",
ylim=c(0,0.45))
abline(v=0)
Die zugehörige Verteilungsfunktion wird mit \(\Phi(u)=P(U\le u)\) (“groß phi”) bezeichnet, \[ \Phi(u)=\int_{-\infty}^u \phi(t)dt. \] Die Funktion \(\Phi(u)\) ist auf ganz \(\mathbb{R}\) streng monoton wachsend, jedoch sind Werte betragsmäßig größer als 4 extrem unwahrscheinlich, wie man an der folgenden Abbildung erkennt.
R-Code zeigen
<- seq(from=-4, to=4, length=200)
x plot(x, pnorm(x),
type="l",
main="Verteilungsfunktion der Standardnormalverteilung",
xlab="x",
ylab=expression(Phi(x)),
yaxs="i",
ylim=c(0,1.1))
abline(v=0)
abline(h=1,
lty="dotted")
Wegen der Symmetrie der Standardnormalverteilung um die Null herum gilt \[ \Phi(u)=1-\Phi(-u). \] Die Inverse der Verteilungsfunktion ist die Quantilfunktion \(\Phi^{-1}(p)\),
R-Code zeigen
<- seq(from=0.001, to=0.999, length=200)
x plot(x, qnorm(x),
type="l",
main="Quantilfunktion der Standardnormalverteilung",
xlab="x",
ylab=expression(Phi^-1 (x)),
xaxs="i")
abline(h=0)
Auch hier gibt es eine Symmetriebeziehung, nämlich
\[\begin{align*} \Phi^{-1}(p) &= -\Phi^{-1}(1-p)\\ \text{bzw.}\qquad u_p &= -u_{1-p}. \end{align*}\]
Der Erwartungswert der Standardnormalverteilung ist \(E(U)=0\), die Varianz ist \(Var(U)=1\). Die Zufallsvariable \(U\) ist also standardisiert.
Leider gibt es keine geschlossene Formel für das Integral der Dichtefunktion. Die Verteilungsfunktion \(\Phi(u)\) kann daher nicht einfach formelmäßig notiert werden. Dennoch lassen sich Dichte-, Verteilungs- und Quantilfunktion in R sehr einfach berechnen. Die Abkürzung in R für die Normalverteilung ist norm
. Genauere Hinweise zu Funktionsaufrufen finden Sie in Kapitel A.4.
Die Standardnormalverteilung ist ein Spezialfall der Normalverteilung. Die allgemeine Normalverteilung hat zwei Parameter, die meistes mit \(\mu\) und \(\sigma^2\) (oder \(\sigma\)) bezeichnet werden. Die Dichtefunktion der Normalverteilung ist \[ f(x)=\frac{1}{\sigma\sqrt{2\pi}}\exp\left(-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2\right). \] Die Kurzschreibweise für eine normalverteilte Zufallsvariable mit den Parametern \(\mu\in\mathbb{R}\) und \(\sigma^2>0\) lautet: \(X\sim N(\mu,\sigma^2)\).
Der Parameter \(\mu\) bewirkt eine Verschiebung der Dichte. Für positive Werte von \(\mu\) liegt die Dichte weiter rechts, für negative Werte weiter links. Wenn \(\mu=0\) ist, weist die Dichte eine Symmetrie um die 0 herum auf. Die Abbildung zeigt drei Dichten von \(N(\mu,1)\) für \(\mu=-1,1,5\).
R-Code zeigen
<- seq(from=-4, to=9, length=500)
x plot(x,dnorm(x, mean=-1, sd=1),
type="l",
col="red",
yaxs="i",
ylim=c(0, 0.45),
ylab="Dichten",
main=expression(paste("Einfluss von ",mu)))
lines(x,dnorm(x, mean=1, sd=1), col="green")
lines(x,dnorm(x, mean=5, sd=1), col="blue")
legend("topright",
fill=c("red", "green", "blue"),
legend=c(expression(mu==-1),
expression(mu==1),
expression(mu==5)))
Der Parameter \(\sigma^2\) hat einen Einfluss auf die Form der Dichte. Wenn \(\sigma^2\) klein ist (also nahe 0), dann ist die Dichte schmal und hoch und nah um den Wert \(\mu\) herum konzentriert. Je größer \(\sigma^2\) ist, desto breiter und flacher ist die Dichte. Die Abbildung zeigt drei Dichten von \(N(0,\sigma^2)\) für \(\sigma^2=0.3,1,3\).
R-Code zeigen
<- seq(from=-7, to=7, length=500)
x plot(x, dnorm(x, mean=0, sd=sqrt(0.3)),
type="l",
col="red",
yaxs="i",
ylim=c(0, 0.8),
ylab="Dichten",
main=expression(paste("Einfluss von ",sigma^2)))
lines(x,dnorm(x, mean=0, sd=1), col="green")
lines(x,dnorm(x, mean=0, sd=sqrt(3)), col="blue")
legend("topright",
fill=c("red","green","blue"),
legend=c(expression(sigma^2==0.3),
expression(sigma^2==1),
expression(sigma^2==3)))
Zwischen der Dichte der \(N(\mu,\sigma^2)\) und der Dichte der Standardnormalverteilung besteht eine enge Beziehung. Es gilt \[ f(x)=\phi\left(\frac{x-\mu}{\sigma}\right). \] Die Verteilungsfunktion der allgemeinen Normalverteilung \(N(\mu,\sigma^2)\) wird indirekt durch die Verteilungsfunktion der Standardnormalverteilung \(N(0,1)\) ausgedrückt. Sie ist \[ F(x)=\Phi\left(\frac{x-\mu}{\sigma}\right). \] Das bedeutet, dass eine standardisierte Normalverteilung einer Standardnormalverteilung folgt (die Begriffe sind also gut gewählt). Wegen dieses Zusammenhangs ist es möglich, die Verteilungsfunktion einer beliebigen Normalverteilung selbst dann auszuwerten, wenn man nur die Verteilungsfunktion der Standardnormalverteilung kennt. In älteren Lehrbüchern zur Statistik findet man deshalb im Anhang Tabellen mit den Funktionswerten der Verteilungsfunktion der Standardnormalverteilung. Mit ihrer Hilfe konnte man früher die Verteilungsfunktion jeder Normalverteilung bestimmen. Heutzutage ist das nicht mehr nötig, da die Verteilungsfunktion der allgemeinen Normalverteilung in praktisch jedem Computerprogramm implementiert ist.
Auch die Quantilfunktion der \(N(\mu,\sigma^2)\) wird durch die Quantilfunktion der \(N(0,1)\) ausgedrückt, und zwar gilt \[ F^{-1}(p) = \mu+\sigma \cdot\Phi^{-1}(p). \] Erwartungswert und Varianz der \(N(\mu,\sigma^2)\) sind
\[\begin{align*} E(X) &= \mu\\ Var(X) &= \sigma^2. \end{align*}\]
In R verwendet man für die allgemeine Normalverteilung die gleichen Funktionen wie für die Standardnormalverteilung. Nur die beiden Parameter \(\mu\) (mean
) und \(\sigma\) (sd
) werden als zusätzliche Argumente angefügt.
Achtung: Anstelle der Varianz \(\sigma^2\) erwarten die R-Funktionen zur Normalverteilung als Argument die Standardabweichung \(\sigma\)! Es ist ein häufiger und leider leicht zu übersehender Fehler, als Parameter die Varianz anzugeben.
Die R-Funktionen für die Dichte-, Verteilungs- und Quantilfunktion der Normalverteilung sind also
dnorm(x, mean=mu, sd=sigma)
pnorm(x, mean=mu, sd=sigma)
qnorm(p, mean=mu, sd=sigma)
4.3.2 Exponentialverteilung
Die Exponentialverteilung ist oft gut geeignet zur Modellierung von Wartezeiten oder Dauern. Eine Zufallsvariable \(X\) heißt exponentialverteilt (engl. exponentially distributed) mit Parameter \(\lambda>0\), wenn ihre Dichte \[ f(x)=\left\{ \begin{array}{ll} \lambda e^{-\lambda x} & \text{ wenn }x\ge 0\\ 0 & \text{ wenn }x<0. \end{array} \right. \] ist. Die Kurzschreibweise für eine exponentialverteilte Zufallsvariable ist \(X\sim Exp(\lambda)\).
Der Plot zeigt den Verlauf der Dichtefunktion von \(Exp(1)\).
R-Code zeigen
<- seq(from=0.0001, to=5, length=200)
x plot(x, dexp(x),
type="l",
main="Dichte der Exponentialverteilung",
xlab="x",
ylab="Dichte",
yaxs="i",
ylim=c(0, 1.1),
xlim=c(-0.5, 5))
lines(c(0,0), c(0,1), lty="dotted")
Die Verteilungsfunktion erhält man durch Integration der Dichte. Außerdem muss die Verteilungsfunktion an der Stelle 0 den Wert 0 annehmen. Für die Verteilungsfunktion ergibt sich \[ F(x)=\left\{ \begin{array}{ll} 0 & \text{ wenn }x<0\\ 1-e^{-\lambda x}& \text{ wenn }x\ge 0. \end{array} \right. \] Durch Invertieren der Verteilungsfunktion erhält man die Quantilfunktion. Dazu löst man die Gleichung \(F(x)=p\) nach \(x\) auf.
\[\begin{align*} &&F(x)&=p\\ \Leftrightarrow &&1-e^{-\lambda x}&=p \\ \Leftrightarrow &&1-p&=e^{-\lambda x} \\ \Leftrightarrow &&\ln(1-p)&=-\lambda x \\ \Leftrightarrow &&x &=-\frac{1}{\lambda}\ln(1-p). \end{align*}\]
Die Quantilfunktion lautet also \[ F^{-1}(p)=-\frac{1}{\lambda}\ln(1-p). \] Der Erwartungswert und die Varianz sind
\[\begin{align*} E(X) &= \frac{1}{\lambda}\\ Var(X) &= \frac{1}{\lambda^2}. \end{align*}\]
In R ist die Abkürzung für die Exponentialverteilung exp
. Die Funktionen für die Dichte, Verteilungs- und Quantilfunktion sind:
dexp(x, rate=lambda)
pexp(x, rate=lambda)
qexp(p, rate=lambda)
4.3.3 Paretoverteilung
Die Paretoverteilung (engl. Pareto distribution) kann in vielen Anwendungen extreme Ereignisse gut beschreiben. Beispielsweise folgt die Vermögensverteilung bei den Superreichen einer Paretoverteilung. Auch extreme Aktienrenditen oder extreme Schadensereignisse können gut durch eine Paretoverteilung beschrieben werden.
Die Paretoverteilung hat zwei Parameter, und zwar \(x_{min}>0\) und \(k>0\). Die Dichte lautet \[ f(x)=\left\{ \begin{array}{ll} 0 & \text{ wenn }x<x_{min}\\ \frac{k}{x_{min}}\left(\frac{x_{min}}{x}\right)^{k+1}& \text{ wenn }x\ge x_{min}. \end{array} \right. \] Für \(x_{min}=1\) und \(k=2\) ergibt sich folgendes Bild:
R-Code zeigen
<- 2
k <- 1
xmin <- seq(from=1, to=5, length=200)
x plot(x, (k/xmin)*(xmin/x)^(k+1),
type="l",
main="Dichte der Paretoverteilung",
xlab="x",
ylab="Dichte",
yaxs="i",
ylim=c(0, 2.2),
xlim=c(0, 5))
lines(c(xmin, xmin),
c(0, 2),
lty="dotted")
Der Verlauf der Dichte ist auf den ersten Blick ähnlich wie bei der Exponentialverteilung. Jedoch fällt die Dichte der Paretoverteilung deutlich langsamer gegen 0 als die Dichte der Exponentialverteilung. Bei der Paretoverteilung können daher extrem große Ausreißer auftreten. Ein weiterer Unterschied zur Exponentialverteilung besteht darin, dass die Paretoverteilung als Untergrenze den Parameter \(x_{min}>0\) hat, die Exponentialverteilung startet hingegen immer bei 0.
Durch Integration der Dichte erhält man die Verteilungsfunktion. \[ F(x)=\left\{ \begin{array}{ll} 0 & \text{ wenn }x<x_{min}\\ 1-\left(\frac{x_{min}}{x}\right)^k & \text{ wenn }x\ge x_{min}. \end{array} \right. \]
Invertieren der Verteilungsfunktion führt auf die Quantilfunktion. \[ F^{-1}(p)=x_{min}(1-p)^{-1/k}. \] Erwartungswert und Varianz der Paretoverteilung sind
\[\begin{align*} E(X) &= \frac{k x_{min}}{k-1}\\ Var(X) &= \frac{k x_{min}^2}{(k-2)(k-1)^2}. \end{align*}\]
Der Erwartungswert ist nur definiert, wenn der \(k>1\) ist, die Varianz ist sogar nur dann definiert, wenn \(k>2\) ist. Wie kann es passieren, dass die Varianz oder der Erwartungswert nicht existieren? Der Grund dafür liegt im Flankenverhalten von Zufallsvariablen mit einem unendlichen Träger (z.B. \(\mathbb{R}\)). Das Integral für den Erwartungswert, \[ \int_{-\infty}^\infty xf_X(x)dx, \] ist streng genommen ein Grenzwert, bei dem man die Integralgrenzen gegen (minus) unendlich gehen lässt. Für \(x\to\infty\) wächst \(x\), während die Dichte \(f_X(x)\) schrumpft. Wenn nun \(x\) schneller wächst als \(f_X(x)\) schrumpft, dann wird der Ausdruck unter dem Integral immer größer und die gesamte Fläche divergiert gegen unendlich. Für die Varianz gilt das analog. Kurz gesagt: Es kann passieren, dass eine Zufallsvariable mit unendlichem Träger keine Varianz oder keinen Erwartungswert besitzt. Zum Glück kommt das in den Wirtschaftswissenschaften nicht sehr oft vor, so dass wir dieses Problem in diesem Kurs weitgehend ignorieren können.
In R gibt es die Funktionen für die Dichte, Verteilungsfunktion und Quantilfunktion der Paretoverteilung nur in Zusatzpaketen. Installieren und aktivieren Sie das Paket distributionsrd
. Nun stehen die Funktionen
dpareto(x, k, xmin)
ppareto(x, k, xmin)
qpareto(p, k, xmin)
zur Verfügung.
4.3.4 Rechteckverteilung
Mit einer Rechteckverteilung (manchmal auch Gleichverteilung genannt) kann beispielsweise die Wartezeit an einer Ampel (oder im ÖPNV) modelliert werden. Die Ampel springt in regelmäßigen Abständen auf Grün (bzw. die U-Bahn kommt alle 10 Minuten). Wenn man ohne genaue Planung zur Ampel oder zum Bahnsteig geht, ist die Wartedauer rein zufällig und folgt einer Rechteckverteilung. Die Rechteckverteilung spielt auch eine wichtige Rolle in sogenannten Monte-Carlo-Simulationen (siehe Kapitel 7.2), weil sie Ausgangspunkt aller im Computer generierten Zufallszahlen ist.
Eine Zufallsvariable \(X\) heißt rechteckverteilt (engl. uniformly distributed) mit den Parametern \(a\) und \(b\) (wobei \(a<b\) ist), wenn ihre Dichte \[ f(x)=\left\{ \begin{array}{ll} \frac{1}{b-a} & \text{ wenn }a\le x\le b\\ 0 & \text{ sonst} \end{array} \right. \] ist. Die Kurzschreibweise für eine rechteckverteilte Zufallsvariable ist \(X\sim U(a,b)\).
Der Plot zeigt den Verlauf der Dichtefunktion von \(U(1,2)\).
R-Code zeigen
plot(c(0.5, 2.5),c(0, 1.1),
type="n",
main="Dichte der Rechteckverteilung",
xlab="x",
ylab="Dichte",
yaxs="i")
lines(c(1,2), c(1,1))
lines(c(1,1), c(0,1), lty="dotted")
lines(c(2,2), c(0,1), lty="dotted")
Die Verteilungsfunktion erhält man durch Integration der Dichte. Außerdem muss die Verteilungsfunktion an der Stelle \(a\) den Wert 0 annehmen. Für die Verteilungsfunktion ergibt sich \[ F(x)=\left\{ \begin{array}{ll} 0 & \text{ wenn }x<a\\ \frac{x-a}{b-a}& \text{ wenn }a\le x\le b\\ 1 & \text{ wenn }x>b.\\ \end{array} \right. \] Die Verteilungsfunktion von \(U(1,2)\) sieht wie folgt aus.
R-Code zeigen
plot(c(0.5, 2.5), c(0, 1.1),
type="n",
main="Verteilungsfunktion der Rechteckverteilung",
xlab="x",
ylab="F(x)",
yaxs="i")
lines(c(0.5, 1, 2, 2.5),c(0, 0, 1, 1))
Durch Invertieren der Verteilungsfunktion erhält man die Quantilfunktion. Dazu löst man die Gleichung \(F(x)=p\) nach \(x\) auf.
\[\begin{align*} &&F(x)&=p\\ \Leftrightarrow &&\frac{x-a}{b-a}&=p \\ \Leftrightarrow &&x &=a+(b-a)p. \end{align*}\]
Eine Fallunterscheidung ist hier nicht nötig, weil \(0<p<1\) ist. Die Quantilfunktion lautet \[ F^{-1}(p)=a+(b-a)p. \] Als Erwartungswert und Varianz errechnet man
\[\begin{align*} E(X) &= \frac{a+b}{2}\\[1ex] Var(X) &= \frac{(b-a)^2}{12}. \end{align*}\]
In R ist die Abkürzung für die Rechteckverteilung unif
. Die Funktionen für die Dichte, Verteilungs- und Quantilfunktion sind:
dunif(x, min, max)
punif(x, min, max)
qunif(p, min, max)
4.3.5 t-Verteilung
Die t-Verteilung (engl. t distribution) ist ein gutes Modell für die Verteilung der Tagesrendite von Aktien oder anderen stark volatilen Vermögenswerten (z.B. Kryptowährungen). Eine Zufallsvariable \(X\) heißt t-verteilt mit dem Parameter \(\nu>0\), wenn sie für \(x\in\mathbb{R}\) die Dichte \[ f(x)=C_\nu \cdot \left(1+\frac{x^2}{\nu}\right)^{-\frac{\nu+1}{2}} \] hat. Die Konstante \(C_\nu\) dient nur der Normierung. Ihre genaue Form ist komplex, aber an dieser Stelle nicht relevant. Die Kurzschreibweise für eine t-verteilte Zufallsvariable ist \(X\sim t_\nu\). Der Parameter \(\nu\) heißt auch “Zahl der Freiheitsgrade” (engl. degrees of freedom).
Der Plot zeigt den Verlauf der Dichtefunktion einer t-Verteilung mit \(\nu=2\) Freiheitsgraden (schwarze Linie) und \(\nu=10\) Freiheitsgraden (rote Linie). Zum Vergleich ist auch die Dichte der Standardnormalverteilung eingefügt (gepunktete blaue Linie).
R-Code zeigen
<- seq(from=-5, to=5, length=300)
x plot(x, dt(x,df=2),
type="l",
main="Dichte der t-Verteilung",
xlab="x",
ylab="Dichte",
yaxs="i",
ylim=c(0, 0.43))
lines(x, dt(x, df=10), col="red")
lines(x, dnorm(x), col="blue", lty="dotted")
Je größer die Zahl der Freiheitsgrade, desto ähnlicher ist die t-Verteilung der Standardnormalverteilung. Bei sinkenden Freiheitsgraden werden die Flanken der Verteilung immer stärker, d.h. es gibt immer mehr extreme Werte (Ausreißer).
Die Verteilungsfunktion lässt sich (wie schon bei der Normalverteilung) nicht durch elementare Integrationsregeln herleiten. Sie ist jedoch numerisch lösbar und in den meisten Computerprogrammen implementiert.
Erwartungswert und Varianz der t-Verteilung sind (für \(\nu>2\))
\[\begin{align*} E(X) &= 0\\ Var(X) &= \frac{\nu}{\nu-2}. \end{align*}\]
In R ist die Abkürzung für die t-Verteilung t
. Die Funktionen für die Dichte, Verteilungs- und Quantilfunktion sind:
dt(x, df=nu)
pt(x, df=nu)
qt(p, df=nu)
Die Parameter-Abkürzung df
steht für “degrees of freedom”, also die Zahl der Freiheitsgrade.
Übrigens: Die t-Verteilung wurde 1908 von William Gosset hergeleitet, der als Brauer und Statistiker für die Qualitätssicherung in der Guinessbrauerei zuständig war. Damit konkurrierende Brauereien nichts über die Verfahren der Qualitätssicherung erfahren, durfte er seine Forschungsergebnisse nicht unter seinem eigenen Namen veröffentlichen. Er hat sie unter dem Pseudonym “Student” publiziert. Daher nennt man die t-Verteilung oft auch die Studentsche Verteilung (engl. Student’s t-distribution). Sie spielt auch in der statistischen Inferenz eine wichtige Rolle (vor allem in Kapitel 10 und Kapitel 11).
4.4 Empirische Verteilungen
In den Wirtschaftswissenschaften (und allgemein in den Sozialwissenschaften) interessiert man sich sehr oft für empirische Verteilungen: Wie sind bestimmte Größen in der Population verteilt? Wie sieht die Einkommensverteilung oder die Vermögensverteilung aus? Wie ist die Altersstruktur der Bevölkerung? Welche Parteienpräferenzen gibt es in der wahlberechtigten Population? Wie hoch ist der Anteil der Kunden, die ihren Versicherungsvertrag stornieren wollen? Nur in den seltensten Fällen kann man diese Fragen exakt beantworten, indem man alle Populationsmitglieder untersucht oder befragt, denn die Untersuchung (oder Befragung) ist oft aufwendig und kostspielig. Das gilt natürlich vor allem dann, wenn die Population sehr groß ist.
Die gesamte Verteilung lässt sich jedoch durch eine Zufallsvariable repräsentieren, wenn man ein kleines Gedankenexperiment macht. Dazu stellt man sich vor, dass aus der gesamten Population ein Element (z.B. eine Person, ein Haushalt, eine Firma,…) zufällig ausgewählt wird, und zwar so, dass jedes Element die gleiche Ziehungswahrscheinlichkeit hat.
Wie sieht die Verteilungsfunktion dieser Zufallsvariable aus? Um diese Frage zu beantworten, brauchen wir ein wenig Notation. Seien \(x_1^*,x_2^*,\ldots,x_N^*\) die tatsächlichen Werte für alle \(N\) Elemente der Population. Es handelt sich dabei nicht um Zufallsvariablen, sondern um reelle Zahlen, beispielsweise die Einkommen aller Personen in der Population. Mit \(X\) bezeichnen wir die Zufallsvariable, die den Wert eines zufällig gezogenen Elements annimmt, wobei alle Element die gleiche Ziehungswahrscheinlichkeit von \(1/N\) haben sollen.
Die Verteilungsfunktion von \(X\) ist gemäß der Definition \[ F_X(x)=P(X\le x). \] Wie groß ist die Wahrscheinlichkeit, dass \(X\) den Wert \(x\) nicht überschreitet? Da alle Element die gleiche Ziehungswahrscheinlichkeit haben, liegt hier ein Laplace-Experiment vor. Es gilt \[ P(X\le x)=\frac{\text{Anzahl der Elemente}\le x}{N}. \] Das erscheint zunächst nicht sehr spektakulär. Es bedeutet aber, dass die Zufallsvariable \(X\), die durch die Verteilungsfunktion \(F_X\) beschrieben wird, die komplette Verteilung der Population repräsentiert. Wir sprechen von einer empirischen Verteilung. Es handelt sich bei \(X\) um eine spezielle Art von diskreter Verteilung. Die Wahrscheinlichkeitsfunktion lautet \[ f_X(x)=\left\{ \begin{array}{ll} 1/N & \text{ für }x\in\{x_1^*,\ldots,x_N^*\}\\ 0 &\text{ sonst.} \end{array} \right. \] Da \(X\) eine (diskrete) Zufallsvariable ist, können wir ihren Erwartungswert und ihre Varianz berechnen. Für den Erwartungswert gilt
\[\begin{align*} E(X)&=\sum_{i=1}^N x_i^* P(X=x_i^*)\\ &= \frac{1}{N}\sum_{i=1}^N x_i^*. \end{align*}\]
Mit anderen Worten: Der Erwartungswert einer empirischen Verteilung entspricht gerade dem Populationsmittel \(\bar x\) aus dem Kurs “Data Science 1”.
Die Varianz von \(X\) ist
\[\begin{align*} Var(X)&=\sum_{i=1}^N (x_i^*-\bar x)^2 P(X=x_i^*)\\ &= \frac{1}{N}\sum_{i=1}^N (x_i^*-\bar x)^2. \end{align*}\]
Es handelt sich also um die Populationsvarianz \(s^2\) aus dem Kurs “Data Science 1”.
In R dient die Funktion sample
dazu, zufällig Elemente aus einem Vektor zu ziehen. Wenn x_star
der Vektor mit den Populationswerten \(x_1^*,\ldots,x_N^*\) ist, dann erhält man mit
<- sample(x_star, size=n, replace=TRUE) x
eine einfache Stichprobe \(X_1,\ldots,X_n\) vom Umfang \(n\) aus der empirischen Verteilung.