5.8 Variables discretas notables

En esta sección hablaremos de las variables aleatorias discretas con nombre propio, es decir aquellas cuya forma o ley de probabilidad son utilizadas muy a menudo. La descripción de cada variable se hara de forma breve. Quien desee ampliar conocimientos, puede consultar (Quintela-del-Río 2018). Seguramente hay textos mucho mejores para ello, pero este es mío.

5.8.1 La variable de Bernoulli

Supongamos un experimento aleatorio con sólo dos posibles resultados: un suceso \(A\) que llamaremos éxito y un suceso \(\overline{A}\) que llamaremos fracaso. Supondremos que las probabilidades de ocurrencia son \(p=P(A)\) y \(q=1-p=P(\overline{A})\).

A la variable aleatoria que toma los valores 1 (si ocurre el suceso éxito) y 0 (si ocurre el suceso fracaso) se le llama variable aleatoria de Bernoulli de parámetro \(p\).

Se escribe \(X\in Bernoulli(p)\).

Lanzar una moneda y anotar 1 si sale cara y 0 si sale cruz es un ejemplo de variable de Bernoulli.

Observar un paciente para ver si tiene una enfermedad concreta cuya probabilidad es \(p\). La variable de Bernoulli asociada a este experimento cuenta 1 si el paciente tiene la enfermedad, y 0 si no la tiene.

Nespresso, what else?.

Figura 5.8: Nespresso, what else?.

5.8.2 Variable Binomial

Supongamos que se realizan \(n\) experimentos de Bernouilli de manera sucesiva, siendo cada experimento o prueba independiente del anterior.

La Variable \(X=\)número de veces que ocurre el suceso A en las n pruebas o número de éxitos en las n pruebas, recibe el nombre de variable binomial de parámetros \(n\) y \(p\) (\(p=P(A)=p(\acute{e}xito\) en 1 prueba)).

Se escribe \(X\in B(n,p).\)

La variable \(X\) puede tomar los valores \(0,1,2,...n,\) siendo la probabilidad con que los toma: \[ P(X=k)=\binom{n}{k}p^{k}q^{n-k},\text{ donde }\binom{n}{k}=\frac{n!}{k!(n-k)!% }. \]

Nespresso, binomial.

Figura 5.9: Nespresso, binomial.

La media y la varianza (los cálculos no son sencillos) son: \[ E(X)=np\text{ y }Var(X)=npq. \]

Un acusado va a ser declarado inocente o culpable por un jurado popular. Para ser condenado es necesario que al menos 7 personas de las 10 del jurado voten culpable. Dado que en los programas de televisión ya han dado muchos detalles del caso, los miembros del jurado están atendiendo al twiter o leyendo el periódico en vez de escuchar al fiscal y al abogado, porque van a decidir tirando una moneda al aire. ¿Cuál es la probabilidad de que el acusado sea declarado inocente?

Solución.

Definimos \(A\)=“éxito”=“inocente”. \(p=P(A)=0.5\)

\(X=\)“número de éxitos en 10 pruebas” \(\in B(10,0.5).\)

La probabilidad de ser declarado inocente es \(P(X\geq 4).\) \[ P(X\geq 4)=\sum_{k=4}^{10}\binom{10}{k}0.5^{k}0.5^{10-k}=0.82. \] Con R se calcula de la siguiente forma:

1-pbinom(3,10,0.5)
## [1] 0.8281

pbinom(3,10,0.5) es la propiedad acumulada hasta 3, en una distribución binomial de parámetros \(n=10\) y \(p=0.5\). Esto es: \(P(X\leq 3)\). Como el complementario del suceso \(\{ X\geq 4\}\) es \(\{ X<4\} = \{ X\leq 3\}\), calculamos la probabilidad de ser declarado inocente de esta forma sencilla.

5.8.2.1 Propiedad aditiva

La Variable binomial es reproductiva respecto al parámetro \(n.\) Si \(X\in B(n_{1},p)\) e \(Y\in B(n_{2},p)\) son 2 variables independientes, la suma \(X+Y\in B(n_{1}+n_{2},p)\) (esta propiedad es generalizable a un número finito de variables).

De hecho, esto ocurre puesto que la variable Binomial \(B(n,p)\) es la suma de \(n\) variables aleatorias independientes de Bernoulli de parámetro \(p\). Obviamente, el número de éxitos en \(n\) pruebas = \(1+0+1+...+ =\), es decir, es la suma de unos y ceros, según haya éxito o fracaso en cada prueba.

5.8.2.2 Ejemplo: el jurado

En este video se analiza cuál podría ser el número ideal de componentes de un jurado para declarar inocente o culpable a un acusado.

5.8.3 Variable de Poisson

Un proceso de Poisson es un experimento aleatorio donde se observa la aparición de un suceso concreto (éxito) sobre un soporte continuo (generalmente el tiempo). Además, debe cumplirse que los sucesos ocurren de forma independiente y con media estable (el número medio de sucesos por unidad de medida es constante).

Ejemplos interesantes de procesos de Poisson son: clientes que acuden a un mostrador por unidad de tiempo, llamadas por unidad de tiempo a una centralita, defectos por metro de cable, baches por kilometro de autopista…

En un proceso de Poisson, la variable \(X\)=número de éxitos en un intervalo se dice que sigue una distribución de Poisson de parámetro \(\lambda .\) Se escribe \(X\in Pois(\lambda ).\)

Su distribución de probabilidad es \[ P(X=k)=e^{-\lambda }\frac{\lambda ^{k}}{k!},\ \ \ k=0,1,2,... \]

Café de Poison.

Figura 5.10: Café de Poison.

Se verifica que \[ E(X)=Var(X)=\lambda, \]

es decir, que el parámetro \(\lambda\) es precisamente el número medio de sucesos que estamos contando, y, en este caso, también coincide con la varianza de la variable.

La variable de Poisson es una generalización de la variable binomial. Supongamos que un experimento de Bernoulli tiene un suceso éxito \(A\) con probabilidad \(p=P(A)\) muy pequeña (por ejemplo, una enfermedad rara, de baja probabilidad). Puede demostrarse que, si \(X\) es la variable \(Bi(n,p),\) que mide el número de sucesos \(A\) en \(n\) pruebas, \(X\) puede aproximarse por una variable de Poisson de parámetro \(\lambda =np.\)

Por este motivo, la distribución de Poisson es conocida como distribución de los sucesos raros.

\[ P(X=k)=\binom{n}{k}p^{k}q^{n-k}\rightarrow e^{-\lambda }\frac{\lambda ^{k}}{ k!}\ \text{ con }\ \lambda =np \]

En la práctica, esta aproximación funciona si \(n>30\) y \(p<0.1.\)

Supóngase que en un hotel donde descansan sufridos cazadores de elefantes ocurren de manera aleatoria e independiente dos accidentes de caídas con rompimiento de cadera por semana. Determinar la probabilidad de que ocurra un accidente en una semana.

Solución

\(X\)=“número de accidentes por semana” sigue una distribución de Poisson de media \(\lambda =2.\)

\(P(X=1)=e^{-2}\dfrac{2^{1}}{1!}=0.270.\)

O sea, existe un \(27\) por ciento de probabilidades de que se te fastidie la semana de caza por caerte y romperte la cadera.

5.8.3.1 Propiedad aditiva

La Variable de Poisson es reproductiva respecto al parámetro \(\lambda .\)

5.8.4 Variable Binomial negativa

Supongamos que se realiza un experimento de Bernouilli hasta que se obtiene el éxito número \(r\). Definamos la variable \(X\)=número de fracasos hasta obtener el éxito r. \(X\) se dice que sigue una distribución Binomial Negativa de parámetros \(r\) y \(p.\) Se escribe \(X\in BN(r,p).\)

Su ley de probabilidad es \[ P(X=k)=\binom{r+k-1}{k}p^{r}q^{k},\ \ \ k=0,1,2,... \]

Se obtiene que \[ E(X)=\frac{rq}{p} \ \ \text{ y } \ \ Var(X)=\frac{rq}{p^{2}}. \]

Y aún da para más...

Figura 5.11: Y aún da para más…

Al llamar al servicio de atención al cliente de una compañía de teléfonos, la probabilidad de que se consiga resolver el problema es \(0.1\). Pepe necesita que le arreglen la conexión a internet y, por otro lado, quiere que le devuelvan 2 euros que le cobraron mal hace dos décadas. ¿Cuál es la probabilidad de que tenga que llamar más de 5 veces?

Solución

\(X\)=“número de fracasos hasta obtener el éxito \(2\)\(\in BN(2,0.1).\) \[ P(X>5)=1-P(X\leq 4)=1-\sum_{k=0}^{4}\binom{2+k-1}{k}0.1^{2}0.9^{k}=0.885. \]

5.8.5 Variable Hipergeométrica

Supongamos que tenemos una población de \(N\) elementos, que se divide en dos clases: \(A\) y \(\bar{A}.\) El número de elementos de cada clase los denotamos como \(n_{A}\) y \(n_{\bar{A}}.\) Lógicamente \(n_{A}+n_{\bar{A}}=N.\)

Supongamos que se extrae una muestra de tamaño \(n\) de la población, sin reemplazamiento. La variable \(X=\)número de elementos de la clase A en la muestra se dice que sigue una distribución hipergeométrica de parámetros \(N,n_{A}\) y \(n.\) Se escribe \(X\in H(N,n_{A},n).\)

Su ley de probabilidad es \[ P(X=k)=\dfrac{\binom{n_{A}}{k}\cdot \binom{n_{\bar{A}}}{n-k}}{\binom{N}{n}},\ \ \ k=\max \{0,n+n_{A}-N\},...,\min \{n_{A},n\}. \]

Última.

Figura 5.12: Última.

Sus parámetros media y varianza: \[ E(X)=\frac{n\cdot n_{A}}{N},\ \ Var(X)=\frac{N-n}{N-1}\cdot\frac{n\cdot n_{A}}{N}\cdot \left( 1-\frac{n_{A}}{N}\right) . \]

Si se escribe \(p=\frac{n_{A}}{N},q=1-p,\) se obtiene: \[ E(X)=np,\ \ Var(X)=npq\frac{N-n}{N-1}. \]

Un opositor a registrador de la propiedad tiene que preparar cien temas. En el examen se sacan tres a sorteo, de los cuales deberá exponer uno. El opositor decide estudiar solamente la mitad y probar suerte. ¿Cuál es la probabilidad de que apruebe?

Solución:

Dividimos la población, de tamaño \(N=100\), en 2 clases: los temas que ha estudiado el opositor (\(A\), con \(n_A=50\)) y los que no ha estudiado (\(\overline{A}\), con \(n_{\overline{A}} =50\)).

La variable \(X\)=“número de temas que el opositor conoce, en la muestra de tamaño 3” sigue una distribución hipergeométrica de parámetros \(N=100\), \(n_A=50\) y \(n=3\).

Con que se sepa uno de los temas, el opositor aprobará. Tenemos que calcular, entonces, \[ P(X\geq 1)=1-P(X<1)=1-P(X=0)= \] \[ =1-\frac{\binom{50}{0} \cdot \binom{50}{3}}{\binom{100}{3}}=1-0.1212=0.8788. \]

Como vemos, la probabilidad de aprobar es alta estudiando solo la mitad.

References

Quintela-del-Río, Alejandro. 2018. PEPE (Problemas Estimulantes de Probabilidad Y Estadística). Editorial CreateSpace.