7.4 Intervalos de confianza

La estimación puntual aproxima mediante un número el valor de una característica poblacional o parámetro desconocido (la altura media de los españoles, la intención de voto a un partido en las próximas elecciones generales, el tiempo medio de ejecución de un algoritmo, …) pero no nos indica el error que se comete en dicha estimación.

Lo razonable en la práctica es adjuntar, junto a la estimación puntual del parámetro, un intervalo que mida el margen de error de la estimación. La construcción de dicho intervalo es el objetivo de la estimación por intervalos de confianza.

Un intervalo de confianza para un parámetro con un nivel de confianza \(1-\alpha\) (\(0<\alpha <1\)), es un intervalo de extremos aleatorios \((L,U)\) que, con probabilidad \(1-\alpha\), contiene al parámetro en cuestión.

Los valores más habituales del nivel de confianza \(1-\alpha\) son 0.9, 0.95 o 0.99 (la confianza es del 90%, 95% o 99%).

En la estimación por intervalos de confianza partimos de una muestra \(x_{1},\ldots ,x_{n}\). A partir de estos valores obtenemos un intervalo numérico. Por ejemplo, podríamos hablar de que, con una confianza del 99 por ciento, la proporción de voto al partido político “Unidos Ciudadanos” está entre el 29 y el 31 por ciento. O que, con una confianza del 90 por ciento, la estatura media está entre 1.80 y 1.84.

7.4.1 Interpretación

Igual que vimos antes con las encuestas de las estaturas, o de la proporción de gente que cree en los extraterrestres, con cada muestra obteníamos \(n\) datos diferentes, y valores diferentes (de la media muestral o de la proporción muestral).

De cada muestra también puede obtenerse un intervalo de confianza. Entonces, con cada muestra diferente, obtendremos un intervalo también diferente. A medida que aumenta la cantidad de intervalos que hemos construido, el porcentaje de intervalos que contienen el verdadero valor del parámetro se aproximará al \(100(1-\alpha)\%\).

Así, por ejemplo, un intervalo de confianza al 95% garantiza que si tomamos 100 muestras el verdadero valor del parámetro estará dentro del intervalo en aproximadamente el 95 de los intervalos construidos.

Veamos un ejemplo mediante simulación. Vamos a simular que realizamos encuestas, en este caso preguntando a \(n=12\) personas (de nuevo si creen en los extraterrestres). De cada muestra podemos obtener una estimación puntual (calculada mediante la proporción en la muestra), y también un intervalo de confianza (que más adelante se ve cómo se calcula). Haremos este proceso \(B=20\) veces.

 library(pander)
set.seed(1) 
n<-12
B<-20

muestras <- as.data.frame(matrix(rbinom(n*B, 1, 0.61), ncol=n))
rownames(muestras) <- paste("muestra", 1:B, sep="")
colnames(muestras) <- paste("_obs_", 1:n , sep="") 
#muestras
pander(muestras)
Table continues below
  _obs_1 _obs_2 _obs_3 _obs_4 _obs_5 _obs_6 _obs_7
muestra1 1 0 0 0 1 0 0
muestra2 1 1 0 1 0 1 1
muestra3 1 0 0 1 1 1 1
muestra4 0 1 1 1 1 0 1
muestra5 1 1 1 0 0 0 0
muestra6 0 1 0 1 1 1 1
muestra7 0 1 1 1 0 1 1
muestra8 0 1 1 0 1 1 1
muestra9 0 0 0 1 1 0 1
muestra10 1 1 0 0 1 1 1
muestra11 1 1 1 1 1 0 1
muestra12 1 1 0 0 1 0 1
muestra13 0 1 1 1 0 1 1
muestra14 1 1 1 1 0 1 0
muestra15 0 0 1 1 0 1 0
muestra16 1 0 1 0 0 1 1
muestra17 0 0 1 0 1 0 1
muestra18 0 1 1 1 1 1 1
muestra19 1 0 0 0 0 1 0
muestra20 0 1 1 0 1 0 1
  _obs_8 _obs_9 _obs_10 _obs_11 _obs_12
muestra1 0 1 1 1 1
muestra2 1 0 1 1 1
muestra3 1 1 0 1 1
muestra4 1 0 1 1 1
muestra5 0 0 0 1 0
muestra6 1 1 1 1 1
muestra7 1 1 0 1 1
muestra8 0 1 0 1 1
muestra9 1 0 0 1 1
muestra10 0 1 1 0 0
muestra11 0 0 0 0 1
muestra12 1 0 1 1 1
muestra13 1 0 1 0 1
muestra14 1 1 0 0 0
muestra15 1 1 1 0 1
muestra16 1 0 1 1 0
muestra17 1 0 1 0 0
muestra18 1 0 0 0 1
muestra19 1 1 1 0 1
muestra20 1 0 0 1 1
muestras$mean <- rowMeans(muestras[,1:n])

alfa <- 0.05
z <- qnorm(1 - alfa/2)
p <-muestras$mean
muestras$ici <- p - z*sqrt(p*(1-p)/n)
muestras$ics <- p + z*sqrt(p*(1-p)/n)
esta<-0
b=ifelse(0.61<=muestras$ics & 0.61 >= muestras$ici, "SI", "NO")
Resultado<-data.frame(muestras$mean, muestras$ici , muestras$ics, b)
colnames(Resultado)<-c("ptilde", "L", "U", "¿Está o no?")
pander(Resultado)
ptilde L U ¿Está o no?
0.5 0.2171 0.7829 SI
0.75 0.505 0.995 SI
0.75 0.505 0.995 SI
0.75 0.505 0.995 SI
0.3333 0.06662 0.6001 NO
0.8333 0.6225 1.044 NO
0.75 0.505 0.995 SI
0.6667 0.3999 0.9334 SI
0.5 0.2171 0.7829 SI
0.5833 0.3044 0.8623 SI
0.5833 0.3044 0.8623 SI
0.6667 0.3999 0.9334 SI
0.6667 0.3999 0.9334 SI
0.5833 0.3044 0.8623 SI
0.5833 0.3044 0.8623 SI
0.5833 0.3044 0.8623 SI
0.4167 0.1377 0.6956 SI
0.6667 0.3999 0.9334 SI
0.5 0.2171 0.7829 SI
0.5833 0.3044 0.8623 SI

Vemos que, en la mayoria de las ocasiones, el intervalo de confianza contiene al verdadero valor del parámetro (\(0.61\) en este caso), pero en otras (las menos) no. En este ejemplo hemos utilizado un tamaño de muestra pequeño y hemos repetido el proceso pocas veces, pero ahí está el código para replicar el procedimiento. Se puede comprobar que, con tamaños de muestra un poco más grandes y repetido el proceso un número grande de veces, 95 de cada 100 veces (aquí hemos usado un nivel de confianza del 95%) los intervalos contendrán el valor 0.61, y aproximadamente 5 de cada 100 veces no lo contendrán.

Observemos el mismo proceso, ahora para 500 muestras de tamaño 10, de estaturas. El proceso se realiza igual que antes, pero realizamos un dibujo de los intervalos que se calculan, para comprobar cuáles contienen al verdadero valor buscado (la estatura media real o teórica, en este caso, que es 176.6).

set.seed(54321) 
nsim <- 500
nx <- 10

# Valores teóricos:
mux <- 176.6
sdx <- 10
# 
# Simulación de las muestras  
muestras <- as.data.frame(matrix(rnorm(nsim*nx, mean=mux, sd=sdx), ncol=nx))
rownames(muestras) <- paste("muestra", 1:nsim, sep="")
colnames(muestras) <- paste("obs", 1:nx, sep="")
 
#  Estimaciones
muestras$mean <- rowMeans(muestras[,1:nx])
muestras$sd <- apply(muestras[,1:nx], 1, sd)

alfa <- 0.05
z <- qnorm(1 - alfa/2)
muestras$ici <- muestras$mean - z*sdx/sqrt(nx)
muestras$ics <- muestras$mean + z*sdx/sqrt(nx)

# Cobertura de las estimaciones por IC:
muestras$cob <- (muestras$ici < mux) & (mux < muestras$ics) 
ncob <- sum(muestras$cob) # Nº de intervalos que contienen la verdadera media
ncob

[1] 480

100*ncob/nsim     # Proporción de intervalos

[1] 96

## [1] 96

100*(1 - alfa)    # Proporción teórica bajo normalidad

[1] 95

## [1] 95
## Solo como ejemplo ilustrativo: Gráfico de los primeros 50 intervalos:
  
m <- 100
tmp <- muestras[1:m,]
attach(tmp)
color <- ifelse(cob,"blue","red")
plot(1:m, mean, col = color, ylim = c(min(ici),max(ics)), 
     main = "Cobertura de las estimaciones por IC", xlab = "Muestra", ylab = "IC")
arrows(1:m, ici, 1:m, ics, angle = 90, length = 0.05, code = 3, col = color)
abline(h = mux, lty = 3)

detach(tmp)

7.4.2 Ejemplo: Meta-análisis de eficacia de Antidepresivos

Se llama meta-análisis a un procedimiento basado en técnicas estadísticas, mediante el que se analizan datos de diferentes estudios realizados sobre el mismo tema (revisión sistemática). El esquema básico consiste en elegir un grupo de artículos científicos en donde se haya medido el mismo parámetro (efecto medio, proporción… ) y estudiar la variabilidad que aportan cada uno de ellos dentro del conjunto que los engloba.

En el siguiente gráfico se considera un meta-análisis del efecto de los antidepresivos más comunes, y en este caso el parámetro considerado es el odds-ratio entre la efectividad de cada antidepresivo contra placebo.

Si \(p_1\) es la probabilidad de efecto del antidepresivo y \(p_2\) la probabilidad de que el placebo haga efecto, el odds-ratio -“razón de momios” o “razón de posibilidades”- es: \[\dfrac{p_1/(1-p_1)}{p_2/(1-p_2)}\].

De manera general, el odds-ratio entre dos sucesos expresa las posibilidades de uno frente al otro. Si, por ejemplo, las odds de que llueva són de dos a uno, \((2/1)=2\), quiere decir que es dos veces más probable que llueva que no llueva; con lo cual, la probabilidad de lluvia sería \(2/3\) y de no lluvia \(1/3\). Si de un grupo de 100 personas \(85\) presentan síntomas de una enfermedad, la probabilidad de enfermedad será \(85/100\) mientras que las odds serán de \(85\) a \(15\), es decir \(5.7\). Las odds exceden de la unidad siempre que haya más posibilidades del suceso de “arriba” (numerador) frente al de “abajo” (denominador). Con respecto al intervalo de confianza, es importante ver si incluye o no el valor \(1\). Si lo incluye, significa que la asociación no es estadísticamente significativa, y que los resultados sólo pueden deberse a la casualidad. Si no lo incluye, indicaría mayor probabilidad de ocurrencia de un suceso frente al otro.

Como observamos en el gráfico, ninguno de los intervalos de confianza para ninguno de los antidepresivos considerados contiene al 1, lo que indica que es clara la efectividad de cada antidepresivo (tanto mayor cuanto mayor es el odds-ratio).

Fuente: https://ourworldindata.org/happiness-and-life-satisfaction