7.3 Prueba de Fisher
Al inicio del capítulo también vimos que uno de los requisitos para que una prueba estadística paramétrica sea válida es que las varianzas sean de similar magnitud. Para ello también existe un test, el test de Fisher18 que plantea las hipótesis:
\(H_0: \sigma^2_1 = \sigma^2_2\),
\(H_0: \sigma^2_1 \neq \sigma^2_2\)
Sin entrar en mucho detalle teórico, en R hay una función var.test
para este propósito. La función toma dos argumentos: los dos conjuntos de datos que queremos comparar.
Ejemplo 7.4 (Realizar la prueba de Fisher en R)
var.test(Grupo.A, Grupo.B)
##
## F test to compare two variances
##
## data: Grupo.A and Grupo.B
## F = 0.56675, num df = 29, denom df = 29, p-value = 0.1321
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.2697517 1.1907335
## sample estimates:
## ratio of variances
## 0.5667472
Vemos que el valor de probabilidad \(p\) es mayor a nuestro nivel de significanza (\(p\leqslant0,05\)), con lo cual no rechazamos \(H_0\) y concluimos que las varianzas son relativamente similares.
tambien: «F-test»↩︎