El teorema de Bayes se basa principalmente en la probabilidad condicional, es decir, dado que ocurre un evento, ¿qué probabilidad existe de que ocurra otro? Este teorema suele ser sumamente útil y bastante aplicado a algoritmos de Machine Learning como los árboles de decisión, pero ¿cómo se aplica en un ejercicio práctico? En realidad es muy sencillo, consideremos el siguiente ejemplo:
Respuesta: Dado que las probabilidades siguen dos caminos de fallos con diferentes probabilidades, se puede armar el siguiente árbol de decisión:
A partir del arbol de decisión podemos hacer uso de la fórmula del teorema de Bayes, la cual es:
P(A∣B)=P(B∣A)·P(A)P(B)
Donde A y B son los eventos ocurridos, P(A∣B) la probabilidad de que ocurra A dado B, P(B∣A) la probabilidad de que ocurra B dado A, P(A) y P(B) las probabilidades de cada evento individual. Ahora, sustituyendo los datos del problema en la fórmula:
P(H∣EH)=P(H)∗P(EH∣H)P(H)P(EH∣H)+P(NH)∗P(EH∣NH) Por tanto, tendríamos lo siguiente:
P(H∣EH)=(0.01)∗(0.8)(0.01)∗(0.8)+(0.99)∗(0.05) En la consola de R
podemos hacer rápidamente el cálculo, obteniendo:
(0.01*0.8)/((0.01*0.8)+(0.99*0.05))
## [1] 0.1391304
Por lo tanto, la probabilidad de que alguien realmente tenga la enfermedad dado que falló la prueba sería del 13%.