4 Métodos para encontrar estimadores
Esta sección queda abierta para los otros colaboradores del curso y todo aquel que quiera ampliar su contenido.
4.1 Principios de sustitución
Se utilizan en modelos en donde X1,X2,...,Xn una muestra que proviene de una sola distribución la cual es completa o parcialmente desconocida (Bickel and Doksum 1977).
4.1.1 Sustitución de frecuencias
Usamos este método cuando queremos estimar proporciones. Consiste en reemplazar las frecuencias poblacionales desconocidas p1,p2,...,pk por las frecuencias muestrales observadas N1/n,N2/n,...Nk/n. Esto es, use T(X1,X2,...,Xn):=q(N1/n,N2/n,...,Nk/n) para estimar q(p1,p2,...,pk).
4.1.2 Métodos de los momentos
Consiste en sustituir los momentos teóricos por los muestrales. Suponga que m1(θ),...,mr(θ) son los primeros r momentos muestrales. Entonces para 1≤j≤r y 1≤i≤n
mj(θ)=Eθ(Xji) El j−ésimo momento muestral esta define como,
ˆmj=1nn∑i=1Xji
Suponga que queremos estimar q(θ)=g(m1(θ),...,mr(θ)) con g función continua, el método de los momentos consiste en usar como estimador a T(X):=g(ˆm1,...,ˆmr)
4.2 Método de los mínimos cuadrados
4.2.1 Modelos de regresión
Suponga que posemos escribir, Yi=gi(θ1,...,θr)+ϵi, para 1≤i≤n donde gi son funciones conocidas y (θ1,...,θr)∈Ω⊆Rr. Además suponga que los errores ϵi, almenos aproxmadamente, satisfacen las siguientes restriccciones:
- E(ϵi)=0 , 1≤i≤n
- Var(ϵi)=σ2>0 , 1≤i≤n
- Cov(ϵi,ϵj)=0 , 1≤i<j≤n
Entonces, E(Y)=(g1(θ),...,gn(θ)) donde θ=(θ1,...,θr). El método de los mínimos cuadrados dice que tomemos comom estimador ˆθ=(ˆθ1,...,ˆθr) aqel que mimimiza las distancias de los valores observados de Y=y a su valor esperado. Tal estimador, cumple con las ecuaciones normales,
∂∂θj∑ni=1[yi−gi(θ)]2=0, 1≤j≤r
4.3 Método de máxima verosimilitud
Este método solo tiene sentido en modelos paramétricos regulares. Dada una muestra X=x la función de verosimilitud L(θ,x) se define como p(x,θ), una función de θ para x fijo. El método de máxima verosimilitud consiste en encontrar el valor ˆθ(x) que es más probable que haya generado la x observada. Si X=x, buscamos ˆθ(x) tal que,
L(ˆθ(x),x)=p(x,ˆθ(x))=max{p(x,θ):θ∈Θ}=max{L(θ,x):θ∈Θ} Tal estimador no necesariamente existe ni es único. Si existe, el estimador de máxima verosimilitud para q(θ) será q(ˆθ(x))
4.4 Método Bayesiano
En la aproximación Bayesiana θ se considera una cantidad cuya variación está de determianada por una distribución de probabilidad. Basada en las creencias del experimentador, la distribución es determinada antes de la observación de los datos (distribución a priori). Luego de tomar una muestra de la población, la distribución a priori es actualizada con la información de la muestra (distribución a posteriori) a través de la regla de Bayes (distribución condicional dada la observación de la muestra) (Casella and Berger 2002).
Ejemplo 4.4 (Estimador de Bayes para la media de una población normal) Sea X=(X1,...,Xn)∈N(θ,σ2) y suponga que la distribución a priori de θ es N(μ,τ2) donde se conocen σ, μ y τ. La distribución a posteriori de θ, tambien es normal con media y varianza dadas por
- E(θ|x)=τ2τ2+σ2x+σ2τ2+σ2μ
- Var(θ|x)=τ2σ2τ2+σ2
4.5 Algoritmo EM (Esperanza-Maximización)
Es una algoritmo cuya ejcución converge a estimadores de máxima verosimilitud. La idea es remplazar una maximización complicada de la verosimilitud por una secuencia de maximizaciones, cada una más sencilla. Vea (Casella and Berger 2002)
References
Bickel, P.J., and Kjell A. Doksum. 1977. Mathematical Statistics: Basic Ideas and Selected Topics. Holden-Day Series in Probability and Statistics, v. 1. Prentice Hall. https://books.google.com.co/books?id=ucMfAQAAIAAJ.
Casella, G., and R.L. Berger. 2002. Statistical Inference. Duxbury Advanced Series in Statistics and Decision Sciences. Thomson Learning. https://books.google.com.co/books?id=0x\_vAAAAMAAJ.