1
Portada
2
Introducción
3
Modelo Lineal General
3.1
Introducción
3.2
Modelo de Regresión Lineal Simple
3.3
Modelo de Regresión Lineal Múltiple
3.4
Propiedades estadísticas del estimador MCO
3.5
Coeficiente de determinación
3.6
Inferencia acerca de los estimadores
3.6.1
Intervalos de Confianza
3.6.2
Contraste de hipótesis
3.6.3
Constraste de significación individual
3.6.4
Contraste de significación global(Tabla ANOVA)
3.7
Predicción
3.8
Estimacion del modelo de regresión con R
4
Extensiones al modelo de regresión lineal
4.1
Introducción
4.2
Heterocedasticidad
4.3
Autocorrelación
4.3.1
Contraste de Durbin-Watson
4.3.2
Contraste de Breush-Godfrey
4.4
Deficiencias muestrales
4.5
Errores de especificación
4.6
Métodos de selección de variables en el modelo lineal general
4.7
Regresión Ridge
4.8
Regresión robusta
5
Modelos con Variables Cualitativas
5.1
Introducción
5.2
Modelos ANOVA: efectos fijos
5.2.1
Análisis de la varianza de un factor
5.2.2
Análisis de la varianza con dos factores
5.2.3
Modelos con más de dos factores
5.3
Modelos de componentes de la varianza: efectos aleatorios
5.3.1
Modelo de un factor aleatorio
5.3.2
Modelo de dos factores aleatorios con interacción
5.3.3
Modelos con más de dos factores y modelos mixtos
5.4
Modelos ANCOVA
5.5
Modelo Lineal Generalizado
5.5.1
Formulación general
5.5.2
Modelos con variables cualitativas endógenas
5.5.3
Modelo Tobit
5.6
Evaluación de modelos
5.6.1
Devianza. Estadístico G2 de Wilks de razón de verosimilitudes
5.6.2
Estadístico
\(\chi^2\)
de Pearson
5.6.3
Criterio de información de Akaike (AIC) y Criterio de Información Bayesiano (BIC)
5.6.4
Prueba de Hosmer-Lemeshaw
5.6.5
Medidas tipo
\(R^2\)
5.6.6
Pseudo R2 de McFadden
5.6.7
Pseudo R2 de Cox-Snell
5.6.8
Pseudo R2 de Nagelkerke
5.7
Regresión bayesiana
5.7.1
Introducción
5.7.2
El teorema de Bayes
5.7.3
Proceso de inferencia
5.7.4
Cadenas de Markov
5.7.5
Regresión lineal bayesiana
5.7.6
Modelos lineales generalizados
6
Métodos de clasificación
6.1
Introducción
6.2
Validación cruzada
6.3
Análisis discriminante
6.4
Algorítmo K-vecinos más cercanos
6.5
Arboles de clasificación
6.5.1
Introducción.
6.5.2
Características de los algoritmos de clasificación.
6.5.3
Árbol CHAID (CHi-square Automatic Interaction Detection) y CHAID exhaustivo.
6.5.4
Árbol CART (Classification and Regression Trees)
6.5.5
Árbol QUEST (Quick, Unbiased, Efficient Statistical Tree)
6.6
Árbol C5.0
6.6.1
Ejemplo con R
6.7
Máquina Soporte Vector
6.8
Red Neuronal Artificial
6.8.1
Introducción
6.8.2
Tipos de modelos de redes neuronales
6.8.3
Ejemplo de red neuronal: El perceptón.
6.8.4
Propiedades de los sistemas neuronales
6.8.5
Ejercicios con R
6.9
Clasificador Bayesiano
6.10
Combinado clasificadores
7
Agrupación de la información
7.1
Introducción: Medidas de distancia/proximidad
7.2
Análisis de componentes principales
7.3
Análisis factorial
7.3.1
Planteamiento
7.3.2
Hipótesis en el modelo factorial
7.3.3
Comunalidad y especificidad (unicidad)
7.3.4
Diseño del análisis
7.3.5
Extracción de los factores
7.3.6
La matriz factorial o de componentes
7.3.7
Autovalores o valores propios
7.3.8
Número de factores a conservar
7.3.9
Rotación de los factores
7.3.10
Puntuaciones factoriales
7.3.11
Casos de Heywood y otras anomalías sobre estimaciones de comunalidad
7.3.12
Ejemplo con R
7.4
Análisis clúster
7.4.1
Introducción
7.4.2
Etapas a seguir en el desarrollo del Análisis Cluster
7.4.3
Modelos Jerárquicos
7.4.4
Ejemplos con R
8
Series Temporales
8.1
Introducción
8.2
Métodos de suavizado
8.2.1
Médias móviles
8.2.2
Alisado Exponencial Simple
8.2.3
Método de Holt-Winters
8.3
Descomposición temporal
8.4
Métodos de Predicción
8.4.1
Métodos paramétricos: modelos ARIMA
8.4.2
Métodos no paramétricos: splines, aproximación por series de Fourier, función núcleo
9
Bibliografía
Estadística y Machine Learning con R
Estadística y Machine Learning con R
Francisco Parra
25 de Enero de 2019
1
Portada