Regresión Lineal: Estimación, Predicción y Propiedades de los Estimadores MCO
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 3,78 KB
Regresión Lineal: Estimación y Predicción de la Variable Dependiente
El análisis de regresión estudia la dependencia de una variable dependiente, Y, respecto a una o más variables explicativas, Xs, con el objetivo de estimar y/o predecir la media o valor promedio poblacional de Y en términos de los valores conocidos o fijos de las Xs.
Función de Regresión Poblacional (FRP)
La FRP es el lugar geométrico de las medias condicionales de la variable dependiente para los valores fijos de las variables explicativas.
- Si es lineal, la función es: E(Y|X) = B0 + B1X
- Si es cuadrática, sería: E(Y|X) = B0 + B1X + B2X2
Establece una relación determinista entre el valor promedio de Y y las X.
Error Poblacional
Si se plantea la especificación estocástica de la FRP, se debe agregar un término de error poblacional estocástico, u, que toma valores positivos y negativos desconocidos. El término de error representa la diferencia entre el valor individual de Y y el valor promedio de Y condicional a X.
¿Qué representa el error poblacional?
- Marco conceptual incompleto.
- No disponibilidad de la información.
- Variables medidas con error.
Mínimos Cuadrados Ordinarios (MCO)
MCO es una técnica de estimación de los parámetros poblacionales a partir de errores estimados. La técnica minimiza la sumatoria de errores estimados al cuadrado en función de los parámetros estimados. Esto es, busca los β̂ que minimizan dicha sumatoria.
MCO en una regresión simple
Usando las reglas del cálculo, se diferencia la sumatoria respecto a cada β̂ y se iguala a cero, generando dos ecuaciones normales que contienen dos incógnitas.
Supuestos del Modelo Clásico de Regresión
- El modelo de regresión es lineal en los parámetros.
- Los valores de X son fijos en muestreo repetido. X se supone no estocástica.
- El valor medio de la perturbación u es igual a cero.
- Homocedasticidad o igual varianza de u.
- No existe autocorrelación entre las perturbaciones.
- La covarianza de u y X es cero.
- El número de observaciones n debe ser mayor al número de parámetros a estimar.
- Variabilidad en los valores de X.
- El modelo de regresión está bien especificado, o sea, no hay sesgo de especificación o error en el modelo utilizado en el trabajo.
- Para modelos de más de una variable explicativa, no hay multicolinealidad perfecta; no hay relaciones perfectamente lineales entre variables explicativas.
Precisión de los Estimadores MCO
Equivale a la desviación estándar de los estimadores (β̂).
Propiedades de los Estimadores MCO
- Linealidad: Función lineal de una variable aleatoria, tal como la variable dependiente Y en el modelo de regresión.
- Insesgadez: Su valor esperado o promedio es igual al verdadero valor.
- Varianza mínima: Dentro de la clase de todos los estimadores lineales e insesgados, es conocido como estimador eficiente.
Teorema de Gauss-Markov
Sirve para comparar las bondades de estimadores bajo técnicas alternativas o bajo la violación de supuestos del modelo clásico.
Bondad del Ajuste de Regresión R2
El coeficiente de determinación, R2, mide cuán bien se ajusta la regresión a los datos de la muestra.