Regresión Lineal: Objetivos, Supuestos y Análisis de Varianza (ANOVA)
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 4,74 KB
Objetivos de la Regresión Lineal
Objetivos de la regresión:
- Evaluar la asociación entre la respuesta (variable dependiente “Y”) y los efectos principales (variables independientes “X´s”).
- Predecir el comportamiento de la variable respuesta (Y), dado un determinado perfil de las variables predictoras (X´s).
Diferencia entre Regresión y Correlación
El objetivo de un modelo de regresión es modelar el valor medio (o esperanza matemática) de una variable “Respuesta” de interés, en función de otras variables “Predictoras”. Mientras que la correlación es el grado de asociación entre las mismas.
Supuestos de la Regresión Lineal
Supuestos de regresión:
- La variable X es una variable no aleatoria (es manejada por el investigador).
- La variable X se mide “sin error”, esto significa que dado que no existe medición “perfecta”.
- Para cada valor de X existe una subpoblación de Y, la cual sigue una distribución normal.
- Todas las varianzas de las subpoblaciones de Y son iguales.
- Todas las medias de las subpoblaciones de Y se encuentran sobre una misma línea recta.
- Los valores de Y son independientes, para cada valor de X.
- Los errores (ei) se distribuyen normalmente.
¿Por qué se utiliza el ANOVA en la Regresión?
¿Por qué se utiliza el ANOVA en la regresión? Para ver si la pendiente es significativa o no Hº)B=0, Hª)B distinto de cero.
Coeficiente de Determinación (R²)
¿Qué es y cómo se calcula el coeficiente de determinación? R²= SCregresión/SCtotal. El R² refleja la bondad del ajuste de un modelo a la variable que pretende explicar. Es importante saber que el resultado del R cuadrado oscila entre 0 y 1. Cuanto más cerca de 1 se sitúe su valor, mayor será el ajuste del modelo a la variable que estamos intentando explicar. De forma inversa, cuanto más cerca de cero, menos ajustado estará el modelo y, por tanto, menos fiable será.
Uso de la Correlación
La correlación se usa: cuando nos interesa saber qué tan importante es una variable y qué tanto influye en el resultado. Supuesto: El único supuesto es que X e Y deben seguir una función normal bivariada.
Coeficiente de Correlación (ρ)
¿Qué mide el coeficiente de correlación (ρ)? El coeficiente de correlación mide el grado de relación lineal entre “X” e “Y”. Los valores pueden variar entre (-1) (cuando covarían en forma inversa) y (+1).
Diferencia entre Modelo I y Modelo II del ANOVA de un Factor
Diferencia entre Modelo 1 y 2 del ANOVA de un factor: el llamado modelo de efecto fijo de tratamiento (modelo I) y el modelo de efecto aleatorio o modelo de componente de la varianza (modelo II). En el modelo I, se supone que las diferencias entre las medias de grupo, si existen, se deben a efectos de tratamientos fijos determinados por el experimentador. Esto es, siempre que los tratamientos sean fijos y repetibles, aun cuando el experimentador no entienda y controle por completo el mismo, estaremos en presencia de un diseño que corresponde a un modelo I. Cualquier valor aislado puede descomponerse de la forma siguiente: Xij = mi + ai + eji. La estructura de variación en un modelo II de ANOVA es completamente similar a un modelo I, y cualquier observación puede ser expresada como: Xij = mi + Ai + eji. Esta expresión difiere de la anterior, en que Ai representa un efecto aleatorio y no fijo como en el caso de un modelo I. Dado que los efectos son aleatorios, no es preciso calcular la magnitud de estos efectos aleatorios para cualquier grupo o las diferencias de un grupo a otro; centrándose la atención en el cálculo de la componente añadida de la varianza entre grupos.
Comparaciones A Priori vs. A Posteriori
Diferencia entre a priori y a posteriori: Las comparaciones "a priori" son aquellas que han sido planificadas antes de que el experimento se realice y, por lo tanto, son independientes de los resultados del experimento, mientras que las comparaciones "a posteriori" son aquellas que resultan del análisis de los resultados obtenidos, es decir, después de realizado el experimento.
Descomposición de la Suma de Cuadrados entre Grupos
Descomposición de la suma de cuadrado entre grupos o entre tratamientos: Consiste en descomponer la suma de cuadrado entre grupos y los grados de libertad correspondientes en suma de cuadrados separadas para cada una de las comparaciones linealmente independientes.