ANOVA de un Factor: Comparación de Medias en Múltiples Grupos
Enviado por Programa Chuletas y clasificado en Matemáticas
Escrito el en español con un tamaño de 10,41 KB
Concepto
El Análisis de Varianza de un Factor (ANOVA) se utiliza para comparar las medias de tres o más grupos en una variable dependiente cuantitativa. Permite determinar si existen diferencias estadísticamente significativas entre las medias de las poblaciones de las que provienen los grupos. Es una generalización de la prueba T para muestras independientes cuando se tienen más de dos grupos.
Variables
- Variable Dependiente (VD): Cuantitativa (numérica), medida en escala de intervalo o razón.
- Variable Independiente (VI): Factor categórico (nominal u ordinal) que define los grupos a comparar.
Hipótesis
La hipótesis nula (H0) plantea que las medias poblacionales de todos los grupos son iguales. Esto implica que no hay diferencias significativas entre los grupos en la variable dependiente y que la variable independiente no tiene efecto sobre la variable dependiente. Para aceptar H0, la variabilidad entre los grupos no debe superar significativamente la variabilidad dentro de los grupos (intra-grupos). En términos de la suma de cuadrados, la suma de cuadrados entre grupos (SCE) no debe ser significativamente mayor que la suma de cuadrados intra-grupos (SCI).
Estadístico F
El estadístico F se calcula como la razón entre la varianza entre grupos (estimada por la media cuadrática entre grupos, MCesp) y la varianza dentro de los grupos (estimada por la media cuadrática del error, MCerror):
Si F = 1, las medias muestrales son iguales. Cuanto más cercano a 1 sea el valor de F, más parecidas serán las medias. Cuanto más diferentes sean las medias, mayor será el valor de F. Si las medias son similares, F se distribuye según el modelo F de Fisher-Snedecor. Si la significancia (sig) es menor a 0.05, se rechaza la hipótesis nula.
Supuestos
- Normalidad: La variable dependiente (o los errores experimentales) se distribuye normalmente en cada una de las poblaciones muestreadas. Si los grupos son grandes, el estadístico F se comporta de manera robusta ante violaciones de este supuesto. Se puede comprobar con la prueba de Shapiro-Wilk (para muestras pequeñas) o la prueba de Kolmogorov-Smirnov (para muestras más grandes).
- Homocedasticidad: Las varianzas de la variable dependiente son iguales en todas las poblaciones. Se puede contrastar con la prueba de Levene.
- Independencia de los errores: Se asume si el muestreo es aleatorio.
Pruebas de Normalidad
- Prueba de Kolmogorov-Smirnov (sig > 0.05 indica normalidad): Prueba no paramétrica para determinar la bondad de ajuste de dos distribuciones de probabilidad entre sí. Es más potente que la prueba de chi-cuadrado cuando el tamaño de la muestra (n) es pequeño. Es más sensible a los valores cercanos a la mediana que a los extremos de la distribución.
- Prueba de Shapiro-Wilk (sig > 0.05 indica normalidad): Prueba específica para contrastar la normalidad de un conjunto de datos. Es una de las pruebas más potentes para este propósito, especialmente para muestras pequeñas (n < 50).
Cálculo del Estadístico F
- Constante: (Suma total de todos los valores)2 / n (tamaño total de la muestra).
- Suma de Cuadrados Esperada (varianza entre grupos): Sumar los totales de cada grupo al cuadrado, dividir cada uno por el tamaño de su grupo, sumar los resultados y restar la constante.
- Suma de Cuadrados Total (varianza total): Sumar los cuadrados de cada uno de los valores y restar la constante.
- Suma de Cuadrados del Error (varianza error): Suma de Cuadrados Total - Suma de Cuadrados Esperada.
- Grados de libertad:
- glesp: Número de grupos - 1.
- gltot: n - 1.
- glerror: gltot - glesp.
- Medias Cuadráticas:
- MCesp: SCesp / glesp.
- MCerror: SCerror / glerror.
- F: MCesp / MCerror.
Lectura de la Tabla F: Buscar en la fila correspondiente a glesp y en la columna correspondiente a glerror. Si el valor de F calculado es mayor que el valor crítico de la tabla F para un nivel de significancia α (generalmente 0.05), se rechaza la hipótesis nula (H0).
Nivel Crítico (p)
El nivel crítico (p) es la probabilidad de obtener un valor del estadístico F como el observado o mayor, si la hipótesis nula fuera verdadera. Se rechaza H0 si p < α (generalmente 0.05).
Prueba de Hipótesis y Tipos de Error
- Error tipo I (α): Rechazar H0 cuando es verdadera. Se acepta un riesgo de error del 5% (α = 0.05).
- Error tipo II (β): Aceptar H0 cuando es falsa. Se acepta un riesgo de error del 5% al 20%.
- Potencia (1-β): Probabilidad de rechazar H0 cuando es falsa (detectar una diferencia real). Es complementaria al error tipo II. Para aumentar la potencia (disminuir β), se debe aumentar el tamaño muestral. Al disminuir el error α, aumenta el error β.
Tamaño del Efecto: Eta Cuadrado (η2)
Eta cuadrado (η2) mide la magnitud del efecto de la variable independiente sobre la variable dependiente en el ANOVA. Indica la proporción de varianza de la variable dependiente que es explicada por la variable independiente.
- η2 = 0.01: Efecto pequeño (alto riesgo de error tipo II).
- η2 = 0.06: Efecto moderado.
- η2 = 0.14: Efecto grande.
η2 =
Comparaciones Post Hoc
Si se rechaza la hipótesis nula en el ANOVA, se realizan comparaciones post hoc para determinar qué grupos difieren significativamente entre sí. Existen diferentes pruebas post hoc, que se eligen en función de si se asumen o no varianzas iguales entre los grupos:
- Varianzas iguales: Tukey HSD, Bonferroni, Sidak, Scheffe, R-E-G-W-F, R-E-G-W-Q, S-N-K, Tukey-b, Duncan, GT2 de Hochberg, Gabriel, Waller-Duncan, Dunnett.
- Varianzas distintas: T2 de Tamhane, T3 de Dunnett, Games-Howell, C de Dunnett.
Tabla de subconjuntos homogéneos (Tukey): Muestra los grupos que no difieren significativamente entre sí. Se interpreta por columnas. Si un grupo aparece solo en una columna, significa que difiere significativamente de los demás grupos.
Ejemplo de Conclusión
Para determinar si existen diferencias significativas en la variable dependiente según la variable independiente (factor), se llevó a cabo un ANOVA de un factor. El análisis de los datos permite concluir que existen diferencias estadísticamente significativas entre los tratamientos, F(gl1, gl2) = valor F; p < 0.05. Para establecer qué grupos diferían entre sí, se realizó un análisis de comparación de medias en base al estadístico HSD de Tukey (si se asumen varianzas iguales). De este análisis se puede señalar que el grupo [nombre del grupo] presenta la mayor disminución de síntomas ansiosos (M = 33.6; DE = 4.24), seguido por la terapia estratégica (M = 62.5; DE = 4.1) y el focusing (M = 61.6; DE = 3.9). Por último, el grupo control presenta los mayores niveles de ansiedad de toda la muestra (M = 65.9; DE = 3.7). (Las medias se pueden ver en la tabla de subconjuntos homogéneos; los tratamientos, n, y el subconjunto para alfa en la tabla de resumen ANOVA; los grados de libertad intergrupo e intragrupos, F y la significancia en la tabla de resumen ANOVA).