Correlación y Pruebas Estadísticas: Pearson, Spearman, ANOVA, t de Student y Más
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 3,99 KB
Asociación entre Variables
Correlación Lineal
Decimos que dos variables X e Y mantienen una relación lineal directa cuando los valores altos en Y tienden a emparejarse con valores altos en X, los valores intermedios en Y tienden a emparejarse con valores intermedios en X y los valores bajos en Y tienden a emparejarse con valores bajos en X.
Propiedades del Coeficiente de Correlación de Pearson/Spearman
- El coeficiente de correlación de Pearson se sitúa entre -1 y +1.
- El coeficiente de correlación no expresa relaciones de causalidad.
Valoración e Interpretación de una Correlación
Dos aspectos a tener en cuenta: cuantía y sentido de la relación.
- Una correlación en torno a 0 indica baja o nula relación entre variables.
- Una correlación positiva indica una relación lineal directa.
- Una correlación negativa indica una relación lineal inversa.
Regresión
El establecimiento de una correlación entre dos variables es importante, pero esto se considera un primer paso para predecir una variable a partir de la otra (u otras, en el caso de la regresión múltiple). Si sabemos que la variable X está muy relacionada con Y, podemos predecir Y a partir de X. Si X no está relacionada con Y, X no sirve como predictor de Y.
Correlación: Indica la fuerza y la dirección de una relación lineal y proporcionalidad entre dos variables estadísticas.
Comparación de Dos Medias: ANOVA y t de Student
Objetivo de Ambas Pruebas
Comparar las medias obtenidas por dos grupos diferentes de sujetos (ej.: conocer si la media obtenida por un grupo de escolares en una prueba de habilidad, difiere en función de su participación en un programa de intervención).
Es posible llegar a los mismos resultados con ambas pruebas (t² = F del ANOVA), aunque con el ANOVA pueden realizarse comparaciones entre un número mayor de medias, procedentes de estudios con más de dos grupos.
La prueba estadística nos ayuda a decidir si las diferencias observadas entre los promedios de ambos grupos pueden ser explicadas al azar o, por el contrario, podríamos relacionarlas con la participación en el programa de intervención.
Pearson: Paramétrico
Spearman: No paramétrico
Mayor a 0.05: Datos paramétricos
Menor a 0.05: Datos no paramétricos
Prueba de K-S: Más de 50 casos
Shapiro-Wilks: Menos de 50 casos
Correlación de Pearson (r)
La prueba en sí no considera a una variable como independiente y la otra como dependiente, porque no evalúa la causalidad, solo la relación mutua (correlación).
Prueba de Kruskal-Wallis
En estadística, la prueba de Kruskal-Wallis es un método no paramétrico para probar si un grupo de datos proviene de la misma población. Intuitivamente, es idéntico al ANOVA con los datos reemplazados por categorías. Es una extensión de la prueba de la U de Mann-Whitney para 3 o más grupos.
Ya que es una prueba no paramétrica, la prueba de Kruskal-Wallis no asume normalidad en los datos, en oposición al tradicional ANOVA. Sí asume, bajo la hipótesis nula, que los datos vienen de la misma distribución. Una forma común en que se viola este supuesto es con datos heterocedásticos.
Prueba U de Mann-Whitney
En estadística, la prueba U de Mann-Whitney es una prueba no paramétrica aplicada a dos muestras independientes. Es, de hecho, la versión no paramétrica de la habitual prueba t de Student.
Prueba de Kolmogorov-Smirnov
En estadística, la prueba de Kolmogorov-Smirnov (también prueba K-S) es una prueba no paramétrica que se utiliza para determinar la bondad de ajuste de dos distribuciones de probabilidad entre sí.