Correlación y Pruebas Estadísticas: Pearson, Spearman, ANOVA, t de Student y Más

Enviado por Chuletator online y clasificado en Matemáticas

Escrito el en español con un tamaño de 3,99 KB

Asociación entre Variables

Correlación Lineal

Decimos que dos variables X e Y mantienen una relación lineal directa cuando los valores altos en Y tienden a emparejarse con valores altos en X, los valores intermedios en Y tienden a emparejarse con valores intermedios en X y los valores bajos en Y tienden a emparejarse con valores bajos en X.

Propiedades del Coeficiente de Correlación de Pearson/Spearman

  • El coeficiente de correlación de Pearson se sitúa entre -1 y +1.
  • El coeficiente de correlación no expresa relaciones de causalidad.

Valoración e Interpretación de una Correlación

Dos aspectos a tener en cuenta: cuantía y sentido de la relación.

  • Una correlación en torno a 0 indica baja o nula relación entre variables.
  • Una correlación positiva indica una relación lineal directa.
  • Una correlación negativa indica una relación lineal inversa.

Regresión

El establecimiento de una correlación entre dos variables es importante, pero esto se considera un primer paso para predecir una variable a partir de la otra (u otras, en el caso de la regresión múltiple). Si sabemos que la variable X está muy relacionada con Y, podemos predecir Y a partir de X. Si X no está relacionada con Y, X no sirve como predictor de Y.

Correlación: Indica la fuerza y la dirección de una relación lineal y proporcionalidad entre dos variables estadísticas.

Comparación de Dos Medias: ANOVA y t de Student

Objetivo de Ambas Pruebas

Comparar las medias obtenidas por dos grupos diferentes de sujetos (ej.: conocer si la media obtenida por un grupo de escolares en una prueba de habilidad, difiere en función de su participación en un programa de intervención).

Es posible llegar a los mismos resultados con ambas pruebas (t² = F del ANOVA), aunque con el ANOVA pueden realizarse comparaciones entre un número mayor de medias, procedentes de estudios con más de dos grupos.

La prueba estadística nos ayuda a decidir si las diferencias observadas entre los promedios de ambos grupos pueden ser explicadas al azar o, por el contrario, podríamos relacionarlas con la participación en el programa de intervención.

Pearson: Paramétrico

Spearman: No paramétrico

Mayor a 0.05: Datos paramétricos

Menor a 0.05: Datos no paramétricos

Prueba de K-S: Más de 50 casos

Shapiro-Wilks: Menos de 50 casos

Correlación de Pearson (r)

La prueba en sí no considera a una variable como independiente y la otra como dependiente, porque no evalúa la causalidad, solo la relación mutua (correlación).

Prueba de Kruskal-Wallis

En estadística, la prueba de Kruskal-Wallis es un método no paramétrico para probar si un grupo de datos proviene de la misma población. Intuitivamente, es idéntico al ANOVA con los datos reemplazados por categorías. Es una extensión de la prueba de la U de Mann-Whitney para 3 o más grupos.

Ya que es una prueba no paramétrica, la prueba de Kruskal-Wallis no asume normalidad en los datos, en oposición al tradicional ANOVA. Sí asume, bajo la hipótesis nula, que los datos vienen de la misma distribución. Una forma común en que se viola este supuesto es con datos heterocedásticos.

Prueba U de Mann-Whitney

En estadística, la prueba U de Mann-Whitney es una prueba no paramétrica aplicada a dos muestras independientes. Es, de hecho, la versión no paramétrica de la habitual prueba t de Student.

Prueba de Kolmogorov-Smirnov

En estadística, la prueba de Kolmogorov-Smirnov (también prueba K-S) es una prueba no paramétrica que se utiliza para determinar la bondad de ajuste de dos distribuciones de probabilidad entre sí.

Entradas relacionadas: