Estadística en Investigación: Correlación, Regresión y Pruebas Paramétricas

Enviado por milkitosh y clasificado en Matemáticas

Escrito el en español con un tamaño de 5,38 KB

Semana 7: Comparación de Variables Numéricas - T-test y U de Mann-Whitney

  • Hipótesis Nula (Ho): No existen diferencias significativas. Los grupos son iguales.
  • Hipótesis Alternativa (Ha): Existen diferencias significativas.

Pruebas de Normalidad y Homogeneidad

  • Normalidad (Shapiro-Wilk): Si p > 0.05, se acepta Ho. La media de los grupos en expuestos y no expuestos son iguales. La gráfica presenta una distribución normal.
  • Homogeneidad (Levene para 2 grupos / Bartlett para 3 grupos): Si p > 0.05, se acepta Ho. La varianza de ambos grupos es igual.

Elección de la Prueba Estadística

  • Si se cumplen los supuestos de normalidad y homogeneidad → Pruebas paramétricas:
    • Independientes: T-test (2 grupos) / ANOVA (3 o más grupos).
    • Dependientes: T-test pareado / Análisis de varianza de medidas repetidas (3 o más grupos).
  • Si no se cumplen los supuestos → Pruebas no paramétricas:
    • Independientes: U de Mann-Whitney (2 grupos) / Kruskal-Wallis (3 o más grupos).
    • Dependientes: Prueba de los Signos de Wilcoxon (2 grupos) / Friedman (3 o más grupos).

Wilcoxon (Ho): La suma de rangos no es diferente entre ambos grupos.

Semana 9: ANOVA y Kruskal-Wallis

  • Bartlett (para homogeneidad de varianzas en 3 o más grupos): Si p > 0.05, se acepta Ho. No existen diferencias entre las varianzas; estas son iguales.
  • ANOVA (Ho): Todas las medias son iguales. Al menos una media es diferente. Ejemplo: La media de X es similar entre los 3 niveles socioeconómicos.
  • Kruskal-Wallis (Ho): Las muestras provienen de la misma población.
  • Bonferroni (post-hoc para ANOVA) (Ho): No existe diferencia entre los grupos X e Y.

Variable de Respuesta: Dependiente

Variable de Exposición: Independiente

Semana 10: Correlación entre Variables

Dos variables están correlacionadas si al aumentar los valores de una, también aumentan los de la otra (correlación positiva), o si al aumentar los valores de una, disminuyen los de la otra (correlación negativa).

  • Relación positiva: /
  • Relación negativa: \
  • No lineal: Curva monotónica o no monotónica.

Coeficiente de Correlación Lineal

Mide la relación entre dos variables cuantitativas.

  • Paramétrico (Pearson): Supone normalidad. Sensible a valores extremos.
  • No paramétrico (Spearman): No supone normalidad. No es sensible a valores extremos.

Hipótesis Nula (Ho): No existe correlación (ρ = 0).

Interpretación del Coeficiente de Correlación

  • 0: Ausencia de correlación.
  • 0.01 - 0.19: Correlación muy baja.
  • 0.20 - 0.39: Correlación baja.
  • 0.40 - 0.69: Correlación moderada.
  • 0.70 - 0.99: Correlación muy alta.
  • 1: Correlación perfecta.

Rho: Indica la correlación. El valor de p inferior indica si es estadísticamente significativa (p < 0.05).

Semana 11: Regresión Lineal

  • Variable de respuesta numérica continua → Regresión lineal.
  • Variable de respuesta categórica → Regresión logística:
    • 2 categorías (binaria).
    • Más de 2 categorías:
      • Ordenadas (ordinal).
      • No ordenadas (multinomial).

Supuestos de la Regresión Lineal

  1. Linealidad.
  2. Independencia de la variable aleatoria.
  3. Normalidad de los residuos.
  4. Homocedasticidad (igualdad de varianzas).

Ejemplos de Interpretación

  • El puntaje de X fue, en promedio, 3.3 puntos menor que otros X.
  • Si la variable de exposición es numérica y p < 0.05: Por cada año de edad que se incrementa, la escala se reduce en 0.13 puntos. Pero el valor de p también puede ser no significativo (p > 0.05).

Hipótesis Nula (Ho): No existe correlación. Se evalúa con el valor de p.

R cuadrado: Ejemplo: R cuadrado = 0.0598. El modelo explica solo el 5.98% de la variación de la Presión Arterial Sistólica (PAS) según el sexo. Un mayor R cuadrado indica un mejor ajuste del modelo.

Ejemplo ajustado: El puntaje de X fue, en promedio, 3.9 puntos menor que en los alumnos X, ajustado por las variables X e Y.

Semana 12: Regresión Logística

Hipótesis Nula (Ho): Si OR = 1, no se rechaza Ho.

Ejemplo ajustado: Los alumnos X tienen menos probabilidad de tener psicosis en relación a otros, ajustado por X.

Otras Medidas

  • Poisson: Se usa para calcular RR (Riesgo Relativo) en estudios de cohortes o PR (Razón de Prevalencia) en estudios transversales.
  • Se puede usar OR en un estudio transversal cuando la prevalencia de la variable respuesta es baja.
  • IRR o PR: Ejemplo: Los varones tienen 2.8 veces más probabilidad de presentar la enfermedad en comparación con las mujeres.

Entradas relacionadas: