Errores en modelos econométricos: conceptos y pruebas

Enviado por Chuletator online y clasificado en Matemáticas

Escrito el en español con un tamaño de 8,21 KB

Cuando se incorpora el supuesto de normalidad de los errores poblacionales los estimadores MICO son MELI.

V: al incorporar el supuesto de normalidad de los errores (ui) los estimadores mico son los mejores estimadores insesgados, pudiendo ser lineales o no.

El término de error muestral en un modelo econométrico surge por la discrepancia entre la variable endógena observada y la variable endógena estimada.

V: ui=y-y^

La normalidad de los errores permite probar hipótesis acerca de los coeficientes del modelo econométrico.

V: si el error es normal, también lo será la distribución de la variable endógena y con ello la de los coeficientes.

El análisis de regresión entre las variables X e Y implica que X causa a Y.

F: AR no implica causalidad de las variables, ni x sobre y ni y sobre x

El análisis de regresión me permite determinar con cierta precisión los valores individuales de la variable dependiente a partir de los valores de la variable independiente.

F: el AR permite establecer la relación entre las variables dependientes X sobre el valor promedio de la variable Y.

Modelo de regresión múltiple

En un modelo de regresión múltiple la significancia global considera como hipótesis nula que todos los parámetros son simultáneamente igual a 0.

F: solo considera como hipótesis que los parámetros de la variable explicativa son igual a 0, no así el intercepto.

La inferencia estadística se invalida si las variables explicativas presentan una fuerte asociación lineal entre ellas.

F: la fuerte asociación lineal de las X`s aumenta la varianza de los B estimados, lo que aumenta los intervalos de confianza de los parámetros de hipótesis haciendo más probable en no rechazo de Ho, pero no invalida la inferencia misma.

Autocorrelación y coeficiente de determinación

Cuando hay presencia de autocorrelación, los estimadores MCO son sesgados, lo mismo que ineficientes.

F: en presencia de autocorrelación los estimadores MCO siguen siendo insesgados pero ya no tienen varianza mínima, ya no son MELI, es decir, ya no son eficientes.

La transformación de primera diferencia para eliminar autocorrelación supone que el coeficiente de autocorrelación B es -1

F: para eliminar la autocorrelación supone que el coeficiente de autocorrelación es B +1, es decir, que las perturbaciones están correlacionadas positivamente.

En presencia de autocorrelación las varianzas calculadas convencionalmente y los errores estándar de los valores pronosticados son ineficientes.

V: las varianzas ya no son mínimas, es decir, dejan de ser MELI por lo tanto dejan de ser eficientes.

Coeficiente de determinación y pruebas de hipótesis

Un coeficiente de determinación ajustado permite corregir las varianzas estimadas y por ello ayuda a la inferencia estadística.

F: R2 ajustado solo corrige el coeficiente de determinación de regresión múltiple, considerando el número de variables explicativas, vía el ajuste de grados de libertad.

Obtener un R2 alto es muy bueno en una estimación, ya que facilita la interpretación de los parámetros estimados.

F: dice que un mayor % de variación de Y es explicada por las X`s, pero no dice nada de los B^

La bondad de ajuste de una regresión será mejor en la medida que mayor sea la sumatoria de los errores estimados al cuadrado.

F: la bondad de ajuste es más mala.

El coeficiente de determinación en un modelo de regresión múltiple mide el % de la variación de la variable Y explicada por el conjunto de las variables explicativas.

F: el coef. De determinación mide el % de la variación de la variable Y explicada por el conjunto de las variables explicativas.

Comparación de modelos y pruebas estadísticas

Los valores R2 de dos modelos, de los cuales uno corresponde a una regresión en forma de primera diferencia y otra en forma de nivel, no son directamente comparables.

V: para que los R2 sean comparables las variables dependientes deben ser las mismas y en este caso no lo son, debido a que al tomar las primeras diferencias estamos estudiando esencialmente el comportamiento de variables alrededor de sus valores de tendencia.

El test de Fisher es útil para realizar pruebas de hipótesis en modelos de regresión múltiple ya que considera los sesgos de especificación.

F: el test F permite realizar test de hipótesis en MR múltiples y no considera el tema de sesgos de especificación de una estimación. Para testear los sesgos de especificación se puede realizar el test reset.

Pruebas y conceptos erróneos

A)Mientras mas débil sea la colinealidad de las variables explicativas, mas significativos serán los parámetros individuales de una regresión: V. a menor coli de las Xs mas bajas serán las varianzas estimadas de los Bgorro. Esto lleva a mayor T con lo que los parámetros estimados son mas significativos.

B)La autocorrelacion es un problema en econometría ya que impide determinar un parámetro de forma precisa. F. autocorrelacion es un problema de econometría dado que los B gorros MICO dejan de ser Meli debido a que pierden la propiedad de minima varianza, invalidando inferencia estadística

C)La fuerte correlacion de las variables explocativas en un modelo regrsion multiple impide determinar la signifacncia estadística de los parámetros poblacionales. F fuerte correlacion hace que estimación de B pob sea imprecisa, llevando a T bajos pero los gorros siguen siendo meli

D)Fisher es útil para pruebas de hipótesis en modelos de regr multiple ya que considera los sesgos de especificación del modelo econométrico. F Permite realizar distintas inferencias estadísticas de los B pob y no dice relación al sesgo de especificación de un modelo econométrico

E) si existe autocrrelacion en los errores se puede estimar modelo econométrico sin problema. F los estimadores dejan de ser meli

F)un cambio estructural en un modelo solo se puede probar aplicando variables cualitativas F también se puede comporobar a través de chaw

G) jaque bera permite determinar si las pruebas de hipótesis son concretas. F mide normalidad de los errores poblacionales a partir de los erroees estimados

H)para realizar inferencia estadística de los parámetros poblacionales en un modelo de Reg multiple se necesita conocer los t  para los parámetros estimados I. dependiendo del test de hipótesis para significacncia individual t estudent pero para otros se necesita Fisher

I) El termino error poblacional se debe incorporar a una regresión para asegurarse que el modelo sea esticastico y no determinístico para poder realizar hipótesis de los parametris poblacionales. F, se incorpora para recoger factores que no están explicitas en la regresión y que afectan al valor promedio de la variable Y

J) cuando se incorpora supuesto de normalidad de los errores poblacionales los estimadores mico son meli? V al incorporar el supuesto de normalidad de los errores los estimadores mico son los mejores estimadores insesgados pudiendo ser lineales o no

K) un Rcuadrado alto es muy bueno en una estimación ya que facilita la interpretación de los parámetros estimados F un rcuadrado alto me dice que a mayor % de la variación de y es expplicada por los Xs pero no dice nada de los b estimados

L)los test T son importantes para descartar que los parámetros estimados sean cero  F los test t ayudan a medir la signifacncia estadistiva de los B pob y no de los estimados

M)los test F son validos en la medida que no exista una fuerte asociación lineal entre las variables explicativas y el estadístico jacke bera sea cero(JB). V, el testeo de hipótesis descarta en la normalidad de los erroes con un Jb igual a cero hay evidencia de normalidad, por otro lado la asociación lineal entre los Xs afecra los T sin llegar a invalidarlos pero no a los t F

N) las vatiables dummy son usadas básicamente para evaluar como la presencia de un atributro afecta el intercepto de una regresión F. se usan para evaluar cambios de intercepto y pendiente asociado a la presencia  de un atributo esto se hace con la prueba T

Entradas relacionadas: