Modelos Dinámicos y Regresores Estocásticos: Implicaciones en la Regresión Lineal

Enviado por Chuletator online y clasificado en Matemáticas

Escrito el en español con un tamaño de 3,1 KB

Modelos Dinámicos y Regresores Estocásticos

Uno de los supuestos básicos establecidos en la estimación del modelo de regresión lineal es la consideración de que las variables explicativas Xki son fijas (no aleatorias). Los regresores son variables que pueden considerarse como fijas. Este supuesto la mayoría de las veces no puede sostenerse. Los regresores son variables que pueden considerarse ESTOCÁSTICOS. Casos que conducen a ello son: simultaneidad de ecuaciones, series temporales, modelos dinámicos, modelos con expectativas, modelos con errores en las variables.
¿Qué problemas genera en el modelo de regresión lineal la inclusión de regresores estocásticos? Factores que motivan que un regresor sea estocástico o aleatorio:

1) Simultaneidad de Ecuaciones

- Si Ut y Xt son independientes, el estimador por MCO es insesgado.
- Si Ut y Xt no son independientes: no se puede descomponer en los términos del caso anterior y se deberá analizar qué ocurre con el estimador a medida que incrementa el tamaño de la muestra, análisis de consistencia del estimador.
- La insesgadez implica que al analizar repetidas veces una regresión con distintas muestras finitas, la media de los estimadores coincide con su verdadero valor.
- La condición de insesgadez exige que en cualquier momento del tiempo ningún regresor esté correlacionado con la perturbación aleatoria.
Tanto las variables Y1t e Y2t son endógenas y que interactúan simultáneamente.

2) Errores de Medida

Pueden provocar aleatoriedad de los regresores del modelo de regresión lineal.

3) Modelos Dinámicos

¿Qué ocurre al aplicar MCO a todos estos modelos?
INSESGADEZ: Es una propiedad del estimador en muestra finita. Esto significa que se puede derivar independientemente del tamaño muestral y en ese caso la distribución del estimador es exacta.
En el modelo de Regresión Lineal la insesgadez se cumple bajo el cumplimiento de las hipótesis básicas, para el modelo:
Modelo de Regresión lineal simple:
Si fuese 0 el estimador seria insesgado.
CONSISTENCIA: Es una propiedad asintótica de los estimadores, que se cumple cuando el tamaño de la muestra tiende a infinito. Esta propiedad es el requisito mínimo que debe cumplir cualquier estimador, permite realizar inferencia. Un estimador Bk ES CONSISTENTE SI:
Incrementa el tamaño de la muestra de los valores del estimador se aproximan más al valor del parámetro.
- Si la distribución del estimador Bk es simétrica: La consistencia implica la concentración de la distribución muestral alrededor del valor a medida que crece T, colapsando en Bk cuando T= infinito.
La consistencia implica que el estimador se aproxima a su verdadero valor a medida que aumenta el tamaño muestral (en el límite). La condición de consistencia exige que los regresores no estén correlacionados con el error en el momento presente.

Entradas relacionadas: