Conceptos Clave en Econometría: Elasticidad, Prueba T y Multicolinealidad
Enviado por Programa Chuletas y clasificado en Matemáticas
Escrito el en español con un tamaño de 5,51 KB
Elasticidad Parcial de Producción
Mide el cambio proporcional en el output (producción) como resultado de un incremento proporcional en el i-ésimo input (factor de producción), manteniendo constantes todos los demás inputs.
Se representa como:
Ei = (∂y / ∂xi) * (xi / y)
Donde:
- Ei es la elasticidad parcial del input i.
- y es el output.
- xi es la cantidad del input i.
- ∂y / ∂xi es la derivada parcial del output respecto al input i (producto marginal del input i).
Generalmente, se espera que Ei > 0.
Elasticidad Total de Producto (Elasticidad de Escala)
También conocida como elasticidad de escala (E), mide el cambio proporcional en el output como resultado de un incremento unitario proporcional en todos los inputs simultáneamente.
Esta elasticidad se puede representar como la suma de las elasticidades parciales de producción:
E = E1 + E2 + ... + En
Indica los rendimientos a escala:
- Constantes: E = 1
- Crecientes: E > 1
- Decrecientes: E < 1
Prueba T (Contraste de Significancia Individual)
En la prueba t estándar se contrasta si los verdaderos parámetros del modelo (βi de la función de regresión poblacional) son iguales a cero. Por lo que se propone la siguiente hipótesis a probar:
- H0: βi = 0 (Hipótesis nula: el parámetro no es estadísticamente significativo, la variable asociada no influye en la variable dependiente).
- Ha: βi ≠ 0 (Hipótesis alternativa: el parámetro es estadísticamente significativo).
Considerando la hipótesis nula (H0), el contraste se realiza calculando el estadístico t (t-ratio):
tcalculado = (Estimador de βi - 0) / Error estándar del estimador de βi
Se trata de analizar si el valor absoluto del tcalculado es mayor que un cierto valor crítico de la distribución t (tcrítico) para un nivel de significancia dado (por ejemplo, 5%) y los grados de libertad correspondientes.
Ejemplo: Si un tcalculado es 5.123 con 91 grados de libertad y se utiliza un nivel de error del 5%, se compara |5.123| con el tcrítico. Si |tcalculado| > tcrítico, se rechaza la hipótesis nula (H0).
Si se rechaza H0, se puede plantear que los parámetros son diferentes de cero y, por lo tanto, concluir que son estadísticamente significativos.
Multicolinealidad
La multicolinealidad se refiere a la existencia de una fuerte relación lineal entre dos o más variables explicativas (independientes) en un modelo econométrico.
- Multicolinealidad Exacta: La combinación lineal entre las variables es perfecta.
- Multicolinealidad Aproximada (o Estructural): La combinación lineal es elevada pero no perfecta. Es la forma más común en la práctica.
En el caso de multicolinealidad exacta, los parámetros del modelo (coeficientes β) no se pueden calcular mediante Mínimos Cuadrados Ordinarios (MCO), dado que la matriz (X'X) no sería de rango pleno y no tendría inversa.
Relación con los Supuestos de Gauss-Markov
Uno de los supuestos del modelo lineal clásico (necesario para que los estimadores MCO sean los Mejores Estimadores Lineales Insesgados - MELI) es la ausencia de multicolinealidad exacta entre las variables explicativas.
Cuando no se cumple con este supuesto (es decir, hay multicolinealidad, especialmente si es fuerte o aproximada), surgen problemas:
Implicancias de la Multicolinealidad (Aproximada)
- Aunque los estimadores MCO continúan siendo insesgados y consistentes, dejan de ser eficientes (no tienen la mínima varianza).
- Se incrementa la varianza (y por tanto el error estándar) de los parámetros estimados.
- Esto supone unos valores del estadístico t más reducidos, lo que lleva a una mayor probabilidad de no rechazar la hipótesis nula (H0: βi = 0) cuando es falsa (Error Tipo II). Es decir, podemos concluir incorrectamente que una variable no es significativa.
- En general, los parámetros estimados se vuelven más inestables y sensibles a pequeños cambios en los datos o en la especificación del modelo (incorporación o eliminación de variables explicativas).
Detección de la Multicolinealidad
La forma más simple es por observación de los estadísticos del modelo:
- Un R2 (coeficiente de determinación) y un estadístico F (significancia conjunta del modelo) muy elevados.
- Y, por el contrario, pocos o ningún estadístico t individualmente significativo.
Este es un síntoma clásico de fuerte multicolinealidad. Existen otras pruebas más formales como el Factor de Inflación de la Varianza (FIV).