Estimación de Máxima Verosimilitud con Normalidad: Propiedades y Aplicaciones

Enviado por Programa Chuletas y clasificado en Matemáticas

Escrito el en español con un tamaño de 3,09 KB

T5. Estimación de Máxima Verosimilitud con Normalidad

Técnica de estimación general llamada máxima verosimilitud. La estimación MV consiste en utilizar como estimadores los valores de los parámetros que hacen máxima la probabilidad (la función de densidad conjunta) de obtener la muestra que observamos. En el caso del MLS con homocedasticidad y normalidad de ε, la función de verosimilitud (en logaritmos) es:

logℓ(β^0,β^1,σ^^2ε)=−n*log(σ^2)/2 −n*log(2π)/2 −∑i(yi−β^0−β^1xi)^2/2σ^^2ε

Para maximizar logℓ, tenemos que minimizar la SR. Esto quiere decir que los estimadores MV de (β0,β1) son los MCO.

IMPLICACIÓN: MCO con homocedasticidad y normalidad tiene las propiedades asociadas a los MV.

Propiedades de los Estimadores MV

En el MLS con homocedasticidad y normalidad, el estimador MCO es el MV. Esto garantiza el cumplimiento de las siguientes propiedades:

  • Consistencia
  • Normalidad asintótica
  • Eficiencia asintótica: No existen estimadores consistentes (lineales o no) con menor varianza, sean lineales o no.

LÍMITES: Esto es sólo aplicable cuando el MLS es estrictamente válido, hay homocedasticidad y normalidad. Es decir: CASI NUNCA.

Aplicaciones de Mínimos Cuadrados Ponderados

Dar distinta ponderación a cada observación en la suma de cuadrados tiene aplicaciones diversas:

  • Distintos tamaños: Podemos dar más peso a las observaciones que corresponden a varias unidades. Ej: Tablas de frecuencias, número de miembros del hogar, población del municipio…
  • Probabilidad en el muestreo: En datos de encuestas complejas a menudo no todas las unidades tienen la misma probabilidad de selección (ej: sobremuestreo en poblaciones específicas). Se definen pesos ligados a la inversa de la probabilidad de selección. (PISA)
  • Distintas varianzas condicionadas: Damos más peso a las observaciones con varianza menor (MCG)
  • Distintas varianzas muestrales: Si las variables no se observan exactamente sino que se obtienen por muestreo, más peso a las estimaciones más precisas.
  • Estimadores robustos frente a atípicos: limitan el peso máximo que se da a una observación.
  • Estimadores locales: Seleccionamos pesos positivos sólo para observaciones cercanas. Hacemos 0 (o casi nula), para observaciones lejanas. Es la idea de la regresión no paramétrica.

Se pueden combinar todos estos motivos.

Estimadores no paramétricos

La ventaja de los estimadores no paramétricos es que se basan en el ajuste local. Esto impide que se alejen demasiado de la muestra en ninguna parte.

Matemáticamente, casi todos se pueden ver como casos particulares de MCP, pero con pesos locales.

Es decir: la función objetivo tiene que optimizarse PARA CADA PUNTO de f^(x)

Esto los hace computacionalmente complejos, pero conceptualmente simples. Muchos de ellos son, además, estimadores lineales: se pueden escribir como:

f^(x)=∑i=wi(xi)yi.

Entradas relacionadas: