Conceptos y Métodos Fundamentales de Optimización Matemática
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 6,83 KB
Métodos de Optimización Numérica
Método del Gradiente Descendente
Proporciona una buena dirección de descenso inicial, pero puede presentar baja convergencia cerca del óptimo. Su velocidad de convergencia es típicamente lineal (considerada lenta).
Método de Newton
Ofrece buena convergencia cerca de la solución, pero no garantiza la orientación hacia un mínimo (puede converger a máximos o puntos silla si no se toman precauciones). Su velocidad de convergencia es cuadrática (considerada rápida) bajo ciertas condiciones.
Conceptos Clave en Optimización
Moverse en la dirección del descenso dada por el negativo del gradiente (-∇f
) es la mejor opción localmente (marginalmente), pero esto no determina la rapidez global de convergencia, la cual depende de la longitud del paso (tamaño de paso) que se pueda dar en esa dirección.
En un problema con restricciones, bajo condiciones de optimalidad (como las de KKT), el gradiente de la función objetivo (∇f
) en un punto óptimo se puede expresar como una combinación lineal de los gradientes de las restricciones activas en ese punto. La regularidad del punto es importante para la unicidad de los multiplicadores asociados.
En un problema con restricciones, si una restricción está activa en la solución óptima, su correspondiente multiplicador de Lagrange (si es distinto de cero) indica la sensibilidad o tasa marginal de cambio del valor óptimo de la función objetivo respecto a una pequeña perturbación (relajación) del lado derecho de esa restricción.
Un problema de optimización donde todas las restricciones son lineales (igualdades o desigualdades) tiene la propiedad de que todo punto factible es regular, siempre que el conjunto factible no sea vacío y las restricciones sean linealmente independientes.
En Programación Lineal (PL), no todos los vértices (puntos extremos) del conjunto factible satisfacen necesariamente las condiciones de Karush-Kuhn-Tucker (KKT). Solo aquellos vértices que corresponden a soluciones óptimas las cumplen.
Definiciones Fundamentales
- Punto extremo: En el contexto de conjuntos convexos, es un punto que no puede representarse como una combinación convexa estricta (con pesos estrictamente entre 0 y 1) de otros dos puntos distintos del conjunto. En optimización lineal, las soluciones óptimas (si existen) se encuentran en puntos extremos.
- Solución factible: Cualquier punto
x
que satisface todas las restricciones del problema (pertenece al dominio o región factible). - Solución óptima: Un punto factible
x*
tal quef(x*) ≤ f(y)
para today
factible (en un problema de minimización). - Valor óptimo: El ínfimo (o mínimo, si se alcanza) del valor de la función objetivo
f(x)
sobre el conjunto factible. - Conjunto convexo: Un conjunto
D
donde, para cualquier par de puntosx, y ∈ D
, el segmento de línea que los une está completamente contenido enD
. Formalmente,αx + (1-α)y ∈ D
para todoα ∈ [0, 1]
. - Punto regular (Condición LICQ): Un punto factible
x
donde los gradientes de las restricciones de igualdad activas y las restricciones de desigualdad activas enx
son linealmente independientes. Existen otras condiciones de calificación de restricciones (CQ) además de LICQ.
Teoremas Relevantes en Optimización
- Teorema (Existencia basada en coercitividad): Sea
f
una función continua definida sobre un conjunto cerrado y no vacíoD ⊆ ℝⁿ
. Sif
es coercitiva (es decir,f(x) → +∞
cuando||x|| → +∞
), entonces el problema de minimizarf
sobreD
admite al menos una solución óptima global. - Teorema de Weierstrass: Sea
f
una función continua definida sobre un conjuntoD ⊆ ℝⁿ
que es compacto (cerrado y acotado) y no vacío. Entonces,f
alcanza su mínimo y máximo global enD
, es decir, el problema de optimización tiene al menos una solución óptima. - Condición Necesaria de Segundo Orden (CN2 - sin restricciones): Si
x*
es un mínimo local def
yf
es dos veces continuamente diferenciable en una vecindad dex*
, entonces el gradiente∇f(x*) = 0
y la matriz HessianaH(f(x*))
es semidefinida positiva. - Condición Suficiente de Segundo Orden (CS2 - sin restricciones): Si
f
es dos veces continuamente diferenciable en una vecindad dex*
,∇f(x*) = 0
y la matriz HessianaH(f(x*))
es definida positiva, entoncesx*
es un mínimo local estricto def
. - Teorema de Lagrange (Condiciones Necesarias de Primer Orden con Igualdades): Sea
x*
un mínimo local del problema de minimizarf(x)
sujeto ah_i(x) = 0
parai=1,...,m
. Six*
es un punto regular y las funcionesf, h_i
son continuamente diferenciables, entonces existen escalaresλ_i
(multiplicadores de Lagrange) tales que∇f(x*) + Σᵢ λᵢ ∇hᵢ(x*) = 0
. (Las condiciones KKT generalizan esto para incluir desigualdades). - Condición de Slater: Considera un problema convexo con restricciones
gⱼ(x) ≤ 0
(gⱼ
convexas) yAx = b
(lineales). Si existe un puntox̃
factible tal quegⱼ(x̃) < 0
para todas lasj
correspondientes a restricciones de desigualdad no lineales (yAx̃ = b
), entonces se cumple la condición de Slater, que es una condición de calificación de restricciones que garantiza que las condiciones KKT son necesarias para la optimalidad. - Propiedad de Problemas Convexos (Mínimos Locales): En un problema de optimización convexo (minimizar una función convexa sobre un conjunto convexo), cualquier mínimo local es también un mínimo global.
- Propiedad de Problemas Estrictamente Convexos (Unicidad): Si el problema de optimización consiste en minimizar una función estrictamente convexa sobre un conjunto convexo, entonces si existe una solución óptima global, esta es única.