Documentos de Académico
Documentos de Profesional
Documentos de Cultura
�ndice
1 Problemas de optimizaci�n
2 Notaci�n
2.1 M�nimo y M�ximo valor de una funci�n
2.2 Argumentos de la entrada �ptima
3 Historia
4 Subcampos principales
5 Clasificaci�n de puntos cr�ticos y extremos
5.1 Factibilidad del problema
5.2 Existencia
5.3 Condiciones necesarias de optimalidad
5.4 Condiciones suficientes de optimalidad
5.5 Sensibilidad y continuidad del �ptimo
5.6 C�lculos de optimizaci�n
6 T�cnicas de optimizaci�n computacional
6.1 Algoritmos de optimizaci�n
6.2 M�todos iterativos
6.2.1 Convergencia global
6.3 Heur�sticas
7 V�ase tambi�n
8 Referencias
9 Enlaces externos
Problemas de optimizaci�n
Un problema de optimizaci�n puede ser representado de la siguiente forma:
Notaci�n
Los problemas de optimizaci�n se expresan a menudo con una notaci�n especial. A
continuaci�n se muestran algunos ejemplos.
{\displaystyle \max _{x\in \mathbb {R} }\;2x} {\displaystyle \max _{x\in \mathbb
{R} }\;2x}
expresa el valor m�ximo de la funci�n objetivo 2x, siendo x cualquier n�mero real.
En este caso, no existe tal m�ximo, luego no hay un valor �ptimo acotado.
o de manera equivalente
{\displaystyle {\underset {x}{\operatorname {arg\,min} }}\;x^{2}+1,\;{\text{sujeto
a:}}\;x\in (-\infty ,-1].} {\displaystyle {\underset {x}{\operatorname
{arg\,min} }}\;x^{2}+1,\;{\text{sujeto a:}}\;x\in (-\infty ,-1].}
De modo similar,
Arg min y arg max a veces aparecen escritos como argmin y argmax, y quieren decir
argumento del m�nimo y argumento del m�ximo.
Historia
Pierre de Fermat y Joseph Louis Lagrange encontraron f�rmulas basadas en el c�lculo
para identificar valores �ptimos, mientras que Isaac Newton y Carl Friedrich Gauss
propusieron m�todos iterativos para aproximar el �ptimo. Hist�ricamente, el t�rmino
programaci�n lineal para referirse a ciertos problemas de optimizaci�n se debe a
George B. Dantzig, aunque gran parte de la teor�a hab�a sido introducida por Leonid
Kantorovich en 1939. Dantzig public� el Algoritmo s�mplex en 1947 y John von
Neumann desarroll� la teor�a de la dualidad en el mismo a�o.
Richard Bellman
Ronald A. Howard
Narendra Karmarkar
William Karush
Leonid Khachiyan
Bernard Koopman
Harold W. Kuhn
Joseph Louis Lagrange
L�szl� Lov�sz
Arkadi Nemirovski
Yurii Nesterov
Boris Polyak
Lev Pontryagin
James Renegar
R. Tyrrell Rockafellar
Cornelis Roos
Naum Z. Shor
Michael J. Todd
Albert Tucker
Michael Omar Cu�as
Subcampos principales
Programaci�n convexa estudia el caso en que la funci�n objetivo es convexa
(minimizaci�n) o c�ncava (maximizaci�n) y el conjunto de restricciones es convexo.
Este puede ser visto como un caso particular de la programaci�n no lineal o como la
generalizaci�n de la programaci�n lineal o de la convexa cuadr�tica.
Programaci�n lineal (PL): es un tipo de programaci�n convexa, en el que la funci�n
objetivo f es lineal y el conjunto de restricciones se especifica usando solamente
ecuaciones e inecuaciones lineales. Dicho conjunto es llamado poliedro o politopo
si est� acotado.
Programaci�n c�nica: es una forma general de la programaci�n convexa. PL, PCSO y
PSD pueden todos ser vistos como programas c�nicos con el tipo de cono apropiado.
Programaci�n de cono de segundo orden (PCSO): es un tipo de programaci�n convexa e
incluye ciertos tipos de problemas de programaci�n cuadr�tica.
Programaci�n semidefinida (PSD): es un subcampo de la optimizaci�n convexa donde
las variables fundamentales son matrices semidefinidas. Es una generalizaci�n de la
programaci�n lineal y la programaci�n cuadr�tica convexa.
Programaci�n geom�trica: es una t�cnica por medio de la cual el objetivo y las
restricciones de desigualdad expresados como polinomios y las restricciones de
igualdad como monomios, pueden ser transformados en un programa convexo.
Programaci�n con enteros o Programaci�n entera: estudia programas lineales en los
cuales algunas o todas las variables est�n obligadas a tomar valores enteros. Esta
no es convexa y en general es mucho m�s compleja que la programaci�n lineal
regular.
Programaci�n cuadr�tica: permite a la funci�n objetivo tener t�rminos cuadr�ticos,
mientras que el conjunto factible puede ser especificado con ecuaciones e
inecuaciones lineales. Para formas espec�ficas del t�rmino cuadr�tico, esta es un
tipo de programaci�n convexa.
Programaci�n fraccionaria: estudia la optimizaci�n de razones de dos funciones no
lineales. La clase especial de programas fraccionarios c�ncavos puede ser
transformada a un problema de optimizaci�n convexa.
Programaci�n no lineal: estudia el caso general en el que la funci�n objetivo, o
las restricciones, o ambos, contienen partes no lineales. Este puede o no, ser un
programa convexo. En general, si el programa es convexo afecta la dificultad de
resoluci�n.
Programaci�n estoc�stica u Optimizaci�n estoc�stica: estudia el caso en el que
alguna de las restricciones o par�metros depende de variables aleatorias.
Programaci�n robusta: como la programaci�n estoc�stica, es un intento por capturar
la incertidumbre en los datos fundamentales del problema de optimizaci�n. Esto se
hace mediante el uso de variables aleatorias, pero en cambio, el problema es
resuelto teniendo en cuenta imprecisiones en los datos de entrada.
Optimizaci�n combinatoria: se preocupa de los problemas donde el conjunto de
soluciones factibles es discreto o puede ser reducido a uno.
Optimizaci�n dimensional-infinita: estudia el caso donde el conjunto de soluciones
factibles es un subconjunto de un espacio de dimensi�n infinita, por ejemplo un
espacio de funciones.
Heur�sticas y Metaheur�sticas: hacen suposiciones sobre el problema que est� siendo
optimizado. Usualmente, las heur�sticas no garantizan que cualquier soluci�n �ptima
sea encontrada. Luego, las heur�sticas son usadas para encontrar soluciones
aproximadas para muchos problemas de optimizaci�n complicados.
Satisfacci�n de restricci�n: estudia el caso en el cual la funci�n objetivo f es
constante (esta es usada en inteligencia artificial, particularmente en
razonamiento automatizado).
Programaci�n disyuntiva: se usa cuando al menos una restricci�n puede ser
satisfecha pero no todas. Esta es de uso particular en la programaci�n en un n�mero
de subcampos. Las t�cnicas son dise�adas principalmente para la optimizaci�n en
contextos din�micos (es decir, toma de decisiones con el transcurso del tiempo).
C�lculo de variaciones: busca optimizar un objetivo definido sobre muchos puntos
con el tiempo, considerando como la funci�n objetivo cambia si el cambio es peque�o
en el camino de elecci�n. Ls teor�a del Control �ptimo es una generalizaci�n de
�ste.
Programaci�n din�mica estudia el caso en el que la estrategia de optimizaci�n se
basa en la divisi�n del problema en subproblemas m�s peque�os. La ecuaci�n que
describe la relaci�n entre estos subproblemas se llama ecuaci�n de Bellman.
Programaci�n matem�tica con restricciones de equilibrio es donde las restricciones
incluyen desigualdades variables o complementarias.
Clasificaci�n de puntos cr�ticos y extremos
Factibilidad del problema
La solubilidad del problema, tambi�n llamada factibilidad del problema, es la
cuesti�n de si existe alguna soluci�n factible, al margen de su valor objetivo.
Este puede ser considerado como el caso especial de la optimizaci�n matem�tica
donde el valor objetivo es el mismo para toda soluci�n, y as� cualquier soluci�n es
�ptima.
Existencia
El teorema de Weierstrass afirma que una funci�n real y continua en un conjunto
compacto alcanza su valor m�ximo y m�nimo. De forma m�s general, una funci�n semi-
continua inferior en un conjunto compacto alcanza su m�nimo; una funci�n semi-
continua superior en un conjunto compacto alcanza su m�ximo.
C�lculos de optimizaci�n
Para los problemas irrestrictos con funciones dos veces diferenciables, algunos
puntos cr�ticos pueden ser encontrados detectando los puntos donde el gradiente de
la funci�n objetivo es cero (es decir, los puntos estacionarios). De forma m�s
general, un subgradiente cero certifica que un m�nimo local ha sido encontrado para
los problemas de minimizaci�n con funciones convexas u otras funciones de
Lipschitz.
Cuando la funci�n objetivo es convexa, entonces cualquier m�nimo local ser� tambi�n
un m�nimo global. Existen t�cnicas num�ricas eficientes para minimizar funciones
convexas, por ejemplo los m�todos de punto interior.
Algoritmos de optimizaci�n
Algoritmo Simplex de George Dantzig, dise�ado para la programaci�n lineal.
Extensiones del algoritmo Simplex, dise�ados para la programaci�n cuadr�tica y para
la programaci�n lineal-fraccionaria.
Variantes del algoritmo Simplex que son especialmente apropiadas para la
optimizaci�n de redes.
Algoritmos combinatorios.
M�todos iterativos
Los m�todos iterativos usados para resolver problemas de programaci�n no lineal
difieren seg�n lo que eval�en: Hessianas, gradientes, o solamente valores de
funci�n. Mientras que evaluando Hessianas (H) y gradientes (G) mejora la velocidad
de convergencia, tales evaluaciones aumentan la complejidad computacional (o costo
computacional) de cada iteraci�n. En algunos casos, la complejidad computacional
puede ser excesivamente alta.
Un importante criterio para los optimizadores es justo el n�mero de evaluaciones de
funciones requerido, como este con frecuencia es de por s� un gran esfuerzo
computacional, usualmente mucho m�s esfuerzo que el del optimizador en s�, ya que
en su mayor�a tiene que operar sobre N variables. Las derivadas proveen informaci�n
detallada para los optimizadores, pero son a�n m�s costosas de calcular, por
ejemplo aproximando el gradiente toma al menos N+1 evaluaciones de funciones. Para
la aproximaci�n de las segundas derivadas (agrupadas en la matriz Hessiana) el
n�mero de evaluaciones de funciones es de orden N�. El m�todo de Newton requiere
las derivadas de Segundo orden, por lo tanto por cada iteraci�n el n�mero de
llamadas a funci�n es de orden N�, pero para el optimizador de un gradiente puro
m�s simple es de orden N. Sin embargo, los optimizadores de gradiente necesitan
usualmente m�s iteraciones que el algoritmo de Newton. Ser mejor con respecto al
n�mero de llamadas a funciones depende del problema en s�.
Heur�sticas
Adem�s de los algoritmos (terminaci�n finita) y los m�todos iterativos
(convergentes), existen heur�sticas que pueden proveer soluciones aproximadas a
algunos problemas de optimizaci�n:
Evoluci�n diferencial.
Algoritmo de b�squeda diferencial.
Relajaci�n Din�mica.
Algoritmos gen�ticos.
Ascenso de monta�as.
Nelder-Mead: una heur�stica popular por aproximar la minimizaci�n (sin llamadas a
gradientes).
Optimizaci�n por enjambre de part�culas.
Optimizaci�n artificial de la colonia de abejas.