Documentos de Académico
Documentos de Profesional
Documentos de Cultura
MÉTODOS DE BÚSQUEDA
Optimización no Lineal
Profesor:
Introducción
1) Eliminación multivariable:
a) Downhill simplex
En el método downhill simplex, cada punto de un simplex representa una posible solución
del problema. El simplex correspondiente a una función de N variables se representa por
una matriz de (N+1) xN. Cada columna de la matriz contiene las N coordenadas de un
vértice
Si en alguno de esos puntos, la función toma un valor menor que f(nmax), entonces ese
punto
b) Algoritmos genéticos
2) Métodos geométricos:
3) Métodos lógicos:
4) Búsqueda Aleatoria:
Algunas de las ventajas de los métodos de búsqueda aleatoria son las siguientes:
Estos métodos son aplicables cuando otros métodos fallan debido a dificultades
locales tales como funciones con formas determinadas y regiones de búsqueda difíciles
de explorar. Aunque estos métodos no son muy eficientes, pueden usarse en las etapas
iniciales de la optimización para detectar la región donde es más probable encontrar el
mínimo global. Una vez localizada esta región, puede usarse una técnica más eficiente
para ubicar con mayor precisión el mínimo global.
El método de la malla fija ha sido utilizado en problemas en donde la geometría del objeto,
o las propiedades físicas del cuerpo cambian con el tiempo. En este trabajo se muestra la
posibilidad de utilizar el método de la malla fija como alternativa al método de los
elementos finitos convencional, para resolver problemas de elasticidad.
No usa derivadas
Proceso interactivo de modelo de primer orden ajustado para acceder a las cercanías del
óptimo. Esto se logra realizando un conjunto de experimentos que requieren llamar al
modelo de simulación con puntos de operación definidos en la dirección dada por el signo
de los coeficientes del modelo ajustado, con incremento en las variables proporcionales
a la magnitud de los coeficientes. Lo anterior se realiza mientras exista mejoramiento de
la respuesta o hasta encontrarse con una restricción, debido a que, si se encuentra una
restricción, los experimentos deben realizarse a través de la dirección impuesta por el
vector director de la misma. El mejor punto encontrado en la trayectoria de búsqueda se
toma como el punto central para un nuevo diseño experimental.
Este método se experimenta en una función que emula el funcionamiento del mismo; para
ello recibe como parámetros los coeficientes del modelo ajustado, el margen de operación
y el punto actual de operación, retornando un nuevo punto de operación.
Ha sido y sigue siendo una técnica de gradiente ampliamente utilizada. El método tiende
a ser robusto; esto es, típicamente tiende a tener un buen comportamiento en una amplia
variedad de problemas prácticas. La mayor desventaja de este tipo de métodos es su
necesidad de almacenar la matriz A de N × N. Una de las dificultades prácticas comunes
de estos métodos es la tendencia de A(k+1) a estar mal condicionada, lo que causa una
mayor dependencia a un procedimiento de re inicialización.
Corresponde a la versión del método del gradiente conjugado en el caso de una función f
general. La iteración se define de la siguiente manera:
Método de Smith:
FUNCIÓN UNIMODAL
Una función unimodal es aquella que sólo tiene un óptimo (relativo o absoluto). En caso
que tenga varios óptimos se dice multimodal
El método de Fibonacci está considerado como el más eficiente entre los métodos de
búsqueda. Difiere del método de la sección aurea en el hecho de que el valor de α no
permanece constante en cada iteración. Además, el número de iteraciones viene
predeterminado en base al nivel de exactitud especificado por el usuario.
F0 = F1 = 1, Fn = Fn−1 + Fn−2
Con este método se conoce ya el rango inicial de búsqueda y en cada evaluación el método
tiende a acorralar el punto óptimo. El intervalo inicial de es L0 y se define ∆1 como el
siguiente incremento:
En caso de que se hubiera rechazado el intervalo x2≤x1≤L0, entonces L1=x2 y x3= ∆2.
Se tiene en la segunda evaluación lo siguiente:
Sección Dorada
Función cuadrática
Las relaciones entre las variables dependiente e independiente de una función no siempre
siguen una forma de crecimiento lineal. Una modalidad común de estas relaciones es la
familia de las llamadas funciones cuadráticas, cuya representación gráfica es una
parábola.
Interpretación geométrica
Por su naturaleza, las funciones cuadráticas son continuas, y se representan gráficamente
mediante parábolas. Así, una función cuadrática y = ax2 + bx + c se corresponde con la
ecuación de una parábola donde las abscisas de los puntos de intersección de la misma
sobre el eje horizontal son las soluciones de la ecuación que resulta de igualar a cero dicha
función, es decir: