Está en la página 1de 14

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Defensa


Universidad Nacional Experimental Politécnica de la Fuerza Armada
Nacional Bolivariana
UNEFA
Núcleo Portuguesa - Sede Guanare

MÉTODOS DE BÚSQUEDA
Optimización no Lineal

Bachiller Jhon Jairo Moreno


C.I: 29841597

Profesor:
Introducción

Los métodos de optimización y búsqueda se han vuelto en un primer lugar, la


disponibilidad de ordenadores y su creciente capacidad de cálculo ha facilitado la
aplicación de complejos modelos matemáticos. En segundo lugar, el desarrollo y mejoría
de los modelos económicos que permiten decidir entre diferentes procesos competitivos.
Y en tercer lugar el reciente desarrollo del software para optimización que ha
proporcionado la herramienta adecuada para el uso de los modelos matemáticos tanto de
operaciones físicas como económicas, para la identificación de las mejores soluciones.
Gracias a esto los adelantos en la computación permiten actualmente estudiar sistemas
cada vez más complejos. Gracias los modelos matemáticos que es una herramienta
sencilla, sistemática y poderosa para manejar la numerosa información que se requiere
para entender dichos sistemas.
METODO DE BUSQUEDA

La búsqueda es la ejecución primordial en el procesamiento de información, ya que


permite obtener datos anteriormente almacenados. El resultado de una búsqueda puede
ser un éxito, si se localiza la información o un fracaso, si no la encuentra. Esta ejecución
se puede aplicar a elementos previamente organizados o sobre elementos desordenados,
en un primer caso la búsqueda es más fácil, en cambio en el segundo se dificulta un poco
más el proceso, sobre todo cuando de se trata de encontrar una cantidad importante de
elementos similares.

Algunos modelos son:

1) Eliminación multivariable:

a) Downhill simplex

En el método downhill simplex, cada punto de un simplex representa una posible solución
del problema. El simplex correspondiente a una función de N variables se representa por
una matriz de (N+1) xN. Cada columna de la matriz contiene las N coordenadas de un
vértice

El algoritmo consiste en la búsqueda de un mínimo siguiendo una sucesión de operaciones


sobre el simplex: expansión, contracción, y reflexión. Primero se localiza el vértice nmax
donde la función objetivo f toma el valor máximo, y se lo refleja respecto de la cara
opuesta del simplex determinando un nuevo punto n prueba. Se evalúa la función en una
serie de puntos que pertenezcan a la recta perpendicular a dicha cara y que contiene a n
prueba.

Si en alguno de esos puntos, la función toma un valor menor que f(nmax), entonces ese
punto

reemplaza a nmax en el simplex. En caso contrario, se conserva el simplex original y se


lo contrae en todas las direcciones alrededor del mínimo y se vuelve a ejecutar el
algoritmo. El método invariablemente converge a un mínimo luego de una serie de
contracciones.

b) Algoritmos genéticos

El método de optimización por algoritmos genéticos simula un proceso de evolución y


selección natural en una población de individuos. Cada individuo de la población
representa una posible solución. Por otra parte, un cromosoma caracteriza a un individuo
y está formado por un conjunto de genes, cada uno de los cuales es un parámetro de
optimización.

2) Métodos geométricos:

El método geométrico consiste en suponer que el crecimiento de una comunidad es en


todo instante proporcional a su población, es decir que responde a la ecuación:

Este método da resultados superiores, por lo que se califica de “optimista” y debe


emplearse con mucha precaución. Tan sólo debe aplicarse a comunidades en plena
dinámica de crecimiento, con grandes posibilidades de desarrollo y horizontes libres.

3) Métodos lógicos:

La optimización lógica mediante eliminación de redundancias tiene una aplicación muy


limitada. Esto es debido a que no es una técnica completa, en el sentido de que una vez
que se han eliminado todas las redundancias de un circuito no es posible continuar
optimizándolo mediante esta técnica. Para obtener un algoritmo general de optimización,
la eliminación de redundancias se puede completar con su operación inversa: la adición
de redundancias. Esta operación inversa tiene por objetivo la creación de nuevas
redundancias, de forma que, tras la eliminación de estas últimas, el circuito presenta
menor área o menor retraso o ambas cosas a la vez.

4) Búsqueda Aleatoria:

Este método se basa en la generación de una secuencia de aproximaciones


mejoradas al mínimo, cada una de las cuales se deriva de la aproximación previa.
Entonces, si xi es la aproximación al mínimo obtenida en la etapa (o iteración) (i − 1), la
nueva aproximación en la etapa i se obtiene de: xi+1 = xi + λui donde λ es una longitud
de paso (valor escalar), ui es un vector aleatorio unitario generado en la i- esima etapa.

Algunas de las ventajas de los métodos de búsqueda aleatoria son las siguientes:

Estos métodos funcionan, aunque la función objetivo sea discontinua y no


diferenciable en alguno de sus puntos. Estos métodos pueden usarse para encontrar el
mínimo global cuando la función objetivo posee varios mínimos relativos.

Estos métodos son aplicables cuando otros métodos fallan debido a dificultades
locales tales como funciones con formas determinadas y regiones de búsqueda difíciles
de explorar. Aunque estos métodos no son muy eficientes, pueden usarse en las etapas
iniciales de la optimización para detectar la región donde es más probable encontrar el
mínimo global. Una vez localizada esta región, puede usarse una técnica más eficiente
para ubicar con mayor precisión el mínimo global.

Procedimientos de aproximación estocásticos:

Consiste en la elaboración de modelos de optimización con escenarios, Muestreo de


escenarios: Si el número de casos que hay que evaluar es muy elevado es necesario
reducirlo. Por ello se procede a un muestreo de los mismos. Se determina la función de
probabilidad acumulada y se procede al muestreo (el muestreo se realiza por el método
de Montecarlo).

La función objetivo final se determina empleando el método de la aproximación media


de muestra. Finalmente se analizan los resultados: determinándose el tamaño de muestra
mínimo para obtener una solución fiable. Para luego analizar la solución y diseñar el
proceso.

Búsqueda en forma de malla:

El método de la malla fija ha sido utilizado en problemas en donde la geometría del objeto,
o las propiedades físicas del cuerpo cambian con el tiempo. En este trabajo se muestra la
posibilidad de utilizar el método de la malla fija como alternativa al método de los
elementos finitos convencional, para resolver problemas de elasticidad.

El desarrollo de los métodos para la optimización de estructuras ha sido bastante


desordenado como resultado de la división de ideas: programación matemática (MP),
criterios de optimalidad (OC), optimización estructural evolucionaria (ESO),
microestructuras sólidas isótropas con penalización (SIMP), optimización estructural
basada en el crecimiento biológico (BGSO), método de la curva de nivel (LSM),
computación evolutiva (EC), etc. Existen diferentes métodos evolucionarios: estrategias
evolutivas (ESs), programación evolucionaria (EP), programación genética (GP), y
algoritmos genéticos (GAs); éstos últimos disponen de una base teórica más robusta, y
están biológicamente mejor adaptados.

El objetivo de la optimización de estructuras es obtener un diseño, es decir, un conjunto


de valores para las variables de diseño que hacen mínima una función objetivo, y
satisfacen un conjunto de restricciones que dependen de estas variables. Los problemas
de optimización de estructuras se pueden dividir en tres categorías: propiedades, forma,
y topología

Método de búsqueda patrón: Hooke – Jeeves:

El método de patrones de búsqueda de Hooke-Jeeves crea un conjunto de direcciones de


búsqueda de manera iterativa. Este método se propuso en 1966 y fue uno de los primeros
algoritmos en incorporar la historia previa de una secuencia de iteraciones en la
generación de una nueva dirección de búsqueda.

La idea básica del algoritmo de Hooke-Jeeves es combinar movimientos


“exploratorios” del tipo una-variable-a-la-vez con movimientos de “patrones” o
aceleraciones, los cuales se regulan mediante algunas reglas heurísticas.

Los movimientos exploratorios examinan la vecindad del punto actual para


encontrar el mejor punto alrededor del mismo. Posteriormente, se usan estos dos puntos
(el actual y el mejor en su vecindad) para realizar un movimiento de “patrones”.

De tal forma, los movimientos exploratorios examinan el comportamiento local


de la función y buscan localizar la dirección de cualquier pendiente existente en la zona.
Los movimientos de patrones utilizan la información generada en la exploración para
escalar rápidamente las pendientes.

Método de interpolación cuadrática de Powell:

Este es uno de los mejores métodos de búsqueda directa de patrones. La principal


diferencia con el método de Hooke y Jeeves es que una dirección del eje de coordenadas
se sustituye por la dirección de la fase de búsqueda de patrones.

No usa derivadas

1. Se parte de un punto P0 y N direcciones (por ejemplo, base del espacio) (ui)


arbitrarios.
2. Se calculan los Pi, mínimos a lo largo de ui.
3. Se elimina u1 y se añade nuevo uN = PN - P0.
4. Nuevo P0 es mínimo a lo largo de nuevo uN.
5. Direcciones se van haciendo conjugadas, y se llega a mínimo de forma cuadrática
tras N iteraciones del ciclo.
6. Problema de tendencia a dependencia lineal de (ui) (convergencia a mínimo de un
subespacio):

- Re inicialización de (ui) tras ≈ N iteraciones

- Powell: Eliminación (salvo excepciones) de dirección en que f disminuyó más


en lugar de u1; pérdida de direcciones conjugadas (y de convergencia cuadrática)

Método del ascenso acelerado:

Proceso interactivo de modelo de primer orden ajustado para acceder a las cercanías del
óptimo. Esto se logra realizando un conjunto de experimentos que requieren llamar al
modelo de simulación con puntos de operación definidos en la dirección dada por el signo
de los coeficientes del modelo ajustado, con incremento en las variables proporcionales
a la magnitud de los coeficientes. Lo anterior se realiza mientras exista mejoramiento de
la respuesta o hasta encontrarse con una restricción, debido a que, si se encuentra una
restricción, los experimentos deben realizarse a través de la dirección impuesta por el
vector director de la misma. El mejor punto encontrado en la trayectoria de búsqueda se
toma como el punto central para un nuevo diseño experimental.

Este método se experimenta en una función que emula el funcionamiento del mismo; para
ello recibe como parámetros los coeficientes del modelo ajustado, el margen de operación
y el punto actual de operación, retornando un nuevo punto de operación.

Método de Newton – Raphson:

Es un algoritmo eficiente para encontrar aproximaciones de los ceros o raíces de una


función real. También puede ser usado para encontrar el máximo o mínimo de una
función, encontrando los ceros de su primera derivada.

Es un método abierto, en el sentido de que su convergencia global no está garantizada.


La única manera de alcanzar la convergencia es seleccionar un valor inicial lo
suficientemente cercano a la raíz buscada. Así, se ha de comenzar la iteración con un
valor razonablemente cercano al cero (denominado punto de arranque o valor supuesto).

La idea de este método es la siguiente: se comienza con un valor razonablemente cercano


al cero (denominado punto de arranque), entonces se reemplaza la función por la recta
tangente en ese valor, se iguala a cero y se despeja (fácilmente, por ser una ecuación
lineal). Este cero será, generalmente, una aproximación mejor a la raíz de la función.
Luego, se aplican tantas iteraciones como se deseen. Supóngase f: [a, b] → R función
derivable definida en el intervalo real [a, b]. Empezamos con un valor inicial x0 y
definimos para cada número natural n.

Xn+1 = f(Xn) / f ‘ (Xn). Donde f ‘ denota la derivada de f.

Método de Davidon – Fletcher – Powell:

Ha sido y sigue siendo una técnica de gradiente ampliamente utilizada. El método tiende
a ser robusto; esto es, típicamente tiende a tener un buen comportamiento en una amplia
variedad de problemas prácticas. La mayor desventaja de este tipo de métodos es su
necesidad de almacenar la matriz A de N × N. Una de las dificultades prácticas comunes
de estos métodos es la tendencia de A(k+1) a estar mal condicionada, lo que causa una
mayor dependencia a un procedimiento de re inicialización.

Método de Broyden – Fletcher:

Es un método para solucionar un problema libre de optimización no lineal. El método de


BFGS se deriva de Método del neutonio en la optimización, usa técnicas que busca punto
inmóvil de una función, donde gradiente es 0. El método del neutonio asume que la
función se puede localmente aproximar como ecuación cuadrática en la región alrededor
del grado óptimo, y utiliza los primeros y segundos derivados para encontrar el punto
inmóvil.

Método de Fletcher – Reeves:

Corresponde a la versión del método del gradiente conjugado en el caso de una función f
general. La iteración se define de la siguiente manera:

Método de Smith:

Permite resolver el problema de varianza no constante en regresión en un solo paso, ya


que simultáneamente se hallan las distribuciones posteriores de todos los parámetros
involucrados, un problema que para la aproximación tradicional es complejo y requiere
primero modelar la heteroscedasticidad y luego estimar los parámetros del modelo
realizando los ajustes necesarios.

Dado que este proceso de generación de muestras es un proceso markoviano


donde la distribución estacionaria es la distribución posterior de la cual se pretende extraer
las muestras, se deben descartar los valores generados al comienzo del proceso. Este es
un problema complejo, pero se acostumbra eliminar los primeros 1000 valores y generar
5000 valores o más.

FUNCIÓN UNIMODAL

Una función unimodal es aquella que sólo tiene un óptimo (relativo o absoluto). En caso
que tenga varios óptimos se dice multimodal

El término "moda" en este contexto se refiere a cualquier pico de la distribución, no solo


a la definición estricta de moda que es habitual en las estadísticas. Si hay un solo modo,
la función de distribución se llama "unimodal". Si tiene más modos es "bimodal" (2),
"trimodal" (3), etc., o en general, "multimodal".

MÉTODO DE BÚSQUEDA DE FIBONACCI

El método de Fibonacci está considerado como el más eficiente entre los métodos de
búsqueda. Difiere del método de la sección aurea en el hecho de que el valor de α no
permanece constante en cada iteración. Además, el número de iteraciones viene
predeterminado en base al nivel de exactitud especificado por el usuario.

El método de Fibonacci debe su nombre a que se utiliza la sucesión de Fibonacci

F0 = F1 = 1, Fn = Fn−1 + Fn−2

Con este método se conoce ya el rango inicial de búsqueda y en cada evaluación el método
tiende a acorralar el punto óptimo. El intervalo inicial de es L0 y se define ∆1 como el
siguiente incremento:

donde n, es el número de iteraciones que se desea realizar (en función a la tolerancia de


error que se desea) y Fn es el número de Fibonacci para n evaluaciones, y se define así:
F0=F1=1, Fn=Fn-1+Fn-2, n=2,3,... , la secuencia de Fibonacci es entonces
1,1,2,3,5,8,13,21,34,55… Se tiene entonces x1 = ∆1 y x2 = L0 - ∆1 Se supone que se
quiere minimizar a la función unimodal f(x). Entonces si ( ) ( ) 1 2 f x ≥ f x , rechazamos
el intervalo 0≤x≤x1 y si ( ) ( ) 1 2 f x ≤ f x, rechazamos el intervalo x2≤x1≤L0.

Gráficamente se tiene que, si originalmente la función es como la que se ilustra en la


figura, en la segunda iteración se rechaza el intervalo 0≤x≤x1. En forma gráfica tenemos:

A continuación, se calcula el siguiente incremento ∆2 y se define x3 como

En caso de que se hubiera rechazado el intervalo x2≤x1≤L0, entonces L1=x2 y x3= ∆2.
Se tiene en la segunda evaluación lo siguiente:

Si ( xˆ2) F(x ˆ3), rechazamos el intervalo x1≤x≤x3 o si () () 2 3 f x ≥ f x , rechazamos el


intervalo x2≤x≤L0.

El proceso se repite hasta llegar al número n de iteraciones prefijadas. La efectividad en


este caso, 1/Fn, mide la tolerancia del error en el entorno del punto óptimo. Así, por
ejemplo, si se desea un error menor al 1%, se necesitan 11 evaluaciones de este método,
puesto que F11=144 y 1/F11 = 1/144<0.01= 1%.

Sección Dorada

La búsqueda (o método) de la sección dorada es una técnica para hallar el extremo


(mínimo o máximo) de una función unimodal, mediante reducciones sucesivas del rango
de valores en el cual se conoce que se encuentra el extremo. La técnica debe su nombre
al hecho de que el algoritmo mantiene los valores de la función en tríos de puntos cuyas
distancias forman una proporción dorada. El algoritmo es el límite de la búsqueda de
Fibonacci (también descrita debajo) para un largo número de evaluaciones de la función.
La búsqueda de Fibonacci y la búsqueda de la sección dorada fueron descubiertos por
Kiefer (1953).
MÉTODO DE APROXIMACIÓN DE LA FUNCIÓN. INTERPOLACIÓN
CUADRÁTICA

Como hemos visto, los métodos de búsqueda consisten en ir reduciendo


adecuadamente el intervalo de incertidumbre en el que se encuentra el óptimo de la
función. Los métodos de aproximación de la función se basan en, a partir de la evaluación
de la función en unos pocos puntos, aproximar esta por un polinomio, y posteriormente
aproximar la posición del óptimo de la función por la del óptimo del polinomio, más
sencillo de obtener.

Función cuadrática

Las relaciones entre las variables dependiente e independiente de una función no siempre
siguen una forma de crecimiento lineal. Una modalidad común de estas relaciones es la
familia de las llamadas funciones cuadráticas, cuya representación gráfica es una
parábola.

Interpretación geométrica
Por su naturaleza, las funciones cuadráticas son continuas, y se representan gráficamente
mediante parábolas. Así, una función cuadrática y = ax2 + bx + c se corresponde con la
ecuación de una parábola donde las abscisas de los puntos de intersección de la misma
sobre el eje horizontal son las soluciones de la ecuación que resulta de igualar a cero dicha
función, es decir:

Ejercicio sobre Métodos de Búsqueda Multidimensionales

Métodos de Variaciones Cíclicas


(Serie temporales) se refiere a las oscilaciones de larga duración alrededor de la recta o
curva de tendencia; estos ciclos, como se llaman a veces, pueden ser o no periódicos, es
decir, puede seguir o no exactamente caminos analógicos después de intervalos de tiempo
iguales.
Se caracterizan por tener lapsos de expansión y contracción. En general, los movimientos
se consideran cíclicos solo si se produce en un intervalo de tiempo superior al año (3). En
el Gráfico los movimientos cíclicos alrededor de la curva de tendencia están trazados en
negrita.
Tratamos de hacer predicciones sobre esa magnitud, teniendo en cuenta sus
características históricas o del pasado
Ejemplo para las variaciones cíclicas.
Supongamos que tenemos las ventas trimestrales de un supermercado en el período 1990-
1994, expresadas en millones de pesetas constantes del año 1990.
Métodos para determinar la tendencia de las variaciones cíclicas
METODO GRAFICO
* Se efectúa la representación gráfica de la serie ordenada Yt
*Se unen mediante segmentos rectilíneos todos los puntos altos de la serie, obteniéndose
una poligonal de cimas
* Se realiza lo mismo con los puntos bajos, obteniéndose la línea poligonal de fondos
* Se trazan perpendiculares al eje de abscisas por los puntos cimas y fondos.
* La tendencia viene dada por la línea amortiguada que une los puntos medios de los
segmentos
METODO DE LAS MEDIAS MOVILES
Empleando 3 observaciones
a) Partimos de la serie temporal observada Yt.
b) Se obtienen sucesivas medias aritméticas para cada Yt, con un número de
observaciones anteriores y posteriores fijado de antemano
- Si el número de observaciones es impar la media Yt, está centrada y coincide con el
período t
c) La serie formada por las medias de Yt, nos indica la línea amortiguada de la tendencia
6.
MÉTODO ANALÍTICO DE LOS MÍNIMOS CUADRADOS
a) Obtendremos la tendencia a partir de la recta Yt= a+ bt, siendo Yt, la media anual de
las observaciones trimestrales de los casos anteriores.
b) Calculamos los coeficientes “a” y “b” de la recta de regresión.
Deshaciendo el cambio de variable, tendremos la siguiente predicción de la tendencia.
Conclusión
Estos métodos son aplicables cuando otros métodos fallan debido a dificultades locales
tales como funciones con formas determinadas y regiones de búsqueda difíciles de
explorar. Aunque estos métodos no son muy eficientes, pueden usarse en las etapas
iniciales de la optimización para detectar la región donde es más probable encontrar el
mínimo global. Una vez localizada esta región, puede usarse una técnica más eficiente
para ubicar con mayor precisión el mínimo global.
La organización del espacio multidimensional permite disminuir el número de accesos a
disco que son necesarios para dar respuesta a las consultas que el usuario realice. Un
aspecto principal en el contexto es el tipo de consulta que se procesa sobre los datos.
Donde se considera y recomienda la mejor manera de responder a tales consultas por
semejanza a un patrón dado. Por ejemplo, se tiene una imagen patrón y se busca en la
base de datos una imagen similar a la de dicho patrón. O si se tiene un perfil concreto, se
buscan objetos que encajen en dicho perfil. He aquí las consultas por similitud, que
consiste en transformar cada objeto de la base de datos en un punto multidimensional que
capture las características que definen el objeto y modelar la búsqueda como una
recuperación de vecinos más cercanos en el espacio multidimensional.
En otras palabras, los métodos multidimensionales son aquellos que tratan de acelerar las
búsquedas por similitud en voluminosos espacios altamente dimensionales aportando
soluciones aproximadas, esto es dando como respuesta objetos que con un cierto margen
de error pueden considerarse los más próximos al patrón de búsqueda. O bien son las
diferentes estrategias para dar solución a problemas relacionados con la búsqueda por
similitud, fundamentalmente en el contexto de colecciones voluminosas de documentos
multimedia.

También podría gustarte