Está en la página 1de 12

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA DEFESA

UNIVERSIDAD NACIONAL EXPERIMENTAL DE LA FUERZAS ARMADAS

NÚCLEO CARACAS

INGENIERÍA DE SISTEMA RÉGIMEN NOCTURNO

CÁTEDRA: OPTIMIZACIÓN NO LINEAL

Integrantes:

Christian Bacanhin C.I:24.498.034


Dayana Gutiérrez C.I:15.993.600
José Salmerón C.I:16.330.017
María M. Sánchez C.I:16.263.469

Profesora: Yerlin Herrera

Caracas, 03 de mayo 2018


INTRODUCCIÓN

Este es un método básico para la optimización multidimensional. La idea de este método es la


optimización de una variable en el tiempo. Por lo tanto las instrucciones de búsqueda será el
mismo que los ejes de coordenadas. La convergencia es bastante lenta y, a veces no puede
encontrar el óptimo.

Método de Hooke y Jeeves

Esto es similar a la de la búsqueda univariado, pero además de la optimización de una variable


en el tiempo, una fase de búsqueda de patrón se usa. La idea básica del patrón de búsqueda es
tomar la diferencia entre las direcciones univariado como una dirección nueva búsqueda y
utilizarla para encontrar un nuevo punto.

Método de Powell

Este es uno de los mejores métodos de búsqueda directa de patrones. La principal diferencia
con el método de Hooke y Jeeves es que una dirección del eje de coordenadas se sustituye por la
dirección de la fase de búsqueda de patrones.

Método más empinado descenso (método del gradiente)

Este es el método más simple utilizando los derivados, por lo que a veces se llama el método del
gradiente. El punto mínimo siempre se encontrará en la dirección opuesta del gradiente. La
convergencia es bastante lenta (lineal), sino que es global.

Método de Newton

Este método se basa en el uso de el grupo de acción y su inverso. El método de Newton tiene
convergencia cuadrática, por lo que el óptimo se encontrará más rápido que utilizando el
método de descenso abrupta , por ejemplo. Sin embargo, la convergencia es local.

2
MÉTODO DE BÚSQUEDA MULTIDIMENSIONALES

Algunos modelos son:

1) Eliminación multivariable:

a) Downhill simplex
En el método downhill simplex, cada punto de un simplex representa una
posible solución del problema. El simplex correspondiente a una función de N
variables se representa por una matriz de (N+1) xN. Cada columna de la matriz
contiene las N coordenadas de un vértice

El algoritmo consiste en la búsqueda de un mínimo siguiendo una sucesión


de operaciones sobre el simplex: expansión, contracción, y reflexión. Primero
se localiza el vértice nmax donde la función objetivo f toma el valor máximo, y
se lo refleja respecto de la cara opuesta del simplex determinando un nuevo
punto n prueba. Se evalúa la función en una serie de puntos que pertenezcan
a la recta perpendicular a dicha cara y que contiene a n prueba.

Si en alguno de esos puntos, la función toma un valor menor que f(nmax),


entonces ese punto
reemplaza a nmax en el simplex. En caso contrario, se conserva el simplex
original y se lo contrae en todas las direcciones alrededor del mínimo y se
vuelve a ejecutar el algoritmo. El método invariablemente converge a un
mínimo luego de una serie de contracciones.

b) Algoritmos genéticos

El método de optimización por algoritmos genéticos simula un proceso de


evolución y selección natural en una población de individuos. Cada individuo
de la población representa una posible solución. Por otra parte, un cromosoma
caracteriza a un individuo y está formado por un conjunto de genes, cada uno
de los cuales es un parámetro de optimización.

3
2) Métodos geométricos

El método geométrico consiste en suponer que el crecimiento de una


comunidad es en todo instante proporcional a su población, es decir que responde
a la ecuación:

Este método da resultados superiores, por lo que se califica de “optimista” y


debe emplearse con mucha precaución. Tan sólo debe aplicarse a comunidades
en plena dinámica de crecimiento, con grandes posibilidades de desarrollo y
horizontes libres.

3) Métodos lógicos:

La optimización lógica mediante eliminación de redundancias tiene una


aplicación muy limitada. Esto es debido a que no es una técnica completa, en el
sentido de que una vez que se han eliminado todas las redundancias de un circuito
no es posible continuar optimizándolo mediante esta técnica. Para obtener un
algoritmo general de optimización, la eliminación de redundancias se puede
completar con su operación inversa: la adición de redundancias. Esta operación
inversa tiene por objetivo la creación de nuevas redundancias, de forma que, tras
la eliminación de estas últimas, el circuito presenta menor área o menor retraso o
ambas cosas a la vez.

4) Búsqueda Aleatoria:
Este método se basa en la generación de una secuencia de aproximaciones
mejoradas al mínimo, cada una de las cuales se deriva de la aproximación previa.
Entonces, si xi es la aproximación al mínimo obtenida en la etapa (o iteración) (i −
1), la nueva aproximación en la etapa i se obtiene de: xi+1 = xi + λui donde λ es
una longitud de paso (valor escalar), ui es un vector aleatorio unitario generado en
la i- esima etapa.

4
Algunas de las ventajas de los métodos de búsqueda aleatoria son las siguientes:

Estos métodos funcionan aunque la función objetivo sea discontinua y no


diferenciable en alguno de sus puntos. Estos métodos pueden usarse para
encontrar el mínimo global cuando la función objetivo posee varios mínimos
relativos.

Estos métodos son aplicables cuando otros métodos fallan debido a


dificultades locales tales como funciones con formas determinadas y regiones de
búsqueda difíciles de explorar. Aunque estos métodos no son muy eficientes,
pueden usarse en las etapas iniciales de la optimización para detectar la región
donde es más probable encontrar el mínimo global. Una vez localizada esta región,
puede usarse una técnica más eficiente para ubicar con mayor precisión el mínimo
global.

Procedimientos de aproximación estocásticos:

Consiste en la elaboración de modelos de optimización con escenarios,


Muestreo de escenarios: Si el número de casos que hay que evaluar es muy
elevado es necesario reducirlo. Por ello se procede a un muestreo de los mismos.
Se determina la función de probabilidad acumulada y se procede al muestreo (el
muestreo se realiza por el método de Montecarlo).

La función objetivo final se determina empleando el método de la aproximación


media de muestra. Finalmente se analizan los resultados: determinándose el
tamaño de muestra mínimo para obtener una solución fiable. Para luego analizar la
solución y diseñar el proceso.

Búsqueda en forma de malla:

El método de la malla fija ha sido utilizado en problemas en donde la geometría


del objeto, o las propiedades físicas del cuerpo cambian con el tiempo. En este
trabajo se muestra la posibilidad de utilizar el método de la malla fija como
alternativa al método de los elementos finitos convencional, para resolver
problemas de elasticidad.

5
El desarrollo de los métodos para la optimización de estructuras ha sido
bastante desordenado como resultado de la división de ideas: programación
matemática (MP), criterios de optimalidad (OC), optimización estructural
evolucionaria (ESO), microestructuras sólidas isótropas con penalización (SIMP),
optimización estructural basada en el crecimiento biológico (BGSO), método de la
curva de nivel (LSM), computación evolutiva (EC), etc. Existen diferentes métodos
evolucionarios: estrategias evolutivas (ESs), programación evolucionaria (EP),
programación genética (GP), y algoritmos genéticos (GAs); éstos últimos disponen
de una base teórica más robusta, y están biológicamente mejor adaptados.

El objetivo de la optimización de estructuras es obtener un diseño, es decir, un


conjunto de valores para las variables de diseño que hacen mínima una función
objetivo, y satisfacen un conjunto de restricciones que dependen de estas
variables. Los problemas de optimización de estructuras se pueden dividir en tres
categorías: propiedades, forma, y topología

Método de búsqueda patrón: Hooke – Jeeves:

El método de patrones de búsqueda de Hooke-Jeeves crea un conjunto de


direcciones de búsqueda de manera iterativa. Este método se propuso en 1966 y
fue uno de los primeros algoritmos en incorporar la historia previa de una
secuencia de iteraciones en la generación de una nueva dirección de búsqueda.

La idea básica del algoritmo de Hooke-Jeeves es combinar movimientos


“exploratorios” del tipo una-variable-a-la-vez con movimientos de “patrones” o
aceleraciones, los cuales se regulan mediante algunas reglas heurísticas.

Los movimientos exploratorios examinan la vecindad del punto actual para


encontrar el mejor punto alrededor del mismo. Posteriormente, se usan estos dos
puntos (el actual y el mejor en su vecindad) para realizar un movimiento de
“patrones”.

De tal forma, los movimientos exploratorios examinan el comportamiento local


de la función y buscan localizar la dirección de cualquier pendiente existente en la
zona. Los movimientos de patrones utilizan la información generada en la
exploración para escalar rápidamente las pendientes.

6
Método de interpolación cuadrática de Powell:

Este es uno de los mejores métodos de búsqueda directa de patrones. La


principal diferencia con el método de Hooke y Jeeves es que una dirección del eje
de coordenadas se sustituye por la dirección de la fase de búsqueda de patrones.

No usa derivadas

 Se parte de un punto P0 y N direcciones (por ejemplo, base del espacio) (ui)


arbitrarios.

 Se calculan los Pi, mínimos a lo largo de ui.

 Se elimina u1 y se añade nuevo uN = PN - P0.

 Nuevo P0 es mínimo a lo largo de nuevo uN.

 Direcciones se van haciendo conjugadas, y se llega a mínimo de forma


cuadrática tras N iteraciones del ciclo.

 Problema de tendencia a dependencia lineal de (ui) (convergencia a mínimo


de un subespacio):
- Re inicialización de (ui) tras ≈ N iteraciones
- Powell: Eliminación (salvo excepciones) de dirección en que f disminuyó
más en lugar de u1; pérdida de direcciones conjugadas (y de convergencia
cuadrática)

Método del ascenso acelerado:

Proceso interactivo de modelo de primer orden ajustado para acceder a las


cercanías del óptimo. Esto se logra realizando un conjunto de experimentos que
requieren llamar al modelo de simulación con puntos de operación definidos en la
dirección dada por el signo de los coeficientes del modelo ajustado, con
incremento en las variables proporcionales a la magnitud de los coeficientes. Lo
anterior se realiza mientras exista mejoramiento de la respuesta o hasta
encontrarse con una restricción, debido a que, si se encuentra una restricción, los
experimentos deben realizarse a través de la dirección impuesta por el vector
director de la misma. El mejor punto encontrado en la trayectoria de búsqueda se

7
toma como el punto central para un nuevo diseño experimental.

Este método se experimenta en una función que emula el funcionamiento del


mismo; para ello recibe como parámetros los coeficientes del modelo ajustado, el
margen de operación y el punto actual de operación, retornando un nuevo punto
de operación.

Método de Newton – Raphson:

Es un algoritmo eficiente para encontrar aproximaciones de los ceros o raíces


de una función real. También puede ser usado para encontrar el máximo o mínimo
de una función, encontrando los ceros de su primera derivada.

Es un método abierto, en el sentido de que su convergencia global no está


garantizada. La única manera de alcanzar la convergencia es seleccionar un valor
inicial lo suficientemente cercano a la raíz buscada. Así, se ha de comenzar la
iteración con un valor razonablemente cercano al cero (denominado punto de
arranque o valor supuesto).

La idea de este método es la siguiente: se comienza con un valor


razonablemente cercano al cero (denominado punto de arranque), entonces se
reemplaza la función por la recta tangente en ese valor, se iguala a cero y se
despeja (fácilmente, por ser una ecuación lineal). Este cero será, generalmente,
una aproximación mejor a la raíz de la función. Luego, se aplican tantas iteraciones
como se deseen. Supóngase f: [a, b] → R función derivable definida en el intervalo
real [a, b]. Empezamos con un valor inicial x0 y definimos para cada número
natural n.
Xn+1 = f(Xn) / f ‘ (Xn). Donde f ‘ denota la derivada de f.

Método de Davidon – Fletcher – Powell:

El método de Davidon-Fletcher-Powell ha sido y sigue siendo una técnica de


gradiente ampliamente utilizada. El método tiende a ser robusto; esto es,
típicamente tiende a tener un buen comportamiento en una amplia variedad de
problemas prácticas. La mayor desventaja de este tipo de métodos es su

8
necesidad de almacenar la matriz A de N × N. Una de las dificultades prácticas
comunes de estos métodos es la tendencia de A(k+1) a estar mal condicionada, lo
que causa una mayor dependencia a un procedimiento de re inicialización.

Método de Broyden – Fletcher:

Es un método para solucionar un problema libre de optimización no lineal. El


método de BFGS se deriva de Método del neutonio en la optimización, usa
técnicas que busca punto inmóvil de una función, donde gradiente es 0. El método
del neutonio asume que la función se puede localmente aproximar como ecuación
cuadrática en la región alrededor del grado óptimo, y utiliza los primeros y
segundos derivados para encontrar el punto inmóvil.

Método de Fletcher – Reeves:

Corresponde a la versión del método del gradiente conjugado en el caso de


una función f general. La iteración se define de la siguiente manera:

9
Método de Smith:

Permite resolver el problema de varianza no constante en regresión en un solo


paso, ya que simultáneamente se hallan las distribuciones posteriores de todos los
parámetros involucrados, un problema que para la aproximación tradicional es
complejo y requiere primero modelar la heteroscedasticidad y luego estimar los
parámetros del modelo realizando los ajustes necesarios.
Dado que este proceso de generación de muestras es un proceso markoviano
donde la distribución estacionaria es la distribución posterior de la cual se pretende
extraer las muestras, se deben descartar los valores generados al comienzo del
proceso. Este es un problema complejo, pero se acostumbra eliminar los primeros
1000 valores y generar 5000 valores o más.

CONCLUSIÓN

Estos métodos son aplicables cuando otros métodos fallan debido a dificultades locales tales
como funciones con formas determinadas y regiones de búsqueda difíciles de explorar. Aunque estos

10
métodos no son muy eficientes, pueden usarse en las etapas iniciales de la optimización para detectar
la región donde es más probable encontrar el mínimo global. Una vez localizada esta región, puede
usarse una técnica más eficiente para ubicar con mayor precisión el mínimo global.

La organización del espacio multidimensional permite disminuir el número de accesos a disco que
son necesarios para dar respuesta a las consultas que el usuario realice. Un aspecto principal en el
contexto es el tipo de consulta que se procesa sobre los datos. Donde se considera y recomienda la
mejor manera de responder a tales consultas por semejanza a un patrón dado. Por ejemplo, se tiene
una imagen patrón y se busca en la base de datos una imagen similar a la de dicho patrón. O si se tiene
un perfil concreto, se buscan objetos que encajen en dicho perfil. He aquí las consultas por similitud,
que consiste en transformar cada objeto de la base de datos en un punto multidimensional que
capture las características que definen el objeto y modelar la búsqueda como una recuperación de
vecinos más cercanos en el espacio multidimensional.

En otras palabras, los métodos multidimensionales son aquellos que tratan de acelerar las
búsquedas por similitud en voluminosos espacios altamente dimensionales aportando soluciones
aproximadas, esto es dando como respuesta objetos que con un cierto margen de error pueden
considerarse los más próximos al patrón de búsqueda. O bien son las diferentes estrategias para dar
solución a problemas relacionados con la búsqueda por similitud, fundamentalmente en el contexto de
colecciones voluminosas de documentos multimedia.

REFERENCIAS BIBLIOGRAFICAS

http://optimizacionnolineals71d.blogspot.com/2010/06/metodo-de-busquedas-multi
dimencionales.html

http://optimizacions71d.blogspot.com/2010/07/algunos-modelos-son-eliminacion.h
tml

11
http://www.fio.unicen.edu.ar/usuario/cgely/q13-0/Apuntes/unidad4b.pdf

12