Está en la página 1de 8

REPORTE

EQUIPO:
YAZMIN VIVEROS JIMENEZ
CARLOS BARTOLO FLORES
AXEL ANTONIO VELLEGAS
ANA MARIA VIVEROS JIMENEZ

CALCULO VECTORIAL
INGENIERIA CIVIL

INTRUDUCCION
Por optimización debemos entender el proceso de llegar a la
solución óptima. Hoy en día este es un concepto que va más
allá de simplemente referirse a la solución más
económica. Para lograr la solución óptima, debe tenerse
definida previamente una variable básica en función de una
prioridad. El valor máximo o mínimo de la variable
manipulada es el que produce la solución óptima.
El concepto de solución óptima es importante en ingeniería.
Todo problema de Ingeniería Civil tiene una solución
óptima. Considérese el ejemplo del diseño de una viga
sometida a flexión. En el proceso de diseño intervienen
muchas consideraciones como el espacio disponible definido
por el arquitecto, que influye en la definición geométrica de
la viga, en la selección del tamaño de las varillas de refuerzo
longitudinal y su disposición, el costo de la misma, el tiempo
y método de construcción, la resistencia, etc.
Método del Gradiente o Método del Descenso
más Pronunciado

Para la optimización de modelos de Programación No Lineal sin


restricciones se dispone de una categoría de métodos
denominados «Algoritmos Generales de Descenso» entre los
cuales se destaca el Método del Gradiente o Método del
Descenso más Pronunciado (conocido adicionalmente como
Método de Cauchy) que reducen el cálculo de un mínimo local a
una secuencia de problemas de búsqueda lineal (o búsqueda
unidimensional).
Consideremos el siguiente problema de Programación No Lineal
no restringido:
El Método del Gradiente consta de 2 pasos principales:

Primero: El cálculo de una dirección de descenso que esta


dado por el negativo del gradiente de la función objetivo
evaluado en el punto de partida o en el de la k-ésima
iteración. En el ejemplo dicha dirección desde la coordenada
original x°= (8,7) está dada en la dirección del vector d°=
(8,-4).

Segundo: Obtener la magnitud del paso α (alfa) que


determina cuánto se avanza en una determinada dirección
de descenso. Esto se logra generando una función
unidimensional en términos de este parámetro (respecto a
la función objetivo original). En el ejemplo dicha magnitud
del paso es α=1/2.
Finalmente se actualiza la coordenada según lo descrito
previamente alcanzando (x1,x2)=(12,5) que como se corroboró
otorga un valor en la función objetivo menor al punto de partida
(arbitrario).
Se puede corroborar en este ejemplo que esto se logra al
intentar realizar una nueva iteración a partir de (x1,x2)=(12,5).
Adicionalmente se generan las condiciones de segundo orden
calculando la Matriz Hessiana o de segundas derivadas de la
función objetivo:

Donde los determinantes son estrictamente mayores a cero:


D1=2>0 y D2=4>0 (la Matriz Hessiana por tanto es Positiva
Definida) por lo cual la función objetivo es estrictamente
convexa y dada la condición anterior es suficiente para
garantizar que (x1,x2)=(12,5) es la solución óptima del problema.
- Método del Gradiente (Máximo descenso)

Se recordará que el gradiente es un vector en un punto x que


proporciona la dirección (local) de máxima variación de la
función. El vector gradiente es un vector ortogonal al contorno
de la función en el punto. Por lo tanto, en la búsqueda de un
mínimo la dirección de movimiento será contra gradiente:

s x() k = − f
En el método de máximo descenso la transición de un punto x k
a otro x k+1 viene dada por la siguiente expresión:

donde:
∆x k = Vector desde x k hasta x
k+1 s k = Dirección de búsqueda de máximo descenso
λ k = Escalar que determina la longitud de paso en la dirección s.

El gradiente negativo da la dirección de movimiento, pero no la


longitud de dicho movimiento. Por lo tanto, existen varios
procedimientos posibles dependiendo de la elección de λ k .
Entre los diversos métodos que existen para la selección de la
longitud de paso, dos merecen una mención especial. El primero
de ellos emplea una búsqueda unidireccional en la dirección del
gradiente. El segundo especifica a priori la longitud del paso
para cada iteración. Claramente la principal dificultad con la
segunda aproximación es que a menudo no se sabe a priori la
longitud de paso adecuada. ¿Cómo se debería cambiar esta
longitud de paso y como debería reducirse a medida que nos
aproximamos al mínimo para conseguir la convergencia? una
ilustración nos indicará el problema: Supongamos una función
cuadrática de dos variables como la de la figura siguiente:

Si en cada paso se realiza una optimización total en la dirección


contraria al gradiente los pasos sucesivos del método de
máximo descenso son ortogonales uno con respecto al anterior.
Este resultado, que parece peculiar, ocurre para una
determinada f(x) debido a que la derivada de f(x) a lo largo de la
línea s(λ) viene dado, utilizando la regla de la cadena por:
El algoritmo práctico lo podemos resumir en los siguientes
pasos:
1.- Elegir un valor inicial x 0 . En pasos sucesivos será x k .
2.- Calcular, analítica o numéricamente las derivadas parciales.

3.- Calcular el vector de búsqueda

4.- Usar la relación x x s k k k k + = + 1 λ para obtener el siguiente


punto. El valor de λ k puede ser de valor fijo o calculado en cada
paso mediante una búsqueda unidireccional.
5.- Comparar f ( ) k x +1 con f ( ) k x . Si el cambio es menor que
una tolerancia preespecificada terminar, en caso contrario volver
al paso dos y continuar con las iteraciones.

Aliquam dolor est, dignissim quis est a, laoreet varius nibh.


Praesent eu felis ac diam laoreet ultricies vitae vitae justo. Proin
molestie quam nisl, pulvinar pellentesque sem sodales quis. Ut
eu tortor ut augue imperdiet faucibus. Curabitur aliquam porta
malesuada. Nunc molestie lectus at massa sollicitudin
vestibulum. In et velit mollis, maximus orci tincidunt, blandit
augue. In hac habitasse platea dictumst. Integer facilisis ex eu
lectus euismod, at dictum nulla pellentesque. Morbi varius at
tortor ac vehicula. Sed dignissim nec ex eu rutrum. Proin arcu
nunc, fringilla a justo non, blandit vehicula arcu. Curabitur eu
consequat massa, et egestas sapien. Curabitur posuere luctus
fermentum.
CONCLUSION
La optimización en la ingeniería civil es cada vez más notable en
cualquier área, pero a pesar de los avances tecnológicos, el uso
de los métodos matemáticos siempre nos serán de gran utilidad,
en este caso, métodos como el anterior, nos facilitaran el
encontrar soluciones efectivas.

Cada una de las variables anteriores, producirá un conjunto de


soluciones posibles que es susceptible a un análisis de
optimización, es lo que se denomina análisis de alternativas. Si lo
que buscamos es una solución óptima desde el punto
económico, habría que restringir las otras variables y calcular el
costo de los materiales, equipo y mano de obra, para obtener la
viga más barata. Si por el contrario la variable requerida a
optimización es la resistencia, deberá escogerse dentro del
análisis de alternativas aquella que proporcione el valor máximo.

También podría gustarte