Está en la página 1de 98

OPTIMIZACIÓN ESTRUCTURAL

APLICACIÓN EN LOSAS ESTRUCTURALES EN UNA


DIRECCIÓN

Carlos Felipe Santander

Director
Mauricio Sánchez-Silva, Ph. D.
Optimización Estructural
Aplicación en Losas Estructurales en una Dirección
ICIV 200410 43

Proyecto de Grado
Presentado por

Carlos Felipe Santander F.

para optar al título de Ingeniero Civil

al

Departamento de Ingeniería Civil y Ambiental

Director

Mauricio Sánchez-Silva, Ph. D.


Profesor Asociado

Universidad de Los Andes


Bogotá, Colombia
Junio, 2004
Contenido

Contenido i
Índice de Tablas iii
Índice de Figuras iv
Introducción v
Capítulo 1 - Confiabilidad Estructural 1
1.1 Introducción 1
1.2 Función de Estado Límite 2
1.2.1 Función de Estado Límite Básica 2
1.2.2 Función de Estado Límite Complejas y Conjunto de FELs 3
1.3 Índice de Confiabilidad β 4
1.3.1 Variables Reducidas 5
1.3.2 Espacio Reducido y Definición General del Índice de Confiabilidad 6
1.4 Análisis de Confiabilidad de Primer Orden (FORM) 8
1.4.1 Algoritmo de FORM [9] 8
1.5 Simulaciones de Monte Carlo 8
1.6 Conclusiones 9
Capítulo 2 - Función Objetivo 11
2.1 Introducción 11
2.2 Función Objetivo Básica 11
2.3 Modificaciones a la Función Objetivo Básica 12
2.4 Función Objetivo Definida por el Ciclo de Vida 12
2.4.1 Cargas Invariantes en el Tiempo 14
2.4.2 “Fallas cuya ocurrencia está descrita por un proceso de Poisson” [1] 14
2.5 Conclusiones 15
Capítulo 3 - Métodos de Optimización 16
3.1 Introducción 16
3.2 Tipos de Restricciones 16
3.2.1 Sistema sin Restricciones 17
3.2.2 Sistema con Restricciones de Igualdad 17
3.2.3 Sistema con Restricciones de Desigualdad 18
3.3 Método de Multiplicadores de Lagrange 20
3.3.1 Derivación Geométrica [3] 21
3.3.2 Derivación Algebraica [3] 23
ICIV 200410 43 Contenido

3.4 Método del Gradiente Reducido 24


3.4.1 Algoritmo de Método de Gradiente Reducido (Adaptado de Bazaraa, [2]) 25
3.5 Programación Cuadrática 26
3.5.1 Problema Lineal Complementario 28
3.6 Programación Cuadrática Sucesiva (SQP) 30
3.6.1 Programación Cuadrática Sucesiva Rudimentaria 32
3.6.2 Programación Cuadrática Sucesiva Completa 32
3.7 Cálculo del Índice de Confiabilidad β por Medio de Técnicas de
Optimización 34
3.7.1 Función moderadamente no lineal 34
3.7.2 Función muy no lineal 39
3.8 Conclusiones 40
Capítulo 4 - Ejemplo Práctico: Losa Armada en Una Dirección 42
4.1 Introducción 42
4.2 Losas Armadas en una Dirección 42
4.3 Variables Involucradas 46
4.4 Función de Costos 47
4.4.1 Función de Costos Rudimentaria 48
4.4.2 Función de Costos Compleja 50
4.5 Función Objetivo 50
4.5.1 Función objetivo de modelo 50
4.5.2 Restricciones 51
4.6 Optimización por Iteraciones Independientes para cada Variables 52
4.6.1 Cálculo de la probabilidad de falla 53
4.6.2 Proceso de optimización 54
4.6.3 Conclusiones del proceso iterativo 59
4.7 Optimización por Regresión Multivariable 59
4.7.1 Cálculo de Probabilidad de Falla 59
4.7.2 Ecuación de Probabilidad. Regresión Multivariable 63
4.7.3 Resultado 69
4.7.4 Conclusiones del proceso por Regresión Multivariable 69
Capítulo 5 - Conclusiones 73
Apéndice A - Cálculo de β en Mathcad con SQP multivariable 74
Apéndice B - Algoritmos de Mathcad para el Cálculo de pf de Losas 83
Apéndice C - Cálculo de β en Mathcad con FORM multivariable 87
Bibliografía 90

ii
Índice de Tablas

Tabla 3.1. Representación de la matriz A dependiendo de I1 26


Tabla 3.2. Modificación de la matriz A de acuerdo a I1 26
Tabla 3.3. Tabla Problema Lineal Complementario, antes de ser pivotada por la
inicialización 29
Tabla 3.4. Medias y Desviaciones Estándar de los Parámetros de la ecuación de estado
límite 34
Tabla 3.5. Resumen de las iteraciones para encontrar el índice de confiabilidad usando
SQP 37
Tabla 3.6. Medias y Desviaciones Estándar de los Parámetros de la ecuación de estado
límite 39
Tabla 5.1. Diseño tradicional de losas – Variables Geométricas. 44
Tabla 5.2. Avalúo de carga muerta para la losa del ejemplo. 44
Tabla 5.3. Valores de Desviación Estándar de las variables Probabilísticas 53
Tabla 5.4. Valores de las parámetros de diseño cada iteración. 58
Tabla 5.5. Cambio de las variables del diseño tradicional al diseño óptimo. 59
Tabla 5.5. Valores de la media de cada variable en el algoritmo para la optimización. 60
Tabla 5.6. Muestra de las probabilidad de falla contra 6 variables obtenida por Monte
Carlo y ya filtrada. 63
Tabla 5.7. Variables y Combinaciones de Variables involucradas en la regresión. 65

iii
Índice de Figuras

Figura 1.1. Zona Segura y Zona de Falla: G(R,S) = 0 Adaptada de Sánchez-Silva [1]. 3
Figura 1.2. Probabilidad de falla en función de β. Aproximación en los valores típicos de β.
5
Figura 1.3. Probabilidad de falla en función de β. 7
Figura 2.1. Representación de la función Z y sus Dominios. 13
Figura 3.1 a) Restricciones h1 y h2 en un espacio tridimensional. b) Curva formada por la
intersección de las restricciones. 21
Figura 3.2. Función objetivo y línea de restricción de los parámetro x, y. 35
Figura 3.3. Función de estado límite en el plano xy. Punto óptimo calculado por medio de
SQP. 38
Figura 3.4. Seguimiento de los pasos del algoritmo hasta encontrar el punto óptimo. 39
Figura 3.5. Función de Estado Límite en el espacio transformado. 40
Figura 3.6. Función de Estado Límite proyectada en la Función Objetivo. 40
Figura 5.1. Esquema de la Losa del Ejemplo. Definición de las variables correspondientes
a la geometría de la Losa. 43
Figura 5.2. Corte A – A de la Losa del Ejemplo. 43
Figura 5.3. Probabilidad de falla contra Número de Simulaciones. Convergencia. 54
Figura 5.4. Probabilidad de falla contra ASpos. 55
Figura 5.5. Función Objetivo (Z) contra ASpos. 55
Figura 5.6. Probabilidad de falla contra ASneg. 56
Figura 5.7. Función Objetivo (Z) contra ASneg. 56
Figura 5.8. Probabilidad de falla contra b. 57
Figura 5.9. Función Objetivo (Z) contra b. 57
Figura 5.10. Probabilidad de falla contra AV. Total independencia de esta variable. Área
de acero por cada metro. 58
Figura 5.11. Influencia de ALpos y ALneg en la Probabilidad de Falla 61
Figura 5.12. Influencia de AV en la Probabilidad de Falla 62
Figura 5.13. Comportamiento de correlación entre hf y b. 63
Figura 5.14. Comportamiento de pf a lo largo de la muestra. 64
Figura 5.15. Probabilidad de Falla contra ASpos 66
Figura 5.16. Probabilidad de Falla contra ASneg 66
Figura 5.17. Probabilidad de Falla contra ALpos 67
Figura 5.18. Probabilidad de Falla contra s 68
Figura 5.19. Probabilidad de Falla contra h 68
Figura 5.20. Probabilidad de Falla contra b 69

iv
Introducción

El diseño óptimo basado en confiabilidad tiene gran aplicación en la ingeniería civil y


contribuye en el desarrollo de países como Colombia en los cuales el déficit de vivienda
toma cifras astronómicas. Esta es la principal motivación para elaborar un proyecto que
abra las puertas a este nuevo tipo de diseño y sobre todo ilustre como es posible
optimizar las estructuras reduciendo costos que liberen recursos para ayudar al desarrollo
del sector de la construcción. No objetivo de este trabajo criticar el diseño tradicional de
estructuras que ha sido pilar de las sociedades y sus últimos aportes al cuidado no solo
de la vida sino también del patrimonio. Sin embargo el diseño óptimo basado en
confiabilidad es el futuro de esta profesión ya que cuenta con muchas ventajas sobre sus
antecesores.
Los códigos o normas sismo resistentes que rigen la ingeniería estructural alrededor
del mundo en ocasiones se convierten en una atadura para el calculista ya que para
buenos niveles de confiabilidad agrupan cierto número de estructuras que a conveniencia
económica podrían trabajarse de manera independiente. El diseño basado en
confiabilidad como el que se describe en el Capítulo 4, independiza todas las estructuras
y convierte el diseño en único. Es importante aclarar que este proceder está tipificado en
las normas (ej. NSR 98 para el caso de Colombia) donde permiten realizar estudios
independientes que no necesariamente tienen que coincidir a lo que ellas proponen.
Para grandes construcciones como preseas o viaductos los ingenieros hacen los
estudios pertinentes pero hasta este momento ningún ingeniero en Colombia propone un
análisis detallado para una pequeña estructura como una casa de vivienda de interés
social. Es objetivo de este trabajo concienciar a los ingenieros en la práctica que un
diseño detallado como el óptimo basado en confiabilidad puede ser aplicado a estructuras
medianas o pequeñas produciendo un ahorro considerable.
Actualmente en la Universidad de Los Andes, como en muchas universidades en
todos los continentes, tiene un grupo de personas dedicas a la investigación de
optimización y confiabilidad cuyo principal propósito es encontrar la forma de incentivar el
uso de la optimización a la hora de hacer diseños. Este es un proyecto a largo plazo que
requiere gran trabajo como la elaboración de un software que mecanice los pasos
expuestos en muchos ensayos, artículos y trabajos como el que se está presentando.
El trabajo se divide en tres partes. La primera parte a la que pertenecen los
Capítulos 1 y 2 es acercamiento a la teoría que ha sido desarrollada en los últimos años
acerca de la confiabilidad estructural (1) y la optimización estructural (2). De manera
resumida se presenta el trabajo de personas como Rackwitz, Sánchez-Silva, Haldar,
Mahadevan entre otros para lograr introducir un poco el procedimiento se utiliza en la
última parte del trabajo.
La segunda parte del trabajo conformada exclusivamente por el Capítulo 3 es una
descripción detallada de los métodos de programación no – lineal utilizados en este tipo
de procedimientos. Se quiso dar un enfoque a esta parte en especial teniendo en cuenta
que con este proyecto de grado se inicia una investigación que busca resultados más
ICIV 200410 43 Introducción

concisos. Esta parte del proyecto es la más importante y es en donde los mayores
esfuerzos de la investigación se han concentrado y concluye proponiendo un método de
programación no – lineal para el cálculo de la probabilidad de falla. Este método
denominado Programación Sucesiva de Cuadrados es el más completo de los estudiados
en esta parte del trabajo.
Por último para dar sentido a las dos primeras partes, la tercera propone un ejemplo
práctico del diseño óptimo basado en confiabilidad en el cual se obtienen conclusiones
asombrosas que representan un enorme avance para continuar investigando acerca de
este tema. El ejemplo seleccionado fue una losa estructural armada en una dirección por
lo que en los artículos estudiados ningún ingeniero dedicado al tema reporto una
optimización hecha en este tipo de estructuras.
Al final del trabajo se encuentran 3 Apéndices en los que se presentan los
algoritmos utilizados a lo largo de todo el proyecto. Los algoritmos se encuentran
programados en Mathcad; pero evitan el uso de funciones exclusivas del programa madre
con el fin de facilitar la programación de FORTRAN o cualquier otro lenguaje de
programación.
Independientemente de si los resultados obtenidos en el Capítulo 4 sean correctos o
no las conclusiones son de gran utilidad para el grupo de investigación del área de
confiabilidad estructural de la Universidad de Los Andes dirigido por el doctor Mauricio
Sánchez-Silva también director de este proyecto de grado.

vi
Capítulo 1
Confiabilidad Estructural

1.1 Introducción
El Diseño Optimo Basado en Confiabilidad1 tiene como objetivo encontrar los
valores de los parámetros de diseño tales que representen el menor costo o el mayor
beneficio al construir una obra. Problema que se puede desarrollar desde dos puntos de
vista distintos [8]:

Minimizar: C(x)
(1.1)
Sujeto a: p f (x) ≤ Pf

Minimizar: pf(x)
(1.2)
Sujeto a: C (x) ≤ Cmax

Donde C es la función de costos, pf es la función de probabilidad de falla y x es el


vector de todos los parámetros que representan algún costo o están involucrados en la
falla de un elemento o un sistema.
En ambos enfoques el cálculo de la probabilidad de falla no es tarea fácil por lo que
intervienen en esta las posibles variaciones de todos los parámetros que intervienen en el
diseño. La meta primordial de la confiabilidad estructural es encontrar la función pf(x) en
términos de las cantidades de obra que se usan al evaluar la función de costos, o en
algunos casos encontrar pf tal que pf = pf(x). La palabra confiabilidad, término
complementario al riesgo (término más conocido por la gente), hace referencia a la
garantía probabilística de que un sistema o u elemento cumpla con las funciones para las
cuales fueron diseñado [9].
El termino “probabilidad” esta íntimamente ligado a la confiabilidad estructural por la
incertidumbre involucrada en todos los análisis mecánicos. Por ejemplo, si varias varillas
de acero idénticas son falladas en el laboratorio, todas fallaran a cargas distintas, y el
valor de resistencia con el que se elabora el diseño es el promedio de las medidas [9].
Adicionalmente con las medidas suficientes se puede determinar la distribución de
probabilidad que sigue este parámetro. Ahora bien, la incertidumbre no sólo se presenta
en los valores relacionados a la resistencia sino que también se presenta en la
solicitación.
Los ingenieros dedicados al diseño reconocen la existencia de esta incertidumbre
en el análisis, sin embargo los procedimientos tradicionales de diseño simplifican el
problema convirtiendo las variables de probabilísticas a determinísticas combatiendo la
incertidumbre con una serie de factores de seguridad calibrados de manera empírica.

1
Ver Capítulo 2.
ICIV 200410 43 Capítulo 1 – Confiabilidad Estructural

Haldar y Mahadevan [9] critican los factores de seguridad ya que aunque estos son
obtenidos por referencia histórica, no garantizan un nivel de seguridad determinado.
Adicional a esto, los factores de seguridad no proveen información acerca de cómo cada
componente del sistema o elemento afecta la seguridad del mismo.
Se ha discutido de manera aproximada el significado de la confiabilidad estructural,
para mayor información acerca de este tema se puede acudir a diferente bibliografía (ej.
[1], [6], [7], [8], [9], [10])

1.2 Función de Estado Límite


Para realizar un análisis de confiabilidad es necesario definir una función que separe
la situación de falla de la situación de no-falla. A esta función se le conoce como función
de Estado Límite o función de desempeño [9]. En esta se presentan todas las variables
que pueden verse involucradas en la falla de un sistema o elemento. Es una función En Æ
ℜ y generalmente se presenta igualándola a cero.

G ( x) = 0 (1.3)

1.2.1 Función de Estado Límite Básica


La función de estado límite debe marcar la frontera entre la zona de falla y la zona
segura. Esto quiere decir que esta función debe relacionar la solicitación que se le esta
haciendo al sistema o elemento y su resistencia. Son estas dos variables las que entran
en dicha función cuando se tiene la forma más básica.

G ( R, S ) = R − S (1.4)

Si la solicitación (S) excede la resistencia, la función toma valores negativos por lo


que como se vio en (1.3), G(R,S) = 0 es la frontera entre las dos áreas.

2
ICIV 200410 43 Capítulo 1 – Confiabilidad Estructural

Figura 1.1. Zona Segura y Zona de Falla: G(R,S) = 0


Adaptada de Sánchez-Silva [1].

Tanto la resistencia como la solicitación pueden ser variables deterministicas, pero


en la mayoría de casos, las dos siguen una función de probabilidad determinada. Es aquí
donde entra en juego la confiabilidad estructural y el valor de la probabilidad de falla toma
valores distintos de 0 y 1. R y S no necesariamente siguen la misma distribución, y no
tienen nunca el mismo valor medio. En la Figura 1.1 se muestra como la probabilidad
conjunta de no presenta su media sobre la función de estado límite pero la campana
formada por esta si logra tocarla lo que garantiza que existe una probabilidad de falla.
Más adelante se discutirá como estas distribuciones y la interacción entre las variables se
utiliza para calcular en Índice de Confiabilidad y posteriormente la probabilidad de falla.

1.2.2 Función de Estado Límite Complejas y Conjunto de FELs


La función de estado límite básica permite desarrollar las ecuaciones y
metodologías utilizadas en el análisis de confiabilidad, pero esta no tiene usos prácticos
ya que la resistencia y solicitación son funciones de las variables de diseño. La función de
estado límite no es una función bidimensional, es por el contrario multidimensional en la
que como se indicó anteriormente entran todas las variables de diseño. Por ejemplo en el
análisis de una vigueta de hormigón para una losa armada en una sola dirección la
resistencia es función de la cantidad e acero y de las dimensiones, mientras que la
solicitación es función de la separación entre viguetas.
Una vez analizado lo compleja que puede llegar a ser una función de estado límite
es necesario discutir la necesidad, en algunas ocasiones, de implementar más de una
función para describir la falla de un sistema o elemento. Es claro que la falla de un
sistema debe ser descrita por el conjunto de las funciones de estado límite de cada uno
de sus elementos, pero cada elemento individual puede tener su propio conjunto de
funciones que indiquen la falla. Se puede tomar una viga de acero de alma llena como
ejemplo. La viga puede fallar por cada uno de los esfuerzos a las que esta sometida, es
decir:
1. Flexión Pura
2. Cortante Puro
3. Pandeo Local del Patín Superior
4. Pandeo Local del Patín Inferior (si está sometida a momento negativos)
5. Pandeo Lateral Torsional
6. Torsión Pura (por ejemplo un punte curvo)
Cada uno de estos estados presenta su propia ecuación de estado límite que se
debe tener en cuenta al momento del análisis ya al violarse cualquiera de ellas el
elemento falla. Adicional a los esfuerzos que se tienen, existen otras funciones que
garantizan el buen servicio de una construcción que deben tenerse en cuenta. En una
viga la deflexión máxima debe tener ciertos limitantes para que no afecte los muros
divisorios y elementos no estructurales que te reposan en las vigas inferiores.
Una vez descritas el objetivo de la función de estado límite, se puede a partir de
esta y las distribuciones probabilidad de cada una de las variables, se puede calcular la
probabilidad de falla.

3
ICIV 200410 43 Capítulo 1 – Confiabilidad Estructural

1.3 Índice de Confiabilidad β


El índice de confiabilidad o índice β es el parámetro más utilizado para medir la
confiabilidad de un sistema. “Es una medida del número de desviaciones estándar entre el
valor medio del margen de seguridad y el límite que define la región segura” [1]. Dada
esta definición se puede calcular como:

µG
β= (1.5)
σG

Donde, como se vio en la sección anterior G es la función de estado límite. Para


calcular la media y desviación estándar de la función de estado límite, es necesario tener
en cuenta las medias y desviaciones de todas las variables que hacen parte de esta y
hacer las mismas operaciones aritméticas que se presentan en la ecuación. Para la
función (1.4) se tendría que:

µG = µ R − µ S (1.6)
σ G2 = σ R2 + σ S2 (1.7)

El valor de β esta íntimamente ligado al valor de la probabilidad de falla2, y en


muchas ocasiones no se distinguen entre si. Como se puede ver en la Figura 1.2 entre los
valores típicos la función que se tiene entre el logaritmo de la probabilidad de falla y el
índice de confiabilidad es casi lineal.

2
pf esta dada por Φ(-β), donde Φ es la distribución normal de probabilidad.

4
ICIV 200410 43 Capítulo 1 – Confiabilidad Estructural

Figura 1.2. Probabilidad de falla en función de β. Aproximación


en los valores típicos de β.

En la Figura 1.2 se presenta una aproximación realizada con los valores reales que
se tienen en la función de distribución normal estándar, pero existen otras aproximaciones
no tan exactas pera si muy útiles por los valores de probabilidad tan pequeños. Sanchez-
Silva [1] menciona una aproximación para 1 ≤ β ≤ 3.5 de:

p f = 2 × 10 − β (1.8)

Hasta ahora se ha presentado la definición del índice de confiabilidad, existen otras


de mayor utilidad practica (dado la complejidad de la función de estado límite página 3)
que se presentan a continuación. Para esto es necesario introducir el concepto de
variables reducidas y espacio transformado.

1.3.1 Variables Reducidas


Las variables de un problema estructural se pueden describir como determinísticas
o probabilísticas; estas últimas dependiendo de la distribución a la que obedezcan tiene
ciertos parámetros que las describen, mientras que la variables determinísticas sólo estas
descritas por su valor. Las funciones de distribución más utilizadas son la normal y la log-
normal.
Si en la ecuación (1.4), tanto la resistencia como la solicitación son variables
aleatorias distribuidas normalmente, estas se pueden reducir a su forma estándar.
Comúnmente cuando las variables siguen esta distribución su nomenclatura es:

5
ICIV 200410 43 Capítulo 1 – Confiabilidad Estructural

R ~ N (µ R ,σ R )
(1.9)
S ~ N (µ S ,σ S )

La forma estandarizada de una variable esta dada al resta al valor de la variable su


media y dividirla por la desviación estándar. Lo que se hace con esta transformación es
ubicar las variables en un espacio en el que tiene media cero y desviación estándar 1.
Para este caso, las nuevas variables reducidas, UR y US, serían:

R − µR
UR = (1.10)
σR
S − µS
US = (1.11)
σS

Una vez teniendo las definiciones de las ecuaciones (1.10) y (1.11) se pueden
despejar las variables R y S y re-escribir la ecuación (1.4):

G (U R ,U S ) = ( µ R + U R ⋅ σ R ) − ( µ S + U S ⋅ σ S ) = 0 (1.12)

1.3.2 Espacio Reducido y Definición General del Índice de Confiabilidad


En la Figura 1.1 se muestra la función de estado límite en el espacio formado por R
y S, pero de esta misma manera se puede, al haber transformado las variables, trazar la
función de estado límite (1.9) en el espacio UR y US. El espacio formado por las variables
reducidas recibe el nombre de espacio reducido Figura 1.3.
Una vez establecido el espacio reducido de las variables se puede introducir una
nueva definición para el índice de confiabilidad, como la distancia más corta entre el
origen de este espacio y la curva G(UR,US) [10]. Esta definición fue introducida por
Hasofer y Lind en 1974 y es pilar de los métodos para el cálculo de la probabilidad de falla
que se expondrán más adelante.
Por geometría se puede calcular β como [10]:
µ R − µQ
β= (1.13)
σ R2 + σ S2

6
ICIV 200410 43 Capítulo 1 – Confiabilidad Estructural

Figura 1.3. Probabilidad de falla en función de β.

La ecuación (1.9) muestra una formula de cálculo exclusiva para la ecuación de


estado límite que se ha venido utilizando hasta ahora, pero se puede verificar que si
existen más variables y la función de estado límite sigue siendo lineal, el valor de β se
puede calcular como:

n
a 0 + ∑ a i µU i
i =1
β= (1.14)
n
∑ ( a iσ U ) i
2

i =2

Donde a0 es la constante de la ecuación lineal, ai son los respectivos coeficientes


de todas las n variables que entran en la ecuación. Se puede ver que el numerador de la
ecuación (1.14) es la función de estado límite G(U). Por esta razón también es factible
encontrar una ecuación generalizada para funciones lineales y no-lineales [10]:

G (µ ) ∂G
β= donde ai =
n ∂U i (1.15)
∑ ( a iσ U ) 2 i
i =2

µ es el vector de medias de las variables involucradas. Esta ecuación logra minibar


la distancia entre el origen y la curva de la función de estado límite, según plantea la
definición de Hasofer, en el Capítulo 3 se plantea la posibilidad de encontrar esta
distancia por métodos de programación no lineal, cuya ventaja, como se verá más
adelante, es la posibilidad de programar sus algoritmos para que funcionen en cualquier
función.
La ecuación (1.14) es de fácil aplicación, no obstante la ecuación (1.15) se puede
llegar a complicar si las derivadas parciales son difíciles de calcular. Para esto se han
organizado distintos algoritmos para encontrar de manera simplificada el parámetro β y
por consiguiente la probabilidad de falla de un sistema o un elemento.

7
ICIV 200410 43 Capítulo 1 – Confiabilidad Estructural

1.4 Análisis de Confiabilidad de Primer Orden (FORM)


Como se muestra en la Figura 1.3, si β esta definido como la distancia más corta
entre el origen y la función de estado límite en el espacio transformado, y esta función es
lineal, se puede calcular β de una manera relativamente sencilla. Lo que se busca con el
análisis de confiabilidad de primer orden o FORM3, es aproximar la función a sus rectas
tangentes para buscar la distancia entre el origen y la tangente, suponiendo que si la
función es moderadamente no – lineal, no existen mucha diferencia entre esta distancia y
la real.

1.4.1 Algoritmo de FORM [9]


1. Definir la función de estado límite
2. Asumir un valor inicial para el índice de confiabilidad. Entre más razonable sea el
valor menos iteraciones son necesarias.
3. Asumir los valores iniciales de diseño del punto x*. Si no se dispone de buena
información se puede asumir las medias como valores iniciales.
4. Transformar todas las variables que no tengan una distribución normal, a una
normal equivalente de acuerdo a sus medias y desviaciones estándar.
5. Evaluar todas las derivadas parciales en el punto x*.
6. Evaluar los cosenos directores en el punto x* de acuerdo con:

*
⎛ ∂G ⎞
⎜⎜ ⎟⎟ ⋅ σ xN

⎝ i⎠
x i

αx = (1.16)
i
2*
n ⎛ ∂G ⎞
∑ ⎜⎜ ∂x ⋅ σ xN ⎟⎟
i =1 ⎝ ⎠
i
i

7. Evaluar los nuevos valores de x* como:

xi* = µ xN − α i ⋅ β ⋅ σ xN (1.17)
i i

8. Repetir los pasos 4, 5, 6, y 7 hasta que los valores de los cosenos directores
converjan a una tolerancia adecuada. Usualmente se usa una tolerancia de
0.005.
9. Evaluar el nuevo valor de β tal que se satisfaga la función de estado límite en el
nuevo punto de control.
10. Volver al paso 3 hasta que el valor del índice de confiabilidad converja.

1.5 Simulaciones de Monte Carlo


La simulación de Monte Carlo es utilizada en el mundo a partir de los estudios de
Von Newman durante la segunda guerra mundial [1], su nombre se debe a la capital del
principado de Mónaco por su parecido con el azar que habita constantemente en los
casinos de la ciudad. La sencillez del método es su principal cualidad por lo que en
muchas ocasiones es más utilizado que FORM o SORM. Este método es una simulación

3
Se llama FORM por sus siglas en ingles: First Order Reliability Method

8
ICIV 200410 43 Capítulo 1 – Confiabilidad Estructural

artificial del comportamiento de un sistema usando un muestreo aleatorio, y este incluye


los siguientes pasos [1]:

1. “Definir la función Y que describe el problema, en términos de todas las variables


aleatorias.
2. Determinar la distribución de probabilidad y los parámetros de cada variable
aleatoria.
3. Generar valores aleatorios para cada una de las variables con base en su función
de distribución de probabilidad.
4. Evaluar la función Y determinísiticamente, utilizando las realizaciones de cada
variable, un numero N de veces suficientemente grande.
5. Determinar la eficiencia y la precisión de la simulación.
6. Extraer información probabilística y estadística del resultado.”

La función Y es la ecuación de estado límite que se tenga y las variables son los
parámetros estructurales de los que depende esa falla. El generar valores aleatorios de
acuerdo a una distribución especifica tampoco representada dificultad ya que muchos
programas cuentan con funciones propias que tienen esta labor.
Elaborar un algoritmo en el que se utilicen los N valores generados es relativamente
sencillo. En este, como lo indica el paso 4, se evalúa la función de estado límite llevando
un contador que indique el número de veces que ocurre la falla: NF. Al final del
procedimiento la probabilidad de falla se puede calcular como:

NF
pf ≈ (1.18)
N

El paso a continuación es determinar la eficiencia y precisión de la simulación. Un


número muy pequeño de realizaciones puede ocasionar una probabilidad de falla ficticia,
pero un número demasiado grande puede ser inútil ya que la probabilidad de falla tiene a
converger en cierto número de simulaciones y no varia si se aumentan las mismas. Esta
probabilidad de falla es el correcto resultado del procedimiento de Monte Carlo y
determinar el N necesario es una de las principales tareas. Existen varias maneras de
determinar el número de ensayos correctos, pero se recomienda realizar una prueba de
inspección ya que el resultado de esta siempre es exacto.
Para mayor información sobre los métodos de simulación todas sus pruebas y todo
el procedimiento que este involucra se recomienda el Capítulo 7 de [1], de donde se
obtuvo toda la información al respecto utilizada en este trabajo.

1.6 Conclusiones
En este Capítulo se discutieron, de manera aproximada, los métodos que existen
para evaluar la probabilidad de falla de un sistema o un elemento. Cada método discutido
es igualmente útil en todos los problemas de confiabilidad estructural como el tratado en
este proyecto de grado. La selección de la metodología utilizada depende exclusivamente
de la persona dedicada a la investigación y cuya decisión depende exclusivamente de la
naturaleza del problema.
En un futuro, el desarrollo del diseño óptimo basado en confiabilidad necesita
herramientas computacionales en las que se programen todos los métodos existentes

9
ICIV 200410 43 Capítulo 1 – Confiabilidad Estructural

para el cálculo de probabilidad y debe contar con algún tipo de inteligencia artificial para
lograr seleccionar de manera adecuada el método necesario para cada problema.
Si bien el cálculo de la función de probabilidad teniendo en cuenta todas las
variables involucradas es el procedimiento más complicado, el procedimiento de
optimización puede llevar cierta dificultad. En los siguientes capítulos se hace una
aproximación a la función objetivo de la optimización y de los métodos más utilizados para
este análisis en los últimos años.

10
Capítulo 2
Función Objetivo

2.1 Introducción
El diseño en Ingeniería Civil consiste en encontrar los valores de los distintos
parámetros estructurales para garantizar el funcionamiento y economía. El hombre a
través de los años ha estudiado el comportamiento de materiales y sistemas
determinando ecuaciones que relacionan los valores de los parámetros y niveles
requeridos. Pero existe en torno a esta toma de decisiones por las que tiene que pasar
todo ingeniero diseñador una discusión perpetua: “¿cuan seguro es suficientemente
seguro?”. Se puede pensar que poner columnas de dimensiones colosales, capas de
pavimentos extremadamente gruesas, o sobredimensionar estructuras hidráulicas puede
garantizar la vida de sus ocupantes o personas pero existe otra consideración muy
importante a la hora de evaluar un diseño, la economía. Esta es crucial a la hora de
evaluar la viabilidad de una construcción. Ahora bien retomando el tema de que tan
seguro es suficiente se puede replantear esta afirmación como que tan seguro es
económicamente viable.
Los costos de un proyecto se pueden dividir en dos categorías principales, los
costos directos donde se agrupa todos esos costos que implica la construcción, y los
costos indirectos, que entre otros se encuentra los costos de daño y reconstrucción en
caso de falla. Un análisis para verificar la factibilidad de un proyecto debe estar orientado
al costo total, para no sobre diseñar una estructura o en el caso más critico entregar un
diseño que no cumpla las exigencias de funcionalidad requeridas.
Los códigos, criticados por algunos y alabados por otros, tienen ventajas y
desventajas. Una de las principales desventajas y por las cuales la ingeniería moderna ha
enfocado sus esfuerzos en “el diseño óptimo basado en confiabilidad”, es el hecho que
agrupa todas las estructuras en unos pocos grupos. Para lograr hacer esta agrupación
garantizando el buen desempeño de todo el conjunto, en muchas ocasiones el diseño se
realiza por el lado seguro, y aunque su construcción es factible, no resulta
económicamente óptimo. Es entonces donde el concepto de diseño óptimo entra a jugar
un papel muy importante. Los códigos llevan este concepto, junto con el de probabilidad
de falla, muy ligado a sus recomendaciones, pero se ha comprobado que en algunos
casos un análisis independiente a cada estructura sería una fuente de ahorro para el
sector y para el país.

2.2 Función Objetivo Básica


La función objetivo es una función que entra en un proceso de optimización. El
proceso consiste en modificar todas las variables involucradas de manera apropiada para
encontrar el valor máximo o mínimo de dicha función teniendo en cuenta un grupo de
restricciones. Para entrar a evaluar el diseño civil se han planteado en mucho artículos
ICIV 200410 43 Capítulo 2 – Función Objetivo

diversas funciones objetivo, pero todas parten de una función básica propuesta por
Rosenblueth y Hasofer [6] en la década de los setenta. Si se agrupan todo los parámetros
de cualquier diseño en un vector denominado p, se puede ver la función objetivo como
una función de utilidad que se quiere maximizar [6].

Z (p) = B(p) − C (p) − D(p) (2.1)

B(p) es el beneficio de la construcción, C(p) son los costos directos y D(p) es el


costo esperado en caso de falla. Muchos investigadores utilizan la función (2.2) dado que
el beneficio es constante:

Z * (p) = C (p) + D (p) (2.2)

En el cual el objetivo de la optimización cambia, y ahora es necesario minimizar


Z*(p). Este cambio está argumentado en el hecho que el beneficio casi constante con la
variación de cualquier parámetro en el vector p, y adicionalmente a esto, el beneficio es
un valor económico de interés al dueño de la obra en el que el ingeniero diseñador no
puede decidir.
Como se discutirá más adelante la función de costo puede descomponer de
distintas maneras, por ejemplo (Rackwitz):

C (p) = C 0 + ∑ ci ⋅ pi (2.3)
i

Donde C0 es independiente de p y ci es el costo relacionado a cada parámetro que


no depende de ningún otro.

2.3 Modificaciones a la Función Objetivo Básica


Varios autores han propuesto sus propias modificaciones a la función objetivo
básica [1]. Un ejemplo de esto es la propuesta de Melchers, donde toma el costo de
construcción y el costo en caso de falla y los expande a:

Z ( p ) = B ( p) − C1 ( p ) − CQA − C C − C INS − C M − p f ·C f ( p) (2.4)

“C1 es el costo inicial de construir el proyecto, CQA es el costo de implementar las


medidas de aseguramiento de calidad, CC es el costo de la respuesta a cada una de las
medidas de aseguramiento de calidad, CINS es el costo de asegurar el proyecto, CM es el
costo de mantenimiento, pf la probabilidad y Cf el costo asociado a la falla.” [1].

2.4 Función Objetivo Definida por el Ciclo de Vida


El Profesor Rüdiger Rackwitz de la Universidad Técnica de Munich, Alemania, es
una de las personas que más ha investigado acerca del diseño óptimo basado en
confiabilidad en Ingeniería Civil. En varios de sus artículos el profesor Rackwitz, discute
ampliamente la función objetivo para optimizar sistemas estructurales, involucrando
conceptos de costo beneficio y el índice de calidad de vida.

12
ICIV 200410 43 Capítulo 2 – Función Objetivo

El problema típico de optimización es en realidad en problema inverso de un análisis


de confiabilidad estructural [7]. Encontrar los valores de p, que maximice el beneficio
dentro de una función de estado límite que determina la frontera entro lo seguro y la falla
dada cierta confiabilidad. La función objetivo debe partir siempre de la función básica
presentada en las secciones anteriores, donde en esta para el análisis de Rackwitz se
hace énfasis en que C y D deben ser diferenciables en cada uno de los componentes de
p. La optimización se debe hacer enfocados en un punto de vista en especial ya que los
costos pueden diferir entre los distintos participantes de un proyecto en Ingeniería. La
función Z vista incluyendo el beneficio, solo tiene sentido si toma un valor positivo, y por
otro lado un poco más específico sólo tiene sentido si el valor de la utilidad para el dueño,
o para la parte evaluada, es mayor que en cualquier otro proyecto. En la Figura 2.1 se
pueden ver que existe solo un rango en los parámetros de diseño donde la realización del
proyecto es razonable [7].

Figura 2.1. Representación de la función Z y sus Dominios.

Una vez descritas las propiedades de la función, y el rango en el cual los


parámetros p son razonables, es necesario introducir el concepto de valor presente. Las
estructuran pueden fallar a un tiempo aleatorio, relacionado con la probabilidad de falla,
que claramente es distinto al instante en el cual se hacen los estudios de prefactibilidad y
factibilidad. Por esta razón todos los costos involucrados con la falla deben ser pasados a
valor presente. Aunque los costos D son los más lejanos al momento de toma de decisión
los costos en C también tienen estas características, más aún si la obra no es de
construcción inmediata. La tasa que Rackwitz propone en función del tiempo en [7] es:

∂(t ) = exp(−γ ⋅ t ) (2.5)

Donde γ es la tasa de intereses. Esta se puede expresar en función de la tasa de


descuento γ’ como:

13
ICIV 200410 43 Capítulo 2 – Función Objetivo

γ = ln(1 + γ ' ) (2.6)

A continuación se distinguen entre dos estrategias de reemplazo, la primera donde


la estructura es abandonada después de la primera falla y la segunda donde es
remplazada sistemáticamente después de cada falla. Existen otras políticas que no se
discutirán en el presente trabajo, se pueden consultar en: [1], [6] y [7]. Las dos estrategias
consideradas pueden ocurrir ya sea por cargas invariantes en el tiempo o por fallas que
obedezcan a procesos de Poisson.

2.4.1 Cargas Invariantes en el Tiempo


Si la falla ocurre por las cargas invariantes en el tiempo (esencialmente carga
muerta) la función objetivo sería para la política de abandono después de la falla sería [1]:

Z (p) = B − C (p) − (C (p) + H ) ⋅ p f (p) (2.7)

Y para el caso de reconstrucción sistemática [1]:

B p f (p)
Z (p) = − C (p) − (C (p) + H ) ⋅ (2.8)
γ 1 − p f (p)

En donde puede estimarse como un porcentaje del costo básico. “H es el costo


económico en caso de falla, incluidos costos directos, los costos de demolición, los costos
por pérdida de oportunidad entre otros. Estas dos ecuaciones se obtienen después de un
análisis matemático detallado que incluyen las transformaciones de Laplace necesarias
para independizar los términos del tiempo. Esta transformación es de suma importancia
ya que simplifica el problema y evita que los ingenieros diseñadores que decidan
implementar este tipo de práctica se enfrenten a complejos problemas de economía, una
ciencia poco estudiada por la mayoría de ingenieros.

2.4.2 “Fallas cuya ocurrencia está descrita por un proceso de Poisson” [1]
Si las fallas tienen una ocurrencia que obedece a un proceso de Poisson puede
darse por un proceso normal o por la influencia de cargas extremas como terremotos o
terrorismo. Estas últimas de conocen como perturbaciones de Poisson. Para los dos
casos se tienen los dos escenarios de reconstrucción. Para el proceso simple de Poisson
con una ocurrencia de falla λ (t ) la función objetivo con política de abandono una vez
ocurrida la falla es [1]:

B λ (p )
Z (p) = − C (p) − + H ⋅ (2.9)
γ + λ ( p) γ − λ (p )

Y para política de reconstrucción sistemática [1]:

14
ICIV 200410 43 Capítulo 2 – Función Objetivo

B λ ( p)
Z (p) = − C (p) − (C (p) + H ) ⋅ (2.10)
γ γ

En el caso de perturbaciones para el abandono y la reconstrucción sistemática


respectivamente las funciones objetivos son:

B λ ⋅ p f (p)
Z (p) = − C (p ) − + H ⋅ (2.11)
γ + λ ⋅ p f (p) γ − λ ⋅ p f (p)

B λ ⋅ p f (p )
Z (p) = − C (p) − (C (p) + H ) ⋅ (2.12)
γ γ

La ecuación (2.12) es la más utilizada por los investigadores ya que representa un


escenario bastante frecuente en las estructuras alrededor del mundo. Es esta ecuación la
utilizada en la optimización que se presenta en el Capítulo 4. Todas estas funciones
cuentan con una amplia teoría para mayor referencia revisar [6].

2.5 Conclusiones
Existen diversas formas de la función objetivo utilizada para el diseño óptimo
basado en confiabilidad, pero aquella presentada por el profesor Rackwitz y otros
investigadores como el Dr. Sánchez – Silva en donde se introduce el ciclo de vida es de
vital importancia para el futuro de la investigación. La inclusión del ciclo de vida aterriza el
procedimiento de optimización a situaciones económicas que vive cada país. El uso de
estas funciones en lugar de las funciones rudimentarias avala el valor futuro que puede
tener la obra en el momento de la falla.
Por estas razones es recomendable el uso de las funciones de objetivo donde se
incluya el ciclo de vida en el proceso de optimización de estructuras.

15
Capítulo 3
Métodos de Optimización

3.1 Introducción
Las técnicas de optimización se dividen en dos, de acuerdo con el sistema que se
quiera evaluar. Un sistema consta de dos partes, la función objetivo que esta precedida
del objetivo de la optimización (minimizar o maximizar) y las funciones de restricción. Si
ambas partes del sistema están conformadas por funciones estrictamente lineales, se dice
que el problema es de programación lineal. Si por el contrario, alguna de las partes no es
lineal, el problema es de programación no-lineal. En general la optimización estructural no
puede desconocer las propiedades mecánicas, la teoría de la elasticidad, o los métodos
más modernos como los elementos finitos, en los que se basa el análisis estructural. La
combinación de estos resultados, como resultado del análisis, arroja ecuaciones de orden
superior a uno; por lo tanto la optimización estructural, debe recurrir usualmente a
métodos de programación no-lineal.
Varios paquetes computacionales como MATLAB, MATHCAD, Microsoft Excel,
entre otros, contienen bibliotecas o programas para resolver problemas de optimización
no-lineales. Sin embargo en algunas ocasiones la ecuación objetivo es tan compleja que
los programas de cómputo no son capaces de resolverlos; y es en estos casos que es
necesario recurrir a los algoritmos de los métodos y de ser posible elaborar un programa
que se adapte perfectamente al problema al que se esta enfrentando.
Los métodos utilizados varían mucho con respecto al grupo de investigación y al
problema que se quiere tratar. Los más utilizados en problemas estrictamente de
optimización basada en confiabilidad estructural, son:
• El método del Gradiente Reducido
• Programación Sucesiva de Cuadrados ó Aproximación por Lagrangiano
Proyectado
Cada uno de ellos se utiliza según el sistema que se quiere evaluar. El algoritmo de
estos se explica en las siguientes secciones.

3.2 Tipos de Restricciones


Independientemente si las restricciones son de carácter lineal o no-lineal, estas se
pueden clasificar de acuerdo a si son restricciones de igualdad, desigualdad, o si no hay
restricciones. Cada uno de estos casos presenta condiciones distintas que debe cumplir el
punto óptimo. Las condiciones van desde las más simples, en sistemas sin restricciones,
hasta las más complejas en problemas con todo tipo de restricciones
( g i ( x) ≤ bi y h j ( x) = b j ), recopiladas finalmente en las condiciones Karush-Kuhn-Tucker
(KKT). Para propósitos del Diseño Optimo Basado en Confiabilidad, las restricciones más
apropiadas son de desigualdad, pero se mencionan las condiciones necesarias para
cualquier tipo, ya que algunos métodos eliminan estas condiciones agregando variables al
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

sistema y manejando sólo condiciones de igualdad. Adicionalmente a esto, algunos


algoritmos de programación no-lineal como la programación cuadrática sucesiva, cuentan
con un tipo de restricciones generalizada (desigualdad), para esto es necesario tener en
cuenta que por medios de manipulación de las restricciones se puede llegar un sistema
generalizado. Esto se explica en detalle más adelante.

3.2.1 Sistema sin Restricciones


Los sistemas sin restricciones carecen de aplicaciones prácticas, pero las
condiciones que aquí se postulan son base para la solución de sistemas con restricciones
de igualdad y sistemas con restricciones de desigualdad. En la optimización estructural
tampoco se tienen aplicaciones prácticas, ya que por algunas restricciones técnicas como
por ejemplo, la cuantía en elementos de concreto reforzado, obligan siempre a la
aparición de restricciones.
La principal condición para que x , sea un máximo o un mínimo local de f(x) es que
su vector gradiente1 sea igual al vector nulo (0), pero dependiendo de la forma de la
función este punto puede ser un máximo, un mínimo o un punto de inflexión. Para verificar
si en realidad el punto con ∇f (x) = 0 es un punto óptimo se calcula la matriz Hessiana2.
Para esto la función debe ser doblemente diferenciable en el punto x Si en este punto H
esta definida positivamente, x , es estrictamente un mínimo, y si esa definida
negativamente es un máximo.

3.2.2 Sistema con Restricciones de Igualdad


Las restricciones de igualdad, de la forma gi(x) = bi actúan sólo como reductores de
dimensionamiento, pero no establecen fronteras al posible conjunto de posibles
soluciones. Para ilustrar mejor esta afirmación se propone el siguiente ejemplo tomado de
[2].

Minimizar: x12 + x 22 + x32


(3.1)
Sujeto a: x1 + x 2 + x3 = 10

La restricción coloca todas las posibles soluciones en un plano pero estas en


realidad no están acotadas, puede ser cualquier punto dentro de este plano. En otras
palabras, toda restricción de igualdad puede ser insertada de alguna manera en la función
objetivo y convertir el problema una optimización sin restricciones, Entonces la ecuación
(3.1) se puede reescribir como:

El vector gradiente de una función ∇f es el vector cuyas componentes son las derivadas
1

parciales con respecto a cada una de las variables.


2
La matriz Hessiana de f es una matriz tal que sus componentes son las segundas derivadas de
la función f. Suponga f = f(x,y). La Hessiana denotada con H es:
⎛ ∂2 f ∂2 f ⎞
⎜ 2 ⎟
⎜ ∂x ∂x∂y ⎟
⎜ ∂2 f ∂2 f ⎟
⎜ ∂y∂x ∂y 2

⎝ ⎠

17
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

Minimizar: x12 + x 22 + (10 − x1 − x 2 ) 2 (3.2)

Puesto que el nuevo problema no tiene restricciones, las condiciones necesarias


para encontrar el mínimo o máximo de una función son las mismas de un problema sin
restricciones. La única diferencia radica en que el gradiente y la Hessiana a evaluar son
los de la función que incluye las restricciones (el nuevo problema), como se explica más
adelante en el Método de Multiplicadores de Lagrange [3].

3.2.3 Sistema con Restricciones de Desigualdad


Un sistema con restricciones de desigualdad es la generalización de cualquier
problema de programación no – lineal. Para describir la solución del sistema se hace uso
de las condiciones Karush – Kuhn – Tucker (KKT). Estas plantean que si se encuentra el
punto optimo x*, no es posible encontrar una dirección en la que el valor de la función
objetivo se incremente (para el caso de maximización), mientras se encuentre en la región
factible acotada por las restricciones. Para introducir de manera matemática las
condiciones KKT, es importante introducir primero la definición de dirección factible.
La dirección factible es cualquier vector d, que al encontrase en una solución viable
la operación x + εd conduzca a otra solución viable para todos los ε suficientemente
pequeños. El conjunto de direcciones factibles en cualquier punto x (siendo x viable) esta
definido como [3]:

D (x) = {d | ∃ σ > 0 tal que σ ≥ ε ≥ 0 ⇒ x + εd ∈ Π} (3.3)

Donde Π es la región factible acotada por las restricciones. En otras palabras se


puede decir que duna dirección d dentro del conjunto D es aquella en la que se puede
mover de x un pequeña distancia y se sigue estando en la región factible, en el caso sin
restricciones D(x) = En.
El comportamiento hasta ahora descrito en D es general para todos los puntos
dentro de ∏, pero existen un conjunto de x* en el cual se cumple la siguiente propiedad:

∇f (x*) t d ≤ 0 ∀ d ∈ D (x*) (3.4)

Los puntos x* maximizan o minimizan la función objetivo, por lo que se conocen


como óptimos. Las funciones la mayoría de veces tienen varios óptimos locales, por lo
que se dice que x* es un conjunto de puntos y no uno solo. Vale la pena anotar que en los
procesos de optimización se busca el punto más cercano a las condiciones iniciales que
se plantean en el problema, es por esta razón que es importante prestar mucha atención
a estas condiciones. Es fácilmente demostrable [3] que la ecuación (3.4) también se
cumple en los límites de D(x*) (clousure3), a este conjunto se denota como D (x*) .
Ahora bien, en cualquier punto viable de la solución, las restricciones pueden dividir
en dos tipos, las activas (igualdad) y las inactivas (desigualdad):

3
En inglés, clousure hace referencia al conjunto formado por los elementos que se encuentran en
las fronteras de un conjunto mayor.

18
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

g i (x) = 0 i∈Ψ
(3.5)
g i (x) > 0 i∉Ψ

Donde Ψ es el conjunto de los índices pertenecientes a las restricciones activas. Se


puede entones definir un nuevo grupo de direcciones factibles como:

{
∆ ( x) = d | ∇ g i ( x ) t d ≥ 0 ∀ i∈Ψ } (3.6)

Este nuevo conjunto toma en cuenta solo las restricciones activas por lo que se
tiene un nuevo lema: D (x) ⊂ ∆ (x) . Desafortunadamente existen situaciones en las que
direcciones incluidas en ∆ no se encuentran en D , sin embargo se ha demostrado que
estas situaciones son puramente matemáticas y no tienen aplicaciones prácticas [3]. Esta
pequeña perdida de generalidad se considera despreciable y para formular las
condiciones KKT, se tiene que D (x) = ∆(x) en especial para el punto óptimo:

D (x*) = ∆(x*) (3.7)

Teniendo esta igualdad, llamada en inglés “constraint qualification”, se puede


entonces a partir de (3.4) formular la siguiente expresión:

{
∇f (x*) t d ≤ 0 ∀ d ∈ ∆(x*) = d | ∇g i (x*)t d ≥ 0 ∀ i ∈ Ψ (x*) } (3.8)

Lo cual es equivalente a decir que existen una serie de multiplicadores


λi ≥ 0, i ∈ Ψ (x*) , tal que [3]:

∇f (x*) + ∑ λi ∇g i (x*) =0
(3.9)
i∈Ψ ( x*)

En la próxima sección estos multiplicadores se conocerán como multiplicadores de


Lagrange, y sirven para formular el teorema Kuhn – Tucker. Si se tiene un problema de
programación no lineal, P, definido de la siguiente manera:

Maximizar : f (x)
(3.10)
Sujeto a : g i (x) ≥ 0 i ∈ [1, m]

Si x* es una solución óptima del problema P, y se asume que la “constraint


qualification” aplica, necesariamente se deben cumplir las siguientes condiciones:
1. x* es factible
2. Existen una serie de multiplicadores λi para todo i tal que: λi ⋅ g i (x*) = 0 .
m
3. ∇f (x*) + ∑ λi ∇g i (x*) = 0
i =1

19
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

Este teorema con solo estas tres condiciones ha demostrado ser insuficiente en
algunas ocasiones [3]. Por esta razón se cuenta con un teorema adicional que se conoce
como el teorema de “suficiencia4”. Este agrega características especiales que deben tener
las funciones en el problema P para que se cumplan las condiciones propuestas por el
teorema KT. Tanto la función f como las funciones g’s deben ser diferenciables,
adicionalmente la función objetivo, f, debe ser pseudo-cóncava y las restricciones, g’s,
deben ser cuasi-cóncavas. Esto garantiza que la región factible Π sea convexa. Este
teorema de condiciones necesarias extras que deben cumplir las función f y g’s hace que
las condiciones tomen el tercer nombre y sean actualmente conocidas como Karush –
Kuhn – Tucker [2].
Finalmente se debe tener en cuenta que las condiciones KKT pueden tener en
cuenta las restricciones de igualdad explicadas en la sección anterior, para el caso se
convertirían en restricciones activas en el punto óptimo. Si se modifica el problema P a:

Maximizar : f (x)
Sujeto a : g i (x) ≥ 0 i ∈ [1, m] (3.11)
Sujeto a : hi (x) = 0 i ∈ [1, l ]

Las condiciones se pueden escribir de forma vectorial en las siguientes 3


ecuaciones [2]:

∇f ( x*) + ∇g(x* ) t λ + ∇h(x*)t ν = 0


λ t g(x*) = 0 (3.12)
λ≥0

Donde ∇g(x*) y ∇h(x*) son las matrices Jacobianas5 de las funciones de


restricciones de desigualdad e igualdad respectivamente, y los vectores λ y ν son los
multiplicadores de Lagrange asociados a estas restricciones. El funcionamiento detallado
de estos multiplicadores se explica con cierta profundidad en la siguiente sección.

3.3 Método de Multiplicadores de Lagrange


El Método de Multiplicadores de Lagrange es un método generalizado de
programación lineal y no-lineal. Su aplicación se extiende a cualquier problema de
optimización. La única desventaja es que no es un método fácilmente desarrollable. Para
revisar como funcionan los multiplicadores de Lagrange, primero se toma restricciones de
igualdad. Como se dijo anteriormente este tipo de restricciones pueden despejarse dentro
la función objetivo y con técnicas convencionales de cálculo se puede encontrar el punto
4
“Suficiencia” por su traducción textual del inglés Sufficiency.
5
La matriz Jacobiana esta dada por:
⎛ ∂ g1 ∂g n ⎞
⎜ L ⎟
⎜ ∂x1 ∂x1 ⎟
⎜ M O M ⎟
⎜ ∂ g1 ∂g n ⎟
⎜⎜ L ⎟
∂x ∂x n ⎟
⎝ n ⎠

20
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

máximo o mínimo. Sin embargo en algunas ocasiones cuando las funciones no son
polinómicas (pueden ser exponenciales, logarítmicas entre otras) la solución analítica es
difícil de encontrar. Además, cuando las restricciones son numerosas también complica
de manera considerable el despeje.
La demostración de la metodología de los multiplicadores de Lagrange, puede
hacerse de manera algebraica, o de manera geométrica, esta última limitando el espacio
a 3 dimensiones, pero facilitando se compresión. Por esta razón se mencionan a
continuación a las dos metodologías.

3.3.1 Derivación Geométrica [3]


Sea el problema:

Minimizar: f ( x1 , x 2 , x3 )
Sujeto a: h1 ( x1 , x 2 , x3 ) = 0 (3.13)
h2 ( x1 , x 2 , x3 ) = 0

Si se supone que existe una solución factible para el problema (3.13), las superficies
formadas por las restricciones h1 y h2 forman una curva, C, en el espacio tridimensional.
Curva que se puede ver en cualquier ejes coordenados, pero por conveniencia se
muestra (Figura 3.1) proyectada en el plano de los ejes de x1 y x2. Se puede ver que al
manejar restricciones de igualdad es necesario tener una restricción menos que el
número total de variables que ya si se igualan, la intersección no sería una curva sino un
punto, y la solución del problema estaría dada al resolver es sistema de ecuaciones
planteadas en las restricciones.

Figura 3.1 a) Restricciones h1 y h2 en un espacio tridimensional. b) Curva formada por la


intersección de las restricciones.

La solución del sistema (3.13), puede encontrase explorando los valores k, tal que
f(x1; x2; x3) = k, encontrando el punto optimo cuando el valor de k sea máximo. Es
fácilmente demostrable que la superficie formada por f(x1; x2; x3) = kmax es tangente a la
curva C, en P = (x1,opt,x2,opt). El vector gradiente de la función f es perpendicular a la

21
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

misma, y por la propiedad de tangencia que existe entre la curva C y esta función,
también es perpendicular a C. Ahora bien, si se organiza el proceso comenzando por la
intersección de las superficies formadas por f(x1; x2; x3) = k y cualquiera de las
intersecciones se puede ver que el gradiente de las restricciones cumple a su vez la
perpendicularidad con C y f. En otras palabras se dice que los vectores gradientes de las
funciones involucradas en el sistema (3.13), son linealmente dependientes en P, por lo
que existen α1, α2 y α3 pertenecientes a ℜ , no todos 0, tal que:[3]

α1∇f + α 2 ∇h1 + α 3∇h2 = 0 (3.14)

Dado que las dos superficies de las restricciones se interceptan para la formar la
curva C, sus gradientes también deben interceptarse por lo que no existe otro resultado
que α 2 ∇h1 + α 3∇h2 = 0 [3], para satisfacer la ecuación (3.14) por lo que α 1
necesariamente debe ser distinto de 0, y por lo tanto se puede dividir esta ecuación por
este valor. Si se definen los multiplicadores de Lagrange como λ1 = −α 2 / α 1 y
λ2 = −α 3 / α1 , se puede volver a escribir la ecuación (3.14) como:

∇f − λ1∇h1 − λ2∇h2 = 0 (3.15)

Extendiendo el sistema vectorial a un sistema algebraico se obtiene un sistema de 3


ecuaciones con 5 incógnitas, x1opt, x2opt, x3opt, λ1, λ1.

∂f ∂h ∂h
− λ1 ⋅ 1 − λ2 ⋅ 2 = 0
∂x1 ∂x1 ∂x1
∂f ∂h ∂h
− λ1 ⋅ 1 − λ2 ⋅ 2 = 0 (3.16)
∂x 2 ∂x 2 ∂x 2
∂f ∂h ∂h
− λ1 ⋅ 1 − λ2 ⋅ 2 = 0
∂x3 ∂x3 ∂x3

Las ecuaciones de la restricciones del sistema (3.13), dan las otra dos ecuaciones
para completar el un sistema de 5 ecuaciones con 5 incógnitas. Si estas ecuaciones son
lineales, se encuentra una única solución, pero si no son lineales se encuentran varias
soluciones, entre ellas el máximo global o mínimo global, que se esta buscando. Para
otras combinaciones de número de variables y número de restricciones no es necesario
memorizarse las ecuaciones a resolver, para esto se cuenta con la función Lagrangiana, y
el sistema esta dado por las derivadas parciales con respecto a los x y a los λ igualadas a
cero, se obtienen todas las ecuaciones necesarias incluidas las restricciones.

F (x, λ ) = f (x) − ∑ λi ⋅ hi (x) (3.17)


i

22
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

3.3.2 Derivación Algebraica [3]


Aún cuando la derivación geométrica es muy clara, y puede aceptarse para
inclusión de más variables, las tratar con restricciones de desigualdad, es necesario
revisar primero una derivación algebraica. Para comenzar se miran nuevamente el
problema sin este tipo de restricciones, pero al final, una vez descrito el procedimiento, se
extiende a cualquier tipo sistema que se quiera optimizar. Sea entonces:

Minimizar: f ( x)
(3.18)
Sujeto a: hi ( x) = b1 ∀i ∈ [1, m ]

Donde x, es un vector columna de n componentes, y necesariamente, como se


expuso en la sección anterior n > m. Al cumplirse esta relación se pueden escoger m
variables (de x1 a xm) tales que la matriz Jacobiana de m restricciones, tiene una inversa
evaluable en cualquier posible solución de (3.18). Al cumplirse esta condición, y todas las
n – m funciones de restricción restantes, también tengan primera derivada continua, se
pueden reemplazar las primeras m variables en término de las otras n – m [3]. Es decir
xi = g i (x) ) para toda i ∈ [1, m ] y x) = ( x m+1 , x m+ 2 ,K , x n ) t , por lo que la función objetivo se
puede ver como:

f (x) = f (hi (x) ), h2 (x) ),L hm (x) ), x) ) (3.19)

) , por lo que todas las


La cual es una función sin restricciones en el punto óptimo, x o
derivadas parciales con respecto a estas n – m variables son iguales a cero. Si se
extiende esta condición a la totalidad de las variables, haciendo uso de la regla de la
cadena se tiene, en el punto óptimo que:

⎛ m ∂f ∂g k ⎞ ∂f
⎜∑ ⋅ ⎟+ =0 ∀j ∈ [m + 1, n] (3.20)
⎜ ∂x k ∂x j ⎟ ∂x j
⎝ k =1 ⎠

Así mismo las restricciones, que son funciones de las n variables se pueden
expresar en función del vector x) , y aplicando la misma metodología de la regla de la
cadena que se uso con la función objetivo, se tiene (3.21) que a diferencia de su
semejante con la función objetivo no solo se cumple en el punto óptimo, si no en sus
vecindades.

⎛ m ∂hi ∂g k ⎞ ∂g i ∀j ∈ [m + 1, n]
⎜∑ ⋅ ⎟+ =0 (3.21)
⎜ ∂x k ∂x j ⎟ ∂x j
⎝ k =1 ⎠ ∀i ∈ [1, m]

Igualando estas dos ecuaciones, teniendo en cuenta que existen un conjunto de


números reales (los multiplicadores de Lagrange) y remplazando las funciones que
relacionaban unas variables con otras se encuentra la siguiente ecuación.

23
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

m
∂hi (x o ) ∂f (x o )
∑ λi = ∀i ∈ [1, n] (3.22)
i =1 ∂x j ∂x j

Dado que desde el principio se definió la matriz Jacobina como invertible, se puede
demostrar que los valores de los distintos multiplicadores son iguales para todas las
variables. Por ende se tiene nuevamente la función Lagrangiana como base para
encontrar la solución óptima de cualquier sistema, ya sea lineal o no-lineal. Con la
derivación algebraica se pueden incluir restricciones de desigualdad transformando las de
igualdad al aumentar el número de variables. Es decir si una expresión necesariamente
tiene que ser menor que cierto número dado, es equivalente a decir que esta expresión
más nueva variable elevada al cuadrado es igual a dicho número. Como la explicación
algebraica no nos obliga a quedarnos en un solo espacio, es factible hacer este cambio y
plantear las derivadas parciales del Lagrangiano incluida la correspondiente a esta nueva
variable y realizar todo el procedimiento.

3.4 Método del Gradiente Reducido


El Método del Gradiente Reducido, desarrollado por primera vez en 1963 por Wolfe
para resolver problemas cuya ecuación objetivo fuera no-lineal, y sus restricciones
lineales. En la actualidad se sigue utilizando este método exclusivamente para estas
condiciones [Koskito, Ellingwood, 1997], aunque ya en su forma generalizada [Abadie,
Carpentier, 1969] permite el manejo de restricciones no-lineales [2].
El Método del Gradiente Reducido de Wolfe, se explica a continuación, para mayor
profundización dirigirse a [2]. Se formula entonces un problema de la siguiente manera:

Minimizar: f ( x)
Sujeto a: Ax = b (3.23)
x≥0

En donde A es una matriz de m × n con rango igual a m, b es un vector de m


componentes y f es una función tal que es continuamente derivable en el espacio n-
dimensional. Se considera entonces, sin pérdida de generalidad, que la matriz tiene m
columnas linealmente independientes, por lo que todo punto extremo de una solución
viable tiene m componentes distintos de cero, y dadas las condiciones en (3.23),
positivos. Las demás componentes (n – m) pueden tomar valores de cero. Es por esto
que se puede descomponer la matriz A en [B, N], y la solución xt en [ x tB , x tN ]. En donde B
es ahora una matriz cuadrada de m × m y por esto es invertible, por lo que se hace
necesario que la primera parte en la que se descompuso el vector solución tiene
componentes mayores a cero. Esta parte es conocida como el vector básico [2], y xN
como el vector no básico. Siguiendo esta filosofía, el gradiente de la función objetivo
( ∇f (x) t ) también se descompone en la unión de dos vectores, un gradiente con respecto
al vector básico y un gradiente con respecto al vector no básico.
Para llegar a la respuesta óptima de cualquier problema, es necesario tener una
dirección adecuada, como se discutió anteriormente. Sea dt el vector de esta dirección, el
t t
cual también se puede descomponer en [ d B , d N ], vector no – básico y básico

24
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

respectivamente. Nótese que la posición de los vectores en el vector total vario con
respecto a la posición que se estaba llevando hasta el momento. Esto es porque el que
define la posición de los vectores y las matrices B y N es el conjunto de índices de los m
mayores partes de x, en cada posición de la parte básica y la parte no básica es la
misma, pero esta varia al comenzar cada nuevo ciclo.
Antes de entrar al algoritmo es necesario definir un último vector denominado
gradiente reducido, finalmente es el que le da nombre al método. El gradiente reducido
es:

r t = ∇f (x) t − ∇ B f (x) t ⋅ B −1 ⋅ A (3.24)

Es fácilmente demostrable [2] que, dada la definición de gradiente reducido, se


cumple ∇f (x) ⋅ d = rN ⋅ d N , ecuación fundamental para la aplicación del algoritmo.
t t

3.4.1 Algoritmo de Método de Gradiente Reducido (Adaptado de Bazaraa,


[2])
1. Para empezar la convergencia, se debe tomar un vector xk, cuya única condición
sea cumplir con las restricciones de la optimización, es decir A·xk = b, sea k = 1.
2. Se define Ik como el conjunto de m índices correspondientes a los m mayores
componentes de xk. Hay que recordar que m es el rango de la matriz A.
3. La matriz B queda definida por los vectores columna de la matriz A, cuyos índices
pertenecen a Ik, y la matriz N queda entonces definida por los vectores columna
sobrantes.
4. Calcular r como se definió en (3.14).
⎧− r j → j ∉ I k y r j ≤ 0 ⎫
5. Calcular dN de la siguiente manera: d j = ⎨ ⎬
⎩− x j ⋅ r j → j ∉ I k y r j > 0 ⎭
6. Calcular dB de la siguiente manera: d B = − B −1 ⋅ N ⋅ d N
7. Calcular dk como el vector compuesto por estas dos partes. Es importante recordar
que este vector debe ser armado de acuerdo a las posiciones en Ik y a dN y dB.
8. Si dk es igual al vector nulo, se ha llegado a la solución óptima6 y se para el
algoritmo. De no ser así, se debe proseguir al paso 9.
9. Encontrar la solución al siguiente sistema:
Minimizar: f(xk + λdk)
Sujeto a: 0 ≤ λ ≤ λ max
⎧ ⎛ − x jk ⎞ ⎫
⎪min⎜ : d jk > 0 ⎟ → d k < 0⎪
donde: λmax =⎨ ⎜ d jk ⎟ ⎬
⎝ ⎠
⎪∞ → d ≥ 0 ⎪
⎩ k ⎭
Problema de optimización que se puede resolver con herramientas de cálculo
diferencial, ya que el mínimo de f(xk + λd), función que solo depende de λ, se
encuentra bien sea en los extremos del dominio o en los probables mínimos

6
La solución óptima corresponde al punto de las condiciones KKT.

25
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

locales. Se tiene ahora que xk+1 = xk + λdk, y se vuelve al segundo paso haciendo k
= k + 1.

Nota sobre el algoritmo


Si al empezar una nueva iteración uno o más elementos del Ik cambian con respecto
a Ik+1, se debe hacer un cambio en la matriz A para tener en cuenta las variables que
dejan la base y las que entran a esta. Este cambio depende de la ubicación de las
variables dentro de la matriz y dentro de la base. Para ilustrar como debe efectuarse este
cambio en la matriz A, se hace uso del siguiente ejemplo:
Sea A·x = b en forma extendida:

⎡ x1 ⎤ ⎡ b1 ⎤
⎡ a11 a12 a13 a14 ⎤ ⎢ x 2 ⎥ ⎢b2 ⎥
⎢a ⋅⎢ ⎥ = ⎢ ⎥ (3.25)
⎣ 21 a 22 a 23 a 24 ⎥⎦ ⎢ x3 ⎥ ⎢b3 ⎥
⎢ ⎥ ⎢ ⎥
⎣ x 4 ⎦ ⎣b4 ⎦

Si I1 es igual a {2,3} se puede hacer una tabla que contenga la matriz A, y


representar la base de la siguiente manera:

Tabla 3.1. Representación de la matriz A dependiendo de I1


I1 = {2,3} x1 x2 x3 x4
x2 a11 a12 a13 a14
x3 a21 a22 a23 a24

Si es necesario cambiar de base, por ejemplo I2 = {1,3} se efectúan operaciones que


se conocen como operaciones de pivotaje para cambiar a la siguiente matriz A. La fila
correspondiente a la variable que deja la variable que deja la base, se vuelve ahora la fila
de la variable que entra dividiéndola por el valor que se encuentra en la columna
correspondiente a la variable que entra. Las demás filas en la matriz se les resta la fila
elaborada en el paso anterior multiplicada por la casilla de la columna de la variable que
entra que se encuentra en la fila que se esta modificando. Para ilustrar mejor el ejemplo,
la tabla se la segunda iteración sería:

Tabla 3.2. Modificación de la matriz A de acuerdo a I1


I2 = {1,3} x1 x2 x3 x4
a11 a12 a13 a14
x1
a11 a11 a11 a11
a11 a12 a13 a14
x3 a 21 − a 21 a 22 − a 21 a 23 − a 21 a 24 − a 21
a11 a11 a11 a11

3.5 Programación Cuadrática


La Programación Cuadrática es la base para el Método de Programación Sucesiva
de Cuadrados, método que como se vio en la introducción de este Capítulo, es de gran

26
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

utilidad para resolver problemas en el Diseño Óptimo Basado en Confiabilidad. Los


problemas con los que trabaja este tipo de programación se pueden describir de la
siguiente manera:

n n n
Minimizar: ∑ c j x j + ∑∑ c jk x j xk
j =1 j =1 k =1
Sujeto a: n (3.26)
∑ aij x j = bi , ∀ i ∈ [1, m]
j =1
xj ≥ 0 ∀ j ∈ [i, n]

donde aij, bij y cij ∈ ℜ . La formulación de la función objetivo es tal, que esta incluye
los cuadrados de las n variables y las combinaciones cuadráticas entre ellas. Además se
incluyen las variables en su forma lineal. El sistema (3.26) tiene n variables y m
restricciones, y resulta general si se tiene en cuenta las siguientes variaciones [3]:
a. La minimización de una función puede verse como la maximización de la función
multiplicada por -1.
max( f (x)) = min(− f (x))
b. Restricciones de desigualdad, pueden incluirse al adicionar una variable no
negativa a la restricción en cuestión.
a⋅x ≤ b ⇒ a⋅x − y = 0 ∧ y ≥ 0
c. Si existen variables sin restricción de negatividad, estas se pueden remplazar por
dos variables restringidas de tal modo la variable remplazada sea la resta de las
nuevas variables.
xi → sin restricción
Se remplaza por : xi = xiA − xiB
xiA ≥ 0 ∧ xiB ≥ 0
Haciendo uso del álgebra lineal y para comprimir un poco la expresión (3.26), esta
se puede escribir de la siguiente manera:

1
Minimizar: ct x + xt D ⋅ x
2
(3.27)
Sujeto a: A⋅x = b
x≥0

Como en los métodos anteriores, x y b son vectores columna, y en este caso el


nuevo vector que contiene los coeficientes de las partes lineales, c, también lo es.
Siguiendo esta filosofía, A es una matriz m × n y D es una matriz cuadrada de n × n que
tiene la particularidad de ser simétrica. Si partimos de la segunda parte de la función
objetivo en (3.26), la matriz D se puede organizar de la siguiente forma [3]:

d jj = 2 ⋅ c jj ∀ j=k
(3.28)
d jk = d kj = c jk ∀ j<k

27
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

Ahora bien, denotando el vector de los multiplicadores de Lagrange de las


restricciones de tipo A·x = b como λ y el vector de los multiplicadores de Lagrange de las
restricciones x ≥ 0 como ν, y el vector de las variables adicionales para quitar las
restricciones de desigualdad como y, las condiciones KKT se pueden escribir como:

A·x + y = b
− D·x − A t λ + ν = c
xt ν = 0 (3.29)
λt y = 0
x, y , λ, ν ≥ 0

Si consideramos las siguientes definiciones:

⎡0 − A⎤ ⎡b ⎤ ⎡y ⎤ ⎡λ ⎤
M=⎢ t ⎥ ; q = ⎢ ⎥; w = ⎢ ⎥; z = ⎢ ⎥ (3.30)
⎣A D ⎦ ⎣c ⎦ ⎣ν ⎦ ⎣x ⎦

Podemos plantear un problema lineal que nos lleve a la solución de la programación


cuadrática; este problema es:

w − Mz = q, w t z = 0, (w, z) ≥ 0 (3.31)

y se llama problema lineal complementario y se discute en la siguiente sección.

3.5.1 Problema Lineal Complementario


El problema lineal complementario consiste en encontrar dos vectores, w y z tales
que satisfagan:

w − Mz = q
w j ≥ 0 , z j ≥ 0 ∀ j ∈ [1, p ] (3.32)
w j x j = 0 ∀ j ∈ [i, p ]

Donde M es una matriz p × p y q es un vector de p componentes. Para encontrar


una solución al sistema (3.32), es conveniente adicionar una nueva variable z0 [2]. Si se
nombra 1 al vector columna de p componentes todas iguales a la unidad, podemos
modificar el problema lineal de la siguiente manera:

28
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

w − Mz − 1z 0 = q
w j ≥ 0 , z j ≥ 0 ∀ j ∈ [1, p ]
(3.33)
w j x j = 0 ∀ j ∈ [i, p ]
z0 ≥ 0

Si z = 0, w = q + 1z0 y z0 = max {-qi: 1 ≤ i ≤ p}, se tiene la solución de la primera


iteración del algoritmo que lleva a la variable ajena al sistema original a 0, y a satisfacer
(3.32).

3.5.1.1 Algoritmo del Problema Lineal Complementario


Aunque existen varias alternativas para resolver el problema lineal complementario,
(3.32), a continuación se presenta la solución propuesta por Lemke, esta es una
adaptación de Bazzara [2].
1. Inicialización: Si q ≥ 0, se tiene la solución al problema dada por (w, z) = (q, 0). De
lo contrario es necesario cambiar el sistema (3.32) por el sistema extendido (3.33)
y organizar el sistema en una tabla como se muestra a continuación. Se define la
fila s aquella que contenga el valor de qs, siendo este definido como:
− q s = max{− qi : 1 ≤ i ≤ p} . Antes de ir a la primera iteración se pivota con
respecto a la fila s y a la columna z07. Sea zs = zs.

Tabla 3.3. Tabla Problema Lineal Complementario, antes de ser pivotada


por la inicialización
w1 ··· wp z1 ··· zp z0 RHS
w1 1 0 0 0 0 -1
· 0 1 0 0 0 -1
·
·
0
0
0
0
1
0
0
1
0
0
–M -1
-1
q
wp 0 0 0 0 1 -1

2. Sea ds el vector columna correspondiente a la variable ys una vez actualizado, si


todas las componentes de este son menores o iguales de 0, es necesario aplicar
una “terminación de rayo”, esta es explicada en el paso 5. De no ser así, es
necesario determinar el índice r por una prueba de mínima proporción.

qr ⎧q ⎫
= min ⎨ i : d is > 0⎬ (3.34)
d rs ⎩ d is ⎭

Donde q es el vector de la derecha, bajo el nombre de RHS, una vez actualizada.


Si la variable en la base (primera columna a la izquierda) de la fila r es z0 se sigue
al paso 3, de no ser así se continua con el paso 4.

7
Este procedimiento se explica en la nota sobre el algoritmo del Método de Gradiente Reducido.
Pagina 25.

29
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

3. Dado que la variable que entra a la base es ys y la variable que sale de la misma
es z0 se pivota por última vez con respecto a la fila r y la columna s, produciendo la
solución al sistema lineal complementario. Se detiene el algoritmo.
4. La variable que sale de la base corresponde a la fila r es un w o un z diferenta a la
que corresponde a la fila ys, que precisamente es la variable que entra. Se pivota
de acuerdo a la fila r y la columna s, y de define la nueva variable ys dependiendo
de la variable que dejó la base. Si r correspondía a wk, ys = zk y si r correspondía a
zk, ys = wk. Se vuelve al paso 2 con esta nueva variable.
5. El algoritmo para con una terminación rayo. Se debe encontrar un rayo
R = {(w , z , z 0 ) + λd : λ ≥ 0}
tal que en cada punto de estos se satisfaga (3.33). Esta entonces es una solución
quasi-complementaria asociada a la última tabla, y d es la dirección extrema teniendo un
1 en la fila correspondiente a ys.

3.6 Programación Cuadrática Sucesiva (SQP8)


Como se anticipó en la introducción de este capítulo, el Método de Programación
Cuadrática Sucesiva es utilizado en toda clase de problemas no-lineales, sin importar la
naturaleza de sus restricciones, ya sean estas de igualdad, o desigualdad; o bien lineales
o no lineales. Para aclarar el funcionamiento del método, como se ha venido haciendo
hasta ahora, inicialmente se descubre el problema utilizando restricciones de igualdad,
pero más adelante este se extiende para incluir todo tipo de restricciones.
La Programación Cuadrática Sucesiva parte de resolver directamente las
condiciones KKT, por lo que es necesario tener en cuenta el método de multiplicadores de
Lagrange presentado anteriormente. Además, como su nombre lo indica, el algoritmo que
aquí se presenta se apoya en la Programación Cuadrática expuesta en la sección
anterior. Para llegar a una solución la principal condición es que todas las funciones
presentadas en el sistema (3.35) sean continuas y doblemente derivables.
Dado el sistema:

Minimizar: f (x)
(3.35)
Sujeto a: hi (x) = 0 ∀ i ∈ [1, m]

Por los multiplicadores de Lagrange se sabe que una solución de este sistema debe
cumplir:

l
∇f (x) + ∑ λi ∇hi (x) = 0
i =1 (3.36)
hi (x) = 0 ∀ i ∈ [1, m]

Ahora bien, este sistema de ecuaciones se puede escribir de manera más compacta
como W(x, λ), por el método de Newton – raspón se puede minimizar una función en la
cual (3.36) represente la condición de primer orden que iguale el gradiente a cero [2]. Por

8
A la programación cuadrática sucesiva se le llama SQP por las siglas del método en inglés:
Sequential Quadratic Programming

30
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

lo tanto dada una solución de la primera iteración, (xk, λk), se puede encontrar la segunda
iteración resolviendo la aproximación de primer orden:

⎡x − x k ⎤
W ( x k , λ k ) + ∇W ( x k , λ k ) ⎢ ⎥=0 (3.37)
⎣λ − λ k ⎦

Donde ∇W es el Jacobiano de W, y la iteración (xk+1, λk+1) esta dada por la solución


(x, λ). Si a la matriz Hessiana del Lagragiano en el punto xk con multiplicadores de
2
Lagrange λk se nombra ∇ L(x k ) , y ∇h es el Jacobiano de h cuyas filas constan de
∇hi (x) t para i ∈ [1, m] , se puede calcular el Jacobiano de W como:

⎡∇ 2 L(x k ) ∇h(x k ) t ⎤
W (x k , λ k ) = ⎢ ⎥ (3.38)
⎣⎢ ∇h(x k ) 0 ⎦⎥

Con la formulación de los multiplicadores de Lagrange presentada en (3.36), y la


expresión para el Jacobiano de W, y remplazando x – xk = d se puede escribir la
aproximación de primer orden como:

∇ 2 L(x k )d + ∇h(x k ) t λ = −∇f (x)


(3.39)
∇h(x k )d = −h(x k )

Ahora bien, si existe la solución para el sistema planteado, este se puede resolver
para (d, λ) = (dk, λk+1), y hacer xk+1 = xk + dk. Se incrementa k hasta encontrar d = 0. Una
vez estudiada la programación cuadrática en la sección anterior, se puede establecer u
sub-programa que pueda resolver con esta clase de programación y cuyo mínimo
represente las mismas condiciones de (3.39). Se identifica la programación cuadrática
como QP, por sus siglas en inglés, para diferenciarlo del sistema original (3.35) [2].

QP(xk, λk):
1
Minimizar: f ( x k ) + ∇f ( x k ) t d + d t ∇ 2 L( x k )d (3.40)
2
Sujeto a: hi (x) + ∇hi (x) d = 0 ∀ i ∈ [1, m]
t

El primer término de la función objetivo no interviene a la hora de la evaluación ya


que este al ser evaluado en xk se convierte en una constante. Adicionalmente es
importante aclarar que ∇ 2 L(x k ) debe ser una matriz definida positivamente para que el
método converja. Si se cumple esta condición, y la solución inicial se encuentra lo
suficientemente cerca al punto óptimo, el algoritmo hasta aquí planteado tiene muy
buenos resultados.

31
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

3.6.1 Programación Cuadrática Sucesiva Rudimentaria


El algoritmo de la programación cuadrática teniendo en cuenta las condiciones de la
2
matriz ∇ L(x k ) y de la proximidad de la primera iteración, consta de tan solo dos pasos.
1. Sea k = 1, seleccionar una solución dual inicial. Dual hace referencia a que no es
sólo seleccionara el vector xk sino que también es necesario seleccionar el vector
de los multiplicadores de Lagrange. Se recomienda hacer λk = 0.
2. Resolver el subproblema QP(xk, λk), obteniendo así la solución dk y los
multiplicadores de Lagrange de la siguiente iteración. Si dk = 0, se tiene la solución
óptima en (xk, λk+1), si no es así, xk+1 = xk + dk se incrementa k en uno y se itera
este paso.
Este algoritmo no se ve afectado al tener en cuenta las restricciones de tipo de
desigualdad, si se separan los multiplicadores de Lagrange de las restricciones de
igualdad y las restricciones de desigualdad, λ y ν, respectivamente, el sistema cuadrático
complementario sería:

QP(xk, λk):
1
Minimizar: f ( x k ) + ∇f ( x k ) t d + d t ∇ 2 L( x k )d
2 (3.41)
Sujeto a: hi (x) + ∇hi (x) t d = 0 ∀ i ∈ [1, m]
g i (x) + ∇g i (x) t d ≤ 0 ∀ i ∈ [1, l ]

La solución de este sistema es entonces dk, junto con los multiplicadores de


Lagrange λk+1, νk+1. El procedimiento del algoritmo rudimentario es igual a que si no se
tuvieran desigualdades.

3.6.2 Programación Cuadrática Sucesiva Completa


Como se mencionó anteriormente, para poder implementar la programación
cuadrática sucesiva rudimentaria con éxito, es necesario que la matriz Hessiana del
Lagrangiano cumpla con ciertas propiedades y que la primera iteración este muy cerca de
la solución. Condiciones que se vuelven complicadas cuando se tiene una cantidad
considerable de variables y restricciones, ya que la solución de la primera iteración no
solo incluye las variables sino también los multiplicadores de Lagrange para cada
restricción. La primera desventaja que se resolverá será la correspondiente a la matriz
Hessiana del Lagrangiano.

3.6.2.1 Aproximaciones “Quasi – Newton”


Para que el algoritmo de la programación cuadrática sucesiva funciones es
2
necesario que ∇ L(x k ) , este definida positiva. Una matriz es definida positiva cuando
sus eigenvalores son estrictamente positivos. En muchos casos de optimización, esta
matriz tiene eigenvalores negativos o cero, lo que hace que no sea definida
positivamente, para esto es importante antes de comenzar la k–esima iteración, hacer
esta revisión y de ser necesario cambiar la matriz por una aproximación quasi-Newton
2
definida positiva. Es decir teniendo una aproximación Bk de ∇ L(x k ) , se puede resolver

32
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

el algoritmo planteado anteriormente cambiando ∇ 2 L(x k ) por Bk. Siguiendo el


procedimiento se obtienen una única solución para, el problema cuadrático
complementario: (dk, λk+1, νk+1). Haciendo uso de la fórmula Broyden-Fletcher-Goldfarb-
Shanno (BFGS) se puede encontrar la matriz B para la siguiente iteración como:

q k q tk Bk pk pk Bk
B k +1 = B k + −
q tk p k p tk B k p k
Donde: p k = x k +1 − x k
(3.42)
q k = ∇L' (x k +1 ) − ∇L' (x k )
m l
∇L' (x) = ∇f (x) + ∑ λ( k +1)i ∇hi (x) + ∑ν ( k +1)i ∇g i (x)
i =1 i =1

Una primera aproximación para la matriz B, se obtiene definiendo un parámetro δ >


0, y encontrar B = (εI + ∇ 2 L(x k ) )-1. Donde I es la matriz identidad y ε es el menor número
real mayor o igual a cero que hace los eigenvalores de (εI + ∇ 2 L(x k ) ) mayores o iguales
a δ. Esto garantiza que la matriz que entra en el algoritmo de la programación cuadrática
sucesiva sea definida positiva.

3.6.2.2 Función de Ventaja


Una vez resuelto el problema que se puede presentar en algunas ocasiones en la
matriz Hessiana requerida, solo falta por discutir la gran desventaja que se tienen cuando
se empieza con un punto lejos del óptimo, el algoritmo no parece converger ya que es
muy lento cuando se tienen cortas direcciones d. Para esto se introduce el concepto de la
función de ventaja9[2]. Esta función ayuda a guiar cada iteración más cerca de la solución,
sin importar que tan lejos este. En otras palabras hace que el algoritmo converja más
rápido de lo normal. Como función de ventaja es popularmente usada la función de
penalidad l1[2]. Para el problema planteado en (3.41) la función de ventaja sería [2]:

⎡ l m ⎤
FE (x) = ( f (x) + µ ⎢∑ max{0, g i (x)} + ∑ hi (x) ⎥
⎢⎣ i =1 i =1 ⎥⎦ (3.43)
Donde: µ ≥ max{ν 1 ,L ,ν l , λ1 ,L , λ m }

Donde υi y λi son los multiplicadores de Lagrange correspondientes a las


restricciones de desigualdad e igualdad respectivamente.

3.6.2.3 Algoritmo General de la Programación Cuadrática Sucesiva


1. Sea k = 1, seleccionar una solución factible inicial. Seleccionar una aproximación
Bk de la matriz Hessiana del Lagragiano, teniendo en cuenta que en la solución
factible los multiplicadores de Lagrange asociados a las restricciones de

9
En inglés es llamada Merit Funtion o función mérito, pero la traducción más apropiada es ventaja
y no mérito.

33
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

desigualdad deben ser iguales o mayores a cero. Nuevamente se recomienda que


los multiplicadores escogidos para la primera iteración sean iguales a cero. La
2
aproximación Bk, puede ser la misma ∇ L(x k ) .
2
2. Resolver el subproblema cuadrático remplazando ∇ L(x k ) por Bk obteniendo la
solución (dk, λk+1, νk+1). Si el vector de direcciones es igual al vector nulo, se tiene
que xk es el vector solución. De no ser así continuar con el siguiente paso.
3. Sea xk+1 = xk + αkdk. Donde αk minimiza FE(xk + αdk) sujeto a α ≥ 0.
4. Se actulaliza la matriz Bk a la matriz definida positiva Bk+1, donde esta matriz
puede ser la misma Bk o ∇ 2 L(x k +1 ) . Se incremente al contador k en uno y de
vuelve al paso 2.

3.7 Cálculo del Índice de Confiabilidad β por Medio de Técnicas de


Optimización
El índice de confiabilidad o parámetro β, se puede calcular encontrando la distancia
más corta entre el origen y la curva o superficie que describe la función de estado límite.
Si esta función es lineal encontrar esta distancia es trivial. En ocasiones esta función es
no lineal o altamente no lineal, para esto se han establecido métodos como FORM
(Capítulo 1) para encontrar es distancia o al menos una aproximación adecuada. Una vez
estudiados los métodos de optimización no-lineal, se puede hacer uso de estos para
encontrar esta distancia. La programación sucesiva de cuadrados al involucrar toda clase
de sistemas de optimización es bastante útil para este ejercicio ya que tanto la función
objetivo como las restricciones son no-lineales.

3.7.1 Función moderadamente no lineal


Supongamos que la función de estado límite depende de dos parámetros
únicamente (X, Y), y esta dada por: h(X,Y) = Y3 + X2 + X·Y – 60·Y2 – 220·X + 1100·Y +
3900. Los dos parámetros siguen una distribución normal cuya media y desviación
estándar aparecen en la siguiente tabla.

Tabla 3.4. Medias y Desviaciones Estándar de los Parámetros de


la ecuación de estado límite
Parámetro Media Desviación Estándar
X 100 1
Y 20 1

Haciendo la transformación vista en el Capítulo 1, se puede llegar a tener la función


de estado límite en el espacio reducido, si llamamos x y y las variables reducidas se tiene
que h( x, y ) = y 3 + x 2 + x ⋅ y − 100 = 0 . Esta sería la única restricción en el sistema a
optimizar, y la función objetivo estaría dada por la función de distancia entre el origen y
cualquier punto, x 2 + y 2 . Al ser la función raíz siempre creciente, maximizarla (o
minimizar) tiene el mismo sentido que maximizar (o minimizar) la función interna. Para
nuestro caso el sistema que se quiere representar, ilustrado en la Figura 3.2 es:

34
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

Minimizar: f ( x, y ) = x 2 + y 2
(3.44)
Sujeto a: h( x, y ) = y 3 + x 2 + x ⋅ y − 100 = 0

Se observa en que la restricción de tipo igualdad no acota un espacio, la solución


puede estar cualquier zona de la línea oscura, es decir los valores de las variables x y y
pueden ir desde –∞ a +∞. Es factible, como se dijo en la sección que describe este tipo de
restricciones, encontrar la ecuación de esta parábola oscura y = f ( x ) y con herramientas
del cálculo diferencial encontrar el valor de x para el cual la función toma su valor mínimo,
luego con la restricción encontrar el valor de y. Este procedimiento es sencillo a la hora de
evaluar funciones de estado límite sencillas, pero cuando estas se complican es mejor
seguir el procedimiento de una programación cuadrática sucesiva que, como se verá más
adelante, se simplifica para este tipo de problemas.

Figura 3.2. Función objetivo y línea de restricción


de los parámetro x, y.

Antes de comenzar el algoritmo es conveniente encontrar la formulación de los


vectores gradientes y matrices Hessianas de las dos funciones.

Gradientes: ⎛ 2x ⎞ ⎛ 2x + y ⎞
∇f ( x, y ) = ⎜⎜ ⎟⎟ ∇h( x, y ) = ⎜⎜ 2 ⎟⎟
⎝2y⎠ ⎝2y + x⎠
Hessianas: ⎛ 2 0⎞ ⎛2 1 ⎞
∇ 2 f ( x, y ) = ⎜⎜ ⎟⎟ ∇ 2 h( x, y ) = ⎜⎜ ⎟⎟
⎝ 0 2⎠ ⎝1 6y⎠

Para este tipo de problemas, cálculo de β, se simplifica de manera considerable el


algoritmo, ya que la matriz Hessiana de f es siempre igual a la matriz identidad
multiplicada por 2. El gradiente también tiene la misma forma sin importar el número de
variables involucradas. El gradiente y la Hessiana que corresponden a la ecuación de
estado límite no tienen ninguna forma definida, ya que esta podría ser cualquier función.
Es por esto la dificultad de manejar el algoritmo en un lenguaje de programación radica
exclusivamente en el cálculo por métodos numéricos de este vector y esta matriz. La
matriz Hessiana del Lagrangiano, con un solo valor λ, por tener una sola restricción es:

35
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

⎛ 2 + 2λ λ ⎞
∇ 2 L( x, y , λ ) = ⎜⎜ ⎟
⎝ λ 2 + 6· y·λ ⎟⎠

Para desarrollar este ejercicio, se creo una secuencia de funciones en Mathcad 11


donde se tienen, por comodidad al momento de pasar el código a otro lenguaje, las
derivadas calculadas con métodos numéricos y por lo tanto el código es ejecutable sin
importar el número de variable. Estas funciones se presentan en el Apéndice A, con todos
los comentarios explicatorios. Para presentar estas funciones se pidieron resultados más
particulares de todos los vectores, matrices y parámetros necesarios, pero el
funcionamiento es exactamente el mismo que el presentado en el apéndice.

Primera Iteración
La primera solución dual propuesta es: x1 = 0.50, y1 = 4.60 y λ1 = 0.00. Con esta se
puede calcular la matriz Hessiana del Lagrangiano, y sus eigenvalores:

⎛ 2 0⎞ ⎛ 2⎞
∇ 2 L( x1 , y1 , λ1 ) = ⎜⎜ ⎟⎟ eigenvalores(∇ 2 L) = ⎜⎜ ⎟⎟
⎝ 0 2⎠ ⎝ 2⎠

Como los valores propios de la matriz, para esta iteración fueron positivos, la matriz
esta definida positiva, por lo que no es necesario aproximarla por métodos Quasi-Newton,
o lo que es lo mismo se dice que B1 = ∇ 2 L( x1 , y1, λ1 ) . Para poder armar el sistema lineal
complementario es necesario calcular los valores de los vectores gradientes de las dos
funciones en este punto, y el resultado de la función h, este último se conoce de ante
mano ya que es con esta restricción que se obtienen los valores de la primera iteración.
h(x,y) = 0 para cualquier iteración .

⎛ 5.60 ⎞ ⎛ 1.00 ⎞
∇h( x1 , y1 ) = ⎜⎜ ⎟⎟ ∇f ( x1 , y1 ) = ⎜⎜ ⎟⎟
⎝ 64. 03 ⎠ ⎝ 9. 20 ⎠

El problema lineal complementario definido por w – M·z = q, en este tipo de


problemas con los restricciones de igualdad y sin restricción alguna para los parámetros
en z, tienen una solución particular. w es el vector unión de los vectores de las variables
extras (restricciones de desigualdad) y los multiplicadores de Lagrange de las
restricciones de no negatividad. Como este vector es nulo, la solución de z está dada por
M-1·(-q). Donde la matriz M es siempre invertible dado su proveniencia. Para esta iteración
se tiene la siguiente linealización para el problema cuadrático complementario.

QP1 Æ ⎛ 0 − 5.60 64.03 ⎞ ⎛ 0.00 ⎞ ⎛ 0⎞ ⎛ λ2 ⎞


⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
M = ⎜ 5.60 2 0 ⎟ q = ⎜ 1.00 ⎟ w = ⎜ 0⎟ z = ⎜ d1 ⎟
⎜ 64.03 0 2 ⎟⎠ ⎜ 9.20 ⎟ ⎜ 0⎟ ⎜d ⎟
⎝ ⎝ ⎠ ⎝ ⎠ ⎝ 2⎠

36
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

⎛ − 0.14 ⎞
solución ⎜ ⎟
z = ⎜ − 0.10 ⎟
⎜ 0.01 ⎟
⎝ ⎠

Tomando los valores correspondientes al algoritmo global de la programación


cuadrática sucesiva, el vector solución z se distribuye como: λ2 = –0.14, dx1 = –0.10 y dy1 =
0.01. Como el vector de la dirección encontrada no es 0, se encuentra otros valores para
x y y continuando así con siguiente iteración, k = 2.

Segunda Iteración
Con: x2 = 0:40, y2 = 4:61 y λ2 = –0.14, se calcula la matriz Hessiana del Lagrangiano
y sus valores propio. Es importante resaltar que en esta ocasión la función de ventaja no
tuvo mayor implicación sobre los valores de la segunda iteración, estos resultaron siendo
los valores de la iteración anterior sumados con las direcciones halladas.

⎛ 1.72 − 1.44 ⎞ ⎛ 1.72 ⎞


∇ 2 L( x 2 , y 2 , λ 2 ) = ⎜⎜ ⎟⎟ eigenvalores(∇ 2 L) = ⎜⎜ ⎟⎟
⎝ − 1.44 − 1.98 ⎠ ⎝ − 2.00 ⎠

Como estos valores no son todos positivos es necesario hacer una aproximación B2
que en esta ocasión no es igual a ∇ 2 L( x 2 , y 2 , λ 2 ) , para esto se sigue una aproximación
quasi – Newton (página 32). Esta matriz, junto con los otros valores necesarios se
encuentran a continuación.

⎛ 0.28 0.05 ⎞ ⎛ 5.42 ⎞ ⎛ 0.81⎞


B 2 = ⎜⎜ ⎟⎟ ∇h( x 2 , y 2 ) = ⎜⎜ ⎟⎟ ∇f ( x 2 , y 2 ) = ⎜⎜ ⎟⎟
⎝ 0.05 1.41 ⎠ ⎝ 64.17 ⎠ ⎝ 9.22 ⎠

Una vez armada la linealización del problema cuadrático complementario, de


acuerdo a lo explicado en la iteración anterior se puede calcular el resultado de esta: λ3 =
–0.14, dx2 = –0.12 y dx2 = 0.01. Al no ser un vector dirección nulo, se sigue con la siguiente
iteración k = 3. El procedimiento es igual al planteado en la esta iteración ya que de ahora
en adelante hasta que converja es necesario usar la aproximación de la Hessiana. Esta
se va a actualizar siguiendo la metodología planteada anteriormente y teniendo la
aproximación anterior.

Finalización del Proceso


Para terminar el proceso fueron necesarias 4 iteraciones, el resumen de estas se
encuentra en la siguiente tabla:

Tabla 3.5. Resumen de las iteraciones para encontrar el índice de


confiabilidad usando SQP
λk+1 dxk dyk xk+1 yk+1
1. -0.14 -0.10 0.01 0.40 4.61
2. -0.14 -0.12 0.01 0.38 4.61
3. -0.14 0.11 0.01 0.39 4.61
4. -0.14 0.00 0.00 - -

37
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

La cuarta Iteración da como resultado un vector dirección igual a 0, por lo que se


encuentra el punto óptimo. Es importante ver como el multiplicador de Lagrange no varía
mucho de iteración en iteración y al parecer la segundo componente de la dirección no
afecta a y como debería, esto se debe que en el resultado se están mostrando
aproximados a dos cifras decimales, y los cambios están ocurriendo porciones más
pequeñas. Para el trabajo en ingeniería civil no es necesario presentar más cifras
decimales ya que la incertidumbre que se tiene en todos los cálculos es mucho mayor que
esta precisión. Ahora bien, teniendo los valores de las dos variables que entran en el
cálculo específico de esta función, se puede determinar el valor del índice de
confiabilidad. Al evaluar el algoritmo del SQP se omitió la raíz en la función objetivo
argumentando la naturaleza siempre creciente de esta, pero en el momento de evaluar β
es importante resaltar que este se debe hacer con la raíz, ya que la función hace parte de
su significado. Es entonces, β = 0.39 2 + 4.612 = 4.63 . Con FORM, la solución que se
tiene es β = 4.64, exactamente igual a la que se tiene, esto es para una función
moderadamente no – lineal, más adelante se analizará que pasa con la diferencia entre el
SQP y el FORM si la función es muy no – lineal. En las siguientes gráficas se puede ver el
procedimiento del SQP para el cálculo de este parámetro tan importante para la
confiabilidad estructural.

Figura 3.3. Función de estado límite en el plano xy. Punto


óptimo calculado por medio de SQP.

38
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

Figura 3.4. Seguimiento de los pasos del algoritmo hasta


encontrar el punto óptimo.

3.7.2 Función muy no lineal


El método del FORM se basa en una aproximación lineal de la función de estado
límite, por esta razón es razonable pensar que entre menos lineal que sea la función
FORM no debe poder calcular la probabilidad de falla y un algoritmo como el presentado,
con base en SQP La función en el espacio real que se escogió fue X10 + Y3·X2 – 200 = 0 y
las propiedades de cada variable se encuentran enunciadas a continuación:

Tabla 3.6. Medias y Desviaciones Estándar de los Parámetros de


la ecuación de estado límite
Parámetro Media Desviación Estándar
X 10 1
Y 2 0.02

Siguiendo el mismo procedimiento que para la función moderadamente no lineal,


haciendo uso del algoritmo del Apéndice A, y una vez habiendo transformado las
variables al espacio reducido se encontró que el valor del índice de confiabilidad era de
3.36. Para encontrar este valor el programa necesitó de 9 iteraciones. La función objetivo
en el espacio reducido se puede ver en la Figura 3.5 donde se ubica el punto que
representa la distancia más corta entre el origen y la función. En la Figura 3.6 se puede ver
como la función de estado límite restringe la función objetivo a una línea que esta vez no
es una función sencilla. El resultado con FORM es poco alentador ya que este no alcanza
a linealizar la función, posiblemente por el pico que esta presenta. En el algoritmo
presentado en el Apéndice C el resultado fue β = -6.14. Este resultado daría una
probabilidad de falla de uno, completamente errónea.
Una de las cosas que hace el algoritmo de SQP tan eficiente es que este puede
manjar el echo que existan raíces imaginarias en la función de estado límite, FORM no es
dotado con esta metodología y por esta razón puede colapsar en funciones altamente no
lineales. Es recomendación de esta investigación el usar un SQP, que como se vio

39
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

anteriormente es fácilmente programable para el caso del cálculo del índice de


confiabilidad, ya que este siempre proporciona resultados exactor.

Figura 3.5. Función de Estado Límite en el espacio


transformado.

Figura 3.6. Función de Estado Límite proyectada en la


Función Objetivo.

3.8 Conclusiones
La Programación Cuadrática Sucesiva es el método de programación no – lineal
más completo ya que permite la solución de sistemas en las que tanto la función objetivo
como las restricciones pueden ser funciones lineales o no. La gran conclusión que se

40
ICIV 200410 43 Capítulo 3 – Métodos de Optimización

obtiene del trabajo desarrollado en este capítulo es que siento el problema del cálculo del
índice de confiabilidad un problema de optimización no – lineal, SQP puede convertirse en
una gran solución que puede abarcar cualquier función de estado límite. Se pudo
demostrar con un ejemplo numérico que al ser la función de estado límite extremamente
no lineal FORM puede presentar errores de gran magnitud, mientras que el algoritmo de
SQP no los presenta.
El estudio de los métodos de optimización no solo permitieron el avance de un
algoritmo para un futuro programa que se enfrente a problemas de optimización sino que
permitió descubrir una nueva técnica para el problema de confiabilidad no utilizado para
este fin.

41
Capítulo 4
Ejemplo Práctico: Losa Armada en Una Dirección

4.1 Introducción
La estructura o “súper estructura” como es llamada en el caso de los puentes, es el
esqueleto de las edificaciones. Esta puede estar constituida por concreto reforzado, metal,
madera, mampostería o combinaciones entre ellas. Cuando un ingeniero diseña la
estructura toma la decisión acerca de que material usar de acuerdo no solo al diseño
arquitectónico sino a la economía de la obra. Por esta razón se puede ver más
edificaciones hechas en acero estructural en países productores del material como
Estados Unidos o el norte de Europa y más edificios en concreto reforzado en países
como Colombia y en general todo Suramérica. Varios autores que se han dedicado a
análisis y diseño óptimo basado en confiabilidad han trabajado en estos sistemas
principales, pero pocos se han dedicado a las “sub estructuras” o estructuras secundarias.
Una de las partes de una edificación donde más material es utilizado es en el
sistema de entre pisos, por esta razón es posible afirmar que optimizar las losas
estructurales puede constituir una gran fuente de ahorro en todo el diseño. En este trabajo
se ha escogido optimizar una losa estructural armada en una dirección para ver como se
puede comparar el diseño tradicional de este tipo de sub estructuras, con un diseño
basado en confiabilidad estructural. Cómo función objetivo de la optimización fue escogida
la propuesta de Rackwitz presentada en el Capítulo 2.
Para poder realizar el cálculo de la ecuación de probabilidad de falla, necesario para
la ecuación de Rackwitz (2.12), se hizo una secuencia de algoritmos en Mathcad, donde
se utilizaron simulaciones de Monte Carlo para el cálculo de esta variando sólo una
variable o variando todas las variables. Con el cálculo individual de cada se hicieron
iteraciones en para encontrar la respuesta a la optimización. Posteriormente con una
buena base de datos (cálculo variando todas las variables) se analizaron las distintas
variables para ver cuales de ellas tiene trascendencia en la probabilidad de falla. Una vez
depurada un poco la base de datos, se usó el programa SPSS para Windows, para
realizar una regresión múltiple y encontrar la ecuación pf(p).
La optimización se realizó con los métodos estudiados en el Capítulo 3, y por último
se analizaron los resultados y se compararon con el diseño que se obtiene
tradicionalmente. En las siguientes secciones se explica a mayor detalle cada paso del
procedimiento.

4.2 Losas Armadas en una Dirección


Las losas armadas en una dirección de concreto reforzado es uno de los sistemas
de entre piso más utilizado en Colombia. El diseño de estas losas esta regido por el título
B de la Norma Sismo-Resistente [13]. Para ilustrar el diseño basado en confiabilidad
estructural se toma una losa estructural con las siguientes características: La losa
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

mostrada en la Figura 4.1 hace parte de un sistema de entre piso que tiene paneles iguales
al mostrado en ambos sentidos en un número suficiente para poder asegurar que tanto
vigas principales como viguetas se encuentran empotradas. Ya sea por diseño
arquitectónico, por ubicación de la estructura principal del edificio o por cualquier otro
motivo las distancias B y H no hacen parte de la optimización y son constantes. Más
adelante se presentarán todos los parámetros y sus características. Como se muestra en
la figura B es la longitud de la losa paralela a las viguetas y H es la medida perpendicular
a las mismas. Esta nomenclatura es puramente ilustrativa para este ejemplo y en algunos
de los casos puede variar con la utilizada en la práctica. Los valores utilizados son:

B = 8m
(4.1)
H = 5m

Figura 4.1. Esquema de la Losa del Ejemplo. Definición de las variables


correspondientes a la geometría de la Losa.

Figura 4.2. Corte A – A de la Losa del Ejemplo.

43
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

El diseño basado en confiabilidad estructural necesita un punto de partida para


lograr calcular la confiabilidad de falla por simulaciones de Monte Carlo para esto es
conveniente estar cerca al punto óptimo. Por esta razón y argumentando que los códigos
de construcción usados alrededor del mundo usan la optimización y confiabilidad en
alguna medida para sus cálculos, el punto de diseño tradicional debe estar cerca al
óptimo y se convierte en el punto de partida de este nuevo tipo de diseño.
De acuerdo con la NSR98 las variables geométricas mostradas en la Figura 4.2
serían:

Tabla 4.1. Diseño tradicional de losas – Variables Geométricas.


Parámetro Dimensión Procedencia
h 57 cm Tabla C.9-1(a) Para losas con nervios
armadas en una dirección ambos apoyos
continuos.
s 80 cm Diseño típico para este tipo de losas.
hf 5 cm Tabla C.9.1(a) Para losas macizas con ambos
apoyos continuos y l = s.
b 15 cm Diseño típico para este tipo de losas.

Una vez tenida la geometría de la losa es necesario ver que solicitaciones tiene.
Normalmente las losas no hacen parte del sistema estructural de una edificación su
función es soportar el sistema de entre piso y lograr garantizar diafragma rígido. Para este
caso no se va a tener en cuenta las restricciones que se generan para garantizar este tipo
de diafragma, suponiendo que el diseño del esqueleto estructural puede también ser
diseñado con dia-fragma flexible o semi-rígido. Por último en las propiedades geométricas
se deja un recubrimiento de 7 cm.
En el diseño de losas estructurales no actúan fuerzas horizontales, por lo que sólo
recibe solicitaciones de carga viva y carga muerta. La losa hace parte de una edificación
tipo vivienda, y solo tiene como carga muerta los acabados, los muros divisorios y el peso
propio. Un avalúo preliminar que se acomoda a los objetivos de este trabajo sería:

Tabla 4.2. Avalúo de carga muerta para la losa del ejemplo.


CARGA MUERTA
Acabados NSR98 sin análisis detallado 150 kgf/m2
Muros Divisorios Según NSR98 Bloque de Arcilla Hueco 300 kgf/m2
Carga Muerta Sin Peso Propio 450 kgf/m2
Peso Losa 2.4 tonf/m3 · hf (5 cm) 120 kgf/m2
Peso Propio Vigueta 2.4 tonf/m3 · (h – hf) · b / s 234 kgf/m2
Carga Muerta Total 804 kgf/m2

Se un presenta el subtotal de la carga muerta incluyendo solo los muros divisorios y


acabados ya que estas dos cargas no entran en el análisis de confiabilidad, no dependen
de la geometría. El algoritmo que se presenta más adelante para obtener la regresión de
la ecuación de la probabilidad de falla calcula la carga muerta independiente para cada
iteración. Por otro lado, la carga viva que se tiene para el diseño es de 180 kgf/m2
nuevamente siguiendo las especificaciones de la NSR98 y las propiedades del proyecto
de construcción. La única combinación de cargas que se tiene para el análisis por
esfuerzos últimos para las losas es:

44
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

1.7 LL + 1.4 DL (4.2)

Por lo que para este ejemplo es:

1.7 (180 kgf/m2) + 1.4 (804 kgf/m2) = 1432 kgf/m2 (4.3)

Para calcular las áreas de acero que se utilizan en el diseño tradicional tanto para el
momento positivo máximo y el momento negativo máximo se utilizó una resistencia del
concreto de 210 kgf/cm2 y de acero de 4200 kgf/cm2. Al considerar que las viguetas se
encuentran doblemente empotradas, el momento máximo posivo se puede calcular como:

+ w·L2
M = (4.4)
24

Donde w esta dado por la carga última multiplicada por la separación de viguetas. Para
esta carga, el área de acero a utilizar es:

ASpos = 1.66 cm2 (4.5)

El área de acero negativa se puede calcular utilizando el mismo procedimiento, esta


vez el momento considerando empotramiento absoluto es:

w·L2
M− = (4.6)
12

ASneg = 3.42 cm2 (4.7)

El refuerzo por cortante se supone la fuerza cortante igual a la reacción en uno de


los apoyos, es decir:

w·L
V = (4.8)
2

Con este valor de cortante el concreto alcanza a resistir toda la fuerza que se
produce, por lo que se pone área de acero mínima. Cada 25 cm se pone un fleje número
3 en forma de S. Es decir:

AV = 2.84 cm2 / m (4.9)

Con este mismo procedimiento, calculado los valores por metro de ancho se puede
definir el área inicial del acero de refuerzo de la losa.

ALpos = ALneg = 0.84 cm2 (4.10)

45
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

Con este diseño como el punto de inicio ahora es necesario describir el


comportamiento de las variables que finalmente van a determinar la probabilidad de falla y
punto óptimo de diseño.

4.3 Variables Involucradas


El primer paso que se debe seguir en el diseño óptimo basado en confiabilidad es
identificar todas las variables involucradas. Para un diseño en el que la economía es lo
más importante las variables involucradas no son sólo aquellas que controlan el
comportamiento físico de la estructura, en este caso la losa, sino en todas las que
representan algún costo. Si se compara con el diseño tradicional, las variables
involucradas en este fueron: el área de acero que se utilice a lo largo de las viguetas, en
los estribos y en el refuerzo de la losa, además las dimensiones geométricas de viguetas
y torta superior. En este nuevo diseño además de estas variables que involucran la
cantidad de material y por consiguiente costos, se involucran parámetros como la altura a
la que se construye la losa, ya que el costo de subir un metro cúbico de concreto
comparado con el de subir una tonelada de acero puede representar un cambio en las
proporciones de estos materiales que se vayan a usar.
Para el ejemplo que se presenta a continuación, se han escogido los parámetros de
diseño más relevantes a la hora de calcular la probabilidad de falla, y se escogió la
función de costo rudimentaria (4.18), que hace solo referencia a los costos directos
debidos a la cantidad de los materiales. Si bien para la función objetivo Z(p) entran todas
estas variables que influyen en los costos, es necesario reducir al máximo la cantidad de
estas para que el análisis no sea exceda las capacidades computacionales con las que se
disponen. Un claro ejemplo de esto que se puede suponer es que el valor óptimo de acero
en la posición de la vigueta donde el momento es máximo optimizará la totalidad del
refuerzo positivo. Lo mismo sucede con el refuerzo negativo.
Existe una clara diferencia hasta ahora planteada de las variables que entran a
formar parte del sistema a optimizar (ver Capítulo 2) y las variables que entran a evaluar
la probabilidad de falla (Capítulo 1). Cada una de estas, cuenta con propias
características que las describen. Para la optimización de la losa (Figura 4.1) se usaron 15
variables divididas en los siguientes grupos.

Constantes
- Longitud de la losa paralela a las viguetas (B)
- Longitud de la losa perpendicular a las viguetas (L)
- Recubrimiento (R)
Probabilísticas de Diseño
- Altura total de la losa (h)
- Altura torta Superior de la losa (hf)
- Separación entre centroides de las viguetas (s)
Determinísticas de Diseño
- Área de acero viguetas, refuerzo positivo (ASpos)
- Área de acero viguetas, refuerzo negativo (ASneg)
- Área de acero flejes viguetas (por metro lineal) (AV)
- Área de acero torta superior refuerzo positivo
(por metro de ancho) (ALpos)
- Área de acero torta superior refuerzo negativo
(por metro de ancho) (ALneg)

46
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

Probabilísticas fijas (no hacen parte del diseño)


- Resistencia máxima permitida del concreto (fc)
- Resistencia máxima permitida del acero (fy)
- Carga muerta (por metro cuadrado) (DL)
- Carga viva (por metro cuadrado) (LL)
Las variables fueron clasificadas en estos grupos de acuerdo a su influencia en el
diseño. Dos de las constantes enuncian el problema (B y H), el recubrimiento por otro lado
también se considera constante ya que su incertidumbre se asocia a otra variable, la
altura total de la losa. Con este último cambio se tiene una sola variable probabilística en
lugar de dos, lo que significa un gran avance a la hora de programar el algoritmo. Por otro
lado todas las áreas de acero involucradas han sido consideradas determinísticas aún
cuando pueden tener una naturaleza probabilística. Existen dos razones para llegar a esta
conjetura: 1. Los procesos industrializados en los que se elaboran las varillas de refuerzo,
son absolutamente estrictos y actualmente estos productos son casi exactos. 2. Sea cual
sea el resultado del diseño basado en confiabilidad o el diseño tradicional es poco
probable que el área de acero resultante se consiga de manera exacta con el refuerzo
comercial, por lo general se coloca un poco más de área que es sustancialmente mayor a
la poca desviación estándar que se tendría.
Los grupos de variables pueden dividirse en dos grandes categoría. Diseño, que
quiere decir que el objetivo de las simulaciones y la optimización es encontrar los valores
a utilizar y fijas, que aunque ya se tiene su media establecida para el diseño, su
incertidumbre hace que sea necesario involúcralas como variables probabilísticas a la
hora de calcular la probabilidad de falla.

4.4 Función de Costos


Como se ha discutido hasta el momento, la función que describe la probabilidad de
falla en función de todos los parámetros involucrados en su cálculo, representa la mayor
dificultad a la hora de evaluar la función Z(p) para la optimización de cualquier sistema
estructural. Sin embargo existe otra función, que aunque no represente una dificultad
matemática, si representa una amplia complejidad conceptual. La función de costo, C(p),
de cualquier estructura puede calcularse de tal manera que cuya dependencia sea de los
parámetros que se utilizan en el análisis de confiabilidad, pero en realidad esta función no
depende directamente de de estos. En la ecuación (2.3) se presenta la función de costo
como un costo inicial más la sumatoria de cada parámetro por su respectivo costo. Esta
ecuación se puede ampliar a:

C (`p) = C 0 + ∑ ci ⋅ pi + ∑ t i ⋅ pi + MO(p) (4.11)


i i

Donde esta vez ci es el costo directo del insumo, ti es el costo de transporte de cada
variable y MO es la mano de obra que depende de todos los parámetros del vector p.
Tanto el transporte y la mano de obra se deben tener en cuenta a la hora de optimizar ya
que pueden representar diferencia sustancial a la hora de escoger las cantidades de obra.
Por ejemplo, en una viga de concreto reforzado pude resultar más económico aumentar la
sección bruta de concreto colocando menos área de acero, manteniendo la probabilidad
de falla igual; pero si esta viga se encuentra en un décimo piso y el transporte no se esta
teniendo en cuenta se puede llegar a cometer un error en la optimización ya que llevar
acero a diez pisos de altura puede ser más económico que transportar concreto. Con la

47
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

mano de obra sucede lo mismo. En este mismo ejemplo, si se es tenido en cuenta el


transporte y no la mano de obra puede volver a presentarse el mismo problema ya que
para armar el refuerzo se necesita mano de obra más calificada, y por ende más costosa,
que para vaciar los metros cúbicos extra de concreto.

4.4.1 Función de Costos Rudimentaria


Se puede llamar función de costos rudimentaria aquella basada sólo en los costos
fijos de la construcción y en el costo directo del material. Esta función estaría conformada
sólo por los primeros dos términos de la ecuación (4.11) y es en si la función que se usa
en el Capítulo 2. Es importante diferenciar la función de costos rudimentaria de la función
de costos compleja ya que esta da una aproximación bastante buena del costo de la
estructura en las etapas de pre-diseño y diseño. Actualmente los ingenieros diseñadores
calculan las cantidades de obra y los precios unitarios para calcular el valor del diseño,
esto no es otra cosa que usar la función de costos rudimentaria.
Para el caso de una losa estructural armada en una dirección, esta función de
costos puede ser bastante elaborada ya que se debe tener en cuenta tanto el material
utilizado en las viguetas como el que se usa en la torta superior. Como las variables que
se utilizan para definir esta función son las mismas utilizadas en el análisis de
confiabilidad, es necesario tener una consistencia en la manera como se nombran. Todas
las variables que se utilizan se encuentran listadas en la página 46.
Para mantener un orden que garantice no repetir material, es conveniente
comenzar a evaluar el costo de la losa y luego el de las viguetas. La losa tiene como
único parámetro que controla el volumen del concreto la altura de esta, ya que el área que
cubre la losa no es motivo de optimización, va definida por diseño arquitectónico o por
conveniencia. El volumen de concreto utilizado en la losa esta dado por:

VconcretoLosa = B ⋅ H ⋅ hf (4.12)

Donde B y H son las dimensiones de la losa y hf su altura. La losa también cuenta


con un acero de refuerzo que es idéntico para el momento positivo como para el momento
negativo ya que para la mayoría de losas este refuerzo se coloca en la mitad. Como se
tiene que tener en cuenta las ecuaciones de diseño de losas es conveniente tratar este
acero como área por metro lineal de losa. Para evaluar cuanto pesa1 el acero
correspondiente a toda la losa es necesario primero multiplicarlo por la dimensión de la
losa que hace referencia a la totalidad de metros que debe cubrir el acero, por otro lado
es necesario multiplicar este valor por la longitud que van a tener las varillas, es decir la
otra dimensión de la losa. Este resultado da el valor del volumen total de acero utilizado
en la torta superior, que multiplicado por la densidad refuerzo se obtiene el peso. La
ecuación para este cálculo es:

kg
WaceroLosa = B ⋅ H ⋅ ALpos ⋅ 7.8 × 10 −3 (4.13)
cm 3

Es necesario multiplicar la ecuación por un factor de 10-3 ya que para toda la función
objetivo de la optimización, el valor de las áreas de acero se tiene en cm2 y no en m2.

1
El peso de acero utilizado es lo que finalmente determina su costo.

48
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

Teniendo ya las cantidades de obra de la torta ahora se puede calcular las


correspondientes a una vigueta teniendo en cuenta de no repetir el volumen de concreto
donde se unen estos dos elementos. Para cada vigueta se tiene un volumen de concreto
igual a:

VconcretoVigueta = B ⋅ b ⋅ (h − hf ) (4.14)

A la altura total de la placa (h) es necesario restarle la altura ya usada en (4.12). El


cálculo del acero de las viguetas es el más complejo dentro de la función de costos
rudimentaria. Una estimación de cantidades de obra elaborada tendría en cuenta los
cambios en el refuerzo que se pueden llegar a tener a lo largo el eje de la viga. Como esta
función de uso exclusivo en la optimización se puede suponer que los costos varían
exclusivamente con el refuerzo donde la solicitación es máxima. Es decir se tiene en
cuenta que si el acero en donde se presenta el momento positivo máximo crece, todo el
acero a lo largo de la viga también crece. Esto mismo ocurre con el momento negativo
máximo y el máximo cortante. Siguiendo esta suposición la función que calcula el peso de
los refuerzos longitudinal es:

kg
WaceroLongitudinal = B ⋅ ( ASpos + ASneg ) ⋅ 7.8 × 10 −3 (4.15)
cm 3

Para definir el peso del acero de refuerzo transversal es necesario tener en cuenta
la altura de la vigueta y su recubrimiento. Existe además una dimensión en los ganchos
que se debe aproximar teniendo en cuenta que para viguetas se usan flejas S de un solo
ramal. Si el recubrimiento se denomina como R y la longitud del gancho se aproxima a 4
cm en cada extremo se tiene que el peso esta definido por:

kg
WaceroTransversal = B ⋅ AV ⋅ (h - 2 ⋅ R + 8cm) ⋅ 7.8 × 10 −3 (4.16)
cm 3

El área de acero transversal se expresa por cada metro de viga, por lo que
suponiendo que se tiene el mismo refuerzo a lo largo de toda la viga, este se multiplica
por B. Una vez se tiene todas las cantidades de obra teóricas por cada vigueta es
necesario determinar el número de viguetas que cubre la losa.

H
N Viguetas = −1 (4.17)
s

Para complementar la función de costos rudimentaria es necesario contar con los


precios unitarios del momento en el que se planea comprar los materiales. Para este
ejemplo se tomaron los precios presentados por la Gobernación del Valle en el decreto
523 de abril 1 de 2004. El concreto de las especificaciones deseadas tiene un costo de
169.910 pesos por metro cúbico, y el acero de refuerzo 2.910 pesos por kilo. En el caso
del refuerzo de la losa se utiliza refuerzo elaborado en mallas electro soldadas este tiene
un incremento del costo en 21 por ciento. Esta diferenciación se hacer para contar con un
solo precio base en la función de costo. Con los costos y las ecuaciones de (4.13) a

49
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

(4.17) se tiene la ecuación de costos rudimentaria para la losa del ejemplo propuesto en
este trabajo.

C (p) = (1.2 × WaceroLosa + N Viguetas (WaceroLongitudinal + WaceroTransversal )) ⋅ 2910 +


(4.18)
+ (VconcretoLosa + N Viguetas × VconcretoViguetas ) ⋅ 169910

4.4.2 Función de Costos Compleja


La función de costos compleja es una ampliación de la función de costos
rudimentaria. Esta ampliación consiste en los dos últimos términos de la ecuación (4.11).
Varios ingenieros dedicados al área de la construcción han desarrollado innumerables
técnicas para el avaluó de funciones de costos complejas para distintos tipos de
estructura. Todas estas investigaciones coinciden en que la experiencia, más
exactamente, el registro histórico constituye el pilar para este tipo de ecuaciones.
Uno de estos investigadores es el profesor Surinder Singh quien en 1990 publicó un
artículo con procedimiento interactivo basado en computador para encontrar los costos
exactos de vigas y losas en concreto reforzado [15]. El objetivo principal del profesor
Singh era elaborar un modelo que incluyera todas las variables involucradas en el diseño
y mostrara su efecto en el costo de los componentes en construcciones de concreto. El
modelo se basa en una regresión programada en un algoritmo computacional que
determina según la entrada (características de la losa o viga) cual es el costo.
Lo importante del avance de este artículo es que tenía en cuenta variables como
tipo de edificación (comercial, residencial, hospitalaria, industrial) y la altura a la que se va
construir la losa agrupando los costos desde 5 hasta 50 pisos en grupos de 5. En el
algoritmo presentado tiene en cuenta costos individuales de cada recurso y es bastante
completo.
La función de costos presentada por Singh no es explicita, por lo que es necesario
correr el programa cada vez que se tiene una losa distinta. Es por esta razón la necesidad
de utilizar una regresión multivariable para acercarse a la solución. No es propósito de
este trabajo presentar los algoritmos completos para la evaluación de costos complejos,
pero es importante aclarar que el diseño óptimo basado en confiabilidad debe hacer este
análisis ya que la mano de obra o el transporte de cierto material puede constituirse en la
razón para utilizarlo en gran cantidad o tratar de evitarlo. Para el modelo desarrollado en
las siguientes secciones se escogió la función de costos rudimentaria.

4.5 Función Objetivo


4.5.1 Función objetivo de modelo
La función objetivo de la optimización está casi completa. Se tiene la función de
costo (en esta ocasión función de costos rudimentaria) y la función de probabilidad de
falla. Como se discutió en el Capítulo 2 las mejores funciones objetivos que se han
desarrollado hasta el momento son las propuestas por Rackwitz en [7]. Si se tiene en
cuenta que las fallas tienen origen en cargas extremas (terremotos, terrorismo, etc.) con
una ocurrencia que está descrita por un proceso de Poisson y existe una política de
reconstrucción sistemática cada vez que ocurra la falla se tiene que la ecuación a
maximizar es [1]:

50
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

b λ ⋅ p f (p)
Z (p) = − C (p) − (C (p) + H ) (4.19)
γ γ

Como maximizar utilidades es equivalente a minimizar costos se tiene que esta


ecuación se transforma en Z* para un sistema cuyo objetivo es la minimización.

λ ⋅ p f (p)
Z * ( p ) = C ( p) + ( C ( p ) + H ) (4.20)
γ

Los parámetros involucrados en (4.20) ya han sido discutidos en Capítulo 2


necesario para este ejemplo redefinirlos con valores prácticos. Para el modelo que
condujo a esta función objetivo H fue planteada como independiente de la función de
costos, para este ejemplo no es absurdo plantear H como un porcentaje del costo ya que
se está utilizando una función de costos rudimentaria. El costo de reparación de una losa
depende exclusivamente su estado después de la falla, si se considera que la falla deja la
losa completamente inservible se debe ver el escenario en el que quedó la estructura
completa que requiere una atención primordial. Por esta razón se justifica optimizar el
diseño de las losas de entrepiso teniendo en cuenta fallas mediana y menores, es
concepto se ve reflejado en considerar el costo de la falla en sólo el 20 por ciento del
costo original.

H = 0.20 × C (p) (4.21)

La tasa de descuento γ se toma igual a 0.05 adecuada para la situación actual del
país. Se aclara que es pertinente al aplicar este procedimiento a la práctica hacer un
estudio económico del entorno social y revisar las proyecciones de entidades como
CAMACOL, el Banco de La Republica y Planeación Nacional para escoger la tasa más
adecuada según el tipo de construcción que se vaya a realizar. Por otro lado la tasa de
falla promedio en el proceso de Poisson se puede suponer como 0.1.

4.5.2 Restricciones
Para este tipo de problemas se sugiere que las restricciones se dividan en tres
grupos. Las primeras restricciones son aquellas que aparecen en las etapas anteriores del
procedimiento en este caso la (4.22) que relaciona b con hf. Dado que esta relación no
tiene ninguna explicación en el comportamiento mecánico de la losa y que la variable hf
fue omitida de la función de costos se decide no poner esta dentro de la lista de
restricciones.
El segundo gran grupo de restricciones son aquellas que impone el código. Estas
son de gran importancia porque tienen su origen en el comportamiento físico, en el
laboratorio. En este grupo además se podrían concentrar las restricciones de servicio
(también enunciadas en el código) como la máxima deformación permisible para no
afectar las actividades sobre y debajo de la losa. Para no ampliar el problema de los

51
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

recursos computacionales y congestionados2 se omitieron las restricciones debidas al


servicio. Las demás propuestas por el código se enumeran a continuación3.

ASpos
1. Cuantía Positiva Mínima: ≥ 0.0033
b ⋅ (h - R)

ASpos
2. Cuantía Positiva Máxima: ≤ 0.016
b ⋅ (h - R)

ASneg
3. Cuantía Negativa Mínima: ≥ 0.0033
b ⋅ (h - R)

ASneg
4. Cuantía Negativa Máxima: ≤ 0.016
b ⋅ (h - R)

El tercer grupo de restricciones son aquellas presunciones que se pueden obtener


de la experiencia. No es estrictamente necesario la inclusión de estas restricciones, con
un ecuación de probabilidad de falla que se ajuste exactamente a las variables el proceso
de optimización debe ajustarse a valores similares a los que se encuentran en la práctica.
Desafortunadamente en esta ocasión el coeficiente de correlación (R2) que se tuvo
después de la regresión fue de 0.884, un poco bajo para que el proceso de optimización
trabaje sólo sobre algunas variables. Las restricciones que se recomiendan para este
caso son:

5. Espaciamiento mínimo: s ≥ 50 cm

6. Espaciamiento máximo: s ≤ 150 cm

7. Ancho de vigueta mínimo: b ≥ 10 cm

4.6 Optimización por Iteraciones Independientes para cada Variables


El procedimiento que se describe a continuación a sido frecuentemente ya que evita
análisis multivariable, que como se verá más adelante, puede constituir en un problema
de difícil solución dado todos los recursos que consume. Las iteraciones individuales para
cada variable se hacen modificando el algoritmo presentado en el Apéndice B para que
solo se varíe una variable al calcular por el método de Monte Carlo la probabilidad de
falla. Al ser una regresión de una sola variable se puede encontrar una regresión para
obtener la probabilidad de falla en función de esta única variable.
Para tener el análisis de esta función de probabilidad se opto por aproximaciones
lineales, es decir se aproximó la función a N – 1 segmentos de recta, donde N es el
número de puntos que se analizaron con la simulación. Este procedimiento permite el
2
Ver 4.7.4.2
3
Las cuantías de acero para la torta superior es de la misma forma que las presentadas para las
viguetas, el área de acero a evaluar es ALpos y ALneg, el ancho es de 100 cm y la altura es la
mitad de la altura total de la losa.

52
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

manejo individual de cada variable, procedimiento mucho más sencillo que aquel que
maneja todas las variables simultáneamente.

4.6.1 Cálculo de la probabilidad de falla


Para el análisis por iteraciones independientes para cada variable, el proceso de
optimización y cálculo de probabilidad de falla se realiza en numerosas ocasiones variable
por variable. La probabilidad se calcula elaborando una tabla de 20 filas con todas las
variables constantes a excepción de una. Las variables que permanecen constantes
toman, en primera estancia, los valores del diseño tradicional. El parámetro que toma los
20 valores distintos varía entre el 10 por ciento del valor del diseño tradicional y 200 por
ciento. Una vez completado el proceso de optimización de un parámetro este nuevo valor
entra en el cálculo de probabilidad con respecto a la siguiente variable por lo que iteración
tras iteración va variando el diseño hasta converger.
Todas las variables se tomaron como normalmente distribuidas para hacer
simplificar este primer acercamiento a un procedimiento que pueda ser llevado a la
práctica. La desviación estándar, segundo parámetro que define este tipo de distribución
fue tomado como un porcentaje de la media. Probablemente en algunas ocasiones esta
suposición no es completamente cierta, se recomienda siempre tener ensayos de
laboratorios o mediciones para tener un mejor acercamiento al valor real de estas
desviaciones. En la siguiente tabla se puede ver los valores que se tomo para cada
variable, introduciendo dos variables hasta ahora no tratadas CM y CV4. Tanto la carga
muerta como la carga viva tienen una distribución de probabilidad que debe ser tratada
como mucho detenimiento.

Tabla 4.3. Valores de Desviación Estándar


de las variables Probabilísticas
Desviación Estándar
Variable
(% de la media)
fc 5
s 0.5
h 0.75
b 0.5
hf 0.5
fy 5
CM 5
CV 5

Todas las variables geométricas tienen una desviación relativamente baja, tan sólo
el 0.5 %. Esto se debe a que con las técnicas de construcción con las que se cuenta
actualmente se pueden conseguir mediciones casi exactas en las formaletas y por ende
en las variables geométricas de diseño. La única variable que tiene una desviación
estándar un poco mayor es la altura de la vigueta. Como se anticipó esta variable no tiene
involucrada sólo sus características de incertidumbre sino que también computa la
incertidumbre del recubrimiento que se fijo como constante.
Aunque los recursos computacionales que consume la simulación por Monte Carlo
son altos, se consideró que este era el mejor método para un acercamiento a la

4
CM: Carga Muerta. CV: Carga Viva.

53
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

complejidad del problema. Una de las dificultades que se tiene con este método es
escoger el número correcto de simulaciones para que la probabilidad de falla de un valor
coherente. Con varias filas de la matriz que contiene todos los datos se hizo el cálculo a
distinto número de iteraciones y todas arrogaron el mismo resultado. Para diez mil
(10000) iteraciones la probabilidad de falla converge y tiene un error de 0.001, dada la
incertidumbre y la manera como se han manejado las desviaciones no es necesario
contar con un mayor nivel de exactitud. Los resultados para solo unos valores de medias
(una fila) se muestran el la Figura 4.3.

Figura 4.3. Probabilidad de falla contra Número de Simulaciones.


Convergencia.

4.6.2 Proceso de optimización


La probabilidad de falla calculada con los valores del diseño tradicional fue de 0.038.
El primer parámetro que se vario fue el área positiva del refuerzo de las viguetas. Con
estas variaciones se puede graficar la probabilidad de falla contra el área de acero
positiva y con aproximando a la ecuación a partir de rectas se puede completar la función
(4.20) y encontrar el valor óptimo de esta variable si se mantienen todas las demás
constantes. La función de probabilidad de falla contra la variable ASpos se puede ver en
la figura Figura 4.4. Con esta función se completa la función Z esta se puede ver en la
2
Figura 4.5. El valor óptimo encontrado para esta parte de la primera iteración es 3.378 cm ,
nuevo valor que a partir de este momento toma este parámetro.
El siguiente parámetro que se vario fue la separación de viguetas. Con este se
encontró que el punto óptimo es el mismo que se tenía en el diseño en el diseño
tradicional. Es interesante ver como esta medida a lo largo de todas las iteraciones
permanece constante. Por esta razón no se muestran las graficas de la probabilidad de
falla y de función de costo en contra de este parámetro.

54
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

Figura 4.4. Probabilidad de falla contra ASpos.

Figura 4.5. Función Objetivo (Z) contra ASpos.

El siguiente parámetro que entro en el análisis fue el área de acero de refuerzo para
el momento negativo este parámetro también presento un gran cambio. El nuevo valor
que entra al proceso iterativo es 4.104 cm2. Las gráficas respectivas a pf(ASneg) y
Z(ASneg) se presentan a continuación.

55
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

Figura 4.6. Probabilidad de falla contra ASneg.

Figura 4.7. Función Objetivo (Z) contra ASneg.

Dado que las áreas de acero han sido modificadas, en las dos ocasiones se ha
aumentado, las variables que describen la cantidad del concreto la altura total de las
viguetas y el ancho de las mismas disminuyó. Para el caso de esta segunda variable la
gráfica de probabilidad de falla muestra que a partir de cierta medida esta de torna casi
cero y solo hasta después de 20 centímetros, probablemente por el aumento de peso, la
probabilidad de falla vuelve a crecer. Por esta razón no es impredecible el resultado de la
optimización se ajuste a la restricción mínima de esta medida. El ancho de la vigueta final
de la optimización que se consigue en la primera iteración es de 10 cm. Este resultado se

56
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

puede ver en las gráficas de las figuras Figura 4.15 y Figura 4.16. Por otro lado la altura
total de la viga debe ser de 51.3 cm.

Figura 4.8. Probabilidad de falla contra b.

Figura 4.9. Función Objetivo (Z) contra b.

La resistencia de la torta superior esta determinada en este modelo por la altura de


la misma y el área de refuerzo, que al estar colocado en la mitad de de la losa es la
misma para refuerzo positivo y para refuerzo negativo. Estos dos valores se acomodan
para que la función de costos tomo el valor mínimo posible. La altura de la losa a 8.5 cm.
y el área de acero a 1.152 cm2/m.

57
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

Por otro lado el refuerzo transversal de las viguetas no representa ningún efecto en
el análisis de optimización por confiabilidad y es necesario siempre poner el mínimo
refuerzo establecido por la norma.

Figura 4.10. Probabilidad de falla contra AV. Total


independencia de esta variable. Área de acero por cada
metro.

Todos los valores de las variables en las diferentes iteraciones se muestran en la


Tabla 4.4 y en la tabla tal se puede ver como varía el valor de las variables con respecto al
diseño tradicional.

Tabla 4.4. Valores de las parámetros de diseño cada iteración.


ASpos s ASneg h b hf ALpos ALneg AV
Trad. 1.66 80 3.42 57 15 5 0.84 0.84 2.84
3.378
4.104
Iteración
Primera

5.13
10
8.5
1.152 1.152
2.702
Segunda
Iteración

4.925
46.17
9.164
3.783
Iteración
Tercera

5.91
43.94
FINAL 3.405 80 3.42 43.94 10 9.164 1.152 1.152

58
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

Æ No existe cambio.

Tabla 4.5. Cambio de las variables del diseño tradicional al


diseño óptimo.
Diseño Diseño
Diferencia
Tradicional Optimo
ASpos 1.66 3.405 -1.745
s 80 80 0
ASneg 3.42 5.91 -2.49
h 57 43.94 13.06
b 15 10 5
hf 5 9.164 -4.164
ALpos 0.84 1.512 -0.672
ALneg 0.84 1.512 -0.672
AV 2.84 2.84 0

Mientras que la probabilidad de falla del diseño tradicional es de 0.038, con los
valores del diseño óptimo esta se reduce. Lo interesante es ver que no solo el costo
directo (C) se reduce sino que la probabilidad falla se vuelve casi nula. El costo de la
función rudimentaria propuesta para este modelo se reduce en un 44% con respecto al
resultado del diseño tradicional.

4.6.3 Conclusiones del proceso iterativo


El proceso de optimización hecho por iteraciones sucesivas facilita en gran medida
el diseño basado en optimización. Esto es de gran importancia a la hora facilitar el diseño
a las distintas empresas dedicadas a esta labor. Por otro lado el gran inconveniente que
se tiene es el hecho que no analiza la interacción que puede existir entre cada variable. Al
variar un solo parámetro por iteración se mide el comportamiento de la probabilidad de
falla de acuerdo a este, pero manteniendo las demás constantes. En realidad lo que se
debe medir es el cambio de la probabilidad de falla mientras varían todos los parámetros
toman los valores adecuados para realizar un buen análisis.
Independientemente si el análisis es completamente confiable o no, los resultados
son sorprendentes al reducir los costos directos en un 44% de los costos que se tienen en
un diseño tradicional. Este costo puede representar un ahorro suficiente para, en el caso
de vivienda de interés social, pensar en la construcción de otra vivienda ayudando así a
solucionar el déficit habitacional del país ya que la tasa de construcción se duplicaria.

4.7 Optimización por Regresión Multivariable


La optimización por regresión multivariable toma en cuenta el efecto conjunto de
todas las variables. Por esta razón se constituye en el futuro del diseño óptimo basado en
confiabilidad. Este tipo de optimización no está al alcance de este proyecto, pero su
procedimiento se explica a continuación.

4.7.1 Cálculo de Probabilidad de Falla


Para lograr crear una matriz donde se varíen los parámetros que hacen parte de los
dos grupos de diseño se programo un algoritmo cuyo propósito era crear en más de

59
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

100000 filas todas las posibles combinaciones que se podrían llegar a tener si las
variables toman los valores que aparecen en la

Tabla 4.6. Todos los algoritmos utilizados fueron programados en Mathcad y se


encuentran en el Apéndice B. El número de iteraciones utilizadas en Monte Carlo fue
escogido con el mismo análisis que se presentó en el procedimiento por iteraciones
sucesivas. (Apéndice B)

Tabla 4.6. Valores de la media de cada variable en el algoritmo para la optimización.


Variable Sím Uni. Valores que toma la media
1. Área de acero de Se toma valores desde 0 hasta el doble del valor
refuerzo positivo en de entrada. Se cree conveniente que la entrada
ASpos cm2
el centro de las sea el valor del diseño convencional.
viguetas
2. Separación entre Al ser la separación convencional de 70 a 100
las viguetas centímetros se consideró importante ampliar este
s cm
rango para ver que repercusiones tiene sobre la
probabilidad de falla. Rango: 50 cm – 150 cm.
3. Área de acero de Se toma valores desde 0 hasta el doble del valor
refuerzo negativa en de entrada. Se cree conveniente que la entrada
ASneg cm2
los extremos de las sea el valor del diseño convencional.
viguetas
4. Altura Total de la Se toma como base el valor de entrada, se varia
losa desde – 6 cm hasta + 6 cm cada 2 cm. Para el
h cm
valor de entrada se sugiere el propuesto por la
NSR98. Tablas C.9-1(a) y C.9-1(b).
5. Ancho de vigueta Los valores típicos de viguetas varían entre 10 cm
b cm y 20 cm. Se toman cada 2 cm, pero para verificar
el comportamiento, se empieza en 8 cm.
6. Altura torta Se toma como base el valor de entrada, se varía
superior desde – 3 cm hasta + 3 cm cada 1 cm. Para el
valor de entrada se sugiere el propuesto por la
hf cm
NSR98. Tablas C.9-1(a) y C.9-1(b) con la luz
correspondiente al valor medio de la separación
(3). La entrada en este caso es calculada.
7. Área de acero de Se toma valores desde 0 hasta el doble del valor
cm 2
refuerzo positivo por de entrada. Se cree conveniente que la entrada
ALpos cm
un metro de ancho sea el valor del diseño convencional.
en la torta superior
8. Área de acero de Cada punto toma exactamente el mismo valor que
2
refuerzo negativo cm ALpos. Ya que se considera que el refuerzo en
por un metro de ALneg cm toda la torta superior va colocado en la mitad.
ancho en la torta
superior
9. Área de acero de Se toma valores desde 0 hasta el doble del valor
2
refuerzo transversal cm de entrada. Se cree conveniente que la entrada
AV
por cada metro de cm sea el valor del diseño convencional
longitud de vigueta

60
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

en el extremo de la
misma.

Una vez completa la matriz con los datos de las medias de las variables de diseño y
todas las posibles combinaciones de estas de acuerdo con la Tabla 4.6 se debía calcular
la probabilidad de falla.
Con 10000 iteraciones por cada combinación de medias y exactamente 101376
combinaciones el algoritmo presentado en el Apéndice B, con el que se calcularon igual
número de probabilidades de falla el programa demoró aproximadamente 15 horas en
correr. Desafortunadamente los recursos computacionales con los que se contaba no
lograban correr la totalidad de simulaciones (10000 x 101376) simultáneamente por lo que
las 15 horas se tornaron en una semana y media dedica a este paso del proceso. Como
se discutirá más adelante este es uno de los mayores problemas de llevar el diseño
optimo basado en confiabilidad a la práctica.
De los 101376 datos ya completos (con su respectiva probabilidad de falla) no todos
eran competentes para elaborar un análisis de regresión y ajustar la función pf(p). La gran
mayoría de datos presentaban valores de pf inútiles tal como 1 o 0. Se descartaron todos
los valores mayores a 0.9 y los valores menores a 0.01. Se sabe que el punto óptimo de
de diseño no se encuentra en los rangos omitidos. Adicional a esto se redujo el tamaño de
la muestra a 2887 líneas lo que garantizaba que el programa utilizado en la regresión no
presentara problemas a la hora de manejar tal cantidad de datos.
Con la muestra ya filtrada se procedió a verificar si todas las variables utilizadas
tienen influencia en la probabilidad de falla. Por ejemplo para ALpos – ALneg los
resultados igualando una sola serie de datos mostraba independencia pero al verificar con
otras dos series se concluyo que si había una dependencia. Igualar una serie de datos
hacer referencia a dejar todos los demás parámetros iguales y ver como varia el
parámetro que se esta evaluando. Los resultaos para el área de acero de refuerzo de la
torta superior se muestran en la siguiente gráfica.

Figura 4.11. Influencia de ALpos y ALneg en la Probabilidad de


Falla

61
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

La única variable con la que la probabilidad de falla mostró total independencia fue
el área de acero de refuerzo transversal de las viguetas En esta ocasión se probaron
todas las series que existían en la muestra y se obtuvo el mismo resultado. En la Figura
4.12 se muestran 4 de estas series y se ve como el comportamiento de pf es constante
independientemente del valor que tome AV mientras los otros valores permanezcan
constantes. Esta variable fue excluida de la regresión y se ajusta a la práctica ya que
generalmente este tipo de viguetas lleva refuerzo transversal mínimo.
Por otro lado una vez reducida la muestra se encontró una relación estrecha entre la
altura de la torta y el ancho de las viguetas. Teóricamente no existe motivo para que estas
variables estén relacionadas, pero cuando una de las variables tomaba un valor
determinado la otra tenía un y solo un valor y cualquiera de las dos cambia la otra hacia lo
propio. En general como tal hf y b se comportaban como se muestra en la Figura 4.13.
Pensando que el ancho de la vigueta podría significar un mayor ahorro en el costo de la
vigueta se dejó esta variable excluyendo la altura de la torta de la regresión con la
posibilidad de asumirla como restricción de tipo igualdad (4.22) en la optimización.

hf = 0.2 x b + 2 (4.22)

Figura 4.12. Influencia de AV en la Probabilidad de Falla

62
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

Figura 4.13. Comportamiento de correlación entre hf y b.

Una vez hechos los cambios el resultado es una muestra de 2887 datos que
contienen todas las posibles combinaciones de variables que afectan de alguna manera la
probabilidad de falla. Se tiene que esta es estrictamente función de 6 variables:

pf = pf(ASpos,s,ASneg,h,b,ALpos) (4.23)

Una pequeña fracción de los datos se muestra en la Tabla 4.7.

Tabla 4.7. Muestra de las probabilidad de falla contra 6 variables obtenida por
Monte Carlo y ya filtrada.
Aspos s Asneg h b Alpos
pf
(cm^2) (cm) (cm^2) (cm) (cm) (cm)
1 1.33 50 3.75 57.02 15 1.17 0.0138
2 1.66 60 3.09 57.04 15 0.84 0.0127
M M M M M M M M
2886 1.33 50 3.75 56.98 20 0.51 0.3554
2887 1.66 60 3.09 57 15 0.51 0.0125

4.7.2 Ecuación de Probabilidad. Regresión Multivariable


Existen varias formas de aproximar los datos que se tienen en con la modelación
(simulación) a una ecuación de probabilidad de falla. Para este ejemplo se utilizó una
regresión estadística en el programa SPSS. El primer paso que se dio a la solución de
este problema fue sacar la información individual de la variable dependiente.

63
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

Figura 4.14. Comportamiento de pf a lo largo de la


muestra.
Es importante ver en la Figura 4.14 como los valores que predominan son aquellos
que se encuentran muy cercanos a cero y tratan de volver a incrementarse cuando se
acercan a uno. Esto da indicios que el filtro que se utilizó fue bastante acertado y que se
puede estimar que el valor óptimo de la probabilidad se encuentra entre 0.25 y 0.65. Estos
valores al parecer altos están relacionados a la forma como se manejó la ecuación de
estado límite dentro del algoritmo donde se hicieron las simulaciones. Como se discutirá
más adelante una probabilidad del 0.50 específicamente en este ejemplo es aceptable y
puede llegar a considerarse baja ya que la probabilidad de falla del diseño tradicional se
encuentra en 0.525.
Encontrar la forma de la distribución que deben seguir las variables (lineal,
exponencial, logarítmica, etc.) en una regresión múltiple es probablemente la tarea más
difícil de este procedimiento. Discutiendo con algunas personas que manejan este tipo de
técnica se sugirió para este caso, tener en cuenta una regresión lineal donde no sólo se
tengan en cuenta las variables sino las combinaciones de las mismas que se crean
afectan el estado de falla.
Teniendo en cuenta solo las seis variables presentadas en (4.23), el coeficiente de
correlación R2 era de 0.60, demasiado bajo para asegurar que se podría usar esta
ecuación para la optimización. Las primeras variables que se introdujeron para aumentar
la regresión lineal fueron aquellas que hacen parte de las ecuaciones de estado límite.
Luego teniendo en cuenta que muchas de estas variables aparecen más de una vez en
las simulaciones se propone dar más peso elevándolas al cuadrado. Otras combinaciones
de variables se hallaron por simple inspección. El coeficiente de correlación (R2) que se
obtuvo finalmente fue de 0.884.

5
El error en el algoritmo radica en la inclusión de los factores de seguridad en la ecuación de
estado límite de todos los estados. Para mayor detalle 4.7.4.4.

64
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

Algunas de las combinaciones más importantes fueron las cuantías (positiva y


negativa) calculadas con la altura total y no con la altura efectiva6. Una lista completa de
las variables y combinaciones se presenta a continuación.

Tabla 4.8. Variables y Combinaciones de Variables involucradas en la regresión.


ALpos ASpos 2
1 ASpos 6 11 16 ASpos 2 21 ALpos 2
b⋅h b
2 ASpos ⋅ ASneg
s ⎛ ASneg ⎞ ASpos ⋅ s
2 7 h2b 12 ⎜ ⎟ 17 22
⎝ b⋅h ⎠ b2h 2
2
3 ASneg 8 2 13 2 18
⎛ h ⋅b⎞ 23 ASneg ⋅ s
s ASneg ⎜ ⎟
⎝ s ⎠
ASpos ASpos ⋅ ASneg ⋅ ⎛ ASpos ⎞
2
4 h 9 14 19 ALpos ⋅ s 24 ⎜ ⎟
b⋅h ALpos ⎝ b⋅h ⎠
2
ASneg ⎛ ALpos ⎞
5 ALpos 10 15 ASpos ⋅ ASneg 20 ⎜ ⎟ 25 b⋅s ⋅h
b⋅h ⎝ s ⎠

El orden de las variables y combinaciones presentadas en la Tabla 4.8 es


exactamente igual al utilizado en el programa de la regresión, orden que se eligió para
facilitar la presentación de la ecuación en forma vectorial. Es importante resaltar como el
programa SPSS automáticamente excluye la variable b (ancho de viguetas) porque no es
representativa al momento de relacionar la variable dependiente, pero sus combinaciones
si lo son y por esto permanece la variable b implícita.
Para mostrar la ecuación en forma vectorial se toma las variables y combinaciones,
se organizan en un vector columna en el cual se ponen las columnas de la Tabla 4.8 una
debajo de la otra. Este vector se nombra va. Por otro lado se tiene un vector similar con
todos los coeficientes que multiplican estas combinaciones, este es llamado coef. La
ecuación que describe la probabilidad de falla es:

pf(ASpos,s,ASneg,h,b,ALpos) = coef · va + 6.003 (4.24)

El coeficiente 6.003 es la constante que ajusta la regresión. En esta ocasión se


presenta con solo 3 cifras decimales pero en el momento utilizar esta ecuación en la
optimización tanto la constante como los componente de coef deben tener todas las cifras
decimales posibles ya que una aproximación de estas significa un cambio notable en el
resultado. Con la ecuación (4.24) se puede ver como es el comportamiento de la
probabilidad de falla dependiendo de cada variable y ver si el resultado que arrojó el
modelo se ajusta a lo esperado. Graficando la probabilidad de falla contra el área de
acero de refuerzo para momento positivo (Figura 4.15) se observa un comportamiento
esperado. La probabilidad de falla disminuye a medida que aumente el refuerzo. Esto
mismo pasa para los otros tipos de refuerzo que finalmente entraron al cálculo y
6
La altura efectiva se obtiene restándole a la altura total una constante, el recubrimiento. Como se
dijo anteriormente este problema fusionaba dos incertidumbres y por esta razón en el
procedimiento nunca se elaboran cálculos con la altura efectiva.

65
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

coincidencialmente estos tienen un comportamiento idéntico, presentan una pequeña


pendiente positiva cuando parten de 0 y luego de un máximo la pendiente permanece
negativa y casi constante.

Figura 4.15. Probabilidad de Falla contra ASpos

Figura 4.16. Probabilidad de Falla contra ASneg

66
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

Figura 4.17. Probabilidad de Falla contra ALpos

Otra de las variables que presenta un comportamiento que se ajusta a lo que se


tiene en la práctica es la separación entre viguetas. Esta en el algoritmo varía entre 50 y
150 centímetros, rango en el cual la probabilidad de falla aumenta a medida que crece la
separación pero el aumento de esta no es trascendental. En la grafica de la Figura 4.18
expresamente se tomo el rango desde 0 ya que es interesante ver como a medida que la
separación entre viguetas desaparece la probabilidad de falla tiene una caída pasmosa.
Claro esta que de volverse la separación cero se tendría una losa maciza de una altura
igual a la altura de las viguetas y evidentemente la probabilidad de falla sería cero. Al
parecer la gráfica muestra que la probabilidad de falla podría tomar valores negativos e
incluso llegar a menos infinito, pero esto probablemente se debe a que los valores
menores a 0.01 fueron eliminados de la muestra; estos valores podrían lograr que se
formara una curva y hacer llegar el valor a cero.
Dado que el coeficiente de correlación (R2) no es lo suficientemente bueno7 dos de
las variables no presentaron un comportamiento esperado. Coincidencialmente fueron las
variables que describían la geometría de las viguetas. Al igual que como sucedió en el
todos los refuerzos, estas variables que tiene el mismo origen, provocan el mismo
comportamiento en pf. El aumento de los valores que toman tanto la altura total de
viguetas (Figura 4.19) y el ancho de las mismas (Figura 4.20) representan un aumento en la
probabilidad de falla. Esta conducta en estas dos variables puede representar un error
considerable en el proceso de optimización. Por otro lado estas dos variables representan
el peso de la estructura y puede llegar a pensarse.

7
Un R2 bueno debe ser mayor a 0.9. Con este valor ya se podría afirmar que la ecuación que
describe una variable dependiente en función de cualquier otro número de variables tiene un error
mínimo.

67
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

Figura 4.18. Probabilidad de Falla contra s

Figura 4.19. Probabilidad de Falla contra h

68
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

Figura 4.20. Probabilidad de Falla contra b

4.7.3 Resultado
Una vez armado el sistema de optimización, compuesto por la función objetivo
(4.21), y las restricciones de la sección anterior, por los métodos estudiados en este
trabajo se optimizó haciendo uso de Mathcad. Desafortunadamente no se pueden reportar
resultados ya que los recursos computacionales con los que se contaba no fueron
suficientes. Aunque este procedimiento no estaba en el alcance de este proyecto, como
se discutirá en las conclusiones de este ejercicio, este fallo puede mitigar las ganas de
seguir en esta investigación, pero por el contrario da un buen acercamiento al problema al
que nos estamos enfrentando y avivan las ganas de llevar este procedimiento a la
práctica encontrando un algoritmo general para cualquier estructura.

4.7.4 Conclusiones del proceso por Regresión Multivariable


Una vez terminado todo el proceso que lleva un diseño basado en optimización se
pueden obtener una serie de importantes conclusiones. Estas se pueden dividir en dos
grandes grupos: las conclusiones generales de todo proceso y aquellas específicas del
ejemplo de una losa estructural armada en una dirección. Las conclusiones generales
hacen referencia a la Complejidad del Problema, a la Capacidad Computacional y al
Estudio de Cargas y se presentan a continuación. Las otras conclusiones (especificas)
son del estudio de probabilidad de falla y la optimización.

4.7.4.1 Complejidad del Problema


Como se discutió en el Capítulo 1, y se vio en la sección 4.7.1 del presente Capítulo
el cálculo de la probabilidad de falla puede agregar gran complejidad que dificulte la
solución del diseño. Cualquier sistema estructural, sea un pórtico un sistema de muros
una cercha o un losa cuenta con varios estados límites que al quererse implementar este
procedimiento para un diseño real deben tenerse en cuenta. Generalmente los ejercicios

69
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

teóricos presentados en los salones de clase y en artículos sobre el tema tienen en


cuenta uno o dos estados límites y adicional a esto aproximan la probabilidad de falla total
a la suma de probabilidades parciales. En este procedimiento se tuvo en cuenta todos los
posibles orígenes de ruptura y la probabilidad de falla se calculó de forma conjunta en un
solo algoritmo de Monte Carlo (ver Apéndice B).
La función de costos también tiene su complejidad sobre todo si se tiene en cuenta
una función de costos avanzada donde se tengan en cuenta transporte, desperdicio y en
general todas las variables que implique un costo. La función objetivo en si incrementa el
trabajo de los diseñadores al tener que contar con un economista en el equipo de diseño
para encontrar la tasa de descuento que mejor se ajuste. Este ajuste como todo el
procedimiento debe ser individual para cada proyecto ya que dependerá de la naturaleza
del mismo.
La complejidad del problema es evidente. Un diseño tradicional puede ser más
sencillo y por esta razón elaborarse en un menor tiempo. Este problema es el principal
enemigo de este tipo de diseños innovadores y es aquí donde tiene que radicar toda
investigación de los próximos años. La teoría de la optimización y confiabilidad estructural
esta muy bien desarrollada pero el paso a la practica en países como Colombia esta muy
retrasado. Colombia necesita ahorro y extender sus inversiones en todos los sectores y es
concluyente que el diseño óptimo es una gran herramienta para esto.

4.7.4.2 Capacidad Computacional


Otro gran obstáculo en la implementación del diseño óptimo basado en confiabilidad
es el recurso computacional. Este proyecto de grado se corrió en Mathcad en un
computador con un procesador AMD Athlon de 1.2 Ghz en una tarjeta madre DFI, con una
memoria física de 512 MB. Estas características son iguales o superiores a las que se
encuentran en las oficinas de los diseñadores donde se corren programas como
SAP2000. Si a este rendimiento computacional colapsó el diseño de una losa es de
esperarse que colapse en el diseño de otras estructuras y al no haber recursos
computacionales disponibles los ingenieros en la práctica no aprobaran la entrada de un
nuevo procedimiento.
El problema del colapso puede ser consecuencia de muchos factores cuya solución
puede ser relativamente sencilla. Es necesario concentrarse en este software ya que una
vez desarrollado la implementación del diseño óptimo basado en confiabilidad sería un
hecho. Entre estos problemas se encuentran el procedimiento desordenado que
seguramente tenía el algoritmo. Este no solo mejoraría la parte de optimización sino que
su vez agilizaría el cálculo de la probabilidad de falla que para este ejemplo tomo más de
5 días (un diseñador no aceptaría todo este tiempo para un diseño tan simple). Otro
problema es el uso de Mathcad como programa madre. Este programa ya cuenta con sus
recursos y procesos propios que ocupan abundante memoria. Programar en FORTRAN o
en cualquier otro lenguaje un programa dedicado a puede mejorar el proceso
computacional.
Asociado a las restricciones del ordenador que se utiliza para elaborar el
procedimiento existe otro un poco más difícil de solucionar. En varias etapas del
procedimiento es determinante algunas decisiones que hasta ahora los programas de
computador no están en la capacidad de hacer. Un ejemplo claro de esta afirmación es la
regresión que es necesaria para tener un acercamiento acertado a la probabilidad de falla.
Si bien es cierto que en la actualidad existen numerosos programas para realizar este tipo
de oficios ninguno de ellos es lo suficientemente “inteligente” para descifrar o decidir que

70
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

tipo de variables se deben introducir o como se deben combinar las mismas. De este
trabajo se puede ver la necesidad de estudiar el tema con detenimiento para poder
determinar la estructura de la ecuación pf(p) para cada caso (losas, pórticos, muros, etc.)
y enfocar los algoritmos en la búsqueda de las constantes de estos modelos y no de todo
el modelo. Es necesario aclarar que se ya se han implementado varias metodologías para
evitar esta disfuncionalidad como el “response surface approach”.

4.7.4.3 Estudio de Cargas


Para la realización de este estudio se utilizaron cargas estipuladas en el código
colombiano NSR-98. Se puede concluir que para un análisis basado en confiabilidad el
uso de estas cargas puede resultar incorrecto ya que, por ejemplo para la carga viva,
estas ya tienen un análisis estadístico y estas se encuentran siempre en la zona segura.
Es necesario hacer un estudio más detallado para ver cual es el valor real de la media
que se debe tener para cada caso. En otras palabras se puede decir que la carga viva o
de acabados es muy distinta en una oficina de ingenieros y una de comerciantes. La
NSR-98 no diferencia entre los tipos de oficinas ni los tipos de acabados aunque si abre la
posibilidad de hacer un estudio detallado.
El problema con la media de estas cargas importante pero fácilmente solucionable
con un estudio detallado. Otros dos problemas de igual importancia no tienen esta misma
cualidad. El tipo de distribución que sigue cada carga y su desviación estándar son mucho
más complicados de medir. Esto dificulta más el diseño basado en confiabilidad porque es
en estos dos parámetros que radica la probabilidad de falla. Si las cargas fueran medidas
determinísticas la probabilidad de falla dependería únicamente de la resistencia y no de la
solicitación, afirmación que es completamente falsa si se tiene en cuenta que los que más
incertidumbre tiene en este vinculo R – S es precisamente la solicitación.

4.7.4.4 Sobre la Probabilidad de Falla


El procedimiento con el que se calculó la probabilidad de falla tuvo varios errores
que sirvieron para mejorar todo futuro procedimiento. Sánchez-Silva [1] explica que el
índice de confiabilidad y por ende la probabilidad de falla es “el principal criterio para la
definición de los factores de carga y resistencia utilizados en los códigos de diseño”.
Desafortunadamente a la hora de programar el algoritmo de la simulación de Monte Carlo
la ecuaciones de estado límite quedaron tanto con los factores de carga como con los de
resistencia, esto hacia que el diseño tradicional la falla fuera de 53 por ciento en lugar de
menos del 5 por ciento como debería. Se analizó este problema y su incidencia en el
resultado no era de preocuparse ya que se solucionaba asumiendo que la probabilidad de
falla máxima permitida se acercaba al 55 por ciento. Claro esta que es recomendable
evitar este error que aunque no sean evidentes puede traer efector en la regresión y evitar
la “doble” seguridad en la que incurre.
Por otro lado la base de datos sufrió de un filtro que dejó como datos útiles menos
del 3 por ciento del total de datos que se tenían. Aparte de los datos que se debieron
ignorar por la inclusión de los factores de carga y resistencia hubo mucho que no
cumplían por las áreas de refuerzo seleccionadas. Se debió restringir el área de acero
entre la cuantía máxima y la cuantía mínima en lugar del doble del área y cero. Este
cambio probablemente aprovecha de mejor medida los 101376 datos.
El procedimiento matemático arrojó la necesidad de omitir varias variables en la
regresión. No queda claro que comportamiento físico de la estructura permite hacer
algunas de estas exclusiones. El área de acero del refuerzo transversal en viguetas es

71
ICIV 200410 43 Capítulo 4 – Ejemplo Práctico

posible por la posibilidad de que se requiera, para el ejemplo, refuerzo mínimo pero la
exclusión de la altura de la torta por su dependencia con el ancho de la vigueta no es
clara. No existen hipótesis del comportamiento estructural de una losa que expliquen esta
dependencia por lo que probablemente se deba al error de los factores.
La regresión múltiple, aunque es el método más exacto para encontrar la ecuación
de probabilidad de falla, si no se encuentra una correlación del 90 por ciento mínimo,
puede dar resultados muy inexactos. El error máximo que se tenía entre la probabilidad
de la simulación y la encontrada por medio de la ecuación de la regresión era de 0.2. Este
es bastante amplio si ya que el nivel de exactitud trabajado es de 0.01. Así mismo la
regresión que se tuvo presentaba comportamientos erróneos en dos de las variables. La
regresión utilizó la altura total de la losa y el ancho de las viguetas para ajustarse y no
representaba la realidad. De presentarse este error máximo en la zona cerca al óptimo el
proceso de optimización no sería confiable pero si demuestra que los errores de cierta
importancia ocurren fuera la zona de influencia del punto óptimo el procedimiento es
completamente válido.

4.7.4.5 Sobre la Optimización


Para ahorrar recursos computacionales se dejaron restricciones de lado, una de las
más importantes son aquellas pertinentes a las deformaciones máximas admitidas para
que muros divisorios no tengan ningún tipo de daño. Estas ecuaciones podrían llegar a
tratarse como ecuaciones de estado límite adicionales, pero dado que su naturaleza es
distinta es conveniente ubicarlas como restricciones del sistema de optimización. Como
estas ecuaciones existen muchas que se omiten en los ejemplos encontrados en la
literatura y en este ejemplo. Una valiosa conclusión que se obtuvo al terminar esta
investigación, es que para que el diseño basado en confiabilidad sea eficiente y consiga
desplazar al diseño tradicional es necesario involucrar todas las restricciones y
condiciones del problema incluyendo la función de costos completa. Los recursos
computacionales, nuevamente, se convierten en el limitante de este diseño, claro esta que
puede tener solución si la investigación continúa.

72
Capítulo 5
Conclusiones

• La confiabilidad puede representar ahorres importantes en la construcción,


estimulando el desarrollo de más construcciones y mejorando la calidad de vida de
muchas personas.
• El paso a seguir en la investigación concerniente al diseño basado en
confiabilidad es la creación de programas computacionales que agilicen el proceso de
análisis y desarrollo de estos diseños. Actualmente un proceso completo como el cálculo
de la probabilidad de falla por regresión múltiple ocupa mucho recurso computacional,
este proceso necesita ser depurado para garantizar la eficiencia del mismo.
• La optimización estructural cuenta con varios procedimientos que llevan a
resultados parecidos pero no exactos, es labor del diseñador escoger el procedimiento
que mejor se ajusta a cada problema. Este tema puede ser el de mayor complejidad a la
hora de utilizar el diseño basado en confiabilidad.
• Aunque la mayor meta en de los investigadores en este tema es lograr traspasar
las fronteras de la práctica, la investigación teórica tiene mucho campo por descubrir. Un
ejemplo de esto es el uso de SQQ, un método de optimización no – lineal para calcular el
índice de confiabilidad y por ende la probabilidad de falla de un elemento o un sistema.
Apéndice A
Cálculo de β en Mathcad con SQP multivariable

Calcular el índice de confiabilidad con un conjunto de subrutinas o funciones es


relativamente sencillo si se cuenta con todas las herramientas del cálculo numérico para
calcular derivadas. Una vez elaborado el algoritmo de todas estas subrutinas, se puede
escribir el código en un lenguaje de programación para poder compilar una aplicación que
tenga este ejercicio. En este apéndice se presenta el código escrito en Mathcad para este
problema, claro esta que se evita usar las funciones propias del programa (derivadas), y
as{i se facilita la trascripción del código a cualquier lenguaje. Claro esta que en algunas
ocasiones, como se explicará cuando sea debido, el código todavía se apoya en
funciones propias de Mathcad, por lo que es necesario encontrar formas de pasar de
estas funciones a un algoritmo general.

Constantes Necesarias
Para garantizar la convergencia del programa es necesario contar con la tolerancia que
de quiere tener en el momento de la solución. Para mayor explicación al respecto dirigirse
a 3.7. La otra constante necesaria es el límite de variables que puede llegar a tener la
función de estado límite. Existe una subrutina que determina cuantas variables se están
usando, pero es necesario que esta función recorra un número determinado de posibles
variables: 1 – LIMITEVAR

Función de Estado Límite


Esta sería la única entrada del usuario, a menos que se quiera definir las constantes
anteriores también como entradas. La función de estado límite se puede ver como una
subrutina en la que entra un vector y devuelve un número. Por ahora este código se
apoya en la interfase de Mathcad para ser leída, pero es posible crear un algoritmo que
entrada una función, con los nombres de variables cualquiera, transforme esta en el tipo
de función que se necesita. Para ilustrar el procedimiento de muestra ahora una función,
pero esta puede ser cambiada por el usuario.

Número de Variables
La función a continuación lee el número de variables que entran en la función. Con esta
no es necesario pedir al usuario la cantidad de variables que se están usando. Para
Mathcad, queda en N este número y se puede solicitar desde cualquier otra rutina.
ICIV 200410 43 Apéndice A – Cálculo β con SQP

Función Objetivo
Dado que la función objetivo tiene la misma forma para cualquier número de variables, es
posible armarla de acuerdo al resultado de la función que identifica el número de
variables.

Vectores Gradientes de las Funciones f(x) y h(x)


Para definir en Mathcad los vectores gradientes de las funciones es necesario usar el
cálculo numérico. Estas subrutinas quedan listas para ser usadas en Fortran 90 o
cualquier otro lenguaje. Se puede ver que las funciones son iguales lo único que cambia
es la función interna que se usa para evaluar la integral. Existe la posibilidad de crear una
función como variable de entrada tenga otra función, pero para este caso del índice de
confiabilidad con SQP, al ser solo dos gradientes es más eficiente definir los dos
gradientes por separado.

75
ICIV 200410 43 Apéndice A – Cálculo β con SQP

Matriz Hessiana de la Función de Estado Límite


La matriz Hessiana de la función de estado límite se convierte en la función más
elaborada para realizar. Tratando de no utilizar las funciones internas de Mathcad, para
lograr pasar el código luego a Fortran 90 o cualquier lenguaje. Para esto es necesario
tener uno vectores x evaluadas en las distintas variables en x + h y x – h, y tener
combinado un vector donde sean dos x distintos los que cambian. Para esto se usan dos
matrices, una con la suma y otra con las restas. Las columnas contiene el vector
correspondiente a la variación de a variable cuyo número coincida con la columna. Para
esto se crea una función independiente, adicional a otra función encargada de combinar
dos de estos vectores cuando sea necesario. La tercera función adicional escoge de la
matriz armada con los vectores cambiados el vector que se necesita usar en cada
iteración.

76
ICIV 200410 43 Apéndice A – Cálculo β con SQP

Matriz Hessiana de la Función Objetivo


La matriz Hessiana de la función objetivo es siempre la matriz Identidad de N variables
multiplicada por 2. Esta función solo arma esta matriz.

77
ICIV 200410 43 Apéndice A – Cálculo β con SQP

Hessiana del Lagrangiano


Puede parecer una línea de comando de Mathcad pero en realidad se puede ver como
una función de una sola línea de código.

Primera Iteración
Una caracteristica de ls función h(x) (función de estado limite) es que se encuentra
igualada a cero, por lo que por el método de Newton – Raphson se puede encontrar la
primera iteración del algoritmo.

78
ICIV 200410 43 Apéndice A – Cálculo β con SQP

Matriz M del Problema Lineal Complementario


Esta función se apoya en que todos los lenguajes de programación tienen incluidas las
funciones que aumentan matrices, por lo que no es necesario armar estas funciones.
Cuando se pase el Algoritmo a otro lenguaje es necesario solo cambiar los nombres de
estas dos funciones ya que aquí se presentan con los nombres de Mathcad.

Valores Propios
Esta función analiza si los valores propios de una matriz son positivos o no. Devuelve 1 si
lo son y 0 de lo contrario. La función funciona sin importar el número de variables, pero
depende de la existencia en la biblioteca matemática del lenguaje de una función que
calcule los eigenvalores.

Aproximación B
Al igual que la función anterior, la función que tiene la primera aproximación cuando los
valores propios de la matriz original son distintos de cero, depende de una función en el
lenguaje que calcule los eigenvalores. La función que actualiza la matriz para las
siguientes iteraciones no tiene este problema.

79
ICIV 200410 43 Apéndice A – Cálculo β con SQP

Función de Ventaja
Aunque esta función funcione perfectamente en un programa multi – variable, es la única
función que todavía usa funciones propias de Mathcad ya que no se ha podido ver como
se calcula con cálculo numérico la derivada involucrada.

Cuerpo del Programa


El cuerpo del programa incluye 5 subrutinas encargadas de organizar los resultados en
tablas para guardar las iteraciones, y encargadas de leer una iteración anterior cuando
sea necesario para actualizar la matriz B. La función principal SQP, devuelve una tabla en
la cual las filas son las distintas iteraciones, y las columnas son las N variables. Las seis
funciones que pertenecen exclusivamente al cuerpo funcionan perfectamente sin importar
el número de variables.

80
ICIV 200410 43 Apéndice A – Cálculo β con SQP

81
ICIV 200410 43 Apéndice A – Cálculo β con SQP

82
Apéndice B
Algoritmos de Mathcad para el Cálculo de pf de Losas

Funciones de Estado Límite


Se programaron todas las funciones de estado límite consideradas.
ICIV 200410 43 Apéndice B – Cálculo pf: Monte Carlo

Matriz de Datos
La siguiente función tiene solo como objetivo llenar una matriz P con todas las posibles
combinaciones de variables que se van a evaluar para el cálculo de la probabilidad de
falla. Esta matriz contiene más de 100000 filas pero puede modificarse para las
necesidades del problema.

84
ICIV 200410 43 Apéndice B – Cálculo pf: Monte Carlo

Cálculo de Probabilidad
Esta función recibe como datos de entrada los índices de la matriz P de las líneas que se
quieran evaluar devolviendo un vector con el mismo número de líneas donde se

85
ICIV 200410 43 Apéndice B – Cálculo pf: Monte Carlo

encuentran archivadas las probabilidades de falla. Usa anidadamente las funciones de


estado límite definidas con anterioridad.

86
Apéndice C
Cálculo de β en Mathcad con FORM multivariable

El algoritmo programado en Mathcad, al igual que el presentado en el Apéndice A,


es multivarible, donde las variables hacen parte de un vector x. También se consideran
que existen dos vectores un con las medias de las variables y otro con las desviaciones.
Estos vectores se llaman µ y σ respectivamente.

Cálculo del Vector G

Solución de la Última Variable


Esta función calcula el valor de una variable dependiendo de la función de estado límite y
los valores de N – 1 variables. Se programó para que la variable calculada fuera la útlima
en el arreglo.
ICIV 200410 43 Apéndice C – Cálculo β con FORM

Cuerpo del Programa


Esta función da como resultado una matriz con los datos de todas las iteraciones entre
ellos Z’s y α’s. Este resultado después es organizado en una tabla con la ayuda de un
componente de Excel.

88
ICIV 200410 43 Apéndice C – Cálculo β con FORM

89
Bibliografía

[1] Sánchez-Silva, Mauricio. Introducción a la Evaluación de Riesgos: Teoría y


aplicaciones en Ingeniería. Notas de Clase. Departamento de Ingeniería Civil y
Ambiental. Universidad de los Andes. 2002
[2] Bazaraa, M. Sherali, H. Shetty C. Nonlinear Programming: Theory and Algorithms.
Segunda Edición. John Wiley & Sons, Inc. 1993.
[3] Simmons, Donald M. Nonlinear Programing for Operations Researsh. Prentice-Hall
Internacional Series in Management. 1995.
[4] Künzi, H. Krelle, W. Nonlinear Programming. Blaisdell Publishing Company.1966.
[5] Grossman, Stanley I. Álgebra lineal. Quinta Edición. McGrawHill. 1996.
[6] Rackwitz, Rüdiger. Optimization – the basis of code-making and reliability
verification. Structural Safety. Volumen 22. Año 2000. Páginas 27 – 60.
[7] Rackwitz, Rudiger. Risk Control and Optimization for Structural Facilities.
Presentado en: 20th IFIP TC7 on “System Modelling and Optimization”, Julio 23 –
27, 2001, Trier, Alemania.
[8] Marti, Kurt. Stocckl. Gerald. Optimal Design of Trusses by Stochastic Linear
Programming with Recourse. Lecture Presented at the VII International
Conference on Stochastic Programming, 1998, Vancouver/Canada.
[9] Haldar, Achintya. Mahadevan, Sankaran. Probability, Reliability and Statical
Methods in Engineering Design. John Wiley & Sons, Inc. 2000.
[10] Nowak, Andrzej. Collins, Kevin. Reliability of Structures. McGrawHill. 2000.
[11] Nilson, Arthur. Diseño de Estructuras de Concreto. Duodécima edición.
McGrawHill. 1999.
[12] Uribe, Jairo. Análisis de Estructuras. Segunda edición. Editorial Escuela
Colombiana de Ingeniería. ECOE Ediciones. 2000.
[13] Normas Colombianas de Diseño y Construcción Sismo – Resistente NSR-98.
Edición: Temas Jurídicos, 3R Editores. 2002.
[14] Gobernación del Valle del Cauca. Listado de Precios Unitarios Oficiales de
referencia para la Contratación de Obras Directas de Infraestructura. Decreto 523
de abril 1 de 2004. http://www.elvalle.com.co. En línea. Última visita: 22 de junio
2004.
[15] Singh, Surinder. Cost Model for Reinforced Concrete Beam and Slab Structura in
Buildings. Journal of Construction Engineering and Management. Vol. 116, No. 1
American Society of Civil Engineering ASCE. Marzo de 1990.

También podría gustarte