Está en la página 1de 41

Universidad de Piura

Piura, Perú, 2006


Teoría de Confiabilidad y Aplicaciones en Ingeniería Civil

Dr. Ricardo O. Foschi


Profesor de Ingeniería Civil
University of British Columbia, Vancouver, B.C.
Canada
Introducción

La mayoría de los problemas en ingeniería se refieren a la interacción de variables, del


resultado o de la respuesta a esa interacción y, finalmente, de la verificación que los
resultados no violan los requerimientos de diseño. Así, en un problema de flexión de una
viga simple, las variables serían: 1) las dimensiones de la viga; 2) las características de los
materiales (rigidez, resistencia); y 3) las cargas aplicadas. Estas variables actuarán
recíprocamente dentro de un modelo, basado en hipótesis de la resistencia de los materiales,
que permitirán el cálculo de una respuesta (por ejemplo, la deflexión de la viga). En el
proceso de diseño, la deflexión calculada será comparada con un valor admisible para
determinar la aceptabilidad del diseño.

En realidad, la mayoría si no todas de las variables no se conocen exactamente. Es decir, las


variables son inciertas o no deterministas. Por ejemplo, la resistencia real de una viga de
madera no se sabe (lo que se sabe son las estadísticas de muestras de vigas similares probadas
en el laboratorio). Similarmente, las cargas aplicadas se saben solamente en forma estadística
(por ejemplo, una estimación de qué cargas máximas se pudieran esperar en un período de
un año). Así, el ingeniero tiene que tratar la incertidumbre en las variables del problema, y
entender la incertidumbre asociada a las respuestas que se obtienen.

La Teoría de la Confiabilidad procura cuantificar la incertidumbre, usando la teoría de la


probabilidad, e introduciendo conceptos por medio de los cuales los diseños pueden ser
logrados con una probabilidad tolerable de falla, o riesgo que el diseño no tenga la
performance esperada. Esto es una clara diferencia con los conceptos tradicionales de, por
ejemplo, diseñar para evitar la falla. El uso de métodos probabilísticos reconoce, por defecto,
que las fallas no pueden ser evitadas, pero que el ingeniero puede reducir al mínimo el
número previsto de fallas tal que pueda lograr un diseño dentro de un nivel tolerado por
demandas económicas y otras necesidades de la sociedad.

Este curso discute los fundamentos de la Teoría de la Confiabilidad tal y como se aplica a
diversos aspectos de la Ingeniería Civil, y presenta ejemplos para clarificar el enfoque. Desde
que los fundamentos de la teoría estadística y de probabilidades son requeridos, los
conceptos básicos serán repasados brevemente.

Diseño Basado en Confiabilidad y Performance

El objetivo en el diseño de cualquier sistema de ingeniería es reunir criterios de performance


especificados y lograrlo con un nivel deseado de confianza o confiabilidad para la esperada vida útil
del sistema. Los criterios de performance están asociados con diferentes situaciones de
diseño, o estados limites, los cuales son usualmente considerados por el ingeniero en el
proceso de diseño: por ejemplo, limites de serviciabilidad como deformaciones o vibraciones
tolerables, o falla por flexión o corte de un elemento, o suficiente resistencia residual después
de un incendio, o falla de conexiones debido a propagación de fisuras. El problema axial
formulado, es conocido como “diseño basado en performance”.

La solución del problema del diseño basado en performance depende en la cuantificación


de la performance para cada estado límite y esto, a su vez, requiere de la disponibilidad de
modelos de cálculo. Por ejemplo, la consideración de vibraciones de losas requiere un modelo
realístico para la estimación de la respuesta dinámica de la losa a una excitación especificada.
En general, el comportamiento representado por un modelo de cálculo envolverá varias
variables, cada una con un diferente grado de incertidumbre. Algunas de estas variables
pueden ser conocidas con buena certeza (por ejemplo, la luz de una viga), mientras otras
pueden ser muy inciertas, o aleatorias, como las cargas debidas a viento o nieve o
inundaciones o sismos. Dada la incertidumbre de los datos, el resultado calculado de la
performance tendrá también un nivel de incertidumbre y, por lo tanto, habrá siempre la
posibilidad que la performance real no cumpla con el criterio de aceptación. El diseño
entonces debe ser ajustado para satisfacer el criterio con “probabilidades tolerables de no-
performance”. Estas probabilidades pueden también ser llamadas “probabilidades de falla objetivo”,
a pesar que en general ellas pueden referirse a estados limites que no involucran falla o
colapso. El complemento de la probabilidad de no-performance es la “confiabilidad” del
diseño. Se debe enfatizar que la confiabilidad estimada corresponde al modelo de cálculo
usado, y es importante, por lo tanto, que el modelo represente la realidad tan cerca como sea
posible. En cualquier caso, una variable aleatoria adicional asociada con un “error de
modelación” debe siempre ser usada.

En general, la performance de un sistema de ingeniería puede ser descrita por una función de
estado límite o de performance G(x) , de la forma siguiente:

G ( x) = C ( x c , d c ) − D( x d , d d ) . [1]

G(x) es una función de las variables que intervienen en el problema, x , y siempre puede ser
escrita como la diferencia entre dos funciones: una capacidad C y una demanda D. Las variables
pueden ser divididas en dos grupos: uno, (xc , dc ) , relacionado con la capacidad C, y una
segunda, (xd , dd) , asociada con la demanda D. Los vectores xc , xd incluyen todas aquellas
variables que son aleatorias o inciertas, mientras que los vectores dc y dd incluyen todas
aquellas cantidades que son determinísticas o conocidas con suficiente certeza. Por ejemplo el
peralte de una viga afectara su capacidad a la flexión y formara parte de dc , mientras que la
luz afectara la demanda de momento flector y formara parte de dd . Por otro lado, la
resistencia a la flexión formara parte de xC , mientras que la carga aplicada será incluida en xD.

Cuando la función de performance se escribe en la forma mostrada en la Ec.[1], la no-


performance corresponderá a situaciones donde las variables se combinan para tener D > C,
o G < 0. axial, estimar la probabilidad de no-performance es equivalente a estimar la
probabilidad que el evento resulte en G < 0 . Esta será la ”probabilidad de falla” Pf , y la
confiabilidad será el complemento 1.0 – Pf .

El cálculo de la confiabilidad requiere información estadística sobre la variabilidad de las


variables aleatorias. Por ejemplo, la resistencia a la flexión de una viga laminada variará de
espécimen a espécimen, y esta variabilidad puede ser obtenida a través de ensayos y

2
representada por distribuciones estadísticas. En un modelo de cálculo de capacidad más
sofisticado, las estadísticas para la viga pueden ser derivadas a partir de las laminaciones
individuales, y los ensayos en las laminaciones proveerán la información requerida. Algunas
variables pueden tener mas influencia que otras y, por lo tanto, requerirán una descripción
estadística mas precisa. Algunas variables de la demanda dependerán de datos disponibles,
por ejemplo, velocidades de viento, espesores de capas de nieve, cantidad de lluvia,
intensidades sísmicas históricas, o cargas de ocupación. Las estadísticas de tales demandas
pueden ser comunes a todos los materiales. Por otro lado, todas aquellas variables asociadas
con la capacidad son dependientes del material. En este sentido, por ejemplo, desde que las
propiedades de la madera tienden a ser generalmente más variables que las del acero, la teoría
de confiabilidad juega un papel relativamente más importante en la ingeniería de madera. Por
supuesto, pueden haber algunas variables para las cuales no existen datos o hay muy poca
información disponible. En este caso, las estimaciones subjetivas de la variabilidad pueden
ser introducidas con el fin de estudiar la importancia de tales asumidos en la confiabilidad
global del diseño. Si una variable particular se encuentra que es muy importante, pero falta
información detallada, se debe hacer un mayor esfuerzo para obtener mas datos con el fin de
evitar valores poco confiables en la estimación de la confiabilidad.

La confiabilidad, en el contexto del diseño basado en performance, ofrece muchas ventajas


no adecuadamente tratadas por los métodos de cálculo más tradicionales y determinísticos.
La confiabilidad calculada de un estado límite dado disminuirá si la información es
incompleta o la variabilidad es alta. Por el contrario, mejores resultados se obtienen con una
mayor información sobre el material, con una mejor modelación del estado limite, o mejores
procedimientos para el control de calidad. En este sentido, estos métodos probabilísticos
facilitan la innovación en la fabricación y en las aplicaciones ingenieriles.

¿Cómo implementamos, en la práctica, cálculos de la confiabilidad y diseño basado en


performance? Un acercamiento será estudiar cada situación específica del diseño, y obtener
los valores para los parámetros deterministas dc o dd de manera tal que una confiabilidad dada
sea obtenida para la vida útil del sistema. Esto sería un enfoque modificado para requisitos
particulares del diseño, quizás requerido para los sistemas importantes o en la fabricación de
componentes de un sistema. Otro enfoque será el desarrollo de un procedimiento codificado,
por medio del cual una ecuación prescripta para el diseño será especificada para cada estado
límite. El enfoque codificado podría cubrir una gran cantidad de aplicaciones simples para el
cual el enfoque modificado para requisitos particulares puede no ser necesario.

Las ecuaciones de diseño del código contienen normalmente un suficiente número de


"factores de diseño" que se aplicarán a las demandas nominales de carga o a las capacidades
nominales. Estos factores podrían haber sido elegidos o calibrados de una manera tal que, al
usar el código, el diseño que resulta habría alcanzado el nivel de confiabilidad deseado. Por
supuesto, con apenas algunos factores, la confiabilidad deseada no se puede lograr para una
gran cantidad de situaciones de diseño. Por tanto, los factores son calibrados por
optimización, reduciendo al mínimo la diferencia entre las confiabilidades deseadas y aquellas
que se alcanzan sobre una gran cantidad de condiciones del diseño a las cuales el código se
aplica. Una desventaja de este enfoque optimizado es que la confiabilidad alcanzada varía a
través de varias situaciones. Por ejemplo, las prescripciones del código para el diseño de
viviendas en Norteamérica han estado calibradas para alcanzar una confiabilidad bastante
uniforme pero, en realidad, el nivel varía con la localización geográfica de acuerdo con
cambios en la estadística de la carga de la nieve. El proceso de la calibración del código
produciría solamente un código con una rango de aplicabilidad dependiendo de la elección

3
de las situaciones consideradas en la ejecución de la calibración. Una descripción más
detallada de la calibración de códigos se muestra en Foschi et el al. (1990).

El diseño basado en performance esta intimamente ligado al cálculo de la confiabilidad y al


reconocimiento de imprecisiones en el proceso de diseño. Las herramientas matemáticas
requeridas son proveídas por la teoría de probabilidades. Para completar este tema, la
próxima sección incluye una breve revisión de conceptos básicos de probabilidad y de los
métodos requeridos en la estimación de la confiabilidad.

Representación estadística de variables y conceptos básicos de probabilidad.

Los datos para cada una de las variables involucradas se deben proporcionar en forma de
información estadística. Los conceptos básicos de estadística y probabilidades se encuentran
muy bien desarrollados en varios textos (Benjamin y Cornell, 1970; Ang y Tang, 1984). En
este apartado se hace una breve revisión.

Consideremos el caso específico de la resistencia a la flexión de una viga de madera, de una


sección transversal y de una longitud dados. Suponga que se ensayan N especimenes,
manteniendo constantes ciertas características que influencian la resistencia a la flexión: por
ejemplo, distribución de carga, velocidad de carga, temperatura y contenido de humedad.
Con certeza, las resistencias f obtenidas de las N pruebas serán todas diferentes. Además,
suponga que cada prueba también es utilizada para obtener el módulo de la elasticidad E. Las
estadísticas básicas que pueden ser obtenidas serán los valores medios y las desviaciones de
estándar de f y de E, más la covarianza entre ellos:

N N
1 1
Valores medios: f =
N

i =1
fi E=
N
∑E
i =1
i [2]

∑ (f ) ∑ (E )
N N
2 2
i −f i −E
Desviación estándar: σf = i =1
σE = i =1
[3]
N N

∑ (f )( )
N

i − f Ei − E
Covarianza f - E: σ f −E = i =1
[4]
N

y los parámetros asociados:

σf σE
Coeficientes de variación: cov f = cov E = [5]
f E

4
σ f −E
Coeficiente de correlación lineal f - E: ρ f −E = [6]
σ fσE

La desviación estándar proporciona información de la dispersión de la variable respecto a su


valor medio, sin referencia al signo de la desviación, mientras que el coeficiente de variación
expresa esa dispersión como una fracción del valor medio. Dos variables aleatorias se dice
que son independientes si una puede tomar cualquier valor dentro de su rango
independientemente del valor tomado por la otra. Dos variables independientes tienen
covarianza cero y, correspondientemente, coeficiente de correlación cero. Las variables que
tienen una relación lineal determinística entre ellas están perfectamente correlacionadas
linealmente, y el coeficiente de correlación toma un valor entre +1 o -1 dependiendo de la
pendiente de la relación lineal. En la prueba de flexión probablemente se encontraría que las
variables f y E están correlacionadas, pero no perfectamente, y el coeficiente de correlación
podría estar en el orden de 0.60 a 0.70. Esto significa que una viga más resistente tiende a ser
más rígida e, inversamente, una viga más débil tiende a ser más flexible. Debido a la
correlación positiva, es poco probable encontrar combinaciones de una viga muy resistente
(alta f) con características muy flexibles (bajo E).

Para cálculos de confiabilidad no es suficiente con proveer solamente las estadísticas básicas.
Los datos también deben ser clasificados con la finalidad de construir una función, llamada
distribución de probabilidad acumulada, F(x), definida como:

F ( x 0 ) = Pr ob( x ≤ x 0 ) [7]

es decir, F(x0) representa la probabilidad de encontrar, en el rango de la variable estudiada,


valores de x menores que o iguales que x0. Esta función toma valores entre 0 y 1, como se
muestra en la Figura 1, para datos correspondientes a resistencia a la flexión de una viga de
madera (en Mpa).

1.00
0.90
0.80
0.70
0.60
0.50
0.40
0.30
0.20
0.10
0.00
0 10 20 30 40 50

Figura 1. Ejemplo de datos discretos ajustados con una función de distribución acumulada
(Weibull de 2-parámetros)

5
Los puntos discretos usados para construir F(x) a partir de los datos pueden ser ajustados
con una función matemática, que luego es usada en las estimaciones de confiabilidad. Otra
función útil es la derivada f(x) de la distribución acumulada F(x). La función f(x) se llama la
densidad de probabilidad. Debido a la relación entre f(x) y F(x), la probabilidad F(x0) también se
puede escribir como:

x0

F (x0 ) = ∫ f ( x)dx
−∞
[8]

La distribución acumulada F(x) puede ser representada con una variedad de funciones
matemáticas. Una discusión detallada de las diferentes distribuciones de probabilidad se
encuentra en Benjamin y Cornell (1970), Ang y Tang (1984a), o Thoft-Christensen (1982).
Aquí vamos a considerar solo algunas de las distribuciones mas empleadas en ingeniería.

a) Distribución Normal (o de Gauss): Esta muy conocida distribución se describe por


su función de densidad f(x):

f ( x) =
1
2π σ
(( )2
exp − x − x / 2σ 2 ) [9]

Esta distribución es simétrica a partir del valor medio y se extiende de – ∞ a +∞. Para el caso
especial de valor medio cero y desviación estándar σ=1, la distribución se convierte en una
Estándar Normal. La distribución acumulada F(x) se denota como Φ(x) , y el
correspondiente f(x) se denomina φ(x). Aunque una distribución Normal puede ser siempre
ajustada a una serie de datos, se presenta un problema fundamental cuando la variable x no
puede ser negativa (como en el caso de resistencia a la flexión, o del módulo de la elasticidad
o de las cantidades de precipitación). Sin embargo, una Normal se puede utilizar si el valor
medio es positivo y el coeficiente de variación es pequeño, teniendo como resultado que muy
pocas veces la variable tome valores negativos. La distribución Normal tiene algunas
características muy interesantes: cualquier combinación lineal de distribuciones Normales es
también una Normal, una característica que no se cumple para otras distribuciones. Las
propiedades de la distribución Normal la han hecho la base para la mayoría de los avances en
pruebas e inferencias estadísticas. Una Normal de valor medio m y desviación estándar σ
puede ser escrita como:

x = m +σ R [10]

donde R es una variable Normal Estándar. Puesto que existen algoritmos que generan
números aleatorios con una distribución normal estándar, la Ec. [10] puede ser usada para
generar números aleatorios con una distribución Normal.

b) Distribución Lognormal: En este caso, el logaritmo de la variable x tiene


distribución normal. Por lo tanto, la variable x no puede ser negativa y su rango va de
0 a +∞.
Esta característica hace que la distribución Lognormal sea buena para representar
datos positivos como resistencias o módulos de la elasticidad. Otro ejemplo común
de aplicación de la Lognormal está en la representación de la variabilidad de las
aceleraciones pico durante un terremoto.

6
c) Distribución Extrema Tipo III o Weibull: La función de distribución acumulada
F(x) es, es este caso,

F ( x) = 1.0 − exp{−[( x − x 0 ) / m] k } [11]

donde se identifican tres parámetros como sigue: x0, la localización (no hay x más pequeño
que x0); m, la escala y k, la forma. Un caso particular de la distribución Weibull implica
solamente dos parámetros, para el caso especial de x0 = 0. Estos parámetros se pueden
relacionar con el promedio y la desviación estándar de la distribución: por ejemplo, a mayor
variabilidad más pequeño es el parámetro de forma k. Una distribución Weibull no puede ser
negativa, por lo tanto tiene las buenas características de un Lognormal. Mas aún, puede
demostrarse que una distribución Weibull es una representación asintótica de la distribución
correspondiente al valor mínimo de una variable x entre un numero grande de muestras de la
misma variable. Esto hace que la Weibull sea una buena opción para representar, por
ejemplo, la resistencia de materiales frágiles o, en general, de los sistemas en los cuales la
capacidad de un grupo de muchos componentes está determinada por la capacidad del
componente más débil del grupo. Así, el comportamiento de la madera en corte o en tensión
perpendicular al grano, o del concreto en tensión, se puede representar bien por las
distribuciones Weibull. La ecuación [ 11 ] se puede también escribir en una forma diferente,

x = x 0 + m[− log(1 − F ( x) )]
1/ k
[12]

Desde que F(x) va de 0 a 1, la Ec.[12] puede ser usada para generar valores de x, que
obedezcan una distribución Weibull, utilizando un generador de números aleatorios que
generen números entre 0 y 1. Estos números aleatorios uniformes pueden ser generados con
rutinas disponibles, incluso con calculadoras portátiles.

d) distribución Extrema Tipo I o Gumbel: La función de distribución acumulada


F(x) es, en este caso,

F ( x) = exp(− exp(−a[ x − b] ) ) [13]

donde a y b son parámetros de la distribución, también relacionadas con el promedio y la


desviación estándar de x. Puesto que se puede demostrar que esta distribución es una
representación asintótica del valor máximo de una variable x entre un numero grande de
muestras de la misma variable, es una buena distribución para ser usada para representar
datos de demanda en los que uno esta interesado en el valor mas grande dentro de un
intervalo de tiempo. Por ejemplo, las estadísticas para máximas descargas anuales de nieve en
diferentes lugares de Canada son representadas por distribuciones Gumbel. Similarmente, las
distribuciones Gumbel producen un buen ajuste para máximos caudales anuales, o máximas
velocidades anuales de viento. La Ec. [13] puede ser rescrita como:

1
x = b + {− log[− log( F ( x))]} [14]
a

7
permitiendo la generación de valores de x que obedecen una distribución Gumbel, cuando
los valores de F(x) se generan entre 0 y 1 con un generador de números aleatorios uniforme.

e) Distribución Uniforme: En esta distribución la variable x puede tomar cualquier


valor entre dos limites, a y b, con igual probabilidad. La función de densidad es
entonces

1
f ( x) = [15]
b−a

Esta distribución es útil cuando no hay otra información disponible para una variable dada
excepto un asumido subjetivo del rango de la variable. En algunos casos, se utiliza la
distribución Uniforme cuando uno no desea introducir sesgos en los datos: por ejemplo, la
localización del epicentro de un sismo se asume uniformemente distribuida dentro de cierta
zona sísmica cuando no se dispone de un mapa detallado de fallas geológicas.

En general, la función de distribución acumulada F(x) puede ser modificada antes de ser
usada en estimaciones de confiabilidad. Estas modificaciones pueden incluir:

a) Modificaciones por máximos: En algunos casos podríamos necesitar modificar el


original F(x) para considerar la distribución para el máximo valor entre N valores de
la variable x. Por ejemplo, supóngase que x es la máxima carga anual de nieve en un
lugar. podríamos estar interesados en la distribución F100(x), donde x es ahora la
máxima carga anual que se puede esperar en un intervalo de tiempo de 100 años.
Puede demostrarse que

F100 ( x) = F ( x) 100 o, en general, FN ( x) = F ( x ) N [16]

donde N es el numero de ventanas elementales (para los cuales F(x) es conocida) que
estarán incluidas en el nuevo intervalo deseado. Un asumido básico en esta relación
es que el valor de x en una ventana elemental es independiente de los valores en las
otras. Así, si la ventana elemental es de un año, la carga máxima de la nieve en un año
se asume que es independiente de la carga máxima en el año siguiente. El resultado
de la transformación de la Ec.[16 ] es un cambio de la forma de la distribución
original F(x), aumentando el valor medio y disminuyendo la variabilidad. Si la
distribución original es Gumbel, a partir de la Ec.[13 ], elevándola a la potencia N, la
Ec.[14 ] se modificará como sigue:

log N 1
x =b+ + {− log[− log( FN ( x))]} [17]
a a

b) Modificaciones por Mínimos. En algunos casos podríamos necesitar modificar la


distribución original F(x) para considerar la distribución del mínimo valor de la
variable x entre N valores de la variable x. Esta transformación es útil cuando se
analiza un sistema frágil, cuya resistencia es controlada por el componente más débil.
Por ejemplo, una armadura estáticamente determinada con conexiones mecánicas
puede estar controlada por la resistencia de la conexión más débil. Puede mostrarse
que, si se tienen N componentes, todos con la misma distribución F(x), la
distribución del valor mínimo entre N valores esta dado por

8
FN ( x) = 1.0 − [1.0 − F ( x)] N [18]

El resultado de esta transformación es también un cambio en la forma de la


distribución original, con un valor medio reducido y un aumento de la variabilidad.
Consecuentemente, la resistencia de un grupo de conectores disminuirá con el
número de conectores (efecto de tamaño o size effect).

c) Modificaciones por Limite Inferior. En algunos casos puede ser necesario


modificar la distribución original F(x) para considerar que x no puede tomar valores
menores que x0 , un limite inferior. Esta transformación puede ser necesaria cuando,
por ejemplo, queremos introducir algunas medidas de control de calidad: para la
fabricación de secciones de madera laminadas, empleando, de todas las maderas
disponibles, solo aquellas que tienen un modulo de elasticidad E > E0 . Puede
mostrarse que la nueva función de distribución acumulada F*(x) satisface

F ( x) − F ( x 0 )
F * ( x) = [19]
1.0 − F ( x 0 )

d) Modificaciones por Limite Superior. Similarmente, en algunos casos puede ser


necesario modificar la original F(x) para considerar que x no puede tomar valores
mayores que x0 , un limite superior. Esta situación puede ocurrir cuando, por
ejemplo, una presión aplicada sobre una estructura puede ser aliviada por medio de
una válvula si excede cierto valor tope. Se muestra que la nueva función de
distribución acumulada F*(x) satisface

F ( x)
F * ( x) = [20]
F ( x0 )

Finalmente, para terminar esta revisión, consideremos la probabilidad de que dos eventos
ocurran simultáneamente. A esto se le llama la probabilidad conjunta, y se puede expresar como

P(1,2) = P(1 2) P(2) o P(1,2) = P(2 1) P(1) [21]

donde 1 y 2 identifican los dos eventos, P(1,2) es la probabilidad conjunta y P(12) es la


probabilidad condicional de que ocurra el evento 1 cuando ha ocurrido el evento 2. Por el
contrario, P(21) es la probabilidad condicional de que ocurra el evento 2 cuando el evento 1
ha ocurrido. Si los eventos 1 y 2 son independientes entre ellos, entonces la probabilidad
condicional P(12) = P(1), puesto que la ocurrencia del evento 1 no tiene nada que hacer
con la previa ocurrencia del evento 2. Para eventos independientes, se tiene,

P (1,2) = P (1) P (2) [22]

Una consecuencia interesante de la definición de probabilidad condicional es el Teorema de


Bayes. Sea E un evento que puede ocurrir simultáneamente con cada uno de N eventos
mutuamente excluyentes llamados Ai ( i = 1,.., N ). Un ejemplo practico podría ser cuando

9
E = falla de un puente, A1 = vientos huracanados, A2 = inundaciones, etc. A parir de la
Ec.[21] podemos escribir,

N
P ( E ) = ∑ P ( E Ai ) P ( Ai ) [23]
i =1

y, a partir de la definición de probabilidad condicional,

P ( E Ai ) P ( Ai ) = P ( Ai E ) P ( E ) [24]

se concluye que

P ( E / Ai ) P ( Ai )
P ( Ai / E ) = N
[25]
∑ P( E / A
j =1
j ) P( A j )

lo que se conoce como el Teorema de Bayes. Esta ecuación puede emplearse para actualizar
probabilidades a-priori para cada uno de los eventos Ai conocida la información que el
evento E ha ocurrido. Para el ejemplo de la falla del puente debido a diferentes probables
causas, el Teorema de Bayes puede ser usado para estimar la probabilidad de ocurrencia de
cada causa dada la información de que el puente ha fallado. Las probabilidades a-priori P(Ai)
pueden ser inicialmente subjetivas, por ejemplo, empezando con que todas sean igual a 1/N,
donde N es el numero de eventos mutuamente excluyentes Ai. Más adelante se discute una
aplicación del Teorema de Bayes en el análisis de un puente existente.

Distribución de Poisson y Ocurrencia de Eventos

En muchos problemas es importante considerar la ocurrencia de eventos a través del tiempo.


Así, la probabilidad del no-performance se puede estimar primero en el caso de que un
evento ocurra, y luego utilizando información de la frecuencia u ocurrencia de estos eventos,
se puede estudiar el riesgo para diferentes intervalos de tiempo (riesgo anual, riesgo en 100
años, etc.). Un ejemplo sería el estudio del riesgo sísmico: la probabilidad de exceder un
cierto nivel del daño en una estructura se puede estudiar primero dado que ha ocurrido un
terremoto de características dadas, y luego, sabiendo la frecuencia de tales sismos, se puede
concluir cuál es el riesgo que, en 50 años, ocurran daños que superen el nivel especificado de
daños. Para los acontecimientos infrecuentes y de duración finita, el ingeniero podría tolerar
así una probabilidad de falla más alta para el evento, compensado con el hecho de que dichos
eventos son raros. Los cálculos de las aseguradoras toman en cuenta esta información de
manera precisa.

Muchos modelos probabilísticos pueden ser usados para estudiar la ocurrencia de eventos. El
modelo de arribo de Poisson es uno de ellos. Está basado en la distribución de Poisson que
calcula la probabilidad de N eventos en un tiempo T:

P( N en T ) =
(λT ) N
e − λT [26]
N!

en la que λ es una constante. La Ec.[26] puede ser usada para calcular la distribución
acumulada del tiempo T hasta el próximo evento. Por definición, de la Ec.[7], F( T ) es la

10
probabilidad que el tiempo hasta que ocurra el próximo evento sea menor que T. Por el
contrario, la probabilidad que el próximo evento ocurra después de T es igual a la
probabilidad que no haya eventos antes de T. De la Ec.[26],

P( no eventos antes de T o N = 0 en T) = e - λT [27]

de donde se deduce que la probabilidad de ocurrir eventos antes de T es

F(T) = 1.0 − e − λT [28]

Este modelo predice que, si uno espera bastante tiempo, cuando T → ∞, habrá por lo menos
un evento, con certeza. Por otra parte, si T es algo corto, la probabilidad de ocurrir un
evento antes de T es pequeña. Así, la probabilidad de que ocurra un sismo en los próximos 5
minutos es muy pequeña, mientras que la probabilidad de que ocurra un sismo durante los
próximos 1000 años es casi una certeza. Usando la Ec.[28 ] para obtener el valor medio de la
distribución, o el tiempo promedio de ocurrencia de los eventos, T . Se puede mostrar que

T = 1/λ [29]

Por lo tanto, λ es el número promedio de eventos esperados en la unidad de tiempo escogida. Si el tiempo
entre eventos (T) se mide en años, entonces λ es el número promedio de eventos por año. La
Ec.[29] permite una manera de calcular el parámetro λ a partir de datos históricos. Se puede
mostrar que, aun basados en datos históricos limitados, el parámetro λ puede ser estimado
usando el Teorema de Bayes.

Finalmente, se puede mostrar que si el evento para la variable x es x > x0 , y si la


probabilidad que ocurra el evento es PE(x>x0), entonces el riesgo en un periodo T esta dado
por

PT ( x > x 0 ) = 1.0 − e − λT PE ( x > x 0 ) [30]

Para bajas probabilidades y eventos raros, la Ec.[30] puede ser aproximadamente escrita
como

PT ( x > x 0 ) = λ PE ( x > x 0 ) [31]

Métodos para calcular la Probabilidad de No-Performance.

Hay varios métodos para calcular la probabilidad de la falla o de no-performance. Una


discusión muy buena de diversos enfoques se encuentra en Ditlevsen et el al. (1996),
Melchers (1987), Madsen (1986), Augusti et al. (1984) y Ang y Tang (1984b). El método más
básico y más directo es el de la simulación por computadora (Montecarlo), mientras que
quizás los más eficientes son los métodos aproximados basados en el cálculo del índice de
confiabilidad β (procedimientos FORM y SORM). Hay también métodos para una
simulación más eficiente, llamados Muestreo de Importancia (Importante Sampling) o de Muestreo
Adaptable (Adaptive Sampling). Además, todos los métodos pueden ser implementados
utilizando ya sea la función de performance real G(x) o una aproximada superficie de ajuste
G(x). Esta superficie ajustada se llama superficie de respuesta del problema.

11
Todos estos métodos computacionales han sido implementados en software ahora
disponible. Una de estas aplicaciones, RELAN, ha sido usada en los ejemplos de aplicación
de este documento. RELAN ha sido desarrollado en el Departamento de Ingeniería Civil de
la University of British Columbia. Otros programas son CALREL, desarrollado en la
University of California at Berkeley; ISPUD, desarrollado en la University of Innsbruck,
Austria. En el software comercial se encuentran, STRUREL (Munich, Germany) y PROBAN
(Det Norske Veritas, Norway).
Aunque la mayoría de estas aplicaciones se han desarrollado pensando en análisis de
confiabilidad estructural, la teoría de la confiabilidad en la cual se han basado es
completamente general y, por lo tanto, pueden ser utilizadas para el análisis de cualquier otro
tipo de sistema de ingeniería. Todos incorporan los métodos discutidos aquí, y difieren
principalmente en la sofisticación axial como en la organización de los datos de entrada y
salida. Para completar, se incluye aquí solamente una breve descripción de los métodos de
cómputo.

a) Simulación Montecarlo

Suponga que, usando generadores de números aleatorios apropiados, se crean valores


de x de acuerdo a, por ejemplo, las Ecs.[ 10], o [12], o [14] o [17]. El saber x permite
calcular la correspondiente G(x). Si G(x)>0, entonces el criterio de performance se
cumple. Por otro lado, si G(x)<0 , la combinación x resulta en no-performance. Si
este calculo se repite N veces, y Nf es el numero de eventos que resultaron en no-
performance, la probabilidad de falla puede ser aproximada por la relación

Nf
Pf ≅ [32]
N

El resultado será diferente si el proceso se repite para otra muestra de N selecciones.


La variabilidad en los resultados depende de N, disminuyendo mientras que N
aumenta, y la estimación convergerá a la probabilidad exacta si N llega a ser grande.
Ésta es una ventaja de este procedimiento de simulación. Sin embargo, si el sistema
analizado tiene una baja probabilidad de falla, por ejemplo, 10-6, sería necesario
realizar, en promedio, N = 106 repeticiones para esperar encontrar un caso de no-
performance. Puesto que éste es el número de veces que la función G(x) debe ser
evaluada, el procedimiento podría tomar mucho tiempo, particularmente cuando esta
evaluación requiere el funcionamiento de un programa adicional para calcular la
capacidad o la demanda.

En una simulación estándar de Montecarlo, los vectores x se eligen aleatoriamente


dentro de todo su dominio. Para mejorar la eficiencia de la simulación, se han
desarrollado técnicas que permiten una estimación de la probabilidad con un número
reducido de repeticiones. Estas técnicas, bajo nombres de Muestreo de Importancia
(Importance Sampling) o de Muestreo Adaptivo (Adaptive Sampling), seleccionan vectores
x solamente dentro de las regiones de la importancia, dentro de las cuales se
encuentran las combinaciones más probables de producir falla. Estos procedimientos
son muy eficaces y descripciones más detalladas se pueden encontrar en la literatura
(Ditlevsen, 1996; Schueller et al., 1989).

12
b) Métodos de Confiabilidad de Primer y Segundo Orden (FORM y SORM)

Con la finalidad de tener una alternativa a la simulación de Montecarlo, se han


desarrollado métodos aproximados muy eficientes conocidos como FORM o SORM,
métodos de Confiabilidad de Primer y Segundo Orden, respectivamente. Con la
finalidad de entender las bases de FORM, podemos tratar un problema simple donde

G ( x) = X 1 − X 2 [33]

con las variables X siendo Normales y no correlacionadas. Además, notar que la función
de performance es lineal. Si expresamos las variables X en termino de sus promedios,
desviaciones estándar y las variables Normales Estándar x, siguiendo la Ec.[10],
podemos escribir

G ( x) = X 1 − X 2 + σ 1 x1 − σ 2 x 2 [34]

Por lo tanto, la falla o no-performance ocurrirá cuando G(x) < 0, o cuando

x 2 ≥ ( X 1 − X 2 ) / σ 2 + σ 1 x1 / σ 2 [35]

G<0 G=0
x2
y2
y1

P G>0

β α x1
o
Figura 2. Superficie de Falla y definición de índice de Confiabilidad, G = X1 – X2

La Figura 2 muestra el plano ( x1 , x2 ) con la respectiva región de falla G<0, definida por la
Ec.[35], y la región de no-falla, G>0. Se ve que la superficie de falla G=0 es una línea recta.
Una caracterización mas simple de la región de falla puede ser obtenida rotando el eje de
coordenadas, de ( x1 , x2 ) a ( y1 , y2 ), de allí entonces G<0 corresponde a

Falla si > y2 ≥ β [36]

Se puede mostrar que , dado que las variables x se asumieron como Normales Estándar no
correlacionadas, las variables y también resultan ser Normales Estándar no correlacionadas. Por
lo tanto, la probabilidad de no-performance, de acuerdo con la Ec.[36], es la probabilidad

13
que el evento y2 ≥ β. Esto puede ser obtenido directamente de la función de distribución
acumulada de la distribución Normal Estándar,

Pf = Φ ( − β ) [37]

La Ec.[37] implica que todo lo que se requiere para calcular la probabilidad de falla es
encontrar la distancia β entre el origen O y el punto P. Esta es la mínima distancia entre el
origen (correspondiente a los valores medios de X1, X2 ) y la superficie de falla G = 0.
Encontrar esta distancia mínima es un problema geométrico, solucionado fácilmente por
algoritmos de optimización. La distancia β se llama el índice de confiabilidad, y el punto P se
llama el punto del diseño. Note que cuanto mayor es el índice de confiabilidad, la zona de falla
estará mas alejada del origen o del punto promedio, implicando menores probabilidades de
falla. También, se ve fácilmente que, dada la densidad de probabilidad de las variables y , las
combinaciones de las variables más probables de conducir a la falla están agrupadas
alrededor del punto P. Así, otra manera de llamar al punto P es el punto más probable de falla.

Estas conclusiones se pueden generalizar para cualquier otra función G(x). Sin embargo, el
resultado de calcular β y luego usar la Ec.[37] será exacto solamente si las tres condiciones
siguientes se satisfacen:

• Todas las variables que intervienen son Normales


• Todas las variables están no-correlacionadas
• La función G(x) es lineal (de otra forma la Ec.[36] no seria cierta)

Con transformaciones apropiadas de variables (Ditlevsen, 1981, 1996; Rackwitz, 1978; Der
Kiureghian, 1986; Melchers, 1987), las primeras dos condiciones pueden ser resueltas
siempre. Es decir, las variables no-normales pueden ser normalizadas, y las variables que
tengan una estructura correlacionada pueden ser des-correlacionadas. Sin embargo, la
linearidad de la función G está relacionada con la esencia del problema y no puede ser
eliminada con transformaciones. Así, en general, el usar la Ec.[37] proporcionará solamente
una respuesta aproximada, y el error sería dependiente de que tan no-lineal es la función de
performance en la cercanía de P. Afortunadamente, para muchos problemas, el error es
absolutamente aceptable para las aplicaciones de ingeniería. El método FORM ha sido
modificado, y con el, la Ec.[37], si se asume que la superficie de la falla es una función
cuadrática, con curvaturas iguales a las de la superficie verdadera en el punto P. El método
resultante se llama SORM, o Second Order Reliability Method. En muchos casos, los resultados
demuestran una mejora leve sobre los resultados con el método FORM, pero es fácil
construir ejemplos donde las respuestas serian más erróneas.

La Ec.[37] también puede usarse en general para expresar los resultados en término del
índice de confiabilidad β o su probabilidad de falla respectiva Pf si ésta ultima ha sido
obtenida por simulación.

También es interesante notar que, para el simple caso estudiado aquí, existe una ecuación
para calcular el índice de confiabilidad. De hecho, a partir de la Figura 2 y considerando la
pendiente y la intersección con la superficie de falla recta G=0, se puede concluir que

X1 − X 2
β= [38]
σ 12 + σ 2 2

14
este β es correcto solo para un problema de dos variables, y cuando estas son normales y no-
correlacionadas. También hay una expresión para el índice de confiabilidad si las dos
variables son lognormales y con baja variabilidad,

log X 1 − log X 2
β≅ [39]
V1 + V 2
2 2

donde V1 y V2 son los respectivos coeficientes de variación.

Para el caso general de varias variables no-Normales o correlacionadas, no hay expresiones


explicitas para el calculo del índice de confiabilidad. En vez de eso, tiene que ser calculado
por métodos numéricos. El punto importante aquí es que el procedimiento FORM es
bastante rápido y eficiente, puesto que solo requiere el calculo geométrico de β.

Hasofer y Lind (1974) propusieron un esquema iterativo cuasi-Neutoniano que se utiliza


comúnmente en paquetes de la computadora. Considere la Figura 3, donde la función G se
dibuja en el eje vertical como una función de los componentes del vector x. La superficie de
falla G = 0 es entonces la intersección de G con el plano horizontal, y el índice de
confiabilidad será la longitud entre el punto O y P, situado a una distancia mínima de O.
Empezando por un vector inicial x*, el algoritmo reemplaza la superficie verdadera G por un
plano tangente Γ en x*. Este plano intercepta G = 0 con una línea recta, y el algoritmo
encuentra el punto P*, a una distancia mínima entre esa intercepción y el origen O. El punto
P* es luego utilizado como el nuevo x*, repitiendo el procedimiento hasta la eventual
convergencia en P.

La convergencia es dependiente de la adecuada elección del vector inicial x*. Sin embargo,
cuando se logra la convergencia, ésta es alcanzada in unas pocas iteraciones, debido a la
eficiencia del método. Los programas de cómputo implementan algoritmos especiales para
encontrar un adecuado vector inicial.

Uno de los resultados muy útiles de FORM es un vector unitario en la dirección OP, cuyos
componentes nos dan información de la sensitividad de las variables en el calculo de β.

15
G

G*
o x
x*
β β∗
P*
P
x

Figura 3. Algoritmo Iterativo para hallar el Índice de Confiabilidad β (Hasofer y Lind)

La exactitud de FORM esta influenciada por la no-linearidad de la función de performance


G(x). Los resultados de FORM pueden ser mejorados usando la simulación de Muestreo de
Importancia (Importance Sampling) alrededor del punto de diseño P, el punto más probable de
falla.

c) Superficies de Respuesta

Los métodos discutidos previamente dependen en la capacidad de calcular el valor de G(x)


para un vector x. Algunas veces, los valores del vector x resultan de aplicar otro programa de
cómputo, por ejemplo, de un análisis dinámico o de un cálculo de elementos finitos. En
estos casos, puede ser poco útil enlazar directamente la iteración para hallar el índice de
confiabilidad con, por ejemplo, un análisis dinámico no lineal. Una alternativa es construir
una superficie de respuesta para la capacidad o para la demanda, esencialmente evaluando G(x)
con anterioridad, en un número suficiente de suficientemente grande de combinaciones de x
(Faravelli, 1989; Liu y Moses, 1994). Los puntos discretos obtenidos así se pueden utilizar
para ajustar una representación matemática para la respuesta, y esta representación es luego
usada como substituto de la G(x) real. La respuesta ajustada GF(x) se utiliza en el cálculo de
confiabilidad para obtener el punto P de diseño y un índice de confiabilidad β. El
procedimiento puede detenerse en ese punto o se puede obtener una nueva superficie de
respuesta tomando nuevos valores del vector x alrededor del punto P recién obtenido. La
nueva superficie de respuesta se utiliza para obtener un P y β actualizados, y el
procedimiento se puede continuar hasta llegar a la convergencia de β dentro de la tolerancia
deseada.

Se pueden emplear diferentes formas para la función ajustada GF(x). Bucher et al. (1997), por
ejemplo, han considerado expresiones polinomiales del tipo

16
N N
G F ( x) = a 0 + ∑ a i X i + ∑ bi X i2 [40]
i =1 i =1

con los 2N+1 coeficientes encontrados por regresión de los datos discretos. Se pueden
escoger otros datos, cuando se desea una mayor influencia de una variable específica. Por
ejemplo, supóngase que una de las variables es la carga Q y que la variable de respuesta es la
deflexión de una placa. Otras variables que intervienen en la respuesta podrían ser el modulo
de elasticidad y el modulo de corte. Obviamente, si no hay carga Q no habrá ninguna
deflexión. En este caso, es quizás mejor proponer

N N N N
G F ( x) = Q[ a 0 + ∑ a i X i + ∑ bi X i2 ] + Q 2 [ c 0 + ∑ c i X i + ∑ d i X i2 ] [41]
i =1 i =1 i =1 i =1

que satisface la condición de respuesta cero cuando Q = 0.

d) Enfoques de Interpolación Lineal y Redes Neuronales

Los valores discretos de G(x) obtenidos como se indicó en c) permiten ajustar una expresión
matemática, una superficie de respuesta, valida sobre el rango entero de los datos. Algunas
veces esto es difícil de hacer y no es necesariamente preciso. Existen dos alternativas posibles
para interpolar los valores de G(x) usando la base de datos discreta.
• Si el valor G(x0) se requiere para las simulaciones, entonces un numero suficiente de
puntos de datos se localizan tan cerca como sea posible de x0. Luego, estos puntos
son usados para ajustar localmente una superficie aproximada (por ejemplo, un
plano) y este plano es luego usado para realizar la interpolación (Foschi et al., 2002).
• Toda la información de la base de datos discretos pueden ser usados para entrenar
una red neuronal, que luego puede ser usada para obtener G(x0) (Foschi y Zhang,
2003).

Experiencias recientes han mostrado muy buenos resultados usando bases de datos de
respuestas discretas y redes neuronales, para problemas dinámicos (sismos) de varias
variables.

e) Múltiples Modos de Falla

Un sistema puede fallar en un número grande de modos y su confiabilidad podría ser


substancialmente diferente de aquel obtenido para los componentes individuales (Thoft-
Christensen et al., 1986). Por ejemplo, una viga puede fallar por flexión o corte, o puede no
cumplir con un requisito de serviciabilidad. Cada modo se puede analizar por separado,
obteniéndose índices de confiabilidad individuales y sus respectivas probabilidades de falla. Si
el sistema es considerado un sistema en serie, cuando se estipula que la falla ha ocurrido cuando
por lo menos un modo ha fallado, la probabilidad total de falla debe considerar muchas
posibilidades: falla en cada modo, falla en pares, falla en grupos de tres, etc. El cálculo de la

17
probabilidad total llega a complicarse, a menos que el sistema tenga solo dos modos. En este
caso, la probabilidad total se da por

PT = P(1) + P(2) − P(1,2) [42]

donde P(1) y P(2) son las probabilidades para los modos individuales, y P(1,2) es la
probabilidad que ambos modos ocurran simultáneamente. En el caso general, es posible
calcular límites para la probabilidad total. Por ejemplo, se puede demostrar que PT debe ser
menor que la suma de las probabilidades individuales de cada modo pero mayor que la
mayor probabilidad de los modos individuales. Estos límites dependen solo de la
probabilidad de los modos individuales pero pueden ser bastante amplios. Limites menos
amplios han sido desarrollados por Ditlevsen (Madsen et al., 1986), pero requieren el calculo
de probabilidades conjuntas así como de los modos individuales. Usualmente, los límites de
Ditlevsen son suficientemente cercanos como para estimar que el promedio de ellos es un
buen estimado de PT. Las probabilidades conjuntas dependen de la correlación entre los
modos si las respectivas funciones G comparten algunas variables: por ejemplo, puesto que
las fallas por flexión y corte comparten la variable de la carga aplicada, los dos modos están
correlacionados. Es decir, un alto valor de la carga puede producir simultáneamente la falla
en flexión y corte. Madsen et al. (1986) o Ditlevsen (1996) presentan detalles en la estimación
de probabilidades conjuntas y correlaciones entre modos de falla.

(f) Problemas de Combinaciones de Demanda o de Cargas

También se han estudiado problemas de combinaciones de carga, particularmente el


problema de coincidencia de secuencias de carga con diferentes estadísticas de ocurrencia en
el tiempo (Wen, 1990). Un resultado útil e interesante es la tasa de ocurrencia de la
coincidencia de dos eventos, cada uno con su propia tasa de ocurrencia y duración de
evento. Digamos que el evento 1 tiene una tasa de ocurrencia λ1 y, que cuando ocurre, una
duración promedio d1 . También digamos que los respectivos valores para el evento 2 son λ2
y d2 . Entonces, la tasa de ocurrencia de la coincidencia de ambos eventos es,
aproximadamente,

λ 12 = λ 1 λ 2 (d 1 + d 2 ) [43]

La Ec.[43] puede ser aplicada para estudiar la tasa de ocurrencia de un evento combinado tal
como la ocurrencia simultanea de sismos en época de lluvias del Niño, si es que se desea
considerar la probabilidad de falla de un sistema en el poco probable evento de tener lluvias
fuertes y un sismo en el mismo tiempo.

18
ESTUDIO DE CASOS

Caso Ejemplo No. 1: Diseño Geométrico de una Carretera

Para ilustrarnos el proceso de la evaluación de la confiabilidad, consideremos primero el


diseño geométrico de una carretera para reducir a un mínimo aceptable el riesgo de
colisiones. La Figura 4 muestra la sección de una carretera a través de una colina, con un
obstáculo de altura H = 4m en la bajada de la cuesta. Un vehículo se acerca con una
velocidad V y los ojos del conductor están en una distancia e de la superficie de la carretera.
Cuando el conductor ve el obstáculo, necesita un tiempo de reacción T para aplicar los
frenos y luego, dependiendo de las condiciones de los frenos y de la superficie de la carretera,
se logra una desaceleración ac hasta que el vehiculo se detiene. El frenado requiere una
distancia D para detenerse completamente, esta distancia puede calcularse por medio de las
leyes de movimiento de Newton:

D = VT + V 2 / 2 a c [44]

La distancia de frenado disponible es, a partir de la geometría, la longitud del arco AB:

AB = cos −1 R  + cos −1 R  [45]


 (R + H)  (R + e)

Una colisión ocurrirá si D > AB, por lo tanto, para calcular la probabilidad de falla (o
colisión, en este caso) la función de performance G puede ser escrita como

G = AB − D [46]

Las variables aleatorias en este problema, un total de cuatro, son ahora definidas como
componentes de un vector de entrada X:

X(1) = Velocidad del vehiculo V (m/seg)


X(2) = Tiempo de reacción del conductor T (seg)
X(3) = Desaceleración del vehiculo aC (m/seg2)
X(4) = Altura de los ojos del conductor con respecto a la superficie de rodadura (m)

La altura del obstáculo se asume determinística e igual a H = 4.0m. Finalmente, el radio R


de diseño se asume determinístico e igual a R = 1400.0 m.

La Tabla 1 muestra la información estadística de las variables y las distribuciones de


probabilidad asumidas par alas variables aleatorias.

19
Tabla 1: estadísticas y Distribución de las variables, Caso Ejemplo 1, Diseño de Carreteras
Numero de Variable Tipo de Distribución Valor medio Desviación Estándar
1 Normal 16.67 m/seg 2.39 m/seg
2 Lognormal 0.5 seg 0.2 seg
3 Lognormal 2.5 m/seg2 0.5 m/seg2
4 Uniforme ( * ) 1.20 m 0.23 m
( * ) = Mínimo valor 0.8 m, máximo valor 1.6 m.

Este problema fue ejecutado con RELAN. Este es un programa en Fortran, y su


arquitectura se muestra en lo que sigue, así como la especificación del código fuente para este
problema. El principal motor de RELAN, dentro del cual todos los cálculos probabilísticos
se hacen, debe estar ligado a una subrutina implementada por el usuario, llamada USER, en
la cual la función de performance para el problema especifico esta descrita. La subrutina
USER tiene dos componentes: una subrutina llamada DETERM que puede ser usada para
ingresar parámetros determinísticos como H y R, y GFUN, una subrutina que hace los
cálculos de la función de performance G(x) para valores específicos de las variables
aleatorias. En el código fuente USER, los valores determinísticos R y H son ingresados en
DETERM y son luego compartidos con GFUN a través del área Common llamada B. Notar
que el código en Fortran es casi una copia literal de las ecuaciones correspondientes [44], [45]
y [46]. En la ejecución, el programa requerirá que el usuario ingrese los valores de R y H en
la pantalla.
La subrutina USER debe ser compilada con un compilador de Fortran compatible con el
empleado para compilar el motor principal del RELAN. El usuario tiene la ayuda de una
plantilla por defecto cuando escribe la subrutina USER , y el subsiguiente proceso de
compilación y unión es hecho por RELAN.
La variable IMODE es un contador para el número de funciones de performance o estados
límites considerados. Así, si uno necesita estudiar 3 estados limites, el numero de modos de
falla serán especificados como 3 y el contador IMODE ira de 1 a 3. Para el Caso No. 1 hay
solo un modo de falla.

Código fuente en Fortran, Subrutina USER, Caso Problema No. 1:

C
C ** USER: MODIFY THE FOLLOWING SUBROUTINES
C
C--------------------------------------------------------------------

SUBROUTINE DETERM(IMODE)
C--------Subroutine for entering deterministic variables
IMPLICIT REAL*8(A-H,O-Z)
COMMON/B/ R, H
WRITE(*,10)
10 FORMAT(/' ENTER THE RADIUS R (m) AND THE HEIGHT H
(m)'/)
READ(*,*) R, H α
RETURN
END
C
SUBROUTINE GFUN (X,N,IMODE,GXP)
C--------Subroutine to calculate the failure función
IMPLICIT REAL*8(A-H,O-Z)
COMMON/B/ R, H
DIMENSION X(N)

20
AB = R*(DACOS(R/(R+X(4)))+DACOS(R/(R+H)))
D = X(1)*X(2)+(X(1)**2)/(2*X(3))
GXP = AB - D
RETURN
END

ARQUITECTURA:

RELAN USER
(principal)

Lo siguiente muestra el OUTPUT FILE (archivo de salida) para las estadísticas de las
variables especificadas en la Tabla 1. El análisis se realizo por medio de FORM y por
Simulación en Muestreo de Importancia alrededor del punto de diseño calculado en FORM.

******************** RELAN RELIABILITY ANALYSIS ********************


PROBLEM TITLE: Case Example No. 1
********************************************************************

******** RELAN RELIABILITY ANALYSIS ************************

PERFORMANCE FUNCTION: GIVEN EXPLICITLY

ANALYSIS APPROACH: STANDARD FORM/SORM

CONVERGENCE TOLERANCE ON BETA = 0.00010


MAXIMUM NUMBER OF ITERATIONS = 100

VARIABLE CODE MEAN VALUE STD. DEV.


1 1 0.16670E+02 0.23900E+01
2 2 0.50000E+00 0.20000E+00
3 2 0.25000E+01 0.50000E+00
4 6 0.12000E+01 0.23094E+00

NOTE: ALL THE BASIC VARIABLES ARE UNCORRELATED.

MODE 1 : BETA (FORM) = 3.089 G = 0.343672E-03

PROBABILITY OF FAILURE (FORM) = 0.10051107E-02


ITERATIONS TO CONVERGE = 3
STARTING VECTOR:
0.22146E+02 0.53151E+00 0.16537E+01 0.10685E+01
DESIGN POINT:
0.22107E+02 0.52184E+00 0.16477E+01 0.10475E+01
SENSITIVITY FACTORS (DIRECTION COSINES IN STANDARD NORMAL SPACE):
0.73656E+00 0.98300E-01 -0.64949E+00 -0.16114E+00

RESULTS FROM IMPORTANT SAMPLING FOR MODE: 1

FAILURE PROBABILITY (SIMULATION)= 0.10303731E-02


COEFFICIENT OF VARIATION OF FAILURE PROBABILITY (%)= 5.90

21
ASSOCIATED RELIABILITY INDEX = 3.081

Así, para el radio especificado R = 1400m, la probabilidad de colisión es aproximadamente


0.001, correspondiente a un índice de confiabilidad β = 3.089 por FORM y β = 3.081 por
simulación. Puesto que el resultado por simulación puede ser usado como un valor certero
de la solución, se puede concluir que los resultados de FORM son bastante precisos. Notar
que la función G(x) es una combinación no lineal de las variables aleatorias pero, aun axial, el
método FORM entrega resultados bastante precisos. Se puede concluir que la función G(x)
es bastante lineal en la cercanía del punto de diseño P en este caso.
El archivo de salida muestra que las coordenadas del punto de diseño, o la combinación que
más probablemente lleve a la falla, son las siguientes:

1) Una velocidad V = 22.1 m/seg o 79.6 km/h (sobre el promedio de 16.67 m/seg)
2) Un tiempo de reacción de 0.52 seg, también sobre el promedio de 0.5 seg
3) Una desaceleración de 1.65 m/seg2, muy por debajo del promedio de 2.5 m/seg2
4) Una altura de visual de 1.05 m, bajo el promedio de 1.2 m.

Estos resultados tienen sentido pues implican mayor riesgo el tener un conductor veloz, con
un carro bajo, con frenos en mal estado y/o condiciones pobres de superficie.
Los coeficientes de sensitividad nos dan una medida de la importancia de cada variable
respecto a la confiabilidad del diseño. Mientras más cerca una de estas medidas se encuentra
de 1 (en valor absoluto) mayor es la importancia de la variable respectiva en la confiabilidad
del sistema. Puede verse que, en orden de importancia,

1) La velocidad V es lo mas importante


2) Las condiciones de la carretera es la segunda mas importante
3) La altura de la visual es la tercera mas importante
4) El tiempo de reacción es el menos importante.

También se puede ver a partir del archivo de salida, que FORM solo requirió 3 iteraciones
para llegar a una solución convergente, con diferencias de β < 0.0001 en los subsecuentes
cálculos. Los resultados de la simulación fueron hallados con 1000 muestras alrededor del
punto de diseño P. Con este numero de muestras, el coeficiente de variación del resultado de
la simulación es aproximadamente de 5.9 %, significando que el tamaño de la muestra es
suficientemente grande y aceptable. El coeficiente de variación puede ser reducido
incrementando el tamaño de la muestra.

Obviamente, el programa puede ser corrido nuevamente para diferentes valores del radio R,
hasta que se obtenga una probabilidad satisfactoria.

22
Figura 4. Ejemplo Caso 1, Diseño Geométrico de una Carretera

Caso Ejemplo No. 2: Falla a flexión de una viga de Madera laminada encolada

Para estudiar un problema de análisis de confiabilidad, consideremos la viga laminada mostrada


en la Figura 5. Se encuentra simplemente apoyada, con una luz L, y soporta una carga
distribuida permanente d y una carga viva concentrada Q en el centro de luz. Las
laminaciones tienen diferente modulo de elasticidad y diferente resistencia a la tracción. Se
consideraran dos modos de falla: 1) falla de la laminación inferior, y 2) falla de la segunda
laminación desde la parte inferior. Por supuesto, las dos laminaciones inferiores pueden fallar
juntas. La Figura 5 muestra juntas verticales (machihembradas) dentro de las laminaciones. A
pesar que esto seria lo normal, para este ejemplo no se consideran las juntas. Su
consideración solo incrementaría el número de variables aleatorias y el número de modos de
falla (incluyendo falla del mismo machihembrado). El ejemplo considera N=5 laminaciones.

d
Lam #N
.
.
H .
.
Lam #1

B
L

Figura 5. Viga laminada bajo carga permanente distribuida y una carga viva concentrada

El análisis de esfuerzos se realiza asumiendo que las secciones planas permanecen planas y a
90o del eje de la viga deformada (eso significa que no se considera el efecto de las
deformaciones por corte). La teoría de vigas compuestas se aplica, requiriéndose primero el
calculo del centro de gravedad de la sección compuesta, y luego el momento de inercia de la
sección. Así, si z es la distancia desde la base de la viga hasta un punto en la sección
transversal, la posición de centro de gravedad se obtiene de

23
∫ E z dA
z= A
[47]
∫ E dA
A

y el momento de inercia compuesto se calcula como

EI = ∫ E ( z − z ) 2 dA [48]
A

Finalmente, los esfuerzos a una distancia z desde la base de la viga son:

Ez
σ =M [49]
( EI )

Se pueden escribir dos funciones de performance:

Modo de Falla 1: Considera la falla de la laminación inferior:

G1 ( x) = f 1 −
Ez1
( EI )
(
dL2 / 8 + QL / 4 ) [50]

Modo de Falla 2: Considera la falla de la penúltima laminación:

G 2 ( x) = f 2 −
Ez 2
( EI )
(
dL2 / 8 + QL / 4 ) [51]

Definición de Variables:

X(1) = Modulo de elasticidad E de la laminación 1 (inferior)


X(2) = Modulo de elasticidad E de la laminación 2
X(3) = Modulo de elasticidad E de la laminación 3
X(4) = Modulo de elasticidad E de la laminación 4
X(5) = Modulo de elasticidad E de la laminación 5 (superior)
X(6) = Carga permanente d
X(7) = Carga viva concentrada Q
X(8) = Resistencia a la tracción de la laminación 1, f1
X(9) = Resistencia a la tracción de la laminación 2, f2

La luz de la viga es L = 6.0m, su ancho es B = 0.20m y el espesor de la laminación es


t=0.040m.

La Tabla 2 muestra la información estadística correspondiente y las distribuciones de


probabilidad asumidas. Se asume que el modulo de elasticidad y la resistencia de la
laminación están correlacionadas. En este caso, X(1) esta correlacionada con X(8), y X(2)
con X(9). Como una medida de control de calidad, se requerirá un mínimo del modulo de
elasticidad X(1).

24
Tabla 2: estadísticas y Distribución de Variables, Caso Ejemplo 2
Numero de Variable Tipo de Distribución Valor medio Desviación Estándar
1 Lognormal 10000 x 103 kN/m2 1500 x 103 kN/m2
2 Lognormal 10000 x 103 kN/m2 1500 x 103 kN/m2
3 Lognormal 10000 x 103 kN/m2 1500 x 103 kN/m2
4 Lognormal 10000 x 103 kN/m2 1500 x 103 kN/m2
5 Lognormal 10000 x 103 kN/m2 1500 x 103 kN/m2
6 Normal 2.0 kN/m 0.10 kN/m
7 Extrema Tipo I 8.0 kN 2.0 kN
8 Weibull, 2-p 35.0 x 103 kN/m2 8.75 x 103 kN/m2
9 Weibull, 2-p 35.0 x 103 kN/m2 8.75 x 103 kN/m2
Correlaciones: ρ1,8 = 0.70, ρ2,9 = 0.70.
Mínimo E, laminación inferior = 9000 x 103 kN/m2

Para el caso con variables no correlacionadas y sin límite inferior para el E de la laminación
inferior, los resultados del RELAN son como sigue:

Modo de Falla 1: FORM β1 = 2.061 Pf = 0.01964


Muestreo de Importancia (N=1000) β = 2.004 o Pf = 0.02252

Variable más importante = X(8)


Segunda variable más importante = X(7)
Tercera variable más importante = X(1)

Modo de Falla 2: FORM β2 = 2.833 Pf = 0.00231


Muestreo de Importancia (N=1000) β = 2.817 o Pf = 0.00242

Variable más importante = X(9)


Segunda variable más importante = X(7)
Tercera variable más importante = X(2)

Limites del valor β del sistema en serie = 2.016 – 2.016 (Ditlevsen)

Estos resultados muestran nuevamente, que aun para la alta nolinearidad de la función de
performance de este problema, los resultados de FORM son muy similares a aquellos
obtenidos de la simulación por Muestreo de Importancia en las cercanías del punto de diseño
P. El número de iteraciones para el cálculo de β (Algoritmo Hasofer-Lind) fue 3. La
importancia de cada variable es nuevamente medida por los coeficientes de sensitividad
correspondientes a las componentes del vector unitario de O a P. Los resultados también
muestran la estrechez de los límites de Ditlevsen, cuando se estima que la falla de la viga
ocurre cuando la viga falla en al menos uno de los dos modos de falla. El índice de la
confiabilidad del sistema es más bajo que el más bajo de los modos individuales, reflejando la
posibilidad de falla en los otros modos menos probables.

La Tabla 3 muestra un resumen de los resultados para tres casos. En el Caso 1, se asume que
no hay correlación y no se imponen límites inferiores. En el Caso 2, se asume un coeficiente
de correlación de 0.7 entre E y la resistencia de las dos laminaciones inferiores. En el Caso 3,

25
adicionalmente a las correlaciones, se impone un limite inferior al modulo de elasticidad E de
la laminación inferior.

Tabla 3. Resultados del Análisis de Confiabilidad de una viga laminada-pegada


Índice de Caso 1 Caso 2 Caso 3
Confiabilidad β
β1 2.061 2.256 2.133
β2 2.833 3.193 3.261
β sistema de series 2.016 2.235 2.120

El Caso 2 muestra que tomando en cuenta la correlación entre módulos de elasticidad y


resistencia produce una confiabilidad mayor. Puesto que esta correlación ocurre de hecho en
productos de madera, el no considerar esta correlación conduce a una conclusión
conservadora. Es interesante ver el efecto de la medida de control propuesta. Supongamos
que el modulo de elasticidad de la laminación inferior debe ser > 9000 MPa. Cuando este
limite inferior se aplica, en el Caso 3, la confiabilidad disminuye para la laminación inferior,
pero se incrementa para la segunda laminación, con una disminución general de la
confiabilidad del sistema en comparación con el Caso 2. Este resultado puede explicarse de
esta forma: incrementar el modulo de elasticidad de la laminación inferior atrae mas esfuerzo
sobre ésta, mientras la correlación entre resistencia y E no es lo suficientemente fuerte para
garantizar un incremento suficiente en la resistencia para resistir el incremento de esfuerzo.
Mientras la segunda laminación es aliviada de esfuerzo, su confiabilidad incrementa. En
general, es aparente que no hay base suficiente para implementar esta medida de control de
calidad, puesto que se basa en una correlación entre resistencia y E que, al valor de 0.70, no
es lo suficientemente fuerte. Investigaciones de este tipo son solo posibles introduciendo
métodos probabilísticos y análisis de confiabilidad. También se pude concluir que estos
métodos proveen un marco para la optimización de los recursos y de los costos de
producción.

Caso Ejemplo No. 3 : Diseño Basado en Performance de una Viga de Madera en


Flexión (en condiciones normales y bajo fuego).

Figura 6. Diseño de una Viga de Madera (Condiciones normales y bajo fuego)

Para ilustrar un problema de Diseño Basado en Performance (DBP), consideremos la viga de


madera mostrada en la Figura 6, con dimensiones de la sección transversal B y H, y una luz
L. Actúan cargas P y Q, ambas uniformemente distribuida y con diferentes propiedades
estadísticas. La carga muerta P tiene baja variabilidad, la carga viva Q tiene alta variabilidad.
La resistencia a la flexión de la viga es f y el modulo de elasticidad es E .

26
Los requerimientos de performance bajo circunstancias normales son: 1) la viga debe
soportar las cargas sin fallar a la flexión y 2) las deflexiones no deben superar 1/180 de la luz.
Bajo fuego, la viga no debe fallar antes de 60 minutos de haber comenzado el incendio.
Estos son los tres criterios de performance. En el DBP, también deben ser especificados los
niveles de confiabilidad que estos criterios deben cumplir (confiabilidad objetivo).

Para la situación bajo fuego, es necesario conocer la tasa a la cual la madera se quema,
disminuyendo las dimensiones de la madera en una cantidad e, como se muestra en la Figura
6. Por supuesto, la relación entre e y el tiempo bajo fuego puede ser complicada,
dependiendo de las condiciones ambientales. Para este ejemplo, sin embargo, se asume que la
tasa de quemado es una constante α, tal que después del tiempo T el espesor quemado es e
= αT.

Las tres funciones de performance se escriben como sigue:

1) Falla en flexión bajo condiciones normales:

(Q + P ) L2 1 H
G1 = f − 3
( ) [52]
8 ( BH / 12) 2

2) Deflexión bajo condiciones normales:

L 5(Q + P ) L4 1
G2 = − [53]
180 384 E ( BH 3 / 12)

3) Falla en flexión en condiciones bajo fuego:

(Q + P) L2 1 H
G3 = f − ( − e) [54]
8 (( B − 2e)( H − 2e) / 12) 2
3

Asumiendo que los niveles de confiabilidad deseados son:

β1 = 4.0 para falla bajo condiciones normales


β2 = 2.0 para deflexión bajo condiciones normales
β3 = 2.5 para falla bajo condiciones de fuego y después de T= 60 minutos de exposición

El problema es encontrar valores óptimos H y B para la sección transversal que cumpla con
las confiabilidades especificadas o desviarse un mínimo de ellas. Esto se logra minimizando
la función

( )
NP 2

Ψ = ∑ β − β j ( B, H )
T
j [55]
j =1

en donde NP es el numero de requerimientos de performance o restricciones de


confiabilidad (en este caso, 3) , βT son las respectivas confiabilidades objetivo y βi (B,H) son
las confiabilidades obtenidas con dimensiones B y H. Este es un problema de optimización
basada en performance (Li, 1998; Foschi, 2001), y varios programas de cómputo están

27
disponibles para llevar adelante los cálculos, implementando diferentes algoritmos para
optimización. Los resultados mostrados aquí fueron obtenidos con un programa de DBP,
llamado IRELAN, desarrollado en la Universidad de British Columbia.

El problema tiene cinco variables aleatorias, las cuales se identifican en la Tabla 4.

Tabla 4: estadísticas y Distribución para las Variables, Caso Ejemplo 3


Variable Aleatoria Promedio Desviación Tipo de
Estándar Distribución
f , resistencia a la flexión 35,000 5,250 Lognormal
(kN/m2)
P (kN/m) 2.0 0.2 Normal
Q (kN/m) 8.0 2.0 Extrema Tipo I
α (tasa de quemado, 0.5 0.125 Lognormal
mm/minuto)
E, modulo de elasticidad 12,000x103 1,800x103 Lognormal
(kN/m2)

Las dimensiones B y H son consideradas también como aleatorias (Normal), con un


coeficiente de variación bastante pequeño. Los parámetros de diseño son los valores medios de
B y H. Los resultados se muestran en la Tabla 5 para una luz L = 10m.

Tabla 5: Valores óptimos, H y B, Caso 3, dos estrategias.


H (m) B (m) β1 Obtenido β2 Obtenido β3 Obtenido Estrategia de
optimización
0.533 0.249 4.32 1.91 2.32 No restringido
0.536 0.257 4.47 2.09 2.50 Forzando β3 = 2.50
Objetivo β 4.00 2.00 2.50

Los resultados muestran que no es posible hallar valores H y B que permitan lograr
exactamente las confiabilidades objetivo. Los valores óptimos serán aquellos que minimicen
la diferencia entre las confiabilidades obtenidas y las objetivo. Si la performance bajo fuego
se considera el más importante criterio de diseño, y si β3=2.32 se considera bajo en relación
al objetivo β3=2.5, se puede realizar una optimización restringida para forzar β3 = 2.5. De
esa forma, como se muestra en la Tabla 5, las confiabilidades logradas para los primeros dos
criterios de performance se incrementan un poco, con un pequeño incremento en las
dimensiones optimas de la viga.

Caso Ejemplo No. 4: Diseño de conexiones bajo Excitación Sísmica, Aplicación de


Superficies de Respuesta

Consideremos ahora un problema ingeniería sísmica para el péndulo invertido mostrado en


la Figura 7. La columna de madera tiene una masa concentrada M y está conectada en su
base por cuatro pasadores y dos planchas laterales de acero fijados al suelo. La base se

28
mueve con una aceleración aG(t). La deriva, o el desplazamiento horizontal en la parte
superior de columna, es ∆. ∆max corresponde al máximo desplazamiento durante el terremoto.
La columna se asume ser suficientemente rígida, tal que la mayor parte del desplazamiento es
debido a la deformación de los conectores. Desde que la respuesta cíclica de los conectores
es altamente no lineal, se debe utilizar un análisis dinámico no lineal apropiado para calcular
el tiempo-historia ∆(t), considerando el comportamiento histerético de los pasadores. La
Figura 8 muestra un resultado típico obtenido para el sismo de Landers, California, 1992
(estación Joshua Tree).

El análisis no lineal usado aquí incorpora, en cada incremento de tiempo, el calculo del lazo
de histéresis para cada uno de los pasadores, tomando en cuenta su propia respuesta elasto-
plástica y el comportamiento no-lineal en compresión de la madera alrededor del pasador
(Foschi, 2000). Los criterios de performance están asociados a diferentes niveles de daño, y
están expresados en términos de la máxima deriva horizontal ∆max y limita la relación H/K,
con K siendo constante y H la altura de columna. Para cada estado limite, la función de
performance G(x) puede escribirse como

G(x) = H/K - ∆max (x) [56]

∆max es una función de las variables aleatorias asociadas con el problema. Algunas de éstas
están ligadas a las propiedades estructurales y otras a la incertidumbre del sismo mismo.

∆ 30.00 ∆
M
20.00

10.00

H 0.00 t
2R
D, σy
0.00 10.00 20.00 30.00 40.00
-10.00

-20.00

-30.00

-40.00

aG -50.00

Figura 7: Conexión con pasadores, Figura 8: Desplazamiento calculado


Excitación sísmica Historia ∆(t).

A pesar que la formulación del problema es simple, la evaluación de G para cada vector x
toma demasiado tiempo, requiriendo un análisis dinámico no-lineal paso a paso hasta el fin
del terremoto. Generalmente, esto hace que la simulación estándar sea muy ineficiente. Por
un lado, la forma de G podría mostrar picos y valles en coincidencia con frecuencias cercanas
a las condiciones de resonancia, haciendo que el algoritmo de FORM sea lento o con
dificultosa convergencia. Aun si se logra convergencia, la nolinearidad de G podría hacer que
la aproximación a la probabilidad de falla, basada en el índice de confiabilidad, sea muy
inexacta. En estos casos se debe usar una superficie de respuesta en reemplazo de la función

29
G, pero es difícil encontrar una superficie simple que represente con confianza todas las
nolinearidades y oscilaciones de G, particularmente sobre el dominio de interés. Por otro
lado, en lugar de ajustar una superficie global, se puede emplear un diferente tratamiento para
la superficie de respuesta.

Se consideran cinco variables aleatorias y sus estadísticas se muestran en la Tabla 6. Una de


ellas es la aceleración pico del suelo (PGA) durante el evento, y la función de distribución
acumulada que se muestra es consistente con un valor de diseño de 0.25g (475 años de
periodo de retorno), un coeficiente de variación COV = 0.6 y una tasa promedio de
ocurrencia de sismos ν = 0.1 eventos/año. La aceleración pico fue expresada como un factor
aleatorio f veces el pico del registro. La masa M tiene un valor medio de 800 Kg., y un COV
= 0.10. El diámetro del pasador D y el radio de arreglo R fueron determinísticos, pero
considerados aleatorios con un coeficiente de variación bastante pequeño. El punto de
fluencia para el material de los pasadores, σY, fue asumido con un COV = 0.10. Se puede
generar una base de datos para ∆max por análisis dinámico para varias combinaciones de las
cinco variables, empezando de respuestas cero para PGA=0, para todos los valores de las
variables restantes.

Tabla 6: estadísticas y Distribuciones para las Variables, Caso Ejemplo 4


Variable Promedio Desviación Estándar Tipo
f, factor PGAa 0.357 0.214 Lognormal
Masa M (kN.seg2/mm) 0.0008 0.00008 Normal
Radio R (mm) 100.0 0.1 Normal
Punto de fluencia del pasador 0.25 0.025 Lognormal
σY (kN/mm2)
Diámetro del Pasador D (mm) 15.0 0.015 Normal
a : factor aplicado al PGA del registro del sismo de Landers

Los parámetros de diseño son el diámetro D, el radio R y el punto de fluencia σY . La


confiabilidad correspondiente a los valores dados para estos tres parámetros puede ser
obtenida de la siguiente manera (Foschi et al., 2001): 1) La base de datos para ∆max se usa para
ajustar primero una superficie de respuesta aproximada usando la Ec.[40]; 2) esta superficie
de respuesta es usada con FORM para determinar un punto de diseño P; 3) la probabilidad
de falla es obtenida por simulación de Muestreo de Importancia alrededor de P, calculando
los valores de G(x) por interpolación local de la base de datos.
Así, la base de datos es obtenida independientemente de los cálculos de confiabilidad, y luego
es usada por la interpolación local o para entrenar una red neuronal para la estimación de
G(x) en los valores de x no comprendidos en la base de datos. Los resultados se muestran en
la Tabla 7 en términos de índices de confiabilidad β , para varias definiciones de niveles de
performance.

Tabla 7: Resultados, Ejemplo Caso 4


Limite de
deriva FORM FORM+ Muestreo de Importancia
∆max
H/30 2.55 2.67
H/60 2.39 2.46
H/80 2.38 2.36
H/100 1.50 2.03
H/200 1.19 1.12
H/250 0.40 0.77

30
En general, los resultados de FORM obtenidos de la aproximada superficie de respuesta
ajustada con la Ec.[40] no son satisfactorios en este caso, particularmente para los tres
últimos niveles de performance con altas probabilidades de excedencia. Los resultados
mejoran y son más consistentes cuando se emplea la simulación por Muestreo de
Importancia alrededor del punto de diseño obtenido de FORM.

Para un Diseño Basado en Performance el problema podría ser formulado como sigue:
obtener el vector óptimo {d} de parámetros de diseño,

{d } = {R, D, σ Y } [57]

en los que los componentes de {d} son los valores promedio de las variables R, D y σY , para
reunir los siguientes tres criterios de performance con confiabilidad especificada:

G1(x) = H/30 - ∆max


G2 (x) = H/100 - ∆max [58]
G3(x) = Fmax - F

Puede considerarse que G1 representa una situación de colapso o de daño excesivo, G2 es una
condición de serviciabilidad o de daño controlado reparable; y G3 una situación de colapso
que corresponde al caso en que las fuerzas F ejercidas por el pasador exceden una máxima
fuerza Fmax controlada por fisuración de la madera. En este caso, Fmax se asumió en 10 kN.
Dados estos tres criterios de performance, se imponen los siguientes tres niveles de
confiabilidad: β1 = 3.0 para G1 , β2 = 2.0 para G2 , y β3 = 3.0 para G3 . Nuevamente el
problema es resuelto por optimización usando la Ec.[55]. Las confiabilidades obtenidas con
los parámetros promedios óptimos D = 13.2mm, R = 117.5mm, y σY. = 305 Mpa, fueron β1
= 3.01, β2 = 1.98 y β3 = 3.00.

Caso Ejemplo No. 5: evaluación de un sistema existente, actualización de


probabilidades sobre la base de información de performance.

Una aplicación importante de los métodos probabilísticos es la evaluación de sistemas


existentes para decidir si se continúa su uso en las mismas condiciones o si se cambia su
régimen de demanda. La dificultad aquí es que la capacidad actual del sistema no es conocida
(se tendría que haber probado hasta la falla para conocerla). Lo que se conoce es el hecho
que el sistema ha sobrevivido por un tiempo T bajo un régimen de carga p. Esta información
puede ser usada, junto con el Teorema de Bayes, para estimar la distribución probable de
capacidad. Aplicamos la Ec.[25] para el caso cuando los diferentes grupos Ai son diferentes
niveles de capacidad R. Lo que se sabe es la función de densidad a-priori para R, f(R) , tal
como fue usado en el diseño original. El Teorema de Bayes provee una herramienta para
actualizar esta función de densidad sobre la base de la información que el sistema resistió a
las máximas solicitaciones que podrían haber ocurrido durante el periodo T anterior:

31
P( s / R ) f ( R)
f ∗ ( R / s) = ∞
= f ∗ ( R) [59]
∫ P(s / R) f ( R)dR
0

donde f*(R) es la función de densidad actualizada dado que el sistema ha sobrevivido, y


P(s/R) es la probabilidad que el sistema habría sobrevivido el periodo T si la capacidad fuera
R.

Con la función de densidad actualizada, la probabilidad de falla bajo el nuevo régimen de


carga, para la próxima ventana de tiempo T1 , se puede calcular como sigue:

∞ ∫ P( f / R) P(s / R) f ( R)dR
Pf = ∫ P( f / R) f ∗ ( R)dR o, de la Ec.[59], Pf = 0

[60]
∫ P( s / R) f ( R)dR
0

donde P(f/R) es la probabilidad de falla bajo el nuevo régimen de carga asumiendo que la
capacidad es R. La Ec.[60] puede ser implementada fijando varios valores de R dentro del
rango correspondiente y, para cada uno, se calcula la probabilidad de sobrevivir a-priori y la
probabilidad de falla futura. Las probabilidades condicionales P( f/R) y P(s/R) son calculadas
con RELAN usando las funciones de performance apropiadas. La integración de la Ec.[60]
se hace numéricamente.
Esta formulación basada en el Teorema de Bayes es completamente general: puede ser
aplicada a una evaluación estructural, o a cualquier otra situación en la que el sistema no es
una estructura (por ejemplo, el diseño de un pavimento o de un componente hidráulico).
La función de densidad para R puede ser actualizada aun más, tomando en cuenta más
información: por ejemplo, usando datos de un ensayo no destructivo o una prueba de carga.

Caso Ejemplo No. 6: Calibración de una Ecuación de Diseño para una Norma

Los procedimientos tradicionales de diseño en ingeniería usualmente dependen de códigos


de diseño. En éstos, “las ecuaciones de diseño” son indicadas por los códigos y los ingenieros las
usan para calcular parámetros geométricos requeridos como secciones transversales, luces
permitidas, etc. Una ecuación de diseño usualmente contiene un número de “factores de diseño”
(algunos para cargas y otros para las capacidades), aplicadas a valores nominales o de diseño de las
variables, como en el siguiente ejemplo:

α D DN + α Q QN = RN S / γ [61]

Donde: DN = Efecto de la carga muerta (o permanente) nominal o de diseño D


αD = Factor de amplificación de carga para cargas muertas
QN = Efecto de la carga viva nominal o de diseño Q
αQ = Factor de amplificación de carga para cargas vivas

32
γ = Factor de reducción de Resistencia
RN = Resistencia nominal o de diseño
S = Parámetro geométrico a calcular (p. ej. Modulo de sección para
flexión)

Las cargas muertas nominales son usualmente escogidas iguales a su valor medio. Las cargas
vivas de diseño, por otro lado, se escogen en correspondencia con un periodo de retorno (p.
ej. nieve en 30-años, sismo de 475-años, etc.). La resistencia nominal se escoge normalmente
igual a un percentil bajo de la distribución de valores de la variable (por ejemplo, para
propiedades de la madera, normalmente se usa el 0.05-percentil).
El formato mostrado en la Ec.[61] ha sido adoptado en la mayoría de los códigos modernos
(por ejemplo, el código Canadiense de diseño por estados límites, el código Americano
LRFD, el código Australiano, y los Eurocódigos). Los factores de carga y de resistencia
serían normalmente calibrados tal que, cuando se usan en la ecuación del código, el parámetro
resultante S asegurará la confiabilidad objetivo deseada. En cada caso, la confiabilidad
lograda puede ser evaluada por los procedimientos directos descritos anteriormente. Por
supuesto, con solo unos pocos factores en la ecuación de diseño, el objetivo no podrá ser
obtenido exactamente en todas las situaciones y, como resultado, los factores deben ser
calibrados por optimización. Esto implica minimizar la diferencia entre la confiabilidad
obtenida y la confiabilidad objetivo sobre un número grande de condiciones de diseño o
“puntos” de calibración.

A pesar que un procedimiento de código de diseño es normalmente simple y puede ser


aplicado sin necesidad de software, una desventaja del método es que la confiabilidad real
obtenida puede variar de diseño a diseño. Por ejemplo, las prescripciones del código para un
poste de madera de un sistema de transmisión de energía puede haber sido calibrada usando
viento y condiciones de formación de hielo correspondientes a cinco lugares diferentes de
Norteamérica y, para estos lugares, la ecuación de diseño resultará en confiabilidades
bastante cercanas al objetivo. No hay garantía, sin embargo, que la confiabilidad lograda para
otros lugares sea cercana a los valores deseados. La calibración solo producirá un código con
un rango de aplicabilidad que depende de las situaciones consideradas en el proceso de
calibración. Como una ilustración, consideremos la ecuación de diseño en flexión para un
poste de madera como se muestra en la Figura 9:

αVVN e +α QQN h = RN S / γ [62]

Q
V

Figura 9: Poste de madera para transmisión de energía

33
Q es una carga horizontal producida por el viento sobre conductores con revestimiento de
hielo, y V es una carga vertical permanente de un transformador sobre el poste. R es la
resistencia a la flexión del poste de madera.

Las estadísticas para el lugar de calibración se muestran en la Tabla 8. Los valores nominales
o de diseño son:
Carga vertical, VN = valor promedio de V = 5.0 kN;
Carga horizontal, QN = Carga con periodo de retorno de 50 años (excedencia anual de
1/50) = Q50 = 20.39 kN
Resistencia a la flexión, RN = 0.05-percentil de R = 21.24 Mpa

Para calibrar los factores, el parámetro S obtenido de la ecuación de diseño [62] se introduce
en la función de performance G :

G = R S − (Q h + V e) [63]

De esta manera, la función G ahora se convierte ahora en una función de los factores de
carga y de resistencia:

 
G = R / RN − 
1  (V e + Q h ) [64]
 γ (α V V N e + α Q Q N ) 
 

La confiabilidad asociada con la probabilidad de G<0 puede ahora ser calculada para
diferentes combinaciones de los factores. Esto se hace con los métodos directos descriptos
anteriormente en estos apuntes. La Tabla 9 muestra la confiabilidad obtenida para diferentes
valores de los factores cuando la altura del poste es h = 8m y la excentricidad e = 0.8m.

Tabla 8: estadísticas de las Variables y sus Distribuciones, Caso Ejemplo 6


Variable distribución Promedio Coeficiente de
Variación
Resistencia a la Lognormal 30.0 Mpa 0.20
flexión, R
Carga Vertical, V Normal 5.0 kN 0.10
Carga Horizontal, Q Extrema Tipo I 22.20 kN 0.18

Tabla 9: Factores de Carga y de Resistencia, y Confiabilidad Obtenida


αv αQ γ Confiabilidad
Obtenida, β
1.20 1.50 1.10 2.783
1.25 1.55 1.10 2.891
1.20 1.60 1.10 2.989
1.25 1.65 1.10 3.090
1.25 1.70 1.10 3.184

Para un índice de confiabilidad objetivo β = 3.0, la Tabla 9 muestra que αV = 1.20, αQ = 1.60 y γ
= 1.1 pueden ser usados en la ecuación de diseño para obtener resultados mas cercanos al

34
objetivo para una situación de diseño con las estadísticas de la Tabla 8. Sin embargo, si las
estadísticas de la carga horizontal son cambiadas a las de un lugar diferente, no usado en la
calibración previa, aun teniendo una distribución Extrema Tipo I pero ahora con un
promedio de 30 kN y un coeficiente de variación de 0.30, el índice de confiabilidad logrado
con los mismos factores sería β = 2.232 (substancialmente menor que el valor objetivo de 3.0).

Este ejemplo simple muestra los pasos en un procedimiento de calibración del código, y
también indica las limitaciones de un código basado en factores. Para lograr buenos
resultados, los factores de carga deben ser optimizados tomando en cuenta un número
suficientemente grande de puntos de calibración, cubriendo razonablemente la aplicabilidad
del código.

Caso Ejemplo No. 7: Análisis del Riesgo Anual de un Dique por efectos de
inundaciones y vientos extremos (Combinación de Carga).

La Figura 10 muestra un esquema de un dique construido para protección de crecidas a lo


largo de un río. El dique podría fallar de las siguientes maneras:

1) El nivel de agua H excede la elevación del dique H1


2) El nivel de agua H excede el nivel H2 el cual es suficiente para causar afloramiento
del agua en el lado seco del dique.
3) también hay la posibilidad que las condiciones 1) y/o 2) podrían ocurrir en
combinación con una tormenta de viento que, produciendo olas, incremente la altura
H en una cantidad HW.

Figura 10. Dique bajo condiciones de inundación y levantamiento de arenas.

Las inundaciones ocurren con una frecuencia promedio de una cada 10 años ( λ1 = 0.10
/año) y tienen una duración promedio de 30 días. Los fuertes vientos ocurren, en promedio,
una vez cada 2 años o ( λ1 = 0.50 /año ), con una duración promedio de 1 día.

La Ec. [ 43 ] permite calcular la tasa de llegada promedio de la coincidencia de los dos


eventos (inundaciones y fuertes vientos ocurriendo simultáneamente):

35
λ12 = 0.1 x 0.5 x ( 1 + 30 )/365 = 0.00425 /año [65]

o, dicho de otro modo, se puede esperar una coincidencia de eventos, en promedio, una vez
cada 235 años (=1/0.00425).
Consideremos que las variables H, H1 y H2 son variables aleatorias con estadísticas como se
muestran en la Tabla 10. Los fuertes vientos producen olas que incrementan el nivel de
inundación en una altura HW . Esta altura es también una variable aleatoria, con una
distribución acumulada dada por

F(HW ) = 1.0 - exp[ -2.72 ( HW / H )2 ] [66]

La Ecuación [66] puede reescribirse como:

− Ln (1 − p)
HW = H [67]
2.72

En donde p es una variable aleatoria uniforme entre 0 y 1.

Tabla 10: estadísticas y distribuciones para variables, Caso Ejemplo 7


Variable Promedio Desviación Estándar Tipo
H (m) 18.0 3.6 Extrema
Tipo I
H1 (m) 25.0 0.5 Normal
H2 (m) 26.0 2.6 Lognormal
P(*) 0.50 0.2886 Uniforme
( * ) Uniformemente distribuida entre 0 y 1.

Dos situaciones necesitan ser consideradas:


1) Sin fuertes vientos, hay dos modos de falla:
• G1 = H1 – H [68]
• G2 = H2 – H

2) Con fuertes vientos, hay también dos modos de falla:


• G1 = H1 – (H + HW) [69]
• G2 = H2 – (H + HW)

En cada caso, el sistema se considera que falla si al menos uno de los modos falla
(sistema en serie). A continuación se muestran los resultados para ambas situaciones.

Se ve, en la primera situación, que los limites para los dos modos de falla son bastante
cercanos, resultando en una índice de confiabilidad total de β = 1.549, correspondiendo a
una probabilidad total de falla de 0.060649. Esta es la probabilidad de falla en caso que
ocurra el evento de la primera situación.

36
******************** RELAN RELIABILITY ANALYSIS ********************
PROBLEM TITLE:
DATAFILE: E:\RELANW\LEVEE, NO WINDSTORMS
********************************************************************

PERFORMANCE FUNCTION: GIVEN EXPLICITLY

ANALYSIS APPROACH: STANDARD FORM/SORM

CONVERGENCE TOLERANCE ON BETA = 0.00010


MAXIMUM NUMBER OF ITERATIONS = 100

VARIABLE CODE MEAN VALUE STD. DEV.


1 5 0.18000E+02 0.36000E+01
2 1 0.25000E+02 0.50000E+00
3 2 0.26000E+02 0.26000E+01

NOTE: ALL THE BASIC VARIABLES ARE UNCORRELATED.

MODE 1 : BETA (FORM) = 1.686 G = -0.138251E-04

PROBABILITY OF FAILURE (FORM) = 0.45868785E-01


ITERATIONS TO CONVERGE = 2
STARTING VECTOR:
0.24908E+02 0.24925E+02 0.25871E+02
DESIGN POINT:
0.24930E+02 0.24930E+02 0.25871E+02
SENSITIVITY FACTORS (DIRECTION COSINES IN STANDARD NORMAL SPACE):
0.99657E+00 -0.82796E-01 0.00000E+00

MODE 2 : BETA (FORM) = 1.694 G = -0.636362E-04

PROBABILITY OF FAILURE (FORM) = 0.45114915E-01


ITERATIONS TO CONVERGE = 2
STARTING VECTOR:
0.24169E+02 0.25000E+02 0.24177E+02
DESIGN POINT:
0.24234E+02 0.25000E+02 0.24234E+02
SENSITIVITY FACTORS (DIRECTION COSINES IN STANDARD NORMAL SPACE):
0.92220E+00 0.00000E+00 -0.38672E+00

SERIES SYSTEM BOUNDS:

1. USING BETAS FROM FORM:


JOINT PROBABILITY OF MODE 1 AND MODE 2 = 0.30334346E-01

LOWER BOUND OF FAILURE PROBABILITY = 0.60649354E-01


UPPER BOUND OF FAILURE PROBABILITY = 0.60649354E-01

LOWER BOUND ON BETA = 1.549


UPPER BOUND ON BETA = 1.549

37
******************** RELAN RELIABILITY ANALYSIS ********************
PROBLEM TITLE:
DATAFILE: E:\RELANW\LEVEE, FLOOD AND WIDSTORM
********************************************************************

PERFORMANCE FUNCTION: GIVEN EXPLICITLY

ANALYSIS APPROACH: STANDARD FORM/SORM

CONVERGENCE TOLERANCE ON BETA = 0.00010


MAXIMUM NUMBER OF ITERATIONS = 100

VARIABLE CODE MEAN VALUE STD. DEV.


1 5 0.18000E+02 0.36000E+01
2 1 0.25000E+02 0.50000E+00
3 2 0.26000E+02 0.26000E+01
4 6 0.50000E+00 0.28868E+00

NOTE: ALL THE BASIC VARIABLES ARE UNCORRELATED.

MODE 1 : BETA (FORM) = -0.175 G = 0.934085E-09

PROBABILITY OF FAILURE (FORM) = 0.56951272E+00


ITERATIONS TO CONVERGE = 2
STARTING VECTOR:
0.17029E+02 0.25007E+02 0.25871E+02 0.44954E+00
DESIGN POINT:
0.17029E+02 0.25007E+02 0.25871E+02 0.44955E+00
SENSITIVITY FACTORS (DIRECTION COSINES IN STANDARD NORMAL SPACE):
0.68566E+00 -0.75359E-01 0.00000E+00 0.72401E+00

MODE 2 : BETA (FORM) = -0.044 G = 0.223003E-10

PROBABILITY OF FAILURE (FORM) = 0.51747741E+00


ITERATIONS TO CONVERGE = 2
STARTING VECTOR:
0.17317E+02 0.25000E+02 0.25911E+02 0.48817E+00
DESIGN POINT:
0.17317E+02 0.25000E+02 0.25911E+02 0.48817E+00
SENSITIVITY FACTORS (DIRECTION COSINES IN STANDARD NORMAL SPACE):
0.64792E+00 0.00000E+00 -0.34988E+00 0.67660E+00

SERIES SYSTEM BOUNDS:

1. USING BETAS FROM FORM:


JOINT PROBABILITY OF MODE 1 AND MODE 2 = 0.48209789E+00

LOWER BOUND OF FAILURE PROBABILITY = 0.60489224E+00


UPPER BOUND OF FAILURE PROBABILITY = 0.60489224E+00

LOWER BOUND ON BETA = -0.266


UPPER BOUND ON BETA = -0.266

Para la segunda situación, los limites son también bastante cercanos, resultando en un índice
de confiabilidad total de β = -0.266 y una correspondiente probabilidad de falla total de
0.60489.

38
Así, la primera situación es relativamente segura, mientras que la segunda situación, si ocurre,
implica una probabilidad de falla de cerca de 60%. Sin embargo, en el calculo del riesgo
anual, las probabilidades de estos eventos deben ser ponderados por las probabilidades de
que las situaciones realmente ocurran en una ventana de un año. Así, usando la Ec. [ 31 ] y la
Ec. [ 65 ], el riesgo anual sería

Pa = 0.060649 x 0.10 + 0.60489 x 0.00425 = 0.00864 [70]

o, aproximadamente, 0.86% por año. Esta probabilidad puede luego ser usada en la
determinación del costo anual esperado de la falla del dique.

Conclusiones

Estas notas han presentado una breve revisión de conceptos probabilísticos y métodos de
confiabilidad. Estos han sido ilustrados con aplicaciones a varios problemas típicos en el
diseño de ingeniería: diseño de un perfil de carretera, deflexiones y falla a flexión de vigas
bajo condiciones de servicio o bajo fuego; diseño de una conexión bajo excitación sísmica;
análisis de confiabilidad de una estructura existente bajo cambio de las condiciones de
servicio; calibración de una ecuación de código factorizada; y, finalmente, el análisis de un
dique bajo eventos de inundaciones y/o fuertes vientos que generan olas.

En todos los aspectos de la ingeniería Civil, la teoría de confiabilidad y los métodos


probabilísticos proveen un enfoque realístico a la solución de problemas, tomando en cuenta
las inevitables incertidumbres en las variables involucradas. La teoría de confiabilidad
también ofrece, en particular, un marco sólido para el estudio de la implementación del
control de calidad, mezcla de materiales y optimización. El vasto potencial del enfoque, sin
embargo, es completamente explotado cuando los problemas son resueltos cada uno de
manera particular, particularizando la solución. A pesar que estas técnicas también pueden
ser usadas para calibrar ecuaciones de códigos de diseño a una confiabilidad objetivo, esto no
puede ser logrado para todas las situaciones de diseño, dada la naturaleza simplificatoria de
los códigos de diseño y los pocos factores o grados de libertad considerados. El objetivo de
un diseño basado en performance puede ser logrado a través de un enfoque particular del
problema, una tarea facilitada por la disponibilidad de software para el análisis de
confiabilidad, unido con la cada vez más creciente velocidad de procesamiento de las
computadoras.

Referencias

Ang, A.H.S and Tang, W. 1984a. Probability Concepts in Engineering Planning and Design. Volume
I: Basic Principles. Bookmasters Inc., Mansfield, Ohio.

Ang, A.H.S and Tang, W. 1984b. Probability Concepts in Engineering Planning and Design. Volume
II: Decision, Risk and Reliability. Bookmasters Inc., Mansfield, Ohio.

Augusti, G., Baratta, A. and Casciati, F. 1984. Probabilistic Methods in Structural Engineering.
Chapman and Hall.

39
Benjamin, J. and Cornell, A. 1970. Probability, Statistics and Decision for Civil Engineers. McGraw-
Hill, New York.

Bucher, C.G. and Bourgund, U. 1990. A Fast and Efficient Response Surface Approach for
Structural Reliability Problems. Structural Safety, Vol.7, pp.57-66.

Der Kiureghian, A. and Liu, P. 1986. Structural Reliability Under Incomplete Probability
Information. Journal of Engineering Mechanics, ASCE. Vol.112, No.1

Ditlevsen, O. 1981. Principle of Normal Tail Approximation. Journal of Engineering Mechanics,


ASCE. Vol. 107, No.6, pp.1191-1208.

Ditlevsen, O. and Madsen, H.O. 1996. Structural Reliability Methods. John Wiley and Sons.

Faravelli, L.1989. Response Surface Approach for Reliability Analysis. Journal of Engineering
Mechanics, ASCE. Vol. 115, pp. 2763-2781.

Foschi, R.O., Folz, B. and Yao, F. 1990. Reliability-Based Design of Wood Structures. Structural
Research Series Report No.34, Department of Civil Engineering, University of British Columbia,
Vancouver, Canada.

Foschi, R.O., Li, H., Folz, B., Yao, F. and Baldwin, J. 2000. RELAN: A General Software Package
for Reliability Analysis. Department of Civil Engineering, University of British Columbia, Vancouver,
Canada.

Foschi,R. O. 2000. Modeling the hysteretic response of mechanical connections for wood structures.
Proceedings, World Timber Engineering Conference, Whistler, B.C. Canada, July 2000.

Foschi, R.O. and Li, H. 2001. “A Methodology for Performance-Based Design in Earthquake
Engineering”, Proc. 8th International Conference on Structural Safety and Reliability, ICOSSAR’01,
Newport Beach, CA.

Foschi, R.O. , Li, H. and Zhang, J. 2002. ”Reliability and Performance-Based Design: A
Computational Approach and Applications”, Structural Safety, Vol. 24, Nos. 2-4, pp. 205-218.

Foschi, R.O. and Zhang, J. 2003. ”Performance-Based Design and Seismic Reliability Using
Designed Experiments and Neural Networks”, 5th. International Conference on Stochastic
Structural Dynamics, Hangzhou, China, May 26-28, 2003.

Hasofer, A.M. and Lind, N.C. 1974. Exact and Invariant Second-Moment Code Format. Journal of
Engineering Mechanics, ASCE. Vol.100, No.1, pp. 111-121.

Li, Hong and Foschi, R.O. 1998. “An Inverse Reliability Method and Applications”, Structural
Safety, Elsevier, 20: 257-270.

Liu, Y.W. and Moses, F. 1994. A Sequential Response Surface Method and Its Application in the
Reliability Analysis of Aircraft Structural Systems. Structural Safety, Vol.19, pp.3-19.

Madsen, H.O., Krenk, S. and Lind, N.C. 1986. Methods of Structural Safety. Prentice-Hall.

Melchers, R. 1987. Structural Reliability: Analysis and Prediction. Ellis Horwood Limited, U.K.

Rackwitz, R. and Fiessler, B. Structural Reliability under Combined Random Load Sequence.
Computers and Structures, Vol.9, No.5, p.489-494.

40
Schueller, G.I., Bucher, C.G. and Bourgund, U. 1989. On Efficient Computational Schemes to
Calculate Structural Failure Probabilities. Probabilistic Engineering Mechanics, Vol.4, No.1, pp.10-18.

Thoft-Christensen, P. and Baker, M. 1982. Structural Reliability Theory and Its Applications.
Springer-Verlag.

Thoft-Christensen, P. and Murotsu, Y. 1986. Application of Structural Systems Reliability Theory.


Springer-Verlag.

Wen, Y.K. 1990. Structural Load Modeling and Combination for Performance and Safety Evaluation.
Elsevier.

41

También podría gustarte