Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Este curso discute los fundamentos de la Teoría de la Confiabilidad tal y como se aplica a
diversos aspectos de la Ingeniería Civil, y presenta ejemplos para clarificar el enfoque. Desde
que los fundamentos de la teoría estadística y de probabilidades son requeridos, los
conceptos básicos serán repasados brevemente.
En general, la performance de un sistema de ingeniería puede ser descrita por una función de
estado límite o de performance G(x) , de la forma siguiente:
G ( x) = C ( x c , d c ) − D( x d , d d ) . [1]
G(x) es una función de las variables que intervienen en el problema, x , y siempre puede ser
escrita como la diferencia entre dos funciones: una capacidad C y una demanda D. Las variables
pueden ser divididas en dos grupos: uno, (xc , dc ) , relacionado con la capacidad C, y una
segunda, (xd , dd) , asociada con la demanda D. Los vectores xc , xd incluyen todas aquellas
variables que son aleatorias o inciertas, mientras que los vectores dc y dd incluyen todas
aquellas cantidades que son determinísticas o conocidas con suficiente certeza. Por ejemplo el
peralte de una viga afectara su capacidad a la flexión y formara parte de dc , mientras que la
luz afectara la demanda de momento flector y formara parte de dd . Por otro lado, la
resistencia a la flexión formara parte de xC , mientras que la carga aplicada será incluida en xD.
2
representada por distribuciones estadísticas. En un modelo de cálculo de capacidad más
sofisticado, las estadísticas para la viga pueden ser derivadas a partir de las laminaciones
individuales, y los ensayos en las laminaciones proveerán la información requerida. Algunas
variables pueden tener mas influencia que otras y, por lo tanto, requerirán una descripción
estadística mas precisa. Algunas variables de la demanda dependerán de datos disponibles,
por ejemplo, velocidades de viento, espesores de capas de nieve, cantidad de lluvia,
intensidades sísmicas históricas, o cargas de ocupación. Las estadísticas de tales demandas
pueden ser comunes a todos los materiales. Por otro lado, todas aquellas variables asociadas
con la capacidad son dependientes del material. En este sentido, por ejemplo, desde que las
propiedades de la madera tienden a ser generalmente más variables que las del acero, la teoría
de confiabilidad juega un papel relativamente más importante en la ingeniería de madera. Por
supuesto, pueden haber algunas variables para las cuales no existen datos o hay muy poca
información disponible. En este caso, las estimaciones subjetivas de la variabilidad pueden
ser introducidas con el fin de estudiar la importancia de tales asumidos en la confiabilidad
global del diseño. Si una variable particular se encuentra que es muy importante, pero falta
información detallada, se debe hacer un mayor esfuerzo para obtener mas datos con el fin de
evitar valores poco confiables en la estimación de la confiabilidad.
3
de las situaciones consideradas en la ejecución de la calibración. Una descripción más
detallada de la calibración de códigos se muestra en Foschi et el al. (1990).
Los datos para cada una de las variables involucradas se deben proporcionar en forma de
información estadística. Los conceptos básicos de estadística y probabilidades se encuentran
muy bien desarrollados en varios textos (Benjamin y Cornell, 1970; Ang y Tang, 1984). En
este apartado se hace una breve revisión.
N N
1 1
Valores medios: f =
N
∑
i =1
fi E=
N
∑E
i =1
i [2]
∑ (f ) ∑ (E )
N N
2 2
i −f i −E
Desviación estándar: σf = i =1
σE = i =1
[3]
N N
∑ (f )( )
N
i − f Ei − E
Covarianza f - E: σ f −E = i =1
[4]
N
σf σE
Coeficientes de variación: cov f = cov E = [5]
f E
4
σ f −E
Coeficiente de correlación lineal f - E: ρ f −E = [6]
σ fσE
Para cálculos de confiabilidad no es suficiente con proveer solamente las estadísticas básicas.
Los datos también deben ser clasificados con la finalidad de construir una función, llamada
distribución de probabilidad acumulada, F(x), definida como:
F ( x 0 ) = Pr ob( x ≤ x 0 ) [7]
1.00
0.90
0.80
0.70
0.60
0.50
0.40
0.30
0.20
0.10
0.00
0 10 20 30 40 50
Figura 1. Ejemplo de datos discretos ajustados con una función de distribución acumulada
(Weibull de 2-parámetros)
5
Los puntos discretos usados para construir F(x) a partir de los datos pueden ser ajustados
con una función matemática, que luego es usada en las estimaciones de confiabilidad. Otra
función útil es la derivada f(x) de la distribución acumulada F(x). La función f(x) se llama la
densidad de probabilidad. Debido a la relación entre f(x) y F(x), la probabilidad F(x0) también se
puede escribir como:
x0
F (x0 ) = ∫ f ( x)dx
−∞
[8]
La distribución acumulada F(x) puede ser representada con una variedad de funciones
matemáticas. Una discusión detallada de las diferentes distribuciones de probabilidad se
encuentra en Benjamin y Cornell (1970), Ang y Tang (1984a), o Thoft-Christensen (1982).
Aquí vamos a considerar solo algunas de las distribuciones mas empleadas en ingeniería.
f ( x) =
1
2π σ
(( )2
exp − x − x / 2σ 2 ) [9]
Esta distribución es simétrica a partir del valor medio y se extiende de – ∞ a +∞. Para el caso
especial de valor medio cero y desviación estándar σ=1, la distribución se convierte en una
Estándar Normal. La distribución acumulada F(x) se denota como Φ(x) , y el
correspondiente f(x) se denomina φ(x). Aunque una distribución Normal puede ser siempre
ajustada a una serie de datos, se presenta un problema fundamental cuando la variable x no
puede ser negativa (como en el caso de resistencia a la flexión, o del módulo de la elasticidad
o de las cantidades de precipitación). Sin embargo, una Normal se puede utilizar si el valor
medio es positivo y el coeficiente de variación es pequeño, teniendo como resultado que muy
pocas veces la variable tome valores negativos. La distribución Normal tiene algunas
características muy interesantes: cualquier combinación lineal de distribuciones Normales es
también una Normal, una característica que no se cumple para otras distribuciones. Las
propiedades de la distribución Normal la han hecho la base para la mayoría de los avances en
pruebas e inferencias estadísticas. Una Normal de valor medio m y desviación estándar σ
puede ser escrita como:
x = m +σ R [10]
donde R es una variable Normal Estándar. Puesto que existen algoritmos que generan
números aleatorios con una distribución normal estándar, la Ec. [10] puede ser usada para
generar números aleatorios con una distribución Normal.
6
c) Distribución Extrema Tipo III o Weibull: La función de distribución acumulada
F(x) es, es este caso,
donde se identifican tres parámetros como sigue: x0, la localización (no hay x más pequeño
que x0); m, la escala y k, la forma. Un caso particular de la distribución Weibull implica
solamente dos parámetros, para el caso especial de x0 = 0. Estos parámetros se pueden
relacionar con el promedio y la desviación estándar de la distribución: por ejemplo, a mayor
variabilidad más pequeño es el parámetro de forma k. Una distribución Weibull no puede ser
negativa, por lo tanto tiene las buenas características de un Lognormal. Mas aún, puede
demostrarse que una distribución Weibull es una representación asintótica de la distribución
correspondiente al valor mínimo de una variable x entre un numero grande de muestras de la
misma variable. Esto hace que la Weibull sea una buena opción para representar, por
ejemplo, la resistencia de materiales frágiles o, en general, de los sistemas en los cuales la
capacidad de un grupo de muchos componentes está determinada por la capacidad del
componente más débil del grupo. Así, el comportamiento de la madera en corte o en tensión
perpendicular al grano, o del concreto en tensión, se puede representar bien por las
distribuciones Weibull. La ecuación [ 11 ] se puede también escribir en una forma diferente,
x = x 0 + m[− log(1 − F ( x) )]
1/ k
[12]
Desde que F(x) va de 0 a 1, la Ec.[12] puede ser usada para generar valores de x, que
obedezcan una distribución Weibull, utilizando un generador de números aleatorios que
generen números entre 0 y 1. Estos números aleatorios uniformes pueden ser generados con
rutinas disponibles, incluso con calculadoras portátiles.
1
x = b + {− log[− log( F ( x))]} [14]
a
7
permitiendo la generación de valores de x que obedecen una distribución Gumbel, cuando
los valores de F(x) se generan entre 0 y 1 con un generador de números aleatorios uniforme.
1
f ( x) = [15]
b−a
Esta distribución es útil cuando no hay otra información disponible para una variable dada
excepto un asumido subjetivo del rango de la variable. En algunos casos, se utiliza la
distribución Uniforme cuando uno no desea introducir sesgos en los datos: por ejemplo, la
localización del epicentro de un sismo se asume uniformemente distribuida dentro de cierta
zona sísmica cuando no se dispone de un mapa detallado de fallas geológicas.
En general, la función de distribución acumulada F(x) puede ser modificada antes de ser
usada en estimaciones de confiabilidad. Estas modificaciones pueden incluir:
donde N es el numero de ventanas elementales (para los cuales F(x) es conocida) que
estarán incluidas en el nuevo intervalo deseado. Un asumido básico en esta relación
es que el valor de x en una ventana elemental es independiente de los valores en las
otras. Así, si la ventana elemental es de un año, la carga máxima de la nieve en un año
se asume que es independiente de la carga máxima en el año siguiente. El resultado
de la transformación de la Ec.[16 ] es un cambio de la forma de la distribución
original F(x), aumentando el valor medio y disminuyendo la variabilidad. Si la
distribución original es Gumbel, a partir de la Ec.[13 ], elevándola a la potencia N, la
Ec.[14 ] se modificará como sigue:
log N 1
x =b+ + {− log[− log( FN ( x))]} [17]
a a
8
FN ( x) = 1.0 − [1.0 − F ( x)] N [18]
F ( x) − F ( x 0 )
F * ( x) = [19]
1.0 − F ( x 0 )
F ( x)
F * ( x) = [20]
F ( x0 )
Finalmente, para terminar esta revisión, consideremos la probabilidad de que dos eventos
ocurran simultáneamente. A esto se le llama la probabilidad conjunta, y se puede expresar como
9
E = falla de un puente, A1 = vientos huracanados, A2 = inundaciones, etc. A parir de la
Ec.[21] podemos escribir,
N
P ( E ) = ∑ P ( E Ai ) P ( Ai ) [23]
i =1
P ( E Ai ) P ( Ai ) = P ( Ai E ) P ( E ) [24]
se concluye que
P ( E / Ai ) P ( Ai )
P ( Ai / E ) = N
[25]
∑ P( E / A
j =1
j ) P( A j )
lo que se conoce como el Teorema de Bayes. Esta ecuación puede emplearse para actualizar
probabilidades a-priori para cada uno de los eventos Ai conocida la información que el
evento E ha ocurrido. Para el ejemplo de la falla del puente debido a diferentes probables
causas, el Teorema de Bayes puede ser usado para estimar la probabilidad de ocurrencia de
cada causa dada la información de que el puente ha fallado. Las probabilidades a-priori P(Ai)
pueden ser inicialmente subjetivas, por ejemplo, empezando con que todas sean igual a 1/N,
donde N es el numero de eventos mutuamente excluyentes Ai. Más adelante se discute una
aplicación del Teorema de Bayes en el análisis de un puente existente.
Muchos modelos probabilísticos pueden ser usados para estudiar la ocurrencia de eventos. El
modelo de arribo de Poisson es uno de ellos. Está basado en la distribución de Poisson que
calcula la probabilidad de N eventos en un tiempo T:
P( N en T ) =
(λT ) N
e − λT [26]
N!
en la que λ es una constante. La Ec.[26] puede ser usada para calcular la distribución
acumulada del tiempo T hasta el próximo evento. Por definición, de la Ec.[7], F( T ) es la
10
probabilidad que el tiempo hasta que ocurra el próximo evento sea menor que T. Por el
contrario, la probabilidad que el próximo evento ocurra después de T es igual a la
probabilidad que no haya eventos antes de T. De la Ec.[26],
Este modelo predice que, si uno espera bastante tiempo, cuando T → ∞, habrá por lo menos
un evento, con certeza. Por otra parte, si T es algo corto, la probabilidad de ocurrir un
evento antes de T es pequeña. Así, la probabilidad de que ocurra un sismo en los próximos 5
minutos es muy pequeña, mientras que la probabilidad de que ocurra un sismo durante los
próximos 1000 años es casi una certeza. Usando la Ec.[28 ] para obtener el valor medio de la
distribución, o el tiempo promedio de ocurrencia de los eventos, T . Se puede mostrar que
T = 1/λ [29]
Por lo tanto, λ es el número promedio de eventos esperados en la unidad de tiempo escogida. Si el tiempo
entre eventos (T) se mide en años, entonces λ es el número promedio de eventos por año. La
Ec.[29] permite una manera de calcular el parámetro λ a partir de datos históricos. Se puede
mostrar que, aun basados en datos históricos limitados, el parámetro λ puede ser estimado
usando el Teorema de Bayes.
Para bajas probabilidades y eventos raros, la Ec.[30] puede ser aproximadamente escrita
como
11
Todos estos métodos computacionales han sido implementados en software ahora
disponible. Una de estas aplicaciones, RELAN, ha sido usada en los ejemplos de aplicación
de este documento. RELAN ha sido desarrollado en el Departamento de Ingeniería Civil de
la University of British Columbia. Otros programas son CALREL, desarrollado en la
University of California at Berkeley; ISPUD, desarrollado en la University of Innsbruck,
Austria. En el software comercial se encuentran, STRUREL (Munich, Germany) y PROBAN
(Det Norske Veritas, Norway).
Aunque la mayoría de estas aplicaciones se han desarrollado pensando en análisis de
confiabilidad estructural, la teoría de la confiabilidad en la cual se han basado es
completamente general y, por lo tanto, pueden ser utilizadas para el análisis de cualquier otro
tipo de sistema de ingeniería. Todos incorporan los métodos discutidos aquí, y difieren
principalmente en la sofisticación axial como en la organización de los datos de entrada y
salida. Para completar, se incluye aquí solamente una breve descripción de los métodos de
cómputo.
a) Simulación Montecarlo
Nf
Pf ≅ [32]
N
12
b) Métodos de Confiabilidad de Primer y Segundo Orden (FORM y SORM)
G ( x) = X 1 − X 2 [33]
con las variables X siendo Normales y no correlacionadas. Además, notar que la función
de performance es lineal. Si expresamos las variables X en termino de sus promedios,
desviaciones estándar y las variables Normales Estándar x, siguiendo la Ec.[10],
podemos escribir
G ( x) = X 1 − X 2 + σ 1 x1 − σ 2 x 2 [34]
x 2 ≥ ( X 1 − X 2 ) / σ 2 + σ 1 x1 / σ 2 [35]
G<0 G=0
x2
y2
y1
P G>0
β α x1
o
Figura 2. Superficie de Falla y definición de índice de Confiabilidad, G = X1 – X2
La Figura 2 muestra el plano ( x1 , x2 ) con la respectiva región de falla G<0, definida por la
Ec.[35], y la región de no-falla, G>0. Se ve que la superficie de falla G=0 es una línea recta.
Una caracterización mas simple de la región de falla puede ser obtenida rotando el eje de
coordenadas, de ( x1 , x2 ) a ( y1 , y2 ), de allí entonces G<0 corresponde a
Se puede mostrar que , dado que las variables x se asumieron como Normales Estándar no
correlacionadas, las variables y también resultan ser Normales Estándar no correlacionadas. Por
lo tanto, la probabilidad de no-performance, de acuerdo con la Ec.[36], es la probabilidad
13
que el evento y2 ≥ β. Esto puede ser obtenido directamente de la función de distribución
acumulada de la distribución Normal Estándar,
Pf = Φ ( − β ) [37]
La Ec.[37] implica que todo lo que se requiere para calcular la probabilidad de falla es
encontrar la distancia β entre el origen O y el punto P. Esta es la mínima distancia entre el
origen (correspondiente a los valores medios de X1, X2 ) y la superficie de falla G = 0.
Encontrar esta distancia mínima es un problema geométrico, solucionado fácilmente por
algoritmos de optimización. La distancia β se llama el índice de confiabilidad, y el punto P se
llama el punto del diseño. Note que cuanto mayor es el índice de confiabilidad, la zona de falla
estará mas alejada del origen o del punto promedio, implicando menores probabilidades de
falla. También, se ve fácilmente que, dada la densidad de probabilidad de las variables y , las
combinaciones de las variables más probables de conducir a la falla están agrupadas
alrededor del punto P. Así, otra manera de llamar al punto P es el punto más probable de falla.
Estas conclusiones se pueden generalizar para cualquier otra función G(x). Sin embargo, el
resultado de calcular β y luego usar la Ec.[37] será exacto solamente si las tres condiciones
siguientes se satisfacen:
Con transformaciones apropiadas de variables (Ditlevsen, 1981, 1996; Rackwitz, 1978; Der
Kiureghian, 1986; Melchers, 1987), las primeras dos condiciones pueden ser resueltas
siempre. Es decir, las variables no-normales pueden ser normalizadas, y las variables que
tengan una estructura correlacionada pueden ser des-correlacionadas. Sin embargo, la
linearidad de la función G está relacionada con la esencia del problema y no puede ser
eliminada con transformaciones. Así, en general, el usar la Ec.[37] proporcionará solamente
una respuesta aproximada, y el error sería dependiente de que tan no-lineal es la función de
performance en la cercanía de P. Afortunadamente, para muchos problemas, el error es
absolutamente aceptable para las aplicaciones de ingeniería. El método FORM ha sido
modificado, y con el, la Ec.[37], si se asume que la superficie de la falla es una función
cuadrática, con curvaturas iguales a las de la superficie verdadera en el punto P. El método
resultante se llama SORM, o Second Order Reliability Method. En muchos casos, los resultados
demuestran una mejora leve sobre los resultados con el método FORM, pero es fácil
construir ejemplos donde las respuestas serian más erróneas.
La Ec.[37] también puede usarse en general para expresar los resultados en término del
índice de confiabilidad β o su probabilidad de falla respectiva Pf si ésta ultima ha sido
obtenida por simulación.
También es interesante notar que, para el simple caso estudiado aquí, existe una ecuación
para calcular el índice de confiabilidad. De hecho, a partir de la Figura 2 y considerando la
pendiente y la intersección con la superficie de falla recta G=0, se puede concluir que
X1 − X 2
β= [38]
σ 12 + σ 2 2
14
este β es correcto solo para un problema de dos variables, y cuando estas son normales y no-
correlacionadas. También hay una expresión para el índice de confiabilidad si las dos
variables son lognormales y con baja variabilidad,
log X 1 − log X 2
β≅ [39]
V1 + V 2
2 2
La convergencia es dependiente de la adecuada elección del vector inicial x*. Sin embargo,
cuando se logra la convergencia, ésta es alcanzada in unas pocas iteraciones, debido a la
eficiencia del método. Los programas de cómputo implementan algoritmos especiales para
encontrar un adecuado vector inicial.
Uno de los resultados muy útiles de FORM es un vector unitario en la dirección OP, cuyos
componentes nos dan información de la sensitividad de las variables en el calculo de β.
15
G
G*
o x
x*
β β∗
P*
P
x
c) Superficies de Respuesta
Se pueden emplear diferentes formas para la función ajustada GF(x). Bucher et al. (1997), por
ejemplo, han considerado expresiones polinomiales del tipo
16
N N
G F ( x) = a 0 + ∑ a i X i + ∑ bi X i2 [40]
i =1 i =1
con los 2N+1 coeficientes encontrados por regresión de los datos discretos. Se pueden
escoger otros datos, cuando se desea una mayor influencia de una variable específica. Por
ejemplo, supóngase que una de las variables es la carga Q y que la variable de respuesta es la
deflexión de una placa. Otras variables que intervienen en la respuesta podrían ser el modulo
de elasticidad y el modulo de corte. Obviamente, si no hay carga Q no habrá ninguna
deflexión. En este caso, es quizás mejor proponer
N N N N
G F ( x) = Q[ a 0 + ∑ a i X i + ∑ bi X i2 ] + Q 2 [ c 0 + ∑ c i X i + ∑ d i X i2 ] [41]
i =1 i =1 i =1 i =1
Los valores discretos de G(x) obtenidos como se indicó en c) permiten ajustar una expresión
matemática, una superficie de respuesta, valida sobre el rango entero de los datos. Algunas
veces esto es difícil de hacer y no es necesariamente preciso. Existen dos alternativas posibles
para interpolar los valores de G(x) usando la base de datos discreta.
• Si el valor G(x0) se requiere para las simulaciones, entonces un numero suficiente de
puntos de datos se localizan tan cerca como sea posible de x0. Luego, estos puntos
son usados para ajustar localmente una superficie aproximada (por ejemplo, un
plano) y este plano es luego usado para realizar la interpolación (Foschi et al., 2002).
• Toda la información de la base de datos discretos pueden ser usados para entrenar
una red neuronal, que luego puede ser usada para obtener G(x0) (Foschi y Zhang,
2003).
Experiencias recientes han mostrado muy buenos resultados usando bases de datos de
respuestas discretas y redes neuronales, para problemas dinámicos (sismos) de varias
variables.
17
probabilidad total llega a complicarse, a menos que el sistema tenga solo dos modos. En este
caso, la probabilidad total se da por
donde P(1) y P(2) son las probabilidades para los modos individuales, y P(1,2) es la
probabilidad que ambos modos ocurran simultáneamente. En el caso general, es posible
calcular límites para la probabilidad total. Por ejemplo, se puede demostrar que PT debe ser
menor que la suma de las probabilidades individuales de cada modo pero mayor que la
mayor probabilidad de los modos individuales. Estos límites dependen solo de la
probabilidad de los modos individuales pero pueden ser bastante amplios. Limites menos
amplios han sido desarrollados por Ditlevsen (Madsen et al., 1986), pero requieren el calculo
de probabilidades conjuntas así como de los modos individuales. Usualmente, los límites de
Ditlevsen son suficientemente cercanos como para estimar que el promedio de ellos es un
buen estimado de PT. Las probabilidades conjuntas dependen de la correlación entre los
modos si las respectivas funciones G comparten algunas variables: por ejemplo, puesto que
las fallas por flexión y corte comparten la variable de la carga aplicada, los dos modos están
correlacionados. Es decir, un alto valor de la carga puede producir simultáneamente la falla
en flexión y corte. Madsen et al. (1986) o Ditlevsen (1996) presentan detalles en la estimación
de probabilidades conjuntas y correlaciones entre modos de falla.
λ 12 = λ 1 λ 2 (d 1 + d 2 ) [43]
La Ec.[43] puede ser aplicada para estudiar la tasa de ocurrencia de un evento combinado tal
como la ocurrencia simultanea de sismos en época de lluvias del Niño, si es que se desea
considerar la probabilidad de falla de un sistema en el poco probable evento de tener lluvias
fuertes y un sismo en el mismo tiempo.
18
ESTUDIO DE CASOS
D = VT + V 2 / 2 a c [44]
La distancia de frenado disponible es, a partir de la geometría, la longitud del arco AB:
Una colisión ocurrirá si D > AB, por lo tanto, para calcular la probabilidad de falla (o
colisión, en este caso) la función de performance G puede ser escrita como
G = AB − D [46]
Las variables aleatorias en este problema, un total de cuatro, son ahora definidas como
componentes de un vector de entrada X:
19
Tabla 1: estadísticas y Distribución de las variables, Caso Ejemplo 1, Diseño de Carreteras
Numero de Variable Tipo de Distribución Valor medio Desviación Estándar
1 Normal 16.67 m/seg 2.39 m/seg
2 Lognormal 0.5 seg 0.2 seg
3 Lognormal 2.5 m/seg2 0.5 m/seg2
4 Uniforme ( * ) 1.20 m 0.23 m
( * ) = Mínimo valor 0.8 m, máximo valor 1.6 m.
C
C ** USER: MODIFY THE FOLLOWING SUBROUTINES
C
C--------------------------------------------------------------------
SUBROUTINE DETERM(IMODE)
C--------Subroutine for entering deterministic variables
IMPLICIT REAL*8(A-H,O-Z)
COMMON/B/ R, H
WRITE(*,10)
10 FORMAT(/' ENTER THE RADIUS R (m) AND THE HEIGHT H
(m)'/)
READ(*,*) R, H α
RETURN
END
C
SUBROUTINE GFUN (X,N,IMODE,GXP)
C--------Subroutine to calculate the failure función
IMPLICIT REAL*8(A-H,O-Z)
COMMON/B/ R, H
DIMENSION X(N)
20
AB = R*(DACOS(R/(R+X(4)))+DACOS(R/(R+H)))
D = X(1)*X(2)+(X(1)**2)/(2*X(3))
GXP = AB - D
RETURN
END
ARQUITECTURA:
RELAN USER
(principal)
Lo siguiente muestra el OUTPUT FILE (archivo de salida) para las estadísticas de las
variables especificadas en la Tabla 1. El análisis se realizo por medio de FORM y por
Simulación en Muestreo de Importancia alrededor del punto de diseño calculado en FORM.
21
ASSOCIATED RELIABILITY INDEX = 3.081
1) Una velocidad V = 22.1 m/seg o 79.6 km/h (sobre el promedio de 16.67 m/seg)
2) Un tiempo de reacción de 0.52 seg, también sobre el promedio de 0.5 seg
3) Una desaceleración de 1.65 m/seg2, muy por debajo del promedio de 2.5 m/seg2
4) Una altura de visual de 1.05 m, bajo el promedio de 1.2 m.
Estos resultados tienen sentido pues implican mayor riesgo el tener un conductor veloz, con
un carro bajo, con frenos en mal estado y/o condiciones pobres de superficie.
Los coeficientes de sensitividad nos dan una medida de la importancia de cada variable
respecto a la confiabilidad del diseño. Mientras más cerca una de estas medidas se encuentra
de 1 (en valor absoluto) mayor es la importancia de la variable respectiva en la confiabilidad
del sistema. Puede verse que, en orden de importancia,
También se puede ver a partir del archivo de salida, que FORM solo requirió 3 iteraciones
para llegar a una solución convergente, con diferencias de β < 0.0001 en los subsecuentes
cálculos. Los resultados de la simulación fueron hallados con 1000 muestras alrededor del
punto de diseño P. Con este numero de muestras, el coeficiente de variación del resultado de
la simulación es aproximadamente de 5.9 %, significando que el tamaño de la muestra es
suficientemente grande y aceptable. El coeficiente de variación puede ser reducido
incrementando el tamaño de la muestra.
Obviamente, el programa puede ser corrido nuevamente para diferentes valores del radio R,
hasta que se obtenga una probabilidad satisfactoria.
22
Figura 4. Ejemplo Caso 1, Diseño Geométrico de una Carretera
Caso Ejemplo No. 2: Falla a flexión de una viga de Madera laminada encolada
d
Lam #N
.
.
H .
.
Lam #1
B
L
Figura 5. Viga laminada bajo carga permanente distribuida y una carga viva concentrada
El análisis de esfuerzos se realiza asumiendo que las secciones planas permanecen planas y a
90o del eje de la viga deformada (eso significa que no se considera el efecto de las
deformaciones por corte). La teoría de vigas compuestas se aplica, requiriéndose primero el
calculo del centro de gravedad de la sección compuesta, y luego el momento de inercia de la
sección. Así, si z es la distancia desde la base de la viga hasta un punto en la sección
transversal, la posición de centro de gravedad se obtiene de
23
∫ E z dA
z= A
[47]
∫ E dA
A
EI = ∫ E ( z − z ) 2 dA [48]
A
Ez
σ =M [49]
( EI )
G1 ( x) = f 1 −
Ez1
( EI )
(
dL2 / 8 + QL / 4 ) [50]
G 2 ( x) = f 2 −
Ez 2
( EI )
(
dL2 / 8 + QL / 4 ) [51]
Definición de Variables:
24
Tabla 2: estadísticas y Distribución de Variables, Caso Ejemplo 2
Numero de Variable Tipo de Distribución Valor medio Desviación Estándar
1 Lognormal 10000 x 103 kN/m2 1500 x 103 kN/m2
2 Lognormal 10000 x 103 kN/m2 1500 x 103 kN/m2
3 Lognormal 10000 x 103 kN/m2 1500 x 103 kN/m2
4 Lognormal 10000 x 103 kN/m2 1500 x 103 kN/m2
5 Lognormal 10000 x 103 kN/m2 1500 x 103 kN/m2
6 Normal 2.0 kN/m 0.10 kN/m
7 Extrema Tipo I 8.0 kN 2.0 kN
8 Weibull, 2-p 35.0 x 103 kN/m2 8.75 x 103 kN/m2
9 Weibull, 2-p 35.0 x 103 kN/m2 8.75 x 103 kN/m2
Correlaciones: ρ1,8 = 0.70, ρ2,9 = 0.70.
Mínimo E, laminación inferior = 9000 x 103 kN/m2
Para el caso con variables no correlacionadas y sin límite inferior para el E de la laminación
inferior, los resultados del RELAN son como sigue:
Estos resultados muestran nuevamente, que aun para la alta nolinearidad de la función de
performance de este problema, los resultados de FORM son muy similares a aquellos
obtenidos de la simulación por Muestreo de Importancia en las cercanías del punto de diseño
P. El número de iteraciones para el cálculo de β (Algoritmo Hasofer-Lind) fue 3. La
importancia de cada variable es nuevamente medida por los coeficientes de sensitividad
correspondientes a las componentes del vector unitario de O a P. Los resultados también
muestran la estrechez de los límites de Ditlevsen, cuando se estima que la falla de la viga
ocurre cuando la viga falla en al menos uno de los dos modos de falla. El índice de la
confiabilidad del sistema es más bajo que el más bajo de los modos individuales, reflejando la
posibilidad de falla en los otros modos menos probables.
La Tabla 3 muestra un resumen de los resultados para tres casos. En el Caso 1, se asume que
no hay correlación y no se imponen límites inferiores. En el Caso 2, se asume un coeficiente
de correlación de 0.7 entre E y la resistencia de las dos laminaciones inferiores. En el Caso 3,
25
adicionalmente a las correlaciones, se impone un limite inferior al modulo de elasticidad E de
la laminación inferior.
26
Los requerimientos de performance bajo circunstancias normales son: 1) la viga debe
soportar las cargas sin fallar a la flexión y 2) las deflexiones no deben superar 1/180 de la luz.
Bajo fuego, la viga no debe fallar antes de 60 minutos de haber comenzado el incendio.
Estos son los tres criterios de performance. En el DBP, también deben ser especificados los
niveles de confiabilidad que estos criterios deben cumplir (confiabilidad objetivo).
Para la situación bajo fuego, es necesario conocer la tasa a la cual la madera se quema,
disminuyendo las dimensiones de la madera en una cantidad e, como se muestra en la Figura
6. Por supuesto, la relación entre e y el tiempo bajo fuego puede ser complicada,
dependiendo de las condiciones ambientales. Para este ejemplo, sin embargo, se asume que la
tasa de quemado es una constante α, tal que después del tiempo T el espesor quemado es e
= αT.
(Q + P ) L2 1 H
G1 = f − 3
( ) [52]
8 ( BH / 12) 2
L 5(Q + P ) L4 1
G2 = − [53]
180 384 E ( BH 3 / 12)
(Q + P) L2 1 H
G3 = f − ( − e) [54]
8 (( B − 2e)( H − 2e) / 12) 2
3
El problema es encontrar valores óptimos H y B para la sección transversal que cumpla con
las confiabilidades especificadas o desviarse un mínimo de ellas. Esto se logra minimizando
la función
( )
NP 2
Ψ = ∑ β − β j ( B, H )
T
j [55]
j =1
27
disponibles para llevar adelante los cálculos, implementando diferentes algoritmos para
optimización. Los resultados mostrados aquí fueron obtenidos con un programa de DBP,
llamado IRELAN, desarrollado en la Universidad de British Columbia.
Los resultados muestran que no es posible hallar valores H y B que permitan lograr
exactamente las confiabilidades objetivo. Los valores óptimos serán aquellos que minimicen
la diferencia entre las confiabilidades obtenidas y las objetivo. Si la performance bajo fuego
se considera el más importante criterio de diseño, y si β3=2.32 se considera bajo en relación
al objetivo β3=2.5, se puede realizar una optimización restringida para forzar β3 = 2.5. De
esa forma, como se muestra en la Tabla 5, las confiabilidades logradas para los primeros dos
criterios de performance se incrementan un poco, con un pequeño incremento en las
dimensiones optimas de la viga.
28
mueve con una aceleración aG(t). La deriva, o el desplazamiento horizontal en la parte
superior de columna, es ∆. ∆max corresponde al máximo desplazamiento durante el terremoto.
La columna se asume ser suficientemente rígida, tal que la mayor parte del desplazamiento es
debido a la deformación de los conectores. Desde que la respuesta cíclica de los conectores
es altamente no lineal, se debe utilizar un análisis dinámico no lineal apropiado para calcular
el tiempo-historia ∆(t), considerando el comportamiento histerético de los pasadores. La
Figura 8 muestra un resultado típico obtenido para el sismo de Landers, California, 1992
(estación Joshua Tree).
El análisis no lineal usado aquí incorpora, en cada incremento de tiempo, el calculo del lazo
de histéresis para cada uno de los pasadores, tomando en cuenta su propia respuesta elasto-
plástica y el comportamiento no-lineal en compresión de la madera alrededor del pasador
(Foschi, 2000). Los criterios de performance están asociados a diferentes niveles de daño, y
están expresados en términos de la máxima deriva horizontal ∆max y limita la relación H/K,
con K siendo constante y H la altura de columna. Para cada estado limite, la función de
performance G(x) puede escribirse como
∆max es una función de las variables aleatorias asociadas con el problema. Algunas de éstas
están ligadas a las propiedades estructurales y otras a la incertidumbre del sismo mismo.
∆ 30.00 ∆
M
20.00
10.00
H 0.00 t
2R
D, σy
0.00 10.00 20.00 30.00 40.00
-10.00
-20.00
-30.00
-40.00
aG -50.00
A pesar que la formulación del problema es simple, la evaluación de G para cada vector x
toma demasiado tiempo, requiriendo un análisis dinámico no-lineal paso a paso hasta el fin
del terremoto. Generalmente, esto hace que la simulación estándar sea muy ineficiente. Por
un lado, la forma de G podría mostrar picos y valles en coincidencia con frecuencias cercanas
a las condiciones de resonancia, haciendo que el algoritmo de FORM sea lento o con
dificultosa convergencia. Aun si se logra convergencia, la nolinearidad de G podría hacer que
la aproximación a la probabilidad de falla, basada en el índice de confiabilidad, sea muy
inexacta. En estos casos se debe usar una superficie de respuesta en reemplazo de la función
29
G, pero es difícil encontrar una superficie simple que represente con confianza todas las
nolinearidades y oscilaciones de G, particularmente sobre el dominio de interés. Por otro
lado, en lugar de ajustar una superficie global, se puede emplear un diferente tratamiento para
la superficie de respuesta.
30
En general, los resultados de FORM obtenidos de la aproximada superficie de respuesta
ajustada con la Ec.[40] no son satisfactorios en este caso, particularmente para los tres
últimos niveles de performance con altas probabilidades de excedencia. Los resultados
mejoran y son más consistentes cuando se emplea la simulación por Muestreo de
Importancia alrededor del punto de diseño obtenido de FORM.
Para un Diseño Basado en Performance el problema podría ser formulado como sigue:
obtener el vector óptimo {d} de parámetros de diseño,
{d } = {R, D, σ Y } [57]
en los que los componentes de {d} son los valores promedio de las variables R, D y σY , para
reunir los siguientes tres criterios de performance con confiabilidad especificada:
Puede considerarse que G1 representa una situación de colapso o de daño excesivo, G2 es una
condición de serviciabilidad o de daño controlado reparable; y G3 una situación de colapso
que corresponde al caso en que las fuerzas F ejercidas por el pasador exceden una máxima
fuerza Fmax controlada por fisuración de la madera. En este caso, Fmax se asumió en 10 kN.
Dados estos tres criterios de performance, se imponen los siguientes tres niveles de
confiabilidad: β1 = 3.0 para G1 , β2 = 2.0 para G2 , y β3 = 3.0 para G3 . Nuevamente el
problema es resuelto por optimización usando la Ec.[55]. Las confiabilidades obtenidas con
los parámetros promedios óptimos D = 13.2mm, R = 117.5mm, y σY. = 305 Mpa, fueron β1
= 3.01, β2 = 1.98 y β3 = 3.00.
31
P( s / R ) f ( R)
f ∗ ( R / s) = ∞
= f ∗ ( R) [59]
∫ P(s / R) f ( R)dR
0
∞ ∫ P( f / R) P(s / R) f ( R)dR
Pf = ∫ P( f / R) f ∗ ( R)dR o, de la Ec.[59], Pf = 0
∞
[60]
∫ P( s / R) f ( R)dR
0
donde P(f/R) es la probabilidad de falla bajo el nuevo régimen de carga asumiendo que la
capacidad es R. La Ec.[60] puede ser implementada fijando varios valores de R dentro del
rango correspondiente y, para cada uno, se calcula la probabilidad de sobrevivir a-priori y la
probabilidad de falla futura. Las probabilidades condicionales P( f/R) y P(s/R) son calculadas
con RELAN usando las funciones de performance apropiadas. La integración de la Ec.[60]
se hace numéricamente.
Esta formulación basada en el Teorema de Bayes es completamente general: puede ser
aplicada a una evaluación estructural, o a cualquier otra situación en la que el sistema no es
una estructura (por ejemplo, el diseño de un pavimento o de un componente hidráulico).
La función de densidad para R puede ser actualizada aun más, tomando en cuenta más
información: por ejemplo, usando datos de un ensayo no destructivo o una prueba de carga.
Caso Ejemplo No. 6: Calibración de una Ecuación de Diseño para una Norma
α D DN + α Q QN = RN S / γ [61]
32
γ = Factor de reducción de Resistencia
RN = Resistencia nominal o de diseño
S = Parámetro geométrico a calcular (p. ej. Modulo de sección para
flexión)
Las cargas muertas nominales son usualmente escogidas iguales a su valor medio. Las cargas
vivas de diseño, por otro lado, se escogen en correspondencia con un periodo de retorno (p.
ej. nieve en 30-años, sismo de 475-años, etc.). La resistencia nominal se escoge normalmente
igual a un percentil bajo de la distribución de valores de la variable (por ejemplo, para
propiedades de la madera, normalmente se usa el 0.05-percentil).
El formato mostrado en la Ec.[61] ha sido adoptado en la mayoría de los códigos modernos
(por ejemplo, el código Canadiense de diseño por estados límites, el código Americano
LRFD, el código Australiano, y los Eurocódigos). Los factores de carga y de resistencia
serían normalmente calibrados tal que, cuando se usan en la ecuación del código, el parámetro
resultante S asegurará la confiabilidad objetivo deseada. En cada caso, la confiabilidad
lograda puede ser evaluada por los procedimientos directos descritos anteriormente. Por
supuesto, con solo unos pocos factores en la ecuación de diseño, el objetivo no podrá ser
obtenido exactamente en todas las situaciones y, como resultado, los factores deben ser
calibrados por optimización. Esto implica minimizar la diferencia entre la confiabilidad
obtenida y la confiabilidad objetivo sobre un número grande de condiciones de diseño o
“puntos” de calibración.
Q
V
33
Q es una carga horizontal producida por el viento sobre conductores con revestimiento de
hielo, y V es una carga vertical permanente de un transformador sobre el poste. R es la
resistencia a la flexión del poste de madera.
Las estadísticas para el lugar de calibración se muestran en la Tabla 8. Los valores nominales
o de diseño son:
Carga vertical, VN = valor promedio de V = 5.0 kN;
Carga horizontal, QN = Carga con periodo de retorno de 50 años (excedencia anual de
1/50) = Q50 = 20.39 kN
Resistencia a la flexión, RN = 0.05-percentil de R = 21.24 Mpa
Para calibrar los factores, el parámetro S obtenido de la ecuación de diseño [62] se introduce
en la función de performance G :
G = R S − (Q h + V e) [63]
De esta manera, la función G ahora se convierte ahora en una función de los factores de
carga y de resistencia:
G = R / RN −
1 (V e + Q h ) [64]
γ (α V V N e + α Q Q N )
La confiabilidad asociada con la probabilidad de G<0 puede ahora ser calculada para
diferentes combinaciones de los factores. Esto se hace con los métodos directos descriptos
anteriormente en estos apuntes. La Tabla 9 muestra la confiabilidad obtenida para diferentes
valores de los factores cuando la altura del poste es h = 8m y la excentricidad e = 0.8m.
Para un índice de confiabilidad objetivo β = 3.0, la Tabla 9 muestra que αV = 1.20, αQ = 1.60 y γ
= 1.1 pueden ser usados en la ecuación de diseño para obtener resultados mas cercanos al
34
objetivo para una situación de diseño con las estadísticas de la Tabla 8. Sin embargo, si las
estadísticas de la carga horizontal son cambiadas a las de un lugar diferente, no usado en la
calibración previa, aun teniendo una distribución Extrema Tipo I pero ahora con un
promedio de 30 kN y un coeficiente de variación de 0.30, el índice de confiabilidad logrado
con los mismos factores sería β = 2.232 (substancialmente menor que el valor objetivo de 3.0).
Este ejemplo simple muestra los pasos en un procedimiento de calibración del código, y
también indica las limitaciones de un código basado en factores. Para lograr buenos
resultados, los factores de carga deben ser optimizados tomando en cuenta un número
suficientemente grande de puntos de calibración, cubriendo razonablemente la aplicabilidad
del código.
Caso Ejemplo No. 7: Análisis del Riesgo Anual de un Dique por efectos de
inundaciones y vientos extremos (Combinación de Carga).
Las inundaciones ocurren con una frecuencia promedio de una cada 10 años ( λ1 = 0.10
/año) y tienen una duración promedio de 30 días. Los fuertes vientos ocurren, en promedio,
una vez cada 2 años o ( λ1 = 0.50 /año ), con una duración promedio de 1 día.
35
λ12 = 0.1 x 0.5 x ( 1 + 30 )/365 = 0.00425 /año [65]
o, dicho de otro modo, se puede esperar una coincidencia de eventos, en promedio, una vez
cada 235 años (=1/0.00425).
Consideremos que las variables H, H1 y H2 son variables aleatorias con estadísticas como se
muestran en la Tabla 10. Los fuertes vientos producen olas que incrementan el nivel de
inundación en una altura HW . Esta altura es también una variable aleatoria, con una
distribución acumulada dada por
− Ln (1 − p)
HW = H [67]
2.72
En cada caso, el sistema se considera que falla si al menos uno de los modos falla
(sistema en serie). A continuación se muestran los resultados para ambas situaciones.
Se ve, en la primera situación, que los limites para los dos modos de falla son bastante
cercanos, resultando en una índice de confiabilidad total de β = 1.549, correspondiendo a
una probabilidad total de falla de 0.060649. Esta es la probabilidad de falla en caso que
ocurra el evento de la primera situación.
36
******************** RELAN RELIABILITY ANALYSIS ********************
PROBLEM TITLE:
DATAFILE: E:\RELANW\LEVEE, NO WINDSTORMS
********************************************************************
37
******************** RELAN RELIABILITY ANALYSIS ********************
PROBLEM TITLE:
DATAFILE: E:\RELANW\LEVEE, FLOOD AND WIDSTORM
********************************************************************
Para la segunda situación, los limites son también bastante cercanos, resultando en un índice
de confiabilidad total de β = -0.266 y una correspondiente probabilidad de falla total de
0.60489.
38
Así, la primera situación es relativamente segura, mientras que la segunda situación, si ocurre,
implica una probabilidad de falla de cerca de 60%. Sin embargo, en el calculo del riesgo
anual, las probabilidades de estos eventos deben ser ponderados por las probabilidades de
que las situaciones realmente ocurran en una ventana de un año. Así, usando la Ec. [ 31 ] y la
Ec. [ 65 ], el riesgo anual sería
o, aproximadamente, 0.86% por año. Esta probabilidad puede luego ser usada en la
determinación del costo anual esperado de la falla del dique.
Conclusiones
Estas notas han presentado una breve revisión de conceptos probabilísticos y métodos de
confiabilidad. Estos han sido ilustrados con aplicaciones a varios problemas típicos en el
diseño de ingeniería: diseño de un perfil de carretera, deflexiones y falla a flexión de vigas
bajo condiciones de servicio o bajo fuego; diseño de una conexión bajo excitación sísmica;
análisis de confiabilidad de una estructura existente bajo cambio de las condiciones de
servicio; calibración de una ecuación de código factorizada; y, finalmente, el análisis de un
dique bajo eventos de inundaciones y/o fuertes vientos que generan olas.
Referencias
Ang, A.H.S and Tang, W. 1984a. Probability Concepts in Engineering Planning and Design. Volume
I: Basic Principles. Bookmasters Inc., Mansfield, Ohio.
Ang, A.H.S and Tang, W. 1984b. Probability Concepts in Engineering Planning and Design. Volume
II: Decision, Risk and Reliability. Bookmasters Inc., Mansfield, Ohio.
Augusti, G., Baratta, A. and Casciati, F. 1984. Probabilistic Methods in Structural Engineering.
Chapman and Hall.
39
Benjamin, J. and Cornell, A. 1970. Probability, Statistics and Decision for Civil Engineers. McGraw-
Hill, New York.
Bucher, C.G. and Bourgund, U. 1990. A Fast and Efficient Response Surface Approach for
Structural Reliability Problems. Structural Safety, Vol.7, pp.57-66.
Der Kiureghian, A. and Liu, P. 1986. Structural Reliability Under Incomplete Probability
Information. Journal of Engineering Mechanics, ASCE. Vol.112, No.1
Ditlevsen, O. and Madsen, H.O. 1996. Structural Reliability Methods. John Wiley and Sons.
Faravelli, L.1989. Response Surface Approach for Reliability Analysis. Journal of Engineering
Mechanics, ASCE. Vol. 115, pp. 2763-2781.
Foschi, R.O., Folz, B. and Yao, F. 1990. Reliability-Based Design of Wood Structures. Structural
Research Series Report No.34, Department of Civil Engineering, University of British Columbia,
Vancouver, Canada.
Foschi, R.O., Li, H., Folz, B., Yao, F. and Baldwin, J. 2000. RELAN: A General Software Package
for Reliability Analysis. Department of Civil Engineering, University of British Columbia, Vancouver,
Canada.
Foschi,R. O. 2000. Modeling the hysteretic response of mechanical connections for wood structures.
Proceedings, World Timber Engineering Conference, Whistler, B.C. Canada, July 2000.
Foschi, R.O. and Li, H. 2001. “A Methodology for Performance-Based Design in Earthquake
Engineering”, Proc. 8th International Conference on Structural Safety and Reliability, ICOSSAR’01,
Newport Beach, CA.
Foschi, R.O. , Li, H. and Zhang, J. 2002. ”Reliability and Performance-Based Design: A
Computational Approach and Applications”, Structural Safety, Vol. 24, Nos. 2-4, pp. 205-218.
Foschi, R.O. and Zhang, J. 2003. ”Performance-Based Design and Seismic Reliability Using
Designed Experiments and Neural Networks”, 5th. International Conference on Stochastic
Structural Dynamics, Hangzhou, China, May 26-28, 2003.
Hasofer, A.M. and Lind, N.C. 1974. Exact and Invariant Second-Moment Code Format. Journal of
Engineering Mechanics, ASCE. Vol.100, No.1, pp. 111-121.
Li, Hong and Foschi, R.O. 1998. “An Inverse Reliability Method and Applications”, Structural
Safety, Elsevier, 20: 257-270.
Liu, Y.W. and Moses, F. 1994. A Sequential Response Surface Method and Its Application in the
Reliability Analysis of Aircraft Structural Systems. Structural Safety, Vol.19, pp.3-19.
Madsen, H.O., Krenk, S. and Lind, N.C. 1986. Methods of Structural Safety. Prentice-Hall.
Melchers, R. 1987. Structural Reliability: Analysis and Prediction. Ellis Horwood Limited, U.K.
Rackwitz, R. and Fiessler, B. Structural Reliability under Combined Random Load Sequence.
Computers and Structures, Vol.9, No.5, p.489-494.
40
Schueller, G.I., Bucher, C.G. and Bourgund, U. 1989. On Efficient Computational Schemes to
Calculate Structural Failure Probabilities. Probabilistic Engineering Mechanics, Vol.4, No.1, pp.10-18.
Thoft-Christensen, P. and Baker, M. 1982. Structural Reliability Theory and Its Applications.
Springer-Verlag.
Wen, Y.K. 1990. Structural Load Modeling and Combination for Performance and Safety Evaluation.
Elsevier.
41