Está en la página 1de 5

CAPÍTULO 1 EVALUACIÓN DE LA CONFIABILIDAD Método de nivel IV : es un método de “decisión”, donde se incorporan principios de

DE ESTRUCTURAS optimización económica en un problema con incertidumbres. Se consideran costos y


1.1. INTRODUCCIÓN La ingeniería estructural ha tenido siempre como objetivo beneficios de construcción, mantenimiento, reparaciones, consecuencias de la falla,
fundamental lograr niveles de seguridad que correspondan a probabilidades intereses de capital, etc.. Se busca la solución de mínimo costo total.
extremadamente bajas de ocurrencia de eventos de consecuencias significativas. Los métodos pueden utilizarse en problemas de:
a) Estados límites últimos (de colapso o rotura) - Verificación, donde se tiene como datos la estructura dimensionada y la
- Colapso de la estructura por rotura en lugar crítico. caracterización probabilística de las variables básicas, y la incógnita es la probabilidad
- Colapso de la estructura por formación de un mecanismo de colapso. de falla Pf o la confiabilidad R = 1 – Pf.
- Pérdida de equilibrio estático: vuelco, deslizamiento, levantamiento, falla de anclajes. - Dimensionamiento, donde los datos son la probabilidad de falla objetivo y la
- Pandeo global de la estructura o local de algún elemento. caracterización probabilística de algunas variables básicas (por ejemplo las
- Inestabilidad debido a grandes desplazamientos o deformaciones. relacionadas a cargas y a materiales), y las incógnitas son los parámetros (valor medio,
- Rotura por fatiga o solicitaciones dinámicas. desvío standard) de las variables básicas relacionadas con las dimensiones de la
b) Estados límites de daño estructura.
- Fisuración prematura o excesiva. CAPÍTULO 2 FUNDAMENTOS DE LA TEORÍA DE PROBABILIDADES
- Deformaciones inelásticas permanentes. 2.1. CONCEPTOS GENERALES
- Corrosión del hormigón o del acero. Espacio muestral: conjunto de todos los posibles resultados de un experimento
c) Estados límites de utilización en servicio aleatorio.
- Deformaciones excesivas, en especial por flexión, que impiden el uso normal de la Puede ser discreto o continuo.
estructura u originan daños en parte de la misma. Suceso: subconjunto de un espacio muestral
- Oscilaciones inadmisibles. Sucesos complementarios: cuando sumados dan el espacio muestral
- Filtraciones de agua o humedad. Sucesos mutuamente excluyentes o disjuntos: su intersección es un suceso imposible
1.2. INCERTIDUMBRES Axiomas básicos:
Si las variables que intervienen en el comportamiento estructural, esto es las cargas y 1. Para cada evento existe una probabilidad, que es un número que se asigna a un
sus efectos internos, y la resistencia de la estructura, pudieran conocerse con suceso y mide la frecuencia con que se da el suceso en sucesivas repeticiones del
precisión, la seguridad podría garantizarse suministrando una capacidad portante ensayo. P(E)>=0
ligeramente superior a la requerida por las cargas conocidas. 2. La probabilidad de un evento cierto S es P(S)=1
Incertidumbres fenomenológicas: presentes en proyectos novedosos que avanzan 3. Para dos eventos disjuntos E1 y E2 se cumple P(E1UE2)=P(E1)+P(E2)
sobre el estado del arte y donde no hay experiencia previa sobre el comportamiento Probabilidad condicional:
real de la estructura bajo condiciones severas, pudiendo aparecer eventos Se quiere conocer la probabilidad de un suceso E1 conociendo que se dio el suceso E2
“inimaginables”. 2.2. VARIABLES ALEATORIAS
Incertidumbres de decisión: referido a si un estado límite ha sido superado o no, en 2.2.1. Definición
función de lo que se considera tolerable. Los resultados de un experimento aleatorio tienen en general un valor numérico. De
Incertidumbres en el modelo: tiene en cuenta la relación entre el comportamiento no ser así, se puede asignar un número que identifique el suceso. De esta manera cada
experimental observado y las predicciones del modelo matemático que representa a la suceso puede ser identificado a través del valor de una función llamada variable
estructura. aleatoria
Incertidumbres en la predicción: en la etapa de proyecto se realiza una predicción de la
confiabilidad para una estructura en un tiempo futuro, donde la real variabilidad de la
resistencia de los materiales, cargas que se van a producir durante la vida útil, etc., sólo
pueden ser estimaciones en función de la estadística disponible y la experiencia.
Incertidumbres físicas: referido a la naturaleza aleatoria de las variables físicas. Este
tipo de incertidumbres puede ser reducido pero no eliminado.
Incertidumbres estadísticas: sobre los datos observados de una muestra se debe
estimar una función matemática que describe su distribución, su valor medio, desvío 2.2.2. Función de densidad de probabilidades
standard, y momentos de orden superior. Debido a que la muestra es siempre finita Recordando que la frecuencia con que se da un suceso estaba identificada con un
existe una incertidumbre sobre los parámetros calculados. número entre 0 y 1 llamado probabilidad, se define a la función de densidad de
Incertidumbres debido a factores humanos que comprende probabilidades de la siguiente manera
- Errores humanos: clasificados en errores debido a la variación natural en el Variable discreta
desempeño de las tareas, errores gruesos durante el proceso de diseño,
documentación, construcción y utilización de la estructura, y errores gruesos por
ignorancia y/o negligencia.
1.3. TEORÍA DE LA CONFIABILIDAD ESTRUCTURAL
La teoría de la confiabilidad estructural incorpora un tratamiento racional de las
incertidumbres en el diseño y cálculo de estructuras.
Frecuencial: responde a la pregunta ¿Qué probabilidad de falla tiene una estructura de
una población de estructuras nominalmente idénticas?. Esta medida puede ser
obtenida por observación directa sobre estructuras similares durante un tiempo
prolongado, es decir es una probabilidad sujeta a verificación estadística, llamada
probabilidad objetiva, por ejemplo elemento estructural prefabricado.
Subjetiva: responde a la pregunta ¿Qué probabilidad de falla tiene la estructura
construida, con muchas características no verificadas, y con cargas por recibir en su Variable continua
vida útil?.
Probabilidad no sujeta a verificación estadística, es simplemente una estimación del
valor numérico o grado de creencia acerca de la ocurrencia del evento. En general la
probabilidad de falla “calculada” se debe interpretar como subjetiva.
1.4. CLASIFICACIÓN DE MÉTODOS DE CONFIABILIDAD ESTRUCTURAL
Los métodos para evaluar la confiabilidad estructural pueden ser divididos en “niveles”,
de acuerdo a la información utilizada para realizar los cálculos.
Método de nivel I : se utiliza un valor “característico” para cada variable o parámetro
incierto. Las estructuras se calculan utilizando estos valores nominales afectados por
factores parciales de mayoración de cargas y minoración de resistencias, los cuales
están calibrados con base probabilística. Es el formato “determinístico” de verificación
de la seguridad que utilizan los códigos actuales.
Variable mixta
Método de nivel II : se utilizan dos valores para cada variable incierta, usualmente el
valor medio y el desvío standard, más la correlación entre ellas representada por la Para un valor determinado de X = x existe una probabilidad discreta, y el resto como
covariancia. La representación probabilística del problema es simplificada y una variable continua
aproximada, y se calcula el llamado “índice de confiabilidad” como una medida de la
probabilidad de falla.
Método de nivel III : se utiliza la representación probabilística “exacta” del problema,
requiriéndose el conocimiento de la función de densidad de probabilidades conjunta
de todas las variables inciertas.

1
Otra forma de expresar los valores promedio es a través de la definición de momentos
de una función de densidad
2.3. VECTORES ALEATORIOS
2.3.1. Definición
El concepto de variable aleatoria como una función que asigna a cada punto del
espacio muestral un valor en el eje R , puede ser extendido a más de una dimensión
como idea de “vector aleatorio”. Por lo tanto un vector aleatorio se define como un
conjunto ordenado de n variables que asigna a cada punto del espacio muestral un
punto en el espacio n-dimensional, pudiendo ser discreto o continuo.

Función de distribución de probabilidades


Se define como función de distribución de probabilidades a las siguientes expresiones
Variable discreta

Covariancia y correlación
La correlación es un índice de la dependencia lineal que existe entre dos variables
aleatorias, cuantificadas a través de la covariancia o coeficiente de correlación
(covariancia normalizada)

Variable continua
El significado de la covariancia, o coeficiente de correlación se puede resumir en
Grande y positiva: los valores de X1 y X2 tienden a ser ambos grandes o ambos
pequeños con respecto a sus valores medios.
Grande y negativa: cuando los valores de X1 tienden a ser grandes con respecto a su
valor medio, los valores de X2 tienden a ser pequeños con respecto a su valor medio, y
viceversa.
Pequeña o nula: es débil o no existe relación entre X1 y X2
o si existe, es no lineal.

2.2.4. Valores promedios de una variable aleatoria 2.4. PROCESOS ESTOCÁSTICOS


Se definen a continuación ciertos valores promedio o parámetros que servirán para
describir o caracterizar la función de densidad de probabilidades. 2.4.1. Definición
Valor medio Un proceso aleatorio o estocástico es un conjunto subindicado de variables aleatorias
Como su nombre lo indica, representa el promedio de los resultados de un
experimento aleatorio. Se supone tener los siguientes resultados ,donde todas las variables X(t) están definidas en el mismo espacio
Variancia muestral.
Representa la dispersión de los resultados con respecto al valor medio Dos clases de variables están presentes: la variable estocástica X(t), y la variable t
llamada índice, que puede ser discreta o continua (por ejemplo un subconjunto de R ).
En esta presentación t será el tiempo.
La estructura probabilística de un proceso aleatorio puede ser descripto de manera
Desvío standard similar a un vector aleatorio. Si la variable t es continua, entonces el número de
componentes del vector será infinita.
Para un espacio muestral Ω determinado, el resultado de un conjunto de variables
estocásticas forma una función ordinaria llamada “realización” o “miembro del
Coeficiente de variación
proceso”
Representa la importancia de la variación o desvío standard con respecto al valor
medio, es decir es una medida adimensional de la dispersión

Moda
Es la ordenada para la cual se obtiene el valor máximo de la función de densidad de
probabilidades, es decir

Mediana
Es la ordenada que divide a la gráfica de f en dos partes con áreas iguales

2.2.5. Momentos de una función de densidad

2
3.3.2. Métodos de reducción de variancia
El muestreo directo o “Monte Carlo crudo” consiste en muestrear las variables en todo
su dominio.
CAPÍTULO 5 APROXIMACIÓN DE LA RESPUESTA ESTRUCTURAL
5.1. INTRODUCCIÓN
El objetivo del diseño de una obra civil, en particular de su estructura resistente, es
lograr un comportamiento satisfactorio durante el tiempo de su vida útil, que significa
no superar ciertos requerimientos denominados estados límites. Debido a las
incertidumbres presentes en la demanda y en la capacidad, este objetivo debe
pensarse en términos probabilísticos, evaluando la probabilidad de falla o de
excedencia de los estados límites, como se describió en el Capítulo 3, y comparándola
con probabilidades de falla tolerables o admisibles.
Se analizan tres tipos de sustitutos:
Método de la superficie de respuesta, (Wong, 1985; Faravelli, 1989; Bucher and
Bourgund, 1990; Kim and Na, 1997; Möller, 2001; Möller and Foschi, 2003; Hurtado,
2.4.3. Procesos estacionarios y procesos ergódicos 2004): a partir de una limitada cantidad de resultados determinísticos, obtenidos con
Un proceso es estrictamente homogéneo, o estacionario cuando t es el tiempo, si análisis dinámico no lineal, se construye una superficie cuadrática global para todo el
todas las funciones de densidad de probabilidades conjunta de orden uno, dos y rango de las variables, que cumple con condiciones de borde del problema.
mayor, son independientes del índice t. Significa que todos los valores promedio Método de interpolación local, (Foschi et al, 2002): para evaluar la respuesta en cada
definidos en el apartado anterior son independientes de t. La autocorrelación y la simulación se interpolan los resultados determinísticos disponibles en los puntos más
autocovariancia serán funciones de t = t2 – t1. próximos. Se logra mejor precisión local.
CAPÍTULO 3 MÉTODOS DE EVALUACIÓN DE Método de redes neuronales, (Foschi et al., 2002; Zhang, 2003; Zhang and Foschi,
LA PROBABILIDAD DE FALLA 2004;
3.1. GENERALIDADES Hurtado, 2004; Möller et al., 2006, 2007, 2009, 2010): con la base de resultados
CAPÍTULO 3 determinísticos se entrena una red neuronal para cada parámetro de respuesta
Si en el problema básico de confiabilidad estructural se considera que una sola necesario para analizar los estados límites. Luego las redes neuronales se utilizan para
variable aleatoria S representa el efecto de cargas caracterizada por su función de calcular rápidamente la respuesta estructural en cada simulación.
densidad de probabilidad f
(s), y que una variable aleatoria R independiente de la anterior representa la
resistencia caracterizada por fR(r) , la probabilidad de falla es:

3.2. MÉTODOS DE SEGUNDO MOMENTO Y TRANSFORMACIÓN


3.2.1. Índice de confiabilidad
La confiabilidad es medida a través de un “índice de confiabilidad” b, expresado sólo en
términos de los valores esperados de las variables básicas (primeros momentos) y sus
covariancias (segundos momentos).
Para el caso elemental de dos variables R y S, normales no correlacionadas y función
de falla lineal

3
CAPÍTULO 8
CALIBRACIÓN DE CÓDIGOS

CAPÍTULO 12
OPTIMIZACIÓN DE ESTRUCTURAS CON ACCIONES
DINÁMICAS CONSIDERANDO VARIABLES ALEATORIAS

4
5