Está en la página 1de 7

Análisis de Confiabilidad en Geotecnia, Cuatro Enfoques

Geotechnical Reliability Analysis, Four Approaches


Alberto Jaime Paredes, Investigador Instituto de Ingeniería, UNAM
Audini Montoya Orozco, Alumno Posgrado en Ingeniería, UNAM

RESUMEN: Se hace una descripción de los conceptos fundamentales de confiabilidad en geotecnia y los principales métodos
utilizados para su evaluación. Además, por medio de un caso práctico de estabilidad de taludes se hace una comparación de dichos
métodos y se comentan las ventajas y desventajas de cada uno de ellos.

ABSTRACT: A review is made of reliability fundamental concepts, as well as of the most important methods applied in Geotechnical
Engineering. The methods are compared through the solution of a practical slope stability problem, highlighting their advantages and
disadvantages.

1. INTRODUCCIÓN 2.1. La estratigrafía del sitio


Al hablar de estratigrafía se entiende a las capas de
1.1. Antecedentes
suelo presentes en el lugar y sus espesores, y al
El diseño tradicional en geotecnia se basa en factores comportamiento de cada una de dichas capas. Los
de seguridad, cuyas magnitudes son dictadas por la espesores de los estratos de suelo, por lo general, varían
experiencia acumulada por la práctica profesional, a punto a punto en el sitio, incluso pueden desaparecer
través de muchos años. Por su parte, los análisis de una o varias de las capas de suelo y aparecer otras o no.
confiabilidad se basan en el modelo Demanda (cargas)- Las propiedades mecánicas de los suelos varían
Capacidad (resistencia), en el cual el comportamiento también puntualmente y a lo largo del espesor del
no deseable se define como la probabilidad de que la mismo estrato de suelo.
demanda exceda a la capacidad. Por ello, el geotecnista, tradicionalmente, con base
El análisis de confiabilidad permite tomar en cuenta en la información geológica, en los datos de campo y
para fines de diseño, la incertidumbre de los parámetros laboratorio, su experiencia y usando el juicio ingenieril
del suelo y de las cargas a las que se ve sometido. hace un modelo tridimensional idealizado del suelo en
el sitio, desde la superficie hasta la profundidad de
1.2. Objetivos
interés. Asigna valores de espesores medios y de
• Describir de forma general los conceptos propiedades medias del suelo y con ello diseña.
básicos del análisis de confiabilidad en Como puede inferirse, la precisión del modelo
geotecnia. idealizado del suelo depende del conocimiento
• Exponer y comparar los principales métodos geológico, del número de sondeos y de la cantidad de
utilizados para la determinación del índice de muestras de suelo inalteradas y alteradas extraídas, así
confiabilidad. como del número de ensayes de laboratorio para
• Comparar entre sí los resultados de los determinar las propiedades índice y mecánicas. Además
diferentes métodos de análisis, a través de un de la experiencia geotécnica previa que se tenga de la
caso práctico de estabilidad de un talud. zona donde se ubica el sitio en consideración.
Aún suponiendo que la extracción de muestras de
1.3. Alcances suelo fuera perfecta y no se alterara el material y que
En la primera parte del artículo se establecen las los ensayes de laboratorio fueran también perfectos y
bases del análisis de confiabilidad en geotecnia. Se representativos del comportamiento del suelo, se
describen los principales métodos de análisis empleados tendrían variaciones puntuales y en profundidad, tanto
y se establecen sus bases teóricas. Finalmente, se hace en las propiedades del suelo como en sus espesores.
una comparación de los métodos y se discuten sus Dicho de otra manera las propiedades índice y
ventajas y desventajas. mecánicas del suelo son aleatorias en mayor o menor
grado. Es decir, varían alrededor de un valor medio con
2. INCERTIDUMBRE EN EL ANÁLISIS más o menos dispersión.
GEOTÉCNICO A la variabilidad intrínseca del material habría que
La incertidumbre en los análisis geotécnicos es agregar la dispersión causada por manipulación en el
resultado principalmente de dos factores: 1) la campo y en el laboratorio. Primero, por la alteración
estratigrafía del sitio y, 2) las solicitaciones a las que se causada al suelo al extraerlo y, segundo, debido a los
verá sometido el suelo. métodos de ensaye y medición en laboratorio.
A lo anterior hay que añadir por lo menos los cuatro
factores siguientes: a) Muestreo del suelo escaso (pocos
sondeos, y pocas muestras); b) Orientación de la
Página 1 de 7
Análisis de Confiabilidad en Geotecnia, Cuatro Enfoques
Alberto Jaime Paredes, Audini Montoya Orozco

muestra, anisotropía y tamaño; c) tiempo de carga en el incertidumbre. Provocada por la aleatoriedad del suelo
laboratorio vs tiempo de carga del proyecto en la y sus propiedades, y por las solicitaciones a las que se
realidad, ensayes de deformación controlada o de ve sometida la obra en consideración.
esfuerzo controlado; y d) análisis de deformaciones en
el plano, ensayes con estados de esfuerzos aplicados al 3. ANÁLISIS DE CONFIABILIDAD
suelo diferentes a la realidad.
3.1. Factor de Seguridad
Para obtener una representación cuantitativa de la
incertidumbre de los suelos en sus propiedades índices Tradicionalmente, el diseño en geotecnia se realiza
y mecánicas, se recurre al análisis estadístico de los aplicando un Factor de Seguridad (FS) específico para
resultados de las pruebas de campo y de laboratorio. el problema en estudio, bajo condiciones de carga y
El análisis estadístico de las propiedades de los resistencia establecidas. Este FS es producto de la
suelos se ha llevado a cabo a lo largo de la práctica de experiencia acumulada a lo largo de muchos años. En
la geotecnia en diferentes grados. El valor del general, se aplican valores numéricos diferentes según
parámetro se determina “a ojo” calculando su promedio el diseño de que se trate. Así, por ejemplo, una zapata
o mediante el ajuste de la tendencia de los datos de cimentación se diseña con un FS = 3, un talud se
obtenidos. En esta forma de trabajo tiene gran puede diseñar con valores tan bajos como 1.3-1.5, y un
relevancia la experiencia de la persona que lo realiza. muro de contención contra deslizamiento con FS = 2.
Por tanto, los resultados obtenidos pueden variar de Esto no quiere decir que la zapata sea 2 veces más
forma considerable de persona a persona. segura que un talud o una y media veces mejor que el
Desafortunadamente, constituye el método de mayor muro de contención. Significa que la experiencia
difusión y aplicación en la práctica. acumulada en ingeniería geotécnica indica que
En México, Marsal y Masari (1959) en su obra “El aplicando tales FS, la probabilidad de ocurrencia de
subsuelo de la ciudad de México” son los primeros falla (catastrófica) se minimiza.
autores en emplear el análisis estadístico y de Los Reglamentos de construcción más modernos no
probabilidad. Con ellos determinan las propiedades hablan de factores de seguridad, sino de factores de
medias índices y mecánicas de las arcillas del valle de carga y factores de reducción para los estados límites de
México e identifican y caracterizan los distintos estratos falla y de servicio. Es decir, acotan el diseño para evitar
y subestratos arcillosos. una falla catastrófica, y aseguran que el
Los resultados de los análisis estadísticos se ajustan comportamiento de la obra cumpla con las condiciones
a la función de densidad de probabilidad que mejor de servicio para las que se diseña.
represente dichos resultados. Se considera al parámetro El factor de seguridad, FS, se expresa como la
del suelo como una variable aleatoria, y se determinan relación entre los valores deterministas de la capacidad
sus primeros momentos (el valor medio de la propiedad o resistencia, C, y la demanda o solicitaciones, D.
y su dispersión o varianza). Esta es la base de la
descripción probabilista. C
FS = (1)
D
2.2. Las solicitaciones a las que se verá sometido el
suelo 3.2. Probabilidad de Falla
Las fuerzas o solicitaciones a los que se ve sometido Al considerar como variables aleatorias, tanto a la
el suelo son muy variables. Determinar solo las cargas capacidad como a la demanda, se pueden representar
estáticas actuantes en una obra de ingeniería cubre por una función de densidad de probabilidad, fig 1. El
capítulos completos de los manuales y reglamentos de diseño óptimo será aquel que minimice la probabilidad
construcción. A éstas hay que añadir las cargas de ocurrencia de falla, pf. Es decir, hacer que las
dinámicas, principalmente, por sismo y por viento que funciones de C y D tengan el menor traslape posible o
son inherentemente aleatorias, tanto en el tiempo aceptable.
(frecuencia) como en intensidad y duración.
En geotecnia, además, se puede presentar un factor
adicional. La presión de poro en el suelo puede variar
periódicamente o accidentalmente, por una oscilación
de temporada del nivel freático o por avenidas
extraordinarias a lo largo de diques y bordos de
protección, o por inundación o rotura de tuberías. Esto
tiene un impacto doble, hace variar tanto la respuesta
del suelo como las cargas a las que está sometido.
De lo anterior, se concluye que el ingeniero Figura 1. Funciones de densidad de probabilidad de capacidad
y demanda
geotecnista analiza y diseña en condiciones de altísima

Página 2 de 7
Análisis de Confiabilidad en Geotecnia, Cuatro Enfoques
Alberto Jaime Paredes, Audini Montoya Orozco

probabilidad necesaria para calcular un valor exacto de


El área del traslape es una medida gruesa de la la probabilidad de falla.
probabilidad de falla. El índice de confiabilidad es función del valor
Si se conocen las funciones de densidad de esperado y la varianza de las distribuciones de
probabilidad de la capacidad y la demanda, la pf se probabilidad de la resistencia y de las cargas aplicadas.
calcula como: Permite comparar la confiabilidad para diferentes
condiciones sin tener que calcular los valores absolutos
D max de probabilidad. El índice de confiabilidad se calcula
pf = ∫ F (x ) f (x ) dx
C min
D C (2) como, Harr (1987):

Donde: E{C} − E{D}


β= (4)
FD(x): Función de distribución acumulada de la var[C] − var[D]
demanda
fC(x): Función de densidad de probabilidad de la Otra forma de expresarlo es al considerar la
capacidad distribución de probabilidad del factor de seguridad
como normal (estándar), y su valor esperado, así se
La confiabilidad, R, se define como el complemento tiene:
de la probabilidad de falla. Los análisis de confiabilidad
buscan determinar la confiabilidad o el riesgo de falla E{FS} − 1
de un sistema o estructura, considerando a éste β= (5)
var[FS]
confiable mientras que no se presente la falla.

R = 1 − pf (3) Como se aprecia, el índice de confiabilidad es el


número de desviaciones estándar a las que se encuentra
La confiabilidad es la probabilidad de que un sistema el valor esperado del FS, con respecto al
lleve a cabo sus funciones de forma adecuada, dentro de comportamiento indeseable; por ejemplo, un factor de
un periodo de tiempo y bajo condiciones de operación seguridad de 1, fig 2.
establecidas. Este funcionamiento adecuado se puede
establecer en términos de los estados límites de falla
(falla catastrófica) o de servicio (por ej: Asentamientos
excesivos), o ambos.
Wolff (1997) establece que los análisis de
confiabilidad se utilizan en los siguientes contextos
generales:
a) Calcular la confiabilidad de un sistema o
estructura nueva durante su construcción y primera
carga. Figura 2. Índice de confiabilidad
b) Calcular la confiabilidad de una estructura o
sistema existente ante una nueva condición de carga. El índice de confiabilidad es una medida de la
c) Calcular la probabilidad de falla de una parte probabilidad de un comportamiento indeseable dados
de la estructura o sistema que funcione durante un
un modo de comportamiento del suelo y ciertas
periodo de tiempo.
condiciones de carga.
A esto se puede agregar que permite calcular la
Para calcular el índice de confiabilidad se requiere
confiabilidad de un sistema o estructura nueva, de la
contar con los siguientes datos: Definir el criterio del
cual o no hay experiencia previa publicada o el
estado límite de falla o de servicio; una función para
diseñador no tiene experiencia previa.
calcular el valor esperado y la desviación estándar de
3.3. Índice de Confiabilidad dichos estados límite dados el valor esperado y la
desviación estándar de los parámetros del suelo y de las
El índice de confiabilidad es una medida cuantitativa cargas.
de la confiabilidad de un sistema o estructura que
refleja la mecánica del problema y la incertidumbre en 4. ANÁLISIS DE CONFIABILIDAD
las variables de entrada. Este índice fue desarrollado en
ingeniería estructural para proporcionar una medida de Se han propuesto diversos métodos para hacer
confiabilidad sin tener que determinar la distribución de análisis de confiabilidad. Estos varían de acuerdo al
grado de exactitud que proporcionan. Por ello se
clasifican de acuerdo con dicho nivel (Harr, 1987).

Página 3 de 7
Análisis de Confiabilidad en Geotecnia, Cuatro Enfoques
Alberto Jaime Paredes, Audini Montoya Orozco

El método exacto efectúa el análisis de confiabilidad N'


S≈ (6)
mediante el cálculo preciso de la probabilidad de falla. N
Para ello, se deben conocer las distribuciones de
probabilidad de las variables involucradas en el cálculo. Cuanto mayor sea la cantidad de puntos que se
Este nivel constituye el método más complejo, por lo tengan en el cuadro unitario, mejor será la
cual su aplicación en la práctica es limitada. aproximación del área de la figura.
Difícilmente se pueden determinar con exactitud las Generalmente, el método se utiliza en los siguientes
funciones de densidad de probabilidad de la capacidad casos: para simular operaciones complejas que tienen
y la demanda. Por lo que usualmente se adoptan muchos factores aleatorios que interaccionan
distribuciones sencillas como la normal, lognormal e recíprocamente; para comprobar la aplicabilidad de
incluso la uniforme. Algunos de los métodos que se métodos analíticos más simples; para obtener muestras
encuentran en esta categoría son: la integración aleatorias simples de una variable aleatoria de la cual se
numérica y el método de Monte Carlo. conozca su distribución de probabilidad.
Los métodos de primer orden, corresponden a
aquellos que aplican el segundo momento de la variable 4.2. Método de primeros momentos y primer orden
aleatoria o simplificaciones de éstos. La base de estos Es utilizado para estimar los primeros momentos
métodos es la aplicación de las series de Taylor. Como (media y varianza), de la función de distribución
datos de entrada se requiere conocer los dos primeros resultante con base en los momentos de las variables
momentos de las variables aleatorias y la covarianza de aleatorias de entrada.
las variables correlacionadas. Una ventaja de estos Está basado en la expansión de la serie de Taylor de
métodos es la sencillez de cálculo. En esta categoría la función de distribución resultante sobre algún punto.
están los métodos Hasofer – Lind, de la serie de Taylor La expansión se realiza sobre los valores esperados de
y de la regla 3σ. las variables aleatorias.
La tercera categoría corresponde al método de Dada la función Y = g(X1, X2,…,Xn) donde Xi son
estimadores puntuales propuesto por Rosenblueth los valores de la variable independiente, el valor
(1975). esperado de la función se obtiene evaluando el valor
esperado de las variables aleatorias de entrada:
4.1. Método de Monte Carlo
El método de Monte Carlo es un método numérico E{Y} = g(E{X1 }, E{X 2 },..., E{X n }, ) (7)
que permite resolver problemas matemáticos mediante
la simulación de variables aleatorias. Muzachiodi,
El valor esperado del factor de seguridad se estima
(2003), describe el método con el ejemplo siguiente:
utilizando el valor esperado de las variables aleatorias
Supongamos que buscamos calcular el área de una
que le dan origen:
figura plana S, que se observa en la fig 3.
E{FS} = FS(E{Ø}, E{c},..., E{γ}, ) (8)

La varianza de la función resultante es:

⎡⎛ ∂Y ⎞
2 ⎤
var[Y ] = ∑ ⎢⎜
⎢⎜⎝ ∂X i
⎟⎟ var[X i ]⎥
⎠ ⎥
(9)
⎣ ⎦

Las derivadas parciales son tomadas al punto de la


expansión de la serie de Taylor (en este caso la primera
derivada). Usando el factor de seguridad como una
función resultante. Por dar un ejemplo, la varianza se
Figura 3. Área de la figura plana S obtiene calculando la derivada parcial del factor de
seguridad con respecto a cada variable aleatoria,
Esta es una figura arbitraria con fronteras evaluada al valor esperado de esa variable, al cuadrado;
curvilíneas, definida gráfica o analíticamente y se multiplica el resultado por la varianza de la variable
compuesta por una o varias partes. La encerramos en un aleatoria utilizada y se suma este producto al resultado
cuadrado unitario como se muestra en la fig 3. Tenemos de la función, con respecto a las demás variables
en el cuadrado N puntos aleatorios. Si N’ son los puntos aleatorias.
dentro de S, el área de S es aproximadamente igual a:

Página 4 de 7
Análisis de Confiabilidad en Geotecnia, Cuatro Enfoques
Alberto Jaime Paredes, Audini Montoya Orozco

⎡⎛ ∂FS ⎞ 2 ⎤
var[FS] = ∑ ⎢⎜ ⎟
⎢⎜⎝ ∂X i ⎟⎠
var [X i ]⎥ (10)

⎣ ⎦
Determinados el valor esperado y la varianza del
factor de seguridad, el índice de confiabilidad se calcula
aplicando la ecuación 5.
Entre las ventajas de este método están: proporciona
un índice relativo de la incertidumbre del resultado
asociada a cada variable aleatoria que interviene en su
cálculo; es exacto si se utilizan distribuciones de
probabilidad lineales.
Tiene como desventajas que es necesario determinar Figura 4. Método de estimadores puntuales
el valor de las derivadas parciales y, cuando se utilizan
funciones no lineales, el error aumenta al elevarse el Conociendo al estimador puntual y su
orden de éstas. correspondiente concentración de probabilidad, el valor
esperado de la función de las variables aleatorias
4.3. Método de Estimadores Puntuales elevado a cualquier potencia M, puede ser evaluado de
Un método alternativo para estimar los momentos de forma aproximada, como:
una función resultante con base en los momentos de las
variables aleatorias es el de estimadores puntuales [ ]
E yM = p− x −M + p+ x + M (14)
(Rosenblueth, 1975, 1981). En el, las distribuciones de
probabilidad continuas de las variables aleatorias, se La varianza se obtiene de la identidad:

{ }
representan por una distribución "equivalente" discreta,
a partir de dos o más valores conocidos. var[Y ] = E Y 2 − (E{Y})2 (15)
Los elementos de estas distribuciones discretas (o
estimadores puntuales) tienen valores específicos con Teniendo el valor esperado y la varianza del factor
probabilidades definidas. De tal manera que los de seguridad, el índice de confiabilidad se calcula
primeros momentos de la distribución discreta aplicando la ecuación 5.
coincidan con los de la variable aleatoria continua.
4.4. Método de la regla del 3σ
Considerando la distribución de probabilidad que se
observa en la fig 4, una variable aleatoria continua X, Esta regla, propuesta por Day y Wang y descrita por
que es representada por dos estimadores puntuales, x+ y Duncan (2000), parte del hecho que en una distribución
x-, con probabilidad de ocurrencia P+ y P-, normal el 99.73% de los valores se encuentran
respectivamente. comprendidos en un área ubicada a más menos 3
Como los dos estimadores puntuales y su desviaciones estándar del valor medio. Con base en lo
correspondiente probabilidad de ocurrencia equivalen a anterior, se considera el valor máximo y el valor
la probabilidad de la distribución, los dos valores de P mínimo concebible para el parámetro en estudio.
deben sumar la unidad. La regla 3σ es utilizada para estimar el valor de la
Los dos estimadores puntuales y su respectiva desviación estándar mediante la igualdad
concentración de probabilidad de ocurrencia son
elegidas para coincidir con los tres primeros momentos HCV − LCV
σ= (16)
de la variable aleatoria. 6
Cuando esta condición se cumple para variables
aleatorias simétricamente distribuidas, los estimadores Donde:
puntuales se toman a más menos una desviación σ: desviación estándar
estándar del valor esperado: HCV: máximo valor concebible del parámetro
LCV: mínimo valor concebible del parámetro
X i+ = E{X i } + σ Xi (11)
La regla puede aplicarse cuando se tienen pocos
X i− = E{X i } − σ Xi (12)
datos. También puede usarse para juzgar la racionalidad
de valores de los coeficientes de variación,
Para variables aleatorias independientes, las considerando que el valor concebible más bajo se ubica
concentraciones de probabilidad asociadas son: a 3 desviaciones estándar debajo de la media y el valor
más alto está ubicado a 3 desviaciones estándar sobre la
Pi + = Pi − = 0.5 (13) media.

Página 5 de 7
Análisis de Confiabilidad en Geotecnia, Cuatro Enfoques
Alberto Jaime Paredes, Audini Montoya Orozco

La regla 3σ utiliza como base a la distribución 6. CONCLUSIONES


Gaussiana al cubrir virtualmente la población entera.
La incertidumbre en los análisis geotécnicos se
Sin embargo, es aplicable a otras distribuciones,
puede valorar empleando el análisis de confiabilidad.
Duncan (2000). La regla no está atada rígidamente a
Tradicionalmente el diseño geotécnico se realiza
una distribución supuesta de la variable aleatoria.
empleando factores de seguridad aceptables. Los
5. APLICACIÓN A UN TALUD valores se toman de la experiencia acumulada por la
profesión geotécnica, a lo largo de muchos años.
Se supone un talud de 6 metros de altura con Los reglamentos de construcción más modernos
pendiente 1.5H : 1V, que forma parte de los bordos consideran, en lugar de factores de seguridad, factores
marginales de un canal para conducción de agua. Se de carga y factores de reducción para los estados límites
considera que el canal está a su máxima capacidad, de falla y de servicio. Es decir, acotan el diseño para
tirante de 6 m. evitar una falla catastrófica, y aseguran que el
El talud está formado por una arcilla arenosa con comportamiento de la obra cumpla con las condiciones
peso volumétrico de 16 kN/m3, el ángulo de fricción de servicio para las que se diseña.
tiene un valor medio de 25° y una desviación estándar La variación de los factores involucrados en el
de 2° y la cohesión presenta una media de 10 kPa con diseño geotécnico, se puede cuantificar por medio de la
una desviación estándar de 2 kPa Se tiene la teoría de la probabilidad. Se representan, por una
incertidumbre en los resultados obtenidos en éstas por función de densidad de probabilidad.
lo que se considera a la cohesión y al ángulo de fricción
como variables aleatorias con distribución muy Tabla 1. Resumen del índice de confiabilidad
semejante a una distribución beta. y primeros momentos del factor de seguridad
El FS mínimo y su círculo de falla asociado se Método E{FS} var[FS] σFS β
calcularon aplicando el método de Morgenstern – Price, Monte
los cuales son: FS= 3 y el círculo de falla se ve en la fig 2.98 0.151 0.389 4.97
Carlo
5.
Se busca calcular el índice de confiabilidad para el
Regla del
talud. Se considerará que un FS = 1 representa la 2.77 0.271 0.521 3.39

condición de falla. Se emplearán los métodos: Monte
Carlo, Regla del 3σ, estimadores puntuales, y de
primeros momentos y primer orden. Estimación
2.97 0.149 0.386 5.10
En la tabla 1 se muestran los resultados al aplicar los puntual
diferentes métodos. En ella se observa que los valores Primeros
del índice de confiabilidad determinados con los momentos y
métodos de Monte Carlo, de estimadores puntuales y de 2.98 0.151 0.388 5.09
primer
primeros momentos y primer orden dan un valor de orden
índice de confiabilidad cercano a 5. La Regla del 3σ da
un valor de 3.39. Esto puede explicarse debido a que es
La evaluación rigurosa de la probabilidad de falla es
el método más impreciso de todos. Es decir, no requiere
casi imposible debido a la dificultad para determinar
más que el conocimiento de un valor mínimo y de uno
con precisión las funciones de probabilidad de la
máximo para estimar los primeros momentos del factor
Capacidad y la Demanda. Por ello, hay métodos
de seguridad. Sin embargo, este método es el más
alternativos como los discutidos aquí, que permiten
sencillo de aplicar cuando se tienen pocos datos del
hacer el análisis aproximado, con poblaciones de pocos
suelo.
datos.
De los métodos aquí evaluados se tienen los
comentarios siguientes:
El método de Monte Carlo se utiliza para simular
operaciones complejas que tienen muchos factores
aleatorios que interactúan recíprocamente. Es un
método que fácilmente puede ser programado en una
rutina de cómputo.
El método de primeros momentos y primer orden es
utilizado para estimar los primeros momentos (media y
varianza), por medio de la expansión de la serie de
Taylor. Entre sus ventajas están: proporciona un índice
Figura 5. Mínimo factor de seguridad y círculo de falla critico relativo de la incertidumbre del resultado asociada a

Página 6 de 7
Análisis de Confiabilidad en Geotecnia, Cuatro Enfoques
Alberto Jaime Paredes, Audini Montoya Orozco

cada variable aleatoria que interviene en su cálculo y, es


exacto si se utilizan distribuciones de probabilidad
lineales. Tiene como desventaja principal que es
necesario determinar el valor de las derivadas parciales
y cuando se utilizan funciones no lineales, el error
aumenta al elevarse el orden de éstas.
Un método alternativo para estimar los momentos de
una función resultante con base en los momentos de las
variables aleatorias es el método de estimadores
puntuales. Este método considera que las distribuciones
de probabilidad continuas de las variables aleatorias de
entrada son representadas por una distribución
"equivalente" discreta a partir de dos o más valores
conocidos. Presenta como ventaja que su aplicación es
relativamente más sencilla en comparación con otros
métodos y sus resultados se aproximan en gran medida
a los obtenidos con el método de primeros momentos y
primer orden.
El método más sencillo es el de la regla del 3σ,
aunque es también el método menos preciso. Se aplica
cuando están disponibles datos limitados y puede usarse
para juzgar la racionalidad de valores de los
coeficientes de variación, a partir del valor mínimo y
máximo concebible para la variable de interés.

7. REFERENCIAS
Duncan, J. M., (2000), “Factor of safety and reliability
in geotechnical engineering”, Journal of
Geotechnical and Geoenviromental Engineering,
Vol. 126, No. 4, ASCE, USA.
Harr, M.E. (1987), “Reliability – based design in civil
engineering”, McGraw – Hill, USA.
Marsal, R. J. y M Mazari (1959), “El subsuelo de la
Ciudad de México”, UNAM, México.
Muzachiodi, S. (2003), “Implicancias del Data
Mining”, UNER, Argentina.
Rosenblueth, E. (1975), “Point estimates for probability
moments”, Proceedings of the National academy of
Science, USA.
Rosenblueth, E (1981), “Two – Point estimates in
probabilities”, Applied Mathematical Modeling,
USA.
Wolff, T.F. (1997) “Introduction to probability and
reliability methods for use in geotechnical
engineering”, ETL 1110-2-547, U. S. Army Corps of
Engineers, USA.

Página 7 de 7

También podría gustarte