Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Los datos recolectados, sobre un área, de las propiedades del suelo o de la masa rocosa
generalmente están dispersos. Los métodos probabilísticos gráficos y simples son útiles
para resumir esta dispersión para que se comprenda mejor los datos.
3
Representación gráfica
Histogramas
Histogramas
La manera más común de
representar data dispersa es
mediante el uso de histogramas.
Estos están representados por
barras, donde cada una representa
un intervalo, cuyo ancho puede ser
determinando mediante:
k = 1 + 3,3 log10 n
k es el número de intervalos
n es el número de elementos en la data
5
Histogramas
6
Teoría de la probabilidad
Probabilidad
La teoría de la probabilidad es una rama de las matemáticas que estudia los fenómenos
aleatorios y estocásticos.
8
Probabilidad
La teoría de la probabilidad es una rama de las matemáticas que estudia los fenómenos
aleatorios y estocásticos.
8
Probabilidad
La teoría de la probabilidad es una rama de las matemáticas que estudia los fenómenos
aleatorios y estocásticos.
8
Evento aleatorio
Evento aleatorio
10
Evento aleatorio (cont.)
Ejemplo
El complemento de A será A = 77 − 15 = 62
11
Probabilidad condicionada
Probabilidad condicionada
P[A|B] = P[A]
13
Probabilidad condicionada (cont.)
Ejemplo
Por lo tanto, la probabilidad de una alta resistencia sin drenaje debería aumentar si nos
enteramos de que la presión previa a la consolidación es alta.
14
Relaciones elementales entre probabilidades
Descripción Ecuación
Evento y su complemento P[A] = 1 − P[A]
Intersección de dos eventos P[A y B] = P[A] + P[B] − P[A o B]
Intersección de eventos mutua- P[A y B] = P[A]P[B|A]
mente excluyentes
∏n
Unión de dos eventos P[A y...An ] = i=1 P[Ai ]
Unión de eventos mutuamen- P[A o B] = P[A] + P[B] − P[A y B]
te excluyentes y colectivamente
exhaustivos
∑n
Probabilidad total P[A] = P[A y Bi ], s.t. Bi
i=1
P[A y B]
Probabilidad condicionada P[B|A] =
P[A]
15
Variables aleatorias
Definición
Una variable aleatoria es una función que asigna un valor, usualmente numérico, al
resultado de un experimento aleatorio.
∑
P[A] = fX [x] x ∈ A
A
17
Función de masa de probabilidad
fX (x) = P(X = x)
Debido a que el resultado de la función toma exactamente un solo valor, la suma de los
valores sobre un conjunto de datos es
∑
n
fX (xi ) = 1
i=1
∑
j
FX (xi ) = fX (xi )
i=1 18
Función de densidad de probabilidad
o correspondientemente como
∫ x2
P(x1 ≤ x ≤ x2 ) = fX (x)dx
x1
19
Función de densidad de probabilidad (cont.)
∫ +∞
fX (x)dx = 1
−∞
FX (xi ) = P(x ≤ xi )
∫ xi
= fX (x)dx
−∞
20
Estadística
Tendencia central
22
Media
Sea X una variable aleatoria con una función de densidad de probabilidad f(x), la media,
o valor esperado, de X es
∑
xf(x), si X es discreto
E[X] =
µX = x
∫ ∞
E[X] = xf(x)dx, si X es continuo
−∞
23
Mediana
Es el valor para el cual la mitad de las observaciones son más pequeñas y la mitad más
grandes.
24
Dispersión
Las medidas comunes de dispersión son la desviación estándar, el rango y los cuartiles
internos de la distribución de frecuencias.
Desviación estándar
Es el valor de la raíz cuadrada media de la diferencia entre los datos y su media.
√
∑n 2
i=1 (xi − x)
σ=
n
Rango
Es la distribución entre los valores máximos y mínimos.
rx = |xmax − xmin |
25
Dispersión (cont.)
Cuartiles internos
Delimitan el 50 % del medio de los datos.
Coeficiente de variación
Se define como la desviación estándar dividida por la media, la cual expresa la
dispersión relativa.
σ
CV =
x
Varianza
Es una medida alternativa a la desviación estándar, es el momento de inercia de la
distribución de frecuencia.
1∑
n
2
Var(X) = (xi − x)
n i=1
26
Funciones de las variables aleatorias
Momentos de las distribuciones de probabilidad
Los momentos de una variable aleatoria X son los valores esperados de ciertas
funciones de X, éstos forman una colección de medidas descriptivas que pueden
emplearse para caracterizar la distribución de probabilidad de X y especificarlas si todos
los momentos de X son conocidos. La definición matemática del n-ésimo momento es
∫ +∞
E(xn ) = xn fX (x)dx
−∞
Primer momento
Para el caso de n = 1 se tiene que E(x) = µ. El cual corresponde a la media o promedio
aritmético.
28
Momentos de las distribuciones de probabilidad (cont.)
Segundo momento
El segundo momento central es llamado la varianza
∫ +∞
2
E[x − E(x)] = [x − E(x)]2 fX (x)dx
−∞
29
Momentos de las distribuciones de probabilidad (cont.)
Tercer momento
Se denomina Asimetría, E[x − E(x)]3 , con este momento se mide la asimetría de la
función de distribución de probabilidad.
30
Momentos de las distribuciones de probabilidad (cont.)
Cuarto momento
Este cuarto momento es conocido como
Curtosis, E[x − E(x)]4 , y se usa para medir el
grado de pico de la función.
31
Modelos matemáticos para distribuciones de probabilidad
32
Variables múltiples
Cuando más de una variable es de interés, como en el caso de geotecnia con el ángulo
de fricción y la cohesión, la función de masa de probabilidad es directamente extendida
como
∂2
fx,y (x, y) = Fx,y (x, y)
∂x∂y
33
Variables múltiples (cont.)
34
Variables múltiples (cont.)
fX,Y (x, y)
fX|Y (x, y0 ) =
fY (y0 )
35
Variables múltiples (cont.)
36
Aproximación de momentos mediante
series de Taylor
Series de Taylor
∑∞ (n)
f (x0 ) n
f(x) = (x − x0 )
n=0
n!
38
Series de Taylor (cont.)
39
Series de Taylor (cont.)
40
Aproximación
∫ ∞
n
E [Y ] = gn (x)fX (x)dx
−∞
41
Aproximación (cont.)
Esta aproximación es referida como el método del segundo momento de primer orden
(FOSM).
42
Aproximación (cont.)
La aproximación de segundo orden usa los primeros 3 términos de la serie de Taylor, así
que es potencialmente más exacto
( )
1 d2 g
E[Y] ≃g (µX ) + Var[X]
2 dx2 µX
( )2 ( )2
dg 1 d2 g
Var[Y] ≃ Var[X] − Var[X] 2
dx µX 2 dx µX
( )
[ ] dg d2 g
+ E (X − µX )
3
dx dx2 µX
( )2
1 [ ] d2 g
+ E (X − µX )
4
4 dx2 µX
43
Aproximación para funciones de múltiples variables
44
Aproximación para funciones de múltiples variables (cont.)
Donde µ es el vector de la media, µ = µX1 , µX2 , ..., µXn , la aproximación de primer orden
a la media y varianza de Y es
E[Y] ≃ g(µ)
[ ]
∑
n ∑
n
∂g ∂g
Var[Y] ≃ Cov [Xi , Xj ] ·
i=1 j=1
∂xi ∂xj µ
45
Modelos de procesos aleatorios
Distribución de Bernoulli
Un ensayo de Bernoulli es un experimento que tiene solo dos resultados posibles, éxito
o fracaso (o [1, 0], o [verdadero, falso] o [<5, ≥ 5], etc.). Si una secuencia de ensayos de
Bernoulli es mutuamente independiente con probabilidad constante (estacionaria) p de
éxito (en caso de falla, se define q = 1 − p), entonces la secuencia se llama proceso de
Bernoulli.
Su función de probabilidad es
La fórmula es
p si x = 1
f(x, p) = q si x = 0
0 en cualquier otro caso
47
Distribución Binomial
( )
x
F(x|n) = px (1 − p)n−x
n
( )
x n!
=
n x!(n − x)!
Donde:
p es la probabilidad de éxito
n es el número de veces que se repite un experimento
48
Distribución Binomial (cont.)
1. El 5 % de las hojas del lote tienen un nivel inaceptablemente bajo Fuerza de Tensión?
2. El 10 % de las hojas del lote tienen un nivel inaceptablemente bajo Fuerza de
Tensión?
49
Distribución Binomial (cont.)
Solución
1. Sea N25 el número de hojas que tienen resistencias a la tracción inaceptablemente
bajas de las 25 muestreadas. Si las hojas no pasan la prueba de tensión de forma
independiente con una probabilidad constante de falla, entonces N25 sigue una
distribución binomial con p = 0,05. Observamos que, dado que el número de láminas de
baja resistencia en un lote es fijo, la probabilidad de falla cambiará a medida que se
prueben las láminas. Por ejemplo, si 50 de 1000 hojas son de baja resistencia, entonces
la probabilidad de falla de la primera hoja probada es 0.05. La probabilidad de falla de la
segunda hoja probada es 49/999 o 50/999, dependiendo de si la primera hoja probada
era de baja resistencia o no. Sin embargo, si el tamaño del lote (1000 en este caso) es
grande en relación con el número seleccionado para la prueba (25 en este caso),
entonces la aproximación de que p es constante es razonable y conducirá a resultados
bastante precisos. Haremos esta suposición aquí, de modo que
50
Distribución Binomial (cont.)
P [N25 ≥ 5] =1 − P [N25 ≤ 4]
=1 − P [N25 = 0] − P [N25 = 1]
− P [N25 = 2] − P [N25 = 3]
− P [N25 = 4]
( )
25
=1 − (0,05)0 (0,95)25
0
( )
25
− (0,05)1 (0,95)24
1
( )
25
− (0,05)2 (0,95)23
2
( )
25
− (0,05)3 (0,95)22
3
( )
25 51
− (0,05)4 (0,95)21
Distribución Binomial (cont.)
Por tanto, existe una probabilidad muy pequeña de rechazar un lote cuando el 5 % de las
hojas tienen una resistencia a la tracción inaceptablemente baja.
52
Distribución Binomial (cont.)
2. Sea N25 el número de hojas que tienen resistencias a la tracción inaceptablemente
bajas de las 25 muestreadas. Entonces N25 sigue una distribución binomial con p = 0,10
(nuevamente asumiremos que las hojas fallan la prueba de forma independiente y que
la probabilidad de que esto suceda permanece constante de hoja a hoja):
P [N25 ≥ 5] =1 − P [N25 ≤ 4]
=1 − P [N25 = 0] − P [N25 = 1]
− P [N25 = 2] − P [N25 = 3]
− P [N25 = 4]
( )
25
=1 − (0,10)0 (0,90)25
0
( )
25
− (0,10)1 (0,90)24
1
( )
25
− (0,10)2 (0,90)23
2 53
( )
Distribución Binomial (cont.)
54
Distribución de Poisson
55
Distribución de Poisson (cont.)
Problema
Suponga que se sabe que a lo largo de un cierto tramo largo de una carretera se produce
un promedio de 1 hundimiento de talud por año. ¿Cuál es la probabilidad de que ocurra
exactamente 10 hundimientos de talud en el próximo intervalo de 10 años?
56
Distribución de Poisson (cont.)
Solución
Como punto de partida, supongamos que como máximo un talud puede hundirse en
cualquier intervalo de medio año. Hacemos esta suposición porque una prueba de
Bernoulli solo puede tener dos resultados, y si deseamos poder contar el número de
hundimientos, debemos hacer que estos dos resultados posibles sean 1 (una sola
pendiente hundida) o 0 (ninguna pendiente hundida). Si nuestras pruebas tienen una
duración de medio año, entonces tenemos 20 pruebas en 10 años y la probabilidad de
éxito (una pendiente hundida) en cada prueba es la tasa por año dividida por el número
57
Distribución de Poisson (cont.)
1
de pruebas por año: p = . En nuestro intervalo de 10 años, la probabilidad que estamos
2 ( )
20
buscando es P[10 hundimientos en 10 años] ≃ (0,5)10 (0,5)20−10 = 0,176
10
Por supuesto, sabemos que dos o más hundimientos de talud podrían ocurrir fácilmente
en cualquier intervalo de medio año. Se obtiene una solución mejorada utilizando un
intervalo de prueba más corto. Si se usaran intervalos de 2 meses, ahora tenemos seis
ensayos por año y la probabilidad de una subsidencia de la pendiente en cualquier
1
intervalo se convierte en p = . El número de ensayos en 10 años (120 meses) se
6
120
convierte en n = = 60
2
( )
60 ( 1 )10 ( 5 )50
P[10 hundimientos en 10 años ] ≃ 6 6 = 0,137
10
58
Distribución de Poisson (cont.)
p = λt
n
si Ni es el número de subsidencias en t años, se tiene:
( )
n ( λt )k ( )
λt n−k
P [Nt = k] = n 1− n
k
Donde λt es el número medio de hundimientos (llegadas) que ocurren en el intervalo de
tiempo t. Si las llegadas son instantáneas (de modo que no puede ocurrir más de una en
cualquier instante con probabilidad 1) y pueden ocurrir en cualquier instante en el
tiempo, de modo que cada instante en el tiempo se convierta en un ensayo de Bernoulli,
entonces
59
Distribución de Poisson (cont.)
( )( )k ( )n−k
n λt λt
P [Nt = k] = lı́m 1−
n→∞ k n n
[{ }
n n−1 n−k+1
= lı́m · ···
n→∞ n n n
k
( )n ( )−k ]
(λt) λt λt
× 1− 1−
k! n n
pero
{ }
n n−1 n−k+1
lı́m · ··· =1
n→∞ n n n
( )−k
λt
lı́m 1 − =1
n→∞ n
( )n
λt
lı́m 1 − = e−λt
n→∞ n
60
Distribución de Poisson (cont.)
(λt)k −λt
Por lo que la distribución puede simplificarse como: P [Nt = k] = k! e
61
Distribución Normal
[ ( )2 ]
1 1 x−µ
f(x) = √ exp − para − ∞ < x < ∞
σ 2π 2 σ
62
Distribución Normal (cont.)
Propiedades
• La distribución es simétrica alrededor
de µ.
• El máximo punto, o moda, de la
distribución ocurre en µ.
• Los puntos de inflexión de f(x) ocurren
ax=µ±σ
63
Distribución Normal (cont.)
1 1 2
ϕ(z) = √ e− 2 z para − ∞ < z < ∞
2π
64
Distribución Normal (cont.)
65
Distribución Normal (cont.)
Y = X1 + X2 + · · · + Xn
Tiene una distribución normal cuando n → ∞ Si todos los valores de X tienen alrededor
el mismo promedio y la misma varianza. Si definimos
1∑
n
Xn = Xi
n i=1
66
Distribución Normal (cont.)
Se tiene entonces [( ) ]
Xn − µ
lı́m P √ ≤ x = Φ(x)
n→∞ σ/ n
67
Distribución Normal (cont.)
Implicaciones
68
Distribución Normal (cont.)
En virtud del teorema del límite central, la distribución binomial, que como se recordará
surge de la suma de una secuencia de variables aleatorias de Bernoulli, puede
aproximarse por la distribución normal. Específicamente, si Nn es el número de éxitos en
n pruebas, entonces
∑n
Nn = Xi
i=1
69
Distribución Normal (cont.)
70
Distribución LogNormal
Desde el punto de vista de las propiedades y cargas del material a modelar en ingeniería,
que generalmente no son negativas, la distribución normal sufre la desventaja de
permitir valores negativos.
Si G es una variable aleatoria normalmente distribuida, con un rango −∞ < g < +∞,
entonces X = eG tendrá el rango 0 ≤ x < ∞, con esto podemos decir que la variable X es
una variable con distribución longnormal.
{ ( )2 }
1√ 1 ln x−µln x
f(x) = xσ 2π
exp − 2 σln x , 0≤x<∞
ln x
71
Distribución LogNormal (cont.)
Esta distribución es utilizada para representar propiedades del suelo como:
• Ángulo de fricción
• Módulo elástico
72
Covarianza
Definición
Cuando se trata con más de una variable, las incertidumbres en una pueden estar
asociadas con incertidumbres en la otra. Es decir, las incertidumbres pueden no ser
independientes.
Ejemplo
Considere estimar los parámetros de cohesión y fricción de una envoltura de fuerza de
Mohr-Coulomb.
74
Causas de la Covarianza y dependencia
Ejemplo
El asentamiento inducido por la licuación puede conducir directamente a la caída de un
terraplén, por lo tanto, el evento de licuación y el evento desborde no son
independientes entre sí. Si se produce un asentamiento de licuación, la probabilidad de
desborde aumenta.
75
Formulación
Variables discretas
76
Formulación (cont.)
Variables continuas
77
Formulación (cont.)
Sean las variables X e Y aleatorias con una probabilidad conjunta fXY (x, y). La
covarianza entre estas variables es definida por
Cov[X, Y] =E [(X − µX ) (Y − µY )]
∑∑
= (x − µX ) (y − µY ) fXY (x, y)
x y
(caso discreto)
∫ ∞∫ ∞
= (x − µX ) (y − µY ) fXY (x, y)dxdy
−∞ −∞
(caso continuo)
78
Formulación (cont.)
La covarianza entre las dos variables aleatorias X e Y, con sus respectivas medias µX y
µY , puede ser calculado como
79
Tipos de correlación
Correlación probabilística
Significa que dos incertidumbres pueden compartir una dependencia común de una
tercera incertidumbre.
Correlación estadística
Significa que dos incertidumbres se estiman simultáneamente a partir de un conjunto
dado de datos y, por lo tanto, están influenciadas por un error de variabilidad de
muestreo común.
80
Covarianza y el coeficiente de correlación
Otra forma útil de expresar el coeficiente de correlación para dos cantidades inciertas x e
y se define como
Cov(x, y)
ρxy = √
Var(x) Var(y)
E [(x − µx ) (y − µy )]
=√ [ ] [ ]
2 2
E (x − µx ) E (y − µy )
81
Covarianza y el coeficiente de correlación (cont.)
82
Ejercicios
Ejercicios de probabilidades
Problema 1
Para el caso de un experimento que envuelve tirar una moneda tres veces, podemos
contar el número de caras que aparece y asigna la variable aleatoria X.
Definir la función de probabilidad y graficar la función.
84
Ejercicios de probabilidades (cont.)
1 3 3 1
La variable puede asumir valores de 0, 1, 2 y 3 con probabilidades , , y . Por lo que,
8 8 8 8
FX (x) es definido como:
0 if x < 0
1
8 if 0 ≤ x < 1
4
FX (x) = if 1 ≤ x < 2
8
7
if 2 ≤ x < 3
8
1 if 3 ≤ x
85
Ejercicios de probabilidades (cont.)
86
Ejercicios de probabilidades (cont.)
Problema 2
Suponer que el tiempo de falla T en años, de una barrera de arcilla, tiene la función de
densidad de probabilidad:
{
0,02e−0,02t si t ≥ 0
fT (t) =
0 de otro modo
87
Ejercicios de probabilidades (cont.)
88
Ejercicios de probabilidades (cont.)
Problema 3
Si definimos a X como una variable aleatoria discreta, que toma los valores listados en la
tabla debajo con las probabilidades asociadas:
89
Ejercicios de probabilidades (cont.)
1. Se sabe que la suma de todas las posibles probabilidades debe sumar 1. Así que
(1 )
k = 1 − 12 + 16 + 13 + 41 = 16 .
(1) ( ) ( ) ( ) ( )
2. E[X] = (−2) 12 + (−1) 61 + 0 16 + 1 13 +2 14 = 12
90
Gracias
91