Está en la página 1de 93

Teoría de la Probabilidad

Evaluación de Riesgos en Ingeniería Geotécnica


1CIV18

MSc. Geinfranco Villalta


Abril 2021

Maestría en Ingeniería Civil


Facultad de Ciencias e Ingeniería PUCP
Pontificia Universidad Católica del Perú
Introducción
Propiedades del suelo en la naturaleza

Los datos recolectados, sobre un área, de las propiedades del suelo o de la masa rocosa
generalmente están dispersos. Los métodos probabilísticos gráficos y simples son útiles
para resumir esta dispersión para que se comprenda mejor los datos.

3
Representación gráfica
Histogramas

Histogramas
La manera más común de
representar data dispersa es
mediante el uso de histogramas.
Estos están representados por
barras, donde cada una representa
un intervalo, cuyo ancho puede ser
determinando mediante:

k = 1 + 3,3 log10 n

k es el número de intervalos
n es el número de elementos en la data

5
Histogramas

El número de intervalos debe seleccionarse de manera sensata. Es importante enfatizar


que un histograma construido a partir de datos normales perfectos (es decir, datos
simulados de una distribución normal) no seguirá un PDF normal a menos que el
tamaño de la muestra sea lo suficientemente grande.

6
Teoría de la probabilidad
Probabilidad

La teoría de la probabilidad es una rama de las matemáticas que estudia los fenómenos
aleatorios y estocásticos.

En 1933, el matemático soviético Andréi Kolmogorov propuso un sistema de axiomas para


la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida.

• Axioma 1: La probabilidad P[A] de un evento A tiene un valor comprendido entre 0 y


1, es decir 0 ≤ P[A] ≤ 1.

8
Probabilidad

La teoría de la probabilidad es una rama de las matemáticas que estudia los fenómenos
aleatorios y estocásticos.

En 1933, el matemático soviético Andréi Kolmogorov propuso un sistema de axiomas para


la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida.

• Axioma 1: La probabilidad P[A] de un evento A tiene un valor comprendido entre 0 y


1, es decir 0 ≤ P[A] ≤ 1.
• Axioma 2: La suma de las probabilidades respectivas de cada elemento de un
conjunto de eventos mutuamente excluyentes y colectivamente exhaustivos Ai es 1,

es decir i P[Ai ] = 1.

8
Probabilidad

La teoría de la probabilidad es una rama de las matemáticas que estudia los fenómenos
aleatorios y estocásticos.

En 1933, el matemático soviético Andréi Kolmogorov propuso un sistema de axiomas para


la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida.

• Axioma 1: La probabilidad P[A] de un evento A tiene un valor comprendido entre 0 y


1, es decir 0 ≤ P[A] ≤ 1.
• Axioma 2: La suma de las probabilidades respectivas de cada elemento de un
conjunto de eventos mutuamente excluyentes y colectivamente exhaustivos Ai es 1,

es decir i P[Ai ] = 1.
• Axioma 3: La probabilidad de que ocurran dos eventos independientes Ai y Aj es
igual al producto de sus probabilidades independientes: P[Ai ] y P[Aj ] = P[Ai ]P[Aj ].

8
Evento aleatorio
Evento aleatorio

Un evento aleatorio o fuente de sucesos aleatorio es un subconjunto de un espacio


muestral, es decir, un conjunto de posibles resultados que se pueden dar en un
experimento aleatorio.

Algunos conceptos básicos

Experimento Se refiere a un evento aleatorio


Resultado Se refiere a los resultados de un experimento, a priori desconocidos
Espacio muestral Se refiere a un conjunto de todos los posibles resultados de un
experimento

10
Evento aleatorio (cont.)
Ejemplo

Se tiene un espacio muestral que contiene 77 elementos (puntos) y el evento A contiene


15 elementos.

El complemento de A será A = 77 − 15 = 62

11
Probabilidad condicionada
Probabilidad condicionada

Se refiere a la probabilidad de que ocurra un evento A, sabiendo que también sucede


otro evento B. La probabilidad condicional se escribe P[A|B].

Se dice que la probabilidad P[A], independientemente de B, es la probabilidad marginal.


Para el caso en el que la probabilidad condicional es la misma que la marginal

P[A|B] = P[A]

13
Probabilidad condicionada (cont.)

Ejemplo

la probabilidad asignada de valores altos para la resistencia no drenada de una arcilla


cambia presumiblemente al conocer el esfuerzo de preconsolidación de la arcilla. A
partir de la observación empírica y la teoría, se sabe que los altos valores de resistencia
no drenada están asociados con altos esfuerzos de preconsolidación, y viceversa.

Por lo tanto, la probabilidad de una alta resistencia sin drenaje debería aumentar si nos
enteramos de que la presión previa a la consolidación es alta.

14
Relaciones elementales entre probabilidades

Descripción Ecuación
Evento y su complemento P[A] = 1 − P[A]
Intersección de dos eventos P[A y B] = P[A] + P[B] − P[A o B]
Intersección de eventos mutua- P[A y B] = P[A]P[B|A]
mente excluyentes
∏n
Unión de dos eventos P[A y...An ] = i=1 P[Ai ]
Unión de eventos mutuamen- P[A o B] = P[A] + P[B] − P[A y B]
te excluyentes y colectivamente
exhaustivos
∑n
Probabilidad total P[A] = P[A y Bi ], s.t. Bi
i=1
P[A y B]
Probabilidad condicionada P[B|A] =
P[A]

15
Variables aleatorias
Definición

Una variable aleatoria es una función que asigna un valor, usualmente numérico, al
resultado de un experimento aleatorio.


P[A] = fX [x] x ∈ A
A

La función fX para variables discretas recibe el nombre de función de masa de


probabilidad, y si la variable es continua se denomina función de densidad de
probabilidad.

17
Función de masa de probabilidad

La probabilidad de que la cantidad incierta X tome un valor particular, x, es

fX (x) = P(X = x)

Debido a que el resultado de la función toma exactamente un solo valor, la suma de los
valores sobre un conjunto de datos es


n
fX (xi ) = 1
i=1

La función de masa acumulada describe la probabilidad de que el resultado de X es


menor o igual que un valor particular


j
FX (xi ) = fX (xi )
i=1 18
Función de densidad de probabilidad

Para espacios continuos, se define la función de probabilidad



P(A) = fX (x)dx
A

o correspondientemente como

∫ x2
P(x1 ≤ x ≤ x2 ) = fX (x)dx
x1

Debido a que el resultado toma exactamente un solo valor, la integral de la función de


densidad sobre un espacio es

19
Función de densidad de probabilidad (cont.)

∫ +∞
fX (x)dx = 1
−∞

La función acumulada de densidad describe la probabilidad de que el resultado de X es


menor o igual a un valor particular

FX (xi ) = P(x ≤ xi )
∫ xi
= fX (x)dx
−∞

20
Estadística
Tendencia central

Al describir grupos de diferentes observaciones, con frecuencia es conveniente resumir


la información con un solo número. Este número que, para tal fin, suele situarse hacia el
centro de la distribución de datos se denomina medida o parámetro de tendencia
central o de centralización.

22
Media

Sea X una variable aleatoria con una función de densidad de probabilidad f(x), la media,

o valor esperado, de X es



 ∑

 xf(x), si X es discreto
E[X] =
µX = x

 ∫ ∞


E[X] = xf(x)dx, si X es continuo
−∞

23
Mediana

Es el valor para el cual la mitad de las observaciones son más pequeñas y la mitad más
grandes.

FX (µ̃) = P[X ≤ µ̃] = 0,5

24
Dispersión

Las medidas comunes de dispersión son la desviación estándar, el rango y los cuartiles
internos de la distribución de frecuencias.

Desviación estándar
Es el valor de la raíz cuadrada media de la diferencia entre los datos y su media.

∑n 2
i=1 (xi − x)
σ=
n

Rango
Es la distribución entre los valores máximos y mínimos.

rx = |xmax − xmin |

25
Dispersión (cont.)
Cuartiles internos
Delimitan el 50 % del medio de los datos.

Coeficiente de variación
Se define como la desviación estándar dividida por la media, la cual expresa la
dispersión relativa.

σ
CV =
x

Varianza
Es una medida alternativa a la desviación estándar, es el momento de inercia de la
distribución de frecuencia.
1∑
n
2
Var(X) = (xi − x)
n i=1

26
Funciones de las variables aleatorias
Momentos de las distribuciones de probabilidad

Los momentos de una variable aleatoria X son los valores esperados de ciertas
funciones de X, éstos forman una colección de medidas descriptivas que pueden
emplearse para caracterizar la distribución de probabilidad de X y especificarlas si todos
los momentos de X son conocidos. La definición matemática del n-ésimo momento es
∫ +∞
E(xn ) = xn fX (x)dx
−∞

E(xn ) es el valor esperado

Primer momento
Para el caso de n = 1 se tiene que E(x) = µ. El cual corresponde a la media o promedio
aritmético.

28
Momentos de las distribuciones de probabilidad (cont.)

El n-ésimo momento con respecto a la media, es decir el n-ésimo momento central es


∫ +∞
E[x − E(x)]n = [x − E(x)]n fX (x)dx
−∞

Segundo momento
El segundo momento central es llamado la varianza
∫ +∞
2
E[x − E(x)] = [x − E(x)]2 fX (x)dx
−∞

La cual, en la mayoría de los casos es denotada como E[x − E(x)]2 = σ 2 .

29
Momentos de las distribuciones de probabilidad (cont.)

Tercer momento
Se denomina Asimetría, E[x − E(x)]3 , con este momento se mide la asimetría de la
función de distribución de probabilidad.

30
Momentos de las distribuciones de probabilidad (cont.)

Cuarto momento
Este cuarto momento es conocido como
Curtosis, E[x − E(x)]4 , y se usa para medir el
grado de pico de la función.

31
Modelos matemáticos para distribuciones de probabilidad

Las distribuciones de probabilidades pueden ser descritas mediante funciones


matemáticas. Estos modelos fueron desarrollado a partir de la década de los 60s.

• Johnson y Kotz (1969) establecieron ecuaciones matemáticas, rangos y momentos


para una gran variedad de funciones de masa y densidad.
• Karl Pearson (1910) aproxima las funciones de probabilidad mediante la solución de
ecuaciones diferenciales.
• Gruska y Lamberson (1970) describen en detalle como las curvas de Pearson se
pueden ajustar a datos empíricos.

32
Variables múltiples

Cuando más de una variable es de interés, como en el caso de geotecnia con el ángulo
de fricción y la cohesión, la función de masa de probabilidad es directamente extendida
como

fx,y (x, y) = P[(X = x) and (Y = y)]


Fx,y (x, y) = P[(X ≤ x) and (Y ≤ y)]

La función de densidad de la probabilidad conjunta es

∂2
fx,y (x, y) = Fx,y (x, y)
∂x∂y

33
Variables múltiples (cont.)

La distribución marginal de una variable


independientemente de la (s) otra (s) se
encuentra integrando (sumando en el caso
discreto) sobre la distribución de
probabilidad en la (s) otra (s) variable (s).
Por ejemplo,

fX (x) = fx,y (x, y)dy
Y

34
Variables múltiples (cont.)

La distribución condicional de una variable x dada una variable y es encontrada


mediante la re-normalización de la distribución de probabilidad conjunta con respecto a
la segunda variable

fX,Y (x, y)
fX|Y (x, y0 ) =
fY (y0 )

35
Variables múltiples (cont.)

Para el caso especial en que X e Y sean independientes, se tienen las siguientes


relaciones

fX|Y (x|y) = fX (x)


fY|X (x|y) = fY (y)
fX,Y (x, y) = fX (x)fY (y)
FX,Y (x, y) = FX (x)FY (y)
FX|Y (x|y) = FX (x)
FY|X (y|x) = FY (y)

36
Aproximación de momentos mediante
series de Taylor
Series de Taylor

La serie de Taylor es una aproximación de funciones mediante una suma de potencias de


enteras de polinomios, cuya formulación general es

∑∞ (n)
f (x0 ) n
f(x) = (x − x0 )
n=0
n!

Primera aproximación p(x0 ) = f(x0 )

38
Series de Taylor (cont.)

Segunda aproximación p′ (x0 ) = f′ (x0 )

39
Series de Taylor (cont.)

Tercera aproximación p′′ (x0 ) = f′′ (x0 )

40
Aproximación

Dada la función Y = g(X), se tiene

∫ ∞
n
E [Y ] = gn (x)fX (x)dx
−∞

Realizando una expansión de Taylor para la función g(X)



dg 1 2 d g
2
Y =g(X) = g (µX ) + (X − µX ) + (X − µX ) + ···
dx µX 2 dx2 µX

41
Aproximación (cont.)

Una aproximación de primer orden la cual describirá el primer momento sería


[ ]
dg
E[Y] ≃ E g (µX ) + (X − µX ) = g (µX )
dx µX
[ ] ( )2
dg dg
Var[Y] ≃ Var g (µX ) + (X − µX ) = Var[X]
dx µX dx µX

Esta aproximación es referida como el método del segundo momento de primer orden
(FOSM).

42
Aproximación (cont.)

La aproximación de segundo orden usa los primeros 3 términos de la serie de Taylor, así
que es potencialmente más exacto
( )
1 d2 g
E[Y] ≃g (µX ) + Var[X]
2 dx2 µX
( )2 ( )2
dg 1 d2 g
Var[Y] ≃ Var[X] − Var[X] 2
dx µX 2 dx µX
( )
[ ] dg d2 g
+ E (X − µX )
3
dx dx2 µX
( )2
1 [ ] d2 g
+ E (X − µX )
4
4 dx2 µX

43
Aproximación para funciones de múltiples variables

Si la función arbitraria de varias variables Y = g(X1 , X2 , ..., Xn ), la correspondiente


expansión de Taylor es

∑ ∂g
n
Y =g (µX1 , µX2 , . . . , µXn ) + (Xi − µXi )
i=1
∂xi
µ


1 ∑∑
n n
( ) ∂2g
+ (Xi − µXi ) Xj − µXj + ···
2 i=1 j=1 ∂xi ∂xj
µ

44
Aproximación para funciones de múltiples variables (cont.)

Donde µ es el vector de la media, µ = µX1 , µX2 , ..., µXn , la aproximación de primer orden
a la media y varianza de Y es

E[Y] ≃ g(µ)
[ ]

n ∑
n
∂g ∂g
Var[Y] ≃ Cov [Xi , Xj ] ·
i=1 j=1
∂xi ∂xj µ

La aproximación de segundo orden es


( )
1 ∑∑
n n
∂ 2 g
E[Y] ≃ g(µ) + Cov [Xi , Xj ]
2 i=1 j=1 ∂xi ∂xj µ

45
Modelos de procesos aleatorios
Distribución de Bernoulli

Un ensayo de Bernoulli es un experimento que tiene solo dos resultados posibles, éxito
o fracaso (o [1, 0], o [verdadero, falso] o [<5, ≥ 5], etc.). Si una secuencia de ensayos de
Bernoulli es mutuamente independiente con probabilidad constante (estacionaria) p de
éxito (en caso de falla, se define q = 1 − p), entonces la secuencia se llama proceso de
Bernoulli.

Su función de probabilidad es

f(x) = px (1 − p)1−x con x = {0, 1}

La fórmula es 

 p si x = 1
f(x, p) = q si x = 0

 0 en cualquier otro caso

47
Distribución Binomial

Es una distribución de probabilidad discreta que cuenta el número de éxitos en una


secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p
de ocurrencia del éxito entre los ensayos. Es definida mediante la función

( )
x
F(x|n) = px (1 − p)n−x
n
( )
x n!
=
n x!(n − x)!

Donde:
p es la probabilidad de éxito
n es el número de veces que se repite un experimento

48
Distribución Binomial (cont.)

Problema Un fabricante de láminas de geotextil desea controlar la calidad de su


producto rechazando cualquier lote en el que la proporción de láminas textiles que
tienen una resistencia a la tracción inaceptablemente baja parece ser demasiado alta.
Con este fin, de cada lote grande (1000 hojas), se seleccionarán y probarán 25. Si 5 o más
de estas hojas tienen una resistencia a la tracción inaceptablemente baja, se rechazará
todo el lote. ¿Cuál es la probabilidad de que se rechace un lote si

1. El 5 % de las hojas del lote tienen un nivel inaceptablemente bajo Fuerza de Tensión?
2. El 10 % de las hojas del lote tienen un nivel inaceptablemente bajo Fuerza de
Tensión?

49
Distribución Binomial (cont.)

Solución
1. Sea N25 el número de hojas que tienen resistencias a la tracción inaceptablemente
bajas de las 25 muestreadas. Si las hojas no pasan la prueba de tensión de forma
independiente con una probabilidad constante de falla, entonces N25 sigue una
distribución binomial con p = 0,05. Observamos que, dado que el número de láminas de
baja resistencia en un lote es fijo, la probabilidad de falla cambiará a medida que se
prueben las láminas. Por ejemplo, si 50 de 1000 hojas son de baja resistencia, entonces
la probabilidad de falla de la primera hoja probada es 0.05. La probabilidad de falla de la
segunda hoja probada es 49/999 o 50/999, dependiendo de si la primera hoja probada
era de baja resistencia o no. Sin embargo, si el tamaño del lote (1000 en este caso) es
grande en relación con el número seleccionado para la prueba (25 en este caso),
entonces la aproximación de que p es constante es razonable y conducirá a resultados
bastante precisos. Haremos esta suposición aquí, de modo que

50
Distribución Binomial (cont.)
P [N25 ≥ 5] =1 − P [N25 ≤ 4]
=1 − P [N25 = 0] − P [N25 = 1]
− P [N25 = 2] − P [N25 = 3]
− P [N25 = 4]
( )
25
=1 − (0,05)0 (0,95)25
0
( )
25
− (0,05)1 (0,95)24
1
( )
25
− (0,05)2 (0,95)23
2
( )
25
− (0,05)3 (0,95)22
3
( )
25 51
− (0,05)4 (0,95)21
Distribución Binomial (cont.)

Por tanto, existe una probabilidad muy pequeña de rechazar un lote cuando el 5 % de las
hojas tienen una resistencia a la tracción inaceptablemente baja.

52
Distribución Binomial (cont.)
2. Sea N25 el número de hojas que tienen resistencias a la tracción inaceptablemente
bajas de las 25 muestreadas. Entonces N25 sigue una distribución binomial con p = 0,10
(nuevamente asumiremos que las hojas fallan la prueba de forma independiente y que
la probabilidad de que esto suceda permanece constante de hoja a hoja):
P [N25 ≥ 5] =1 − P [N25 ≤ 4]
=1 − P [N25 = 0] − P [N25 = 1]
− P [N25 = 2] − P [N25 = 3]
− P [N25 = 4]
( )
25
=1 − (0,10)0 (0,90)25
0
( )
25
− (0,10)1 (0,90)24
1
( )
25
− (0,10)2 (0,90)23
2 53
( )
Distribución Binomial (cont.)

Ahora existe una probabilidad razonablemente alta (alrededor del 10 %) de que se


rechace un lote si el 10 % de las hojas tienen una resistencia a la tracción
inaceptablemente baja.

54
Distribución de Poisson

Es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de


ocurrencia media, la probabilidad de que ocurra un determinado número de eventos
durante cierto período de tiempo.

Derivación de la formulación de una distribución Binomial

Distribución Bernoulli → Distribución Binomial → Distribución de Poisson

55
Distribución de Poisson (cont.)

Problema

Suponga que se sabe que a lo largo de un cierto tramo largo de una carretera se produce
un promedio de 1 hundimiento de talud por año. ¿Cuál es la probabilidad de que ocurra
exactamente 10 hundimientos de talud en el próximo intervalo de 10 años?

56
Distribución de Poisson (cont.)

Solución

Si intentamos modelar esto usando la distribución binomial, primero debemos dividir el


tiempo en una serie de intervalos dentro de cada uno de los cuales un talud se puede
hundir (éxito) o no (fracaso).

Como punto de partida, supongamos que como máximo un talud puede hundirse en
cualquier intervalo de medio año. Hacemos esta suposición porque una prueba de
Bernoulli solo puede tener dos resultados, y si deseamos poder contar el número de
hundimientos, debemos hacer que estos dos resultados posibles sean 1 (una sola
pendiente hundida) o 0 (ninguna pendiente hundida). Si nuestras pruebas tienen una
duración de medio año, entonces tenemos 20 pruebas en 10 años y la probabilidad de
éxito (una pendiente hundida) en cada prueba es la tasa por año dividida por el número

57
Distribución de Poisson (cont.)
1
de pruebas por año: p = . En nuestro intervalo de 10 años, la probabilidad que estamos
2 ( )
20
buscando es P[10 hundimientos en 10 años] ≃ (0,5)10 (0,5)20−10 = 0,176
10

Por supuesto, sabemos que dos o más hundimientos de talud podrían ocurrir fácilmente
en cualquier intervalo de medio año. Se obtiene una solución mejorada utilizando un
intervalo de prueba más corto. Si se usaran intervalos de 2 meses, ahora tenemos seis
ensayos por año y la probabilidad de una subsidencia de la pendiente en cualquier
1
intervalo se convierte en p = . El número de ensayos en 10 años (120 meses) se
6
120
convierte en n = = 60
2
( )
60 ( 1 )10 ( 5 )50
P[10 hundimientos en 10 años ] ≃ 6 6 = 0,137
10

58
Distribución de Poisson (cont.)

En general, si se tiene un intervalo de tiempo t y es dividido en n intervalos, y la tasa de


media de arribo es λ, se tiene:

p = λt
n
si Ni es el número de subsidencias en t años, se tiene:
( )
n ( λt )k ( )
λt n−k
P [Nt = k] = n 1− n
k
Donde λt es el número medio de hundimientos (llegadas) que ocurren en el intervalo de
tiempo t. Si las llegadas son instantáneas (de modo que no puede ocurrir más de una en
cualquier instante con probabilidad 1) y pueden ocurrir en cualquier instante en el
tiempo, de modo que cada instante en el tiempo se convierta en un ensayo de Bernoulli,
entonces

59
Distribución de Poisson (cont.)
( )( )k ( )n−k
n λt λt
P [Nt = k] = lı́m 1−
n→∞ k n n
[{ }
n n−1 n−k+1
= lı́m · ···
n→∞ n n n
k
( )n ( )−k ]
(λt) λt λt
× 1− 1−
k! n n
pero
{ }
n n−1 n−k+1
lı́m · ··· =1
n→∞ n n n
( )−k
λt
lı́m 1 − =1
n→∞ n
( )n
λt
lı́m 1 − = e−λt
n→∞ n

60
Distribución de Poisson (cont.)

(λt)k −λt
Por lo que la distribución puede simplificarse como: P [Nt = k] = k! e

Para nuestro problema λ = 1 hundimiento por año y t = 10 años. La probabilidad de


exactamente 10 hundimientos en 10 años usando la distribución de Poisson es
(10)10 −10
P [N10 = 10] = 10! e = 0,125

61
Distribución Normal

La distribución normal es una curva simétrica en forma de campana, con el pico en el


valor promedio. La distribución de probabilidad normal viene dada por

[ ( )2 ]
1 1 x−µ
f(x) = √ exp − para − ∞ < x < ∞
σ 2π 2 σ

La importancia de esta distribución radica en que permite modelar numerosos


fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que
subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme
cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal
puede justificarse asumiendo que cada observación se obtiene como la suma de unas
pocas causas independientes.

62
Distribución Normal (cont.)

Propiedades
• La distribución es simétrica alrededor
de µ.
• El máximo punto, o moda, de la
distribución ocurre en µ.
• Los puntos de inflexión de f(x) ocurren
ax=µ±σ

63
Distribución Normal (cont.)

Distribución estándar normal

La solución de la ecuación anterior tiene que ser resuelta mediante integración


numérica. Por eso, otra forma de expresar la ecuación es realizando la siguiente
transformación de variable mediante
X−µ
Z=
σ

La nueva forma adoptada para la distribución normal es

1 1 2
ϕ(z) = √ e− 2 z para − ∞ < z < ∞

64
Distribución Normal (cont.)

para el caso de la función acumulativa se tiene


[ ]
X−µ x−µ
P[X < x] = P <
σ σ
[ ]
x−µ
=P Z<
σ
( )
x−µ

σ
= Φ(z)

65
Distribución Normal (cont.)

Teorema de límite central

Si X1 , X2 , . . . , Xn son variables aleatorias independientes que tienen distribuciones


arbitrarias, entonces la siguiente variable aleatoria

Y = X1 + X2 + · · · + Xn

Tiene una distribución normal cuando n → ∞ Si todos los valores de X tienen alrededor
el mismo promedio y la misma varianza. Si definimos

1∑
n
Xn = Xi
n i=1

66
Distribución Normal (cont.)

Se tiene entonces [( ) ]
Xn − µ
lı́m P √ ≤ x = Φ(x)
n→∞ σ/ n

67
Distribución Normal (cont.)

Implicaciones

1. La suma de las variables normales es normal (para cualquier n).


2. Si las distribuciones de las variables X se comportan bien (casi normal), entonces
n ≥ 4 da una buena aproximación a la distribución normal.
3. Si las distribuciones de las variables X son uniformes (o casi), entonces n ≥ 6
produce una aproximación razonablemente buena a la distribución normal (al
menos aproximadamente tres desviaciones estándar de la media).
4. Para distribuciones con mal comportamiento, es posible que necesite n > 100 antes
de que la distribución comience a parecer razonablemente normal. Esto sucede, por
ejemplo, con distribuciones cuyas colas se caen muy lentamente.

68
Distribución Normal (cont.)

Aproximación normal a la distribución binomial

En virtud del teorema del límite central, la distribución binomial, que como se recordará
surge de la suma de una secuencia de variables aleatorias de Bernoulli, puede
aproximarse por la distribución normal. Específicamente, si Nn es el número de éxitos en
n pruebas, entonces
∑n
Nn = Xi
i=1

Donde Xi es el resultado de una prueba de Bernoulli (Xi = 1 con una probabilidad p,


Xi = 0 con probabilidad q = 1 − p).

69
Distribución Normal (cont.)

Si n es lo suficientemente grande, es posible


aproximar Nn a una distribución normal.
Una aproximación razonable para
considerarlo es teniendo np ≥ 5 y nq ≥ 5.
Donde
µ = np

σ = npq

70
Distribución LogNormal

Desde el punto de vista de las propiedades y cargas del material a modelar en ingeniería,
que generalmente no son negativas, la distribución normal sufre la desventaja de
permitir valores negativos.

La formulación proviene de de la distribución normal realizando a través de una


transformación no lineal.

Si G es una variable aleatoria normalmente distribuida, con un rango −∞ < g < +∞,
entonces X = eG tendrá el rango 0 ≤ x < ∞, con esto podemos decir que la variable X es
una variable con distribución longnormal.
{ ( )2 }
1√ 1 ln x−µln x
f(x) = xσ 2π
exp − 2 σln x , 0≤x<∞
ln x

71
Distribución LogNormal (cont.)
Esta distribución es utilizada para representar propiedades del suelo como:

• Ángulo de fricción
• Módulo elástico

Para el cálculo de probabilidades, se debe de tener en cuenta de que ln(X) es una


variable normalmente distribuida, así que podemos definir lo siguiente como

P[X ≤ a] = P[ln(X) < ln(a)]


[ ]
ln(X) − µln X ln(a) − µln X
=P <
σln X σln X
[ ]
ln(a) − µln X
=P Z<
σln X
( )
ln(a) − µln X

σln X

72
Covarianza
Definición

Cuando se trata con más de una variable, las incertidumbres en una pueden estar
asociadas con incertidumbres en la otra. Es decir, las incertidumbres pueden no ser
independientes.

Ejemplo
Considere estimar los parámetros de cohesión y fricción de una envoltura de fuerza de
Mohr-Coulomb.

74
Causas de la Covarianza y dependencia

Las probabilidades asociadas con eventos separados o incertidumbres pueden hacerse


dependientes a través de una serie de circunstancias. La dependencia causal significa
que un evento causa físicamente otro.

Ejemplo
El asentamiento inducido por la licuación puede conducir directamente a la caída de un
terraplén, por lo tanto, el evento de licuación y el evento desborde no son
independientes entre sí. Si se produce un asentamiento de licuación, la probabilidad de
desborde aumenta.

75
Formulación

El comportamiento de estas variables es caracterizada por medio de una distribución


bivariada.

Propiedades de la distribución Bivariada

Variables discretas

fXY (x, y) = P[X = x ∩ Y = y]


0 ≤ fXY (x, y) ≤ 1
∑ ∑
x y fXY (x, y) = 1

76
Formulación (cont.)

Variables continuas

fXY (x, y)dxdy = P[x < X ≤ x


+dx ∩ y < Y ≤ y + dy]
fXY (x, y) ≥ 0 para todo (x, y) ∈ ℜ2
∫∞ ∫∞
−∞ −∞ XY
f (x, y)dxdy = 1
P [x1 < X ≤ x2 ∩ y1 < Y ≤ y2 ]
∫y ∫x
= y12 x12 fXY (x, y)dxdy

77
Formulación (cont.)

Sean las variables X e Y aleatorias con una probabilidad conjunta fXY (x, y). La
covarianza entre estas variables es definida por

Cov[X, Y] =E [(X − µX ) (Y − µY )]
∑∑
= (x − µX ) (y − µY ) fXY (x, y)
x y

(caso discreto)
∫ ∞∫ ∞
= (x − µX ) (y − µY ) fXY (x, y)dxdy
−∞ −∞

(caso continuo)

78
Formulación (cont.)

La covarianza entre las dos variables aleatorias X e Y, con sus respectivas medias µX y
µY , puede ser calculado como

Cov[X, Y] = E[XY] − E[X]E[Y] = E[XY] − µX µY

79
Tipos de correlación

Correlación probabilística
Significa que dos incertidumbres pueden compartir una dependencia común de una
tercera incertidumbre.

Autocorrelación espacial o temporal


Significa que dos incertidumbres dependen de la realización espacial o temporal de una
tercera incertidumbre que en sí misma exhibe dependencia estocástica en el espacio o el
tiempo.

Correlación estadística
Significa que dos incertidumbres se estiman simultáneamente a partir de un conjunto
dado de datos y, por lo tanto, están influenciadas por un error de variabilidad de
muestreo común.
80
Covarianza y el coeficiente de correlación

La medida más común de dependencia entre cantidades inciertas es el coeficiente de


correlación. Este mide el grado en que una cantidad incierta varía linealmente con otra
cantidad incierta.

Otra forma útil de expresar el coeficiente de correlación para dos cantidades inciertas x e
y se define como

Cov(x, y)
ρxy = √
Var(x) Var(y)
E [(x − µx ) (y − µy )]
=√ [ ] [ ]
2 2
E (x − µx ) E (y − µy )

81
Covarianza y el coeficiente de correlación (cont.)

82
Ejercicios
Ejercicios de probabilidades

Problema 1

Para el caso de un experimento que envuelve tirar una moneda tres veces, podemos
contar el número de caras que aparece y asigna la variable aleatoria X.
Definir la función de probabilidad y graficar la función.

84
Ejercicios de probabilidades (cont.)

1 3 3 1
La variable puede asumir valores de 0, 1, 2 y 3 con probabilidades , , y . Por lo que,
8 8 8 8
FX (x) es definido como:


 0 if x < 0


 1
 8 if 0 ≤ x < 1
4
FX (x) = if 1 ≤ x < 2


8


7
if 2 ≤ x < 3

 8
1 if 3 ≤ x

85
Ejercicios de probabilidades (cont.)

86
Ejercicios de probabilidades (cont.)

Problema 2

Suponer que el tiempo de falla T en años, de una barrera de arcilla, tiene la función de
densidad de probabilidad:
{
0,02e−0,02t si t ≥ 0
fT (t) =
0 de otro modo

A esto se le llama distribución exponencial y se ha encontrado que las distribuciones de


esta forma que decae exponencialmente representan bien muchos problemas de por
vida. ¿Cuál es la probabilidad de que T supere los 100 años?

87
Ejercicios de probabilidades (cont.)

Considerando la forma general de la distribución exponencial:


{
λe−λt si t ≥ 0
fT (t) = Se obtiene:
0 de otro modo
∫ ∞
P[T > 100] = P[100 < T < ∞] = λe−λt dt
100

= − e−λt 100 = −e−∞λ + e−100λ
= e−100λ
Para λ = 0,002, como es el caso en este problema:
P[T > 100] = e−100×0,02 = e−2 = 0,1353

88
Ejercicios de probabilidades (cont.)

Problema 3

Si definimos a X como una variable aleatoria discreta, que toma los valores listados en la
tabla debajo con las probabilidades asociadas:

1. Encontrar la constante k tal que fX (x) es una legítima función de masa de


probabilidad para la variable aleatoria X
2. Encontrar el valor esperado (media) de X

89
Ejercicios de probabilidades (cont.)

1. Se sabe que la suma de todas las posibles probabilidades debe sumar 1. Así que
(1 )
k = 1 − 12 + 16 + 13 + 41 = 16 .
(1) ( ) ( ) ( ) ( )
2. E[X] = (−2) 12 + (−1) 61 + 0 16 + 1 13 +2 14 = 12

90
Gracias

91

También podría gustarte