Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Modelos de Probabilidad 1 PDF
Modelos de Probabilidad 1 PDF
Contenidos
I Probabilidad:
I Experimentos aleatorios, espacio muestral, sucesos elementales y
compuestos.
I Propiedades de la probabilidad. Probabilidad condicionada.
I Variables aleatorias y sus caracterı́sticas.
I Modelos de probabilidad discretos: Ensayos de Bernoulli y
distribuciones relacionadas.
I Modelos de probabilidad continuos: Distribución uniforme y
distribución normal.
I Introducción a la distribución normal bivariante.
Conceptos básicos
I Experimento aleatorio: proceso de observar un fenómeno cuyos
resultados son inciertos.
I Espacio muestral: es el conjunto de todos los posibles resultados de
un experimento aleatorio. Se denota por
Ω = {e1 , e2 , . . . , en , . . .}
Ejemplos:
I Resultado al lanzar una moneda.
I Precio de la acción x al cierre de sesión el próximo lunes.
Sucesos: conceptos básicos
Sucesos triviales:
I Suceso seguro Ω: conjunto = espacio muestral
I Suceso imposible ∅: conjunto = conjunto vacı́o
I suceso elemental: el 1, el 2, el 3, el 4, el 5, el 6
I espacio muestral: Ω = {1, 2, 3, 4, 5, 6}
I suceso: A = {2, 4, 6} B = {4, 5, 6}
El suceso A es “sale un número par”.
El suceso B es “sale un número mayor que tres”.
Ejemplo: lanzamiento de un dado
Ω = {1, 2, 3, 4, 5, 6} A = {2, 4, 6} B = {4, 5, 6}
I Complementario:
Ā = {1, 3, 5} B̄ = {1, 2, 3}
I Intersección:
A ∩ B = {4, 6} Ā ∩ B̄ = {1, 3} = A ∪ B
I Unión:
A ∪ B = {2, 4, 5, 6} Ā ∪ B̄ = {1, 2, 3, 5} = A ∩ B
A ∪ Ā = {1, 2, 3, 4, 5, 6} = Ω
I Sucesos incompatibles:
A ∩ Ā = ∅
I Notar que:
A∩B ⊂A A∩B ⊂B
A⊂A∪B B ⊂A∪B
Probabilidad
I 0 ≤ P(A) ≤ 1.
Pn
I Sea A = {e1 , e2 , . . . , en }, entonces P(A) = i=1 P(ei ).
I P(Ω) = 1 y P(∅) = 0.
1 1 1 1
P(A) = P(”2”) + P(”4”) + P(”6”) = + + =
6 6 6 2
I Probabilidad de que salga mayor que 3: B = {4, 5, 6}, luego
1 1 1 1
P(B) = P(”4”) + P(”5”) + P(”6”) = + + =
6 6 6 2
I Probabilidad de que salga impar
1 1
P(Ā) = 1 − P(A) = 1 − =
2 2
Ejemplo: lanzamiento de un dado
1 1 1 4 2
P(A ∪ B) = + − = =
2 2 3 6 3
I Probabilidad de que salga par o igual a uno.
Los sucesos A = {2, 4, 6} y C = {1} son incompatibles (A ∩ C = ∅)
por tanto
1 1 4 2
P(A ∪ C ) = P(A) + P(C ) = + = =
2 6 6 3
Ejemplo: probabilidad condicional
3
I Por lo tanto, la probabilidad de ganar es P (A) = 37 .
Ley de la multiplicación
Si P(B) > 0, se tiene que
P(A ∩ B) = P(A|B)P(B)
Independencia
Se dice que dos sucesos A y B son independientes si
P(A ∩ B) = P(A)P(B).
I Notar que cuando nos dicen que la ruleta está trucada, el espacio
muestral deja de ser el inicial, pues nunca puede aparecer un número
par, y se transforma en Ω∗ = B = {1, 3, 5, . . . , 35}. La probabilidad
de A en Ω∗ es ahora 91 .
Bi ∩ Bj = ∅, ∀i 6= j.
Ω = B1 ∪ B2 ∪ . . . ∪ Bk ,
P(A ∩ B) P(B|A)P(A)
P(A|B) = =
P(B) P(B)
I Un gato quiere pescar un pez en una pecera que contiene tres peces
amarillos y dos negros con rayas blancas. Suponiendo que pesque un
pez, ¿cuál es la probabilidad de que sea un pez rayado?
Si R =“rayado”, entonces:
2
P (R) =
5
I Suponiendo que pesque dos peces, ¿cuál es la probabilidad de que
pesque uno rayado y uno amarillo?
Si R1 =“el primero es rayado”, R2 =“el segundo es rayado”, A1 =“el
primero es amarillo” y A2 =“el segundo es amarillo”, entonces:
V.a. continua
Si X toma valores sobre un conjunto S ⊆ R infinito no numerable (por
ejemplo, en un intervalo o en una unión de intervalos de R), se dice que
X es una variable aleatoria continua.
Ejemplos
I X =“Resultado al tirar un dado” es una variable discreta donde
S = {1, 2, 3, 4, 5, 6}.
I Y =“Número de coches que pasan por un cierto peaje en una
semana” es una variable discreta donde S = {0, 1, 2, . . .} = N ∪ 0 es
infinito numerable.
I Z = “altura de un alumno elegido al azar” es una variable continua
donde S = [0, +∞).
Variables aleatorias discretas
Función de probabilidad
Sea X una variable aleatoria discreta con posibles valores {x1 , x2 , . . .}. Se
llama función de probabilidad o función de masa, al conjunto de
probabilidades con las que X toma cada uno de sus valores, es decir,
pi = P[X = xi ], para i = 1, 2, . . . .
Ejemplo
X = resultado de lanzar un dado. La función de probabilidad es
x 1 2 3 4 5 6
1 1 1 1 1 1
P[X = x] 6 6 6 6 6 6
X
I P[X ≤ x] = P[X = xi ].
i,xi ≤x
Ω = {(f , f , f ) , (a, f , f ) , (f , a, f ) , (f , f , a) ,
(a, a, f ) , (a, f , a) , (f , a, a) , (a, a, a)}
P (X ≥ 0) = P (X = 1) + P (X = 3) + P (X = 27) =
= 0,243 + 0,027 + 0,001 = 0,271
o lo que es lo mismo:
Función de distribución
La función de distribución o función de probabilidad acumulada de una
variable aleatoria X es una aplicación F : R → [0, 1], que a cada valor
x ∈ R le asigna la probabilidad:
X
F (x) = P[X ≤ x] = P (X = xi )
xi ∈S,xi ≤x
E [a + bX ] = a + bE [X ]
V [a + bX ] = b 2 V [X ]
La raı́z cuadrada
p de la varianza se denomina desviación tı́pica y se denota
por S[X ] = V [X ].
Ejemplo
donde:
2
E X 2 = (−3) × 0,729 + 12 × 0,243 + 32 × 0,027 + 272 × 0,001 = 7,776
√
La desviación tı́pica es por tanto S[X ] = 4,405 = 2,0988.
Ejemplo
Consideramos la v.a. discreta X = número de caras al tirar una moneda
dos veces. La función de probabilidad de X es:
x 0 1 2
1 1 1
P[X = x] 4 2 4
V (X )
P (|X − E [X ]| < k) ≥ 1 −
k2
OBS: La cota que proporciona la desigualdad de Chebyschev es
demasiado gruesa y sólo debe utilizarse cuando no se disponga de la
distribución de X .
Desigualdad de Chebyschev
4,405
P (|X + 1,836| ≥ 3) ≤ = 0,4894
9
Por otro lado, tenemos que:
X (e1 ) = 3 − 0 = 3
X (e2 ) = X (e3 ) = X (e4 ) = 2 − 1 = 1
X (e5 ) = X (e6 ) = X (e7 ) = 1 − 2 = −1
X (e8 ) = 0 − 3 = −3
Descripción
Partimos de un experimento aleatorio con sólo dos posibles resultados,
que calificamos de éxito/fracaso.
Definimos la variable aleatoria:
1 si éxito
X =
0 si fracaso
Ejemplo
Tirar una moneda al aire
1 sale cara
X =
0 si sale cruz
Ejemplo
Una lı́nea aérea estima que los pasajeros que compran un billete para un
vuelo tienen una probabilidad igual a 0,05 de no presentarse al embarque
de dicho vuelo.
Definamos
1 si el pasajero se presenta
Y =
0 si no lo hace
Y sigue una distribución Bernoulli con parámetro 0,95.
Modelo Bernoulli
Función de Probabilidad:
P[X = 0] = 1 − p P[X = 1] = p
Función de distribución:
0 si x < 0
F (x) = 1−p si 0 ≤ x < 1
1 si x ≥ 1
Propiedades
I E [X ] = p × 1 + (1 − p) × 0 = p
I E [X 2 ] = p × 12 + (1 − p) × 02 = p
I V [X ] = E [X 2 ] − E [X ]2 = p − p 2 = p(1 − p)
p
I S[X ] = p(1 − p)
Modelo Binomial
Descripción
Un ensayo Bernoulli de parámetro p se repite n veces de manera
independiente. La variable número de éxitos obtenidos, sigue una
distribución Binomial (de parámetros n y p).
Definición
Una variable X sigue una distribución binomial con parámetros n y p si
n
P[X = x] = p x (1 − p)n−x
x
para x = 0, 1, . . . , n donde
n n!
=
x x!(n − x)!
Ejemplo
La lı́nea aérea del ejemplo anterior ha vendido 80 billetes para un vuelo.
La probabilidad de que un pasajero no se presente al embarque es de
0, 05. Definimos X = número de pasajeros que se presentan. Entonces
(suponiendo independencia)
X ∼ B(80, 0,95)
Propiedades
I E [X ] = np
I Var [X ] = np(1 − p)
p
I S[X ] = np(1 − p)
Variables aleatorias continuas
Función de distribución
Para X v.a. continua, la función de distribución es la función
F (x) = P[X ≤ x], ∀x ∈ R
Propiedades
I 0 ≤ F (x) ≤ 1, para todo x ∈ R
I F (−∞) = 0.
I F (∞) = 1.
I Si x1 ≤ x2 , entonces F (x1 ) ≤ F (x2 ), es decir, F (x) es no decreciente.
I Para todo x1 , x2 ∈ R, P(x1 ≤ X ≤ x2 ) = F (x2 ) − F (x1 ).
I F (x) es continua.
Función de densidad
Para una variable aleatoria continua X con función de distribución F (x),
la función de densidad de X es:
dF (x)
f (x) = = F 0 (x)
dx
Propiedades
I f (x) ≥ 0 ∀x ∈ R
Rb
I P(a ≤ X ≤ b) = a f (x)dx ∀a, b ∈ R
Rx
I F (x) = P(X ≤ x) = −∞ f (u)du
R∞
I
−∞
f (x)dx = 1
Variables aleatorias continuas
Ejemplo
Una variable aleatoria X tiene función de densidad
12x 2 (1 − x) si 0 < x < 1
f (x) =
0 si no
Entonces:
Z 0,5 Z 0,5
P(X ≤ 0,5) = f (u)du = 12u 2 (1 − u)du = 0,3125
−∞ 0
Z 0,5 Z 0,5
P(0,2 ≤ X ≤ 0,5) = f (u)du = 12u 2 (1 − u)du = 0,2853
0,2 0,2
Z x
30 si x ≤ 0
x x4
F (x) = P(X ≤ x) = f (u)du = 12 3 − 4 si 0 < x ≤ 1
−∞
1 si x > 1
Esperanza de una variable aleatoria continua
E [a + bX ] = a + bE [X ]
V [a + bX ] = b 2 V [X ]
La raı́z cuadrada
p de la varianza se denomina desviación tı́pica y se denota
por S[X ] = V [X ].
Ejemplo
donde:
Z Z 1
12 5 x=1 12 6 x=1
E X2 = 2
12x 4 (1 − x)dx =
x f (x)dx = x |x=0 − x |x=0 =
R 0 5 6
12 2
= −2=
5 5
q
1
La desviación tı́pica es por tanto S[X ] = 25 = 15 .
Distribución uniforme
Descripción
La distribución uniforme es aquella en la que todos los intervalos de igual
longitud en su rango son igualmente probables. Es decir, que la función
de densidad es constante para todos los valores posibles de la variable.
Definición
Se dice que una variable X sigue una distribución uniforme en el intervalo
(a, b) (sus parámetros son a y b) si
1
b−a si a < x ≤ b
f (x) =
0 si no
Función de densidad
Propiedades
a+b
I Esperanza: E [X ] = 2
(b−a)2
I Varianza: V [X ] = 12
I Desviación tı́pica:
b−a
S[X ] = √ 12
Ejemplo: distribución uniforme en (3,5)
Función de distribución
Z x
F (x) = P(X ≤ x) = f (u)du = . . .
−∞
R5 1
I Si 5 < x entonces F (x) = P(X ≤ x) = 3 2
du = u4 |53 = 5−3
2 = 1.
Es decir, que:
0 si x ≤ 3
x−3
F (x) = 2 si 3 < x ≤ 5
1 si x > 5
Ejemplo: distribución uniforme en (3,5)
Esperanza
R5 5
x2 52 −32
x · 12 dx =
R
E [X ] = R
x · f (x)dx = 3 4 = 4 =4
3
Varianza
x 2 · f (x)dx − E [X ]2
R
Var [X ] = R
3 5
R5 2
= 3 x2 dx − 42 = x6 − 16 = 0,33
3
Distribución normal
Descripción
La distribución normal es un modelo teórico que aproxima bien muchas
situaciones reales. La inferencia estadı́stica se fundamenta básicamente
en la distribución normal y en distribuciones que se derivan de ella.
Definición
Se dice que una variable X sigue una distribución normal o Gausiana con
parámetros µ y σ, y se denota por X ∼ N (µ, σ), si
1 1 2
f (x) = √ exp − 2 (x − µ)
σ 2π 2σ
Propiedades
E [X ] = µ V [X ] = σ 2
Si X ∼ N (µ, σ), f (x) es simétrica respecto de µ.
Distribución normal
Función de densidad para 3 valores distintos de µ y σ
Distribución normal
Propiedad
Si X ∼ N (µ, σ),
I P(µ − σ < X < µ + σ) ≈ 0,683
I P(µ − 2σ < X < µ + 2σ) ≈ 0,955
I P(µ − 3σ < X < µ + 3σ) ≈ 0,997
Desigualdad de Chebyshev
La desigualdad de Chebyschev también se puede aplicar en el caso de
variables continuas. En particular, si X es Gaussiana de media µ y
desviación tı́pica σ, tenemos que:
σ2
P (µ − k < X < µ + k) = P (|X − µ| < k) ≥ 1 −
k2
1
de donde, si k = cσ, tenemos que P (µ − cσ < X < µ + cσ) ≥ 1 − c2 .
Distribución normal
Transformación lineal
Si X ∼ N (µ, σ), entonces:
Y = aX + b ∼ N (aµ + b, |a|σ)
Estandarización
Si X ∼ N (µ, σ), considero
X −µ
Z= ∼ N (0, 1)
σ
Se llama distribución normal estándar. Es una distribución simétrica y
centrada en 0. Además, está tabulada por lo que no tenemos que hacer
uso de integrales para obtener probabilidades.
Tablas de la N (0, 1)
Distribución normal: Ejemplo
I Pr(Z < −1,5) = Pr(Z > 1,5) = 1 − Pr(Z < 1,5) = 1 − 0,9332 =
0,0668. ¿por qué no ≤?
I Pr(−1,5 < Z < 1,5) = Pr(Z < 1,5) − Pr(Z < −1,5) =
0,9332 − 0,0668 = 0,8664.
Distribución normal: Ejemplo
Binomial
Si X ∼ B(n, p) con n suficientemente grande (o bien n ≥ 30 y
0,1 ≤ p ≤ 0,9 o bien np ≥ 5 y n (1 − p) ≥ 5), entonces:
X − np
p ∼ N (0, 1)
np(1 − p)
TCL y aproximaciones: Ejemplo
I Sea X ∼ B(100, 1/3). Bucamos el valor de Pr(X < 40), si bien el
cálculo exacto es muy largo ya que necesitamos un gran número de
operaciones.
I Utilizando el TCL tenemos que X ∼ B(100, 1/3) ≈ N (33,3, 4,714) ,
ya que:
1
E [X ] = 100 × = 33.3̇
3
1 2
V [X ] = 100 × × = 22.2̇
p 3 3
S[X ] = 22.2̇ = 4,714
I Por lo tanto,
X − 33.3̇ 40 − 33.3̇
Pr(X < 40) = P <
4,714 4,714
≈ P (Z < 1,414) donde Z ∼ N(0, 1)
≈ 0,921.
Función de distribución conjunta de dos variables
respectivamente.
I Las variables aleatorias continuas X e Y se dice que son
independientes si y sólo si:
f (x, y ) = fX (x) fY (y )
σY2
1 −σXY
Σ−1 = 2 2 2
σX σY − σXY −σXY σX2
Densidad Gaussiana bivariante µ = (0, 0)0 , σX2 = σY2 = 1 y
σXY = 0, 0,9 y −0,9, respectivamente
0.15
0.3
0.10
0.2
4 4
0.05 0.1
2 2
0.0
−4 −4
0 0
x2
x2
−2 −2
0 −2 0 −2
x1 x1
2 2
−4 −4
4 4
0.3
0.2
4
0.1
2
0.0
−4
0
x2
−2
0 −2
x1
2
−4
4
Esperanza y varianza condicional
I Si (X , Y ) sigue una distribución Gaussiana bivariante con
0
parámetros µ = (µX , µY ) y matriz de covarianzas
2
σX σXY
Σ=
σXY σY2
entonces:
X ∼ N µX , σX2 e Y ∼ N µY , σY2 , respectivamente.
I