Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Distribuciones de Probabilidad
Discreta y Continuas
Contenidos
1 Distribuciones de Probabilidad
Discretas
Continuas
Proceso bernoulli
El experimento consiste en n pruebas que se repiten.
Cada prueba produce un resultado que se puede clasicar
como éxito o fracaso.
La probabilidad de un éxito, se denota con p, permanece
constate en cada prueba.
Las pruebas que se repiten son independientes.
Ejemplo
En el lanzamiento de una moneda podemos tomar
E = {Cara} y F = {Cruz}. Si la moneda no esta
1
truncada, p = .
2
En una población se elige al azar una persona y
consideramos los sucesos E = {altura ≥ 1 : 80} y
F = {altura < 1 : 80}. La probabilidad de éxito dependerá
de la distribución de la variable altura en la población.
Profesor: Danilo Gómez Correa Distribuciones de Probabilidad
Distribuciones de Probabilidad Discretas
Continuas
Distribución Bernoulli
Denición
Una variable aleatoria X se dice tener una distribución bernoulli con parámetro
p. Si
P (X = x) = px (1 − p)1−x ; con x = 0, 1.
En este caso anotaremos X ∼ Bernoulli(p)
Éxito
1,
X=
0, Fracaso.
Distribución Bernoulli
Denición
Una variable aleatoria X se dice tener una distribución bernoulli con parámetro
p. Si
P (X = x) = px (1 − p)1−x ; con x = 0, 1.
En este caso anotaremos X ∼ Bernoulli(p)
Éxito
1,
X=
0, Fracaso.
Teorema
Sea X una variable aleatoria y tiene una distribución bernoulli, entonces:
E(X) = p
V ar(X) = p(1 − p)
Binomial
Denición
Una variable aleatoria X se dice tener una distribución binomial con parámetro
(n, p). Si n
P (X = x) = px (1 − p)n−x ; con x = 0, 1, . . . , n.
x
En este caso anotaremos X ∼ Binomial(n, p)
Teorema
Si X1 , , Xn son variables aleatorias i.i.d del tipo Bernoulli con parámetro p, enton-
n
X
ces X = Xi ∼ Binomial(n, p).
i=1
Teorema
Sea X una variable aleatoria y tiene una distribución binomial, entonces:
E(X) = np
V ar(X) = np(1 − p)
Ejemplo
Un pareja pretende tener 6 hijos ¾cuál es la probabilidad de que
4 de estos sean hombres?
Ejemplo
La probabilidad de que una empresa salga de la quiebra es 0,4.
Si se sabe que 15 empresas están en esta situación ¾ cuál es la
probabilidad de que:
Sobrevivan al menos 10.
Sobrevivan de 3 a 8.
Sobrevivan exactamente 5.
Ejemplo
Por experiencias previas se sabe que la probabilidad que un es-
tudiante que no ha estudiado conteste una pregunta de forma
correcta es 0.2. En una prueba de seis preguntas,
¾Cuál es la probabilidad de responder 3 preguntas correctas
para un estudiante que no estudió?
Si se aprueba al responder al menos 4 preguntas, ¾cuál es la
probabilidad de aprobar para un estudiante que no estudió?
Ejemplo
Un agente de seguros vende pólizas a 5 individuos, todos de la
misma edad. De acuerdo con las tablas actuariales, la probabili-
dad de que un individuo con esa edad viva 30 años o más es de
3
. Determinar la probabilidad que dentro de 30 años vivan:
5
Al menos tres individuos.
Como mucho 2.
¾Cuál es el número esperado de individuos que vivirán
dentro de 30 años?
Proceso Poisson
Propiedades del proceso de Poisson
1 El número de resultados que ocurren en un intervalo o región
especíca es independiente del número que ocurre en cual-
quier otro intervalo o región del espacio disjunto. De esta
forma vemos que el proceso de Poisson no tiene memoria.
2 La probabilidad de que ocurra un solo resultado durante un
intervalo muy corto o en una región pequeña es proporcional
a la longitud del intervalo o al tamaño de la región, y no
depende del número de resultados que ocurren fuera de este
intervalo o región.
3 La probabilidad de que ocurra más de un resultado en tal
intervalo corto o que caiga en tal región pequeña es insigni-
cante.
Poisson
Proceso Poisson: Expresa la probabilidad de que ocurran un número x de sucesos
en un tiempo jo, si ocurren con una tasa media conocida, λ, y son independientes
del tiempo transcurrido desde el ultimo suceso, se aplica a sucesos con probabilidad
muy baja de ocurrir (sucesos raros).
Poisson
Proceso Poisson: Expresa la probabilidad de que ocurran un número x de sucesos
en un tiempo jo, si ocurren con una tasa media conocida, λ, y son independientes
del tiempo transcurrido desde el ultimo suceso, se aplica a sucesos con probabilidad
muy baja de ocurrir (sucesos raros).
Denición
Una variable aleatoria X se dice tener una distribución Poisson con parámetro
λ con λ > 0. Si
λx e−λ
P (X = x) = ; con x = 0, 1, 2, . . .
x!
En este caso anotaremos X ∼ P oisson(λ).
Teorema
Sea X una variable aleatoria y tiene una distribución Poisson, entonces:
E(X) = λ
V ar(X) = λ
Ejemplo
Demostrar que el limite cuando n → ∞, p → 0, con np → λ, de la
función de masa de una Binomial(n, p) es la función de masa de
una distribución de Poisson con parámetro λ, en otras palabras
si np → λ, cuando n → ∞ y p → 0.
λx e−λ
n x
lı́m p (1 − p)n−x = , cuando n → ∞, p → 0
x x!
Ejemplo
1 Una empresa electrónica observa que el número de componentes que fallan
antes de cumplir 100 horas de funcionamiento es una variable aleatoria de
Poisson. Si el número promedio de estas fallos es ocho.
¾Cuál es la probabilidad de que falle un componente en 25
horas?
Respuesta: 0.2706
Respuesta: 0.2381
125 horas?
Respuesta: 0.4169
Denición
Una variable aleatoria X se dice tener una distribución Uniforme en intervalo
(a, b) de la recta real. Si
1
, a<x<b
f (x) = b−a
0, e.o.c.
Teorema
Sea X una variable aleatoria y tiene una distribución, entonces:
a+b
E(X) =
2
(a + b)2
V ar(X) =
12
Denición
Una variable aleatoria X se dice tener una distribución exponencial con pará-
metro λ con λ > 0. Si
−λx
λe , x≥0
f (x) =
0, x<0
Teorema
Sea X una variable aleatoria y tiene una distribución Poisson, entonces:
1 1
E(X) = V ar(X) =
λ λ2
Observación
La distribución exponencial, al igual que la geométrica, tiene la propiedad de ser
desmemoria, esto es; si X es una v.a. exponencial de parámetro λ, y a, b > 0,
entonces:
Ahora podemos utilizar lo anterior y hacer que X sea el tiempo para el primer
evento de Poisson. La probabilidad de que la duración del tiempo hasta el primer
evento exceda x es la misma que la probabilidad de que no ocurra algún evento de
Poisson en x. Esto ultimo, por supuesto, esta dado por e−λt . Como resultado,
P (X > x) = e−λx
P (0 ≤ X ≤ x) = 1 − e−λx
Entonces, con la nalidad de que reconozcamos la presencia de la distribución ex-
ponencial, podemos diferenciar la función de distribución acumulada anterior para
obtener la función de densidad
Normal
La distribución continua de probabilidad más importante en todo el campo de la
estadística es la distribución normal. la cual describe aproximadamente muchos
fenómenos que ocurren en la naturaleza, la industria y la investigación. Las me-
diciones físicas en áreas como los experimentos meteorológicos, estudios de lluvia
y mediciones de partes fabricadas a menudo se explican más que adecuadamente
con una distribución normal. En 1733, Abraham DeMoivre desarrolló la ecuación
matemática de la curva normal. Ésta ofrece una base sobre la que se fundamenta
gran parte de la teoría de la estadística inductiva. La función de densidad de
una distribución N (µ, σ 2 ) tiene propiedades muy interesantes:
Distribución N (µ, σ 2 )
µ
Denición
Una variable aleatoria X se dice tener una distribución normal con parámetro
µ ∈ R con σ 2 > 0. Si
1 1 x−µ 2
f (x) = √ e− 2 ( σ )
σ 2π
En este caso anotaremos X ∼ N (µ, σ 2 ).
Teorema
Sea X una variable aleatoria y tiene una distribución Normal, entonces:
E(X) = µ V ar(X) = σ 2
X −µ
Si X ∼ N (µ, σ 2 ) y Z = entonces Z ∼ N (0, 1). En esta situación, nos
σ
X −µ
referiremos al cambio de variable Z = , como estandarización de la va-
σ
riable X ∼ N (µ, σ 2 ), y a la correspondiente Z ∼ N (0, 1) como la distribución
normal estándar. La estandarización de cualquier normal, X ∼ N (µ, σ 2 ), nos
permitirá calcular la probabilidad de un suceso correspondiente a ella a partir
de la tabla de la distribución normal estandarizada N (0, 1). Asi, por ejemplo,
si X ∼ N (µ, σ 2 ) entonces:
X −µ
Si X ∼ N (µ, σ 2 ) y Z = entonces Z ∼ N (0, 1). En esta situación, nos
σ
X −µ
referiremos al cambio de variable Z = , como estandarización de la va-
σ
riable X ∼ N (µ, σ 2 ), y a la correspondiente Z ∼ N (0, 1) como la distribución
normal estándar. La estandarización de cualquier normal, X ∼ N (µ, σ 2 ), nos
permitirá calcular la probabilidad de un suceso correspondiente a ella a partir
de la tabla de la distribución normal estandarizada N (0, 1). Asi, por ejemplo,
si X ∼ N (µ, σ 2 ) entonces:
a−µ b−µ b−µ a−µ
P (a < X < b) = P <Z< =Φ −Φ
σ σ σ σ
X −µ
Si X ∼ N (µ, σ 2 ) y Z = entonces Z ∼ N (0, 1). En esta situación, nos
σ
X −µ
referiremos al cambio de variable Z = , como estandarización de la va-
σ
riable X ∼ N (µ, σ 2 ), y a la correspondiente Z ∼ N (0, 1) como la distribución
normal estándar. La estandarización de cualquier normal, X ∼ N (µ, σ 2 ), nos
permitirá calcular la probabilidad de un suceso correspondiente a ella a partir
de la tabla de la distribución normal estandarizada N (0, 1). Asi, por ejemplo,
si X ∼ N (µ, σ 2 ) entonces:
a−µ b−µ b−µ a−µ
P (a < X < b) = P <Z< =Φ −Φ
σ σ σ σ
Ejemplo
Las estaturas de los recién nacidos en un hospital se distribuyen N (46, 4) en cm.
Calcula la probabilidad de que:
un recién nacido mida menos de 44 cm.
un recién nacido mida más de 50 cm.
Ejemplo
De una universidad egresaron 210 varones y 225 damas. Las edades de los varones
se distribuyen N (24, 8; 0, 16), y las de las damas, N(24,2; 0,36).
¾Cuántos varones tenían más de 24 años?
¾Cuántas damas tenían más de 23 años?
Si se selecciona un alumno varón al azar, ¾cuál es la probabilidad de que
tenga a lo menos 24,8 años?