Está en la página 1de 125

PROFESOR: OMAR JAVIER TÍJARO ROJAS

MAYO DE 2019
CONTENIDOS

• Notaciones y definiciones. Concepto de espacio de


probabilidad. Axiomas de Kolmogorov.
• Modelos continuos y discretos.
• Variables aleatorias y sus distribuciones. Bernoulli,
geométrica, Poisson, uniforme, exponencial, Rayleigh,
Gaussiana, chi-cuadrado, entre otras.
• Funciones de variables aleatorias.
CONTENIDOS

• Esperanza matemática de una variable aleatoria.


Media, varianza, covarianza.
• Transformación de distribuciones de probabilidad.
• Independencia estadística. Probabilidad
condicional. Teorema de Bayes.
• Secuencias de variables aleatorias. Teorema del
límite central.
MODELOS CONTINUOS Y DISCRETOS.

VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.

FUNCIONES DE VARIABLES ALEATORIAS.


MODELOS CONTINUOS Y DISCRETOS

• El modelo es discreto si solo es de interés conocer


los valores de salida en un conjunto discreto (de
cardinal finito o numerable).
• El modelo es continuo si se quiere conocer los
valores de salida en todos los instantes o espacios de
un intervalo.
Nota: Los modelos que se implementan en un
computador son necesariamente discretos. Si el modelo
a implementar es continuo, lo que se hace en el
computador son discretizaciones.
MODELOS CONTINUOS Y DISCRETOS

• Debido a que muchos sistemas físicos son


modelados a partir de experimentos aleatorios, y
variables aleatorias, es interesante observar que
esta puede ser discreta o continua tanto para
simulación como para adquisición de datos.

x h(t) ó h[n] y

𝝐
MODELOS CONTINUOS Y DISCRETOS.

VARIABLES ALEATORIAS Y SUS DISTRIBUCIONES.

FUNCIONES DE VARIABLES ALEATORIAS.


VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES

• Variable aleatoria (recordar)


Se considera así a una medida que contiene variabilidad.
Generalmente, se representa matemáticamente usando
el modelo:
𝑋 =𝜇+𝜖
𝜇: constante
𝜖: perturbación aleatoria
• Mientras 𝜇 permanece igual, 𝜖 se debe a los pequeños
cambios dados por el ambiente, el equipo, entre otros.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES

• Variable aleatoria: Una variable aleatoria es


una función que asigna un número real para cada
resultado en un espacio muestral de un
experimento aleatorio.
• La notación de la variable aleatoria es una letra
mayúscula tal como 𝑋.
• Cuando un experimento es realizado, el valor
medido de la variable aleatoria es dado por una
letra minúscula tal como 𝑥 = 5 𝑚𝐴
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES

• Variable aleatoria discreta: Es una variable


aleatoria con un margen (o rango) finito (o
infinito contable).
• Variable aleatoria continua: Es una variable
aleatoria con un intervalo (finito o infinito) de
números reales para su margen (o rango).
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES

• Ejemplos de variables aleatorias discretas:


proporción de partes defectuosas en un lote de
100 pruebas, errores en la transmisión de bits en
un sistema de comunicaciones.
• Ejemplos de variables aleatorias continuas:
Corriente eléctrica, longitud, presión,
temperatura, velocidad, tiempo, peso, tensión, etc.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES

• Ejemplo (discreto)
Un sistema de comunicación de voz para un
negocio contiene 48 líneas externas. En un caso
particular, se hace una observación del sistema y
hay algunas líneas en uso. Si la variable aleatoria 𝑋
denota el número de líneas en uso, entonces
𝑋 puede asumir cualquier valor entero entre 0 y 48.
Cuando el sistema es observado, si 10 líneas son
usadas, 𝑥 = 10.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE PROBABILIDAD
• La distribución de probabilidad de una
variable aleatoria 𝑋 es una descripción de las
probabilidades asociadas con los posibles
valores de 𝑋.
• Para una variable aleatoria discreta, la
distribución es frecuentemente especificada por
solo una lista de posibles valores a lo largo de
la probabilidad de cada uno.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE PROBABILIDAD
• Para una variable aleatoria continua, la
distribución de probabilidad es calculada a través
de la función de densidad de probabilidad
𝑓(𝑥) . Así, si en un intervalo es comúnmente
contenido un valor de 𝑋, su probabilidad es alta, y
este corresponde a altos valores para la función
𝑓(𝑥).
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE PROBABILIDAD
• Ejemplos:

Discreto Continuo
[Tomado de Montgomery]
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE PROBABILIDAD
• Definición. Para una variable aleatoria discreta 𝑋 con
posibles valores 𝑥1 , 𝑥2 , … , 𝑥𝑛 , una función de
probabilidad es una función tal que:
1. f 𝑥𝑖 ≥ 0
2. σ𝑛𝑖=1 f 𝑥𝑖 = 1
3. f 𝑥𝑖 = 𝑃(𝑋 = 𝑥𝑖 )
• Dado el ejemplo anterior,
f 0 = 0.6561, 𝑓 1 = 0.2916, 𝑓 2 = 0.0486,
𝑓 3 = 0.0036 𝑦 𝑓 4 = 0.0001
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE PROBABILIDAD
• Definición. Para una variable aleatoria continua
𝑋 una función de densidad de probabilidad
es una función tal que:
1. f 𝑥 ≥ 0

2. ‫׬‬−∞ f 𝑥 𝑑𝑥 = 1
𝑏
3. 𝑃 𝑎 ≤ 𝑋 ≤ 𝑏 = ‫𝑓 𝑎׬‬ 𝑥 𝑑𝑥 (área debajo de
f 𝑥 desde 𝑎 hasta 𝑏 para cualquier a y 𝑏.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE PROBABILIDAD
• Histograma. Un histograma es una
aproximación a la función de densidad de
probabilidad el área de las barras es igual a la
frecuencia relativa (proporción) en el intervalo.
• En el histograma, 𝐟 𝒙 es usado para calcular
el área que representa la probabilidad que 𝑋
asuma un valor en 𝑎, 𝑏 .

Tomado de Montgomery
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE PROBABILIDAD
• Teniendo una variable aleatoria continua, es muy
probable que se encuentre que 𝑷 𝑿 = 𝒙 = 𝟎.
Por lo tanto:
• Si 𝑋 es una variable aleatoria continua para
algún 𝑥1 y 𝑥2 , entonces:
𝑃 𝑥1 ≤ 𝑋 ≤ 𝑥2 = 𝑃 𝑥1 < 𝑋 ≤ 𝑥2 =
𝑃 𝑥1 ≤ 𝑋 < 𝑥2 = 𝑃(𝑥1 < 𝑋 < 𝑥2 )
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE PROBABILIDAD
• Ejercicio en clase
Vaya a la página 18 del libro Probabilidad Intuitiva y
Procesos aleatorios usando Matlab (Cápitulo 2 –
Simulación en computador). Implemente los
códigos inicialmente con M = 100; 𝑥1 = 7.5; 𝑥2 =
8.7; 𝑥3 = 9.5; 𝑝1 = 0.15; 𝑝2 = 0.35; 𝑝3 = 0.5.
Después cambie los valores y tome sus propias
conclusiones.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
FUNCIONES DE PROBABILIDAD ACUMULATIVA
• Definición. La función de probabilidad acumulativa
de una variable aleatoria discreta 𝑋, denotada como F(𝑋)
es:

F 𝑥 = 𝑃 𝑋 ≤ 𝑥 = ෍ 𝑓(𝑥𝑖 )
𝑥𝑖 ≤𝑥

Para una variable aletoria 𝑋, 𝐹 𝑋 satisface las propiedades:


1. F 𝑥 = 𝑃 𝑋 ≤ 𝑥 = σ𝑥𝑖 ≤𝑥 𝑓(𝑥𝑖 )
2. 0 ≤ 𝐹 𝑋 ≤ 1
3. Si 𝑥 < 𝑦, entonces F 𝑋 ≤ 𝐹(𝑌)
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
FUNCIONES DE PROBABILIDAD ACUMULATIVA
• Ejemplo. Determine la función de probabilidad de 𝑋 a partir de la
siguiente distribución de probabilidad acumulativa.

0 𝑥 < −3
0.25 −3 ≤ 𝑥 < −1
𝐹 𝑥 = 0.65 −1 ≤ 𝑥 < 1
0.85 1≤𝑥<3
1 3≤𝑥
Para poder encontrar la distribución, es necesario observar que los
puntos que no reciben probabilidad 0, son -3, 1 y 3 la probabilidad de
que estos ocurran será:
𝑓 −3 = 0.25 − 0 = 0.25; 𝑓 −1 = 0.65 − 0.25 = 0.4;
𝑓 1 = 0.85 − 0.65 = 0.2; 𝑓 3 = 1 − 0.85 = 0.15;
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
ALGUNOS CONCEPTOS ADICIONALES
• La media y la varianza. Estos dos son números
que sirven para medir el centro (o medio) y la
dispersión (o variabilidad) de una distribución de
probabilidad para una variable aleatoria 𝑋.
• Para variables aleatorias discretas se tiene:
La media o valor esperado de una variable
aleatoria discreta X denotada como μ 𝑜 𝐸 𝑋 es:

μ = E 𝑋 = ෍ 𝑥𝑓(𝑥)
𝑥
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
ALGUNOS CONCEPTOS ADICIONALES
• Para variables aleatorias discretas:
La varianza de X denotada como 𝜎 2 o V 𝑋 es:

𝜎 2 = V 𝑋 = 𝐸(𝑋 − 𝜇)2 = ෍(𝑥 − 𝜇)2 𝑓(𝑥)


𝑥

= ෍ 𝑥 2 𝑓 𝑥 − 𝜇2
𝑥

La desviación estándar de X es 𝜎 = 𝜎 2
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
ALGUNOS CONCEPTOS ADICIONALES
• Ahora, para variables aleatorias continuas:
Si 𝐗 es una variable aleatoria continua con función
de densidad de probabilidad 𝑓 𝑥 . La media o valor
esperado de 𝑋 denotado como 𝜇 o E 𝑋 es:

μ = E 𝑋 = න 𝑥𝑓 𝑥 𝑑𝑥
−∞
La varianza de 𝑋denotada como 𝜎 2 o V 𝑋 es:

𝜎2 =V 𝑋 = ‫׬‬−∞ 𝑥 − 𝜇 2 𝑓 𝑥 𝑑𝑥 =

‫׬‬−∞ 𝑥 2 𝑓 𝑥 𝑑𝑥 − 𝜇2
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
ALGUNOS CONCEPTOS ADICIONALES
• Ejemplo (discreto):
En un ejemplo visto, hay una probabilidad de
transmitir un bit erróneamente en un canal de
comunicaciones. Se asume que 𝑋 es igual al número
de bits erróneos en los próximos cuatro
transmitidos. Los posibles valores de 𝑋 son:
{0,1,2,3,4}. Basados en un modelo para los errores,
las probabilidades son:
P 𝑋 = 0 = 0.6561, 𝑃 𝑋 = 1 = 0.2916, 𝑃 𝑋 = 2
= 0.0486, 𝑃 𝑋 = 3 = 0.0036 𝑦 𝑃 𝑋 = 4 = 0.0001
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
ALGUNOS CONCEPTOS ADICIONALES
• Ejemplo (discreto):

μ = E 𝑋 = ෍ 𝑥𝑓(𝑥)
𝑥
= 0 ∗ 0.6561 + 1 ∗ 0.2916 + 2 ∗ 0.0486 + 3
∗ 0.0036 + 4 ∗ 0.0001 = 0.4
Para hallar la varianza:
4

𝜎 2 = V 𝑋 = ෍ 𝑓 𝑥𝑖 𝑥𝑖 − 0.4 2 = 0.36
𝑖=0
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
ALGUNOS CONCEPTOS ADICIONALES
Para hallar la varianza paso a paso (discreto):
𝒙 𝒙 − 𝟎. 𝟒 (𝒙 − 𝟎. 𝟒)𝟐 𝒇(𝒙) 𝒇(𝒙) ∗ (𝒙 − 𝟎. 𝟒)𝟐

0 -0,4 0,16 0,6561 0,104976

1 0,6 0,36 0,2916 0,104976

2 1,6 2,56 0,0486 0,124416

3 2,6 6,76 0,0036 0,024336

4 3,6 12,96 0,0001 0,001296


VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
ALGUNOS CONCEPTOS ADICIONALES
• Ejemplo (continuo):
Una variable aleatoria continua 𝑋 denota la corriente medida en un
alambre de cobre delgado. Asuma el rango de 𝑋 es [0,20 𝑚𝐴] y asuma
que la función de densidad de probabilidad es 𝑓 𝑥 = 0.05 para 0 ≤
𝑥 ≤ 20. ¿Cuál es la probabilidad que una corriente mida menos de10
mA? ¿Cuál será su media?
10
P 𝑋 < 10 = න 𝑓 𝑥 𝑑𝑥 = 0.05 ∗ 10 = 0.5
0
20 0.05𝑥 2 20
μ = E 𝑋 = ‫׬‬0 𝑥𝑓 𝑥 𝑑𝑥 = 2
|0 = 10.A su vez la varianza:
20 20
2 2
(𝑥 − 10)3
𝜎 = V 𝑋 = න (𝑥 − 10) 𝑓 𝑥 𝑑𝑥 = 0.05 ቝ = 33.33
0 3 0
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
ALGUNOS CONCEPTOS ADICIONALES
• La moda. Es el valor con mayor frecuencia en
una distribución de datos.
• El intervalo modal es el de mayor frecuencia absoluta.
Cuando tratamos con datos agrupados antes de definir la
moda, se ha de definir el intervalo modal.
• La moda, cuando los datos están agrupados, es un punto
que divide al intervalo modal en dos partes de la forma 𝑝 y
𝑐 − 𝑝, siendo c la amplitud del intervalo, que verifiquen que:
𝑝 𝑛𝑖 − 𝑛𝑖−1
=
𝑐 − 𝑝 𝑛𝑖 − 𝑛𝑖+1
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
ALGUNOS CONCEPTOS ADICIONALES
• La mediana
La mediana muestral es el valor medio cuando las observaciones se
ordenan de menor a mayor. Si las observaciones se denotan por
𝑥1 , 𝑥2 , … , 𝑥𝑛 , se emplea el símbolo 𝑥෤ para representar la mediana
muestral.
Definición:
La mediana muestral se obtiene al ordenar las n observaciones (o
muestras) de menor a mayor (incluso si hay valores repetidos) así:

𝑥 𝑛+1 𝑑𝑒 𝑙𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑜𝑟𝑑𝑒𝑛𝑎𝑑𝑜𝑠


2
𝑥෤ = 𝑥 𝑛 +𝑥 𝑛
2 2 +1
𝑑𝑒 𝑙𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑜𝑟𝑑𝑒𝑛𝑎𝑑𝑜𝑠
2
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
ALGUNOS CONCEPTOS ADICIONALES
• Valor esperado de una función de una variable
aleatoria discreta. Si 𝑋 es una variable aleatoria discreta
con función de probabilidad 𝑓(𝑥),

𝐸ℎ 𝑥 = ෍ ℎ 𝑥 𝑓(𝑥)
𝑥

• Valor esperado de una función de una variable


aleatoria continua. Si 𝑋 es una variable aleatoria
continua con función de densidad de probabilidad 𝑓(𝑥),

𝐸ℎ 𝑥 = න ℎ 𝑥 𝑓 𝑥 𝑑𝑥
−∞
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
ALGUNOS CONCEPTOS ADICIONALES
• En el ejemplo (discreto) anterior, 𝑋 es el número de
bits en error en los próximos cuatro transmitidos.
¿Cuál es el valor esperado del cuadrado del número
de bits en error? ℎ 𝑋 = 𝑋 2
𝐸 ℎ(𝑋)
= 02 ∗ 0.6561 + 12 ∗ 0.2916 + 22 ∗ 0.0486 + 32 ∗ 0.0036
+ 42 ∗ 0.0001 = 0.52

NOTA: Es importante observar que no es lo mismo


sumar los cuadrados de la probabilidad que elevar al
cuadrado la media anteriormente calculada. ¿Qué
propiedad de las que conocen no se cumple aquí?
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
ALGUNOS CONCEPTOS ADICIONALES
• En el ejemplo (continuo) anterior, 𝑋 es la corriente
medida en mA. ¿Cuál es el valor esperado de la
corriente al cuadrado? ℎ 𝑋 = 𝑋 2
20 20
𝐸 ℎ(𝑋) = E 𝑋 = න 𝑥 2 𝑓 𝑥 𝑑𝑥 = න 𝑥 2 0.05𝑑𝑥
0 0
20
𝑥3
= 0.05 อ = 133.33.
3
0

NOTA: Revisar en el valor esperado de una función


continuo y discreto las propiedades de linealidad
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN UNIFORME
• Definición. Una variable aleatoria 𝑋 tiene una distribución
uniforme discreta si cada uno de sus 𝑛 valores en su rango
𝑥1 , 𝑥2 , 𝑥3 , … , 𝑥𝑛 tiene igual probabilidad. Entonces:
1
𝑓(𝑥𝑖| ) =
𝑛
• Definición. Una variable aleatoria continua 𝑋 con función
de densidad de probabilidad:
1
𝑓 𝑥 = , 𝑎≤𝑥≤𝑏
𝑏−𝑎
Es una variable aleatoria uniforme continua.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN UNIFORME
• Ejemplo (discreto). El primer digito de una parte de un
número serial es igualmente probable de ser algún dígito
del 0 al 9. Si una parte es seleccionada desde un largo lote y,
𝑋 es el primer dígito de un número serial, 𝑋 tiene una
distribución uniforme discreta con probabilidad 0.1 para
cada valor en R = {0,1,2, … , 9}. Esta es,
𝑓(𝑥) = 0.1

Para cada valor en R.


Función de probabilidad para una variable aleatoria discreta uniforme
0.4

0.3
f(x)

0.2
.
0.1

0
-1 0 1 2 3 4 5 6 7 8 9 10
x
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN UNIFORME
• Ejemplo (continuo). Digamos que la variable
continua 𝑋 denota la corriente en mA, medida en un
alambre de cobre delgado, Asuma que el rango de 𝑋
es [0,20𝑚𝐴] y que la función de densidad de
probabilidad de 𝑋 es 𝑓 𝑥 = 0.05, 0 ≤ 𝑥 ≤ 20. ¿Cuál es
la probabilidad que una corriente mida entre 5 y 10
mA?
10
𝑃 5 < 𝑋 < 10 = න 𝑓 𝑥 𝑑𝑥 = 5 ∗ 0.05 = 0.25
5
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN UNIFORME
• Ejemplo (continuo). La siguiente gráfica
describe la función de probabilidad continua
uniforme.
Función de probabilidad para una variable aleatoria continua uniforme
0.1

0.08

0.06
f(x)

0.04

0.02

0
0 2 4 6 8 10 12 14 16 18 20
x
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN UNIFORME
• Ejercicio en clase.
• A partir de las definiciones dadas para la
distribución uniforme, calcular el valor esperado y
la varianza (en el caso discreto se debe suponer
límites de la distribución que pueden ser similares
a las variables a y b del caso continuo) .
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
• Distribución Binomial (discreto)
Considere los siguientes experimentos aleatorios y las
variables aleatorias.
1. Lance una moneda 10 veces. Asuma 𝑋 como el número
de caras obtenidas.
2. Una máquina produce 1% de partes defectuosas. Asuma
𝑋 como el número de partes defectuosas en las próximas
25 partes producidas.
3. En los próximos 20 nacimientos de un hospital, asuma
que 𝑋 es el número de mujeres que nacieron.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
• Distribución Binomial (discreto)
4. De todos los bits transmitidos a través de un canal
de comunicaciones, 10% son recibidos con error.
Asuma que 𝑋 es el número de bits en error en los
próximos 5 bits transmitidos.
5. Una prueba de múltiples respuestas tiene 10
preguntas, cada una con cuatro opciones, y se debe
adivinar en cada pregunta. Asuma que 𝑋 es el
número de preguntas respondidas correctamente.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
• Distribución Binomial (discreto)
• Por ejemplo: Para el caso 5, hay solamente una
respuesta (de las 4) que es correcta y es considerado
como éxito. Escoger cualquiera de las otras tres es
un resultado incorrecto y es considerado como
fracaso. Los términos éxito y fracaso son sólo
etiquetas. Sin embargo, esto puede ser un A y B o un 0
y 1, que en algunas etiquetas puede ser malentendido
(por ejemplo el caso 2).
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
• Un intento con sólo dos posibles resultados es usado
muy frecuentemente como un bloque construido de
un experimento aleatorio que es llamado variable
aleatoria de Bernoulli. Es usualmente asumido que
los intentos que constituyen el experimento aleatorio
son independientes. Esto implica que los resultados
de un intento no tienen efecto en el resultado
obtenido de cualquier otro intento. Es razonable
asumir que la probabilidad de un suceso en cada
intento es constante.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
• Ejemplo:
La probabilidad que un bit transmitido a través de un
canal digital sea recibido en error es 0.1. Asuma que los
intentos de transmisión son independientes. Digamos
que 𝑋 es el número de bits en error en los próximos
cuatro bits transmitidos. Determine 𝑃(𝑋 = 2).
𝐸: Evento de bit en error
𝑂: Evento de bit Ok.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
Se puede representar los resultados de este
experimento como una lista de cuatro letras que
indican los bits en error y los bits OK. Así un
resultado EOEO indica que el primero y tercer bit
están en error y los otros dos bits están OK.
Result X Result X Result X Result X

OOOO 0 OEOO 1 EOOO 1 EE00 2


OOOE 1 OEOE 2 EOOE 2 EE0E 3
OOEO 1 OEEO 2 EOEO 2 EEE0 3
OOEE 2 OEEE 3 EOEE 3 EEEE 4
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
Result X Result X Result X Result X

OOOO 0 OEOO 1 EOOO 1 EE00 2


OOOE 1 OEOE 2 EOOE 2 EE0E 3
OOEO 1 OEEO 2 EOEO 2 EEE0 3
OOEE 2 OEEE 3 EOEE 3 EEEE 4

Usando la asunción que las pruebas son independientes, la


probabilidad de {EOEO} es:
P(EOEO)=P(E)P(O)P(E)P(O)=(0.1)2 (0.9)2 = 0.0081
Cualquiera de los seis resultados mutuamente excluyente
para los cuales 𝑋 = 2 tiene la misma probabilidad de
ocurrencia, entonces: 𝑃 𝑋 = 2 = 6 0.0081 = 0.0486
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
Completando la fórmula general de probabilidad, sólo
una expresión para el número de resultados que
contienen 𝒙 errores es necesario. Un resultado que
contiene 𝑥 errores puede ser construido
particionando los cuatro intentos en el resultado
dentro de dos grupos. Un grupo de tamaño 𝑥 que
contienen los errores y el otro grupo es de tamaño n-𝑥
y consiste de los intentos que están OK. El número de
caminos de partición de los cuatro objetos dentro
de dos grupos, uno de los cuales es de tamaño 𝑥, es:
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
4 4!
=
𝑥 𝑥! 4 − 𝑥 !
En este ejemplo:
4
𝑃(𝑋 = 𝑥) = (0.1)x (0.9)4−x
𝑥
Si se reemplaza la ecuación para el ejemplo:
4 4!
= =6
2 2! 4 − 2 !
Esto motiva el siguiente resultado.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
• Definición.
Un experimento aleatorio consiste de 𝑛 intentos
de Bernoulli tales que:
1. Las intentos son independientes.
2. Cada intento resulta en sólo dos posibles
resultados, etiquetados como éxitos o fracasos.
3. La probabilidad de un éxito en cada intento,
denotado como 𝑝, permanece constante.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
• Definición (continúa).
La variable aleatoria 𝑋 que iguala el número de
intentos que resultan en un éxito tiene una variable
aleatoria binomial con parámetros 0 < 𝑝 < 1 y
𝑛 = 1,2, … La función de masa de probabilidad de 𝑋
es:
𝑛 x
𝑓 𝑥 = p (1 − p)n−x 𝑥 = 0,1,2, … , 𝑛
𝑥
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
• El nombre de la distribución binomial es dado por la
expansión binomial (para constantes a y b):
𝑛
𝑛 k k
(𝑎 + 𝑏)𝑛 = ෍ 𝑎 b
𝑘
𝑘=0
Si 𝑝 es la probabilidad de éxito en una prueba simple,
entonces, al reemplazar a = 𝑝 y 𝑏 = 1 − 𝑝, la suma de
probabilidades para una variable aleatoria binomial es 1.
Debido a que el experimento es clasificado en dos
resultados {Éxito, Fracaso} la distribución es llamada bi-
nomial.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
• Ejemplo:
Cada muestra de agua tiene un 10% de probabilidad de
contener una partícula orgánica contaminante. Asuma que las
muestras son independientes con relación a la presencia del
contaminante. Encuentre la probabilidad que en las próximas
18 muestras, exactamente 2 contienen contaminante
Digamos que 𝑋 es el número de muestras que contienen el
contaminante en las próximas 18 muestras analizadas.
Entonces 𝑋 es una variable aleatoria binomial con 𝑝 = 0.1 y
𝑛 = 18. Por lo tanto:
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
18
𝑃 𝑋=2 = (0.1)2 (0.9)16
2
18 18!
Y: = = 153
2 2!∗16!

𝑃 𝑋 = 2 = 153 ∗ 0.1 2 0.9 16 = 0.284


Determine ahora la probabilidad de que al menos 4 muestras
contienen polución. La probabilidad requerida es:
18
18
𝑃 𝑋≥4 =෍ (0.1)𝑥 (0.9)18−𝑥
𝑥
𝑥=4
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
Pero es más fácil encontrar el complemento:
3
18
𝑃 𝑋 ≥4 =1−𝑃 𝑋 <4 =1−෍ (0.1)𝑥 (0.9)18−𝑥
𝑥
𝑥=0
= 1 − 0.15 + 0.3 + 0.284 + 0.168 = 0.098
Ejercicio:
Determine la probabilidad que 3 ≤ 𝑥 < 7.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
• Definición
Si 𝑋 es una variable aleatoria binomial con parámetros 𝑝 y 𝑛,
𝜇 = 𝐸 𝑋 = 𝑝𝑛 y 𝜎 2 = 𝑉 𝑋 = 𝑛𝑝(1 − 𝑝)
Lo cual muestra que para una variable aleatoria binomial su
media y varianza depende sólo de los parámetros 𝑝 y 𝑛.
Ejemplo:
Para el número de bits recibidos con error en un ejemplo visto,
𝑛 = 4 y 𝑝 = 0.1, entonces:
𝜇 = 𝐸 𝑋 = 4 ∗ 0.1 = 0.4 y 𝜎 2 = 𝑉 𝑋 = 4 ∗ 0.1 0.9 = 0.36
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN GEOMÉTRICA
• Considere un experimento aleatorio que es
cercanamente relativo al usado en la distribución
binomial. Nuevamente, asuma una serie de
intentos de Bernoulli, sin embargo, en lugar de
un número fijo de intentos, los intentos serán
ejecutados hasta obtener un éxito. En este caso,
la variable aleatoria 𝑿 denota el número de
intentos hasta el primer éxito.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN GEOMÉTRICA
• Definición
En una serie de intentos de Bernoulli (intentos
independientes con probabilidad constante 𝑝 de un
éxito), digamos que la variable aleatoria 𝑋 denota el
número de intentos hasta el primer éxito. Entonces,
𝑋 es una variable aleatoria geométrica con
parámetro 0 < 𝑝 < 1 y,
𝑓(𝑥) = 1 − 𝑝 𝑥−1 𝑝 y 𝑥 = 1,2, … .
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN GEOMÉTRICA
• Ejemplo
La probabilidad que un semiconductor (wafer) contenga una
partícula grande de contaminación es 0.01. Si se asumió que
los wafer son independientes, ¿Cuál es la probabilidad que
exactamente se necesiten 125 wafers para ser analizados
antes de que una partícula sea detectada?
𝑋 : Número de muestras analizadas hasta detectar una
partícula. 𝑋 es una variable aleatoria geométrica con 𝑝 =
0.01. La probabilidad requerida es :
𝑃 𝑋 = 125 = 0.99 124 0.01 = 0.0029
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN GEOMÉTRICA
• Definición
Si 𝑋 es una variable aleatoria geométrica con parámetro 𝑝,
1 (1−𝑝)
𝜇=𝐸 𝑋 = y 𝜎2 =
𝑝 𝑝2

Propiedad de pérdida de memoria


Una variable aleatoria geométrica ha sido definida como el
número de intentos hasta encontrar el primer éxito. Sin
embargo, porque los intentos son independientes, el conteo
del número de intentos hasta el éxito puede iniciar en
cualquier intento sin cambiar la distribución de probabilidad
de la variable aleatoria.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL NEGATIVA
Una generalización de una distribución geométrica en la
cual la variable aleatoria es el número de intentos de
Bernoulli requeridos para obtener 𝑟 resultados exitosos
es la distribución binomial negativa.
Ejemplo: Suponga ahora que la probabilidad de un
bit transmitido a través de un canal de transmisión
digital sea recibido con error es 0.1. Asuma que las
transmisiones son eventos independientes, y
digamos que la variable aleatoria 𝑋 denota el número de
bits transmitidos hasta el cuarto error.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL NEGATIVA
Entonces 𝑋 tiene una distribución aleatoria con 𝑟 = 4.
Probabilidades envolventes pueden ser encontradas
como sigue. La P(𝑋 = 10) es la probabilidad que
exactamente tres errores ocurran en los primeros
nueve intentos y el décimo resultado en el cuarto error.
La probabilidad que exactamente tres errores ocurran
en los primeros nueve intentos es determinada desde la
distribución binomial para ser:
9 3 6
0.1 0.9
3
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL NEGATIVA
Debido a que los eventos son independientes, la
probabilidad exacta que ocurran 3 errores en los
primeros 9 intentos y el 10mo sea el cuarto error
es el producto de las probabilidades de estos dos
eventos, es decir:
9 3 6 9 4 6
0.1 0.9 0.1 = 0.1 0.9
3 3

Este resultado generaliza la siguiente definición.


VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL NEGATIVA
• Definición
En una serie de intentos de Bernoulli, se dice que la variable
aleatoria 𝑋 denota el número de intentos hasta que 𝑟 éxitos
ocurran. Entonces, 𝑋 es una variable aleatoria binomial
negativa con parámetros 0 < 𝑝 < 1, 𝑟 = 1,2,3, … y
𝑥−1
𝑓 𝑥 = (1 − 𝑝)𝑥−𝑟 𝑝𝑟 con 𝑥 = 𝑟, 𝑟 + 1, 𝑟 + 2, …
𝑟−1

Debido a que 𝑟 intentos son requeridos para obtener 𝑟


éxitos, el rango de 𝑋 es desde 𝑟 hasta ∞. Si r = 1, se cumple
específicamente la variable aleatoria geométrica.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL NEGATIVA
Recuerde que una variable aleatoria binomial es un
conteo del número de éxitos en 𝒏 intentos de
Bernoulli. Esto es, el número de intentos es
predeterminado y el número de éxitos es aleatorio. Una
variable aleatoria binomial negativa es un conteo
del número de intentos requeridos para obtener 𝑟
éxitos. Esto es, el número de éxitos es predeterminado,
y el número de intentos es aleatorio. Desde este punto
de vista, la variable aleatoria binomial negativa puede ser
considerado el opuesto o negativo de una variable
aleatoria binomial.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL NEGATIVA
• Definición
Si 𝑋 es una variable aleatoria binomial negativa con parámetros 𝑝
y 𝑟, su media y varianza están dados por las expresiones:
𝜇 = 𝐸 𝑋 = 𝑟/𝑝 y 𝜎 2 = 𝑉 𝑋 = 𝑟(1 − 𝑝)/𝑝2

Ejemplo: Un sitio Web contiene tres servidores de


computadores idénticos. Sólo uno es usado para operar el sitio y
los otros dos son reservados para ser activados en caso de que
el sistema principal falle. La probabilidad de una falla en el
computador principal (o cualquier sistema de reserva activo) es
de 0.0005. Asuma que cada solicitud representa un intento
independiente, ¿Cuál es el número medio de solicitudes hasta
que fallen los tres servidores?
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL NEGATIVA
𝑋 denota el número de solicitudes hasta que los tres
servidores fallan. Y digamos que 𝑋1 , 𝑋2 y 𝑋3 , denotan el
número de solicitudes antes de una falla del primero, segundo
y tercer servidores usados, respectivamente. Ahora, 𝑋 = 𝑋1 +
𝑋2 + 𝑋3 , También, las solicitudes son asumidas para
comprender intentos independientes con probabilidad de falla
𝑝 = 0.0005 Adicionalmente, un servidor de reserva no es
afectado por el número de solicitudes antes de que este sea
activado. Por lo tanto, 𝑋 tiene una distribución binomial
negativa con 𝑝 = 0.0005 y 𝑟 = 3. Consecuentemente:
𝑟 3
𝐸 𝑋 = = = 6000 𝑠𝑜𝑙𝑖𝑐𝑖𝑡𝑢𝑑𝑒𝑠
𝑝 0.0005
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL NEGATIVA
¿Cuál es la probabilidad que los tres servidores
fallen con cinco solicitudes?. La probabilidad es
𝑃 𝑋 ≤ 5 y:
𝑃 𝑋 ≤5 =𝑃 𝑋 =3 +𝑃 𝑋 =4 +𝑃 𝑋 =5
3
= 0.00053 + 0.00053 0.9995
2
4
+ 0.00053 (0.9995)2
2
= 1.25 ∗ 10−10 + 3.75 ∗ 10−10 + 7.49 ∗ 10−10
= 1.249 ∗ 10−9
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN HIPERGEOMÉTRICA
Ejemplo: En un día de producción de 850 partes
fabricadas, 50 de ellas son no conformes según los
requerimientos de los usuarios. El día de producción,
dos partes son seleccionadas al azar sin reemplazo.
Digamos que A y B denotan los eventos donde la
primera y la segunda parte son no conformes,
respectivamente. Anteriormente, se encontró que
𝑃 𝐵 𝐴 = 49/849 y 𝑃 𝐴 = 50/850 .
Consecuentemente, que la primera parte sea no
conforme sugiere que es menos probable que la
segunda parte sea no conforme.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN HIPERGEOMÉTRICA
Entonces, el número de partes no conformes en la muestra es
una variable aleatoria binomial. Digamos que 𝑋 es igual al
número de partes no conformes en la muestra. Entonces:
800 799
𝑃 𝑋 = 0 = 𝑃 𝑎𝑚𝑏𝑎𝑠 𝑐𝑜𝑛𝑓𝑜𝑟𝑚𝑒𝑠 = ∗ = 0.886
850 849
𝑝𝑟𝑖𝑚𝑒𝑟𝑎 𝑐𝑜𝑛𝑓𝑜𝑟𝑚𝑒,
𝑃 𝑋=1 =𝑃
𝑠𝑒𝑔𝑢𝑛𝑑𝑎 𝑛𝑜 𝑦 𝑣𝑖𝑐𝑒𝑣𝑒𝑟𝑠𝑎
800 50 50 800
= ∗ + ∗ = 0.111
850 849 850 849
50 49
𝑃 𝑋 = 2 = 𝑃 𝑎𝑚𝑏𝑎𝑠 𝑛𝑜 𝑐𝑜𝑛𝑓𝑜𝑟𝑚𝑒𝑠 = ∗ =0.003
850 849
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN HIPERGEOMÉTRICA
• Definición. Un conjunto de 𝑁 objetos contiene 𝐾 objetos
clasificados como éxitos y 𝑁 − 𝐾 objetos clasificados como
fracaso
Una muestra de tamaño 𝒏 objetos es seleccionada al azar (sin
reemplazo) desde 𝑁 objetos, dónde 𝐾 ≤ 𝑁 y 𝑛 ≤ 𝑁. Digamos que la
variable aleatoria 𝑋 denota los números de éxitos en la muestra.
Entonces, 𝑋 es la variable aleatoria hipergeométrica y:

𝐾 𝑁−𝐾
𝑓 𝑥 = 𝑥 𝑛−𝑥
𝑁
𝑛
𝑥 = max 0, 𝑛 + 𝐾 − 𝑁 ℎ𝑎𝑠𝑡𝑎 𝑒𝑙 min{𝐾, 𝑛}
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN HIPERGEOMÉTRICA
• Ejemplo. Retomando el ejemplo inicial, se podría utilizar la definición
de la variable aleatoria hipergeométrica:

50 800
𝑃 𝑋=0 = 0 2 = 319600 = 0.886
850 360825
2
50 800
𝑃 𝑋=1 = 1 1 = 40000 = 0.111
850 360825
2
50 800
𝑃 𝑋=2 = 2 0 = 1225 = 0.003
850 360825
2
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN HIPERGEOMÉTRICA
• Ejemplo. Un lote contiene 100 partes de un proveedor
local de tuberías y 200 partes de un proveedor de otro
estado. Si cuatro partes son seleccionadas aleatoriamente y
sin reemplazos, ¿Cuál es la probabilidad que todos sean del
proveedor local?
Digamos que 𝑋 es el número de partes en la muestra del
proveedor local. Entonces 𝑋 tiene una distribución
hipergeométrica y la respuesta es 𝑃(𝑋 = 4). Así:
100 200
𝑃 𝑋=4 = 4 0 = 0.0119
300
4
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN HIPERGEOMÉTRICA
• Ahora, ¿Cuál es la probabilidad que de estas 4 muestras, dos o más
sean del proveedor local?
100 200 100 200 100 200
𝑃 𝑋≥2 = 2 2 + 3 1 + 4 0
300 300 300
4 4 4
= 0.298 + 0.098 + 0.0119 = 0.408
¿Cuál es la probabilidad que al menos una de estas 4 muestras, al menos
una sea del proveedor local?
100 200
𝑃 𝑋 ≥1 =1−𝑃 𝑋 =0 =1− 0 4 = 0.804
300
4
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN HIPERGEOMÉTRICA
• La media y la varianza de una variable aleatoria
hipergeométrica puede ser determinada a partir de los
intentos que comprenden el experimento. Sin embargo, los
intentos no son independientes, y así los cálculos son más
difíciles que una distribución binomial. Los resultados se
indican como siguen.
• Si 𝑋 es una variable aleatoria hipergeométrica con
parámetros 𝑁, 𝐾 𝑦 𝑛, entonces:
𝑁−𝑛 Factor de
𝜇 = 𝐸 𝑋 = 𝑛𝑝 𝑦 𝜎2 = 𝑉 𝑋 = 𝑛𝑝 1 − 𝑝 corrección
𝑁−1
por población
Donde: 𝑝 = 𝐾/𝑁 finita
(distribución
binomial)
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE POISSON
• Ejemplo:
Considere la transmisión de 𝑛 bits sobre un canal digital de
comunicaciones. Digamos que la variable aleatoria 𝑋 es igual
al número de bits erróneos. Cuando la probabilidad que un
bit esté en error es constante y la transmisión es
independiente, 𝑋 tiene una distribución binomial. Digamos
que 𝑝 denota la probabilidad que un bit sea erróneo. Digamos
que 𝜆 = 𝑝𝑛. Entonces, 𝐸 𝑋 = 𝑝𝑛 = 𝜆 y:
𝑥 𝑛−𝑥
𝑛 𝑥 𝑛 𝜆 𝜆
𝑃 𝑋=𝑥 = 𝑝 (1 − 𝑝)𝑛−𝑥 = 1−
𝑥 𝑥 𝑛 𝑛
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE POISSON
Ahora suponga que el número de bits transmitidos
incrementa y la probabilidad de un error decrementa
exactamente suficiente que 𝑝𝑛 permanece constante. Esto es
𝑛 incrementa y 𝑝 decrementa acordemente, tal como 𝐸 𝑋 =
𝜆 permanece constante. Entonces, con algún trabajo, puede
ser mostrado que:
𝑒 −𝜆 𝜆𝑥
𝑙𝑖𝑚𝑛→∞ 𝑃 𝑋 = 𝑥 = , 𝑥 = 0,1,2, …
𝑥!
También, debido a que el número de bits transmitido tiende a
infinito, el número de errores pueden ser igual a cualquier
entero no negativo. Por lo tanto, el rango de 𝑋 es los enteros
de cero a infinito.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE POISSON
• Definición: Dado un intervalo de números reales, asuma que
los conteos ocurren al azar a lo largo del intervalo. Si el
intervalo puede ser particionado dentro de subintervalos de
longitudes suficientemente pequeñas que:
1. La probabilidad de más de un conteo en un subintervalo es
cero,
2. La probabilidad de un conteo en un intervalo es la misma para
todos los subintervalos y proporcional a la longitud del
subintervalo, y
3. El conteo en cada subintervalo es independiente de otros
subintervalos, el experimento aleatorio es llamado un
Proceso de Poisson.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE POISSON
• Definición (continuación)
• La variable aleatoria 𝑋 que iguala el número de conteos en
el intervalo es una variable aleatoria de Poisson con
parámetro 0 < 𝜆, y la función de masa de probabilidad de 𝑋
es:
𝑒 −𝜆 𝜆𝑥
𝑓 𝑥 = 𝑥 = 0,1,2, …
𝑥!
Si una variable aleatoria de Poisson representa el número de
conteos en un intervalo, la media de la variable aleatoria, debe
igualar el número esperado de conteos en la misma longitud
del intervalo.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE POISSON
• Ejemplo:
Suponga que el número de defectos encontrados en un cable
delgado de cobre que sigue una distribución de Poisson tiene una
media de 2.3 defectos por milímetro (de longitud). Determine la
probabilidad de exactamente 2 defectos en un milímetro de
cable.
Digamos que 𝑋 denota el número de defectos en un milímetro
de cable. 𝐸(𝑋) = 2.3 defectos y:
𝑒 −2.3 2.32
𝑃 𝑋=2 = = 0.265
2!
Determine ahora, la probabilidad de 10 defectos en 5 milímetros
de cable.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE POISSON
Digamos que 𝑋 denota el número de defectos en 5 milímetros
de cable. 𝐸 𝑋 = 5𝑚𝑚 ∗ 2.3 defectos/mm= 11,5 defectos:
𝑒 −11.5 11.510
𝑃 𝑋 = 10 = = 0.113
10!
Determine ahora, la probabilidad de al menos 1 defecto en 2
milímetros de cable. Entonces la distribución de Poisson tiene:
𝐸 𝑋 = 2𝑚𝑚 ∗ 2.3 defectos/mm=4.6 defectos.
Por lo tanto,
𝑒 −4.6 4.60
𝑃 𝑋 ≥1 =1−𝑃 𝑋 =0 =1− = 0.9899
0!
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE POISSON
• Definición:
Si 𝑋 es una variable aleatoria de Poisson con parámetro 𝜆,
entonces:
μ=𝐸 𝑋 =𝜆
𝜎2 = 𝑉 𝑋 = 𝜆
La varianza y el valor esperado en la variable aleatoria de
Poisson son iguales. Por este motivo, se debe tener cuidado ya
que si la varianza del conteo de datos es mucho mayor que la
media de los mismos datos, la distribución de Poisson no es
un buen modelo para la distribución de la variable aleatoria.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN NORMAL O GAUSSIANA
• La distribución normal es la distribución más
utilizada para variables aleatorias (continuas).
• Siempre que un experimento aleatorio sea
repetido, la variable aleatoria que iguala el
resultado promedio sobre las replicas tiende a
tener una distribución normal como el número
de replicas se vuelva más grande. Este resultado
fundamental es conocido como el teorema del
límite central.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN NORMAL O GAUSSIANA
• ¿Usted promedia cada vez que hace un experimento?
• Dentro de sus metas a corto plazo, usted quiere conocer a
una persona que le atrae mucho. ¿Qué hace usted?
1. Pregunta sobre su horario (hace una revisión estadística
entre los tiempos libres que tiene esa persona y usted).
2. Intenta permanecer en lugares que frecuenta esa persona y
la hora en la que la frecuenta (hace revisión estadística del
espacio que frecuenta esa persona).
3. En pocas palabras, trata de promediar el tiempo en el que
usted puede estar en contacto con esa persona para
conocerla.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN NORMAL O GAUSSIANA
• ¿Cómo pensar en una distribución normal en este
ejemplo?
• En el tiempo, usted tiene un horario y por lo tanto, altas
probabilidades de encontrar a esa persona en ese horario en
algún específico lugar (suponiendo que usted no estará en el
mismo horario que esa persona). Por lo tanto, usted debe
buscar un momento del día en el que esa persona tenga alta
probabilidad de estar libre (en promedio cuándo está libre).
• En el espacio, usted debe poder utilizar un lugar en donde a
esa persona le guste estar (en promedio a donde va).
• Teniendo estos dos resultados, al menos ya podría hacer un
contacto y por lo tanto un acercamiento.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN NORMAL O GAUSSIANA
• ¿Cómo pensar en una distribución normal en este ejemplo?

P(t) P(x)
0.7 - 0.7 -

3:00 pm 4:00 pm 5:00 pm t E3T Cafetería LP x


Estas gráficas son independientes pero pueden estar una contenida en la
otra solo en un intervalo de tiempo y un espacio específico.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN NORMAL O GAUSSIANA
• La media y la varianza, pueden ser modeladas por
la función de densidad de probabilidad normal. El
valor de E 𝑋 = 𝜇 determina el centro de la
función de densidad de probabilidad y el valor de
V 𝑋 = 𝜎 2 determina el ancho.
Función de densidad de
probabilidad normal para
valores seleccionados de
los parámetros 𝜇 y 𝜎 2 .
Tomado de Montgomery
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN NORMAL O GAUSSIANA
• Definición.
Una variable aleatoria continua 𝑋 con función de densidad de
probabilidad
1 𝑥−𝜇 2

𝑓 𝑥 = 𝑒 2𝜎2 −∞<𝑥 <∞
2𝜋𝜎
Es una variable aleatoria normal con parámetros −∞ < 𝜇 <
∞ y 𝜎 > 0. Y para recordar:
𝐸 𝑋 =𝜇 y 𝑉 𝑋 = 𝜎2
Además la notación N(μ, 𝜎 2 ) también es usada para denotar
esta distribución.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN NORMAL O GAUSSIANA
• Ejemplo. Asuma que la medida de la corriente de un
pedazo de alambre sigue una distribución normal con una
media de 10 𝑚𝐴 y una varianza de 4 𝑚𝐴2 . ¿Cuál es la
probabilidad de que la medida exceda 13 𝑚𝐴?
En este caso, 𝑋 denota la corriente en mA. La probabilidad
que preguntan se puede representar por 𝑃 𝑋 > 13 .
Lamentablemente, este tipo de probabilidades se deben
calcular a partir de tablas o numéricamente.
𝑓(𝑥)

𝜇−𝜎 𝜇 𝜇+𝜎
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN NORMAL O GAUSSIANA
¿Qué se puede deducir de esta distribución?
• La función de densidad de probabilidad normal
decrece tanto como 𝑥 se aleja de 𝜇.
• La función de densidad de probabilidad normal crece
tanto como 𝑥 se acerque a 𝜇.
• Es una distribución simétrica.
• El ancho de la distribución se dice que es 6𝜎 (debido
al gran porcentaje que abarca de −3𝜎 a 3𝜎).
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN NORMAL O GAUSSIANA
• Ejemplo. Para encontrar la probabilidad de
𝑃 𝑋 > 13 como se muestra en la figura, se podría
apoyar en las siguientes tablas.
𝑃 𝜇 − 𝜎 < 𝑋 < 𝜇 + 𝜎 = 0.6827
𝑃 𝜇 − 2𝜎 < 𝑋 < 𝜇 + 2𝜎 = 0.9545
𝑃 𝜇 − 3𝜎 < 𝑋 < 𝜇 + 3𝜎 = 0.9973
Y 𝑃 𝑋 < 𝜇 = 𝑃 𝑋 > 𝜇 = 0.5
𝑓(𝑥)

8 10 12 13
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN NORMAL O GAUSSIANA
• Ejercicio.
• Desarrollar un método numérico en Matlab, que
encuentre la probabilidad dada una distribución
normal, en la que los valores de entrada sean la
media, la varianza y la probabilidad a calcular
(intervalo).
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN NORMAL ESTÁNDAR
• Definición. Una variable aleatoria con 𝜇 = 0 y
𝜎 2 = 1 es llamada una variable aleatoria
normal estándar y es denotada como 𝑍.
• La función de distribución acumulativa de una
variable aleatoria normal estándar es denotada
como
Φ 𝑧 = 𝑃(𝑍 ≤ 𝑧)
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN NORMAL ESTÁNDAR
• Haciendo una comparación entre la función de
probabilidad para la distribución normal estándar y la
distribución normal podemos encontrar lo siguiente.
1 𝑥2
𝑓 𝑥 = 𝑒− 2 −∞<𝑥 <∞
2𝜋
𝑓(𝑥)

.
−1 0 1
TRANSFORMACIONES DE
DISTRIBUCIONES DE PROBABILIDAD

• Debido a la dificultad de calcular la probabilidad de una


distribución normal, se utiliza cierta álgebra para hacer uso
de las tablas de probabilidad para una función de
distribución de probabilidad normal estándar. Esta
transformación implica que:
Si 𝑋 es una variable aleatoria normal con 𝐸 𝑋 = 𝜇 y 𝑉 𝑋 =
𝜎 2 , la variable aleatoria
𝑋−𝜇
𝑍=
𝜎
Es una variable aleatoria normal con 𝐸 𝑍 = 0 y 𝑉 𝑍 = 1.
Esto es, 𝑍 es una variable aleatoria normal estándar.
TRANSFORMACIONES DE
DISTRIBUCIONES DE PROBABILIDAD

• Para calcular la probabilidad, suponga que 𝑋 es una


variable aleatoria normal con media 𝜇 y varianza 𝜎 2 .
Entonces
𝑋−𝜇 𝑥−𝜇
𝑃 𝑋≤𝑥 =𝑃 ≤ = 𝑃(𝑍 ≤ 𝑧)
𝜎 𝜎
Donde 𝑍 es una variable aleatoria normal estándar, y
𝑥−𝜇
𝑧= es el z-valor obtenido por estandarización de
𝜎
𝑋.
Para obtener la probabilidad es necesario buscar valores
en tablas para probabilidad estándar.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN NORMAL O GAUSSIANA
• Ejemplo (ya estudiado). Asuma que la medida de la
corriente de un pedazo de alambre sigue una distribución
normal con una media de 10 𝑚𝐴 y una varianza de 4 𝑚𝐴2 .
¿Cuál es la probabilidad de que la medida exceda 13 𝑚𝐴?
Recordar que 𝑋 denota la corriente en mA. La probabilidad
que solicitan se representa por 𝑃 𝑋 > 13 . Ahora, digamos
𝑥−10
que 𝑧 = , la relación entre los valores de 𝑋 y los valores
2
transformados de 𝑍 corresponden a que X > 13 y 𝑍 > 1.5.
Así por tablas se observa que:
𝑃 𝑋 > 13 = 𝑃 𝑍 > 1.5 = 1 − 𝑃 𝑍 ≤ 1.5
= 1 − 0.93319 = 0.06681
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL
• Aproximación normal a las distribuciones
Binomial y de Poisson (Continuo)
Para muchos sistemas físicos, el modelo binomial es
apropiado para valores de 𝑛 extremadamente
grandes. A su vez, utilizar la aproximación normal
es más efectiva para calcular las probabilidades.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN BINOMIAL

En este caso, las áreas de cada barra son las probabilidad


binomial de 𝑥. Así, las barras se pueden aproximar por
áreas sobre una función de densidad normal.
APROXIMACIÓN NORMAL A
DISTRIBUCIÓN BINOMIAL

• Definición
Si 𝑋 es una variable aleatoria binomial,
𝑋 − 𝑛𝑝
𝑍=
𝑛𝑝(1 − 𝑝)
Es aproximadamente una variable normal estándar. La
aproximación es buena para
𝑛𝑝 > 5 n 1−𝑝 >5
Para una variable binomial 𝑋, E 𝑋 = 𝑛𝑝 y V 𝑋 = 𝑛𝑝(1 −
𝑝), esto es la estandarización de la variable aleatoria 𝑋. La
aproximación es buena cuando n es grande relativa p.
APROXIMACIÓN NORMAL A
DISTRIBUCIÓN BINOMIAL

• Si 𝑛𝑝 o (1 − 𝑛𝑝) es pequeño, la distribución


binomial es bastante abultada y la distribución
normal no es una buena aproximación.
Sin embargo, un factor de corrección puede ser
usado para mejorar esta aproximación. Este factor
es llamado una corrección de continuidad.
Así la distribución binomial no es simétrica si 𝑝 es
cercano a 0 o a 1.
APROXIMACIÓN NORMAL A
DISTRIBUCIÓN BINOMIAL
(APROXIMACIÓN NORMAL)

Cómo se puede observar en el ejemplo (Tomado de


Montgomery), 𝑝 es cercano a 0 o a 1 (n es más grande que p).
APROXIMACIÓN NORMAL A
DISTRIBUCIÓN BINOMIAL

Las condiciones para las distribuciones de probabilidad


hipergeométricas o binomiales deben satisfacer lo siguiente:
𝐷𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛 𝐷𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛 𝐷𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖ó𝑛
≈ ≈
ℎ𝑖𝑝𝑒𝑟𝑔𝑒𝑜𝑚é𝑡𝑟𝑖𝑐𝑎 𝑏𝑖𝑛𝑜𝑚𝑖𝑎𝑙 𝑛𝑜𝑟𝑚𝑎𝑙
𝑛 𝑛𝑝 > 5
< 0.1
𝑁 𝑛(1 − 𝑝) > 5
La distribución binomial es una aproximación a la distribución
hipergeométrica cuando 𝑛 , el tamaño de la muestra, es
pequeño relativo a 𝑁, el tamaño de la población desde el cual
la muestra es seleccionada.
APROXIMACIÓN NORMAL A
DISTRIBUCIÓN DE POISSON
(APROXIMACIÓN NORMAL)
• Definición
Si 𝑋 es una variable aleatoria de Poisson con
E 𝑋 = 𝜆 y V 𝑋 = 𝜆,
𝑋−𝜆
𝑍=
𝜆
Es aproximadamente una variable normal estándar.
La aproximación es buena para
𝜆>5
APROXIMACIÓN NORMAL A
DISTRIBUCIÓN DE POISSON

• Ejemplo
Asuma que el número de partículas de asbesto en un metro
cuadrado de tierra en una superficie, sigue una distribución de
Poisson con un valor medio de 1000. Si un metro cuadrado
de tierra es analizado, ¿Cuál es la probabilidad que menos de
950 partículas sean encontradas?
La probabilidad exacta se puede encontrar así:
950
𝑒 −1000 𝑥1000
𝑃 𝑋 ≤ 950 = ෍
𝑥!
𝑥=0
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN EXPONENCIAL
• Digamos que una variable aleatoria 𝑁 denota el número de
imperfectos en 𝑥 milímetros de una tabla de madera
prensada. Si el número de imperfectos es 𝜆 por milímetro,
𝑁 tiene una distribución de Poisson con media 𝜆𝑥 .
Asumiendo que la tabla es más grande que el valor 𝑥. Se
tiene:
𝑒 −𝜆𝑥 (𝜆𝑥)0
𝑃 𝑋>𝑥 =𝑃 𝑁=0 = = 𝑒 −𝜆𝑥
0!
• Por lo tanto,
𝐹 𝑋 = 𝑃 𝑋 ≤ 𝑥 = 1 − 𝑒 −𝜆𝑥 , 𝑥≥0
Es la función de distribución acumulativa de 𝑋.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN EXPONENCIAL
• Por derivación de 𝐹(𝑋), la función de densidad
de probabilidad de 𝑋 es calculada así:
𝑓 𝑥 = 𝑒 −𝜆𝑥 , 𝑥≥0
La derivación de la distribución de 𝑋 depende solo
en la asunción de que los imperfectos en la tabla
siguen un proceso de Poisson. Para cualquier
proceso de Poisson, el siguiente resultado general
aplica.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN EXPONENCIAL
• Definición
La variable aleatoria 𝑋 que iguala la distancia entre
conteos sucesivos de un proceso de Poisson con
media 𝜆 > 0 es una variable aleatoria
exponencial con parámetro 𝜆 . La función de
densidad de probabilidad de 𝑋 es:
𝑓 𝑥 = 𝜆𝑒 −𝜆𝑥 𝑝𝑎𝑟𝑎 0 ≤ 𝑥 ≤ ∞
Para cualquier valor de 𝜆 la distribución es bastante
sesgada.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN EXPONENCIAL
• Si la variable aleatoria 𝑋 tiene una distribución
con parámetro 𝜆,
1 2
1
𝜇=𝐸 𝑋 = 𝑦 𝜎 = 2
𝜆 𝜆
Es necesario tener mucho cuidado con que las
unidades sean consistentes en el cálculo de las
probabilidades, medias y varianzas que envuelven
estas variables aleatorias exponenciales.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN EXPONENCIAL
• Ejemplo:
En una compañía de redes de computadores, el ingreso o
acceso de los usuarios en el sistema puede ser modelado
como un proceso de Poisson con una media de 25 usuarios
ingresados por hora. ¿Cuál es la probabilidad que estos
usuarios NO hayan ingresado en un intervalo de 6 minutos?
𝑋: Tiempo en horas desde el inicio del intervalo hasta que
el primer usuario queda en línea.
𝑋 tiene una distribución exponencial con 𝝀 = 𝟐𝟓 accesos
por hora.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN EXPONENCIAL
• Ejemplo:
Entonces, la probabilidad requerida es el área bajo la curva de la
función de densidad de probabilidad (Figura 4-23 de
Montgomery). Por lo tanto:

𝑃 𝑋 > 0.1 = න 25𝑒 −25𝑥 𝑑𝑥 = 𝑒 −25(0.1) = 0.082
0.1

También se podría indicar el número de la media en minutos el


cual sería 0.417 accesos por minuto, y se podría calcular la
probabilidad que en un tiempo de 6 minutos no se conecte nadie.
Este tipo de ejercicios se pueden hacer cómo tarea.
. Tomado de
Montgomery
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN EXPONENCIAL
• Ahora, determine el intervalo tal que la probabilidad de no
tener accesos es 0.9.
𝑃 𝑋 > 𝑥 = 𝑒 −25(𝑥) = 0.9
Usted puede hallar 𝑥, aplicando el logaritmo natural en ambos
lados y:
−25 𝑥 = ln 0.9 ⇒ 𝑥 = 0.00421 ℎ𝑜𝑟𝑎𝑠 = 0.25 𝑚𝑖𝑛𝑢𝑡𝑜𝑠
Por lo tanto, la media para el próximo acceso será:
𝜇 = 1/25 = 0.04 ℎ𝑜𝑟𝑎𝑠 = 2.4 𝑚𝑖𝑛𝑢𝑡𝑜𝑠
Y la desviación estándar del tiempo hasta el próximo acceso es:
𝜎 = 1/25 = 0.04 ℎ𝑜𝑟𝑎𝑠 = 2.4 𝑚𝑖𝑛𝑢𝑡𝑜𝑠
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE ERLANG
Una variable aleatoria exponencial describe la
longitud hasta que el primer conteo es obtenido en
un Proceso de Poisson. Una generalización de la
distribución exponencial es encontrar la
longitud hasta que ocurran 𝒓 conteos en un
proceso de Poisson. La variable aleatoria que iguala
la longitud del intervalo hasta que ocurran 𝑟
conteos en un Proceso de Poisson tiene una
variable aleatoria Erlang.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE ERLANG
Ejemplo: Las fallas en las unidades centrales de procesos
(CPU) de un gran sistema de computadores son
frecuentemente modeladas como un proceso de Poisson.
Típicamente, las fallas no son causadas por componentes
desgastados, pero si por más fallas aleatorias de un gran
número de circuitos semiconductores en las unidades.
Asuma que las unidades que fallan son inmediatamente
reparadas y que la media del número de fallas por hora es
0.0001. Digamos que 𝑋 denota el tiempo hasta que cuatro
fallas ocurren en un sistema. Determine la probabilidad si 𝑋
supera las 40000 horas.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE ERLANG
Digamos que la variable aleatoria 𝑁 denota el número de fallas
en 40.000 horas de operación. El tiempo para que cuatro fallas
ocurran supera las 40.000 horas si y sólo si el número de fallas
en 40.000 horas es tres o menos. Por lo tanto:
𝑃 𝑋 > 40000 = 𝑃(𝑁 < 3)
La asunción que las fallas sigan un proceso de Poisson implica que
𝑁 tiene una distribución con:
𝐸 𝑁 = 40000 ∗ 0.0001 = 4 𝑓𝑎𝑙𝑙𝑎𝑠 𝑝𝑜𝑟 40000 ℎ𝑜𝑟𝑎𝑠
A su vez,
3
𝑒 −4 4𝑘
𝑃 𝑋 > 40000 = 𝑃 𝑁 ≤ 3 = ෍ = 0.433
𝑘!
𝑘=0
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE ERLANG
• Definición:
La variable aleatoria 𝑋 que iguala la longitud del
intervalo hasta que ocurran 𝑟 conteos en un
proceso de Poisson con media 𝜆 > 0 tiene una
variable aleatoria de Erlang con parámetros 𝜆 y 𝑟.
La función de densidad de probabilidad de 𝑋 es:

𝜆𝑟 𝑥 𝑟−1 𝑒 −𝜆𝑥
𝑓 𝑥 = para 𝑥 > 0 y 𝑟 = 1,2, …
(𝑟−1)!
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE ERLANG
Funciones de densidad
de probabilidad de
Erlang para valores
de 𝑟 y 𝜆 seleccionados.
Fuente: Montgomery.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE ERLANG
• Una aproximación al ejemplo de introducción para el
cómputo de la probabilidad solicitada es integrar la
función de densidad de probabilidad de 𝑋:

𝑃 𝑋 > 40.000 = න 𝑓 𝑥 𝑑𝑥
40.000

𝜆𝑟 𝑥 𝑟−1 𝑒 −𝜆𝑥
=න 𝑑𝑥
40.000 (𝑟 − 1)!
Dónde r = 4 y 𝜆 = 0.0001 . Se sugiere hacer
integración por partes (si se quiere resolver
analíticamente), o resolverlo por Matlab.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN DE ERLANG
• Una variable aleatoria de Erlang puede sugerirse
como la análoga continua de una variable aleatoria
binomial negativa, la cual puede ser expresada como la
suma de 𝑟 variables aleatorias geométricas. Así la
variable aleatoria de Erlang puede representarse
como la suma de 𝑟 variables aleatorias exponenciales.
• Media y varianza
• Si 𝑋 es una variable aleatoria de Erlang con
parámetros 𝑟 y 𝜆,
𝑟 2
𝑟
𝜇=𝐸 𝑋 = 𝑦 𝜎 =𝑉 𝑋 = 2
𝜆 𝜆
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN GAMMA
• La distribución de Erlang es un caso especial de la
distribución gamma. Si el parámetro 𝑟 de una variable
aleatoria de Erlang no es un entero, pero 𝑟 > 0, la
variable aleatoria tiene una distribución gamma. Sin
embargo, el factorial, no podría definirse tomando
definición anterior y por lo tanto, para definir este
factorial se define primero la función gamma.
• Definición: La función gamma es:

Γ 𝑟 = න 𝑥 𝑟−1 𝑒 −𝑥 𝑑𝑥 , 𝑝𝑎𝑟𝑎 𝑟 > 0
0
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN GAMMA
• Definición: La variable aleatoria 𝑋 con función de
densidad de probabilidad:
𝜆𝑟 𝑥 𝑟−1 𝑒 −𝜆𝑥
𝑓 𝑥 = , 𝑝𝑎𝑟𝑎 𝑥 > 0
Γ 𝑟
Tiene una variable aleatoria gamma con parámetros 𝜆 >
0 y 𝑟 > 0 . Si 𝑟 es entero, entonces 𝑋 tiene una
distribución de Erlang.
En la siguiente diapositiva se mostrarán bosquejos de la
representación de esta variable aleatoria.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN GAMMA
• Tomado de Montgomery.
Se puede mostrar que
f(x) satisface las propiedades
de función de probabilidad.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN GAMMA
• Definición: La variable aleatoria 𝑋 es una
variable aleatoria gamma con parámetros 𝜆 y 𝑟,
𝑟 2
𝑟
𝜇=𝐸 𝑋 = 𝑦 𝜎 =𝑉 𝑋 = 2
𝜆 𝜆
• A pesar que la distribución gamma no es tan
usada en modelado de sistemas físicos, uno de
sus casos especiales es muy útil para el caso del
modelado de los experimentos aleatorios y es
llamado distribución chi-cuadrado.
VARIABLES ALEATORIAS Y SUS
DISTRIBUCIONES
DISTRIBUCIÓN GAMMA
• La distribución chi-cuadrado, tiene valores específicos
1 3
de 𝜆 y 𝑟 , de la forma 𝜆 = 1 , 𝑟 = , 1, , 2, … Esta
2 2
distribución es usada fuertemente en intervalos de
estimación y pruebas de hipótesis.
𝑟 𝑥
1 𝑟−1 −2
𝑥 𝑒 1 3
𝑓 𝑥 = 2 , 𝑝𝑎𝑟𝑎 𝑥 > 0 𝑦 𝑟 = , 1, , 2, …
Γ 𝑟 2 2
Es de la misma forma interesante, que en esta distribución
estaría contenida también la distribución de Erlang.
GRACIAS