Está en la página 1de 11

FUNCIONES DE PROBABILIDAD

Guanoluisa Guanoluisa Wellington Santiago


wsguanoluisa@espe.edu.ec

Electrónica e Instrumentación, Quinto, Universidad de las Fuerzas Armadas ESPE-Extensión


Latacunga, Márquez de Maenza S/N Latacunga, Ecuador.

RESUMEN: Cuando una variable se representa en 1 DISTRIBUCION NORMAL.


forma gráfica es posible identificar una distribución de
probabilidad de esa variable en este caso 1.1 ANÁLISIS.
analizaremos las teóricas en el sentido que sus
funciones distribución de probabilidad o densidad de Una de las distribuciones más importantes en
probabilidad se deducen matemáticamente con base ciencia e ingeniería es la distribución normal, también
en ciertos criterios, pueden ser distribuciones llamada gaussiana o campana de Gauss.
discretas o continuas. Como discretas analizaremos la
distribución binomial y de poisson, como continuas Se dice que una variable aleatoria X sigue una
analizaremos las distribuciones: Normal, de Rayleigh,
distribución normal de parámetros 𝜇 y 𝜎 2 , y se escribe
de Cauchy, de Laplace, Chi-cuadrado, de Rice, de
Earlang y Gamma. Estas distribuciones han sido 𝑋~𝒩(𝜇, 𝜎 2 ), si su función densidad viene dada por:
ampliamente estudiadas lo que permite un excelente 1 𝑥−𝜇 2
1 [− ( ) ]
medio de ajustar el comportamiento de una variable.en 𝑓𝑋 (𝑥) = 𝑒 2 𝜎 (𝟑. 𝟏)
cada caso se expondrá sus medias y varianzas. √2𝜋 𝜎
donde 𝜇 y 𝜎 2 son constantes que representan la
media y la varianza, es decir:
PALABRAS CLAVE: Función , Densidad, Distribución 𝐸(𝑋) = 𝜇 (𝟑. 𝟐)
, media, varianza.
𝑉𝑎𝑟(𝑋) = 𝜎 2 (𝟑. 𝟑)

La media de una variable aleatoria distribuida


I. FUNCIONES DE PROBABILIDAD. normalmente se encuentra definida por:

1 ∞ 1 𝑥−𝜇 2
[− ( ) ]
𝐸(𝑋) = ∫ 𝑥𝑒 2 𝜎 𝑑𝑥
√2𝜋 𝜎 −∞
I.I INTRODUCCIÓN
Se pretende demostrar que 𝐸(𝑋) = 𝜇 . Suponga que a
Es un modelo teórico que describe la forma en que la ecuación anterior se suma y se resta
varían los resultados de un experimento aleatorio, es
𝜇 ∞ (𝑥−𝜇)2
decir, nos da todas las probabilidades de todos los [− ]
2𝜎 2 𝑑𝑥
∫ 𝑒
posibles resultados que podrían obtenerse cuando se √2𝜋𝜎 −∞
realiza un experimento aleatorio. La elección de una
La identidad se mantiene, pero después de
distribución de probabilidad para representar un
reacomodar términos se tiene:
fenómeno de interés práctico debe estar motivada
tanto por la compresión de la naturaleza del fenómeno 1 ∞ 1 𝑥−𝜇 2
[− ( ) ]
𝐸(𝑋) = ∫ (𝑥 − 𝜇)𝑒 2 𝜎 𝑑𝑥
en si, como por la posible verificación de la distribución √2𝜋 𝜎 −∞
seleccionada a través de la evidencia empírica. Las
𝜇 ∞ (𝑥−𝜇)2
distribuciones de probabilidad pueden ser discretas o [− ]
+ ∫ 𝑒 2𝜎 2 𝑑𝑥
continuas. √2𝜋𝜎 −∞

1 ∞ 1 𝑥−𝜇 2
[− ( ) ]
𝐸(𝑋) = ∫ (𝑥 − 𝜇)𝑒 2 𝜎 𝑑𝑥 + 𝜇
√2𝜋 𝜎 −∞
II. TIPOS DE DISTRIBUCIONES DE Dado que la segunda integral es uno. Al efectuar un
PROBABILIDAD. cambio de variable donde:
Los tipos de distribuciones van a depender de la forma 𝑥−𝜇
𝑦= ; 𝑥 = 𝜎𝑦 + 𝜇 ; 𝑑𝑥 = 𝜎𝑑𝑦
de la variable aleatoria y estas pueden ser continuas o 𝜎
discretas. 𝜎 ∞ 𝑦2
(− )
𝐸(𝑋) = ∫ 𝑦𝑒 2 𝑑𝑦 +𝜇
√2𝜋 −∞

1
𝜎 𝑦2 ∞
(− )
𝐸(𝑋) = 𝑒 2 | 1 +𝜇 =𝜇
√2𝜋 −∞

Se pretende demostrar que 𝑉𝑎𝑟(𝑋) = 𝜎 2

𝑉𝑎𝑟(𝑋) = 𝐸[(𝑥 − 𝜇)2 ]



1 1 𝑥−𝜇 2
[− ( ) ]
𝑉𝑎𝑟(𝑋) = ∫ (𝑥 − 𝜇)2 𝑒 2 𝜎 𝑑𝑥
−∞ √2𝜋 𝜎

Al efectuar un cambio de variable donde:


𝑥−𝜇
𝑦= ; 𝑥 = 𝜎𝑦 + 𝜇 ; 𝑑𝑥 = 𝜎𝑑𝑦
𝜎


Fig. 2 Funciónes de distribución normal
1 𝑦2
𝑉𝑎𝑟(𝑋) = ∫ 𝜎(𝜎𝑦) 2
𝑒 − 2 𝑑𝑦
−∞ √2𝜋 𝜎

1.3 EJERCICIO.
1 𝑦2
𝑉𝑎𝑟(𝑋) = 𝜎 2 ∫ 𝑦 2 𝑒 − 2 𝑑𝑦
−∞ √2𝜋 S i 𝑿 e s u n a va r i a b l e a l e a t o r i a d e u n a

d i s t r i b u c i ó n 𝑵(µ, 𝝈), h a l l a r :
1 𝑦2
𝑉𝑎𝑟(𝑋) = 𝜎 2 ∫ 𝑦 (𝑦𝑒 − 2 ) 𝑑𝑦 𝒑(µ − 𝟑𝝈 ≤ 𝑿 ≤ µ + 𝟑𝝈)
−∞ √2𝜋
𝑦2 ∞ ∞ 𝑝(𝜇 − 3𝜎 ≤ 𝑋 ≤ 𝜇 + 3𝜎) =
1 1 −𝑦2
𝑉𝑎𝑟(𝑋) = 𝜎 2 [ 𝑦 (−𝑒 − 2 )| 1 − ∫ 𝑒 2 𝑑𝑦]
√2𝜋 −∞ −∞ √2𝜋 (𝜇 − 3𝜎) − 𝜇 (𝜇 + 3𝜎) − 𝜇
𝑝( ≤𝑧≤ )=

𝜎 𝜎
1 𝑦2
𝑉𝑎𝑟(𝑋) = 𝜎 2 [∫ 𝑒 − 2 𝑑𝑦]
−∞ √2𝜋 𝑝(−3 ≤ 𝑧 ≤ 3) = 𝑝(𝑧 ≤ 3) − 𝑝(𝑧 ≤ −3) =

𝑉𝑎𝑟(𝑋) = 𝜎 2 Utilizando la tabla de la distribución normal.

La función distribución de probabilidad acumulativa se = 0.9987 − 1 + 0.9987 = 0.9974


obtiene a partir de: Es decir, que a p r o xi m a d a m e n t e
𝑥 e l 9 9 . 7 4 % d e l o s va l o r e s d e X e s t á n a
𝐹𝑋 (𝑥) = ∫ 𝑓𝑋 (𝑡)𝑑𝑡 m e n o s d e t r e s d e s vi a c i o n e s t í p i c a s d e l a
−∞
media.
Entonces:
1 𝑥 1 𝑡−𝜇 2
[− ( ) ]
𝑃(𝑋 ≤ 𝑥) = 𝐹𝑋 (𝑥) = ∫ 𝑒 2 𝜎 𝑑𝑡 (𝟑. 𝟓)
√2𝜋 𝜎 −∞
2 DISTRIBUCION RAYLEIGH.

2.1 ANÁLISIS
1.2 GRÁFICAS DE LA DISTRIBUCION NORMAL
Describe por ejemplo, la amplitud del ruido en un
receptor con modulación de amplitud cuando no hay
señal.

Se dice que una variable aleatoria X tiene una


distribución de Rayleigh y se escribe 𝑋~𝑅(𝜃) si su
función densidad de probabilidad está dada por:

𝑓𝑋 (𝑥)
𝑥 − 𝑥22
= {𝜃 2 𝑒 2𝜃 𝑝𝑎𝑟𝑎 𝑥 ≥ 0 𝑦 𝜃 > 0 (𝟒. 𝟏)
0 𝑜𝑡𝑟𝑜 𝑣𝑎𝑙𝑜𝑟
Su media y varianza vienen dadas por:
𝜋 1/2 𝜋
𝐸(𝑋) = ( 𝜃 2 ) = √ 𝜃 2 (𝟒. 𝟐)
2 2
Fig. 1 Funciónes de densidad normal

2
4−𝜋 2
𝑉𝑎𝑟(𝑋) = ( )𝜃 (𝟒. 𝟑)
2
La función acumulada, o la función de distribución, se
da por:
𝑥
𝐹𝑋 (𝑥) = ∫ 𝑓𝑥 (𝑡)𝑑𝑡
0

𝑡2
1 𝑥 − 2
𝐹𝑋 (𝑥) = 2 ∫ 𝑡𝑒 2𝜃 𝑑𝑡
𝜃 0

Efectuando un cambio de variable donde:

𝑢 = 𝑡 2 ; 𝑑𝑢 = 2𝑡𝑑𝑡
𝑥 − 𝑢
1 2
𝐹𝑋 (𝑥) = 2 ∫ 𝑒 2𝜃 𝑑𝑢
2𝜃 0 Fig. 4 Funciónes de distribución de Rayleigh
2
1 −𝑡2 𝑥
𝐹𝑋 (𝑥) = 2 [−2𝜃 𝑒 2𝜃 ] 1
2
2.3 EJERCICIO.
2𝜃 0
Se dice que una variable aleatoria tiene una
2 distribución de Rayleigh si su densidad de probabilidad
2𝜃 2 −𝑡2 𝑥
𝐹𝑋 (𝑥) = 2 [−𝑒 2𝜃 ] 1 es:
2𝜃 0

𝑥 − 𝑥22
𝑓𝑋 (𝑥) = { 𝜃 2 𝑒 𝑝𝑎𝑟𝑎 𝑥 ≥ 0
2 2𝜃
−𝑥2
𝐹𝑋 (𝑥) = [1 − 𝑒 2𝜃 ] 0 𝑝𝑎𝑟𝑎 𝑥 < 0

donde 𝜃 es un número real.


L a función acumulativa es:
La amplitud de una señal de radar que es
𝑥2 retrodifundida desde la superficie del mar, sigue una

𝑓𝑋 (𝑥) = {1 − 𝑒 2𝜃2 𝜃≥0 (𝟒. 𝟒) distribución de Rayleigh. Determinar 𝜃 si las medidas
0 0≤𝜃 muestran que la amplitud 𝑥 excede a 𝑥0 el 1% de las
veces, siendo 𝑥02 = 𝑙𝑛 (0.01).

2.2 GRÁFICAS DE LA DISTRIBUCION 𝑃(𝑋 ≥ 𝑥0 ) = 0.01


RAYLEIGH.
𝑃(𝑋 ≥ 𝑥0 ) = 1 − 𝑃(𝑋 ≤ 𝑥0 )

Buscamos entonces que:

𝑃(𝑋 ≤ 𝑥0 ) = 0.99

como:

𝑥
𝑡 − 𝑡 22
𝐹(𝑡) = 𝑃(𝑋 ≤ 𝑡) = ∫ 𝑒 2𝜃 𝑑𝑡
0 𝜃2

entonces debemos tener

𝑥
𝑡 − 𝑡 22
∫ 𝑒 2𝜃 𝑑𝑡 = 0.99
0 𝜃2

Fig. 3 Funciónes de densidad de Rayleigh Utilizando la función distribución acumulativa:

2
−𝑥2
1− 𝑒 2𝜃 = 0.99
2
−𝑥
𝑒 2𝜃2 = 0.01

3
1 𝑥2
− = ln(0.01)
2 𝜃2

Entonces sustituyendo el dato inicial de 𝑥02 , tenemos:

1
=1
2𝜃 2

y finalmente el resultado es:

√2
𝜃=
2

3 DISTRIBUCIÓN CAUCHY.

3.1 ANÁLISIS
Fig. 6 Funciónes de distribución de Cauchy
Se ha utilizado para modelar rendimientos
de activos financieros.
3.3 EJERCICIO.
Se dice que una variable aleatoria X tiene una
distribución de Cauchy y se escribe 𝑋~𝐶(𝛾, 𝑥0 ) si Un ejercicio de orientación para una persona ciega
su función densidad de probabilidad está dada consiste en hacerla andar en línea recta entre dos
por: paredes paralelas que distan 1 kilómetro. El grado de
1 𝛾 desorientación D es la distancia entre el lugar mas
𝑓𝑋 (𝑥) = [ ] − ∞ < 𝑥 < ∞, 𝛾 > 0 cercano desde el punto de partida a la segunda pared
𝜋 𝛾 2 + (𝑥 − 𝑥0 )2
y el punto en el que la persona ciega alcanzó la
(𝟓. 𝟏) segunda pared suponiendo que el ángulo 𝜃 que
forma la primera pared y la dirección escogida por esa
donde 𝑥0 es el parámetro de corrimiento que 𝜋 𝜋
especifica la ubicación del pico de la distribución, persona sigue una distribución uniforme en – y .
2 2
y 𝛾 es el parámetro de escala que especifica el Obtenga la distribución del grado de desorientación
ancho medio al máximo medio.
𝐷 = tan(𝜃)
En general la distribución de Cauchy no 1 𝜋 𝜋
tiene valor esperado ni varianza. 𝑓(𝜃) = 𝑝𝑎𝑟𝑎 𝜃 ∈ (− , )
𝜃 2 2
𝐹𝐷 (𝑑) = 𝑃(𝐷 ≤ 𝑑) = 𝑃(𝑡𝑎𝑛(𝜃) < 𝑑)
La función de distribución acumulativa es: = 𝑃(𝜃 ≤ 𝑎𝑟𝑐𝑡𝑎𝑛(𝑑))
𝜋
1 𝑥 − 𝑥0 1 arctan(𝑑) +
𝐹𝑋 (𝑥) = arctan ( )+ (𝟓. 𝟐) = 2
𝜋 𝛾 2 𝜋
con lo cual la funcion de densidad es:

3.2 GRÁFICAS DE LA DISTRIBUCION DE 1 1


𝑓𝐷 (𝑑) =
CAUCHY. 𝜋 1 + 𝑑2
y se trata de una distribucion Cauchy de
parametros 1y 0

4 DISTRIBUCIÓN BINOMIAL O DE
BERNOULLY.

4.1 ANÁLISIS

Es una distribución de probabilidad de variable


discreta que se ajusta a experimentos que deben
cumplir con cuatro propiedades esenciales:

a. En el experimento existen n pruebas.


b. Para la variable en estudio existe una
Fig. 5 Funciónes de densidad de Cauchy probabilidad de ocurrencia en éxito llamada 𝑝
una probabilidad de fracaso llamada 1 − 𝑝

4
c. Las n pruebas del experimento son
independientes.
donde:
d. Como resultado del experimento interesa la 𝑛
ocurrencia de x casos del total de 𝑛 casos. 𝑛!
𝐸[𝑋(𝑋 − 1)] = ∑ 𝑥(𝑥 − 1) 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥
(𝑛 − 𝑥)! 𝑥!
La función densidad binomial es la siguiente: 𝑥=0

𝐸[𝑋(𝑋 − 1)] = 𝑛(𝑛 − 1)𝑝2


𝑓𝑋 (𝑥)
𝑛! entonces:
𝑝 𝑥 (1 − 𝑝)𝑛−𝑥 𝑥 = 0, 1, 2, 3
={ (𝑛 − 𝑥)! 𝑥!
0 𝑝𝑎𝑟𝑎 𝑐𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑜𝑡𝑟𝑜 𝑣𝑎𝑙𝑜𝑟 0 ≤ 𝑝 ≤ 1, 𝑝𝑎𝑟𝑎𝑛 𝑒𝑛𝑡𝑒𝑟𝑜 𝐸(𝑋 2 ) = 𝑛(𝑛 − 1)𝑝2 + 𝑛𝑝

De esta manera la varianza de una variable


(𝟔. 𝟏)
aleatoria binomial es:
o también :
𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 2 ) − 𝜇2
𝑛
𝑛!
𝑓𝑋 (𝑥) = ∑ 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥 𝛿( 𝑥 − 𝑥0 ) 𝑉𝑎𝑟(𝑋) = 𝑛(𝑛 − 1)𝑝2 + 𝑛𝑝 − 𝑛2 𝑝2
(𝑛 − 𝑥)! 𝑥!
𝑥=0
𝑉𝑎𝑟(𝑋) = 𝑛𝑝[(𝑛 − 1)𝑝 + 1 − 𝑛𝑝 ]

𝑉𝑎𝑟(𝑋) = 𝑛𝑝(1 − 𝑝) (𝟔. 𝟑)


El valor esperado viene dado por:
La función acumulativa se encuentra
𝑛
𝑛! representada por:
𝐸(𝑋) = ∑ 𝑥 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥
(𝑛 − 𝑥)! 𝑥! 𝑛
𝑥=0 𝑛!
𝐹𝑋 (𝑥) = ∑ 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥 𝑢( 𝑥 − 𝑥0 )
𝑛 (𝑛 − 𝑥)! 𝑥!
𝑛! 𝑥=0
𝐸(𝑋) = ∑ 𝑥 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥
(𝑛 − 𝑥)! 𝑥! (𝟔. 𝟒)
𝑥=1
𝑛
𝑛!
𝐸(𝑋) = ∑ 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥
(𝑛 − 𝑥)! (𝑥 − 1)! 4.2 GRÁFICAS DE LA DISTRIBUCIÓN BINOMIAL
𝑥=1

Factorizando n y p se tiene
𝑛
(𝑛 − 1)!
𝐸(𝑋) = 𝑛𝑝 ∑ 𝑝 𝑥−1 (1 − 𝑝)𝑛−𝑥
(𝑛 − 𝑥)! (𝑥 − 1)!
𝑥=1

Si 𝑦 = 𝑥 − 1 y 𝑚 = 𝑛 − 1 , entonces:
𝑛
𝑚!
𝐸(𝑋) = 𝑛𝑝 ∑ 𝑝 𝑦 (1 − 𝑝)𝑚−𝑥
(𝑛 − 𝑦)! (𝑥 − 1)!
𝑦=0

Pero:
𝑛
𝑚!
∑ 𝑝 𝑦 (1 − 𝑝)𝑚−𝑥 = 1
(𝑛 − 𝑦)! (𝑥 − 1)!
𝑦=0

Entonces:
Fig. 7 Funciónes de densidad Binomial
𝐸(𝑋) = 𝜇 = 𝑛𝑝 (𝟔. 𝟐)

Para obtener la varianza se necesita el segundo


momento alrededor de cero:
𝑛
𝑛!
𝐸(𝑋 2 ) = ∑ 𝑥 2 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥
(𝑛 − 𝑥)! 𝑥!
𝑥=0

𝑥 2 se puede escribir como:

𝑥 2 = 𝑥(𝑥 − 1) + 𝑥

De esta manera se tiene:

𝐸(𝑋 2 ) = 𝐸[𝑋(𝑋 − 1)] + 𝐸(𝑋)

5
Fig. 8 Funciónes de distribución Binomial Se dice que una variable aleatoria X de tipo continuo
tiene distribución de Laplace de parámetros 𝑏 y 𝜇 si
4.3 EJERCICIO. su función de densidad es:
Un fabricante de compresores indica que sus
productos tienen una probabilidad de falla de 0.1. Si 1 (−|𝑥−𝜇|)
𝑓𝑋 (𝑥) = 𝑒 𝑏 (𝟕. 𝟏)
compra diez de ellos y los somete a prueba. 2𝑏

a. ¿Cuál es el número esperado de fallas? o también:

b. ¿Cuál es la desviación esperada de ese 𝜇−𝑥


1 𝑒 (− 𝑏 ) 𝑠𝑖 𝑥 < 𝜇
número ?. 𝑓𝑋 (𝑥) = {
2𝑏 (−𝑥−𝜇 )
𝑒 𝑏 𝑠𝑖 𝑥 ≥ 𝜇
c. ¿Cuál es la probabilidad de que:

 Ninguno falle? Siendo 𝜇 un parámetro de localización y 𝑏 > 0


un parámetro de escala.
 Dos o más fallen?
a. y se denota 𝑋 ∼ 𝐿(𝜇, 𝑏).
𝑢 = 𝑛 ∗ 𝑝 = 10(0.1) = 1 Su media y su varianza son:
(𝑠𝑒 𝑒𝑠𝑝𝑒𝑟𝑎 𝑞𝑢𝑒 𝑓𝑎𝑙𝑙𝑒 𝑢𝑛 𝑐𝑜𝑚𝑝𝑟𝑒𝑠𝑜𝑟)
𝐸(𝑋) = 𝜇 (𝟕. 𝟐)
b.
𝑉𝑎𝑟(𝑋) = 2𝑏 2 (𝟕. 𝟑)
𝜎 2 = 𝑛 ∗ 𝑝 ∗ (1 − 𝑝)
La integral de la densidad de Laplace se obtiene con
𝜎 2 = 10(0.1)(0.9)
facilidad gracias al uso del valor absoluto. Su función
𝜎 = 0.9487 de distribución acumulativa es:

c. ∞
𝐹𝑋 (𝑥) = ∫ 𝑓𝑋 (𝑡)𝑑𝑡
10! −∞
𝑃(𝑥 = 0) = ∗ 0.10 ∗ 0.910−0
0! ∗ (10 − 0)! entonces:
= 0.910 = 0.349
1 (−𝜇−𝑥)
𝐿𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑛𝑖𝑛𝑔𝑢𝑛𝑜 𝑓𝑎𝑙𝑙𝑒 𝑒𝑠 𝑑𝑒: 0.349 𝑒 𝑏 𝑠𝑖 𝑥 < 𝜇
𝐹𝑋 (𝑥) = { 2 (𝟕. 𝟒)
𝑃(𝑋 ≥ 2) = 1 − 𝑃(𝑥 ≤ 1) 1 (−𝑥−𝜇)
1− 𝑒 𝑏 𝑠𝑖 𝑥 ≥ 𝜇
2
= 1 − [𝑃(𝑥 = 0) + 𝑃(𝑥 = 1)]

𝑃(𝑥 = 0) = 0.349
10! 5.2 GRÁFICAS DE LA DISTRIBUCIÓN DE
𝑃(𝑥 = 1) = ∗ 0.11 ∗ 0.910−1 LAPLACE
1! ∗ (10 − 1)!
𝑃(𝑥 = 1) = 10 ∗ 0.1 ∗ 0.99 = 0.3874

𝑃(𝑥 ≥ 2) = 1 − 0.349 − 0.1874 = 0.2636

𝐿𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑑𝑜𝑠 𝑜 𝑚á𝑠 𝑓𝑎𝑙𝑙𝑒 𝑒𝑠 𝑑𝑒:

0.2636

5 DISTRIBUCIÓN DE LAPLACE.

5.1 ANÁLISIS

Es también conocida como distribución doble


exponencial puesto que puede ser considerada como
la relación las densidades de dos distribuciones
exponenciales adyacentes. La distribución de Laplace
Fig. 9 Funciónes de densidad de Laplace
resulta de la diferencia de dos variables
exponenciales aleatorias, independientes e
idénticamente distribuidas.

6
6.2 GRÁFICAS DE LA DISTRIBUCIÓN DE
POISSON

Fig. 10 Funciónes de distribución de Laplace

Fig. 11 Funciónes de densidad de Poisson

6 DISTRIBUCIÓN DE POISSON.

6.1 ANÁLISIS

Es muy útil en la que la variable aleatoria representa


el número de eventos independientes que ocurren a
una velocidad contante. La distribución de Poisson es
el principal modelo de probabilidad empleado para
analizar problemas de línea de espera.

En casos en que el valor de 𝑝 sea pequeño y el valor


de 𝑛 sea muy grande, la distribución binomial se
puede aproximar a la de Poisson . La aproximación es
mejor cuando el valor de 𝑛 ∗ 𝑝 es menor que 5.

Sea 𝑋 una variable aleatoria que representa el


número de eventos aleatorios independientes que
ocurren a una rapidez constantes sobre el tiempo o el Fig. 12 Funciónes de distribución de Poisson
espacio. Se dice entonces que la variable aleatoria 𝑋
tiene una distribución de Poisson con función 6.3 EJERCICIO.
densidad de probabilidad.
Una compania framaceutica afirma con una
∞ probabilidad de 0.005 que un paciente sifrira efectos
𝜆𝑘
𝑓𝑋 (𝑥) = 𝑒 −𝜆 ∑ 𝛿(𝑥 − 𝑘) (𝟖. 𝟏) secundarios con un nuevo medicamento que se ha
𝑘! sacadoi ala mercado. Si 2000 personas compran el
𝑘=0
medicamento, ¿Cuál es la probanbilidad :
Su media y su varianza son: a. Ocho sufran efectos secundarios?
b. Mas de seis sufran efectos secundarios?
𝐸(𝑋) = 𝜆 (𝟖. 𝟐) a.

𝑉𝑎𝑟(𝑋) = 𝜆 (𝟖. 𝟑) 𝑥=8 𝑝 = 0.005 𝑛 = 2000 𝜆 = 𝑛 ∗ 𝑝


= 2000(0.005) = 10
La función acumulativa se encuentra representada
𝑒 −10
por: 𝑃(𝑥 = 8) = 𝑓(8) = 108 ∗ = 0.1126
8!

𝜆𝑘
𝐹𝑋 (𝑥) = 𝑒 −𝜆 ∑ 𝑢(𝑥 − 𝑘) (𝟖. 𝟒) 𝐿𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑜𝑐ℎ𝑜 𝑝𝑒𝑟𝑠𝑜𝑛𝑎𝑠 𝑠𝑢𝑓𝑟𝑎𝑛 𝑒𝑓𝑒𝑐𝑡𝑜𝑠
𝑘! 𝑠𝑒𝑐𝑢𝑛𝑑𝑎𝑟𝑖𝑜𝑠 𝑒𝑠 𝑑𝑒 0.1126
𝑘=0

b.
𝑥>6 𝑝 = 0.005 𝑛 = 2000 𝜆 = 𝑛 ∗ 𝑝
= 2000(0.005) = 10

7
𝑃(𝑥 > 6) = 1 − 𝑃(𝑥 ≤ 6) = 1 − 0.13 = 0.87
𝑃(𝑥 ≤ 6) = 𝑃(6,10) = 0.3 (𝑝𝑜𝑟 𝑢𝑠𝑜 𝑑𝑒 𝑡𝑎𝑏𝑙𝑎)

𝐿𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑚𝑎𝑠 𝑑𝑒 𝑠𝑒𝑖𝑠 𝑝𝑒𝑟𝑠𝑜𝑛𝑎𝑠 𝑠𝑢𝑓𝑟𝑎𝑛


𝑒𝑓𝑒𝑐𝑡𝑜𝑠 𝑠𝑒𝑐𝑢𝑛𝑑𝑎𝑟𝑖𝑜𝑠 𝑒𝑠 𝑑𝑒 0.87

7 DISTRIBUCIÓN CHI-CUADRADO.

7.1 ANÁLISIS

La distribución chi cuadrado (𝑋 2 ) llamada también de


Pearson o ji cuadrada , es una distribución de probabilidad
continua con un parámetro 𝑘 que representa los grados de
libertad de la variable aleatoria.

Fig. 13 Funciónes de densidad de Chi-cuadrado


𝑋 = 𝑍12 + 𝑍22 + ⋯ + 𝑍𝑘2

Donde 𝑍𝑖 son variables aleatorias normales


independientes de media cero y varianza uno. El que
la variable aleatoria 𝑋 tenga ésta distribución se
representa habitualmente así:

𝑋~𝑋𝑘2

Su función densidad es:

1 𝑘
−1 −
𝑥
𝑓𝑋 (𝑥) = 𝑘 𝑥 2 𝑒 2 ; 𝑝𝑎𝑟𝑎 𝑥 ≥ 0
22 Γ(𝑘/2)

donde Γ es la función gamma

El valor esperado y la varianza de una variable aleatoria 𝑋


con distribución 𝑋 2 son: Fig. 14 Funciónes de distribución de Chi-cuadrado

𝐸(𝑥) = 𝑘
7.3 EJERCICIO.
𝑉𝑎𝑟(𝑋) = 2𝑘 El espesor de un semiconductor se controla mediante
la variación estándar no mayor a s=0.60 mm. Para
La función de distribución de una distribución chi- mantener controlado el proceso se toman muestras
cuadrado se obtiene mediante la integral de la función aleatoriamente de tamaño de 20 unidades, y se
de densidad. considera que el sistema está fuera de control cuando
𝑥 la probabilidad de que s2 tome valor mayor o igual al
𝐹𝑋 (𝑥) = ∫ 𝑓𝑋 (𝑡)𝑑𝑡 valor de la muestra observado es que es 0.01. Que se
0
puede concluir si s=0.84mm?

Llegando al siguiente resultado


Existe fuera de control si (n  1)s 2 /  2 con n=20 y
𝑥
𝐹𝑋 (𝑥) = ∫ 𝑘
1
𝑥
𝑘
−1 −
𝑡
2 𝑒 2 𝑑𝑡 s=0.60, excede  02.01,19  36.191
0 22 Γ(𝑘/2)

(n  1)s 2 19 * 0.84 2
que como se puede observar no es nada Entonces,   37.24
manejable, trabajaremos con tablas. 2 0.60 2
Por tanto, el sistema está fuera de control
7.2 GRÁFICAS DE LA DISTRIBUCIÓN DE CHI-
CUADRADO

8 DISTRIBUCIÓN RICE.

8
8.1 ANÁLISIS Es otra distribución de gran uso, entre los muchos
usos de esta distribución se tiene: suponga que una
Función densidad de probabilidad de la función de pieza metálica se encuentra sometida a cierta fuerza,
Rice para 𝑎 > 0 y 𝑏 > 0:’ de manera que se romperá después de aplicar un
número específico de ciclos de fuerza. Si los ciclos
𝑥 −(𝑎2+𝑥 2 ) 𝑎𝑥
𝑓𝑥 (𝑥) = 2 𝑒 2𝑏2 𝐼0 ( 2 ) 𝑢(𝑥) ocurren de manera independiente y a unja frecuencia
𝑏 𝑏 promedio, entonces el tiempo que debe transcurrir
antes de que el material se rompa es una variable
Valor medio: aleatoria que cumple con la distribución gamma.
𝜋 2 𝑘2 𝑘2 𝑘2 𝑘2
𝑋̅ = 𝑏√ 𝑒 −𝑘 /4 [(1 + ) 𝐼0 ( ) + 𝐼1 ( )] Se dice que una variable aleatoria 𝑋 tiene una
2 2 4 2 4
distribución gamma si su función densidad de
probabilidad está dada por:

Varianza: 1 𝑥
(− )
𝑉𝑎𝑟(𝑥) = 𝑏 2 (2 + 𝑘 2 ) − (𝑋̅)2 𝑥 𝛼−1 𝑒 𝜃 𝑥 > 0 , 𝛼, 𝜃 > 0
𝑓𝑋 (𝑥) = {Γ(𝛼)𝜃 𝛼
𝑜 𝑜𝑡𝑜 𝑣𝑎𝑙𝑜𝑟
Función acumulativa:
𝑎 𝑥 en donde Γ(𝛼) es la función gama.
𝐹𝑥 (𝑥) = [1 − 𝑄 ( , )] 𝑢(𝑥)
𝑏 𝑏
El valor medio y la varianza se encuentran dado por:

𝐸(𝑋) = 𝛼𝜃
8.2 GRÁFICAS DE LA DISTRIBUCIÓN RICE
𝑉𝑎𝑟 (𝑋) = 𝛼𝜃 2

La función distribución acumulativa se determina por la


siguiente expresión:
𝑥
1
𝐹𝑋 (𝑥) = ∫ 𝑡 𝛼−1 𝑒 (−𝑡/𝜃) 𝑑𝑡 , 𝑥 > 0
Γ(𝛼)𝜃 𝛼 0
Se tabulan muchas versiones de la ecuación a
anterior. Por ejemplo, si se efectua el cambio de
variable 𝑢 = 𝑡/𝜃 de manera tal que 𝑡 = 𝜃𝑢 y 𝑑𝑡 = 𝜃𝑑𝑢,
entonces la ecuación anterior toma la forma:

𝑥/𝜃
1
𝐹𝑋 (𝑥) = 𝛼 ∫ (𝜃𝑢)𝛼−1 𝑒 (−𝑢) 𝑑𝑢
Γ(𝛼)𝜃 0

𝑥/𝜃
1
𝐹𝑋 (𝑥) = ∫ 𝑢𝛼−1 𝑒 (−𝑢) 𝑑𝑢
Γ(𝛼) 0
Fig. 15 Funciónes de densidad Rice
𝑥/𝜃
∫0 𝑢𝛼−1 𝑒 (−𝑢) 𝑑𝑢 se conoce como la función gama
𝑥
incompleta y generalmente por 𝛾 ( ; 𝛼). El coeficiente
𝜃
𝑥
de 𝛾 ( ; 𝛼) recibe el nombre de coeficiente de la
𝜃
función gamma incompleta. De acuerdo con lo anterior
la función gamma de distribución acumulativa se
escribe:
𝑥
𝛾 ( ; 𝛼)
𝐹𝑋 (𝑥) = 𝜃
Γ(𝛼)

9.2 GRÁFICAS DE LA DISTRIBUCIÓN GAMMA

Fig. 16 Funcióne de distribucion Rice

9 DISTRIBUCIÓN GAMMA.

9.1 ANÁLISIS

9
≅ 0.922 − 0.8244 = 0.0976

10 DISTRIBUCIÓN EARLANG

10.1 ANÁLISIS

La distribución Erlang, es una distribución de


probabilidad continua con dos
parámetros 𝑘 y 𝜆 cuya función de densidad para
valores 𝑥 > 0 es:

(𝜆𝑥)𝑘−1
𝑓𝑋 (𝑥) = 𝜆𝑒 −𝜆𝑥 𝑝𝑎𝑟𝑎 𝑥, 𝜆 ≥ 0
Fig. 13 Funciónes de densidad Gamma con 𝜶 = (𝑘 − 1)!
𝟏
, 𝟑, 𝟓, 𝟕 y 𝜽 = 𝟏
𝟐
La distribución Erlang es el equivalente de
la distribución gamma con el parámetro 𝑘 = 1, 2, … ..
y 𝜆 = 1/𝜃.

Se utiliza la distribución Erlang para describir el


tiempo de espera hasta el suceso número 𝑘 en
un proceso de Poisson.

Su esperanza y su varianza vienen dadas por:

𝑘
𝐸(𝑋) =
𝜆

𝑘
𝑉𝑎𝑟(𝑋) =
𝜆2

La función de distribución se representa por:

𝛾(𝑘; 𝜆𝑥)
Fig. 14 Funciónes de distribución Gamma con 𝜶 = 𝐹𝑋 (𝑥) =
𝟏
(k − 1)!
, 𝟑, 𝟓, 𝟕 y 𝜽 = 𝟏
𝟐
donde coeficiente de 𝛾(𝑘; 𝜆𝑥) recibe el nombre de
coeficiente de la función gamma incompleta.
9.3 EJERCICIO.

La vida útil de un producto en horas se distribuye por


Gamma con 𝛼 = 2 y 𝜃 = 4 .
10.2 GRÁFICAS DE LA DISTRIBUCIÓN EARLANG
¿Cuál es la probabilidad de que dure:
a. 10 horas?

b. Entre 9.5 y 12.6 horas, si 𝜃 = 3?

En este caso la variable x es de tiempo y denotamos


como t.
a.
1 10
𝑓(10) = ∗ (102−1 ∗ 𝑒 − 4 )
Γ(2) ∗ 42
10
𝑒− 4
𝑓(10) = 10 ∗ = 0.0513 Γ(2) = 1
16
𝐿𝑎 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑑𝑢𝑟𝑒 10 ℎ𝑜𝑟𝑎𝑠 𝑒𝑠 𝑑𝑒 0.0513

b.
12.6
1 𝑥
𝑃(9.5 ≤ 𝑡 ≤ 12.6) = ∫ ∗ 𝑥 ∗ 𝑒 −3 𝑑𝑥
9.5 9

10
Fig. 11 Funciónes de densidad de Earlang

 En la distribución binomial trabaja con


experimentos en el que el resultado es la
ocurrencia (éxito) o la no ocurrencia (fracaso)
de un evento, donde los experimentos se
realizan n veces y cada uno es independiente
de los demás.

 En casos en que el valor de p es pequeño y


el valor de n es muy grande la distribución
binomial se puede aproximar mediante la
distribución de Poisson

 La apariencia grafica de la distribución normal


es una curva simétrica con forma de
campana, que se extiende sin límite tanto en
la dirección positiva como en la negativa.

 La distribución gamma es una familia de


Fig. 12 Funciónes de distribución de Earlang
distribuciones caracterizada por dos
parámetros: uno de forma llamado 𝛼 y otro de
10.3 EJERCICIO. escala llamado 𝜃.

En un laboratorio se requiere para una prueba de calor  Cuando 𝛼 es un entero positivo k, la función
dejar un bombillo encendido por los próximos 90 dias gamma se cono ce como Earlag, la
(2160 horas). Para ello, se ha instalado un dispositivo distribución Earlang se emplea de manera
que tiene dos bombillos en paralelo y que es capaz de extensa lapsos aleatorios de tiempo.
cambiar al segundo bombillo si el primero falla. Los
bombillos han sido garantizados por 1000 horas,
tiempo que esta exponencialmente distribuido. ¿Cuál
es la probabilidad de que un bombillo este todavía
encendido al final de los 90 dias? 5 BIBLIOGRAFÍA.
Cada bombillo tiene su propia distribución de vida útil. [1] Acuña, J. (2003). Ingenieria de Confiabilidad.
En este caso como el número de bombillos es 2, Costa Rica: Editorial Tecnoógica de Costa
entonces k=2.
Rica.
Si 𝑘 = 2 y 𝑘𝜃 = 1/1000entonces 𝜃 = 1/2000
[2] Canavos, G. C. (1988). Probabilidad y
𝑃(𝑡 > 2160) = 1 − 𝑃(𝑡 ≤ 2160) = 1 − 𝐹(2160) Estadiostica Aplicaciones y Métodos.
1 Mexico: McGrawHill.
2.16𝑖
𝐹(2160) = 1 − 𝑒 −2.16 ∑
𝑖!
𝑖=0 [3] www.wikipedia.org
= 1 − (0.1153) ∗ (1 + 2.16) = 0.3644 [4]
https://books.google.com.ec/books?id=QEp1dROP0O
La probabilidad de que un bombillo este todavía
AC&pg=PA235&dq=monotonamente+creciente&hl=es-
encendido al final de los 90 dias es 0.3644.
419&sa=X&redir_esc=y#v=onepage&q=funcion%20no
rmal&f=false
[5]
III. CONCLUSIONES. https://books.google.com.ec/books?id=TE0Sj5Mku70C
&pg=PA44&dq=distribucion+binomial&hl=es-
419&sa=X&ved=0ahUKEwijxNnLpoLKAhUKJCYKHfqZ
 La distribución de probabilidad de C9YQ6AEIKDAC#v=onepage&q=distribucion%20poiss
on&f=true
una variable aleatoria es una función que
asigna a cada suceso definido sobre la
variable aleatoria, la probabilidad de que
dicho suceso ocurra.

11

También podría gustarte