Está en la página 1de 20

Capı́tulo 5

Variables Particulares: El Proceso


Bernoulli y el Proceso Poisson

Un proceso estocástico es un modelo matemático de un experimento probabilı́stico que evoluciona


en el tiempo y genera una secuencia de valores numéricos. Por ejemplo un proceso estocástico puede ser
usado para modelizar: (i) la secuencia de los precios diarios de una acción, (ii) la secuencia del puntaje
en un partido de basket (iii) la secuencia de los tiempos de falla de una máquina (iv) la secuencia de la
carga de tráfico por hora en un nodo de una red de comunicación (v) la secuencia de una medición por
radar de la posición de un avión.
Cada valor numérico en la secuencia se modeliza mediante una variable aleatoria, por lo que un
proceso estocástico es simplemente una secuencia finita o infinita de variables aleatorias y todas las
variables que surgen en un proceso se refieren a un único y común experimento aleatorio, es decir se
trata de un experimento básico que implica resultados que se rigen por una ley de probabilidad.
Hay una amplia variedad de procesos estocásticos pero nos concentramos en los llamados procesos
del tipo llegada. En éstos estamos interesados en sucesos que tengan el carácter de una llegada o de un
arribo, tales como la recepción de mensajes en un transmisor, finalización de trabajos en una lı́nea de
producción, llamadas que llegan al departamento de ventas de una empresa, etc.
Centramos la atención en aquellos modelos en los cuales los tiempos entre llegadas sucesivas son
variables aleatorias independientes. (a) El caso en que los arribos o llegadas ocurren en tiempos discretos,
es el Proceso Bernoulli (b) El caso en que los arribos o llegadas ocurren en tiempos continuos, es el Proceso
Poisson

5.1. La variable Bernoulli


Consideremos las siguientes experiencias y variables aleatorias:

E1: Lanzar una moneda 10 veces. Sea X = N ◦ de caras que se obtienen

E2: Una máquina produce 1 % de artı́culos defectuosos. Sea X = N ◦ de artı́culos defectuosos en los
próximos 25

E3: Cada muestra de aire tiene un 10 % de probabilidad de estar contaminada Sea X = N ◦ de muestras
de aire contaminadas en las siguientes 18 muestras analizadas

E4: De todos los bits transmitidos a travées de un canal de transmisión digital 10 % se reciben con error.
Sea X la cantidad de bits recibidos con error en 5 bits transmitidos

E5: Un examen múltiple choice consta de 10 preguntas, cada una de ellas con 4 opciones y usted elige
al azar la respuesta en cada una de las preguntas. Sea X el número de respuestas correctas

E6: En los próximos 20 nacimientos en una maternidad, sea X =cantidad de varones

69
70CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON

Estos ejemplos muestran que un modelo de probabilidad general que incluya estos experimentos como
casos particulares, serı́a muy útil. Cada uno de estos experimentos al azar puede ser considerado como
compuesto por una serie de repetidos ensayos aleatorios: 10 lanzamientos de una moneda en el primer
experimento, la producción de 25 artı́culos en el segundo y ası́ sucesivamente.
La variable aleatoria en cada caso es un recuento del número de los ensayos que cumplen con un
criterio especificado. El resultado de cada ensayo, o bien cumple con el criterio que X contabiliza, o no,
y en consecuencia cada ensayo puede resumirse como que resulta en un éxito o en un fracaso.
Como ejemplo, en el experimento E5 para cada pregunta, solo la elección que es correcta es con-
siderado un éxito. Elegir cualquiera de las tres opciones incorrectas se resume como un fracaso en el
ensayo.
En el ejemplo E2, la producción de un artı́culo defectuoso es un éxito. Los términos éxito y fracaso
son solo etiquetas. Podemos del mismo modo usar A o B o también 1 ó 0
Un ensayo con solo dos posibles valores ( A o B; éxito o fracaso ; 0 ó 1 ) se llama un ensayo de
Bernoulli. Si p es la probabilidad que el resultado del ensayo sea un éxito, la variable
X =cantidad de éxitos en un ensayo (Variable Bernoulli) solo puede tomar los valores 0 ó 1 y su
función de probabilidad es: 
1 − p si x = 0

p(X = x) p si x = 1

0 en otro caso

con media
µ = p y variancia σ 2 = p(1 − p)
que se calculan según las respectivas definiciones como
2
µ = 0(1 − p) + 1p = p y σ 2 = E(X 2 ) − (E(X)) = 02 (1 − p) + (12 )p − p2 = p(1 − p)

5.2. La variable binomial


Consideremos ahora una secuencia de variables Bernoulli. Asumimos la hipótesis que las pruebas que
constituyen el experimento aleatorio son independientes. Esto implica que los resultados de un ensayo no
tiene ningún efecto sobre los resultados que se obtengan de cualquier otro ensayo. Además, suponemos
que la probabilidad de un éxito en cada ensayo es constante. En la experiencia aleatoria del examen
múltiple choice, si el examinado no tiene conocimiento de la materia y solo adivina en cada pregunta,
podrı́amos suponer que la probabilidad de una respuesta correcta es de 0.25 para cada pregunta

Ejemplo 44. la posibilidad que un bit transmitido a través de un canal de transmisión digital se reciba
con error es de 0.1 También suponemos que las transmisiones son independientes.

Definimos X = número de bits recibidos con error en los próximos cuatro bits. Hallar P (X = 2)
Simbolizamos E al suceso que un bit se recibe con error y B al suceso que un bit se recibe sin error.
Podemos representar los resultados del experimento como una lista de 4 letras que indican que bits
tienen error y que bits no lo tienen. Por ejemplo el resultado BEBE indica que el primero y el tercero
se reciben bien y el segundo y el cuarto no. Todos los resultados posibles y los valores de X son

Resultado X Resultado X Resultado X Resultado X


BBBB 0 BEBB 1 BBEB 1 BBBE 1
BBEE 2 BEBE 2 BEEB 2 BEEE 3
EBEE 3 EEBE 3 EEEB 3 EEBB 2
EBEB 2 EBBE 2 EBBB 1 EEEE 4

Cuadro 5.1: descripción del espacio muestral asociado a la experiencia aleatoria del ejemplo (44)

El suceso X = 2 se compone de los 6 resultados {BBEE, BEBE, BEEB, EEBB, EBEB, EBBE}.
5.2. LA VARIABLE BINOMIAL 71

Bajo la hipótesis que los ensayos son independientes la probabilidad de {BBEE} es


P (BBEE) = P (B)P (B)P (E)P (E) = ((0.1)2 )(0.9)2 = 0.0081. Asimismo, cualquiera de los seis resulta-
dos mutuamente excluyentes para los que X = 2, tiene la misma probabilidad de ocurrir y por lo tanto
P (X = 2) = 6(0.0081) = 0.0486
En general P (X = x) = (número de ensayos que dan como resultado x errores)(0.1)x (0.9)( 4 − x)
Para completar una fórmula general de probabilidad, solo una expresión para el número de resultados
que contienen x errores se necesita. Uno de los resultados que contiene x errores se puede construir
mediante la separacin de los cuatro ensayos Bernoulli (letras) en dos grupos. Un grupo de tamaño x que
contienen los errores, y el otro grupo de tamaño 4 − x que se compone de las pruebas que no tienen
errores.
El número de formas de separar cuatro objetos endos  grupos, uno de los cuales es de tamaño x y el
4 4!
otro es de tamaño 4 − x, es el número combinatorio = .
x x!(4 − x)!
Se sigue que la función de probabilidad de la variable X es:
 
4
P (X = x) = (0.1)x (0.9)4−x para x = 0, 1, 2, 3, 4
x

x 0 1 2 3 4
p(X = x) 0.6561 0.2916 0.0486 0.0036 0.0001
F (X = x) 0.6561 0.9477 0.9963 0.9999 1

pHX=xL FHX=xL
1.0
0.6
0.8
0.4 0.6
0.4
0.2
0.2
X 0.0 X
1 2 3 4 0 1 2 3 4

Figura 5.1: función de probabilidad y función de distribución de la cantidad de bits recibidos con error

El análisis anterior sugiere la siguiente definición:


Una experiencia aleatoria dada por una secuencia de ensayos Bernoulli tal que

i) Los ensayos son independientes (independencia de las variables)


ii) Cada ensayo tiene solo dos resultados posibles (éxito o fracaso) (dicotomı́a)
iii) La probabilidad p de éxito en cada ensayo permanece constante (p constante)

Bajo éstas hipótesis la variable aleatoria r definida como el número de éxitos en n ensayos Bernoulli,
que llamaremos variable Binomial, tiene una función de probabilidad dada por
 
 n pr (1 − p)n−r para r = 0, 1, 2, · · · , n
P (r/n, p) = r (5.1)
0 ∀ otro valor de r

Escribimos r ∼ b(n, p) para referirnos a una variable binomial con parámetros n y p donde n es el número
de ensayos Bernoulli y p, la probabilidad de éxito en cada ensayo.
72CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON

De la definición surge que la variable binomial se puede pensar como suma de variables Bernoulli.
Si X1 , X2 , . . . , Xn son variables Bernoulli idénticas (todas de parámetro p) e independientes, la variable
X = X1 + X2 + · · · + Xn es binomial con parámetros n y p. El resultado EBEE del ejemplo (44) que
hace que la variable X tome el valor 3 es la suma del número de ensayos Bernoulli cuyo resultado fue
un éxito (bit con error).
En el capı́tulo (??) se prueba que si X e Y son dos variables aleatorias, la suma X + Y es también
una variable aleatoria con media y variancia:

µx+y = µx + µy (5.2)
2
σx+y = σx2 + σy2 (si X e Y son independientes) (5.3)

Usamos este resultado que se generaliza rápidamente para la suma de un número finito de variables
para probar que si r ∼ b(n, p) entonces la media y la variancia de r son respectivamente:

µr = n.p (5.4)
σx2 = n.p(1 − p) (5.5)

ya que r = X1 + X2 + · · · + Xn donde cada Xi es una variable Bernoulli de parámetro p,

µr = µx1 + µx2 + · · · + µxn = p + p + · · · + p = n p


| {z }
n veces
σr2 = σx21 + σx22 + · · · + σx2n = p(1 − p) + p(1 − p) + · · · + p(1 − p) = n p(1 − p)
| {z }
n veces

La condición de independencia que requiere (5.3) es una hiṕotesis en el modelo binomial.


Está claro que la media y la variancia de una variable binomial se puede hallar mediante
n n  
X X n r
µr = rP (r) = r p (1 − p)n−r def.(2.2) de media de una variable discreta
r=0 r=0
r
n
 X
σr2 = E (r − µr )2 = r2 P (r) − µ2r

def.(2.5) de variancia de una variable discreta
r=0

En el ejemplo (44) es X ∼ b(n = 4, p = 0.1) con µx = 0.4 y σx2 = 0.36


La variable binomial es la variable asociada con el control de calidad cuando el defecto es por atributo:
defectuoso o no defectuoso. (la lata pierde o no pierde, el envase está abollado o no lo está, etc.) Cada
una de las variables definidas en las experiencias E1 a E6 es binomial.
Ejemplo 45. De todas las tablas de un aserradero, el 20 % está deformada, torcida o inutilizable de
alguna otra forma. Si se compran 40 tablas: a) cuál es la probabilidad que 35 sean utilizables b) cuál
es la probabilidad que por lo menos 35 sean utilizables? c) cuántas tablas habrı́a que comprar para
asegurarnos que la probabilidad de tener por lo menos una tabla utilizable sea igual o mayor que 0.99?
La observación de la calidad de cada una de las 40 tablas satisface las hipótesis del modelo i) dicotomı́a: la
tabla es utilizable o no es utilizable ii) p constante: en cada observación, la probabilidad que la tabla sea
utilizable es 0.8 iii) independencia: el resultado de una observación (la tabla es utilizable o no) no incide
sobre el resultado de otra observación cualquiera, por lo que si se definimos la variable X =nro.de tablas
utilizables, entonces X ∼ b(n = 40, p = 0.8) y la definición (5.1) dice que la función de probabilidad de
X, su media y su variancia son:
 
40
p(X = x) = (0.8)x (0.2)40−x para x = 0, 1, 2, 3 · · · , 40
x
µx = 40(0.8) = 32
σx2 = 40(0.8)(0.2) = 0.4
5.2. LA VARIABLE BINOMIAL 73
 
40
a) P (X = 35) = (0.8)3 5(0.2)40−35 = 0.085
35
40  
X 40
b) P (X ≥ 35) = (0.8)x (0.2)40−x = 0.16
x=35
x

c) buscamos el menor entero n que verifique P (X ≥ 1) ≥ 0.99

log(0.01)
P (X ≥ 1) = 1 − P (X < 1) = 1 − P (X = 0) = 1 − 0.2n ≥ 0.99 ⇒ 0.2n ≤ 0.01 ⇒ n ≥ = 2.86
log(0.2)

por tanto comprando 3 (o más) tablas, la probabilidad que por lo menos una sea utilizable es mayor
o igual a 0.99
Ejemplo 46. Se sabe que el 40 % de los comercios de una ciudad cometen algún tipo de infracción
impositiva. 10 inspectores visitan cada uno a 15 comercios. Cuál es la probabilidad que al menos 5
inspectores encuentren a más de 7 comercios en infracción?
Para cada inspector la inspección de cada uno de los comercios y observar si está en infracción o no,
satisface las hipótesis (??) ası́, definiendo X=cantidad de comercios en infracción, resulta
15  
X 15
X ∼ b(n = 15, p = 0.4) y P (X > 7) = (0.4)x (0.6)15−x = 0.21 es la probabilidad que un
x=8
x
inspector encuentre a más de siete comercios en infracción. Esto significa que hay una p constante e
igual a 0.21 para cada inspector de encontrar a más de siete comercios en infracción y se sigue que la
variable Y = cantidad de inspectores que encuentran más de 7 comercios en infracción es también una
variable binomial (valen las hipótesis (??))
Y = cantidad de inspectores que encuentran más de 7 comercios en infracción
10  
X 10
Y ∼ b(n = 10, p = 0.21) y P (Y ≥ 5) = (0.21)y (1 − 0.21)10−y = 0.04
y=5
y

Ejemplo 47. Las manzanas que se reciben en una distribuidora se controlan con el siguiente esquema
de decisión: si en las 16 manzanas que se toman de muestra hay a lo sumo una manzana podrida, se
acepta el lote (no las 16 manzanas, sino todo el cargamento). Un productor conoce el criterio y sabe que
el 8 % de sus manzanas no sirven, le conviene mandar el camión?.
Definiendo r =cantidad de manzanas defectuosas entre las 16, vale p constante y dicotomı́a pero
los sucesos manzana defectuosa son independientes? Para que la muestra sea independiente hay que
asegurase que las manzanas se elijan de forma aleatoria, por ejemplo numerar los cajones y marcar cada
manzana y colocarla con un número random en la caja correspondiente y elegir la manzana nro. 8 del
cajón 13, etc. Es claro que en general esto no se hace pero tratamos de elegir manzanas de distintas
cajas, algunas que les ha dado el sol, otras que no, etc. como para sustentar las hipótesis del modelo.
, !
P (aceptar) = P r≤1 n = 16 = P (r = 0) + p(r = 1) = (0.92)16 + 16(0.08)(0.92)15 = 0.63
p = 0.08
En base a este porcentaje de riesgo (37 %) el productor decide si le vende o no (o bien selecciona las
manzanas para asegurar que acepte).
p = 0.08, de donde sale? No de controlar todas las manzanas, puede ser de experiencias anteriores o
por criterios tomados, siempre hay cierta impresición en los valores, por eso no es de gran utilidad tomar
muchos decimales para el cálculo.(Si p no es preciso, no sirve demasiado tomar 23 decimales)
Ejemplo 48. Los aviones de una compañı́a área disponen de 100 asientos. La empresa vende por cada
vuelo 110 pasajes y sabe que la probabilidad que una persona que reservó pasaje no viaje es de 0.07 (ver
las consideraciones del ejemplo h47i para p). Suponiendo se venden todos los pasajes, qué porcentaje
de reclamos tiene la compañı́a por vuelo? La variable r =número de pasajeros que quieren viajar en un
vuelo determinado claramente satisface las hipótesis de dicotomı́a y p constante del modelo binomial,
pero no está muy claro el caso de la independencia de las variables ya que para que ésto valga, que un
74CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON

pasajero decida viajar (o no viajar) no debe tener efecto en la decisión de cualquier otro pasajero. Pero
por ejemplo el caso que el equipo representativo de un club que reservó pasajes para viajar al lugar
donde se realiza el torneo, si el torneo se posterga o se suspende, no viaja ninguno, o en el caso de una
familia que reservo por las vacaiones, si alguno se enferma seguramente no todos viajarán. La hipótesis
de independencia es por lo menos dudosa en este caso.
Para aplicar el modelo debemos suponer que sı́ son independientes, ası́: r ∼ b(n = 110, p = 0.93) y la
probabilidad pedida es
110  
X 110 r 110−r
P (haya reclamos) = P (r > 100) = (0.93) (0.07) = 0.76
r=101
r

Cuadro 5.2: porcentaje de reclamos por cada vuelo según la cantidad de pasajes que vende la empresa

Nro. de pasajes
que vende Riesgo
101 0.0006
102 0.005
103 0.02
104 0.06
105 0.13
106 0.24
107 0.37
108 0.51
109 0.65
110 0.76

La estadı́stica muestra el riesgo en función de la cantidad de pasajes vendidos. La decisión de cuantos


pasajes vender por cada vuelo es de la empresa. Por ejemplo, si la empresa considera tolerable no más
de un 5 % de reclamos por vuelo, la decisión será de sobrevender hasta 3 pasajes por vuelo.

Ejemplo 49. Representación gráfica de la función de probabilidad de una variable binomial para diversos
valores de los parámetros n y p
0.25 binomial
0.25 binomial n=10, p=0.5
n=10, p=0.3
0.2
0.2

0.15
0.15

0.1 0.1

0.05 0.05

r r
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10

0.4 binomial
0.25 binomial n=10, p=0.9
n=10, p=0.7
0.2 0.3

0.15
0.2

0.1

0.1
0.05

r r
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
5.3. LA VARIABLE GEOMÉTRICA 75

0.2 binomial 0.2 binomial


n=20, p=0.2 n=20, p=0.4

0.1 0.1

r r
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

0.2 binomial 0.2 binomial


n=20, p=0.5 n=20, p=0.7

0.1 0.1

r r
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

0.6

0.4 binomial
0.5 n=5, p=0.3

0.4 binomial 0.3


n=5, p=0.1

0.3
0.2

0.2

0.1
0.1

r r
0 1 2 3 4 5 0 1 2 3 4 5

0.4 binomial 0.4 binomial


n=5, p=0.5 n=5, p=0.7
0.3 0.3

0.2 0.2

0.1 0.1

r r
0 1 2 3 4 5 0 1 2 3 4 5

5.3. La variable geométrica


Consideremos una secuencia de experiencias Bernoulli (ensayos independientes con probabilidad cons-
tante p de éxito en cada ensayo) pero en vez de ser fijo el número de ensayos, éstos se repiten hasta que
se obtiene un éxito. Retomando el ejemplo h44i en la página 70, la probabilidad que un bit se reciba con
error es 0.1, y suponiendo que las transmisiones son independientes si la variable X cuenta el nro. de bits
transmitidos hasta el primer bit que se recibe con error inclusive, entonces P(X=5) es la probabilidad que
los primeros cuatro bits transmitidos se reciban correctamente y el quinto bit transmitido es el primero
que se recibe con error. Este suceso puede ser descripto como{BBBBE} y como las transmisiones son
independientes y la probabilidad que un bit se reciba correctamente es 0.9 resulta
4
P (X = 5) = P (BBBBE) = P (B)P (B)P (B)P (B)P (E) = (0.9) (0.1) = 0.066

Obsérvese que hay una cierta probabilidad de que X sea igual a cualquier valor entero positivo, además
si el primer bit se recibe con error es X = 1, por lo tanto el rango de X es x = 1, 2, 3 . . .
76CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON

Formalmente: en una serie de ensayos Bernoulli, se define la variable n=nro. de ensayos hasta el primer
éxito, entonces n es una variable aleatoria Geométrica con parámetro p y su función de probabilidad es
(
p(1 − p)n−1 n = 1, 2, 3 . . .
P (n/p) =
0 ∀ otro n

1 1−p
Media y variancia de una variable geométrica: µn = σn2 =
p p2
1
Que la media sea igual a donde p es la probabilidad de éxito en un ensayo, dice que si p es muy
p
chico se necesitan muchas repeticiones para obtener el primer éxito. En el ejemploh44i, el número medio
1
de transmisiones hasta que se reciba el primer bit con error es µ = = 10
0.1
Interesa conocer la probabilidad que el primer éxito ocurra después de cierto número de ensayos:

P (n > m/p) = P (el 1er. éxito depués del ensayo nro.m)


= P (ningún éxito en los primeros m ensayos)
= (1 − p)m (5.6)

La probabilidad que el primer bit con error ocurra luego del décimo bit transmitido es 0.910

El supuesto de la independencia de las variables en el proceso de Bernoulli tiene consecuencias im-


portantes. Si un proceso de Bernoulli ha estado funcionando durante n ensayos y se han observado los
valores X1 , X2 , . . . , Xn , la secuencia de futuros ensayos Xn+1 , Xn+2 . . . serán ensayos Bernoulli indepen-
dientes conformando otro proceso Bernoulli y además, estos futuros ensayos son independientes de los
ya realizados. La conclusión es que a partir de cualquier ensayo, los siguientes ensayos son modelizados
por el mismo proceso Bernoulli en forma independiente de los ensayos anteriores.
Supongamos hemos estado observando un proceso Bernoulli durante m ensayos y que ningún éxito
se ha registrado. Llamando X a la variable geométrica que cuenta el número de ensayos hasta el primer
éxito, qué se puede decir sobre el número de ensayos subsiguientes X − m hasta que el primer éxito
ocurra? Dado que el siguiente proceso (después del m-esimo ensayo) es independiente del primer proceso
(los primeros m ensayos) y conforma un nuevo proceso Bernoulli, el número de ensayos subsiguientes
hasta el primer éxito es la misma variable geométrica X, y entonces
n−1
P (X − m = n/X > m) = P (X = m + n/X > m) = (1 − p) p = P (X = n) n = 1, 2, 3, . . . (5.7)

La figura siguiente explicita el significado de (5.7): a partir de cualquier ensayo en el que se inicie la
observación en un proceso Bernoulli, la cantidad de ensayos subsiguientes es la misma variable geométrica.

ningún é xito en los primeros m ensayos 1 2 n


0 0 0 0 0 1
ensayo 1 2 m m+1 m+n

Figura 5.2: el primer éxito en el ensayo n + m contando la cantidad de ensayos desde el primero, es
equivalente a que el primer éxito ocurra en el n-ésimo ensayo subsiguiente al ensayo m

La probabilidad que el primer bit que se reciba con error, después de 100 transmisiones, sea el bit
105, es la probabilidad que ocurra el suceso {BBBBE} en las 5 transmisiones posteriores a la número
4
cien, pero esto tiene probabilidad (0.1) (0.9) que es la misma probabilidad que el primer error ocurra
en la quinta transmisión. Es decir, no importa lo que ocurrió en las 100 primeras transmisiones, la
probabilidad que un bit se transmita con error en la siguiente transmisión sigue siendo 0.1, mientras p
5.3. LA VARIABLE GEOMÉTRICA 77

permanezca constante, la independencia de las transmisiones implica que para predecir si en la siguiente
transmisión se recibir un bit con error, toda la historia pasada es irrelevante.
P (X = 105 ∩ X > 100) P (X = 105) p(1 − p)104
P (X = 105/X > 100) = = = = p(1 − p)4 = P (X = 5)
P (X > 100) P (X > 100) (1 − p)100
La generalización de este ejemplo poniendo m + n en lugar de 105 y m en lugar de 100 demuestra la
validez de (5.7)
Ejemplo 50. Se dispone de dos dados, uno de ellos con probabilidad de as del 30 % y el otro un dado
normal. Se toma uno de ellos al azar y se lo tira sucesivamente obteniendo como resultado 6 - 4 -1. Cuál
es la probabilidad de que el dado elegido haya sido el malo?
La experiencia de tirar un dado y observar el número que sale satisface las hipótesis de ensayos tipo
Bernoulli. Definamos n=cantidad de tiradas hasta el primer as y el suceso D que consiste en elegir el
dado cargado.
P (D ∩ n = 3)
P (D/n = 3) = def. de probabilidad condicional
P (n = 3)
P (D)P (n = 3/D)
= probabilidad total
P (D)P (n = 3/D) + P (D)P (n = 3/D)
P (D)P (n1 = 3)
=
P (D)P (n1 = 3) + P (D)P (n2 = 3)

(n = 3/D) es el suceso: el primer as en el tercer tiro con el dado cargado y n = 3/D es el suceso: el
primer as en el tercer tiro con el dado equilibrado, las dos variables son geométrica pero no la misma
ya que tienen distinto parámetro p, por eso distinguimos llamando n1 y n2 respectivamente siendo
P (n1 = n) = (0.3)(0.7)n−1 y P (n2 = n) = (1/6)(5/6)n−1

(0.5)(0.3)(0.7)2
= = 0.56
(0.5)(0.3)(0.7)2 + (0.5)(1/6)(5/6)2

Ejemplo 51. La variable geométrica para distintos valores de p


0.05 0.1

0.04 0.08

0.03 geomé trica 0.06 geomé trica


p=0.05 p=0.1

0.02 0.04

0.01 0.02

n n
5 10 15 20 25 30 35 40 45 50 5 10 15 20 25 30

0.5
0.3

0.25 0.4

0.2 geomé trica


p=0.3 0.3 geomé trica
0.15 p=0.5
0.2
0.1

0.05 0.1

n n
4 8 12 16 20 2 4 6 8 10
78CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON

5.4. La variable pascal


Retomamos el ejemplo (44). Sabemos que el registro del nro. de transmisiones hasta el primer bit
con error que se recibe es una variable geométrica y que el nro. de transmisiones desde que se recibe
el primer bit con error hasta que se recibe el siguiente, es la misma variable geométrica (por (5.7)),
y ası́ sucesivamente. Supongamos queremos registrar hasta que llega el tercer bit con error. Podemos
pensarlo como una suma de variables geométricas según se visualiza en la figura donde el tercer error
ocurre en el decimoquinto bit transmitido.
n n n

0 0 0 1 0 0 0 0 0 1 0 0 0 0 1
nro. de ensayos hasta el tercer éxito = n+n+n

Figura 5.3: El nro. de ensayos hasta el tercer éxito como la suma del nro. de ensayos hasta el primer
éxito, más el nro. de ensayos entre el primer éxito y el segundo, más el número de ensayos entre el
segundo éxito y el tercero.

Calculemos esa probabilidad. Llamamos X a la variable número de bits transmitidos hasta el tercer
error. P (X = 15) es la probabilidad que exactamente 2 errores ocurran en las primeras 14 transmisiones
y que el decimoquinto bit resulte en el tercer error. La probabilidad
  que exactamente 2 errores ocurran
14 2 12
en los primeros 14 ensayos es (recordar la variable binomial) (0.1) (0.9) . Como las transmisio-
2
nes son independientes, la probabilidad que exactamente dos errores ocurran en las catorce primeras
transmisiones y que la decimoquinta transmisión resulte en un error es el producto de estos dos sucesos,
resulta    
14 2 12 15 − 1 3 15−3
P (X = 15) = (0.1) (0.9) (0.1) = (0.1) (0.9) = 0.025
2 3−1
Generalizamos este resultado considerando entonces una secuencia de experiencias Bernoulli y defi-
nimos la variable aleatoria np = número de ensayos hasta que ocurre el r − simo éxito. (variable Pascal)
El r-simo é xito en el n-simo ensayo

1 1 0 0 1 0 1 0 0 1
r-1 é xitos en los n-1 primeros ensayos n

El suceso np = n significa que en el n-simo ensayo ocurra el éxito nro. r y por tanto en los primeros n − 1
ensayos tiene que haber exactamente r − 1éxitos. Un éxito en el ensayo n tiene probabilidad p; y r − 1
n − 1 r−1 (n−1)−(r−1)
éxitos en n − 1 ensayos tiene probabilidad p (1 − p) (variable binomial). Como los
r−1
sucesos son independientes las probabilidades se multiplican y entonces la función de probabilidad de
una variable Pascal es:
 
 n − 1 pr (1 − p)n−r n=r+1 ;r+ 2,. . .
P (np = n/r, p) = r−1 (5.8)
0 en otro caso

Notar que con r = 1 resulta la variable geométrica y como se ha visto al principio de éste parágrafo
que la variable Pascal se puede pensar como la suma de r variables geométricas, usando (5.2) y (5.3)
resulta
r 2 r(1 − p)
µnp = σn p
=
p p2
5.4. LA VARIABLE PASCAL 79

Ejemplo 52. Un sitio web contiene tres servidores idénticos. Solo uno se utiliza para operar el sitio y los
otros dos son repuestos que se pueden activar en caso de que el sistema principal falle. La probabilidad
de una falla por una solicitud de servicio es 0.0005. Suponiendo que las solicitudes de servicio son
independientes, cuál es la probabilidad que los tres servidores fallen antes de la sexta solicitud de servicio?
cuál es el número promedio de solicitudes hasta que los tres servidores fallan?

Definimos nj = cantidad de solicitudes hasta que falla el servidor j (j = 1, 2, 3).


Como las solicitudes de servicio se suponen independientes con probabilidad constante de falla, en-
tonces para cada j, nj es geométrica con parámetro p=0.0005(es la misma variable geométrica para los
tres servidores)
Si np =número de solicitudes de servicio hasta que fallen los tres servidores, entonces n = n1 +n2 +n3 ,
ası́, np es una variable Pascal de parámetros p=0.0005 y r=3. (suma de tres variables geométricas de
igual p) y
, ! n − 1 n−3
 (0.0005)3 (0.9995) para n=3,4,5. . .
P np = n p = 0.0005 = 3−1
r=3 0 en otro caso

y la probabilidad pedida

P (np < 6) = P (np = 3) + P (np = 4) + P (np = 5)


     
3−1 3 4−1 3 5−1 2
= (0.0005) + (0.0005) (0.9995) + (0.0005)3 (0.9995)
3−1 3−1 3−1

y la cantidad promedio de solicitudes hasta que el sitio quede inoperativo es


3
µnp = = 6000 solicitudes
0.0005
Ejemplo 53. La variable Pascal para distintos valores de r y de p
0.08

0.020
0.06

0.015

0.04
0.010 pascal
r=4 ; p=0.1 pascal
r=4 ; p=0.3
0.02
0.005

n n
0 20 40 60 80 100 0 5 10 15 20 25 30 35

0.15
0.25

0.20
0.10

0.15

0.05 pascal
0.10 pascal
r=4 ; p=0.5 r=4 ; p=0.7
0.05

n n
5 10 15 20 4 6 8 10 12
80CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON

5.5. La variable poisson


Imaginemos la realización de 10 ensayos Bernoulli cada uno de ellos de un minuto de duración, con
probabilidad p=0.2 de éxito en cada ensayo. El número de éxitos registrados al final de los 10 minutos
es aleatorio, pero el número esperado de éxitos es µ = n · p = 10(0.2) = 2.
Dt=1' n=10 ensayos de 1'
t=10

Asumir que la cantidad de éxitos es una variable binomial tiene el inconveniente de descartar la po-
sibilidad que en un minuto ocurran dos, tres, cuatro o más éxitos pues ésta distribución es aplicable
cuando cada ensayo tiene solo dos resultados posibles: éxito o fracaso (dicotomı́a), es decir o bien ningún
éxito o bien un éxito en cada ensayo. La intención de asegurar que en un intervalo de tiempo se den las
condiciones de dicotomı́a, lleva a considerar intervalos de tiempo infinitesimales, a través de una sucesión
de aproximaciones y paso al lı́mite.
Ası́, en vez de considerar 10 intervalos de un minuto, consideramos 600 intervalos de 1 segundo, de
modo que en el mismo tiempo t=10 minutos realizamos 600 ensayos Bernoulli. Asumiendo  la hipótesis

0.2
que la probabilidad de éxito en cada ensayo es proporcional a la longitud del intervalo p = , el
  60
0.2
número de éxitos en el intervalo fijo de 10’ es aleatorio y µ = n · p = 600 = 10(0.2) = 2.
60
Dt=1s. n=600 ensayos de 1s.
t=10

Si continuamos “afinando” y realizamos un ensayo cada décima de segundo, en 10 minutos habrá 6000
0.2
ensayos Bernoulli y nuevamente µ = n · p = 6000 = 10(0.2) = 2.
600

Dt=0.1s. n=6000 ensayos de 0.1s.


t=10

Ası́ siguiendo en un intervalo fijo de 10’, más ensayos Bernoulli se pueden realizar, cada vez de menor
duración cada uno de ellos, pero con un número medio de errores µ = n · p que se mantiene igual a 2
como se observa en el cuadro siguiente.

t ∆t n p µ=n·p
10’ 1’ 10 0.2 2
10’ 1 s. 600 0.2/60 2
10’ 0.1 s. 6000 0.2/600 2
10’ 0.01 s. 60000 0.2/6000 2
10’ 0.001 s. 600000 0.2/60000 2
10’ 0.0001 s. 6000000 0.2/600000 2

Cuadro 5.3: partición de un intervalo fijo de tiempo t=10 minutos en subintervalos de longitud ∆t cada
vez menor de forma tal que el número de éxitos n · p se mantiene constante e igual a 2

Es decir, la cantidad de ensayos crece y la probabilidad p de éxito en cada ensayo decrece de forma
tal que el número medio de éxitos en un intervalo fijo de longitud t permanece constante.
En el lı́mite, en cada instante un ensayo Bernoulli se llevará a cabo. La probabilidad p de éxito se
aproxima a cero de tal modo que µ = n·p permanece constante. Para no perder de vista que hemos fijado
el valor de t (en el ejemplo t=10 minutos) llamamos λt a esta constante ası́ µ = n · p = λt permanece
constante.
5.5. LA VARIABLE POISSON 81

Nos preguntamos, qué ocurre con con el número


 de 
éxitos es decir, con las probabilidades binomiales
λt
en ésta situación en la que n → ∞ y p → 0 p = de tal manera que n · p permanece constante.
n
Con algún manipuleo algebraico que mostramos en el apéndice se prueba que

e−µ µx e−λt (λt)x


 
n x
lı́m p (1 − p)n−x = =
n→∞ x x! x!

donde la cantidad de éxitos x varı́a desde 0 a infinito (pues n → ∞) y resulta ser una función de
probabilidad bien definida ya que
∞ ∞
e−λt (λt)x X e−λt (λt)x X (λt)x
≥0 y = e−λt = e−λt eλt = 1
x! x=0
x! x=0
x!

Ası́, como un paso al lı́mite de la distribución binomial resulta esta variable aleatoria (que registra el
número de éxitos en un intervalo continuo) que llamamos variable Poisson y que formalmente definimos
asi:
Sea k=cantidad de éxitos en un intervalo continuo de longitud t con tasa λ de éxito por unidad de
continuo, entonces k es una variable aleatoria con función de probabilidad

  e−λt (λt)k

k = 0, 1, 2 · · ·
 .
P k λ, t = k! (5.9)
 0 ∀ otro k
La media y la variancia de una variable Poisson: µk = λt σk2 = λt
µ
De la media de la variable Poisson resulta λ = que se interpreta como la media por unidad de t
t
Algunas tı́picas variables Poisson
a) la cantidad de roturas de hilos en un máquina textil durante un cierto intervalo de tiempo.
b) la cantidad de choques en una determinada esquina durante el mes.
c) la cantidad de personas que pasan por cierto lugar durante un perı́odo determinado
Ejemplo 54. Tres llamadas llegan cada media hora en promedio. Calcular la probabilidad de a) ninguna
llamada en una hora b) más de dos llamadas entre las 11:00 y las 11:45
Suponiendo que una llamada puede ocurrir con igual probabilidad en cualquier instante y que las
llamadas son independientes, definiendo k=cantidad de llamadas en un intervalo de longitud t, k es una
variable Poisson con tasa de llamadas λ=3/0.5 hora = 6/hora
6
a) en un intervalo t = 1hora λt = · 1hora = 6
1hora
 .  e−6 60
P (ninguna llamada en una hora) = P k = 0 λ = 6 , t = 1 = = e−6
0!

6 3 9
b) en un intervalo t = 45 minutos λt = · hora =
1hora 4 2
 , 

P (más de dos llamadas entre las 11:00 y las 11:45) = P k > 2 3



λ=6, t=
 4 
,
= 1 − P k ≤ 2 3

λ=6, t=
4
2
X e−6 6k
= = 0.8264
k!
k=0
82CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON

Ejemplo 55. Una tela tiene dos tipos de falla. Las fallas de tejido ocurren a una tasa de 2 cada 10
metros y las fallas de estampado a razón de 1 falla cada 20 metros. Cuál es la probabilidad que un rollo
de 40 metros tenga 2 fallas?
Suponiendo que una falla de tejido puede ocurrir con igual probabilidad en cualquier punto del rollo y
que las fallas de tejido son independientes, la variable kt = cantidad de fallas de tejido es una variable
2
Poisson con tasa λ = . y tiene una función de probabilidad
10 metros
 , 
−8 k
P kt = k = e 8 para k = 0, 1, 2 . . .
2 k!
λ= , t = 40
10
La misma suposición para las fallas de estampado hacen que ke = cantidad de fallas de estampado sea
1
una variable Poisson con tasa λ = con función de probabilidad
20 metros
 , 
−2 k
P ke = k = e 2 para k = 0, 1, 2 . . .
1 k!
λ= , t = 40
20
La cantidad de fallas en el rollo es la suma de la cantidad de fallas de cada tipo de manera que si
k=cantidad de fallas es k = kt + ke , es decir la variable k es la suma de dos variables Poisson.
El suceso 2 fallas en el rollo puede pensarse como la unión de los sucesos mutuamente excluyentes 2
fallas de tejido y ninguna falla de estampado,1 falla de cada tipo, 2 fallas de estampado y ningun falla
de tejido, ası́:

P (k = 2) = P (kt + ke = 2)
= P (kt = 2 ∩ ke = 0) + P (kt = 1 ∩ ke = 1) + P (kt = 0 ∩ ke = 2)
suponiendo ahora independencia entre los dos tipos de falla
= P (kt = 2)P (ke = 0) + P (kt = 1)P (ke = 1) + P (kt = 0)P (ke = 2)
e−8 82 −2 e−2 22
= e + 8e−8 2e−2 + e−8
2!  2!
2 2

8 2
= e−8 e−2 + 16 + = 50e−10
2! 2!

102 −10
Esto lo podemos escribir como e y observamos que esta probabilidad es igual a la probabilidad
2!
que una variable Poison de media µ = λt = 10 tome el valor 2 (por (5.9)),
y si t = 40 es λ = 1/4
λ = 1/4 = 2/10 + 1/20 = λt + λe
donde la tasa λ de fallas es la suma de las tasas de falla de tejido y de estampado,
 , 
−10 2
P k = 2  = e 10
1 2!
λ= , t = 40
4
Este resultado es general: si k1 y k2 son variables Poisson con tasas λ1 y λ2 respectivamente, entonces
la variable k = k1 + k2 también es Poisson con tasa λ = λ1 + λ2 como se prueba en la sección h7.1.6i

La variable Poisson se presentó como un paso al lı́mite de la distribución binomial con ciertas carac-
teeı́sticas. El siguiente cuadro muestra un ejemplo de tal aproximación
5.6. LA VARIABLE EXPONENCIAL 83

binomial binomial binomial binomial poisson


n=10 n=20 n=40 n=1000
x p=0.2 p=0.1 p=0.05 p=0.002 λ=2
0 0.1074 0.1216 0.1285 0.1351 0.1353
1 0.2684 0.2702 0.2706 0.2707 0.2707
2 0.3020 0.2852 0.2777 0.2709 0.2707
3 0.2013 0.1901 0.1851 0.1806 0.1804
4 0.0881 0.0898 0.0901 0.0902 0.0902
5 0.0264 0.0319 0.0342 0.0360 0.0361
6 0.0055 0.0089 0.0105 0.0120 0.0120
7 0.0008 0.0020 0.0027 0.0034 0.0034
8 0.0001 0.0004 0.0006 0.0008 0.0009
9 0.0000 0.0001 0.0001 0.0002 0.0002

Cuadro 5.4: aproximación de las probabilidades Poisson a la binomial cuando n → ∞ , p → 0 de tal


forma que λ = np permanece constante e igual a 2

No obstante, la variable Poisson tiene peso propio ya que tiene un papel importante debido a que
representa un modelo de probabilidad adecuado para un gan número de fenómenos observables. En el
ápendice se muestra como se obtiene la función de probabilidad Poisson con postulados propios.

Ejemplo 56. La variable Poisson para distintos valores de λ y de t


0.14
0.25
0.12

0.20
0.10

0.08 0.15

0.06 poisson
0.10
1 poisson
0.04 Λ= ;t=40
5 1
0.05 Λ= ; t=40
0.02 20

k k
5 10 15 20 2 4 6 8

5.6. La variable exponencial


Consideremos una variable Poisson k de parámetros λ y t con función de probabilidad

e−(λt) (λt)k
P (k /λ, t ) = para k = 0, 1, 2, . . .
k!
que lleva un registro del número de éxitos en un intervalo de longitud fija t.
Nos preguntamos ahora acerca de la longitud del intervalo hasta que ocurre el primer éxito. Es decir,
hacemos variable la longitud de intervalo definiendo una variable continua t= longitud del intervalo hasta
el primer éxito. Buscamos la función de distribución de t, variable a la que llamaremos exponencial.

F (t = t) = P (t ≤ t) = 1 − P (t > t)
El suceso t > t significa que el primer éxito ocurra en el intervalo (t, +∞) lo que es equivalente a
que en el intervalo (0, t) no haya éxitos como se ve en la figura.

ningun é xito en H0,tL primer é xito en Ht,+¥L

0 t t
84CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON

Fijado el valor t > 0 de t, ningún éxito en el intervalo (0, t) significa k = 0 en un intervalo de longitud t

e−(λt) (λt)0
P (t > t) = P (k = 0 /λ, t ) = = e−λt
0!
ası́ resulta
(
1 − e−λt t≥0
F (t = t) = P (t ≤ t) = 1 − P (t > t) =
0 t<0

Función de distribución exponencial


FHtL
1

Derivando esta expresión se tiene la función densidad de probabilidad de una variable exponencial
de parámetro λ (
λe−λt t≥0
f (t /λ ) =
0 t<0

Función de densidad exponencial


fHtL

1 1
La media y la variancia de una variable exponencial: µt = σt2 =
λ λ2
Ejemplo 57. Sea k= cantidad de fallas en un rollo de tela, la variable del ejemplo (55), con una tasa
de una falla cada 4 metros. Si se corta la tela en la falla: a) calcular la probabilidad que un rollo mida
más de 4 metros. b) cuál es la probabilidad que la longitud del rollo sea a lo sumo de 5 metros si se sabe
que mide más de 1 metros? c) cuál es la longitud promedio de los rollos?
5.7. LA VARIABLE GAMMA 85

Definimos t= longitud de la tela hasta la falla


1

 
1
  1 − t
f t λ= = 4e 4 t≥0
4 
 0 t<0
1
 
− 4
a) P (t > 4) = 1 − P (t ≤ 4) = 1 − F (t = 4) = 1 − 1 − e 4  = e−1

b)
 P (1 < t ≤ 5) F (t = 5) − F (t = 1)
P (t ≤ 5 t > 1 ) = =
P (t > 1) 1 − F (t = 1)
 5
  1

1 − e− 4 − 1 − e− 4 1 5
e− 4 − e− 4
= 1 = 1
e− 4 e− 4
−1
= 1 − e = F (t = 4) = P (t ≤ 4)
Si se sabe que no hubo fallas en el primer metro, la probabilidad que la primera ocurra en los siguientes
4 metros, es la misma probabilidad que la primer falla ocurra en los primeros 4 metros. Este resultado
se generaliza y es interesante interpretar su significado
 P (n < t ≤ n + m) F (t = m + n) − F (t = n)
P (t ≤ n + m t > n ) = =
P (t > n) 1 − F (t = n)
1 − e−λ(m+n) − 1 − e−λn
 
e−λn − e−λ(n+m)
= −λn
=
e e−λn
−λm
= 1−e = F (t = m) = P (t ≤ m)
1
c) la longitud media de los rollos es µt = =4 metros
1/4

5.7. La variable gamma


Siguiendo con el ejemplo, la variable t=longitud del rollo hasta la falla es una variable exponencial
de parámetro λ. Supongamos a los t1 metros ocurre la falla.
primera falla

t t1

Consideremos ahora la variable longitud del rollo desde t1 hasta la siguiente falla que ocurre a los t2
metros. El largo del rollo entre t1 y t2 es la misma variable exponencial.
primera falla segunda falla

t t1 t t2

El largo de rollo hasta la segunda falla(también una variable) es la suma de dos variables exponenciales
de igual parámetro λ, el largo del rollo hasta la primer falla, más el largo del rollo entre la primera y
la segunda falla. Cuál es la función densidad de probabilidad de la variable longitud del rollo hasta la
segunda falla?
Sea T2 = Longitud del rollo hasta la segunda falla. La función de distribución es:
F (T2 = t) = P (T2 ≤ t) = 1 − P (T2 > t)
El suceso T2 > t significa la segunda falla en el intervalo (t, +∞) lo que equivales a que haya a lo sumo
una falla en (0, t) como se ve en la figura
86CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON

ninguna falla la segunda falla exactamente una falla la segunda falla


en los primeros t metros despué s de t metros en los primeros t metros despué s de t metros

t k1 k2 k=1 t k=2

Fijado el valor t > 0 de T2 , a lo sumo un éxito en el intervalo (0, t) significa k = 0 ó k = 1 en un intervalo


fijo de longitud t.
P (T2 > t) = P (k = 0) + P (k = 1) = e−λt + (λt)e−λt = e−λt (1 + λt)
F (T2 = t) = 1 − P (T2 > t) = 1 − e−λt (1 + λt) para t ≥ 0
derivando resulta
f (T2 = t) = λe−λt (1 + λt) − e−λt λ = λ2 te−λt para t ≥ 0
1
En el caso del ejemplo anterior donde λ = 4 es

fHtΛ=0.25;k=2L

 1
 1 2 − t
  

f (T2 = t λ=1/4 ) = te 4 t≥0
 4
0 t<0

y la probabilidad que la segunda falla ocurra no antes de los 8 metros es

∞  2 1
− t
Z
1
P (T2 > 8) = te 4 dt = 0.406
8 4
Generalizando el caso anterior la variable aleatoria T que mide la longitud del continuo hasta el
k-simo éxito en un proceso Poisson de parámetro λ, es una variable aleatoria que llamamos Gamma,
tiene como parámetros k y λ y su función de densidad de probabilidad es
 k k−1 λt
λ t e
t≥0
f (T = t /λ,k ) = (k − 1)!
0 t<0

Ejemplo 58. Los libros son devueltos a la biblioteca con una periodicidad que se distribuye en forma
exponencial con un promedio de 5’. Cuál es la probabilidad de que el tercer libro sea devuelto antes de
19 minutos?
Si t es el tiempo hasta la devolución del siguiente libro, t es una variable exponencial de parámetro
λ = 1/5 y T3 = tiempo hasta la devolución del tercer libro, T3 es una variable Gamma con parámetros
k = 3 y λ = 1/5 y tiene una función densidad de probabilidad
 1
 1 3 t2 e− 5 t



f (T3 = t λ=1/5 ) = t≥0

 5 2!

0 t<0
1
19  3 2 − t
t e 5
Z
1
entonces P (t ≤ 19) = dt = 0.7311
0 5 2!
5.7. LA VARIABLE GAMMA 87

Ejemplo 59. Una máquina trabaja 5000 horas por año. El motor tiene una tasa de 7 fallas cada 10000
horas. Se tiene 2 motores de repuesto.(a) Calcular la probabilidad que el motor falle antes de las 3200
horas (b) Hallar la probabilidad que con los motores de repuesto con que se cuenta alcance para un año
de trabajo.

(a) Sea t=tiempo de funcionamiento de la máquina hasta que el motor falla entonces t es una variable
7
esponencial de parámetro λ = 10000 y su función de distribución es

7
!
− t


F (t = t) = P (t ≤ t) = 1 − e 10000 t≥0

0 t<0

 
7
− 3200
de donde P (t < 3200) = F (t = 3200) = 1 − e 10000 = 0.89

(b) Para que con tres motores la máquina trabaje un año por lo menos, la tercera falla debe ocurrir
luego de las 5000 horas de funcionamiento.
Sea T3 el tiempo de funcionamiento de la máquina hasta la rotura del tercer motor, T3 es una variable
7
Gamma de parámetros λ = 10000 ; k=3

7
!
− t


 3 10000
t2 e

 .  7
f T3 = t 7
λ= 10000 ; k=3 = t≥0

 10000 2!

0 t<0

7
!

3 − t
Z +∞ 
7 t2 e 10000
entonces es P (T3 > 5000) = dt
5000 10000 2!

Ejemplo 60. La variable Gamma para distintos valores de λ y de k

Λ=0.2
0.05 Λ=0.2
k=3 0.04 k=4

0.04
0.03

0.03

0.02
0.02

0.01
0.01

t t
20 40 60 80 100 20 40 60 80 100

Λ=0.2
Λ=0.2 0.025
k=10
k=5

0.03 0.020

0.015
0.02

0.010

0.01
0.005

t t
20 40 60 80 100 20 40 60 80 100
88CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON

k=3
0.05

k=4
0.04
k=5

0.03

k=10
0.02

0.01

t
20 40 60 80 100

5.8. La variable hipergeométrica


5.9. La variable uniforme

También podría gustarte