Documentos de Académico
Documentos de Profesional
Documentos de Cultura
E2: Una máquina produce 1 % de artı́culos defectuosos. Sea X = N ◦ de artı́culos defectuosos en los
próximos 25
E3: Cada muestra de aire tiene un 10 % de probabilidad de estar contaminada Sea X = N ◦ de muestras
de aire contaminadas en las siguientes 18 muestras analizadas
E4: De todos los bits transmitidos a travées de un canal de transmisión digital 10 % se reciben con error.
Sea X la cantidad de bits recibidos con error en 5 bits transmitidos
E5: Un examen múltiple choice consta de 10 preguntas, cada una de ellas con 4 opciones y usted elige
al azar la respuesta en cada una de las preguntas. Sea X el número de respuestas correctas
69
70CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON
Estos ejemplos muestran que un modelo de probabilidad general que incluya estos experimentos como
casos particulares, serı́a muy útil. Cada uno de estos experimentos al azar puede ser considerado como
compuesto por una serie de repetidos ensayos aleatorios: 10 lanzamientos de una moneda en el primer
experimento, la producción de 25 artı́culos en el segundo y ası́ sucesivamente.
La variable aleatoria en cada caso es un recuento del número de los ensayos que cumplen con un
criterio especificado. El resultado de cada ensayo, o bien cumple con el criterio que X contabiliza, o no,
y en consecuencia cada ensayo puede resumirse como que resulta en un éxito o en un fracaso.
Como ejemplo, en el experimento E5 para cada pregunta, solo la elección que es correcta es con-
siderado un éxito. Elegir cualquiera de las tres opciones incorrectas se resume como un fracaso en el
ensayo.
En el ejemplo E2, la producción de un artı́culo defectuoso es un éxito. Los términos éxito y fracaso
son solo etiquetas. Podemos del mismo modo usar A o B o también 1 ó 0
Un ensayo con solo dos posibles valores ( A o B; éxito o fracaso ; 0 ó 1 ) se llama un ensayo de
Bernoulli. Si p es la probabilidad que el resultado del ensayo sea un éxito, la variable
X =cantidad de éxitos en un ensayo (Variable Bernoulli) solo puede tomar los valores 0 ó 1 y su
función de probabilidad es:
1 − p si x = 0
p(X = x) p si x = 1
0 en otro caso
con media
µ = p y variancia σ 2 = p(1 − p)
que se calculan según las respectivas definiciones como
2
µ = 0(1 − p) + 1p = p y σ 2 = E(X 2 ) − (E(X)) = 02 (1 − p) + (12 )p − p2 = p(1 − p)
Ejemplo 44. la posibilidad que un bit transmitido a través de un canal de transmisión digital se reciba
con error es de 0.1 También suponemos que las transmisiones son independientes.
Definimos X = número de bits recibidos con error en los próximos cuatro bits. Hallar P (X = 2)
Simbolizamos E al suceso que un bit se recibe con error y B al suceso que un bit se recibe sin error.
Podemos representar los resultados del experimento como una lista de 4 letras que indican que bits
tienen error y que bits no lo tienen. Por ejemplo el resultado BEBE indica que el primero y el tercero
se reciben bien y el segundo y el cuarto no. Todos los resultados posibles y los valores de X son
Cuadro 5.1: descripción del espacio muestral asociado a la experiencia aleatoria del ejemplo (44)
El suceso X = 2 se compone de los 6 resultados {BBEE, BEBE, BEEB, EEBB, EBEB, EBBE}.
5.2. LA VARIABLE BINOMIAL 71
x 0 1 2 3 4
p(X = x) 0.6561 0.2916 0.0486 0.0036 0.0001
F (X = x) 0.6561 0.9477 0.9963 0.9999 1
pHX=xL FHX=xL
1.0
0.6
0.8
0.4 0.6
0.4
0.2
0.2
X 0.0 X
1 2 3 4 0 1 2 3 4
Figura 5.1: función de probabilidad y función de distribución de la cantidad de bits recibidos con error
Bajo éstas hipótesis la variable aleatoria r definida como el número de éxitos en n ensayos Bernoulli,
que llamaremos variable Binomial, tiene una función de probabilidad dada por
n pr (1 − p)n−r para r = 0, 1, 2, · · · , n
P (r/n, p) = r (5.1)
0 ∀ otro valor de r
Escribimos r ∼ b(n, p) para referirnos a una variable binomial con parámetros n y p donde n es el número
de ensayos Bernoulli y p, la probabilidad de éxito en cada ensayo.
72CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON
De la definición surge que la variable binomial se puede pensar como suma de variables Bernoulli.
Si X1 , X2 , . . . , Xn son variables Bernoulli idénticas (todas de parámetro p) e independientes, la variable
X = X1 + X2 + · · · + Xn es binomial con parámetros n y p. El resultado EBEE del ejemplo (44) que
hace que la variable X tome el valor 3 es la suma del número de ensayos Bernoulli cuyo resultado fue
un éxito (bit con error).
En el capı́tulo (??) se prueba que si X e Y son dos variables aleatorias, la suma X + Y es también
una variable aleatoria con media y variancia:
µx+y = µx + µy (5.2)
2
σx+y = σx2 + σy2 (si X e Y son independientes) (5.3)
Usamos este resultado que se generaliza rápidamente para la suma de un número finito de variables
para probar que si r ∼ b(n, p) entonces la media y la variancia de r son respectivamente:
µr = n.p (5.4)
σx2 = n.p(1 − p) (5.5)
log(0.01)
P (X ≥ 1) = 1 − P (X < 1) = 1 − P (X = 0) = 1 − 0.2n ≥ 0.99 ⇒ 0.2n ≤ 0.01 ⇒ n ≥ = 2.86
log(0.2)
por tanto comprando 3 (o más) tablas, la probabilidad que por lo menos una sea utilizable es mayor
o igual a 0.99
Ejemplo 46. Se sabe que el 40 % de los comercios de una ciudad cometen algún tipo de infracción
impositiva. 10 inspectores visitan cada uno a 15 comercios. Cuál es la probabilidad que al menos 5
inspectores encuentren a más de 7 comercios en infracción?
Para cada inspector la inspección de cada uno de los comercios y observar si está en infracción o no,
satisface las hipótesis (??) ası́, definiendo X=cantidad de comercios en infracción, resulta
15
X 15
X ∼ b(n = 15, p = 0.4) y P (X > 7) = (0.4)x (0.6)15−x = 0.21 es la probabilidad que un
x=8
x
inspector encuentre a más de siete comercios en infracción. Esto significa que hay una p constante e
igual a 0.21 para cada inspector de encontrar a más de siete comercios en infracción y se sigue que la
variable Y = cantidad de inspectores que encuentran más de 7 comercios en infracción es también una
variable binomial (valen las hipótesis (??))
Y = cantidad de inspectores que encuentran más de 7 comercios en infracción
10
X 10
Y ∼ b(n = 10, p = 0.21) y P (Y ≥ 5) = (0.21)y (1 − 0.21)10−y = 0.04
y=5
y
Ejemplo 47. Las manzanas que se reciben en una distribuidora se controlan con el siguiente esquema
de decisión: si en las 16 manzanas que se toman de muestra hay a lo sumo una manzana podrida, se
acepta el lote (no las 16 manzanas, sino todo el cargamento). Un productor conoce el criterio y sabe que
el 8 % de sus manzanas no sirven, le conviene mandar el camión?.
Definiendo r =cantidad de manzanas defectuosas entre las 16, vale p constante y dicotomı́a pero
los sucesos manzana defectuosa son independientes? Para que la muestra sea independiente hay que
asegurase que las manzanas se elijan de forma aleatoria, por ejemplo numerar los cajones y marcar cada
manzana y colocarla con un número random en la caja correspondiente y elegir la manzana nro. 8 del
cajón 13, etc. Es claro que en general esto no se hace pero tratamos de elegir manzanas de distintas
cajas, algunas que les ha dado el sol, otras que no, etc. como para sustentar las hipótesis del modelo.
, !
P (aceptar) = P r≤1 n = 16 = P (r = 0) + p(r = 1) = (0.92)16 + 16(0.08)(0.92)15 = 0.63
p = 0.08
En base a este porcentaje de riesgo (37 %) el productor decide si le vende o no (o bien selecciona las
manzanas para asegurar que acepte).
p = 0.08, de donde sale? No de controlar todas las manzanas, puede ser de experiencias anteriores o
por criterios tomados, siempre hay cierta impresición en los valores, por eso no es de gran utilidad tomar
muchos decimales para el cálculo.(Si p no es preciso, no sirve demasiado tomar 23 decimales)
Ejemplo 48. Los aviones de una compañı́a área disponen de 100 asientos. La empresa vende por cada
vuelo 110 pasajes y sabe que la probabilidad que una persona que reservó pasaje no viaje es de 0.07 (ver
las consideraciones del ejemplo h47i para p). Suponiendo se venden todos los pasajes, qué porcentaje
de reclamos tiene la compañı́a por vuelo? La variable r =número de pasajeros que quieren viajar en un
vuelo determinado claramente satisface las hipótesis de dicotomı́a y p constante del modelo binomial,
pero no está muy claro el caso de la independencia de las variables ya que para que ésto valga, que un
74CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON
pasajero decida viajar (o no viajar) no debe tener efecto en la decisión de cualquier otro pasajero. Pero
por ejemplo el caso que el equipo representativo de un club que reservó pasajes para viajar al lugar
donde se realiza el torneo, si el torneo se posterga o se suspende, no viaja ninguno, o en el caso de una
familia que reservo por las vacaiones, si alguno se enferma seguramente no todos viajarán. La hipótesis
de independencia es por lo menos dudosa en este caso.
Para aplicar el modelo debemos suponer que sı́ son independientes, ası́: r ∼ b(n = 110, p = 0.93) y la
probabilidad pedida es
110
X 110 r 110−r
P (haya reclamos) = P (r > 100) = (0.93) (0.07) = 0.76
r=101
r
Cuadro 5.2: porcentaje de reclamos por cada vuelo según la cantidad de pasajes que vende la empresa
Nro. de pasajes
que vende Riesgo
101 0.0006
102 0.005
103 0.02
104 0.06
105 0.13
106 0.24
107 0.37
108 0.51
109 0.65
110 0.76
Ejemplo 49. Representación gráfica de la función de probabilidad de una variable binomial para diversos
valores de los parámetros n y p
0.25 binomial
0.25 binomial n=10, p=0.5
n=10, p=0.3
0.2
0.2
0.15
0.15
0.1 0.1
0.05 0.05
r r
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
0.4 binomial
0.25 binomial n=10, p=0.9
n=10, p=0.7
0.2 0.3
0.15
0.2
0.1
0.1
0.05
r r
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
5.3. LA VARIABLE GEOMÉTRICA 75
0.1 0.1
r r
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0.1 0.1
r r
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0.6
0.4 binomial
0.5 n=5, p=0.3
0.3
0.2
0.2
0.1
0.1
r r
0 1 2 3 4 5 0 1 2 3 4 5
0.2 0.2
0.1 0.1
r r
0 1 2 3 4 5 0 1 2 3 4 5
Obsérvese que hay una cierta probabilidad de que X sea igual a cualquier valor entero positivo, además
si el primer bit se recibe con error es X = 1, por lo tanto el rango de X es x = 1, 2, 3 . . .
76CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON
Formalmente: en una serie de ensayos Bernoulli, se define la variable n=nro. de ensayos hasta el primer
éxito, entonces n es una variable aleatoria Geométrica con parámetro p y su función de probabilidad es
(
p(1 − p)n−1 n = 1, 2, 3 . . .
P (n/p) =
0 ∀ otro n
1 1−p
Media y variancia de una variable geométrica: µn = σn2 =
p p2
1
Que la media sea igual a donde p es la probabilidad de éxito en un ensayo, dice que si p es muy
p
chico se necesitan muchas repeticiones para obtener el primer éxito. En el ejemploh44i, el número medio
1
de transmisiones hasta que se reciba el primer bit con error es µ = = 10
0.1
Interesa conocer la probabilidad que el primer éxito ocurra después de cierto número de ensayos:
La probabilidad que el primer bit con error ocurra luego del décimo bit transmitido es 0.910
La figura siguiente explicita el significado de (5.7): a partir de cualquier ensayo en el que se inicie la
observación en un proceso Bernoulli, la cantidad de ensayos subsiguientes es la misma variable geométrica.
Figura 5.2: el primer éxito en el ensayo n + m contando la cantidad de ensayos desde el primero, es
equivalente a que el primer éxito ocurra en el n-ésimo ensayo subsiguiente al ensayo m
La probabilidad que el primer bit que se reciba con error, después de 100 transmisiones, sea el bit
105, es la probabilidad que ocurra el suceso {BBBBE} en las 5 transmisiones posteriores a la número
4
cien, pero esto tiene probabilidad (0.1) (0.9) que es la misma probabilidad que el primer error ocurra
en la quinta transmisión. Es decir, no importa lo que ocurrió en las 100 primeras transmisiones, la
probabilidad que un bit se transmita con error en la siguiente transmisión sigue siendo 0.1, mientras p
5.3. LA VARIABLE GEOMÉTRICA 77
permanezca constante, la independencia de las transmisiones implica que para predecir si en la siguiente
transmisión se recibir un bit con error, toda la historia pasada es irrelevante.
P (X = 105 ∩ X > 100) P (X = 105) p(1 − p)104
P (X = 105/X > 100) = = = = p(1 − p)4 = P (X = 5)
P (X > 100) P (X > 100) (1 − p)100
La generalización de este ejemplo poniendo m + n en lugar de 105 y m en lugar de 100 demuestra la
validez de (5.7)
Ejemplo 50. Se dispone de dos dados, uno de ellos con probabilidad de as del 30 % y el otro un dado
normal. Se toma uno de ellos al azar y se lo tira sucesivamente obteniendo como resultado 6 - 4 -1. Cuál
es la probabilidad de que el dado elegido haya sido el malo?
La experiencia de tirar un dado y observar el número que sale satisface las hipótesis de ensayos tipo
Bernoulli. Definamos n=cantidad de tiradas hasta el primer as y el suceso D que consiste en elegir el
dado cargado.
P (D ∩ n = 3)
P (D/n = 3) = def. de probabilidad condicional
P (n = 3)
P (D)P (n = 3/D)
= probabilidad total
P (D)P (n = 3/D) + P (D)P (n = 3/D)
P (D)P (n1 = 3)
=
P (D)P (n1 = 3) + P (D)P (n2 = 3)
(n = 3/D) es el suceso: el primer as en el tercer tiro con el dado cargado y n = 3/D es el suceso: el
primer as en el tercer tiro con el dado equilibrado, las dos variables son geométrica pero no la misma
ya que tienen distinto parámetro p, por eso distinguimos llamando n1 y n2 respectivamente siendo
P (n1 = n) = (0.3)(0.7)n−1 y P (n2 = n) = (1/6)(5/6)n−1
(0.5)(0.3)(0.7)2
= = 0.56
(0.5)(0.3)(0.7)2 + (0.5)(1/6)(5/6)2
0.04 0.08
0.02 0.04
0.01 0.02
n n
5 10 15 20 25 30 35 40 45 50 5 10 15 20 25 30
0.5
0.3
0.25 0.4
0.05 0.1
n n
4 8 12 16 20 2 4 6 8 10
78CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON
0 0 0 1 0 0 0 0 0 1 0 0 0 0 1
nro. de ensayos hasta el tercer éxito = n+n+n
Figura 5.3: El nro. de ensayos hasta el tercer éxito como la suma del nro. de ensayos hasta el primer
éxito, más el nro. de ensayos entre el primer éxito y el segundo, más el número de ensayos entre el
segundo éxito y el tercero.
Calculemos esa probabilidad. Llamamos X a la variable número de bits transmitidos hasta el tercer
error. P (X = 15) es la probabilidad que exactamente 2 errores ocurran en las primeras 14 transmisiones
y que el decimoquinto bit resulte en el tercer error. La probabilidad
que exactamente 2 errores ocurran
14 2 12
en los primeros 14 ensayos es (recordar la variable binomial) (0.1) (0.9) . Como las transmisio-
2
nes son independientes, la probabilidad que exactamente dos errores ocurran en las catorce primeras
transmisiones y que la decimoquinta transmisión resulte en un error es el producto de estos dos sucesos,
resulta
14 2 12 15 − 1 3 15−3
P (X = 15) = (0.1) (0.9) (0.1) = (0.1) (0.9) = 0.025
2 3−1
Generalizamos este resultado considerando entonces una secuencia de experiencias Bernoulli y defi-
nimos la variable aleatoria np = número de ensayos hasta que ocurre el r − simo éxito. (variable Pascal)
El r-simo é xito en el n-simo ensayo
1 1 0 0 1 0 1 0 0 1
r-1 é xitos en los n-1 primeros ensayos n
El suceso np = n significa que en el n-simo ensayo ocurra el éxito nro. r y por tanto en los primeros n − 1
ensayos tiene que haber exactamente r − 1éxitos. Un éxito en el ensayo n tiene probabilidad p; y r − 1
n − 1 r−1 (n−1)−(r−1)
éxitos en n − 1 ensayos tiene probabilidad p (1 − p) (variable binomial). Como los
r−1
sucesos son independientes las probabilidades se multiplican y entonces la función de probabilidad de
una variable Pascal es:
n − 1 pr (1 − p)n−r n=r+1 ;r+ 2,. . .
P (np = n/r, p) = r−1 (5.8)
0 en otro caso
Notar que con r = 1 resulta la variable geométrica y como se ha visto al principio de éste parágrafo
que la variable Pascal se puede pensar como la suma de r variables geométricas, usando (5.2) y (5.3)
resulta
r 2 r(1 − p)
µnp = σn p
=
p p2
5.4. LA VARIABLE PASCAL 79
Ejemplo 52. Un sitio web contiene tres servidores idénticos. Solo uno se utiliza para operar el sitio y los
otros dos son repuestos que se pueden activar en caso de que el sistema principal falle. La probabilidad
de una falla por una solicitud de servicio es 0.0005. Suponiendo que las solicitudes de servicio son
independientes, cuál es la probabilidad que los tres servidores fallen antes de la sexta solicitud de servicio?
cuál es el número promedio de solicitudes hasta que los tres servidores fallan?
y la probabilidad pedida
0.020
0.06
0.015
0.04
0.010 pascal
r=4 ; p=0.1 pascal
r=4 ; p=0.3
0.02
0.005
n n
0 20 40 60 80 100 0 5 10 15 20 25 30 35
0.15
0.25
0.20
0.10
0.15
0.05 pascal
0.10 pascal
r=4 ; p=0.5 r=4 ; p=0.7
0.05
n n
5 10 15 20 4 6 8 10 12
80CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON
Asumir que la cantidad de éxitos es una variable binomial tiene el inconveniente de descartar la po-
sibilidad que en un minuto ocurran dos, tres, cuatro o más éxitos pues ésta distribución es aplicable
cuando cada ensayo tiene solo dos resultados posibles: éxito o fracaso (dicotomı́a), es decir o bien ningún
éxito o bien un éxito en cada ensayo. La intención de asegurar que en un intervalo de tiempo se den las
condiciones de dicotomı́a, lleva a considerar intervalos de tiempo infinitesimales, a través de una sucesión
de aproximaciones y paso al lı́mite.
Ası́, en vez de considerar 10 intervalos de un minuto, consideramos 600 intervalos de 1 segundo, de
modo que en el mismo tiempo t=10 minutos realizamos 600 ensayos Bernoulli. Asumiendo la hipótesis
0.2
que la probabilidad de éxito en cada ensayo es proporcional a la longitud del intervalo p = , el
60
0.2
número de éxitos en el intervalo fijo de 10’ es aleatorio y µ = n · p = 600 = 10(0.2) = 2.
60
Dt=1s. n=600 ensayos de 1s.
t=10
Si continuamos “afinando” y realizamos un ensayo cada décima de segundo, en 10 minutos habrá 6000
0.2
ensayos Bernoulli y nuevamente µ = n · p = 6000 = 10(0.2) = 2.
600
Ası́ siguiendo en un intervalo fijo de 10’, más ensayos Bernoulli se pueden realizar, cada vez de menor
duración cada uno de ellos, pero con un número medio de errores µ = n · p que se mantiene igual a 2
como se observa en el cuadro siguiente.
t ∆t n p µ=n·p
10’ 1’ 10 0.2 2
10’ 1 s. 600 0.2/60 2
10’ 0.1 s. 6000 0.2/600 2
10’ 0.01 s. 60000 0.2/6000 2
10’ 0.001 s. 600000 0.2/60000 2
10’ 0.0001 s. 6000000 0.2/600000 2
Cuadro 5.3: partición de un intervalo fijo de tiempo t=10 minutos en subintervalos de longitud ∆t cada
vez menor de forma tal que el número de éxitos n · p se mantiene constante e igual a 2
Es decir, la cantidad de ensayos crece y la probabilidad p de éxito en cada ensayo decrece de forma
tal que el número medio de éxitos en un intervalo fijo de longitud t permanece constante.
En el lı́mite, en cada instante un ensayo Bernoulli se llevará a cabo. La probabilidad p de éxito se
aproxima a cero de tal modo que µ = n·p permanece constante. Para no perder de vista que hemos fijado
el valor de t (en el ejemplo t=10 minutos) llamamos λt a esta constante ası́ µ = n · p = λt permanece
constante.
5.5. LA VARIABLE POISSON 81
donde la cantidad de éxitos x varı́a desde 0 a infinito (pues n → ∞) y resulta ser una función de
probabilidad bien definida ya que
∞ ∞
e−λt (λt)x X e−λt (λt)x X (λt)x
≥0 y = e−λt = e−λt eλt = 1
x! x=0
x! x=0
x!
Ası́, como un paso al lı́mite de la distribución binomial resulta esta variable aleatoria (que registra el
número de éxitos en un intervalo continuo) que llamamos variable Poisson y que formalmente definimos
asi:
Sea k=cantidad de éxitos en un intervalo continuo de longitud t con tasa λ de éxito por unidad de
continuo, entonces k es una variable aleatoria con función de probabilidad
e−λt (λt)k
k = 0, 1, 2 · · ·
.
P k λ, t = k! (5.9)
0 ∀ otro k
La media y la variancia de una variable Poisson: µk = λt σk2 = λt
µ
De la media de la variable Poisson resulta λ = que se interpreta como la media por unidad de t
t
Algunas tı́picas variables Poisson
a) la cantidad de roturas de hilos en un máquina textil durante un cierto intervalo de tiempo.
b) la cantidad de choques en una determinada esquina durante el mes.
c) la cantidad de personas que pasan por cierto lugar durante un perı́odo determinado
Ejemplo 54. Tres llamadas llegan cada media hora en promedio. Calcular la probabilidad de a) ninguna
llamada en una hora b) más de dos llamadas entre las 11:00 y las 11:45
Suponiendo que una llamada puede ocurrir con igual probabilidad en cualquier instante y que las
llamadas son independientes, definiendo k=cantidad de llamadas en un intervalo de longitud t, k es una
variable Poisson con tasa de llamadas λ=3/0.5 hora = 6/hora
6
a) en un intervalo t = 1hora λt = · 1hora = 6
1hora
. e−6 60
P (ninguna llamada en una hora) = P k = 0 λ = 6 , t = 1 = = e−6
0!
6 3 9
b) en un intervalo t = 45 minutos λt = · hora =
1hora 4 2
,
Ejemplo 55. Una tela tiene dos tipos de falla. Las fallas de tejido ocurren a una tasa de 2 cada 10
metros y las fallas de estampado a razón de 1 falla cada 20 metros. Cuál es la probabilidad que un rollo
de 40 metros tenga 2 fallas?
Suponiendo que una falla de tejido puede ocurrir con igual probabilidad en cualquier punto del rollo y
que las fallas de tejido son independientes, la variable kt = cantidad de fallas de tejido es una variable
2
Poisson con tasa λ = . y tiene una función de probabilidad
10 metros
,
−8 k
P kt = k = e 8 para k = 0, 1, 2 . . .
2 k!
λ= , t = 40
10
La misma suposición para las fallas de estampado hacen que ke = cantidad de fallas de estampado sea
1
una variable Poisson con tasa λ = con función de probabilidad
20 metros
,
−2 k
P ke = k = e 2 para k = 0, 1, 2 . . .
1 k!
λ= , t = 40
20
La cantidad de fallas en el rollo es la suma de la cantidad de fallas de cada tipo de manera que si
k=cantidad de fallas es k = kt + ke , es decir la variable k es la suma de dos variables Poisson.
El suceso 2 fallas en el rollo puede pensarse como la unión de los sucesos mutuamente excluyentes 2
fallas de tejido y ninguna falla de estampado,1 falla de cada tipo, 2 fallas de estampado y ningun falla
de tejido, ası́:
P (k = 2) = P (kt + ke = 2)
= P (kt = 2 ∩ ke = 0) + P (kt = 1 ∩ ke = 1) + P (kt = 0 ∩ ke = 2)
suponiendo ahora independencia entre los dos tipos de falla
= P (kt = 2)P (ke = 0) + P (kt = 1)P (ke = 1) + P (kt = 0)P (ke = 2)
e−8 82 −2 e−2 22
= e + 8e−8 2e−2 + e−8
2! 2!
2 2
8 2
= e−8 e−2 + 16 + = 50e−10
2! 2!
102 −10
Esto lo podemos escribir como e y observamos que esta probabilidad es igual a la probabilidad
2!
que una variable Poison de media µ = λt = 10 tome el valor 2 (por (5.9)),
y si t = 40 es λ = 1/4
λ = 1/4 = 2/10 + 1/20 = λt + λe
donde la tasa λ de fallas es la suma de las tasas de falla de tejido y de estampado,
,
−10 2
P k = 2 = e 10
1 2!
λ= , t = 40
4
Este resultado es general: si k1 y k2 son variables Poisson con tasas λ1 y λ2 respectivamente, entonces
la variable k = k1 + k2 también es Poisson con tasa λ = λ1 + λ2 como se prueba en la sección h7.1.6i
La variable Poisson se presentó como un paso al lı́mite de la distribución binomial con ciertas carac-
teeı́sticas. El siguiente cuadro muestra un ejemplo de tal aproximación
5.6. LA VARIABLE EXPONENCIAL 83
No obstante, la variable Poisson tiene peso propio ya que tiene un papel importante debido a que
representa un modelo de probabilidad adecuado para un gan número de fenómenos observables. En el
ápendice se muestra como se obtiene la función de probabilidad Poisson con postulados propios.
0.20
0.10
0.08 0.15
0.06 poisson
0.10
1 poisson
0.04 Λ= ;t=40
5 1
0.05 Λ= ; t=40
0.02 20
k k
5 10 15 20 2 4 6 8
e−(λt) (λt)k
P (k /λ, t ) = para k = 0, 1, 2, . . .
k!
que lleva un registro del número de éxitos en un intervalo de longitud fija t.
Nos preguntamos ahora acerca de la longitud del intervalo hasta que ocurre el primer éxito. Es decir,
hacemos variable la longitud de intervalo definiendo una variable continua t= longitud del intervalo hasta
el primer éxito. Buscamos la función de distribución de t, variable a la que llamaremos exponencial.
F (t = t) = P (t ≤ t) = 1 − P (t > t)
El suceso t > t significa que el primer éxito ocurra en el intervalo (t, +∞) lo que es equivalente a
que en el intervalo (0, t) no haya éxitos como se ve en la figura.
0 t t
84CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON
Fijado el valor t > 0 de t, ningún éxito en el intervalo (0, t) significa k = 0 en un intervalo de longitud t
e−(λt) (λt)0
P (t > t) = P (k = 0 /λ, t ) = = e−λt
0!
ası́ resulta
(
1 − e−λt t≥0
F (t = t) = P (t ≤ t) = 1 − P (t > t) =
0 t<0
Derivando esta expresión se tiene la función densidad de probabilidad de una variable exponencial
de parámetro λ (
λe−λt t≥0
f (t /λ ) =
0 t<0
1 1
La media y la variancia de una variable exponencial: µt = σt2 =
λ λ2
Ejemplo 57. Sea k= cantidad de fallas en un rollo de tela, la variable del ejemplo (55), con una tasa
de una falla cada 4 metros. Si se corta la tela en la falla: a) calcular la probabilidad que un rollo mida
más de 4 metros. b) cuál es la probabilidad que la longitud del rollo sea a lo sumo de 5 metros si se sabe
que mide más de 1 metros? c) cuál es la longitud promedio de los rollos?
5.7. LA VARIABLE GAMMA 85
b)
P (1 < t ≤ 5) F (t = 5) − F (t = 1)
P (t ≤ 5 t > 1 ) = =
P (t > 1) 1 − F (t = 1)
5
1
1 − e− 4 − 1 − e− 4 1 5
e− 4 − e− 4
= 1 = 1
e− 4 e− 4
−1
= 1 − e = F (t = 4) = P (t ≤ 4)
Si se sabe que no hubo fallas en el primer metro, la probabilidad que la primera ocurra en los siguientes
4 metros, es la misma probabilidad que la primer falla ocurra en los primeros 4 metros. Este resultado
se generaliza y es interesante interpretar su significado
P (n < t ≤ n + m) F (t = m + n) − F (t = n)
P (t ≤ n + m t > n ) = =
P (t > n) 1 − F (t = n)
1 − e−λ(m+n) − 1 − e−λn
e−λn − e−λ(n+m)
= −λn
=
e e−λn
−λm
= 1−e = F (t = m) = P (t ≤ m)
1
c) la longitud media de los rollos es µt = =4 metros
1/4
t t1
Consideremos ahora la variable longitud del rollo desde t1 hasta la siguiente falla que ocurre a los t2
metros. El largo del rollo entre t1 y t2 es la misma variable exponencial.
primera falla segunda falla
t t1 t t2
El largo de rollo hasta la segunda falla(también una variable) es la suma de dos variables exponenciales
de igual parámetro λ, el largo del rollo hasta la primer falla, más el largo del rollo entre la primera y
la segunda falla. Cuál es la función densidad de probabilidad de la variable longitud del rollo hasta la
segunda falla?
Sea T2 = Longitud del rollo hasta la segunda falla. La función de distribución es:
F (T2 = t) = P (T2 ≤ t) = 1 − P (T2 > t)
El suceso T2 > t significa la segunda falla en el intervalo (t, +∞) lo que equivales a que haya a lo sumo
una falla en (0, t) como se ve en la figura
86CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON
t k1 k2 k=1 t k=2
fHtΛ=0.25;k=2L
1
1 2 − t
f (T2 = t λ=1/4 ) = te 4 t≥0
4
0 t<0
∞ 2 1
− t
Z
1
P (T2 > 8) = te 4 dt = 0.406
8 4
Generalizando el caso anterior la variable aleatoria T que mide la longitud del continuo hasta el
k-simo éxito en un proceso Poisson de parámetro λ, es una variable aleatoria que llamamos Gamma,
tiene como parámetros k y λ y su función de densidad de probabilidad es
k k−1 λt
λ t e
t≥0
f (T = t /λ,k ) = (k − 1)!
0 t<0
Ejemplo 58. Los libros son devueltos a la biblioteca con una periodicidad que se distribuye en forma
exponencial con un promedio de 5’. Cuál es la probabilidad de que el tercer libro sea devuelto antes de
19 minutos?
Si t es el tiempo hasta la devolución del siguiente libro, t es una variable exponencial de parámetro
λ = 1/5 y T3 = tiempo hasta la devolución del tercer libro, T3 es una variable Gamma con parámetros
k = 3 y λ = 1/5 y tiene una función densidad de probabilidad
1
1 3 t2 e− 5 t
f (T3 = t λ=1/5 ) = t≥0
5 2!
0 t<0
1
19 3 2 − t
t e 5
Z
1
entonces P (t ≤ 19) = dt = 0.7311
0 5 2!
5.7. LA VARIABLE GAMMA 87
Ejemplo 59. Una máquina trabaja 5000 horas por año. El motor tiene una tasa de 7 fallas cada 10000
horas. Se tiene 2 motores de repuesto.(a) Calcular la probabilidad que el motor falle antes de las 3200
horas (b) Hallar la probabilidad que con los motores de repuesto con que se cuenta alcance para un año
de trabajo.
(a) Sea t=tiempo de funcionamiento de la máquina hasta que el motor falla entonces t es una variable
7
esponencial de parámetro λ = 10000 y su función de distribución es
7
!
− t
F (t = t) = P (t ≤ t) = 1 − e 10000 t≥0
0 t<0
7
− 3200
de donde P (t < 3200) = F (t = 3200) = 1 − e 10000 = 0.89
(b) Para que con tres motores la máquina trabaje un año por lo menos, la tercera falla debe ocurrir
luego de las 5000 horas de funcionamiento.
Sea T3 el tiempo de funcionamiento de la máquina hasta la rotura del tercer motor, T3 es una variable
7
Gamma de parámetros λ = 10000 ; k=3
7
!
− t
3 10000
t2 e
. 7
f T3 = t 7
λ= 10000 ; k=3 = t≥0
10000 2!
0 t<0
7
!
3 − t
Z +∞
7 t2 e 10000
entonces es P (T3 > 5000) = dt
5000 10000 2!
Λ=0.2
0.05 Λ=0.2
k=3 0.04 k=4
0.04
0.03
0.03
0.02
0.02
0.01
0.01
t t
20 40 60 80 100 20 40 60 80 100
Λ=0.2
Λ=0.2 0.025
k=10
k=5
0.03 0.020
0.015
0.02
0.010
0.01
0.005
t t
20 40 60 80 100 20 40 60 80 100
88CAPÍTULO 5. VARIABLES PARTICULARES: EL PROCESO BERNOULLI Y EL PROCESO POISSON
k=3
0.05
k=4
0.04
k=5
0.03
k=10
0.02
0.01
t
20 40 60 80 100