Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Hugo Cornejo Villena, Hugo Cornejo Rosell - Introducción Al Cálculo de Probabilidades-Universidad Nacional Agraria La Molina (UNALM) (2021)
Hugo Cornejo Villena, Hugo Cornejo Rosell - Introducción Al Cálculo de Probabilidades-Universidad Nacional Agraria La Molina (UNALM) (2021)
CÁLCULO DE
PROBABILIDADES
HUGO CORNEJO VILLENA
HUGO CORNEJO ROSELL
INTRODUCCIÓN AL
CÁLCULO DE
PROBABILIDADES
Derechos reservados
ISBN: 978-612-4387-83-8
Hecho el Depósito Legal en la Biblioteca Nacional del Perú N° 2021-10310
Prólogo .................................................................................................... 3
Capítulo 1: Espacio de probabilidad ................................................................. 5
1.1 Introducción............................................................................................... 5
1.2 Experimento aleatorio ............................................................................... 6
1.3 Espacio muestral........................................................................................ 7
5. 3. Distribucion hipergeometrica.................................................................136
5. 4. Distribucion de poisson .........................................................................138
5. 5. Distribucion polinomial .........................................................................144
Capítulo 6: Distribuciones continuas.............................................................153
6. 1. Distribuciones continuas de una variable aleatoria................................153
6. 2. Distribuciones continuas de varias variables aleatorias .........................165
6. 3. Densidad de las funciones de variables aleatorias .................................182
Capítulo 7: Tipos especiales de distribuciones continuas..............................196
7. 1. Distribuciones Gamma y Beta ...............................................................196
7. 2. Distribucion normal ...............................................................................203
7. 3. Distribucion Exponencial ......................................................................220
7. 4. Distribucion ji - cuadrada ......................................................................224
7. 5. Distribucion Weibull..............................................................................230
7. 6. Distribucion F ........................................................................................232
7. 7. Distribucion T de Student ......................................................................236
Capítulo 8: Esperanza matematica y limites..................................................250
8. 1. Esperanza de una variable aleatoria .......................................................250
8. 2. Esperanza de combinacion lineal de variables aleatorias.......................265
8. 3. Momentos y funcion generadora de momentos de variables aleatorias .269
8. 4. Esperanza condicional ...........................................................................286
8. 5. Convergencia en probabilidades ............................................................292
8. 6. Teoremas sobre limites ..........................................................................297
Tablas ........................................................................................319
Respuestas a los ejercicios......................................................................................334
Bibliografía ................................................................................................344
PRÓLOGO
∞
3. Si A 1 , A 2 , A 3 ,..., A n ,... ∈ A ⇒ A i ∈ A .
i =1
EJEMPLO
1.4.1 Consideremos el experimento aleatorio E que consiste en lanzar una
moneda. El espacio muestral asociado a este experimento es:
Ω = {C, S}; donde C = cara y S = sello
Son σ - álgebra de eventos de Ω , las familias:
A 1 = { Ω , φ } y A 2 = { Ω , φ , {C}, {S }}= 2 Ω ; ya que satisfacen las
tres condiciones de la definición anterior y mientras que la familia:
A 3 = { Ω , φ , {C}} no es un σ - álgebra de eventos de Ω ; puesto que
{C} ∈ A 3 y {C}c = {S} ∉ A 3, luego no cumple una condición de la
definición.
Pasaremos ahora a establecer y demostrar consecuencias importantes de
las tres condiciones de un σ - álgebra de eventos:
Introducción al Cálculo de Probabilidades 11
TEOREMA 1.4.1
El evento imposible φ , siempre pertenece a A , es decir φ ∈ A .
DEMOSTRACION:
Por (1) de la definición Ω ∈ A y por (2) de la definición Ω c ∈ A y dado
que φ = Ω c , entonces φ ∈ A .
NOTA: Si A es un σ - álgebra de eventos de Ω , de la definición y el teorema
anterior, observamos que siempre Ω y φ pertenecen a A .
EJEMPLO
1.4.2 Tomemos el experimento aleatorio E, que consiste en esperar el
resultado de un partido de fútbol entre dos equipos. El espacio muestral
asociado a este experimento es:
Ω = {G, E, P}; donde G = gana, E = empata y P = pierde
La familia = { Ω , φ ,{G}, {E, P}} es un σ - álgebra, puesto que:
1. Ω ∈ A
2. Ω ∈ A ⇒ Ω c = φ ∈ A
{G} ∈ A ⇒ {G}c = {E, P} ∈ A ⇒ {E, P}c ∈ A
3. La unión de elementos de A están en A ; por ejemplo:
Ω ∪ {G} = Ω ∈ A , {G}∪ {E, P} = Ω ∈ A , etc.
TEOREMA 1.4.2
A es cerrado bajo la unión finita de eventos; es decir si: A 1 , A 2 , A 3 ,..., A n ∈
n
A , entonces A i ∈ A .
i =1
DEMOSTRACION:
Como φ ∈ A , por el teorema 1.4.1, definimos φ A = A n +1 = A n + 2 = ... ,
∞ ∞ n n
entonces por (3) A i ∈ A . Pero como A i = A i , entonces A i ∈ A
i =1 i =1 i =1 i =1
TEOREMA 1.4.3
A es cerrado bajo la intersección numerable de eventos; es decir si:
∞
A 1 , A 2 , A 3 ,..., A n ,... ∈ A , entonces A i ∈ A .
i =1
DEMOSTRACION:
Como A i ∈ A para i=1,2,3, ...., también A ic ∈ A para i=1,2,3, ....
c
∞
∞ c
Entonces por (3) A i ∈ A . Por (2) se tiene que A i ∈ A . Por una
c
i =1 i =1
12 Hugo Cornejo Villena & Hugo Cornejo Rosell.
( )
c
∞ c ∞
c c ∞
de las leyes de De Morgan generalizada, se tiene: A i = A i = Ai
i =1 i =1 i =1
∞
luego A i ∈ A .
i =1
COROLARIO 1.4.1
A es cerrado bajo la intersección finita de eventos, es decir; si
n
A 1 , A 2 , A 3 ,..., A n ∈ A , entonces A i ∈ A .
i =1
DEMOSTRACION:
Sea Ω = A n +1 = A n + 2 = .... , entonces aplicando el teorema 1.4.3 se tiene que:
∞ n
Ai = Ai ∈ A .
i =1 i =1
Como veremos más adelante, un σ - álgebra será una familia particular
de eventos que representará el dominio de la función real valorada que induce
la ordenación probabilística, o mejor dicho, los elementos del σ -álgebra y
sólo ellos, tendrán asociado a un número real como “medida” de probabilidad
por lo que sólo los elementos de dicho σ - álgebra serán comparables bajo la
indicada ordenación probabilística.
Consecuentemente, decir que un evento pertenece a un σ - álgebra puede
interpretarse intuitivamente como afirmar que interesa “medir” su
probabilidad, o bien interesa compararlo probabilísticamente con los demás
eventos del σ - álgebra. De acuerdo con esta interpretación y tomando en
cuenta la definición de σ - álgebra, así como los teoremas puede afirmarse:
a) Siempre interesará “medir” la probabilidad de φ .
b) Si interesa “medir” la probabilidad de A, interesará “medir” la de A c .
c) Si interesa “medir” la probabilidad de cada término de la sucesión
{A i i ∈ Ν} , entonces interesa “medir” la probabilidad de:
∞ ∞ n n
Ai , Ai , Ai Ai .
i =1 i =1 i =1 i =1
DEFINICIÓN 1.4.2
Sea Ω un espacio muestral y sea A un σ - álgebra de eventos de Ω donde
( A ⊆ 2Ω ) . Se llama espacio medible al par ( Ω , A ). Si A ∈ A se dice
que A es medible.
{ } Ω
Consideremos como G = A, A c donde, A∈ A , G ⊆ 2 , deseamos
encontrar un σ - álgebra de eventos de Ω el "más pequeño" que contiene a
G, en el sentido de que todos los elementos de G están en dicho σ - álgebra
de eventos de Ω y de los restantes eventos, solo están en ese σ - álgebra.
Introducción al Cálculo de Probabilidades 13
1 1 1 1
A n = x - , y , Bn = x - , y - , C n = x, y - ;
n n n n
entonces
A n ∈ J ∧ Bn ∈ J ∧ Cn ∈ J, ∀n ∈ N
y además
lim A n = [x , y], lim B n = ]x , y[, lim C n = ]x , y[
n →∞ n →∞ n →∞
por tanto
lim A n ∈ A (J) ∧ lim B n ∈ A (J) ∧ lim C n ∈ A (J).
n →∞ n →∞ n →∞
i =1 i =1
i =1 i =1 i =1
Para que esta igualdad sea válida, el único valor posible de P ( φ ) es cero.
TEOREMA 1.5.2
Si: A 1 , A 2 ,..., A n es una sucesión finita de eventos disjuntos cualesquiera,
entonces:
P A i = ∑ P(A i ) .
n n
i =1 i =1
DEMOSTRACION:
Hagamos que B i = φ,....{ A i ,..si..i =1, 2 , 3,..., n
si....i > n entonces:
i =1 i =1 i =1 i =1 i =1
TEOREMA 1.5.3
Si A y B son eventos cualesquiera de Ω , entonces:
( )
Es frecuente llamar tanto a P(A ) y P A c como probabilidades
complementarias.
TEOREMA 1.5.6
Si Ω contiene n eventos elementales equiprobables y m de estos pertenecen al
m
evento A, entonces P(A) = .
n
DEMOSTRACION:
18 Hugo Cornejo Villena & Hugo Cornejo Rosell.
n
n n
Sea Ω = Wi ,entonces P(Ω) = P Wi = ∑ P( Wi ) . Por ser los eventos Wi
i =1 i =1 i =1
mutuamente excluyentes y eventos elementales (conjunto que tiene un punto
muestral como único elemento; conjunto unitario) equiprobables (igual
probabilidad).
P(W1 ) = P(W2 ) = P(W3 ) = ... = P(Wn ) = P( W ) , entonces:
n n 1
P(Ω) = ∑ P(Wi ) = ∑ P( W ) = nP( W ) ⇒ 1 = nP( W ) ⇒ P( W ) =
i =1 i =1 n
que es la probabilidad de un evento elemental equiprobable.
m
Por otro lado, sea A = Wi , entonces:
i =1
i =1 i =1 i =1
1 m
Por tanto, P(A) = m = .
n n
Como consecuencia del teorema podemos afirmar que, la probabilidad
de un evento, cuando los eventos elementales son equiprobables, es igual al
número de casos favorables (número de elementos de A o cardinalidad de A)
sobre el número de casos posibles (número de elementos de Ω o cardinalidad
de Ω ).
casos favorables número de elementos de A # (A)
P(A) = = =
casos posibles número de elementos de Ω # (Ω )
Esta es la definición clásica de Probabilidad que dice: “La probabilidad
de un evento A es la oportunidad relativa que tiene el evento de ocurrir y es
igual al número de casos favorables sobre el número de casos posibles”. Así
mismo, es la interpretación de la frecuencia de ocurrencia de un evento,
obviamente bajo las condiciones del teorema 1.5.6.
DEFINICIÓN 1.5.2
Se conoce como espacio de probabilidad equiprobable a aquel espacio donde
la probabilidad P asigna igual probabilidad a cada uno de sus eventos
elementales (condición del teorema 1.5.6).
EJEMPLOS
1.5.1 ¿Cuál es la probabilidad de que al lanzar un dado aparezca en la cara
superior un valor par y cuál es la probabilidad de obtener un número
mayor que dos?
SOLUCIÓN:
El espacio muestral es Ω = {1,2,3,4,5,6}
Introducción al Cálculo de Probabilidades 19
#A 3 1
a) Los pares son A = {2,4,6}, entonces P(A) = = = = 0,5
#Ω 6 2
#B 4 2
b) Mayor que 2: B = {3,4,5,6}, entonces P(B) = = = = 0,666
#Ω 6 3
1.5.2 Una carta se extrae aleatoriamente de una baraja de 52 cartas. ¿Cuál es
la probabilidad de que sea una jota y cuál la probabilidad de que sea un
cinco de corazones?
SOLUCIÓN:
Previamente, recordemos que en una baraja de 52 cartas hay 13 cartas de
cuatro palos: espadas, corazones, tréboles y oros; consecuentemente es
importante tener presente que el espacio muestral Ω , tiene 52 cartas y
los eventos, tienen elementos, de acuerdo con los casos favorables:
4 1
a) P( jota ) = P(11) = =
52 13
1
b) P(cincodecorazones) = , (en las 52 cartas hay un sólo cinco de
52
corazones).
1.5.3 Dos personas A y B juegan de la siguiente manera: cada una lanza una
moneda dos veces. Un posible resultado, representado en notación
matricial es, por ejemplo:
1 1 2
1.5.8 Si P(A) = , P(B) = ,yP(A ∪ B) = , calcular:
2 2 3
a) P ( A )
b) P( A ∩ B)
c) P( A ∩ B)
SOLUCIÓN:
1 1
a) P( A ) = 1 − P(A) = 1 − =
2 2
b) P ( A ∩ B ) = P [B − ( A ∩ B)] = P(B) − P(A ∩ B)
Como
P(A ∩ B) = P(AB) = P(A) + P(B) − P(A ∪ B)
1 1 2 2 1
= + − = 1− =
2 2 3 3 3
1 1 1
Entonces P( A ∩ B) = − =
2 3 6
1 2
c) P( A ∪ B) = P( A ∩ B) = 1 - P(AB) = 1 - =
3 3
1.5.9 Si se carga un dado, de manera que un número par tiene el doble de
posibilidades de presentarse que un número impar. Sea A el evento de
que el dado caiga en un número par y B el evento de que resulte uno
divisible entre 4. Hallar P(A ∪ B) y P(A ∪ B ) .
c c
SOLUCIÓN:
El espacio muestral es: Ω = {1,2,3,4,5,6}, y si m es la probabilidad de
presentación de un número impar, entonces 2m es la probabilidad de
presentación de un número par. Dado que la suma de las probabilidades
1
debe ser 1, se tiene 3(m) + 3(2m) = 1, entonces 9m = 1, o m = . De
9
1 2
aquí que, las probabilidades de y se le asigna a cada número impar
9 9
y par, respectivamente.
Por otro lado: A= {2,4,6} y B = {4}, entonces A U B = {2,4,6} ,
A ∩ B = {4}
1 2
Al asignarle una probabilidad de a cada impar y de a cada par,
9 9
entonces:
Introducción al Cálculo de Probabilidades 23
2 2 2 6 2
a) P(A ∪ B) = + + = =
9 9 9 9 3
2 7
b) P(A c ∪ B c ) = P(A ∩ B) = 1 - P(A ∩ B) = 1 - =
9 9
NOTA: Debe observar el lector, que Ω contiene eventos no equiprobables y
por lo que no se utiliza el teorema 1.5.6 en el cálculo de las probabilidades.
1.5.10 En cierta ciudad, el porcentaje de personas que leen los diarios A, B y
C están dados en el siguiente diagrama:
1.5.12 Si = y si:
A1 = {( x , y) x ≤ 2 ∧ y ≤ 4} , A 2 = {( x , y) x ≤ 2 ∧ y ≤ 1}
A 3 = {( x , y) x ≤ 0 ∧ y ≤ 4} , A 4 = {( x , y) x ≤ 0 ∧ y ≤ 1}
A 5 = {( x , y) 0 < x ≤ 2 ∧ 1 < y ≤ 4}
Si se tiene que:
7 1 3 2
P(A1 ) = , P(A 2 ) = , P(A 3 ) = , P(A 4 ) = ,
8 2 8 8
Hallar P(A 5 )
SOLUCIÓN
Graficando adecuadamente, los diferentes eventos, obtenemos:
A 5 = A 1 − (A 2 ∪ A 3 ) y aplicando el teorema 1.5.4, tenemos:
P(A 5 ) = P[A1 − (A 2 ∪ A 3 )] = P(A1 ) − P(A 2 ∪ A 3 )
= P(A1 ) − [P(A 2 ) + P(A 3 ) − P(A 2 ∩ A 3 )]
= P(A1 ) − [P(A 2 ) + P(A 3 ) − P(A 4 )]
= P ( A1 ) − P ( A 2 ) − P ( A 3 ) + P ( A 4 )
7 1 3 2 6−4 2 1
= − − + = = =
8 2 8 8 8 8 4
EJERCICIOS
1.- Escriba los elementos de cada uno de los siguientes espacios muestrales:
a) El conjunto de los enteros de 1 y 30 divisibles por 6.
b) El conjunto de resultados, cuando una moneda se lanza al aire hasta
que resulten una cara o tres caras.
c) El conjunto Ω = {x 2 x − 4 ≥ 0∧ x < 1}
2.- Especificar un espacio muestral en un experimento en el que se deje sacar
dos bolas con reemplazo, de una urna que contiene 10 bolas (esto es, la
primera se devuelve a la urna, antes de sacar la segunda). Suponer que
las bolas están numeradas
3.- Supongamos que los residentes de Cotabambas son calvos, o de cabellos
cortos(recortado) o ya sea que son pelucones; además, que tienen ojos
negros o bien ojos pardos. Se selecciona al azar un residente y se pide
dar un espacio muestral Ω para este experimento y defina los siguientes
eventos:
A: El residente seleccionado es pelucón.
B: El residente seleccionado tiene ojos pardos
C: El residente seleccionado tiene cabello corto(recortado) y ojos
negros.
26 Hugo Cornejo Villena & Hugo Cornejo Rosell.
a) Un rey trébol?
b) Un 2,5,7 o 9?
c) Un as rojo y una jota negra?
12.- Ciertos billetes de lotería están numerados del 00001 al 50000. ¿Cuál es
la probabilidad de comprar un billete al azar y que el número resulte
divisible entre 200?
13.- Si A, B y C son eventos del espacio muestral Ω . Demostrar que:
a) Si A ⊂ ByB ⊂ C , entonces
b) A ∪ B = B ∪ A yA ∩ B = B ∩ A
c) A ∩ (B ∩ C) = (A ∩ B) ∩ Cy(A ∪ B) ∪ C = A ∪ (B ∪ C)
d) φ ∩ A = φ y φ ∪ A = A , e) Ω ∩ A = A y Ω ∪ A = Ω
f) (Ac )c = A , g) A ∪ B = A ∪ BAc y h) B = AB ∪ Ac B
14.- Si {A n } es una sucesión de eventos del espacio muestral Ω . Probar
que:
n
n
a) A i = A1 ∪ A1c ...A ic−1 A i
i =1 i =1
c c
n A = n Ac y n A = n Ac
b) i i i i (Leyes de De Morgan)
i =1 i =1 i =1 i =1
EJEMPLOS
2.1.1 ¿Cuántas placas para automóvil pueden hacerse usando 2 letras y un
número de 4 cifras, en el que la primera cifra debe ser diferente de uno?
SOLUCIÓN:
Se trata de llenar seis espacios, dos con letras y cuatro con números. El
primer y segundo espacio pueden llenarse en 26 formas cada uno (no se
consideran letras compuestas: CH, LL, RR y Ñ); el tercer espacio en
nueve formas, el cuarto, quinto y sexto, en 10 formas diferentes cada uno.
Por el principio de multiplicación se tiene:
(26)(26)(9)(10)(10)(10) = 6 084 000
Si suponemos que los seis espacios es una caja de seis compartimentos,
entonces se tiene:
SOLUCIÓN:
La primera pregunta puede ser contestada de dos maneras distintas, la
segunda de dos maneras distintas, la tercera de dos maneras distintas, y
así sucesivamente, la última pregunta también de dos maneras distintas.
Por consiguiente, aplicando el principio de la multiplicación:
2×
2 × ...
× 2 = 215 = 32768 formas diferentes.
15 veces
Para interpretar este principio con 2 eventos, otra vez usamos el enfoque
esquemático, como se indica:
EJEMPLOS
2.1.5 Supongamos que proyectamos un viaje Cusco - Arequipa y debemos
decidir el transporte por carretera o ferrocarril. Existen tres tipos de
vehículos por carretera (automóvil, camión y ómnibus) y dos por
ferrocarril (simplemente tren y auto vagón).
SOLUCIÓN
Por el principio de la adición se tiene 3+2 = 5 tipos de transporte para
viajar de Cusco a Arequipa por carretera o ferrocarril.
NOTA: El principio de la adición, así como el caso anterior, tiene su analogía
matemática: Si un conjunto A tiene m elementos y un conjunto B tienen n
elementos, entonces A ∪ B tendrá m + n elementos, si A ∩ B = φ (A y B
mutuamente excluyentes).
2.1.6 Si un experimento consiste en lanzar un dado sobre una mesa y sean los
eventos A = {2,4} y B = {1,3,5} . El evento A ocurre de dos maneras
(cuando sale 2 o 4), y el evento B ocurre de tres maneras (cuando sale 1,3
o 5); entonces, como los eventos son mutuamente excluyentes, el evento
A o B ocurrirá de 2 + 3 = 5 maneras; es decir si sale 1,2,3,4 o 5.
A ∪ B = {1,2,3,4,5}
2.2. TIPOS DE ANÁLISIS COMBINATORIO.
Como dejamos entender, en la sección anterior, el Análisis Combinatorio
es un sistema que permite agrupar y ordenar, en diversas formas, los elementos
de un conjunto, obviamente basado en los dos principios de la multiplicación
y adición.
Si tenemos un conjunto de “n” elementos y tomamos “k” de ellos para
formar agrupaciones, estos se distinguen entre sí por el orden en que están
colocados los elementos o por uno o más de ellos.
Así, por ejemplo, con los elementos p, q, r, s y t formamos agrupaciones
de 3 en 3:
pqr y prq se diferencian sólo por el orden.
pqr y pqs se diferencian por un elemento.
34 Hugo Cornejo Villena & Hugo Cornejo Rosell.
(
log X = log 2π(50) (50) 50 e −50 )
1 1
= log100 + log π + 50 log 50 − 50 log e
2 2
1 1
= 2 + log(3.142) + 50 log 50 − 50 log(2.71828)
2 2
1 1
= (2) + (0.4972) + 50(1.6990) − 50(0.4343)
2 2
log X= 64.4836
de donde X = 3.04 × 10 64 , por tanto: 50!≈ 3.04 × 10 64
Las propiedades más importantes de factoriales son:
1. n!= 1 ⇔ n =0∨ n = 1
2. n! = n (n − 1)!
n!= n (n − 1)(n − 2)!
3. n! = m! ⇔ n = m
DEFINICIÓN 2.2.1.2
Una permutación de n objetos diferentes, es cualquier agrupación que se puede
formar con todos los elementos de un conjunto de n objetos diferentes en un
orden dado; el número de permutaciones que se puede formar con “n”
elementos se representa por nPn; y está dada por.
nPn = n!
Las permutaciones se diferencian entre sí sólo por el orden de sus
elementos.
Aplicando esta definición, las permutaciones de las tres bolas del ejemplo
2.2.1, es:
3! = 3x2x1 = 6
EJEMPLOS
2.2.2 De cuántas maneras pueden formarse una fila de 7 soldados.
SOLUCIÓN:
En este caso, todos los 7 soldados entran en la fila y como el orden en
que están colocados interesa; se trata de una permutación.
Luego 7 P7 = 7!= 7 × 6 × 5 × 4 × 3 × 2 × 1 = 5,040 son las maneras de
formarse
2.2.3 Un examen consta de cinco preguntas y se deja libertad para contestarlas
de la pregunta que se desee. ¿De cuántas maneras se puede contestar?
SOLUCIÓN:
Las cinco preguntas serán contestadas en un determinado orden, luego se
trata de una permutación, entonces se contestará de:
Introducción al Cálculo de Probabilidades 37
Como son tres los que pueden ocupar la presidencia, se tiene para
este caso que el número de candidatos es:
3 x 255024 = 765072
2.2.9. ¿Cuántos números de tres cifras se pueden formar con los dígitos del 0
al 9; usándolos una vez?
SOLUCIÓN:
Se trata de permutaciones, ya que el orden importa. Luego el número
buscado es:
10!
10 P3 = = 10 × 9 × 8 = 720
(10 − 3)!
Es de notar que este caso es diferente a la lotería (que admite repetición),
que teniendo los dígitos del 0 al 9 y cada billete tiene cifras de tres dígitos,
el total de billetes es:
10 3 = 10 x 10 x 10 = 1000.
2.2.10. Cada país de los cuatro que forman un mapa es pintado de diferente
color. ¿De cuántas maneras puede ser pintado el mapa si se dispone de
siete colores?
SOLUCIÓN:
Pintar el mapa con siete colores agrupados de cuatro en cuatro merece un
orden, luego se trata de una permutación.
Entonces las maneras como puede ser pintados el mapa son:
7!
7 P4 = = 7 × 6 × 5 × 4 = 840
(7 − 4)!
2.2.11. ¿Cuántas señales diferentes se pueden formar con 10 banderas
distintas, levantando 3 y no más de 5 banderas en una driza de un mástil?
SOLUCIÓN:
El orden es importante, luego se trata de permutaciones:
Se presentan los siguientes casos:
Levantando sólo 3, tenemos:
10!
10 P3 = = 10 × 9 × 8 = 720
(10 − 3)!
Levantando sólo 4, tenemos
10!
10 P4 = = 10 × 9 × 8 × 7 = 5040
(10 − 4)!
Levantando sólo 5, tenemos
10!
10 P5 = = 10 × 9 × 8 × 7 × 6 = 30204
(10 − 5)!
Introducción al Cálculo de Probabilidades 41
EJEMPLOS
2.2.12 Hallar el número de permutaciones de los números: 1,2,3,2.
SOLUCIÓN:
Aplicando la definición tenemos: n = 4, n 1 = 1, n 2 = 2, n 3 = 1 (número
de veces que aparecen los números 1,2 y 3 respectivamente)
entonces:
4! 4!
4 P1, 2 ,1 = = = 12 y estos son:
1!2!1! 2!
2213 2321 1223 3212
2231 2132 3221 1322
2123 2312 1232 3122
2.2.13 ¿Cuántas permutaciones distintas pueden formarse con todas las letras
de la palabra: ¿TRIUNFARAS?
SOLUCIÓN:
Como en el caso anterior, se trata de permutaciones con repetición, n
= 10 (número de letras de la palabra TRIUNFARAS), n 1 = 1 (número de
veces que aparece la letra T), n 2 = 2 (número de veces que aparece la
letra R), n 3 = 1 (número de veces que aparece la letra I), n 4 = 1
(número de veces que aparece la letra U), n 5 = 1 (número de veces que
aparece la letra N), n 6 = 1 (número de veces que aparece la letra F), n 7
= 2 (número de veces que aparece la letra A) y n 8 = 1 (número de veces
que aparece la letra S). Tomando en cuenta la observación última, el
número de permutaciones distintas que se pueden formar con las dos
letras de la palabra TRIUNFARAS son:
10! 3628800
10 P1, 2 ,1,1,1,1, 2 ,1 =10 P2 , 2 = = = 907200
2!2! 2× 2
2.2.14 ¿De cuántas formas diferentes pueden ocho personas acomodarse en
dos habitaciones triples y una habitación doble de un hotel??
SOLUCIÓN:
Como quiera que sea importante el orden, se trata de una permutación
con repetición, entonces, las formas posibles de acomodo serán:
8! 4320
8 P3, 3, 2 = = = 560
3!3!2! 6 × 6 × 2
DEFINICIÓN 2.2.1.6
El número de permutaciones de n elementos de un conjunto, todos distintos,
tomados de r en r, con repetición es igual a:
n PR r = nr
Introducción al Cálculo de Probabilidades 43
EJEMPLOS
2.2.15 ¿De cuántas maneras se pueden escoger tres cartas sucesivas de una
baraja de 52 cartas con sustitución?
SOLUCIÓN:
Como el orden importa, se trata de una permutación con repetición y
como cada carta se regresa a la baraja antes de escoger la siguiente, luego
cada carta puede escogerse de 52 maneras diferentes. Entonces el
número de maneras que se puede escoger es de:
3
52 PR 3 = 52 × 52 × 52 = 52 = 140608
pruebas ordenadas diferentes de tamaño 3 con sustitución.
2.2.16¿Cuántos números de dos cifras se pueden formar con los dígitos 1,2 y
3, con repetición?
SOLUCIÓN:
El orden es importante, consecuentemente se trata de una permutación de
3 elementos tomados de 2 en 2, con repetición. Entonces los números
que se forman son:
2
3 PR 2 = 3 = 9
Estos números son:
11 12 13
21 22 23
31 32 33
2.2.2 COMBINACIONES
A) COMBINACIONES SIN REPETICIÓN
El siguiente ejemplo servirá para expresar la idea de combinación de n
objetos tomados de r en r sin repetición.
EJEMPLO
2.2.17 Supongamos que un estudiante tiene posibilidad de llevar 3 de los 5
cursos programados es una especialidad. Determine de cuantas formas
puede hacer su elección.
SOLUCIÓN:
En este caso, el orden no cuenta y solo interesa hacer los arreglos o
“selecciones” de 3 cursos diferentes.
Si los 5 cursos se designan con A, B, C, D y E, las posibles selecciones,
serán las siguientes:
ABC. ABD, ABE, ACD, ACE, ADE, BCD, BCE, BDE y CDE
Es decir, que en total se tiene 10 selecciones, y cada una recibe el nombre
de combinación de los cinco cursos, tomadas de tres en tres o
simplemente se dice que en total son 10 combinaciones.
44 Hugo Cornejo Villena & Hugo Cornejo Rosell.
n (n − 1) n −2 2
= a n + na n −1b + a b + ... + b n
1× 2
Los coeficientes binomiales tienen muchas propiedades interesantes de
las cuales tenemos:
n n n n − 1 n − 1 n 0
a) = , b) = + , c) = 1 d) = 1 ,
r n − r r r −1 r 0 0
n n n + 1 n n
e) = 1 , f) = n y g) = +
n 1 r r − 1 r
Introducción al Cálculo de Probabilidades 45
EJEMPLOS
2.2.18 Sea el conjunto de elementos: A, M, O, R.
¿Cuántas combinaciones podemos obtener tomándolos de 2 en 2?
SOLUCIÓN:
El número de combinaciones es:
4! 4! 24
4 C2 = = = =6
2!(4 − 2)! 2!2! 2 × 2
que son AM, AO, AR, MO, MR y OR
Observemos que MA no está considerado, ya que de acuerdo con la
definición AM es lo mismo que MA; es decir el orden no interesa y los
diferentes grupos se diferencian, mutuamente, por lo menos en un
elemento.
2.2.19 ¿Cuántas combinaciones de 5 cartas pueden formarse de un mazo
ordinario de 52 cartas?
SOLUCIÓN:
El número de combinaciones es:
52!
52 C 5 = = 2598960
5!47!
2.2.20 El entrenador de fulbito del Centro Social “KUTAQ”, ha seleccionado
a 8 jugadores, que se desempeñan con la misma eficiencia en cualquier
puesto en la cancha, a excepción del arquero que es inamovible. ¿De
cuántas maneras distintas puede formar al equipo titular?
SOLUCIÓN:
Como el arquero es inamovible, el entrenador tiene 7 jugadores de los
cuales debe escoger solamente 5 y no importa el orden, luego hallaremos
el número de combinaciones que será las maneras distintas de formar el
equipo titular:
7! 7! 7 × 6
7 C5 = = = = 21
5!(7 − 5)! 5!2! 2
2.2.21 Un examen consta de 6 preguntas, si se debe dar respuesta sólo a 4 de
las 6 preguntas. ¿Cuántos exámenes de diferente contenido habrá que
corregir como máximo?
SOLUCIÓN:
Como los exámenes de diferentes contenidos no necesitan orden, se trata
de un problema de combinaciones. Por tanto, el número de exámenes
que se debe corregir como máximo es:
6 6! 6 × 5
6 C4 = 4 = 4!2! = 2 = 15
y estos son:
46 Hugo Cornejo Villena & Hugo Cornejo Rosell.
n! n!
n P2 − n C 2 = − = 105 ,
(n − 2)! (n − 2)!2!
utilizando las propiedades se tiene:
n (n − 1)
n (n − 1) − = 105 ⇒ n (n − 1) = 210 = 14 × 15 .
2
Por tanto, n = 15
B) COMBINACIONES CON REPETICIÓN
DEFINICIÓN 2.2.2.2
El número de combinaciones con repetición de n elementos, tomados de r en
r, (r ≤ n ) , denotado por n CR r , está dado por:
n + r − 1 n + r − 1 (n + r − 1)(n + r − 2)...n
n CR r = = =
n −1 r 1 × 2 × 3 × ... × r
EJEMPLOS
2.2.25 Determinar el número de combinaciones, con repetición, de los
números: 1,2,3 y 4 de 3 en 3.
SOLUCIÓN:
El número de combinaciones con repeticiones es:
4 + 3 − 1 6 × 5 × 4
4 CR 3 =
3 = 1 × 2 × 3 = 20 y son: (leer verticalmente)
111 122 133 144 222 233 244 333 344 444
112 123 134 223 234 334
113 124 224
114
2.2.26 ¿Cuántos y que productos diferentes, cada uno de dos factores primos,
se obtienen con los tres factores primos 2,3 y 5?
SOLUCIÓN:
Del enunciado, nada se opone a que en los factores primos de cada
producto haya dos factores iguales. Dos productos sólo podrán ser
diferentes cuando tengan factores distintos, luego los diferentes
productos serán combinaciones con repetición de 3 elementos tomados
de 2 en 2 y su número será:
3 + 2 − 1 4 4! 4 × 3
3 CR 2 =
2 = 2 = 2!3! = 2 = 6
Estos productos son:
2x2 = 4 3x3 = 9
2x3 = 6 3x5 = 15
2x5 = 10 5x5 = 25
48 Hugo Cornejo Villena & Hugo Cornejo Rosell.
EJERCICIOS
1.- ¿Cuántas placas de motocicletas se pueden fabricar si cada uno debe
llevar una letra de un alfabeto de 27 letras seguidos de 3 dígitos, no
aceptándose el cero como primer dígito?
2.- ¿Cuántos números de 3 dígitos, si no se admiten repeticiones de algún
dígito en el número, pueden formarse a partir de los dígitos: 2, 3, 5, 6, 7
y 9?
3.- a) ¿Cuántos números, del ejercicio anterior, son menores de 400?
b) ¿Cuántos números, del ejercicio anterior, son múltiplos de 5?
c) ¿Cuántos números, del ejercicio anterior, son pares?
4.- En un Restaurante hay tres tipos de sopas, cuatro segundos y tres postres
¿de cuantas maneras se puede escoger un menú?
5.- Existen 3 autopistas que unen las ciudades A y B y dos carreteras que
unen las ciudades B y C ¿Cuantos caminos se pueden escoger para
transportarse de la ciudad A a la ciudad C pasando por la ciudad B?
6.- Un producto se arma en tres etapas. En la primera etapa hay cinco líneas
de armado, en la segunda etapa hay 4 líneas de armado y en la tercera
etapa hay 6 líneas de armado. ¿De cuantas maneras pueden moverse el
producto en el proceso de armado?
7.- ¿Cuántos números de 4 cifras menores de 2 341 se puede formar con los
dígitos: 1, 2, 3 y 4, si cada dígito se usa una sola vez?
8.- Se tienen cinco libros. ¿De cuántas formas pueden ser dispuestos en un
estante?
9.- Un inspector visita 6 máquinas diferentes durante el día. A fin de impedir
a los operadores que sepan cuando inspeccionará, varía el orden de las
visitas. ¿De cuántas formas pueden hacerlo?
10.- ¿Cuántas cifras de 9 dígitos se puede formar con los dígitos de 1 a 9?
11.- Se tiene 7 cajas de colores diferentes. ¿De cuántas maneras se puede
poner en forma vertical?
12.- Un estudiante tiene un libro Estadística y Probabilidades, uno de Cálculo
Diferencial, uno de Administración de Personal, uno de Contabilidad
General y uno de Literatura Peruana. ¿De cuántos modos pueden
disponerse es un estante si el de Cálculo Diferencial siempre está al
medio?
13.- ¿De cuántas maneras se puede ordenar un estante con 4 litros de agua
mineral y 3 botellas de gaseosa, de las mismas marcas, a condición de
que los dos litros estén siempre juntos y dos botellas siempre juntas?
14.- ¿De cuántos modos pueden sentarse un padre, su esposa y sus tres hijos
en un banco y alrededor de una mesa, contando siempre a partir del
padre?
Introducción al Cálculo de Probabilidades 49
99 99 100
26.- a) Si a = yb = . Expresar en función de a y b.
5 4 5
(Sugerencia: No calcule las expresiones anteriores para resolver el
problema).
n! n
b) Si = .
n 1!n 2 !...n n ! n 1 , n 2 ,..., n n
Calcular:
9
i)
3,5,1
6
ii)
2,2,1,1,0
n n n n
27.- Comprobar que: + + + ... + = 2
n
0 1
2 n
28.- Hallar n sí:
a) n P4 = 42 n P2
b) 2 n P2 + 50 = 2n P2
29.- ¿Cuántos números diferentes de cuatro cifras podrán formarse con las
nueve cifras significativas, tal que sí puede figurar una misma cifra, las
veces que se quiera?
30.- ¿Cuántos números de cinco cifras simétricas (los que se pueden leer de
derecha a izquierda o viceversa), pueden formarse con el cero y con los
cinco primeros números primos?
31.- Veinte corredores compiten en una carrera para la cual hay un primero,
segundo y tercer premio ¿De cuántas maneras pueden concederse estos
premios?
32.- Un mecanismo complejo puede fallar en 15 partes diferentes. Si falla en
tres partes ¿De cuántas maneras puede suceder?
33.- ¿De cuántas maneras se puede escoger un comité, compuesto de 5
hombres, 3 mujeres, de un grupo de 10 hombres y 7 mujeres?
3 15
Por tanto P(A) = y P(B) = . Las probabilidades condicionales
36 36
son:
1 1
P(A B) = y P(B A ) =
15 3
De la definición precedente podemos deducir algunas consecuencias que
serán de suma importancia para el desarrollo de la presente obra.
TEOREMA 3.1.1
Si P(A)>0, entonces, P(B/A) es una probabilidad, es decir:
i) P(B A ) ≥ 0,∀ B ∈ A
ii) P(Ω A ) = 1 y
∞ ∞
iii) P B i A = ∑ P(B i A ) , donde B1 , B 2 ,...,∈ A y son disjuntos o
i =1 i =1
mutuamente excluyentes 2 a 2.
DEMOSTRACION:
i) Como BA ∈ A , tenemos que P(BA) ≥ 0. Si se divide los dos miembros
P(BA)
de la desigualdad por P(A)>0, se tiene: ≥0
P(A)
y por definición se tiene que P(B / A) ≥ 0 .
P(ΩA) P(A)
ii) P(Ω A ) = = =1
P( A ) P( A )
∞ ∞
iii) Como: P B i A = P B i A P(A)
i =1 i =1
Entonces;
∞
∑ P(B i A) ∞ P (B A )
P B i A = i =1
∞ ∞
=∑ i
= ∑ P(B i A ).
i =1 P(A) i =1 P ( A ) i =1
∞ ∞
P B i A ≤ ∑ P(B i / A )
i =1 i =1
EJEMPLOS
3.1.4 Si A y B son dos eventos tales que:
1 1 1
P(A) = , P(B) = y P(AB) = . Calcular:
2 3 4
a) P(A ∪ B)
b) P[(A ∪ B) B]
(
c) P B c A c )
SOLUCIÓN:
1 1 1 7
a) P(A ∪ B) = P(A) + P(B) - P(AB) = + − =
2 3 4 12
b) P ( A ∪ B ) B = P(A B) + P(B B) − P(AB B)
P(AB) P(BB) P(ABB)
= + −
P(B) P(B) P(B)
1 1
= 4
1
+1− 4
1
=1
3 3
c) (
P Bc A c =) =
[(
P(B c A c ) P A c B c
=
)]
1 − P(A ∪ B)
P(A )c
P(A )c
1 − P(A)
1 − 127 5 5
= = 12
=
1− 1
2
1
2 6
3.1.5 El Programa de Profesionalización Docente de la Universidad
Tecnológica de los Andes, en la ciudad del Cusco, tiene distribuidos sus
alumnos, por sexo y especialidades, conforme la siguiente tabla:
ESPECIALIDAD
Historia Lengua Matemática Total
SEXO Primaria
Geografía. Literatura Física
Varones 48 34 28 98 208
Mujeres 30 68 12 182 292
Total 78 102 40 280 500
B1 B2 B3 B4 Total
A1 0.096 0.068 0.056 0.196 0.416
A2 0.060 0.136 0.024 0.364 0.584
Total 0.156 0.204 0.080 0.560 1.000
12
Donde, por ejemplo: P(A 2 B 3 ) = = 0.024 .
500
Por tanto:
P(B 3 A 2 ) 0.024
a) P(B 3 A 2 ) = = = 0.041
P( A 2 ) 0.584
Introducción al Cálculo de Probabilidades 57
P(B 4 A1 ) 0.196
b) P(B 4 A1 ) = = = 0.471
P( A1 ) 0.416
c)
1 1
( ) PP(A(BB) ) = P(B
c
2)− P( A 2 B 2 ) P( A 2 B 2 )
d) P A c2 B 2 = 2 2
= 1−
2 P( B 2 ) P( B 2 )
0.136
= 1− = 1 − 0.667 = 0.333
0.204
3.1.6 Un restaurante popular, únicamente presenta dos tipos de comida: sopa
y arroz con pollo. El 20% de los clientes del sexo masculino prefiere sopa,
el 30% de las mujeres escogen arroz con pollo, el 75% de los clientes son
del sexo masculino.
Determinar:
a) La probabilidad de que el cliente prefiere sopa, sabiendo que es de
sexo masculino.
b) La probabilidad de que el cliente prefiere sopa y que el cliente es
varón.
c) La probabilidad de que el cliente es mujer, sabiendo que prefiere
sopa.
d) La probabilidad de que el cliente es mujer o el cliente prefiere arroz
con pollo.
SOLUCIÓN:
Consideremos los siguientes eventos:
V : Cliente es varón.
M : Cliente es mujer.
S : Cliente prefiere sopa.
A : Cliente prefiere arroz con pollo.
Como el 75% de los clientes son varones, entonces el 25% de los clientes
son mujeres, de aquí que:
75 25
P(V) = = 0.75 y P(M ) = = 0.25
100 100
Por otro lado, como el 20% de los clientes varones prefiere sopa
entonces: P(VS) es el 20% de 75%, es decir es el 15%, luego
58 Hugo Cornejo Villena & Hugo Cornejo Rosell.
15
P(VS) = = 0.15 y como el 30% de las mujeres escogen arroz con
100
pollo entonces: P(MA) es el 30% de 25%, es decir es el 7.5%,
consecuentemente. En forma completa, tenemos la probabilidad de las
intersecciones de los eventos, en la siguiente tabla:
S A Total
V 0.150 0.600 0.750
M 0.175 0.075 0.250
Total 0.325 0.675 1.000
Por tanto:
P(SV ) 0.150
a) P(S V ) = = = 0.2
P(V) 0.750
b) P(SV) =0.15
P(MS) 0.175 7
c) P(M S) = = =
P(S) 0.325 13
d) P(MUA) = P(M)+P(A)–P(MA)= 0.25 + 0.675 – 0.075 = 0.85
3.1.7 Una urna contiene 6 bolas azules y 5 verdes. Se extraen dos bolas
sucesivamente sin reemplazo
a) Calcular la probabilidad de que ambas sean azules
b) Calcular la probabilidad de que la segunda sea azul.
SOLUCIÓN:
Definamos los eventos:
A : La primera bola es azul.
B : La segunda bola es azul.
C : Las dos bolas son azules.
Entonces
6 5 3
a) AB = C y P(C) = P(AB) = P(A) P(B/A) = × =
11 10 11
b) Como
B = (AB) ∪ (A c B) y (AB) ∩ (A c B) = φ
Entonces
P(B) = P(AB) + P(A c B) = P(A)P(B A) + P(A c )P(B A c )
6 5 6 6 3 5 6 3 3 6
= × + 1 − . = + × = + =
11 10 11 10 11 11 10 11 11 11
Introducción al Cálculo de Probabilidades 59
i =1 i =1 j=1
DEMOSTRACION:
Como
A 0 A 1 ...A n −1 ⊂ A 0 A 1 ...A n − 2 ⊂ .. ⊂ A 0 A 1 ⊂ A 0 , resulta
0 〈 P(A 0 A 1 ...A n −1 ) ≤ P(A 0 A 1 ...A n − 2 ) ≤ .. ≤ P(A 0 A 1 ) ≤ P(A 0 ) y, por
consiguiente, todas las probabilidades condicionales implicadas en el
enunciado del teorema están bien definidas.
La demostración del teorema se realiza utilizando el axioma de
inducción. Sea S el conjunto de valores de n para los cuales el teorema se
cumple. Evidentemente 1∈ S, puesto que: P(A 0 A 1 ) = P(A 0 )P(A1 / A 0 ) , por
la misma definición de probabilidad condicional. Sea n ∈ S, entonces por la
definición de probabilidad condicional, se tiene:
P(A 0 A 1 ...A n A n +1 ) = P(A 0 A 1 .....A n )P(A n +1 A 0 ...A n )
Como n∈ S el valor:
P(A 0 A 1 ....A n ) = P(A 0 )P(A 1 / A 0 )....P(A n / A 0 A 1 ....A n −1 ) , entonces
P(A 0 A 1 ...A n A n +1 ) = P(A 0 )P(A 1 / A 0 )......P(A n +1 A 0 ...A n )
de donde n+1∈ S, y con esto, por el axioma de inducción S, contiene a todos
los enteros positivos, lo que demuestra el teorema.
EJEMPLOS
3.1.8 A un jugador le reparten cuatro cartas una tras otra de una baraja
corriente de 52 cartas. ¿Cuál es la probabilidad de que todas sean
espadas?
SOLUCIÓN:
Sean A 0 , A 1 , A 2 y A 3 las cartas “espadas” extraídas en forma sucesiva,
13
en el orden que se indica. Entonces: P(A 0 ) = , puesto que hay 13
52
espadas entre las 52 cartas. La probabilidad de que la segunda carta sea
12
espada dado que ya salió una espada es, P(A1 / A 0 ) = , puesto que
51
únicamente hay 12 cartas espadas entre las 51 cartas restantes, siguiendo
el mismo razonamiento se encuentran:
60 Hugo Cornejo Villena & Hugo Cornejo Rosell.
11 10
P(A 2 A 0 A 1 ) = y P( A 3 A 0 A 1 A 2 ) = Por lo tanto aplicando la
50 49
regla del producto se tiene:
13 12 11 10 33
P(A 0 A1 A 2 A 3 ) = × × × =
52 51 50 49 12,495
3.1.9 Una urna contiene 15 bolas, de las cuales 4 son verdes, 5 amarillas y 6
rojas. Se extrae 4 bolas de la urna sin reemplazo. Encontrar la
probabilidad de que la primera bola sea amarilla, la segunda sea roja, el
tercero verde y la cuarta roja.
SOLUCIÓN:
Consideremos los siguientes eventos:
A i : Obtención de una bola amarilla en la i-ésima extracción.
R i : Obtención de una bola roja en la i-ésima extracción.
Vi : Obtención de una bola verde en la i-ésima extracción.
Donde 1 ≤ i ≤ 4 y se entiende, por ejemplo, R 2 : roja en la segunda
extracción, V4 : verde en la cuarta extracción, etc.
De acuerdo a los datos del problema la probabilidad pedida es:
P(A 1 R 2 V3 R 4 ) = P(A 1 )P(R 2 / A 1 )P(V3 / A 1 R 2 )P(R 4 / A 1 R 2 V3 )
y como:
5 1 6 3 4
P(A1 ) = = , P(R 2 / A1 ) = = , P(V3 / A 1 R 2 ) =
15 3 14 7 13
5
P(R 4 / A 1 R 2 V3 ) = .
12
1 3 4 5 5
Entonces: P(A1 R 2 V3 R 4 ) = × × × =
3 7 13 12 273
3.1.10 En el ejemplo anterior, si el experimento consiste en extraer 3 bolas sin
reposición. Encontrar la probabilidad de que la primera bola sea amarilla
y las siguientes verdes o rojas.
SOLUCIÓN:
Consideremos los mismos eventos del ejemplo anterior, donde 1 ≤ i ≤ 3
La probabilidad a calcular es:
P(E ) = P[(A 1 V2 V3 ) ∪ (A 1 V2 R 3 ) ∪ (A 1 R 2 V3 ) ∪ (A 1 R 2 R 3 )]
Dado que los eventos son mutuamente excluyentes
5 4 3 2
P(A 1 V2 V3 ) = P(A 1 )P(V2 / A 1 )P(V3 / A 1 V2 ) = × × =
15 14 13 91
5 4 6 4
P(A 1 V2 R 3 ) = P(A 1 )P(V2 / A 1 )P(R 3 / A 1 V2 ) = × × =
15 14 13 91
5 6 4 4
P(A 1 R 2 V3 ) = P(A 1 )P(R 2 / A 1 )P(V3 / A 1 R 2 ) = × × =
15 14 13 91
5 6 5 5
P(A 1 R 2 R 3 ) = P(A1 )P(R 2 / A 1 )P(R 3 / A1 R 2 ) = × × =
15 14 13 91
Entonces:
2 4 4 5 15
P(E) = + + + =
91 91 91 91 91
Otra forma de calcular, directamente, es utilizando la definición clásica
de la probabilidad de un evento; como:
Casos favorables: Fijando la primera bola amarilla, luego consiste en
sacar 2 bolas verdes y/o rojas y es equivalente a sacar 2 bolas verdes o 2
bolas rojas o una bola verde y una roja (el orden no interesa porque en el
denominador hay combinaciones); es decir: los casos favorables
5 4 5 6 5 4 6
son: + + .
1 2 1 2 1 1 1
15 3
Casos posibles son:
3 1
Por tanto:
5 4 5 6 5 4 6
+ +
1 2 1 2 1 1 1 5 × 6 + 5 × 15 + 5 × 24
P(E ) = =
15 3 455 × 3
3 1
5(6 + 15 + 24) 5 × 45 15
= = =
455 × 3 455 × 3 91
También se puede resolver el problema, utilizando el diagrama de árbol.
Cada rama representa una probabilidad condicional y el producto de estas
probabilidades es la probabilidad de las intersecciones de los eventos;
debemos observar que las probabilidades asociadas a cada 3 ramas
adyacentes del árbol suman 1 y también la suma de todas las
probabilidades de las intersecciones es 1; así tenemos:
62 Hugo Cornejo Villena & Hugo Cornejo Rosell.
De donde:
P(E ) = P(A 1 V2 V3 ) + P(A 1 V2 R 3 ) + P(A 1 R 2 V3 ) + P(A 1 R 2 R 3 )
5 4 3 5 4 6 5 6 4 5 6 5
= × × + × × + × × + × ×
15 14 13 15 14 13 15 14 13 15 14 13
2 4 4 5 15
P(E) = + + + =
91 91 91 91 91
TEOREMA 3.1.3 (Teorema de la probabilidad total)
N
Si P B n = 1 , donde N es un entero positivo o ∞, y si P(B n ) > 0 para
n =1
todo n, entonces para cualquier evento A, se tiene:
N
P(A) = ∑ P(A B n )P(B n )
n =1
DEMOSTRACION:
Introducción al Cálculo de Probabilidades 63
N
c
Puesto que P B n = 0 , entonces:
n =1
c
P(A) = P A B n + P A B n = P AB n = ∑ P(AB n )
N N N N
n =1 n =1 n =1 n =1
N
= ∑ P(A / B n )P(B n )
n =1
Gráficamente:
64 Hugo Cornejo Villena & Hugo Cornejo Rosell.
50 1 25 1
P(B1 ) = = , mientras que: P(B 2 ) = P(B 3 ) = = (I produce
100 2 100 4
el doble que II, por hipótesis II y III producen el mismo número),
2 4
P(A / B1 ) = P(A / B 2 ) = = 0.02 y P(A / B 3 ) = = 0.04 .
100 100
Entonces se tiene:
1 1 1
P(A) = (0.02)( ) + (0.02)( ) + (0.04)( ) = 0.025
2 4 4
3.1.13 En una urna se han colocado 5 bolas blancas y 4 rojas y en una
segunda urna 4 bolas blancas y 6 rojas. Se saca una bola de la primera
urna y, sin verla se introduce en la segunda urna. ¿Cuál es la
probabilidad de que la bola que se extrae de la segunda urna sea roja?
Sean los eventos:
R 1 : retiro de una bola roja de la primera urna
R 2 : retiro de una bola roja de la segunda urna
B1 : retiro de una bola blanca de la primera urna.
Calculemos P(R 2 ) y para ello aplicaremos el teorema de la
probabilidad total dado que R i y B i son mutuamente excluyentes.
Entonces
P(R 2 ) = P(B1 )P(R 2 / B1 ) + P(R 1 )P(R 2 / R 1 )
5 6 4 7 58
P(R 2 ) = × + × =
9 11 9 11 99
30 28 58
= + =
99 99 99
TEOREMA 3.1.4 (Regla de Bayes)
N
Si P B n = 1 , donde N ∈ 0+ o ∞ , y si P(B n )>0 para todo n, entonces
n =1
para cualquier evento A, tal que P(A) > 0, se tiene:
P(A / B j )P(B j )
P(B j / A ) = N ; donde j = 1,2,..., N
∑ P ( A / B n ) P ( B n )
n =1
DEMOSTRACION:
Para cualquier j=1,2,...,N; por definición de probabilidad condicional se
tiene:
P(B j A)
P(B j / A) =
P(A)
Por la misma definición se tiene que: P ( B j A) = P ( A / B j ) P ( B j ) y por el
N
teorema de las probabilidades totales: P(A) = ∑ P(A / B n )P(B n )
n =1
P(A / B j )P(B j )
De donde, P(B j / A) = N
∑ P(A / B n )P(B n )
n =1
que demuestra el teorema.
La regla de Bayes nos da la probabilidad de un B j particular, dado
que el evento A ha ocurrido. Para su aplicabilidad, debemos conocer los
valores de las P ( B j ); muy a menudo esos valores no son conocidos, y esto
limita el uso del resultado; de aquí la importancia de la Regla de Bayes,
debido a que relaciona las probabilidades “a priori” P(B n ) con las
probabilidades “a posteriori” P(B n / A) (Probabilidad de B n después que
ha ocurrido A). Ha existido considerable controversia acerca de la Regla de
Bayes. Matemáticamente, como se vio, es perfectamente correcto; solo la
elección impropia para P ( B j ) hace el resultado objetable.
EJEMPLOS
En el ejemplo 3.1.12. ¿Cuál es la probabilidad de que este artículo
provenga de I, dado que es defectuoso?
Introducción al Cálculo de Probabilidades 67
SOLUCIÓN:
P(A / B1 )P(B1 )
P(B1 / A) =
P(A / B1 )P(B1 ) + ... + P(A / B 3 )P(B 3 )
(0.02)(1 / 2)
= = 0.40
(0.02)(1 / 2) + (0.02)(1 / 4) + (0.04)(1 / 4)
En el siguiente ejemplo ilustramos la regla de Bayes haciendo uso
del "diagrama del árbol".
3.1.15 Supongamos que muchas cajas están llenas de caramelos de dos
tipos: A y B. El tipo A contiene 70% dulce y 30% ácido, mientras que
en B los porcentajes son contrarios. Aún más, supongamos que el 60%
de todas las cajas de caramelos son del Tipo A y el resto son del Tipo B.
Si recibimos una caja de dulces de tipo desconocido. Se permite sacar
una muestra de caramelo (una situación no real, pero que nos permite
presentar las ideas importantes sin mucha complicación) y con esta
información debemos decir que si el tipo A o el tipo B nos fue ofrecido.
SOLUCIÓN
Presentemos el siguiente diagrama de árbol que nos ayudará a analizar
el problema ( C D y C A indican la elección de un caramelo dulce o
ácido, respectivamente)
Se obtiene:
60 40 70
P( A ) = = 0.6 ; P(B) = = 0.4 ; P (C D / A ) = = 0.7 ;
100 100 100
30 30 70
P (C A / A ) = = 0.3 ; P(C D / B) = = 0.3 ; P(C A / B) = = 0.7
100 100 100
Lo que realmente debemos calcular es P(A C D ) , P(A C A ) , P(B C D ) y
P(B C A ) . Suponiendo que escogimos un caramelo dulce. ¿Qué
decisión estaría más indicado a hacer? Comparamos P(A C D ) y
P(B C D ) . Aplicando la regla de Bayes tenemos:
68 Hugo Cornejo Villena & Hugo Cornejo Rosell.
P (C D / A ) P ( A ) (0.7)(0.6) 7
P(A CD ) = = =
P(CD / A)P(A) + P(CD / B)P(B) (0.7)(0.6) + (0.3)(0.4) 9
P( B1 ) P( A / B1 ) = (0.25)(0.8) = 0.20
P( B 2 ) P( A / B2 ) = (0.40)(0.1) = 0.04
P( B 3 ) P( A / B3 ) = (0.35)(0.4) = 0.14
Entonces:
0.14 0.14 7
P(B 3 / A) = = =
0.20 + 0.04 + 0.14 0.38 19
Como se incrementó las cuotas de ingreso al club antes de las
elecciones, el resultado sugiere que posiblemente el señor Salazar no
sea el próximo presidente.
3.2 EVENTOS INDEPENDIENTES
La noción de independencia se desprende de la consideración de aquellos
casos en que los resultados son igualmente probables. Por tanto, antes de dar
la definición formal de independencia, comenzaremos considerando un caso
de lo afirmado.
Sea E1 un juego en el que hay n 1 resultados posibles e igualmente
probables. Sea A, el evento de ocurrencia o no-ocurrencia cuando se realiza
el juego: E1 . Si A puede ocurrir de n A maneras igualmente probables, el
n
cociente A da la probabilidad de que ocurra A. Ahora sean E 2 y E 3 otros
n1
dos juegos en los que hay n 2 y n 3 , respectivamente, resultados posibles e
igualmente probables. Se supone que cada juego puede desarrollarse de
manera tal, que su marcha no dependa en absoluto del resultado de los otros
juegos. En tal situación, que ocurra o no el evento A en el juego E1 , ni
depende ni tiene influencia en que un evento B ocurra o no en el juego E 2 . Y
el que ocurra o no uno de los eventos A y B, o ambos, en los juegos E1 y E 2
, no tiene influencia en que un cierto evento C ocurra o no en el juego E 3 , ni
depende de ello. En otras palabras, se puede decir entonces que los eventos
70 Hugo Cornejo Villena & Hugo Cornejo Rosell.
P(BA) P(B)P(A)
b) P(B / A) = = = P(B) , si P(A)>0
P(A) P(A)
Este significa que, la ocurrencia del evento A no afecta la probabilidad
de la ocurrencia del evento B.
Por consiguiente, concluimos, que dos eventos son independientes, si la
ocurrencia de uno de los eventos no afecta la probabilidad de la ocurrencia del
otro evento.
EJEMPLOS
3.2.1 La probabilidad de que un hombre viva 15 años más es 15 , y la
probabilidad de que su hermano viva 15 años más es 14 . Hallar la
probabilidad de que ambos vivan 15 años más.
SOLUCIÓN:
Sean los eventos:
A: el hombre vive 15 años más.
B: su hermano vive 15 años más.
Entonces P(A) = 15 y P(B) = 14
Buscamos P(AB). Puesto que A y B son independientes, ya que los años
que vive el hombre no depende de lo que vive su hermano, entonces
1 1 1
P(AB) = P(A)P(B) = × = .
5 4 20
3.2.2 Supongamos que se lanza un dado normal dos veces y dado los eventos:
A: primer dado muestra un número par.
B: segundo dado muestra un 5 o un 6.
Entonces:
Ω = {(1,1), (1,2), (1,3),..................,(6,5), (6,6)}
A = { (2,1), (2,2), (2,3), (2,4), (2,5), (2,6), (4,1), (4,2), (4,3), (4,4),
(4,5), (4,6), (6,1), (6,2), (6,3), (6,4), (6,5), (6,6)}
B= {(1,5), (2,5), (3,5), (4,5), (5,5), (6,5),
(1,6), (2,6), (3,6), (4,6), (5,6). (6,6)}
A∩B= AB = {(2,5), (2,6), (4,5), (4,6), (6,5), (6,6)}
De donde, obtenemos:
18 1 12 1 6 1
P(A) = = , P(B) = = y P(AB) = =
36 2 36 3 36 6
1 1 1
y observamos que P(AB) = = × = P(A)P(B) .
6 2 3
Luego deducimos que los eventos A y B son independientes.
DEMOSRACION:
Muy similar a la demostración del teorema anterior.
TEOREMA 3.2.3
Si A y B son eventos independientes, también son independientes los eventos
A c y Bc
DEMOSTRACION:
Por la ley de De Morgan:
[ ]
P(A c B c ) = P (A ∪ B) c = 1 − P(A ∪ B) = 1-P(A)-P(B)+P(AB)
como A y B son independientes por hipótesis, tenemos
P(A c B c ) = 1 − P(A) − P(B) + P(A)P(B)
= 1- P (A) – P (B) (1 – P (A)
= (1-P (A)) ((1-P( B )) = P( Ac )P( Bc )
EJEMPLO
3.2.5 En el ejemplo 3.2.1. Hallar la probabilidad de que ninguno estará vivo a
los 15 años
SOLUCIÓN:
c 1
Deseamos calcular: P(A c B c ) . Ahora P(A ) = 1 − P(A) = 1 − de
5
c 4 c 1 3
donde P(A ) = y P(B ) = 1 − P(B) = 1 − =
5 4 4
c c
Como A y B son independientes, ya que A y B son independientes,
se tiene:
4 3 3
P(A c B c ) = P(A c )P(B c ) = × =
5 4 5
Para finalizar, presentamos la definición de clases independientes de
eventos, que tienen mucha aplicabilidad en los espacios medibles.
DEFINICIÓN 3.2.2
Si {Ci / i ∈ I } es una familia de eventos, Ci ∈ A , ∀i ∈ I . Se dice que los
términos o elementos de la familia {Ci / i ∈ I } son clases independientes, si
toda colección finita de elementos de las clases son un conjunto de sucesos
mutuamente independientes.
EJEMPLO
3.2.6 Si A y B son eventos independientes, entonces:
{ }
H 1 = φ, A, A c , Ω y { }
H 2 = φ, B, B c , Ω son clases
independientes, ya que: φ es independiente de cualquier evento
(P(φA) = P(φ)P(A) ) , Ω es independiente de cualquier evento
(P(ΩA) = P(Ω)P(A) ) , A y B son independientes por hipótesis, A y
74 Hugo Cornejo Villena & Hugo Cornejo Rosell.
EJERCICIOS
17.- Una caja contiene tres monedas, dos de ellas normales, y una de dos
“caras”. Se selecciona al azar una moneda y se lanza dos veces. Si
aparece ambas veces caras. ¿Cuál es la probabilidad de que la moneda
lanzada sea la de dos “caras”?
18.- Una caja A contiene nueve cartas numeradas de 1 a 9, y otra caja B
contiene 5 cartas numeradas de 1 a 5. Se escoge una caja al azar y se saca
una carta; si la carta indica un número par, se saca otra carta de la misma
caja, si la carta es impar, se saca una carta de la otra caja.
76 Hugo Cornejo Villena & Hugo Cornejo Rosell.
Entonces:
φ ; si x<2
X (]− ∞, x ]) = [X ≤ x ] = {a, b, c} ; si 2 ≤ x < 3
-1
Ω ; si x≥3
De donde, deducimos que X es una variable aleatoria, ya que
X -1 (]− ∞, x ]) ∈ A (cada uno de sus componentes, es decir: φ, {a , b, c} y
Ω pertenecen a A ).
b) Si Y está definida por Y(a) = 1, Y(b) = 2 y Y(c) = Y(d) = Y(e) = 3 ,
gráficamente tenemos:
Entonces:
φ ; si x <1
{a} ; si 1 ≤ x < 2
Y -1 (]− ∞, x ]) = [Y ≤ x ] =
{a , b} ; si 2 ≤ x < 3
Ω ; si x≥3
De donde, deducimos que Y no es una variable aleatoria, ya que
Y -1 ( ]− ∞, x ]) ∉ A y esto debido a que {a} ∉ A (es suficiente encontrar
uno para la negación; para este caso también tenemos que {a , b} ∉ A ).
80 Hugo Cornejo Villena & Hugo Cornejo Rosell.
Ω ; si x ≥1
Luego X es una variable aleatoria, ya que [X ≤ x ] ∈ A .
4.1.3 Consideremos el juego de lanzar un par de dados. Aquí Ω =
{(11, ), (1,2),..., (6,6)} , que consta de 36 parejas ordenadas de números
entre 1 y 6. Sea X la función dada por: “la suma de los puntos que
muestran ambos dados”; entonces, para cada evento elemental (i , j) se
tiene : X(i , j) = i + j , donde 1 ≤ i, j ≤ 6 . Si:
a) A1 = {φ, Ω, {(1,1), (2,3)}, {(1,2 ), (1,3),......, (1,6 ), (2,1), (2,2), (2,4),....
..., (2,6), (3,1), (3,2), (3,3),..., (6,6)}
Entonces:
φ ; si x<2
{(1,1)} ; si 2 ≤ x < 3
{(1,1), (1,2 ), (2,1)} ; si 3 ≤ x < 4
[X ≤ x ] =
. . . .
{(1,1)(1,2 ),..., (4,1)} ; si 5 ≤ x < 6
Ω ; si x ≥ 12
Luego X no es una variable aleatoria, puesto que {(1,1)}∉ A1 .
b) A 2 = 2 Ω , deducimos que X es una variable aleatoria, ya que
[ X ≤ x ] = X -1 ( ]− ∞, x ]) siempre pertenece a A 2 , dado que A 2 es
el ∂- álgebra de todos los subconjuntos de Ω ; es decir no hay uno
que no deje de pertenecer a A 2 .
OBSERVACION: Si Ω es cualquier espacio muestral y A = 2 Ω , entonces
toda función X: Ω → es necesariamente una variable aleatoria, ya que
X (]− ∞, x ]) ∈ A , ∀x∈ .
-1
n =1
[ ].
De a) y b) se tiene demostrado el Lema.
LEMA 4.1.2
Si X es una función de valor real definida en Ω , entonces:
∞
[ ]
X < x + 2 = [X ≤ x ] ,
n =1
-n
b) Condición Suficiente
[ ]
Si [X < t ] ∈ A para cualquier t real, entonces X < x + 2 -n ∈ A para n
∞
[ ]
= 1, 2, …y esto implica que X < x + 2 -n ∈ A lo que a su vez, por el
n =1
lema 4.1.2, implica que [X ≤ x ] ∈ A .
De a) y b) queda demostrado el teorema.
Las demostraciones de los siguientes teoremas se dejan al lector; es
necesario aclarar, que deben utilizar la definición de variable aleatoria, el
teorema 4.1.1 y si A∈ A entonces A c ∈ A .
TEOREMA 4.1.2
Si X es una función de valor real definida en Ω ; X es una variable aleatoria
sí y sólo sí [X ≥ x ] ∈ A , para todo x∈ .
TEOREMA 4.1.3
Si X es una función de valor real definida en Ω ; X es una variable aleatoria
sí y sólo sí [X > x ] ∈ A , para todo x∈ .
PROPIEDADES DE VARIABLES ALEATORIAS
Si X, Y son variables aleatorias y k∈ , entonces:
4.1.1 X + Y es una variable aleatoria.
4.1.2 k X es una variable aleatoria.
4.1.3 X 2 es una variable aleatoria.
4.1.4 X Y es una variable aleatoria.
X
4.1.5 es una variable aleatoria, sí [Y = 0] = φ .
Y
4.1.6 max{X, Y}es una variable aleatoria.
DEMOSTRACION:
4.1.1.- Consideremos el conjunto:
A = [X ≤ r ][Y < z − r ] ; donde r∈ Q .
r
Introducción al Cálculo de Probabilidades 83
c)
{(X + Y ) 2
− (X − Y )
2
} es una variable aleatoria.
4
Pero
{ }
(X + Y )2 − (X − Y )2 = X 2 + 2XY + Y 2 − X 2 + 2XY − Y 2 = XY ,
4 4
es decir XY es una variable aleatoria.
4.1.5.- Podemos escribir
X X X
Y ≤ x = Y ≤ x [ Y < 0] ∪ Y ≤ x [ Y > 0]
84 Hugo Cornejo Villena & Hugo Cornejo Rosell.
= [X ≥ xY ] [Y < 0] ∪ [X ≤ xY ] [Y > 0]
= [X − xY ≥ 0] [Y < 0] ∪ [X − xY ≤ 0] [Y > 0]
Cada una de estas cuatro últimas colecciones de eventos, son eventos de
acuerdo con los teoremas de esta sección y las propiedades anteriores,
X
por tanto ≤ x ∈ A .
Y
4.1.6.- Como:
[max{X, Y} ≤ x] = [X ≤ x ] [Y ≤ x ] , entonces [max{X, Y} ≤ x] ∈ A .
Consideremos una variable aleatoria X: Ω → , de manera que el ∂-
álgebra A = 2 Ω , entonces se observa que el dominio de la variable
aleatoria X es todo Ω y el rango es un subconjunto de , denotado por
RX .
Si el rango de la variable aleatoria X es finito o infinito numerable, se
dice que la variable aleatoria X es discreta y se dice que la variable
aleatoria X es continua cuando el rango es un intervalo o unión de
intervalos de la recta real o un conjunto infinito no numerable de valores.
Veremos con mucha más precisión, estos conceptos, en las siguientes
secciones y los capítulos siguientes.
4. 2. DISTRIBUCIONES DISCRETAS DE UNA VARIABLE
DEFINICION 4.2.1
Una variable aleatoria X se llama discreta si el rango de X es finito o infinito
numerable. En este caso R X = {x 1 , x 2 ,..., x n ,...} ⊂ , tal que X( ω )∈ R X , ∀
ω ∈Ω .
EJEMPLO
Sea X la variable aleatoria que denota el número de veces que se lanza al aire
una moneda correcta hasta que aparezca el primer sello. El espacio muestral
asociado a este experimento es:
Ω = {s, cs, ccs, cccs, ...} y consiguientemente X(s) =1, X(cs)=2 , X(ccs) = 3 ,
X(cccs) = 4 , ….
De donde R X = {1,2,3,4,...} es un conjunto infinito numerable. Por tanto, X
es una variable aleatoria discreta.
En las siguientes secciones se tendrán más ejemplos de variables aleatorias
discretas.
La definición significa que hay un conjunto finito o infinito numerable de
números reales: x 1 , x 2 ,…, x n ,… tal que [X = x n ] = Ω , donde la unión
n n
Introducción al Cálculo de Probabilidades 85
X 0 1 2
1 1 1
pX (x)
4 2 4
Gráficamente:
pX (x) pX (x)
1 1
1/2 1/2
1/4
1/4
x x
0 0
1 2 1 2
(a) Espectro o diagrama de barras (b) Histograma
x -3 -1 1 3
1 3 3 1
pX (x)
8 8 8 8
Gráficamente:
pX (x) pX (x)
1 1
4/8 4/8
3/8 3/8
2/8 2/8
1/8 1/8
x x
-3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3
X 0 1 2
7 7 1
pX (x)
15 15 15
4.3.4.-De una caja que contiene cuatro bolas negras y dos verdes, se
seleccionan tres de ellas en sucesión con reemplazo. Encontrar la
distribución de probabilidad para el número de bolas verdes.
SOLUCION:
En este experimento, la variable aleatoria X es “el número de bolas
verdes”, entonces R X = {0,1,2,3} y el número de elementos del espacio
muestral es 6 3 = 216 , de donde:
3 3 0
4 2
0 8
pX (0) = P[X = 0] = 3 = ,
6 27
3 2 1
4 2
pX (1) = P[X = 1] = 3 = 4
1
6 9
3 1 2
4 2
pX (2) = P[X = 2] = 3 = 2
2
6 9
3 0 3
4 2
pX (3) = P[X = 3] = 3 = 1
3
6 27
por tanto, la distribución de probabilidad de X es:
x 0 1 2 3
8 4 2 1
pX (x)
27 9 9 27
4.3.5.-Encuentre la distribución de probabilidad para el número de discos de
vals, cuando cuatro discos se seleccionan al azar, de una colección
consistente de cinco discos de vals, dos de bolero y tres de huayno.
Expresar el resultado por medio de una fórmula.
SOLUCION:
Introducción al Cálculo de Probabilidades 89
7
P({CCS, CSC, SCC, CSS, SCS, SSC, SSS}) = y P( Ω ) = 1 .
8
Entonces, la función de distribución de X es:
0 ; si x<0
1
; si 0 ≤ x < 1
8
1
FX ( x ) = P[ X ≤ x ] = ; si 1 ≤ x < 2
2
7 ; si 2 ≤ x < 3
8
1 ; si x≥3
La representación gráfica de esta función es la siguiente:
Introducción al Cálculo de Probabilidades 91
FX(x)
1
7/8
1/2
1/8
0 1 2 3
x
{
Ω = V, V ' V, V ' V ' V, V ' V ' V ' V, V ' V ' V ' V ' V }
donde V significa extracción de una bola verde y V’ significa su
complemento (la no extracción de una bola verde) o la extracción de bola
blanca o azul. Entonces:
92 Hugo Cornejo Villena & Hugo Cornejo Rosell.
pX (2) = P(V ' V) = P(V ' ) P(V) = =
4 3 2
7 6 7
4 3 3 6
pX (3) = P(V ' V ' V) = =
7 6 5 35
4 3 2 3 3
pX (4) = P(V ' V ' V ' V) = =
7 6 5 4 35
4 3 2 1 3 1
pX (5) = P(V ' V ' V ' V ' V) = =
7 6 5 4 3 35
Por tanto, la distribución de probabilidad de X es:
x 1 2 3 4 5
3 2 6 3 1
pX (x)
7 7 35 35 35
φ ; si x <1
{V} ; si 1≤ x < 2
{
V ' V, V
[ X ≤ x ] = ' '
} ; si 2≤ x<3
{
V V V, V V, V
'
} ; si 3≤ x < 4
{
V ' V ' V ' V, V ' V ' V, V ' V, V } ; si 4≤ x<5
Ω ; si x≥5
Entonces:
3
P( φ) = 0 , P({ V} ) = ,
7
P({V V V, V V, V}) =
' ' '6 2 3 31
+ + = ,
35 7 7 35
Introducción al Cálculo de Probabilidades 93
x 1 2 3 4 5
3 2 6 3 1
p X (x)
7 7 35 35 35
3 5 31 34 1
FX ( x )
7 7 35 35
FX(x)
1
34/35
31/25
5/7 = 25/35
3/7 = 15/35
4 5
x
0 1 2 3
94 Hugo Cornejo Villena & Hugo Cornejo Rosell.
DEMOSTRACION:
4.4.1.-Consecuencia inmediata de la definición de FX ( x ) y dado que la
probabilidad está siempre comprendida entre 0 y 1.
4.4.2.-Observemos que los eventos [x1 < X ≤ x 2 ] y [X ≤ x 1 ] son disjuntos.
Su unión es el evento [X ≤ x 2 ] ; gráficamente:
Introducción al Cálculo de Probabilidades 95
k =o
tomando probabilidad, resulta:
∞
1 = P[X > 0] + ∑ P[− (k + 1) < X ≤ − k ]
k =0
Como la serie es convergente, existe un entero N ε tal que para todo
n > Nε
∞
P[X > 0] + ∑ P[− (k + 1) < X ≤ − k ] > 1 - ε.
k =0
Esto es lo mismo que escribir:
P[X ≤ −(n + 1)] < ε
para todo n > N ε . Si N = - ( Nε + 1), entonces por la propiedad 4.4.3,
FX ( x ) < ε , para todo x < N, lo que completa la demostración.
Tenemos, además, las siguientes propiedades cuyas demostraciones de
deja al lector.
4.4.9 P[X > x ] = 1 - P[X ≤ x ] = 1 - FX ( x ) , para todo x
1 1
4.4.10 P[X < x ] = P lim X ≤ x - = lim P X ≤ x -
n →+∞
n n →+∞
n
1
= lim FX ( x − )
n →+∞ n
1
4.4.11 P[X = x ] = P[X ≤ x ] - P[X < x ] = FX ( x ) - lim FX ( x − )
n →+∞ n
EJEMPLOS
4.4.3.-Supongamos que la función de probabilidad de la variable aleatoria
discreta X está dada por:
x 0 1 2
2 4 1
p X (x)
7 7 7
Hallar la distribución acumulada de X y utilizando esta distribución,
calcular:
a) P[X < 1] b) P[X = 1] c) P[0 < X ≤ 2] d) P[X ≥ 1]
SOLUCION:
Introducción al Cálculo de Probabilidades 97
1 1 1
P[X ≤ 10.5] + P[X ≥ 15.5] = + =
4 4 2
b) P[10.2 ≤ X ≤ 15.5] = FX (15.5) - FX (10.2) + P[X = 10.2]
3 1
= - + P[X ≤ 10.2] - P[X < 10.2]
4 4
2 1
= + FX (10.2) - lim F(10.2 − )
4 n →+∞ n
2 1 1 2 1
= + - = = .
4 4 4 4 2
c) Como
P[X = 10] = P[X ≤ 10] - P[X < 10]
1 1 1
= FX (10) - lim F(10 − ) = -0=
n →+∞ n 4 4
1 3 1 1
P[X = 15] = FX (15) - lim F(15 − ) = - =
n →+∞ n 4 4 2
1 3 1
P[X = 20] = FX (20) - lim F(20 − ) = 1 - =
n →+∞ n 4 4
Entonces, la distribución de probabilidad de X está dada por:
X 10 15 20
p X (x) 1 1 1
4 2 4
FX ( x ) = P[X ≤ x ] = ∑p X ( x j ) = ∑ P[X = x j ]
xj ≤x x j ≤x
REPRESENTACION TABULAR
La representación gráfica de la función de probabilidad conjunta de la
variable aleatoria (X, Y) se muestra a continuación:
REPRESENTACION GRÁFICA
DEFINICION 4.5.3
La función de distribución acumulada o simplemente función de
distribución bivariable del vector aleatorio (X, Y), denotada por FXY , es
la función de 2
en [0,1] dada por:
102 Hugo Cornejo Villena & Hugo Cornejo Rosell.
FX,Y ( x , y) = P[X ≤ x, Y ≤ y ] , ∀ ( x , y ) ∈ 2
Si el rango de la variable aleatoria (X , Y) es finito o infinito numerable:
R X = {x1 , x 2 ,...} , R Y = {y1 , y 2 ,...} , o la variable aleatoria (X , Y) es discreta,
entonces, la función de distribución acumulada de (X , Y) está dada por:
FX,Y ( x , y) = P[X ≤ x, Y ≤ y ] = ∑ ∑ p XY ( xi , y j )
y j ≤ y xi ≤ x
Gráficamente, FX,Y ( x , y) es la suma de las probabilidades de todos los
puntos de la región
{( )
A = x i , y j / x i ≤ x, y j ≤ y }
que se muestra:
. . . . . .
p X,Y (x i , y1 ) p X,Y (x i , y 2 ) ... p X,Y (x i , y j ) ... pX,Y (x i , y)
. . . . . .
p X,Y (x, y1 ) p X,Y (x, y 2 ) ... p X,Y (x, y j ) ... pX,Y ( x, y)
donde x i ≤ x e y j ≤ y .
Por ejemplo, si deseamos calcular FX,Y ( x 3 , y 4 ) , sumamos todos los
elementos de la matriz:
p X,Y (x1 , y1 ) p X,Y (x1 , y 2 ) p X,Y (x1 , y3 ) p X,Y (x1 , y 4 )
p X,Y (x 2 , y1 ) p X,Y (x 2 , y 2 ) p X,Y (x 2 , y3 ) p X,Y (x 2 , y 4 )
p X,Y (x 3 , y1 ) p X,Y (x 3 , y 2 ) p X,Y (x 3 , y3 ) p X,Y (x 3 , y 4 )
EJEMPLOS
Introducción al Cálculo de Probabilidades 103
4
3
2
1
R XY
x
0 1 2 3 4
Observemos que R X ,Y ≠ R X x R Y dado que, por ejemplo, el par
(1, 1) ∉ R XY ya que en la tabulación conjunta no se encuentra este
valor, puesto que no se presenta en ningún lanzamiento de 4
monedas que salga sólo una cara y un sello.
1
Como la selección es al azar, cada evento tiene probabilidad de
16
dado que el número de elementos de Ω es 16. Entonces:
# de pares (0,4) 1
pX,Y (0, 4) = P[X = 0, Y = 4] = =
# de elementos Ω 16
104 Hugo Cornejo Villena & Hugo Cornejo Rosell.
# de pares (1,3) 4 1
pX,Y (1, 3) = P[X = 1, Y = 3] = = =
# de elementos Ω 16 4
# de pares (2,2) 6 3
pX,Y (2, 2) = P[X = 2, Y = 2] = = =
# de elementos Ω 16 8
# de pares (3,1) 4 1
pX,Y (3,1) = P[X = 3, Y = 1] = = =
# de elementos Ω 16 4
# de pares (4,0) 1
pX,Y (4, 0) = P[ X = 4, Y = 0] = =
# de elementos Ω 16
Como aclaración tengamos, por ejemplo:
4 1
P[X = 1, Y = 3] = P (CSSS o SCSS o SSCS o SSSC) = =
16 4
1
P[X = 4, Y = 0] = P (CCCC) = . etc.
16
Por tanto, la función de probabilidad conjunta de (X, Y) está dada
en la siguiente tabla:
Representación gráfica:
Introducción al Cálculo de Probabilidades 105
0 0 0 0
1
0 0 0 4
3
0 0 0
8
0 1 0 0
4
1
0 0 0
16
La suma de todos sus elementos es el valor de FX,Y (4,3) ; es decir
1 3 1 1 15
FX,Y (4,3) = + + + = .
4 8 4 16 16
La tabla que representa los valores de FX,Y ( x , y) , ∀ x, y ∈ , también
se puede expresar como:
similarmente: p Y ( y) = P[Y = y ] = ∑ p X, Y ( x , y)
x : p X,Y ( x , y ) >0
X x1 x2 … xn
pX (x j ) pX (x1 ) pX (x 2 ) … pX (x n )
Y y1 y2 … ym
pY (y j ) pY (y1 ) pY (y 2 ) … pY (y m )
Introducción al Cálculo de Probabilidades 109
3 2 3
0 1 3
pX,Y (0,1) = P[X = 0, Y = 1] = = 2
8 70
4
3 2 4
0 2 2
pX,Y (0, 2) = P[X = 0, Y = 2] = = 3
8 70
4
3 2 3
1 0 3
pX,Y (1, 0) = P[X = 1, Y = 0] = = 3
8 70
4
3 2 3
1 1 2
pX,Y (1,1) = P[X = 1, Y = 1] = = 18
8 70
4
3 2 3
1 2 1
pX,Y (1, 2) = P[X = 1, Y = 2] = = 9
8 70
4
3 2 3
2 0 2
pX,Y (2, 0) = P[X = 2, Y = 0] = = 9
8 70
4
3 2 3
2 1 1
pX,Y (2,1) = P[X = 2, Y = 1] = = 18
8 70
4
Introducción al Cálculo de Probabilidades 111
3 2 3
2 2 0
pX,Y (2, 2) = P[X = 2, Y = 2] = = 3
8 70
4
3 2 3
3 0 1
pX,Y (3, 0) = P[X = 3, Y = 0] = = 3
8 70
4
3 2 3
3 1 0
pX,Y (3,1) = P[X = 3, Y = 1] = = 2
8 70
4
Es necesario aclarar que, podemos utilizar la fórmula:
3 2 3
x y 4 − x − y
pX,Y (x, y) = ;
8
4
para x = 0,1,2,3; y = 0,1,2; 0 ≤ x + y ≤ 4.
Por tanto, la distribución de probabilidad conjunta (X, Y) está dada
en la siguiente tabla:
Calcular:
a) P[X > 0, Y > 0]
b) P[− 1 < X ≤ 1, 0 < Y ≤ 1]
SOLUCION:
Se puede calcular como en el ejemplo anterior, pero utilizaremos las
propiedades expuestas y para ello calcularemos las distribuciones
marginales de p Y (y) y p X (x) y las funciones de distribución acumulada
de (X, Y) :
Como la tabla da el siguiente resultado de probabilidades marginales
X 0 1 Y 0 1 2
pX (x) 0.6 0.4 pY (y) 0.15 0.3 0.55
FX (x ) 0.6 1 FY (y ) 0.15 0.45 1
j =1
( )
lo que demuestra la condición.
Introducción al Cálculo de Probabilidades 115
( ( )
= FX1 b1 - FX1 a1 ( )) ( FX (b2 ) - FX (a2 ))
2 2
demostrado que:
2
[
j =1 j j j
] 2
j =1 j
[
P a i < X i ≤ b i = ∏ P ai < X i ≤ b i
j j
]
Para el caso en que A = 2Ω , R X1 , …, R X n sean conjuntos finitos o
infinitos numerables, tenemos el siguiente corolario.
COROLARIO 4.5.1
El conjunto de n variables aleatorias discretas: X1 , X 2 , …, X n son
n
independientes sí y sólo si p X1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) = ∏p (x ) ,
j =1
Xj j para
SOLUCION
En la misma tabla calculando las distribuciones marginales, tenemos:
P(A B) P(AB)
P(A / B) = = ; P(B)>0
P(B) P(B)
entonces si: A = [X = xi ] y B = Y = y j ; [ ]
luego [ ] [
A B = AB = [X = xi ] Y = y j = X = xi , Y = y j . ]
Por lo tanto,
[
P(AB) = P X = xi , Y = y j = ] p X,Y (x i , y j ) y P(B) = P Y = y j . [ ]
Luego,
p X,Y (x i , y j )
P(A/B) = P [X = xi( ] [ Y = y ]) = P[X = x
j i Y = yj = ] p Y (y j )
Formalmente tenemos:
DEFINICION 4.6.1
Si (X, Y) es una variable aleatoria bidimensional discreta, la función de
probabilidad condicional de X = x i dado Y = y j ; 1 ≤ i ≤ n ; 1 ≤ j ≤ m ,
está dada por :
pX,Y ( x i , y j )
pX Y ( x i yj ) = ; pY ( y j ) > 0; j = 1,2,…,m.
pY ( y j )
Similarmente. La función de probabilidad condicional de Y = y j dado
X = xi , está dada por
pX,Y ( x i , y j )
pY X ( y j xi ) = ; pX ( x i ) > 0 ; i = 1,2,…,n.
pX ( x i )
Para el primer caso, observamos que para cada y j fijo, el conjunto de
pares { (x i , p X / Y (x i / y j )) } define la distribución de probabilidad
condicional de X dado Y = y j , pues:
n
[ ] ∑p (x
n
yj ) = ∑
n [
P X = xi ,Y = y j ]
∑ P X = xi Y = y j =
i =1 i=1
X Y i
i =1 [
P Y = yj ] =
[
P Y = yj] =1
P[Y = y ] j
m
[
∑ P Y = y j X = xi = 1
j =1
]
A la tabla:
X x1 .... xn
(
pX / Y xi / y j ) (
p X / Y x1 / y j ) .... (
pX / Y x n / y j )
donde pX Y ( x i [ ]
y j ) ≥ 0 y ∑ P X = xi Y = y j = 1 , se llama distribución
n
i =1
de probabilidad condicional de X dado Y = y j .
Similarmente, se llama distribución de probabilidad condicional de Y
dado X = xi , a la siguiente tabla:
Y y1 .... ym
(
pY / X y j / xi ) p Y / X (y 1 / x i ) .... p Y / X (y m / x i )
donde pY X ( y j [
x i ) ≥ 0 y ∑ P Y = y j X = xi = 1.
m
j =1
]
EJEMPLOS
4.6.1.-Sea (X, Y) una variable aleatoria bidimensional discreta, cuya
distribución de probabilidad conjunta está dado por la siguiente tabla:
Hallar:
a) P[X = 1 Y = 2]
b) P[Y = 2 X = 0]
c) P[0 ≤ Y < 2 X = 1]
d) P[0 < X < 2 Y = 1]
SOLUCION:
Encontramos las correspondientes funciones de probabilidad marginal
(en una sola tabla):
120 Hugo Cornejo Villena & Hugo Cornejo Rosell.
P[0 ≤ Y < 2 X = 1] = pY X ( 0 1) + pY X (1 1)
pX,Y ( 0,1) pX,Y (1,1)
= +
pX (1) pX (1)
0.2 0.1 1 1 3
= + = + = = 0.75 .
0.4 0.4 2 4 4
d) Como:
[
P a < X < b Y = yj = ] ∑ p (x XY i y j ) , entonces
x i ÎR X a<x i <b
p X ,Y (1,1)
[ ]
P 0 < X < 2 Y = 1 = pX Y (1 1) =
p Y (1)
=
01
.
=
0.3 3
1
= 0. 3 .
Como:
i) p X Y ( x i y j ) = pX Y ( x i 1) ; entonces
1
p ( 0,1) 30 3 1
ii) p X Y ( 0 1) = X,Y = = =
pY (1) 1 30 10
3
1
pX,Y (1,1) 3 1
pX Y (1 1) = = 15 = =
pY (1) 1 15 5
3
1
p (2,1) 3
pX Y ( 2 1) = X,Y = 10 =
p Y (1) 1 10
3
2
pX,Y ( 3,1) 15 6 2
pX Y ( 3 1) = = = =
pY (1) 1 15 5
3
Por tanto, la distribución de probabilidad de X dado Y = 1 está
dada por la siguiente tabla
Y 0 1 2 3
pX Y (x i 1) 1 1 3 2
10 5 10 5
b) Como:
pX,Y ( 3, y j )
pY X ( y j xi ) = pY X ( y j 3) = , entonces
p X ( 3)
122 Hugo Cornejo Villena & Hugo Cornejo Rosell.
1
p X,Y (3, 0) 1
p Y X ( 0 3) = = 10 = ,
p X (3) 2 4
5
2
p X,Y (3,1) 15 1
pY X (1 3) = = =
p X (3) 2 3
5
1
pX,Y ( 3, 2 ) 6 5
p Y X ( 2 3) = = = .
p X ( 3) 2 12
5
Por tanto, la distribución de probabilidad de Y dado X = 3 está dada por
la siguiente tabla:
Y 0 1 2
p Y/X (y j / 3) 1/4 1/3 5/12
EJERCICIOS
1.- Dado el espacio muestral Ω del ejemplo 4.1.1 y el ∂-álgebra
A = {φ ,Ω, {a , b}, {c, d, e}} sí:
a) X está dada por X(a) = X(b) = 1, X(c) = X(d) = X(e) = 2. ¿X es una
variable aleatoria?
b) Y está dada por Y(a) = 1, Y(b) = Y(c) = 2 y Y(d) = Y(e) = 3. ¿Y es
una variable aleatoria?
{
2.- Supongamos que lanzamos tres monedas y sea A = φ ,Ω, {ccc}, {ccc}2 }
¿X definida por: “número de veces que sale cara” es una variables
aleatoria ?
3.- Un embarque de cinco automóviles importados, incluye dos que tienen
unas ligeras manchas de pintura. Si una agencia recibe tres de estos
vehículos aleatoriamente, indique los elementos del espacio muestral Ω
utilizando las letras M y N para “manchado” y “no manchado”,
respectivamente; asigne entonces para cada punto muestral un valor x de
la variable aleatoria X que representa el “número de automóviles con
manchas de pintura comprados por la agencia”.
4.- Sea X una variable aleatoria que da el número de caras menos el de sellos
en tres lanzamientos de una moneda. Indique los elementos del espacio
Introducción al Cálculo de Probabilidades 123
X 0 1 2 3 4 5
pX ( x ) 0.01 0.1 0.3 0.4 0.1 A
c) Calcular:
c1 ) P[X = 1] c5 ) P[X ≤ 2]
c2 ) P[X ≤ 1] c6 ) P[0 < X < 2]
c3 ) P[X < 1] c7 ) P[0 < X ≤ 2]
c4 ) P[X = 2] c8 ) P[1 ≤ X ≤ 2]
18.- La función de distribución acumulada de la variable aleatoria Y está dada
por:
e y , si y < − ln 2
1
FY ( y) = , si − ln 2 < y ≤ 0
2
1 − 1 e − y , si y > 0
2
Hallar las siguientes probabilidades
a) P[Y < −1] , b) P[- 1 < Y < 0] , c) P[Y > 1] , d) P[Y < 3] y
e) P[- 4 < Y ≤ 4]
19.- Consideremos una variable aleatoria X, cuyos posibles valores son todos
n n +1
los números racionales de la forma y , siendo
n +1 n
n = 1, 2, 3, ….
n n + 1 1
Si P X = = P X = = n +1
n + 1 n 2
Probar que esta asignación de probabilidades es correcta y diseñar la
forma de la gráfica de la función de distribución FX .
20.- Demostrar que, si X es una variable aleatoria, su función de distribución
FX ( x ) es continua a la derecha. Esto significa que para ε > 0 existe un
δ > 0 (que depende de x y de ε ) tal que: F(x + u) - F(x) < ε para todo
u entero: 0 < u < δ
(Sugerencia: Utilizar la relación,
[x < X ≤ x + 1] = x + 1 < X ≤ x + 1 y la circunstancia de que el
∞
n =1 n +1 n
resto de una serie convergente, o sea, la parte posterior a un cierto término
de lugar n, tiende a cero cuando n → ∞ ).
21.- Si X representa el número de caras e Y el número de caras menos el de
sellos, cuando se lanzan tres monedas. Encontrar:
a) La distribución de probabilidad conjunta (X, Y)
b) La función de distribución acumulada de (X, Y)
126 Hugo Cornejo Villena & Hugo Cornejo Rosell.
22.- Una moneda se lanza dos veces. Sea X el número de caras en el primer
lanzamiento e Y el número total de caras en los dos lanzamientos. Si
la moneda no está equilibrada y una cara tiene 40% posibilidades de
ocurrir. Encuentre:
a) La distribución de probabilidad conjunta de X e Y.
b) Las distribuciones marginales de X e Y
c) La probabilidad de que ocurra al menos una cara.
23.- Se sacan tres cartas sin remplazo de las 12 cartas mayores (sotas, reinas
y reyes) de un
paquete común de 52 cartas. Sea X el número de reyes seleccionados e
Y el número de reinas. Encuentre:
a) La distribución de probabilidad conjunta de X e Y
b) La distribución acumulada de (X, Y)
c) P [ (X,Y ) ∈ A ], donde A es la región { ( x , y ) / x + y ≥ 2 }
24.- La función de probabilidad conjunta de la variable aleatoria
bidimensional (X, Y) está
dada por:
k x y , si x = 1,2,3 ; y = 1,2,3
p X,Y ( x, y) =
0 , en otros casos
Determinar:
a) El valor de la constante k, b) P [ X = 1, Y = 3 ], c) FX ,Y (2,3)
d) P [ 0 < X ≤ 1, -2 < Y ≤ 3 ] y e) P [ X + Y < 4 ].
25.- Dada la siguiente distribución de probabilidad conjunta (X, Y)
Hallar:
a) Las distribuciones marginales de X e Y
b) La función de distribución acumulada de (X, Y)
c) P [ X > Y ] , d) P [ X > 1, Y < -1 ] y e) P [ X > 1, Y > -1 ]
26.- Se selecciona al azar dos repuestos para un bolígrafo, de una caja que
tiene 3 repuestos azules, 2 rojos y 3 negros. Si X es el número de
repuestos azules e Y el de rojos. Encuentre:
a) La función de distribución acumulada de (X, Y)
b) P [ ( X, Y ) ∈ A ], donde A es la región { ( x , y ) / x + y ≤ 1 }
27.- Supongamos que se extrae aleatoriamente, en un solo acto tres fichas de
un depósito que contiene seis fichas numeradas con: 1,2,3,4,5 y 6. Si la
Introducción al Cálculo de Probabilidades 127
39.- Una moneda se lanza dos veces. Sea Z el número de caras en el primer
lanzamiento y W el número total de caras en los dos lanzamientos. Si la
moneda no está equilibrada y una cara tiene 40% posibilidades de ocurrir,
encuentre
a) P[Z = 1 W = 2]
b) P[W = 1 Z = 0]
CAPÍTULO 5: TIPOS ESPECIALES DE
DISTRIBUCIONES DISCRETAS
y f( x )
x
1/6
x
1 2 3 4 5 6
5.1.2.- Una urna contiene tres fichas de color rojo y una de color verde, si
extraemos una ficha sin reposición, uno a uno sucesivamente hasta sacar
la ficha verde, encontramos que el rango de la variable aleatoria X, que
es el número de intentos que se realizan, es el conjunto
R X = {1,2,3,4} . Entonces
1 3 1 1
f X (1) = P[X = 1] = , f X (2 ) = P[X = 2] = x =
4 4 3 4
3 2 1 1
f X (3) = P[X = 3] = x x = y
4 3 2 4
3 2 1 1 1
| f X (4 ) = P[X = 4] = x x x =
4 3 2 1 4
por lo tanto, esta distribución de probabilidad es discreta uniforme y está
dada por medio de la siguiente fórmula:
1
f X (x ,4 ) = ; x = 1,2,3,4
4
5. 2. DISTRIBUCION BINOMIAL Y DISTRIBUCION DE PASCAL
DEFINICION 5.2.2
Se llama variable aleatoria binomial a la variable aleatoria X definida en Ω
como el número de éxitos que ocurren en las n pruebas de Bernoullí.
Si deseamos determinar el número total de puntos muestrales en el
experimento que tiene k éxitos y (n - k) fracasos, encontraremos que es igual
al número de particiones de n resultados en dos grupos, con k en un grupo y
n
(n - k) en el otro y se expresa por ; debido a que estas particiones son
k
mutuamente excluyentes, se suman las probabilidades de todas las diferentes
particiones para obtener la fórmula general, o simplemente multiplicar p k
n
q n -k por ; k = 0,1,2,…,n. Este número total de pruebas muestrales es la
k
distribución de probabilidad de obtener k éxitos en n pruebas, llamada
distribución binomial; formalmente tenemos la siguiente definición.
DEFINICION 5.2.3
Se dice que la variable aleatoria binomial X tiene distribución binomial con
parámetro n y p, denotado por b (k; n, p) si su función de probabilidad es:
n
p X (k ) = b (k; n, p) = P[X = k ] = p k q n -k ; k = 0,1,2,…,n.
k
132 Hugo Cornejo Villena & Hugo Cornejo Rosell.
n n n n
∑ p q
k n -k
= ∑ p k (1 - p) n -k = [p + (1 - p)]n = 1
k= 0 k k= 0 k
3 4 −3 3
2 4 2 1 2 1 32
b) P[X = 3] =b (3; 4, )= =4x x =
3 3 3 3 3 3 81
3 2 2 2 2
c) P[1 ≤ X ≤ 3] = ∑ b x;4, = b (1; 4, ) + b (2; 4, ) + b (3; 4, )
x =1 3 3 3 3
1 3 2 2 3 2
4 2 1 4 2 1 4 2 1
= + +
1 3 3 2 3 3 3 3 3
2 1 4 1 8 1
=4x x +6x x +4x x
3 27 9 9 27 3
8 24 32 64
= + + =
81 81 81 81
5.2.2.-La probabilidad de que un paciente sobreviva de una rara enfermedad
de sangre es 0.3. Si se sabe que 20 personas han contraído esta
enfermedad, ¿Cuál es la probabilidad de que:
a) al menos 8 sobrevivan,
b) sobrevivan entre 4 y 10 personas, y
c) sobrevivan exactamente 6 personas?
SOLUCION
Sea X el número de personas que sobreviven, n = 20 y p = 0.3.
P[X ≥ 8] = 1 - P[X < 8] = 1 - ∑ b(x; n, p )
7
a)
k =0
7
= 1 - ∑ b ( x, 20, 0.3) = 1 - 0.7723 = 0.2277
k=0
k =4
10 3
= ∑ b(k;20,0.3) - ∑ b(k;20,0.3)
k =0 k =0
= 0.9829 - 0.1071 = 0.8758
c) P[X = 6] = b (6; 20, 0.3) = ∑ b(k;20,0.3) - ∑ b(k;20,0.3)
6 5
k =0 k =0
= 0.6080 - 0.4164 = 0.1916
Consideremos un experimento en el cual las propiedades sean las mismas
que aquellas indicadas para un experimento binomial, con la excepción de que
los intento se repetirán hasta que ocurra un número determinado de éxitos. Por
lo tanto, en lugar de encontrar la probabilidad de k éxitos en n intentos, donde
n es fijo, ahora se está interesado en la probabilidad de que el m-ésimo éxito
134 Hugo Cornejo Villena & Hugo Cornejo Rosell.
3 9
x 4 − x
P[X = x ] = h (x;12,4,3) = ; x = 0,1,2,3
12
4
b) Se rechaza la caja si contiene por lo menos dos mercaderías
defectuosas. Luego, la probabilidad de rechazar la caja es:
3 9 3 9
2 2 3 1 3 x 36 1 x 9 108 9
∑ P[X = x ] =
3
+ = + = +
x =2 12 12 495 495 495 495
4 4
117
= = 0.236
495
5. 4. DISTRIBUCION DE POISSON
Los experimentos que resultan en valores numéricos de una variable
aleatoria X, durante un intervalo de tiempo o en una determinada región,
frecuentemente se llama experimento de Poisson. El intervalo de tiempo que
se considera puede ser de cualquier duración, por ejemplo, un minuto, un día,
una semana, un mes, o un año. De aquí que un experimento de Poisson puede
generar observaciones para la variable aleatoria X que representa el número
de pacientes que ingresan en una hora a un hospital, el número de días que se
cierra una Universidad por huelga de sus trabajadores, etc. La región señalada
podría ser un segmento de recta, un área, un volumen, pedazo de material, etc.
En este caso X podrá representar el número de partículas radiactivas que pasan
por un contador, número de bacterias que atacan a cultivos de papas en una
hectárea, o el número de errores que comete un estudiante al escribir en una
página.
Un experimento de Poisson surge del proceso de Poisson y tiene las
siguientes propiedades:
1. El número de resultados que ocurre en un intervalo de tiempo o región
específica es independiente del número que ocurre en cualquier otro
intervalo disjunto de tiempo o región del espacio disjunto.
2. La probabilidad de que un resultado sencillo ocurra en un intervalo de
tiempo muy corto o una región pequeña es proporcional a la longitud del
intervalo de tiempo o al tamaño de la región y no depende del número de
resultados que ocurran fuera de este intervalo o región.
3. La probabilidad de que más de un resultado ocurra en ese intervalo de
tiempo tan corto o en esa región tan pequeña es despreciable.
Introducción al Cálculo de Probabilidades 139
−λ λ λ λ3 λn
2
= e 1 + + + + ... + + ...
1 2! 3! n!
-λ λ 0
=e e = e =1
En la tabla A.2 se encuentra la suma de las probabilidades de Poisson
r
P(r;λ ) = ∑ p( x;λ ) para algunos valores seleccionados de λ en el rango 0.1
x =0
a 18. Con los siguientes ejemplos se muestra el uso de esta tabla.
EJEMPLOS
5.4.1.-Supongamos que llegan en forma aleatoria una serie de llamadas a una
central telefónica con un promedio de 2 llamadas por minuto. a) Calcular
la probabilidad de que ocurra 5 o más llamadas en el período de un
minuto y b) Calcular la probabilidad de que ocurra 9 o más llamadas,
en 4 minutos.
SOLUCION
140 Hugo Cornejo Villena & Hugo Cornejo Rosell.
x =0 x = 0 x!
= 1 − 1 −
(n - x)! x! nx n n
n −x
n(n - 1)...(n - x + 1) λ x λ λ
= 1 − 1 −
x! nx n n
n −x
λ λ x n (n - 1) (n - 2) (n - x + 1) λ
= 1 − ... 1 −
n x! n n n n n
n −x
λ λx 1 2 x -1 λ
= 1 − 11 − 1 − ...1 − 1 −
n x! n n n n
λ λ λ x - 1 λ
n x −1 −1 −1
1 λ
= 1 − 1 − 1 − 1 − ...1 − 1 −
n x! n n n n n
λ λ x −1 λ j
n x −1
= 1 − ∏ 1 − 1 −
n x! j= 0 n n
Entonces aplicando límites se tiene:
142 Hugo Cornejo Villena & Hugo Cornejo Rosell.
λ n λ x x −1 λ −1 j
lim P [ X = x ] = lim 1 − ∏ 1 − 1 −
n →∞ n →∞ n x! j= 0 n n
n −1
λx λ x −1 λ j
= lim 1 − ∏ lim 1 − lim 1 −
x! n →∞ n j= 0 n →∞ n n →∞ n
−λ
n
x −1 j
−1
λ x
(−λ ) -λ λ
= lim 1 + ∏ lim 1 − lim 1 −
x! n →∞ n
n n
j= 0 → ∞ n →∞
n
−λ
−1 n
λ j (−λ ) -λ
ya que: lim 1 − = 1, lim 1 − =1 y lim 1 + = e −λ
n →∞ n n →∞ n n →∞ n
x
1
Este último de la propiedad lim 1 + = e.
x →∞ x
λ x −λ
Por tanto, lim P [ X = x ] = e , que completa la demostración.
n →∞ x!
OBSERVACION: El teorema, esencialmente, dice que podemos aproximar
las probabilidades binomiales con las probabilidades de la distribución de
Poisson siempre que n sea grande y p pequeño.
Para aclarar de mejor manera, observemos la siguiente tabla; donde n =
100 y p = 0.01, de donde λ = np = 1 :
X 0 1 2 3 4 5
Binomial 0.366 0.370 0.158 0.0610 0.0149 0.0029
Poisson 0.368 0.368 0.184 0.0613 0.0153 .00307
EJEMPLOS
5.4.3.-Supongamos que el 2 % de los artículos producidos en una fábrica son
defectuosos. Hallar la probabilidad de que haya 4 artículos defectuosos
en una muestra de 100 artículos.
SOLUCION:
Se aplica la distribución binomial para n = 100 y p = 0.02. Sin embargo,
puesto que p es pequeño, usamos la distribución de Poisson con
λ = np = 2 . Así
Introducción al Cálculo de Probabilidades 143
e −λ λ x
P[X = x ] = , donde X es el número de artículos defectuosos y
x!
2 4 e −2 16 x (0.135)
x = 4, entonces P[X = 4] = = = 0.0902.
4! 24
5.4.4.-Un hombre dispara a un blanco y sabe que la probabilidad de anotar es
p = 0.01. ¿Cuántos disparos tendrá que hacer para tener una probabilidad
mayor que 0,9 de dar en el blanco (acertar) por lo menos una vez?
SOLUCION:
Si X es el número de aciertos en n disparos, se deduce que
R X = {0,1, 2,...., n} , de donde X es una variable aleatoria discreta. Por
la naturaleza del problema tenemos dos tipos de solución:
i) Aplicando la distribución Binomial.
Se quiere determinar n, tal que P[X ≥ 1] > 0.9
Como [X ≥ 1] = [X = 0] ; entonces P[X ≥ 1] = 1 - P[X = 0] , per
C
n
P[X = x ] = p x (1 − p )n − x ; x = 0, 1, . . . , n ; luego
x
n
P[X = 0] = (0.01) 0 (0.99 )n = (0.99 )n
0
Por consiguiente, hay que encontrar n, tal que
1 - (0.99 )n > 0.9, o (0.99 )n < 0.1,aplicando logaritmos se tiene:
n log (0.99) < log (0.1) ⇒ n (1 - 0.99564) > 1 ⇒
1 100,000
n (0.00436) > 1 ⇒ n > = ≈ 231
0.00436 436
De donde, por lo menos tiene que hacer 231 disparos.
ii) Aplicando la distribución de Poisson
Se quiere determinar n, tal que P[X ≥ 1] > 0.9, como en i) se quiere
determinar n tal que 1 - P[X = 0] > 0.9, dado que P[X = x ]
e −λ λ x
= ; x = 0, 1, …, n, luego P[X = 0] = e −λ , donde
x!
λ =(0, 01) n .
Por consiguiente, hay que encontrar n, tal que
−λ −λ λ λ
1 - e > 0.9; o e - 1 > 0.9 e , o , ( 1 - 0.9 ) e = 1 , o ,
1
eλ > = 10
0.1
Aplicando logaritmos naturales obtenemos:
144 Hugo Cornejo Villena & Hugo Cornejo Rosell.
2.3026
λ > ln10 = 2.3026 ⇒ ( 0.01 ) n > 2.3026 ⇒ n > ≈ 230.26
0.01
de donde, por lo menos tiene que dispar 231 disparos.
5. 5. DISTRIBUCION POLINOMIAL
El experimento binomial se convierte en un experimento polinomial o
multinomial si cada intento tiene más de dos resultados posibles. Por ejemplo,
son experimentos polinomiales la clasificación de un producto manufacturado
en bueno, malo, regular, ligero, pesado; el tirar un par de dados cinco veces y
esperar que salga un par igual en dos oportunidades, esperar que salga tres
veces “diez” o “cuatros”, etc.
En general, si un intento dado puede resultar en cualquiera de k
posibilidades: E1 , E 2 ,…, E k , con probabilidades p1 , p 2 . …, p k ,
respectivamente; entonces la distribución polinomial dará la probabilidad de
que E1 ocurra x 1 veces; E 2 ocurra x 2 veces, … , y E k ocurra x k veces en
n intentos independientes, donde:
x 1 + x 2 + … + x k = n y p1 + p 2 + … + p k = 1
dado que el resultado de cada intento debe ser uno de los k posibles resultados;
esta distribución lo representaremos por la notación m ( x 1 , x 2 , …, x k ;
p1 , p 2 , .. , p k , n ).
Para encontrar la fórmula general procedemos como en el caso binomial.
Como los n intentos son independientes, cualquier orden en que se presenten
o produzcan x 1 resultados para, x 2 resultados para E 2 , … , x k resultados
para E k , ocurrirá con una probabilidad p1x1 p 2x 2 … p kx k . El número total de
órdenes que producen resultados similares para los n intentos independientes
es igual al número de particiones de n intentos en k grupos con x 1 en el primer
grupo; x 2 en el segundo; … ; y x k en el k-ésimo grupo.
Esto puede realizarse en:
n n!
=
x 1 , x 2 ,..., x k x 1! x 2 !...x k !
maneras. Dado que todas las particiones son mutuamente excluyentes y
ocurren con igual probabilidad, se obtiene la distribución polinomial o
multinomial al multiplicar la probabilidad para un orden específico por el
número total de particiones.
DEFINICION 5.5.1
Si un intento determinado puede resultar en cualquiera de los k resultados: E1
, E 2 , …, E k con probabilidades: p1 , p 2 ,…, p k , respectivamente; se dice que
Introducción al Cálculo de Probabilidades 145
5 3 1
6 2 1 1 10! 6 2 1
m (5, 3, 1, 1; , , , ; 10 ) =
10 10 10 10 5!3!1!1! 10 10 10
1
1 10 x 9 x8x7x6 65 x23 9 x8x7x6 5 x 2 3
= x = = 0.0314.
10 1x2x3 1010 10 9
5.5.2.-De acuerdo con la teoría de la genética, un cierto cruce de conejillos de
indias resultará en una descendencia roja, negra y blanca en la relación 8
: 4 : 4. Encontrar la probabilidad de que de 8 descendientes 5 sean rojas,
2 negras y 1 blanco.
SOLUCION:
Sean los eventos
E1 : descendencia roja.
E2 : descendencia negra.
E3 : descendencia blanca.
1 1 1
Luego, n = 8, p1 = , p2 = , p3 =
2 4 4
Tenemos x 1 = 5, x 2 = 2, x 3 = 1
Por tanto:
1 1 1
P[X1 = 5, X 2 = 2, X 3 = 1] = m (5, 2, 1; , , ; 8)
2 4 4
5 2 1
8! 1 1 1 8x7x6 1 1 1
= = x x x
5!2!1! 2 4 4 2 32 16 4
21
= = 0.0820.
256
EJERCICIOS
1.- Se selecciona a un empleado de un grupo de 8 para supervisar un cierto
proyecto, escogiendo aleatoriamente una placa de una caja que contiene
8 numeradas del 1 al 8. Encuentre la fórmula para la distribución de
probabilidad de X que representa el número de la placa que se saca.
¿Cuál es la probabilidad de que el número que se saque sea menor a 5?
2.- La rueda de una ruleta se divide en 25 sectores de igual área y numeradas
del 1 al 25. Si X representa el número que ocurre cuando se hace girar la
ruleta.
a) ¿Cuál es la probabilidad de que, al hacer girar la ruleta, salga 15?
b) ¿Cuál es la probabilidad de que al hacer girar la ruleta salga un
número que sea múltiplo de 5?
Introducción al Cálculo de Probabilidades 147
37.- El norte del Perú es afectado en promedio por 6 huaicos al año. Encuentre
la probabilidad de que en un determinado año esta región sea afectada
por
a) menos de 4 huaicos.
b) cualquier cantidad entre 6 y 8 huaicos.
38.- Suponga que X es una variable aleatoria con distribución de Poisson. Si
2
P[X = 2] = P[X = 1]
3
Calcular: a) P[X = 0] y b) P[X = 3]
39.- Se estima que una máquina produce 150 piezas defectuosas al mes (mes
de 30 días). Calcular la probabilidad de que en un día determinado
produzca 3 piezas defectuosas.
40.- Se lanza un dado 8 veces. Calcular la probabilidad de que aparezcan dos
números 2, dos números 5 y los demás números una sola vez.
41.- La sangre humana fue clasificada en 4 tipos: A, O, B y AB. En una cierta
población, las probabilidades de estos tipos son respectivamente: 0,40,
0,45, 0,10 y 0,05. ¿Cuál es la probabilidad de que en 5 pobladores
escogidos al azar haya
a) dos del tipo A y uno de cada uno de los otros tipos?
b) tres del tipo A y dos del tipo O?
42.- Las probabilidades de que, al conducir en cierta ciudad, de un modelo
específico de auto se obtenga en promedio menos de 22 kilómetros por
galón, entre 22 y 25 kilómetros por galón o más de 25 kilómetros por
galón son, respectivamente: 0,40, 0.40 y 0.20. Calcule la probabilidad de
que entre 12 de tales autos probados, cuatro en promedio menos de 22
kilómetros por galón, seis entre 22 y 25 kilómetros por galón y dos más
de 25 kilómetros por galón.
43.- ¿Cuál es la probabilidad de obtener dos caras dos veces, una cara y un
sello tres veces y dos sellos una vez en seis lanzamientos de un par de
monedas legales?
CAPÍTULO 6: DISTRIBUCIONES CONTINUAS
DEFINICION 6.1.2
Sea X una variable aleatoria continua con rango R X ⊆ . La función de
densidad de probabilidad o simplemente función de densidad de la
variable aleatoria X, es una función:
f X : R X → [0,+∞[
que satisface las siguientes condiciones:
i) f X ( x ) ≥ 0, para todo x ∈ R X ⊂ .
ii) ∫ f X (x )dx = 1.
R
La probabilidad de ocurrencia del evento A = {x / a ≤ X ≤ b} está dada
por:
b
P (A) = P[a ≤ X ≤ b] = ∫ f X (x )dx
a
OBSERVACIONES:
1. La función de densidad f X ( x ) no es probabilidad y sólo cuando se
integra a dicha función entre dos límites produce una probabilidad.
2. De la condición i) establecemos que la gráfica de f X está encima del eje
X.
3. Si el R X = , entonces la condición ii) se puede escribir como
∞
∫ f X (x )dx = 1. La condición ii) representa que el área de la región
-∞
limitada por la curva y = f X ( x ), el eje X y las rectas verticales que pasan
por los puntos extremos de R X es 1.
4. Si x 0 es cualquier valor específico de la variable aleatoria continua X,
x0
entonces P[X = x0 ] = P[x0 ≤ X ≤ x0 ] = ∫ f X (x )dx = 0. De donde se
x0
tiene:
a) P(A ) = 0 , no implica que A = φ .
b) P[a ≤ X ≤ b] = P[a ≤ X < b] = P[a < X ≤ b]
b
= P[a < X < b] = ∫ f X (x )dx .
a
Como las integrales definidas representan el área entre la función por
integrar y el eje horizontal entre los límites finitos, podemos pensar
gráficamente que la probabilidad de a < X < b es, el área bajo el gráfico f X
entre a y b, es decir:
Introducción al Cálculo de Probabilidades 155
b
P[a < X < b] = ∫ f X (x )dx = área de la parte sombreada.
a
EJEMPLOS
6.1.3.- Dada la siguiente función
kx , 0<x≤2
f (x ) = k (4 − x ) , 2<x≤4
0 , en otros casos
a) Hallar el valor de k para que f sea una función de densidad.
b) Hallar P[- 1 ≤ X ≤ 3] .
5
c) Hallar P X < .
2
d) Hallar P[X ≥ 3]
e) Graficar f X (x ) .
SOLUCION:
a) Para que f (x ) sea una función de densidad de una variable aleatoria
continua, debe cumplirse que
∞ 0 2 4 ∞
1 = ∫ f X (x )dx = ∫ 0dx + ∫ kxdx + ∫ k(4 - x )dx + ∫ 0dx
-∞ −∞ 0 2 4
2 4
kx 2 k(4 - x ) 2 4
=0+ - + 0 = 2k - k 0 − 2 = 2k + 2k = 4k
2 0 2 2
1
de donde k = .
4
3 0 2 3
P[- 1 ≤ X ≤ 3] = ∫ f X (x )dx = ∫ f X (x )dx + ∫ f X (x )dx + ∫ f X (x )dx
-1 -1 0 2
156 Hugo Cornejo Villena & Hugo Cornejo Rosell.
2 3
0 2x 31 x2 (4 − x )2
= ∫ 0dx + ∫ dx + ∫ (4 − x )dx = 0 + -
−1 0 4 24 8 0 8 2
4 1 4 4 3 7
= − − = + = .
8 8 8 8 8 8
5 5/ 2 0 2 5/ 2
b) P X < = ∫ f X (x )dx = ∫ f X (x )dx + ∫ f X (x )dx + ∫ f X (x )dx
2 -∞ -∞ 0 2
0 2x 5/ 2 1
= ∫ 0dx + ∫ dx + ∫ (4 − x )dx
−∞ 0 4 2 4
3 2
2 5/ 2
x2 (4 − x )
2
4 2 4
=0+ - = - −
8 0 8 2 8 8 8
4 9 4 8 9 32 − 9 23
= - − = - = = .
8 32 8 8 32 32 32
∞ 44−x ∞
c) P[X ≥ 3] = ∫ f X (x )dx = ∫ dx + ∫ 0dx
3 3 4 4
4
(4 − x )2 1 1
=- + 0 = - 0 − = .
8 3 8 8
e) A continuación presentamos la función de densidad de
probabilidad y su correspondiente gráfico:
x
4 , 0<x≤2
4 − x
f X (x ) = , 2<x≤4
4
0 , en otros casos.
Introducción al Cálculo de Probabilidades 157
6.1.5.-Dada la función
3 − (x +1) ; x = 0,1,2,...
kx ; 1< x < 2
f X (x ) =
k (4 − x ) ; 2 < x < 3
0 ; en otros casos
a) Determinar k, de manera que f X sea una función de
probabilidad de una variable aleatoria X.
3
b) Calcular P 0 ≤ X ≤ .
2
SOLUCION:
a) Debemos observar que
∞ 2 3
−( x +1)
∑3 + ∫ kxdx + ∫ k(4 - x )dx = 1
x =0 1 2
2 3
1 ∞ 1 x 2
x2
∑ +k + k 4 x − =1
3 x =0 3 x 2 1 2 2
∞ 1 1 1 1
Como ∑ k = 1 + + + +…=S
x =0 3 3 9 27
1 1 1 1
Entonces, 1 + [1+ + + +…]=S
3 3 9 27
1 3
de donde 1 + S = S, luego S = .
3 2
1 3 k 9k
Por tanto: x + 2k - + 6k - = 1, luego
3 2 2 2
1 1
+ 3 k = 1, de donde k = .
2 6
3 1 3/ 2 x 1 1 1
b) P 0 ≤ X ≤ = ∑ 3 −(x +1) + ∫ dx =
3/2
+ + x 2
2 x =0 1 6 3 9 12 1
4 1 4 4 5 79
= + ( - 1) = + =
9 12 9 9 48 144
DEFINICION 6.1.3
La función de distribución acumulada o simplemente función de
distribución, FX , de una variable aleatoria continua X, con función de
densidad f X , está dada por:
Introducción al Cálculo de Probabilidades 159
x
FX (x ) = P[X ≤ x ] = ∫ f X (x )dx , ∀ x ∈ .
-∞
Comparar con la definición 4.4.1.
Gráficamente, el área sombreada es la función FX ( x ) :
Área sombreada es FX ( x )
6.1.5.-Hallar FX (x ) , si una variable aleatoria continua X que puede asumir
1
valores entre x = 2 y x = 4 tiene una función de densidad f X (x ) = .
2
SOLUCION:
La función de densidad está dada por:
1
, 2≤x≤4
f X (x ) = 2
0 , en otro caso
Determinación de la función de distribución:
x
FX (x ) = ∫ 0 dx = 0, para x < 2
-∞
x
x
1 1 x x−2
FX (x ) = FX (2 ) + ∫ dx = 0 + x = -1= , para 2 ≤ x ≤ 4.
2 2 2 2 2 2
∞
FX (x ) = FX (4 ) + ∫ 0 dx = 1 + 0 = 1, si x > 4.
4
Luego, la función de distribución acumulada y su gráfica,
respectivamente, son:
0 , si x<2
x- 2
FX ( x ) = , si 2≤x≤4
2
1 , si x>4
160 Hugo Cornejo Villena & Hugo Cornejo Rosell.
SOLUCION
La función de densidad está dada por:
x
4 , si 0 < x ≤ 2
1
f X (x ) = (4 − x ) , si 2 < x ≤ 4
4
0 , en otros casos
Determinación de la función de distribución
x
FX (x ) = ∫ 0 dx = 0 , para x ≤ 0
-∞
x
x x x2 x2
FX (x ) = FX (0 ) + ∫ dx = 0 + = , para 0 < x ≤ 2
04 8 0 8
x
4 (4 − x )
2
x 1
FX (x ) = FX (2 ) + ∫ (4 - x ) dx = -
24 8 8 2
4 (4 − x )2 4 (4 − x )2 , para 2 < x ≤ 4
= - + =1-
8 8 8 8
∞
FX (x ) = FX (4 ) + ∫ 0 dx = 1 + 0 = 1, para x > 4
4
Luego, la función de distribución y su gráfica son:
0 , si x ≤ 0
2
x , si 0 < x ≤ 2
8
FX (x) =
(4 - x)
2
1- 8 , si 2 < x ≤ 4
1 , si x > 4
Para mayor variedad de ejemplos o solución de ejercicios es importante
tener en cuenta las propiedades vistas en la sección 4.4, compatibilizando, con
las observaciones de esta sección y además se tiene que:
a) La función de distribución es no decreciente; es decir, si a ≤ b, entonces
FX (a ) ≤ FX (b ) .
Introducción al Cálculo de Probabilidades 161
4 4 1/4 4 4 4 2
1 1/2 0 1/2
P - 1 < X < = ∫ f X ( x ) dx = ∫ f X ( x ) dx + ∫ f X ( x ) dx
2 -1 -1 0
0 1/2
1
= ∫ 0 dx + ∫ 1 dx = .
-1 0
2
La representación gráfica de las probabilidades anteriores está dada por:
d 0 , si t < 0
La derivada de FY es: FY ( t ) = − t
dt e , si t > 0
Entonces podemos definir
e - y , y>0
fY ( y ) =
0 , caso contrario
y usando f Y , encontramos
3
P[1 < Y < 3] = ∫ e- y dy = - e- y 1 = e −1 - e −3 = 0,318
3
[ ]4∞ = e
¥
P[ Y > 4] = ∫ e- y dy = − e − y −4
= 0,018
4
[ ]20 = 1 - e
2 2
P[ Y < 2] = ∫ f Y dy = ∫ e dy = − e
-y −y −2
= 0,865.
-¥ 0
6.1.9.-Un experimento consiste en seleccionar aleatoriamente un punto en el
interior de un triángulo isósceles cuya base mide 8 cm. y cuyos lados
iguales miden 5 cm. cada uno. Si X es la variable aleatoria que se define
como la distancia del punto de elección a la base, hallar la función de
densidad.
SOLUCION:
Sea el triángulo ABC de la figura adjunta.
8 + DE
• Área del trapecio ADEC = x. Por semejanza de los
2
triángulos ABF y DBG, se tiene
DG BG DG 3− x 4( 3 − x )
= ⇒ = ⇒ DG =
AF BF 4 3 3
8(3 − x )
y como DE = 2DG = , entonces
3
área del trapecio ADEC
DE 4( 3 − x ) 4
= 4 + x = 4 + x = 8 x - x2 .
2 3 3
8×3
• Área del triángulo ABC = = 12.
2
Luego, la función de distribución de X es:
0 , si x ≤ 0
2x 1
FX ( x ) = - x2 , si 0 < x < 3
3 9
1 , si x ≥ 3
EJEMPLOS
6.1.10.- Supongamos que X tiene una función densidad
2 x , si 0 < x < 1
fX ( x ) =
0 , en caso contrario
Sea H(x) = e − x . Para encontrar la función de distribución de Y = H(X)
procedemos como sigue:
[ ] [ ]
GY(y) = P Y ≤ y = P e - x ≤ y = P X ≥ − ln y [ ]
∫ 2 xdx = x ]
1
= 2 1
− ln y = 1 - (− ln y )2 = 1 − ln 2 y
-ln y
Por tanto
d ln y
gY ( y) = G Y (y) = -2 . Puesto que f X ( x ) > 0 para 0 < x < 1,
dy y
1
encontramos que g Y ( y ) > 0 para < y < 1. (Notamos que el signo
e
1
algebraico para g Y ( y ) es correcto ya que ln y < 0 para < y < 1).
e
Existe otro método ligeramente diferente, para obtener el mismo
resultado. Sea
[ ]
GY( y ) = P Y ≤ y = P X ≥ − ln y [ ]
= 1 - P[X ≤ − ln y ] = 1 - FX − ln y ( )
en donde como FX ( - lny ) es la función de distribución de X. A fin de
obtener la derivada de G usamos la regla de la cadena así:
d dG du
GY ( y) = , donde u = - ln y
dy du dy
Por tanto, como FX(x) = x2, para 0 < x < 1
d dF (du) 1 1 ln y
GY ( y) = X - = -2 ln y = -2
dy du y y y
Los métodos empleados en el ejemplo anterior se pueden generalizar en
el siguiente Teorema, cuya demostración se deja al lector.
TEOREMA 6.1.1
Sea X una variable aleatoria continua con función de densidad f, en donde
f X ( x ) > 0 para a < x < b. Supongamos que y = H(x) sea una función de x,
estrictamente monótona (creciente o decreciente). Además, supongamos que
Introducción al Cálculo de Probabilidades 165
DEFINICIÓN 6.2.2
Sea (X, Y) una variable aleatoria bidimensional continua. La función de
densidad de probabilidad conjunta asociada a la variable aleatoria (X, Y), es
la función integrable f: R X ,Y → +
que satisfacen las siguientes
propiedades:
(a) f X ,Y ( x,y ) ≥ 0, ∀ ( x,y ) ∈ R X ,Y
∞ ∞ ∞ ∞
(b) ∫ ∫
−∞ −∞
f X ,Y ( x,y ) dx dy =1 (o ∫ ∫
−∞ −∞
f X ,Y ( x,y ) dy dx =1 )
La probabilidad de un evento A definido en el plano XY, está dado por:
P [(X, Y) ∈ A ] = ∫∫ f
A
X ,Y (x.y) dx dy
∂ 2 FX ,Y ( x , y )
Se cumple que f X ,Y ( x, y) = ; siempre que FX ,Y sea una
∂x∂y
función absolutamente continua.
DEFINICION 6.2.4
Si ( X , Y ) es una variable aleatoria continua con función de densidad de
probabilidad conjunta f X .Y (x, y), entonces:
a) La función de densidad marginal para X es:
¥
fX ( x ) = ∫ f ( x, y ) dy
X,Y ; − ∞ < x < ∞.
-¥
b) La función de densidad marginal para Y es:
Introducción al Cálculo de Probabilidades 167
¥
fY ( y ) = ∫ f ( x, y ) dx
X,Y ; − ∞ < y < ∞.
-¥
c) Las distribuciones acumuladas marginales de X e Y están dadas por:
x
FX ( x ) = P [ X ≤ x ] = P [ X ≤ x, Y ≤ ∞ ] = ∫ f ( x ) dx
X
-¥
y
FY ( y ) = P [ Y ≤ y ] = P [ X ≤ ∞, Y ≤ y ] = ∫ f ( y ) dy
Y
-¥
EJEMPLOS
6.2.1.-Si dos variables aleatorias tienen la siguiente densidad conjunta:
k ( x + y ) , 0 ≤ x ≤ 2 , 1≤ y ≤ 4
2 2
f X,Y ( x, y ) =
o , en otros casos
Determinar:
a) k
b) P [1 < X < 2, 2 < Y ≤ 3]
c) P [1 ≤ X ≤ 2]
d) P [ X+ Y > 4]
SOLUCION:
¥ ¥
a) Como ∫ ∫ f ( x, y ) dxdy
-¥ -¥
X,Y = 1, entonces
2
¥ ¥ 4 2
x3 2
4
∫- ¥ -∫¥ X,Y
f ( x, y ) dxdy = ∫1 ∫0 k ( x + y ) 2
dxdy = ∫1 3 + xy dy
2
k
0
4 4
8 8 2 3
= k ∫ + 2 y 2 dy = k 3 y+ 3 y
1 3 1
32 128 8 2 160 10
= k + − + =k − = 50 k = 1, de
3 3 3 3 3 3
1
donde k = .
50
3 2
1
P [1 < X < 2, 2 < Y ≤ 3] = ∫ ∫ 50 ( x + y 2 ) dxdy
2
b)
2 1
2
1 x3 2
3
1 3 8 2 1 2
= ∫ + xy dy =
50 2 3 1
∫ + 2 y - + y dy
50 2 3 3
168 Hugo Cornejo Villena & Hugo Cornejo Rosell.
1 7 y3
3 3
1 7 2 1 7
= ∫
50 2 3
+ y
dy =
50 3
y+ = ∫
3 50 2 3
+ y 2 dy
1 14 8
3
1 7 y3
= + = ( 7 + 9) − +
50 3 3 2 50 3 3
1 22 26 13
= 16 − = = .
50 3 50 × 3 75
c) P [1 ≤ X ≤ 2] = P [1 ≤ X ≤ 2, - ∞ < Y < ∞ ]
2 ¥ 2 4
1
∫ ∫ f X,Y ( x, y ) dydx = ∫ ∫ 50 ( x + y 2 ) dydx
2
=
1 -¥ 1 1
4
1 2
2 y3 1 2
63
∫1 ∫ 3 x
2
= x y+ dx = + dx
50 3 1 50 1 3
1 3 63
2
1 126 63
=
50 x + 3 x = 50 8 + 3 − 1 + 3
1
1 63 84 14
= 7 + = = .
50 3 150 25
d) El conjunto de puntos R = (x, y) / (x,y)∈ R X ,Y , para los
cuales f X,Y ( x, y ) ≥ 0 se muestra en el gráfico 1.
El subconjunto S de R, donde x + y > 4, se muestra en el siguiente
gráfico 2.
Luego
P [ X+ Y > 4] = ∫∫ f ( x, y ) dxdy
X,Y
S
Introducción al Cálculo de Probabilidades 169
4
2 4
1 2 2 1 2 y3
2
=∫ ∫ ( x + y ) dydx =
50 ∫0 x y+ 3 dx
0 4-x 50 4-x
1 2 2 64 3 (4 - x)
3
∫
2
= 4 x + - 4 x + x - dx
50 0 3 3
1 2 4 x 3 -12 x 2 + 48 x 1 2
= ∫
50 0 3
dx =
150
x 4 - 4 x 3 + 24 x 2
0
1
= (16 − 32 + 96) = 80 = 8
150 150 15
6.2.2.-Una compañía dulcera distribuye cajas de chocolates con una mezcla
de tres tipos de chocolate: cremas, de chiclosas y envinados. Supongamos
que el peso de cada caja es de un kilogramo, pero los pesos individuales
de las cremas, de las chiclosas y de las envinadas varían de una caja a
otra. Para una caja elegida al azar, X e Y representan los pesos de las
cremas y de las chiclosas, respectivamente y supongamos que la función
de densidad conjunta de estas variables está dada por:
24 xy, 0 ≤ x ≤ y 0 ≤ y ≤ 1, x+ y ≤ 1
f X,Y (x, y) =
0, en otro caso
a) Hallar la probabilidad de que en una caja determinada el peso de los
chocolates envinados es más de ½ del peso total.
b) Encuentre la densidad marginal para el peso de las cremas.
c) Determinar la densidad marginal para el peso de las chiclosas.
d) Hallar FX ,Y (½, ½)
e) Hallar la probabilidad de que en una caja determinada el peso de
los chocolates chiclosas sea menor o igual ¾ del peso total.
SOLUCION:
a) Si representamos por Z el peso de los chocolates envinados y como
en una caja de chocolates hay los tres tipos de chocolates; entonces
se tiene que: X +Y + Z = 1 y de donde Z = 1-(X+Y) y como
queremos hallar P [ Z > ½], es equivalente hallar
P [ 1 - (X + Y) > ½ ] = P [ X + Y < ½ ]. Como el conjunto de
puntos R= ( x, y) / (x, y)∈ R X ,Y , para las cuales
FX,Y (x, y) ≥ 0, se muestra en el siguiente gráfico. También el
subconjunto S de R, donde X + Y < ½, se muestra en el siguiente
gráfico:
170 Hugo Cornejo Villena & Hugo Cornejo Rosell.
Luego:
1 1
−x
1
∫∫ f X ,Y ( x , y )dydx
2 2
P X + Y < =
2
= ∫ ∫ 24 xydydx
S 0 0
1 1/ 2 1
2
xy 2 3 x 2
∫ 2 dx =12 ∫ x − x + 4 dx
2
= 24
0 0 0
1/ 2
x4 x3 x2 1 1 1 12 1
=12 − + = 12 − + = = .
4 3 8
0
64 24 32 192 16
¥
b) f X (x) = ∫f
-¥
X,Y (x, y) dy ; −∞< x <∞
1-x
1-x
y2
= ∫ 24 xydy = 24 x = 12 x (1- x ) ; 0 ≤ x ≤ 1
2
0 2 0
Luego:
12 x (1- x )2 ; 0 ≤ x ≤ 1
f X (x) =
0 ; en otro caso
¥
c) f Y (y) = ∫f
-¥
X,Y (x, y) dx ; −∞ < y < ∞
1−y 1−y
x2
∫ 24 xydx = 24 y =12 y (1 − y ) ; 0 ≤ y ≤ 1
2
=
0 2 0
Luego:
Introducción al Cálculo de Probabilidades 171
12 y (1- y ) 2
; 0 ≤ y ≤1
f Y (y) =
0 ; en otro caso
1 1
1 1 1 1 2 2
d) FX,Y , = P X ≤ , Y ≤ =
2 2 2 2 ∫ ∫f
-¥ -¥
X,Y (x, y) dxdy
1 1 1
2 1/2
1
2 2
x 2 2
= ∫ ∫ 24 xydxdy = 24 ∫ y dy = 3 ∫ ydy
0 0 0 2 0 0
1/2
y 3 2
=3 = .
2 0 8
e) Deseamos calcular:
3
3 3 4
P Y ≤ = FY = ∫ f Y (y) dy
4 4 -¥
y como por c) tenemos calculado f Y ( y ) . Entonces
3 3
3 4 4
∫0 ∫0 (y- 2 y + y ) dy
2
P Y ≤ = 12 y(1- y) dy = 12 2 3
4
3/4
y 2 2 y3 y 4 9 9 81 243
= 12 - + =12 − + = .
2 3 4 0 32 32 1024 256
Ahora presentamos la generalización de distribuciones acumuladas para
varias variables continuas, tal como indicamos anteriormente, también
presentaremos conceptos de función de distribución condicionada y densidad
de las funciones de varias variables.
DEFINICION 6.2.5
Se dice que las variables aleatorias continuas: X1 , X 2 ,..., X n , tienen
distribución acumulada, cuando existe una función f X1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n )
tal que, cualquiera que sea la n-upla de número reales ( x1 , x 2 ,..., x n ) se
verifica la igualdad:
x1 x 2 xn
FX1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) = ∫ ∫ ... ∫ f X1 ,X2 ,...,XN ( t1 , t 2 ,..., t n ) dt1dt 2 ...dt n
-¥ -¥ -¥
= lim
x 2 →∞ ∫ ∫ ∫f X1 ,X 2 ,X3 ( t1 , t 2 , t 3 ) dt1dt 2dt 3
-∞ -∞ -∞
x 3 x1 x2
∞
Por lo tanto: f X1 ,X3 ( x1 , x 3 ) = ∫f X1 ,X 2 ,X3 ( x1 , x 2 , x 3 ) dx 2 ,
−∞
que demuestra el teorema.
DEFINICION 6.2.6
∞
La función de densidad conjunta f X1 ,X3 ( x1 , x 3 ) = ∫f X1 ,X 2 ,X3 ( x1 , x 2 , x 3 ) dx 2 , se
−∞
llama “marginal” o “densidad marginal” de la función de densidad conjunta
f X1 ,X2 ,X3 ( x1 , x 2 , x 3 ) .
En general, cuando se pretende encontrar una función de densidad
marginal de un cierto número (finito) de varias variables aleatorias y sea
conocida una función de densidad para un conjunto (finito) de variables
aleatorias que incluye aquel; debe integrarse respecto a las variables
extrañas; la definición 6.2.4 a) y b) son casos particulares de lo que
afirmamos, como se ve en el siguiente ejemplo.
EJEMPLO
6.2.3.-Supongamos que X e Y son dos variables aleatorias con una función de
densidad conjunta definida por:
2 ( x+ y- 3 xy 2 ) , 0 < x < 1, 0 < y < 1
f X,Y (x, y) =
0 , en caso contrario
Deseamos hallar las funciones de densidad marginal para X e Y. Por el
teorema que acabamos de demostrar se obtiene:
a) La marginal para X es
∞
∫ 2 ( x+ y- 3 xy ) dy ;
2
f X (x) = de donde
−∞
1
1 , 0 < x < 1
∫ 2 ( x+ y- 3 xy ) dy
2
f X (x) = = .
0 0 , en caso contrario
b) La marginal para Y, análogamente que a) se tiene:
1
1+ 2 y- 3 y 2 , 0 < x < 1
f Y (y) ∫ 2 ( x+ y- 3 xy ) dx
= 2
=
0 0 , en caso contrario
Cuando las variables aleatorias continuas tienen una distribución
conjunta, es fácil establecer si son independientes. Esto es lo que destacaremos
en el siguiente teorema.
174 Hugo Cornejo Villena & Hugo Cornejo Rosell.
TEOREMA 6.2.2
Si X1 , X 2 ,..., X n son variables aleatorias continuas que tienen una distribución
conjunta, la condición necesaria y suficiente para que sean independientes es
que la función de densidad conjunta de X1 , X 2 ,..., X n sea
n
f X1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) = ∏f
j=1
Xj (x j )
DEMOSTRACION:
Probaremos la condición suficiente, para esto supongamos que
n
f X1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) = ∏f
j=1
Xj (x j ) , pero
x1 x 2 xn
n
xn x1
DEFINICION 6.2.7
La función de distribución condicionada de una variable aleatoria X, con la
condición de que otra variable aleatoria Y tome el valor y, Y = y, está dada
por
FX Y ( x y ) = limP
ε→0+
{[ X ≤ x ] [ y- ε < Y ≤ y+ ε]}
suponiendo que ese límite exista.
Si FX Y ( x y ) existe, diremos que una función de densidad condicionada
de X para Y dada, es una función f X Y ( x y ) ; tal que, para todo número real x
se tiene la igualdad
x
FX Y ( x y ) = ∫ f ( t y ) dt
-∞
X Y
TEOREMA 6.2.3
Si X, Y son dos variables aleatorias continuas, que tienen una distribución
conjunta, entonces, en todo punto (x , y) en el que f X,Y (x, y) sea continua y,
además, sea f Y (y) > 0 y continua, existe una función de densidad
condicionada de X, dada Y, que puede escribirse como sigue :
f (x, y)
f X Y ( x y ) = X,Y
f Y (y)
DEMOSTRACION:
Por la definición de función de distribución condicionada de probabilidad
condicionada se tiene:
FX Y ( x y ) = limP
ε→0+
{[ X ≤ x ] [ y- ε < Y ≤ y+ ε]}
P {[ X ≤ x ][ y- ε < Y ≤ y+ ε ]}
= lim+ ; pero
ε→0 P [ y- ε < Y ≤ y+ ε ]
FX,Y (u, v)
FX Y ( x y ) = lim+ ; donde u ∈ (- ∞ , x) y v ∈ ( y - ε , y + ε)
ε→0 FY (v)
luego por definición de funciones de distribución se obtiene:
x y+ε
∫
v=y-ε
f Y (v) dv
similarmente
176 Hugo Cornejo Villena & Hugo Cornejo Rosell.
x 1 y +ε
lim+ ∫ ∫ f X,Y (u, v) dv du
2ε v=y −ε
ε→0
u =−∞
FX Y ( x y ) = y +ε
1
ε→0+ 2ε ∫
lim f Y (v) dv
v=y −ε
Pero
y +ε y +ε
1 1
lim+
ε→0 ∫
2ε y −ε ε→0 2ε ∫
f Y (v) dv = f Y (y) ; dado que lim+
y −ε
f Y (v) dv - f Y (y) =0 o
1
y +ε y +ε
1
lim+ ∫
2ε y −ε
f Y (v) dv - lim f
+ Y
(y) = 0, lim ∫ f Y (v) dv- f Y (y) =0 o
2ε y −ε
+
ε→0 ε→0
ε→0
y +ε
1
ε→0+ 2ε ∫
lim ( f Y (v) - f Y (y) ) dv = 0,
y −ε
Por tanto:
x
∫ f X,Y (u, y) du x
FX Y ( x y ) = ∫ (f (u, y) f Y (y) ) du
u=−∞
= X,Y
f Y (y) −∞
x
f X,Y (x, y)
y como FX Y ( x y ) = ∫f X Y (u y) du ⇒ f X Y ( x y ) = ,
−∞ f Y (y)
que completa la demostración.
En forma similar se demuestra que:
f X,Y (x, y)
fY X ( y x ) =
f X (x)
Así mismo, para varias variables se sigue, por generalización del teorema
6.2.3 como, por ejemplo:
f (x, y, z)
f X,Y Z ( x, y z ) = X,Y,Z , etc.
f Z (z)
EJEMPLOS
6.2.4.- Supongamos que U y V son dos variables aleatorias continuas que
tienen una distribución conjunta con densidad
Introducción al Cálculo de Probabilidades 177
1
, u 2 + v2 ≤ 1
f U,V (u, v) = p
0 , en caso contrario
Entonces la densidad marginal para U es
2 1- u 2
, -1 < u ≤ 1
f U (u) = π
0 , en caso contrario
Así, la densidad condicional de V, dado U = u, es:
f (u, v) 1
f V U ( v u ) = U,V = , donde
f U (u) 2 1- u 2
- 1 − u 2 < v < 1 − u 2 , -1 < u < 1.
6.2.5.-Si la función de densidad conjunta de las variables aleatorias X e Y está
dada por:
3
f X,Y (x, y) = 7
(2 x 2 + xy) , 0 < x < 1, 0 < y < 2
0 , en otro caso
a) Hallar la densidad marginal de X.
1 1
b) Calcular P Y > X< .
2 2
c) Hallar la distribución acumulada de X e Y.
SOLUCION:
a) Por definición,
∞ 2
3
∫f ∫ 7 (2 x
2
f X (x) = X,Y (x, y)dy = + xy)dy
−∞ 0
2
3 2 xy 2 6
= 7 (2 x + x)
2
=
7 2 x y+
2 0
6 2
(
2x + x , 0 < x <1
Entonces: f X (x) = 7
)
0 , en otro caso
178 Hugo Cornejo Villena & Hugo Cornejo Rosell.
1 1
P X < , Y >
1 1 2
X< =
2
b) P Y >
2 2 1
P X <
2
1 1
2 2
2 2
3
∫ ∫ f X,Y (x, y)dydx ∫ ∫ 7 (2 x
2
+ xy)dydx
0 1 0 1
= 2
1 = 2
1
2 2
6
∫f ∫ 7 (2 x
2
X (x)dx + x)dx
0 0
1 2 1
3 2 xy
2 2 2
15 x
∫0 7 2 x y+ 2 dx 1 ∫ 3x
2
+ dx
1/ 2 0
8
= =
6 2x 3
x 2 1/ 2
2 5
+
7 3 2 0 24
1/ 2
12 3 15 2 12 1 15 69
= x + x = + = .
5 16 0 5 8 64 80
c) La distribución acumulada de X e Y es:
x y x y
3
∫ ∫ f X,Y (x, y)dydx = ∫ ∫ 7 (2 x
2
FX,Y (x, y) = + xy) dydx
-∞ -∞ 0 0
y
3 2 xy
x
3 2 xy 2
2 x
=
7 ∫0 2 x y+ 2 dx = 7 ∫0 2 x y+ 2 dx
0
3 2 3 x y 2 2
3 2
= x y+ = x y(8 x+ 3 y) ; 0<x<1, 0<y<2
7 3 4 84
Es decir
0 , x ≤ 0, y ≤ 0
3
FX,Y (x, y) = x 2 y ( 8 x+ 3 y ) , 0 < x < 1, 0 < y < 2
84
1 , x ≥ 1, y ≥ 2
Introducción al Cálculo de Probabilidades 179
1
1 1
180 Hugo Cornejo Villena & Hugo Cornejo Rosell.
1 1
= - e −3 + e −1 = - ≅ 0 − 3680 − (0.0498) ≅ 0.3182 .
e e3
d) Para x > 0, y > 0, tenemos
e(
- x+ y )
f X,Y (x, y)
f X/ Y ( x/ y ) = = = e- x
f Y (y) e- y
luego,
1 1
P [ 0 < X < 1 Y = 2] = ∫ f X Y ( x y ) dx = ∫ e- x dx = -e- x
1
0
0 0
1
= - e −1 + e 0 = 1 - e −1 = 1 - ≅ 1 − 0.3680 ≅ 0.632 .
e
6.2.7.-La función de densidad de probabilidad conjunta de las variables
aleatorias X, Y, Z es
4 xyz 2
, 0 < x < 1, 0 < y < 1, 0 < z < 3
f ( x, y, z ) = 9
0 , en cualquier otro caso
Hallar:
a) La función de densidad marginal conjunta de Y y Z.
b) La densidad marginal de Y.
1 1 1
c) P < X < , Y > , 1 < Z < 2
4 2 3
1 1
d) P 0 < X < Y = , Z = 2
2 4
e) P [ X > 0, Z < 2 Y = 1]
SOLUCION:
a) Por definición,
∞ 1
4 xyz 2
f Y,Z (y, z) = ∫ f X,Y,Z (x, y, z)dx =
−∞
∫0 9 dx
1
4 x2 2 2
= yz = yz 2 ;
9 2 0 9
Luego, la función de densidad marginal conjunta de Y y Z es:
Introducción al Cálculo de Probabilidades 181
2 yz 2
, 0 < y < 1, 0 < z < 3
f Y,Z (y, z) = 9
0 , en cualquier otro caso
2 y , 0 < y < 1
f Y (y) =
0 , en cualquier otro caso
1
∞2
1 1 1
2
1 1
2
4
f X,Y,Z (x, y, z) xyz 2
2
f X,Z Y ( x, z y ) = = 9 = xz 2
f Y (y) 2y 9
Luego,
2
12 2 1
2
P [ X > 0, Z < 2 Y = 1] = ∫ ∫ xz 2 dzdx = ∫ xz 3 dx
00 9 0 27 0
1
116 8 8
= ∫ xdx = x 2 =
0 27 27 0 27
6. 3. DENSIDAD DE LAS FUNCIONES DE VARIABLES
ALEATORIAS
Consideremos n variables aleatorias continuas: X1 , X 2 , …, X n que
tienen una distribución conjunta. Muchas veces se presenta la necesidad de
calcular una función de densidad para una variable aleatoria Y que está en
función de: X1 , X 2 , …, X n ; tales como, Y puede ser la suma de esas n
variables aleatorias, o la suma de sus cuadrados, o la razón entre X1 y X 2 .
En esta sección se explica la técnica adecuada para obtener una densidad
de las variables Y de este tipo. Para tal fin estableceremos dos teoremas cuyas
demostraciones omitimos:
TEOREMA 6.3.1
Sean X1 , X 2 , …, X n , n variables aleatorias continuas que tienen
distribución conjunta. Sea u1 = u1 ( x1 ,..., x n ) , … , un = un ( x1 ,..., x n ) una
( )
función continua del espacio euclidiano n-dimensional, E n , en sí mismo.
( )
Sea T ⊂ E n definido por:
T = {( x1 ,..., x n ) / u1 ( x1 ,..., x n ) ≤ a1 ,..., u n ( x1 ,..., x n ) ≤ a n }
en donde a1 ,...,a n son constantes, entonces
P ( X1 ,..., X n ) ∈ T = ∫ ..∫ ...∫ f X1 ,...,X n ( x1 ,..., x n ) dx1 ...dx n
T
El caso más general de este teorema, que será utilizado en lo que sigue,
se enuncia así:
( )
Si T es un subconjunto del espacio E n , con la condición de que
{ }
w/ ( X1 (w),..., X n (w) ) ∈ T = ( X1 ,..., X n ) ∈ T ∈ A
(es decir, es un evento), se tiene
Introducción al Cálculo de Probabilidades 183
∂x ∂x
x = r cos θ , y = r sen θ ; por consiguiente: = cosθ , =
− r sen θ ,
∂r ∂θ
∂y ∂y
= sen θ , = r cos θ . El Jacobiano es
∂r ∂θ
∂ ( x, y ) cos θ − r sen θ
J= = =r
∂ ( r, θ ) sen θ r cos θ
de donde
b1 b 2
∫ ∫ H ( x, y ) dxdy = ∫
a1 a 2 R
∫ H(r cos θ, r sen θ)rdrdθ
v1 vn
1-z
f Z (z) = ∫f
0
Z,W (z, w) dw
1-z (1- z 2 )
3 , 0 < z <1
= ∫ 3(z+ w)dw = 2
0 0 , en caso contrario
6.3.3.-Supongamos
- ( x+ y+z )
e , x > 0, y > 0, z > 0
f X,Y,Z (x, y, z) = ,
0 , en caso contrario
El problema consiste en calcular una densidad de U = (X+Y+Z) / 5.
Consideremos la transformación u = (x+ y+ z) / 5, v = y , w = z, de la
que se obtienen, como transformaciones inversas:
x = 5 u - v - w , y = v , z = w. El Jacobiano de transformación está
dado por:
5 −1 1
∂ ( x, y, z )
J= = 0 1 0 =5
∂ ( u, v, w )
0 0 1
y por el teorema 6.3.3, una función de densidad conjunta de U, V, W
viene dada por
f U,V,W (u, v, w) = f X,Y,Z (x(u, v, w), y(u, v, w), z(u, v, w)) J
5e-5 u , 5u- v- w > 0, v > 0, w > 0
=
0 , en caso contrario
Las dos desigualdades w > 0, 5u - v - w > 0, implican que
0 < w < 5u - v. Así
5 u-v -5 u
f U,V (u, v) = ∫0
5e dw , 5u- v > 0, v > 0
0 , en caso contrario
Finalmente:
5 u 5 u-v -5 u 125 2 -5 u
∫ dv ∫ 5e dw = ue , u>0
f U (u) = 0 0 2
0 , en caso contrario
Introducción al Cálculo de Probabilidades 187
EJERCICIOS
1.- Determinar el valor de k, para que cada una de las siguientes funciones
de densidad:
2
( )
-1/ 2
a) f(x) = k 1- x 2 , ∀ x ∈ 0,
2
b) f(x) = k (1 + x ) , ∀ x ∈ ]−1,1[
2k
c) f(x) = , ∀x ∈
1 + x2
4 kx , si 0 ≤ x ≤ 1
d) f(x) =
k(5 - x) , si 1 ≤ x ≤ 5
2.- Sea una variable aleatoria cuya función de densidad es:
0 , x≤0
α(1 + x) , 0 < x ≤1
f X (x) = 2
3 , 1< x ≤ 2
0 , x>2
a) Obtener el valor de α.
b) P [ 0.5 < x ≤ 1.5]
3.- Sea X una variable aleatoria continua, cuya función de densidad es:
ke- 5
x
, x>0
f X (x) =
0 , en caso contrario
a) Determinar el valor de k.
b) Calcular P [ X ≤ 5] y P [ 0 ≤ X ≤ 8] .
c) Graficar f X ( x ) .
d) Determinar FX ( x ) y graficar.
4.- Si la función de densidad de probabilidad de una variable aleatoria está
dada por:
x , 0 < x <1
f X (x) = 2 - x , 1 ≤ x < 2
0 , en caso contrario
a) Hallar P [ X > 1.8] .
188 Hugo Cornejo Villena & Hugo Cornejo Rosell.
x
k , 0 < x <1 , 1< y < 2
f X,Y ( x, y ) = y
0 , en otros casos
Sea una función de densidad de (X, Y).
25.- Demostrar que:
P [ a < X ≤ b , Y=
≤ d ] FX,Y ( b,a ) − FX,Y ( a,d )
(Sugerencia: Haga un dibujo)
26.- Demostrar que:
P[a < X ≤ b , c < Y ≤ d ] = FX ,Y (b, d ) - FX ,Y (a , a ) -
FX ,Y (b, c ) - FX ,Y (a , c ) .
(Sugerencia: Use el problema anterior y un nuevo dibujo)
27.- La función de densidad conjunta de las variables aleatorias X e Y está
dada por:
4 xy , 0 < x < 1 , 0 < y < 1
f X,Y ( x, y ) =
0 , en cualquier otro caso
Encuentre
a) P[0 ≤ X ≤ 3 / 4 , 1/8 ≤ Y ≤ 1 / 2] ,
b) P [Y > X] .
28.- Dada la función de densidad conjunta
6 - x- y
, 0<x<2 , 0<y<4
f X,Y ( x, y ) = 8
0 , en otros casos
Hallar: P [1 < Y < 3 X = 2] .
29.- La cantidad de gasolina, en miles de litros, en un tanque al principio del
día es una cantidad aleatoria Y, de la cual una cantidad aleatoria X se
vende durante el día. Supongamos que el tanque no se rellena durante el
día, de manera que x ≤ y , y supongamos que la función de densidad
conjunta de estas variables es:
2 , 0 < x < y , 0 < y < 1
f X,Y ( x, y ) =
0 , en otro caso
a) Determinar si X e Y son independientes.
b) Encuentre P [1 / 2 < X < 1 / 2 Y = 3 / 4]
194 Hugo Cornejo Villena & Hugo Cornejo Rosell.
2 -( 2 + m )
e 100 100 , 0<x<y
f X,Y ( x, y ) = (100) 2
0 , en otros casos
a) Hallar las densidades marginales de X e Y.
b) ¿Son X e Y independientes?
c) Hallar la densidad condicional de Y dado X = 60.
34.- Sea
9 x 2 y 2 , 0 < x < 1 , 0 < y ≤ 1
f X,Y ( x, y ) =
0 , en otros casos
Con U = X 3 y V = Y 3 , calcular f U,V ( u, v ) y f U ( u ) .
35.- Sea
3x
, 0 < x <1 , - x < y < x
f X,Y ( x, y ) = 2
0 , en caso cantrario
Calcular la densidad de X - Y.
36.- Sea
f X1 ,X2 ,X3 ,X4 ( x1 , x 2 , x 3 , x 4 ) =
e-( x1 + x 2 + x3 + x 4 ) , si x1 > 0, x 2 > 0, x 3 > 0, x 4 > 0
0 , en caso cantrario
X1 + X 2 + X 3 + X 4 + X 5
Calcular la densidad de: .
5
CAPÍTULO 7: TIPOS ESPECIALES DE
DISTRIBUCIONES CONTINUAS
Sean: u = x p
du = px p−1
dx y dv = e − x dx v = −e − x
Entonces
b b
Γ(p + 1) = lim ∫ x p e − x dx = lim − x p e − x + p ∫ e − x x p −1dx
b →∞ 0 b →∞ 0
= lim − x e
b →∞
(
p −x
)] b
0
∞
+ p ∫ x p−1e − x dx
0
Es fácil ver que:
[p ] +1
p −b b
0 ≤ lim b e ≤ lim
b →∞ ex b →∞
Γ(1+ 1) = 1 Γ(1)
Pero
∞
b →∞
b
b →∞
(
Γ(1) = ∫ x 0 e − x dx = lim ∫ e − x dx = lim − e − x )
b
0 (
= lim 1 − e
b →∞
)
−b
=1
0 0
Por consiguiente: Γ(2 ) = 1.
ii) Supongamos que para p = n, se cumple: Γ(p + 1) = Γ(n + 1) = n!
iii) Sea p = n +1 , entonces Γ(p + 1) = Γ(n + 1 + 1) = Γ(n + 2 )
Por el teorema 7.1.1 y i) obtenemos:
Γ(n + 1 + 1) = (n + 1)Γ(n ) = (n + 1)n! = (n + 1)!
Por lo tanto: Γ(p + 1) = p! .
COROLARIO 7.1.2
1
Γ = π
2
DEMOSTRACION:
1 ∞ −1
Γ = ∫ x 2 e − x dx
2 0
1 ∞
Sea x = z 2 (z > 0 ) dx = 2zdz , luego Γ = 2 ∫ e − z dz
2
2 0
1 1 2 1
Como Γ > 0, por lo que Γ es la raíz cuadrada positiva de Γ .
2 2 2
2 1
Pero Γ = 4 ∫ e − x dx ∫ e − y dy = 4 ∫ ∫ e − (x + y )dxdy
∞ 2 ∞ 2 ∞∞ 2 2
2 0 0 00
Aplicando la transformación: x = r cos θ , y = r sen θ
El Jacobiano de esta transformación es r, y se tiene
{(x, y ) / 0 < x < ∞ , 0 < y < ∞} = (r, θ) / 0 < r < ∞ , 0 < θ < π
2
Por consiguiente:
π
1 2 ∞ 2 1
Γ 2 = 4 ∫ dθ ∫ e −r rdr = π y Γ = π .
2 0 0 2
DEFINICION 7.1.2
Sea X una variable aleatoria continua que toma valores positivos. Decimos
que X tiene una distribución gamma con parámetros α y β, si su función
densidad está dada por:
198 Hugo Cornejo Villena & Hugo Cornejo Rosell.
β
f X (x ) = Γ(α )
(βx )α−1 e −βx , si x > 0
0 , en caso contrario
Esta distribución depende de los dos parámetros:α y β, que son números reales
positivos y obviamente Γ(α ) es la función gamma.
Mediante la función gamma; demostraremos que, en efecto f X (x ) dada
en la definición 7.1.2, es una función de densidad de probabilidad. Para tal
efecto, consideremos un cambio de variable de integración, tal que: u = βx y
du = βdx , entonces:
∞ ∞ β ∞ 1 ∞ α −1 − u
f
∫ X (x )dx = f
∫ X (x )dx = ∫ (β x )α −1 −βx
e dx = ∫ u e du
−∞ 0 Γ(α ) 0 Γ(α ) 0
1
= Γ(α ) = 1.
Γ(α )
La función de distribución acumulada está dada por:
β α x α −1 −βx
P[X ≤ x ] = FX (x; α, β ) = Γ(α ) 0∫ x e dx , si x > 0
0 , en otro caso
La distribución gamma es muy variante o versátil ya que presenta varios
perfiles que dependen del valor del parámetro α. En el siguiente gráfico se
presenta distintos perfiles de la función de densidad gamma para distintos
valores de α y β.
[ ]
1
Luego P[X ≤ 1] = 25 ∫ xe −5 x dx = 1 − e −5 (1 + 5) = 0.96.
0
Es destacable manifestar la importancia de la distribución gamma que
radica en el hecho de que define una familia de la cual otras distribuciones son
casos especiales; así tenemos que cuando α es un entero positivo n, la
distribución gamma se conoce como distribución Erlanh, en honor del
200 Hugo Cornejo Villena & Hugo Cornejo Rosell.
científico danés A. K. Erlang (1878 - 1929) que la usó por primera vez a
principios del año 1900 a fin de establecer resultados útiles para problemas de
tráfico en líneas telefónicas y que su función de densidad está dada por:
βn n −1 −βx
f X (x ) = (n − 1)! x e , si x > 0
0 , en otro caso
También son casos especiales de la función gamma las distribuciones:
Exponencial, Ji-cuadrada y Weibull y están íntimamente relacionadas con la
distribución beta; definiciones que veremos en las secciones posteriores.
DEFINICION 7.1.3
1
La función beta, es aquella definida por la integral ∫ x p −1 (1 − x )q −1 dx ,
0
denotada por β(p, q ) , donde p y q son positivos. Es decir:
1
β(p, q ) = ∫ x p −1 (1 − x )q −1 dx ; ∀ p>0 y q>0
0
La función beta tiene una íntima conexión con la función gamma, según
el siguiente teorema.
TEOREMA 7.1.3
Γ(p )Γ(q )
Si p>0 y q>0, entonces β(p, q ) = = β(q, p )
Γ(p + q )
DEMOSTRACION:
Por definición tenemos:
∞ ∞
Γ(p ) = ∫ z p −1e −z dz y Γ(q ) = ∫ w q −1e − w dw ,
0 0
∞ ∞
Γ(p ) = 2 ∫ x 2 p −1e − x dx y Γ(q ) = 2 ∫ y 2q −1e − y dy
2 2
0 0
Entonces:
∞ ∞
Γ(p ) Γ(q ) =4 ∫ x 2 p −1e − x dx ∫ y 2q −1e − y dy
2 2
0 0
=4 ∫ ∫ x 2 p −1 y 2q −1e − (x )dxdy
∞∞ 2
+ y2
00
Consideremos la transformación: x = r cos θ , y = r sen θ ; entonces:
π
∞
Γ(p ) Γ(q ) = 4 ∫ dr ∫ (r cos θ)2 p −1 (r sen θ)2q −1 e −r rdθ
2 2
0 0
Introducción al Cálculo de Probabilidades 201
π
∞
dr ∫ (cos θ) (sen θ)2q −1 rdθ
2
2 p + 2 q −1 − r 2 2 p −1
= 4 ∫r e
0 0
2
En la primera integral realicemos el cambio de variables: r = u , y en la
segunda: sen 2 θ = v , con lo que resulta:
∞ 1
Γ(p ) Γ(q ) = ∫ u p +q −1e −u du ∫ v q −1 (1 − v )p −1 dv
0 0
= Γ(p + q ) β(q, p ) , que demuestra el teorema.
DEFINICION 7.1.4
Sea X una variable aleatoria continua que toma valores positivos. Decimos
que X tiene una distribución beta con parámetros p y q, si su función
densidad está dada por:
x p −1 (1 − x )q −1
, si 0 < x < 1
f X (x ) = β(p, q )
0 , en otros casos
Esta distribución depende de los dos parámetros p y q, que son números reales
positivos.
La distribución beta es una función de densidad de probabilidad, ya que:
∞ 1 1 x p −1 (1 − x )q −1
∫ Xf (x )dx = ∫ Xf (x ) dx = ∫ dx
−∞ 0 0 β(p, q )
1 1 p −1 β(p, q )
∫ x (1 − x ) dx =
q −1
= =1
β(p, q ) 0 β(p, q )
La función de distribución acumulada está dada por:
0 ; x≤0
1 x p −1
P[X ≤ x ] = FX ( x; p, q ) = ∫ x (1 − x ) dx ; 0 < x < 1
q −1
β (p , q ) 0
1 ; x ≥1
Las variables: p y q de la distribución beta son, ambas, parámetros de
perfil. Valores distintos de p y q dan como resultado distintos perfiles para la
función de densidad beta. Si p y q son menores que uno, la distribución beta
tiene un perfil en forma de U. Si p<1 y q≥1, la distribución tiene un perfil de
J transpuesta y si p≥1 y q<1, el perfil es una J. Cuando p y q son mayores que
p −1
uno, la distribución presenta un pico en x = . Finalmente, la
p+q−2
distribución beta es simétrica cuando p = q. En el siguiente gráfico se
encuentran ilustrados estos perfiles.
202 Hugo Cornejo Villena & Hugo Cornejo Rosell.
Γ(5) 5 2 24 x 3 x 4 5
=1- 3
(
∫ x − x dx = 1 -
Γ(3)Γ(2 ) 0
) −
2 ×1 3 4 0
3
4 1 1 768 2
= 1 - 12 − = 1 -
5 3 5 125 15
1536
=1- = 1 - 0.8192 = 0.1808.
1875
Introducción al Cálculo de Probabilidades 203
7. 2. DISTRIBUCION NORMAL
La distribución normal o Gaussiana es la más importante y la de mayor
uso de todas las distribuciones continuas de probabilidad, debido a que en el
análisis de datos de muchos fenómenos que ocurren en la naturaleza, la
industria y la investigación tienden hacia la distribución normal conforme
crece el tamaño de la muestra. La gráfica de la distribución normal, que recibe
el nombre de curva normal, es una curva simétrica en forma de campana, que
se extiende sin límite tanto en la dirección positiva como en la negativa.
Algunos ejemplos específicos incluyen datos meteorológicos tales como la
temperatura y la precipitación fluvial, mediciones efectuadas en organismos
vivos, clasificaciones en pruebas de actitud, mediciones físicas de partes
manufacturadas, errores de instrumentación y otras desviaciones de las
normas establecidas, etc. Sin embargo, se debe tener cuidado al suponer para
una situación dada, un modelo de probabilidad normal sin previa
comprobación. Si bien es cierto que la distribución normal es la que tiene un
mayor uso, es también de la que más se abusa; quizá esto se deba a la mala
interpretación de la palabra “normal”, especialmente si se aplica su significado
literal de “patrón o estándar aceptado”.
La función de densidad de probabilidad de la distribución normal fue
descubierta por Abraham De Moivre en 1733 como una forma de límite de la
función de probabilidad binomial, después la estudió Laplace; también se
conoce como distribución Gaussiana, porque Karl Friedrich Gauss (1777-
1855) la citó en un artículo que publicó en 1809.
Una variable aleatoria continua X que tiene la distribución en forma de
campana, se llama variable aleatoria normal. La ecuación matemática para
la distribución de probabilidad de la variable normal depende de dos
parámetros µ y σ, llamadas media y desviación estándar, respectivamente
(como veremos en el capítulo siguiente).
DEFINICIÓN 7.2.1
Se dice que una variable aleatoria continua X, tiene una distribución normal,
con media y varianza σ , si su función de densidad está dada por:
2
( x − u )2
1 −
f X (x) = e 2σ2
, si - ∞ < x < ∞ , −∞ < µ < ∞ , σ >0
2 πσ
( )
Suele expresarse a una distribución normal por: N µ, σ 2 con media µ
y varianza σ .
2
204 Hugo Cornejo Villena & Hugo Cornejo Rosell.
X −µ X −µ
aleatoria es N ( 0,1) aleatoria es N ( 0,1) .
σ σ
DEMOSTRACION:
X −µ
Sea Z = o X = σZ + µ , entonces aplicando el teorema 6.3.3, se tiene:
σ
1 − z22
f Z (z) = f X (σz + µ) σ = e ,
2π
que demuestra el teorema.
Los teoremas anteriores, como se puede observar, son equivalentes.
Antes de presentar ejemplos, tenemos las siguientes observaciones:
1.- La probabilidad
1 b − z22
P[a ≤ Z ≤ b] = ∫ e dx
2π a
no se puede calcular directamente, ya que no es factible encontrar una
2
−z
función cuya derivada sea igual a e 2 ; pero usando métodos de
integración numérica se han tabulado los valores de la función de
distribución normal estándar (A-3).
2
1 x −µ
1 b − 2
1 z2 −z 2
2.- Como P[a < X < b] =
σ
∫e dx = ∫e dz
2 πσ a 2π z1
Introducción al Cálculo de Probabilidades 207
z2
= ∫ N(z;0,1)dz = P(z1 < Z < z1 )
z1
gráfico:
SOLUCION:
a) En el gráfico adjunto, se puede apreciar que
el valor de k que da un área 0.2946 a la
derecha debe, entonces dar un área de
1 - 0.2946 = 0.7054 a la izquierda. De la
tabla A-3 se tiene que k = 0.54.
b) De la tabla A-3 se deduce que el área de la
izquierda de z = -0.93 es 0.1762. En el
gráfico adjunto, se observa que el área de
la izquierda de k es 0.1762 + 0.7235 =
0.8997. Por lo tanto, de la tabla A-3, se
tiene que k = 1.28.
7.2.4.-Dada la distribución normal con y, encuentre:
El área de la curva normal a la derecha de x = 13.
El área de la curva normal entre x = -5 y x = 18.
El valor de x que corresponde a P[X < x ] = 0.025.
P[16 < X < 23] .
Encuentre el valor de x que tiene el 40 % del área a la derecha.
Los valores de x que contienen un intervalo central del 70 % de la mitad
del área de la curva normal.
SOLUCION:
a) La distribución de probabilidad normal
que muestra el área deseada, es la que
aparece en el gráfico adjunto.
Transformemos x = 13 al
correspondiente valor de z, obteniendo
el área a la izquierda de z aplicando la
tabla A-3 y luego restando a 1 esta
x −µ 13 − 10
área. Encontramos que z = = = 0.6. Por lo tanto, el
σ 5
área de la curva normal a la derecha de x = 13 es:
P[X > 13] = P[Z > 0.6] = 1 - P[Z < 0.6] = 1 - Φ( 0.6)
= 1 - 0.7257 = 0.2743.
b) Los valores de z correspondientes a = -5 y b = 18 son:
− 5 − 10 18 − 10
z1 = = -3 y z 2 = = 1.6
5 5
Por lo tanto, el área de la curva normal entre x = -5 y x = 18,
corresponde al área de la curva normal estándar de z = -3 a
Introducción al Cálculo de Probabilidades 211
(0.01)(0.0002)
de donde k = 0.57 + = 0.57 + 0.0006 = 0.5706.
0.0033
7.2.6.- Una compañía fabrica focos cuya
duración son normalmente distribuidas
con µ = 800 horas (media) y σ = 40 horas
(desviación estándar). Hallar la
probabilidad de que un foco se “queme”
entre 750 y 846 horas de uso.
SOLUCION:
La distribución de vida de los focos se muestra en el gráfico
adjunto. Los valores de z correspondientes a x 1 = 750 y x 2 = 846
son:
750 − 800 846 − 800
z1 = = −1.25 y z 2 = = 1.15
40 40
De aquí que:
P[750 < X < 846] = P[− 1.25 < Z < 1.15]
= Φ (1.15) - Φ (−1.25) = 0.8749 - 0.1056 = 0.7693.
7.2.7.- El peso medio de las frutas de un cargamento es de 15 onzas,
con una desviación estándar de 1.62 onzas; si sus pesos están
distribuidos normalmente. ¿Qué porcentaje de frutas tendrá un
peso entre 15 y 18 onzas?
SOLUCION:
De los datos del problema, tenemos que µ = 15 y σ = 1.62,
deseamos calcular P [15 < X < 18] expresado en porcentaje.
Entonces
15 − 15 18 − 15
P [15 < X < 18] = P <Z<
1.62 1.62
= P[0 < Z < 1.85] = Φ (1.85) - Φ (0)
= 0.9678 - 0.5000 = 0.4678
o equivalentemente 46.78 %.
7.2.8.- Los pesos de 500 estudiantes de una cierta universidad dan µ =
62.5 Kg. y la desviación típica de 5 Kg. Suponiendo que los pesos
se distribuyen normalmente, hallar cuántos estudiantes pesan:
a) entre 50 y 67 Kg.
b) más de 73.5 Kg.
SOLUCION:
De los datos del problema tenemos µ = 62.5 y σ = 5 y N = 500.
a) Como
214 Hugo Cornejo Villena & Hugo Cornejo Rosell.
50 − 62.5 67 − 62.5
P[50 < X < 67] = P <Z<
5 5
= P[− 2.5 < Z < 0.9]
= Φ (0.9) - Φ (−2.5) = 0.8159 - 0.0062 = 0.8097.
Entonces, los estudiantes que pesan entre 50 y 67 Kg. son
500 (0.8097) = 405.
b) Como
73.5 − 62.5
P[X > 73.5] = 1 - P[X < 73.5] = 1 - P Z <
5
= 1 - P[Z < 2.2] = 1 - 0.9861 = 0.0139.
Entonces los estudiantes que pesan más de 73.5 Kg. Son
500 (0.0139) = 7.
7.2.9.- En una distribución normal que tiene una desviación estándar de 2, la
probabilidad de que el valor de una variable elegida al azar sea mayor
de 25, es 0.063.
a) Calcular la media de la distribución.
b) Obtenga el valor de la variable que supera el 92 % de los valores.
SOLUCION:
a) De los datos del problema, sabemos que:
σ = 2 y P[X > 25] = 0.063, entonces
P[X < 25] = 1 - P[X > 25] = 1 – 0.063 = 0.937 y
consecuentemente
25 − µ
P Z < = P[Z < z ] = 0.937 se cumple para z = 1.53.
2
x −µ
Como z = , entonces µ = x − zσ , luego
σ
µ = 25 – (1.53) (2) = 21.94.
b) 92 % = 0.92 = P[Z < z ] , se cumple para z = 1.41 y como
x = µ + zσ , entonces x = 21.94 + (1.41) 2 = 24.76.
7.2.10.- En cierta ciudad, el número de interrupciones en el suministro
eléctrico al mes es una variable aleatoria que tiene una distribución con
µ = 12.5 y σ = 3.7. Si esta distribución puede aproximarse con una
distribución normal. ¿Cuál es la probabilidad de que haya al menos
siete interrupciones en cualquier mes?
SOLUCION:
Introducción al Cálculo de Probabilidades 215
de donde:
0.0003
z = -0.43 - (0.01) = -0.43 - 0.0000892 = -0.4300892
0.0336
Por tanto, k = 1 + 2 ( -0.4300892) = 0.1398216 ≅ 0.14.
7.2.14.- El tiempo empleado para ir de un hotel a un aeropuerto, de una
ciudad, por la ruta A es una distribución normal con media igual a 27
minutos y desviación estándar igual a 5 minutos; mientras que por la
ruta B, también es una distribución normal con media igual a 30
minutos y desviación estándar igual a 2 minutos. ¿Qué ruta conviene
utilizar si se dispone de:
a) 30 minutos.
b) 34 minutos.
SOLUCION:
De los datos del problema tenemos:
RUTA A RUTA B
µ = 27 µ = 30
σ=5 σ=2
a) Si se dispone de 30 minutos, entonces tenemos las siguientes
probabilidades (para la ruta A y B, respectivamente):
30 − 27
PA [X < 30] = PA Z < = PA [Z < 0.6]
5
= Φ A (0.6) = 0.7257 = 72.57 %.
30 − 30
PB [X < 30] = PB Z < = PB [Z < 0]
2
= Φ B (0) = 0.5000 = 50 %.
De donde, conviene elegir la ruta A que da una probabilidad de
72.57 %, mayor que elegir la ruta B que da una probabilidad de
50 %; que significa llegar temprano.
b) Se dispone de 34 minutos, entonces tenemos las siguientes
probabilidades (para la ruta A y B, respectivamente).
34 − 27
PA [X < 34] = PA Z < = PA [Z < 1.4]
5
= Φ (1.4) = 0.9192 = 91.92 %.
34 − 30
PB [X < 34] = PB Z < = PB [Z < 2]
2
= Φ (2) = 0.9772 = 97.72 %.
En este caso conviene elegir la ruta B.
218 Hugo Cornejo Villena & Hugo Cornejo Rosell.
9.5 − 12
c) P[X > 9.5] = 1 - P[X < 9.5] = 1 - P Z <
3
= 1 - P[Z < −0.83] = 1 - Φ (−0.83)
= 1 - 0.2033 = 0.7967.
7.2.17.- Calcular la densidad de X 2 , cuando X es una variable aleatoria de
distribución N (0,1).
SOLUCION:
La función de distribución de X 2 es:
[ ] [ ] 1 − t22 2 x − t22
x
P X2 ≤ x = P − x ≤ X ≤ x = ∫ e dt = ∫ e dt
− x 2π 2π 0
Utilizando el teorema fundamental del cálculo y la regla de la cadena,
obtenemos
x −1 / 2 e − x / 2
, si x > 0
f X2 (x) = 2π
0 , en caso contrario
1 1
Que es la densidad de la distribución Gamma, con α = y β = . Que
2 2
viene a ser, como manifestamos anteriormente, un enlace entre la
distribución Normal y Gamma.
7. 3. DISTRIBUCION EXPONENCIAL
Manifestamos en la Sección 7.1 que la distribución exponencial
(conocida también como exponencial negativa) es un caso especial de la
distribución gamma y esta distribución juega un papel importante tanto en la
teoría de colas como en problemas de confiabilidad. El tiempo entre las
llegadas en las instalaciones de servicio y el tiempo de falla de los
componentes y sistemas eléctricos, frecuentemente corresponden a
distribuciones exponenciales. La distribución exponencial no tiene
“memoria”; es decir, la probabilidad de ocurrencia de eventos presentes y
futuros no dependen de los que hayan ocurrido en el pasado; de esta forma, la
probabilidad de que una unidad falle en un lapso específico depende
únicamente de la duración de éste y no del tiempo en que la unidad ha estado
operativa.
La distribución gamma especial, para la cual α = 1 se llama distribución
exponencial.
DEFINICION 7.3.1
La variable aleatoria continua X, tiene una distribución exponencial, con
parámetro β, si su función de densidad es:
Introducción al Cálculo de Probabilidades 221
βe −βx , si x ≥ 0
f X (x) = , donde β > 0.
0 , en caso contrario
Esta función de densidad cumple la condición necesaria para ser función
∞
de probabilidad; es decir ∫ f X ( x )dx = 1.
−∞
En efecto:
∞ 0 ∞ b
∫ f X ( x )dx = ∫ f X ( x )dx + ∫ f X ( x )dx = blim
→∞
(
∫ f X ( x )dx = blim
→∞
)
1 − e −βb = 1.
−∞ −∞ 0 0
El siguiente gráfico, representa a la distribución exponencial:
SOLUCION:
P[X < 200] = FX (200) = 1 - e
1
− 600 ( 200 ) − 13
a) =1- e = 1-0.7165 =0.2835
P[X > 200] = 1 - P[X < 200] = 1 - 1 + e
− 13 − 13
b) = e = 0.7165
c) [ ] [
P X > 500 / X > 200 = P X > 300 + 200 / X > 200 ]
= P[X > 300] = 1 - P[X < 300] = 1 - 1 − e 600 = e 2 = 0.6065.
− 300 −1
Es importante manifestar que la relación entre la distribución exponencial
y el proceso de Poisson es simple. Como vimos, la distribución de Poisson se
desarrolló como una distribución de un sólo parámetro λ, donde λ puede
interpretarse como el número promedio de eventos por unidad de tiempo.
Consideremos ahora la variable aleatoria descrita por el tiempo que se requiere
para que ocurra el primer evento. Mediante la distribución de Poisson, se
encuentra que la probabilidad de que no ocurran eventos en el espacio hasta
el tiempo t está dada por:
e − λt (λ t ) 0
= e − λt
0!
Ahora puede utilizarse lo anterior y hacer que X sea el tiempo para el
primer evento de Poisson (o el tiempo entre eventos de Poisson). La
probabilidad de que el período hasta que ocurre el primer evento exceda x es
la misma que la probabilidad de que no ocurra un evento de Poisson en x. Esto
− λx
está dado por e ; es decir
P[X ≥ x ] = e − λx
Consecuentemente, la función de distribución acumulada para X es:
P[X ≤ x ] = 1 - e − λx
Con la finalidad de que se reconozca la presencia de la distribución
exponencial, derivemos la distribución acumulada, para obtener la función de
densidad
λe − λx , si x ≥ 0
f X (x) = =
0 , en caso contrario
la cual es la función de densidad de la distribución exponencial con λ = β.
EJEMPLO
7.3.2.- Supongamos que llegan llamadas telefónicas a una central telefónica
y que siguen el proceso de Poisson con un promedio de 4 llamadas por
minuto. ¿Cuál es la probabilidad de que pase hasta un minuto antes de
que llegue la siguiente llamada?
Introducción al Cálculo de Probabilidades 223
SOLUCION:
El proceso de Poisson corresponde al tiempo entre eventos de Poisson
que siguen una distribución exponencial con λ = β = 4. Sea la variable
aleatoria X el tiempo que transcurre entre dos llamadas consecutivas. La
probabilidad pedida es
P[X ≤ 1] = 1 - e −4(1) = 1 - e −4 = 1 - 0.0183 = 0.9817.
7.3.3.- El número de clientes que llegan a un banco sigue la ley de Poisson
con parámetro λ. Si con X denotamos el tiempo que transcurre desde el
momento en que se abre el banco y el momento en que llega el primer
cliente, hallar la función de densidad de X.
SOLUCION:
Puesto que la función de acumulación de X es:
FX ( x ) = P[X ≤ x ] = 1 - P[X > x ] ,
entonces derivemos y encontraremos la función de densidad.
El evento [X > x ] indica que la primera llegada ha ocurrido después del
tiempo x; es decir que en el intervalo [0, x[ no ha ocurrido ninguna
llegada.
Por tanto: FX ( x ) = P[X ≤ x ] = 1 - P[X > x ] = 1 - e − λx , x ≥ 0
De donde:
dF ( x )
f X (x) = X = λ e − λx
dx
que es la distribución exponencial de parámetro β.
OBSERVACION: Debemos destacar que el ejemplo 7.3.1, es del tipo
conocido como problema de confiabilidad que consiste en determinar el
tiempo de vida promedio de un componente o de un sistema de éstos. La
función de confiabilidad del sistema tiempo t, R(t), es la probabilidad de que
el lapso de duración del sistema sea mayor que con tiempos t dado; es decir
[ ]
R ( t ) = P T > t = 1 - F( t ) , t > 0
Si f ( t ) y R ( t ) son funciones de densidad de probabilidad y de
confiabilidad, respectivamente, de una unidad en un tiempo dado t. La
frecuencia de falla h ( t ) (o función de riesgo) es la proporción de unidades
que fallan en el intervalo ]t , t + dt[ con respecto a las que siguen funcionando
a tiempo t; y está dada por:
f (t)
h(t) =
R (t)
224 Hugo Cornejo Villena & Hugo Cornejo Rosell.
7. 4. DISTRIBUCION JI - CUADRADA
La distribución Ji - cuadrada (o Chi - cuadrada, χ 2 , derivada de la letra
griega mayúscula Ji), fue dada a conocer aparentemente por primera vez, por
Helmert en 1875 y redescubierta por Karl Pearson en 1900; se aplica para las
mismas condiciones de una distribución normal, pero para muestras pequeñas,
se aconseja para n < 30; así mismo se utiliza la distribución Ji - cuadrada en
todas aquellas cosas que se ofrecen o presentan más de dos resultados posibles
y mientras que la distribución normal se utiliza para los casos que ofrecen dos
resultados posibles. Un ejemplo típico de distribución normal lo constituye el
lanzamiento de una moneda con las probabilidades de obtener cara o sello, y
de Ji - cuadrada consiste en el lanzamiento de un dado numerado de 1 a 6 con
seis posibilidades de obtener un resultado.
DEFINICION 7.4.1
Sean: X1 , X 2 , …, X r , variables aleatorias independientes todas ellas con la
distribución normal estándar, la distribución de:
χ 2 = X12 + X 22 + ... + X 2r
se llama distribución Ji - cuadrada con r grados de libertad (o que tiene
una distribución Ji - cuadrada con r grados de libertad).
Observemos que el grado de libertad r, es el número de variables
aleatorias independientes que se suman, también se interpreta como el número
de variables que pueden variar libremente o como el parámetro asociado con
la distribución de probabilidad, que veremos en el siguiente teorema.
TEOREMA 7.4.1
La distribución de Ji-cuadrada con r grados de libertad tiene por función de
densidad:
e − x2 x r −22
; si x > 0
f χ 2 ( x ) = 2Γ r 2
2
0 ; en caso contrario
DEMOSTRACION:
La función de densidad conjunta de X1 , X 2 , …, X r está dada por:
n
x i2
−∑
1 i =1 2
f X1 ,X 2 ,...,X r ( x 1 , x 2 ,..., x r ) = e
(2π)
r
2
1 −
ρ2
k e 2 ρ r −1 ; si ρ > 0
=
(2π) − 2r
0 ; si ρ ≤ 0
2π π π
en donde k = ∫ dθ1 ∫ dθ 2 ...∫ D(θ1 ,..., θ r −1 ) dθ r −1
0 0 0
Para hallar k apliquemos la condición necesaria de ser probabilidad f χ (ρ) y
no calcular el jacobiano, es decir:
r
p2
∞ ∞ 1 −
r −1 (2π) 2
∫ f χ (ρ)dρ = ∫ k e 2 ρ dρ = 1, de donde: k =
(2π) ρ2
r
−∞ 0 2 ∞ −
r −1
∫ρ e 2 dρ
0
ρ2 1
Si suponemos que z = , entonces ρ = 2z y dρ = dz ; por tanto:
2 ρ
226 Hugo Cornejo Villena & Hugo Cornejo Rosell.
r r
(2π) 2 (2π) 2
k = ∞ r −1 r −1 =
−z −
1
−1 r −2
r
∫ 2 2 z 2 e 2 2 z 2 dz 2 2 Γ
0 2
Luego:
−
ρ2
r −1
ρ e 2
f χ (ρ) = r −22 r ; si ρ > 0
2 Γ( 2 )
0 ; si ρ ≤ 0
Por otro lado, calculemos la densidad de χ2 que es nuestro objetivo y
observemos que f 2 ( x ) = 0 si x ≤ 0 y para x > 0 se tiene:
χ
f
χ2
(x) =
d
dx
[
P χ2 ≤ x =
d
dx
]
Pχ≤ x [ ]
()
ρ2 r −2
− r −1
−x − 12 − x2 x
d x d x ρ r −1e 2 x 2 e 2 2 −1 x e 2
= f
∫ χ (ρ) d ρ = ∫ r −2 dρ = = 2
dx 0 2 2 Γ( r ) 2 2 Γ( 2r ) 2Γ( 2r )
r −2
dx 0
2
es decir
− x r −2
e 2 ( x2 ) 2
; si x > 0
2Γ( 2r )
f (x) =
χ2
0 ; si x ≤ 0
con lo que se prueba el teorema.
OBSERVACION: Comparando el resultado del teorema anterior con la
definición 7.1.2, vemos que la distribución Ji-cuadrada es la distribución
r−2
gamma para el caso particular α = y β = 2 ; resultado que se considera
2
como definición por muchos autores.
Una propiedad muy importante de la distribución Ji-cuadrada es la
permanencia aditiva, como muestra el siguiente teorema.
TEOREMA 7.4.2
Sí X1 , X 2 , …, X m son m variables aleatorias independientes, tal que X i
sigue la distribución Ji-cuadrada con ri grados de libertad, para 1 ≤ i ≤ m ,
entonces la variable X1 + X 2 + … + X m tiene la distribución Ji-cuadrada;
con: r1 + r2 + … + rm grados de libertad.
DEMOSTRACION:
Introducción al Cálculo de Probabilidades 227
u2
y si sustituimos x = , resultará para u 1 > 0
u1
u1 r1 + r2 − 2
−
e 2
u1 2 r r
f U1 (u 1 ) =
2Γ ( )Γ( )
r1
2
r2
2 2
β 1 , 2
2 2
donde
r −2
r r 1 1 r2 − 2
β 1 , 2 = ∫ x 2 (1 − x ) 2 dx
2 2 0
Luego, utilizando el teorema 7.1.3, tenemos:
u1 r1 + r2 − 2
− u
e 2 1 2
2
f U1 (u 1 ) = ; si u 1 > 0
0
r +r
2Γ 1 2 2 ( )
; si u 1 ≤ 0
que es la densidad de la distribución Ji-cuadrada con r1 + r2 grados de libertad.
El siguiente gráfico, ilustra la función de densidad de la variable aleatoria
Ji-cuadrada, para distintos grados de libertad.
228 Hugo Cornejo Villena & Hugo Cornejo Rosell.
Dado que existe una distribución Ji-cuadrada diferente para cada valor de
r, resulta impráctico proporcionar tablas de áreas completas. La tabla A-4, sólo
presenta un resumen de la información más esencial respecto
de la distribución.
Introducción al Cálculo de Probabilidades 229
EJEMPLOS
7.4.1.- Si r = 18 y χ 02.95 = 28.87; entonces
[ ]
P X ≤ χ 02.95 = P[X ≤ 28.87] = 0.95.
7.4.2.- Si X es una variable aleatoria con una distribución χ 2 (21). Hallar
a) P[X > 35.48]
b) P[X < 11.59]
c) P[8.897 < X ≤ 32.67]
d) a y b tal que P[a < X < b] = 0.875 y P[X > b] = 0.100
SOLUCION:
a) A partir de la tabla A-4, se tiene que para r = 21 y
χ α2 (21) = 35.48; corresponde para α = 0.975
Por tanto:
[
P[X > 35.48] = 1 - P[X ≤ 35.48] = 1 - P X ≤ χ 02.975 ]
= 1 - 0.975 = 0.025.
b) A partir de la tabla A-4, se tiene que para r = 21 y
χ α2 (21) = 11.59; corresponde α = 0.050
Por tanto
[ ]
P[X < 11.59] = P X < χ 02.050 = 0.050.
c) Similarmente a los casos anteriores, de la tabla A-4 se tiene
P[8.897 < X ≤ 32.67] = P[X ≤ 32.67] - P[X < 8.897]
[ ] [ ]
= P X ≤ x 02.950 - P X < χ 02.010 = 0.950 - 0.010 = 0.94.
d) Usando la tabla A-4 y propiedades, tenemos:
P[X > b] = 1 - P[X < b] = 0.100; luego
P[X < b] = 0.900, de donde b = x 02.900 = 29.62.
Por otro lado
P[a < X < b] = P[X < b] - P[X < a ] = 0.875
= 0.900 - P[X < a ] = 0.875,
Luego P[X < a ] = 0.900 - 0.875 = 0.025, de donde
a = χ 02.025 = 10.28.
7.4.3.- Supongamos que X1 , X 2 , … , X10 es una muestra aleatoria de
una variable aleatoria normal estándar. Calcular
P 2.558 < ∑ x i2 < 18.31 .
10
i =1
230 Hugo Cornejo Villena & Hugo Cornejo Rosell.
SOLUCION:
10
De acuerdo con el teorema 7.4.1, ∑ x i2 = χ2 , r = 10, luego:
i =1
X1 , X 2 , … , X10 son muestras aleatorias de tamaño 10 de una variable
aleatoria con distribución χ 2 (10).
Por tanto
P[2.558 < X < 18.31] = P[X < 18.31] - P[X < 2.558]
[ ] [
= P X < χ 02.950 - P X < χ 0.010
2
]
= 0.950 - 0.010 = 0.9400.
NOTA: Si la variable aleatoria X tiene distribución Ji-cuadrada con r grados
de libertad y si r es suficientemente grande (r ≥ 30), entonces la variable
aleatoria 2X tiene distribución aproximadamente normal N 2r − 1,1 . ( )
Luego la variable aleatoria Z = 2X − 2r − 1 , tiene distribución
aproximadamente normal N (0, 1).
EJEMPLO
7.4.4.- Si la variable aleatoria tiene distribución Ji-cuadrada con 100 grados
de libertad. Calcular P[87 ≤ X ≤ 150] .
SOLUCION:
Aplicando la nota anterior:
P[87 ≤ X ≤ 150]
[
= P 2(87) − 2(100) − 1 ≤ 2X − 2r − 1 ≤ 2(150) − 2(100) − 1 ]
= P[ 174 − 199 ≤ 2X − 2r − 1 ≤ 300 − 199 ]
= P[13.19 − 14.11 ≤ Z ≤ 17.32 − 14.11] = P[− 0.92 ≤ Z ≤ 3.21]
= P[Z ≤ 3.21] - P[Z ≤ −0.92] = 0.9993 - 0.1788 = 0.8142.
7. 5. DISTRIBUCION WEIBULL
La distribución de Weibull fue establecida por el físico sueco Waloddi
Weibull en 1939, quien demostró, con base en una evidencia empírica, que el
esfuerzo al que se someten los materiales puede modularse de manera
adecuada mediante el empleo de esta distribución. En los últimos años, esta
distribución se emplea como modelo para situaciones de tipo tiempo-falla y
con el objeto de lograr una amplia variedad de componentes mecánicos y
eléctricos; con sustitución del papel que juegan las distribuciones gamma y
exponencial en estos tipos de problemas.
DEFINICION 7.5.1
Se dice que una variable aleatoria continua X tiene una distribución de
Weibull , con parámetro α y β si su función de densidad está dada por :
Introducción al Cálculo de Probabilidades 231
[ ]
= lim e −αx
b →∞
β 1
0
β
= 1 - lim e − αb = 1 - 0 = 1.
b →∞
una falla. Este tiempo de falla se representa por la variable aleatoria continua
T con función de densidad de probabilidad f T ( t ) , donde f T ( t ) es la
distribución Weibull.
Como definimos, en la observación de la sección 7.3, la función de
confiabilidad del componente dado en el tiempo t, es: R T ( t ) = 1 - FT ( t ) ,
donde FT ( t ) es la distribución acumulada de T.
Para nuestro caso:
β
R T ( t ) = e − αt , t >0.
f T (t)
También la función de riesgo o frecuencia de falla es: h T ( t ) =
R T (t)
para nuestro caso: h T ( t ) = αβ t β−1 , t > 0.
EJEMPLO
7.5.1.- La duración de un cierto sello para automóvil tiene la distribución
1
Weibull con una tasa o frecuencia de falla h T ( t ) = . Encontrar la
t
probabilidad de que tal sello siga en uso después de 4 años.
SOLUCION:
1
Como h T ( t ) = = αβ t β−1 , entonces integrando obtenemos que,
t
β
αt β = 2 t , luego R T ( t ) = e − αt = e −2 t
Por tanto
P[T > 4] = 1 - P[T ≤ 4] = 1 - FT (4) = 1 - [1 − R T (4)]
−2 4
= R T (4) = e = e −4 = 0.0183.
7. 6. DISTRIBUCION F
Una de las distribuciones más importantes en estadística aplicada es la
distribución F o la distribución de Snedecor, relacionada íntimamente con la
distribución gamma y Ji-cuadrada como veremos enseguida.
DEFINICION 7.6.1
Sean X e Y dos variables aleatorias independientes que tienen distribuciones
Ji-cuadradas con r1 y r2 grados de libertad, respectivamente, la distribución
de la variable aleatoria:
X / r1
U=
Y / r2
se llama distribución F con ( r1 , r2 ) grados de libertad.
Introducción al Cálculo de Probabilidades 233
TEOREMA 7.6.1
La distribución F con ( r1 , r2 ) grados de libertad tiene por función de densidad:
r1 r2
r + r 1 −1
r
(r1 ) 2 (r2 ) 2 Γ 1 2 u 2
2 ; si u > 0
f U (u ) =
()() r1 + r2
Γ r21 Γ r22 (r1 u + r2 ) 2
0
; en caso contrario
DEMOSTRACION:
La densidad conjunta de X , Y es:
− x+y r1
−1
r2
−1
e 2 x2 y2
4 ()()
f X ,Y ( x , y) = r1 r2 2 2
Γ 2
Γ 2
; si x > 0, y > 0
0 ; si min{x , y} ≤ 0
r2 x r uv
Considerando la transformación: u = , v= y, o x = 1 , y = v , de
r1 y r2
r1 v r1 u
∂ ( x , y) r1
Jacobiano = r2 r2 = v
∂ ( u , v) r2
0 1
Por el teorema 6.3.3 obtenemos:
v r u
− 1 +1 r1
e 2 r2 r uv 2 −1 r2 −1 r
f U ,V (u , v) = r1 + r2 1 (v ) 2 1 v ; si u > 0, v > 0
()( )
2 2 Γ r21 Γ r22
0
r2 r2
; si min{u , v} ≤ 0
Ahora, si u > 0 ,
r1
r
r1 2 21 −1
u v r1u r1 + r2
∞ − +1
∞
r2 2 r2 −1
f U (u ) = ∫ f U ,V (u , v)dv = r1 + r2 ∫e v 2 dv
−∞
2 2 Γ ( )Γ( )
r1
2
r2
2
0
v
y= (r1u + r2 ) y dv = 2 dy , y se obtiene:
2r2 r1 u
+1
r1
234 Hugo Cornejo Villena & Hugo Cornejo Rosell.
r1 r1 + r2
r −1
r1 2 21 −1 2
u
r2 ∞
−y 2y 2
f U (u ) = r1 + r2 ∫e
dy
( )Γ( )
r1 r1
u +1
0
2 2 Γ r1 r2
u + 1
2 2
r2 r2
r1 r2 r1
−1
r1 2 r2 2 u 2 r r
r r Γ 1 + 2
r1 + r2
Γ 1 Γ 2 (r u + r ) 2 2 2 ; si u > 0
= 2 2
1 2
0 ; si u ≤ 0
2 r 2 e − rz2 z r −1
2
2
f Z (z ) = f χ 2 ( x ) (2rz) = ; si z > 0
/ r r
Γ
2
0 ; si z ≤ 0
Consiguientemente la densidad conjunta de X y Z será:
r
r
2 e 2 z
2 2
2 − ( x + rz ) r −1
2
f Z, Z (x , z ) = f X ( x )f Z (z) = ; si - ∞ < x < ∞ y z > 0
r
2 π Γ
2
0 ; en otro caso
x
Efectuando la transformación t = , s = z ; de donde x = ts , z = s y el
z
∂ ( x , z) s 0
Jacobiano es: = =s
∂ ( t , s) t 1
Luego
r
2 r 2
s 2 (t 2 + r )
2 − si - ∞ < t < ∞
fT , S (t , s ) = f Z , Z (ts, s )s =
r
s e 2 ;
r 0<s<∞
2 π Γ
2
0 ; en otro caso
Integrando los dos miembros de esta igualdad respecto a s, entre 0 e ∞,
tenemos:
238 Hugo Cornejo Villena & Hugo Cornejo Rosell.
r
r 2
2 2
2 t +r
=
2 ∞ r −
∫0 s e
s2 (
2 ds
)
=
2 ∞ r −1
∫0 s e
−s 2 (
2 (
)
)
t 2 + r sds
r
2 π Γ
r
(
2 π Γ t 2 + r )
2 2
t2 + r
Si u = s
2
, entonces du = s (t 2 + r )ds y
2
1
2
u u
u= =
t +r
2 1
t2 + r 2
2
2
r
r 2
2 r −1
Luego, fT (t ) =
2 ∞
r −1 ∫
0
u 2 −u
e du
+r
( ) t
2
r 2
2π Γ t 2 + r
2 2
r −1
∞ r + 1
Como ∫0
u 2 −u
e du = Γ
2
r
r 2
2
2 r +1
Entonces, fT (t ) = r +1
Γ
2
r t +r
2 2
2 π Γ 2
2 2
Introducción al Cálculo de Probabilidades 239
r
r 2 r +1
−
2
+ 1 2
+
fT (t ) = =
r t r 2
Γ
r 2 2
2 π Γ
2
r +1 r +1 r +1 r +l
− − − −
t 2
2 r +t 2
2 r +t 2
2
2 2
Pero 1 + = =
r r 2 r
r +1 r
−
r +t 2
2
r 2 r
=
2 2 2
Por tanto:
r +1 r +1
Γ 2 − 2
2 t
f T (t) = 1 +
, cuando: - ∞ < t < ∞
r r
Γ πr
2
Puesto que, la distribución de la variable aleatoria T (de Student ), está
completamente determinado sólo por el parámetro r, luego hay una
distribución T correspondiente a cada grado de libertad.
En el siguiente gráfico, se presenta una interpretación de la función de
densidad de la variable aleatoria T, para diferentes grados de libertad y en el
mismo gráfico se presenta la gráfica de la curva normal estándar.
b) Como
P[ X ≥ k ] = 1 - P[ X < k ] = 0.05, entonces
P[ X < k ] = 2 P[X < k ] - 1 = 0.95, de donde
P[X < k ] = 0.975, luego k = 2.179.
EJERCICIOS
1.- El número de automóviles que llegan a un surtidor de gasolina se
distribuye según el modelo de Poisson con un promedio de 2 autos por
minuto. Hallar la probabilidad de que pase hasta un minuto hasta que
lleguen 2 autos.
2.- Si una variable aleatoria tiene distribución gamma con α = 2 y β = 2,
calcular la probabilidad de que la variable aleatoria tome un valor menor
que 4.
3.- Si n vendedores son utilizados en una compañía de ventas de casa, el
volumen de ventas total en millones de soles puede considerarse como
una variable aleatoria que tiene una distribución gamma con
1
α = 100 n y β = . Si los gastos ascienden a s/5,000 por vendedor.
2
¿Cuántos vendedores deberán ser contratados a fin de maximizar la
utilidad?
4.- Demostrar que, cuando α > 1, la gráfica de la función de densidad gamma
tiene un máximo relativo en x = β (α - 1) ¿Qué sucede cuando 0 < α < 1
y cuando α = 1?
5.- Si una variable aleatoria X tiene una distribución gamma con α = 2 y
β = 1, hallar P[1.8 < X < 2.4] .
6.- En una ciudad cualquiera el consumo diario de agua (en millones de litro)
sigue aproximadamente una distribución gamma con α = 2 y β = 3. Si la
capacidad diaria para esta ciudad es de 9 millones de litros de agua. ¿Cuál
es la probabilidad de que en un determinado día el suministro de agua sea
inadecuado?
7.- Supongamos que el tiempo, en horas, que toma reparar una bomba es una
variable aleatoria X que tiene una distribución gamma con parámetro
1
α = 2 y β = . ¿Cuál es la probabilidad de que en el siguiente servicio
2
a) ¿Tome cuando mucho 1 hora para reparar la bomba?
b) ¿Al menos se requiera 2 horas para reparar la bomba?
8.- Una variable aleatoria X tiene la distribución uniformemente continua si
su función de densidad es:
242 Hugo Cornejo Villena & Hugo Cornejo Rosell.
1
; si α < x < β
f X (x) = β − α
0 ; en cualquier otro caso
para una distribución uniformemente continua con α = 2 y β = 7,
encuentre
a) P[X ≥ 4]
b) P[3 < X < 5.5]
9.- La cantidad diaria en litros de café despachado por una máquina ubicada
en la sala de espera de un aeropuerto, es una variable aleatoria X que tiene
una distribución uniformemente continua con α = 7 y β = 10.
Determinar la probabilidad de que en un determinado día la cantidad de
café despachado por esta máquina sea:
a) cuando mucho 8.8. litros.
b) más de 7.4 pero menos de 9.5 litros.
c) de menos 8.5 litros.
10.- En una determinada provincia, la proporción de tramos de autopista que
requieren reparación de un año determinado es una variable aleatoria con
distribución beta, p = 3, q = 2. ¿Calcular la probabilidad de que a lo
sumo la mitad de los tramos de autopista requieran reparación en un año
cualquiera?
11.- Si la proporción anual de declaraciones de impuestos erróneas en la
SUNAT puede considerarse como una variable aleatoria que tiene una
distribución beta con p = 2, q = 9. ¿Cuál es la probabilidad de que, en un
año determinado, menos del 10% de las declaraciones sean erróneas?
12.- Supongamos que la proporción de unidades defectuosas embarcadas por
un vendedor, las cuales varían de cargamento a cargamento, puede
considerarse como una variable aleatoria que tiene la distribución beta
con p = 1, q = k. Hallar la probabilidad de que un embarque de este
vendedor contenga el 25% o más de unidades defectuosas.
13.- La variable aleatoria X tiene la distribución uniforme de parámetros p y
q y su función de densidad es:
1
; si p < x < q
f X (x) = q − p
0 ; en cualquier otro caso
donde p y q son números reales.
a) Encontrar la distribución acumulativa.
b) En ciertos experimentos, el error cometido al determinar la densidad
de una sustancia es una variable aleatoria cuya distribución es
Introducción al Cálculo de Probabilidades 243
y = p ( n − y)! y!
27.- La vida útil de las pilas de cierta marca está distribuida normalmente. Si
el 7.68% de las pilas duran más de 54 horas y 39.80% duran menos de 50
horas. ¿Cuál es la media y la desviación estándar?
28.- La demanda mensual de cierto producto A, tiene una distribución normal
con una media de 200 unidades y desviación estándar igual a 40 unidades.
La demanda de otro producto B, también tiene una distribución con
media de 500 unidades y desviación estándar igual a 80 unidades. Un
comerciante que vende estos productos tiene en su almacén 280 unidades
de A y 650 de B al inicio de un mes. ¿Cuál es la probabilidad de que, en
el mes, se vendan todas las unidades de ambos productos?
29.- Las especificaciones de cierta tarea recomiendan lavadoras con
u diámetro interno de 0.300 ± 0.005 pulgadas. Si los diámetros internos
de las lavadoras proporcionadas por un fabricante determinado pueden
considerarse como una variable aleatoria, cuya distribución es normal
con pulgadas y pulgadas. ¿Qué porcentaje de las lavadoras cumplen las
especificaciones?
30.- Si una variable aleatoria tiene una distribución binomial con n = 29 y p =
0.60, con la aproximación normal determinar las probabilidades de que
asuma:
a) El valor 14.
b) Un valor menor que 12.
31.- La probabilidad de un componente electrónico falle en menos de 1,000
horas de uso continuo es 0.25. Utilizando la aproximación normal para
encontrar la probabilidad de que entre 200 de tales componentes menos
de 45 fallen en menos de 1,000 de uso continuo.
32.- El propietario de una carnicería ha determinado que la demanda diaria de
carne molida tiene una distribución normal con una media de 240 Kg. y
una desviación estándar de 23 Kg. ¿Qué cantidad de carne molida debe
estar disponible diariamente para que la probabilidad de que se agote la
dotación no sea mayor del 2%?
33.- La tasa de mortalidad para cierta enfermedad es de 18 por 1,000 ¿Cuál es
la probabilidad de que 5 mueran de esta enfermedad de un grupo de 500?
34.- Un par de dados perfectos se lanzan 50 veces ¿Cuál es la probabilidad de
que un 6, un 7 o un 8 aparezcan 25 veces o más utilizando la
aproximación normal?
35.- Los ingresos de un grupo económico se distribuyen normalmente. La
clasificación de los grupos económicos de mayor o menor ingreso es el
siguiente:
246 Hugo Cornejo Villena & Hugo Cornejo Rosell.
[ ]
Hallar χ α2 tal que P X < χ α2 = 0.99 con r = 4.
47.- Si X es χ 2 (12) , hallar las constantes a y b tales que:
P[a < X < b] = 0.90 y P[X < a ] = 0.05 .
48.- Si X es una variable aleatoria que tiene distribución Ji-cuadrada con 19
grados de libertad, calcular
a) P[X ≤ 20] , b) P[X ≥ 15] , c) P[16 ≤ X ≤ 21] .
49.- Si la variable aleatoria X, tiene distribución Ji-cuadrada con 200 grados
de libertad. Calcular
P[160 ≤ X ≤ 240]
50.- Si la variable aleatoria X, tiene distribución Ji-cuadrada con 50 grados de
libertad. Hallar a tal que: P[X ≥ a ] = 0.05.
51.- Supongamos que la vida útil en años, de una batería para audífonos es
1
una variable aleatoria que tiene una distribución Weibull con α = y
2
248 Hugo Cornejo Villena & Hugo Cornejo Rosell.
∞ ∞ ∞ ∞
∑ S n = ∑ ∑ a j = ∑ (a n + a n +1 + a n + 2 + ...)
n =1 n =1 j= n n =1
= a 1 + a 2 + a 3 + a 4 + ...
+ a 2 + a 3 + a 4 + ...
+ a 3 + a 4 + ...
……
= a 1 + 2a 2 + 3a 3 + ...
∞
= ∑ na n
n =1
TEOREMA 8.1.1.-
Sea X una variable aleatoria con distribución discreta, lo cual significa que
existen un conjunto numerable de números {x n } y de probabilidades {p n }
∞
tales que, P[X = x n ] = p n y ∑ p n = 1 . La esperanza de X existe y está dada
n =1
∞
por: µ = E(X) = ∑ x n p n , siempre y cuando la serie sea absolutamente
n =1
∞
convergente (esto es, ∑ x n p n < ∞ )
n =1
DEMOSTRACION:
Como:
E (X) = ∫0∞ [1 − FX ( x )]dx − ∫−0∞ FX ( x )dx = ∫0∞ P[X > x ]dx - ∫−0∞ P[X ≤ x ]dx
Sean
I 1 = ∫0∞ P[X > x ]dx y I 2 = ∫−0∞ P[X ≤ x ]dx
Por la definición de integral impropia (o de Cauchy)
2 3 k
∞
I 1 = ∫0 P[X > x ]dx + ∫ P[X > x ]dx + ∫ P[X > x ]dx + … = ∑ ∫ P[X > x ]dx
1 n n n
n
1 2 k −1 k =1
n n n
1 k n
1 k-1
P X>
n n
≤ ∫ P [ X > x ] dx ≤
k-1
P X >
n n
n
Entonces se cumple: L n ≤ I1 ≤ U n
para cualquier entero positivo n. Por otro lado, aplicando propiedades de
probabilidades:
1 ∞ ∞ j j+1
Ln = ∑ ∑ P < X ≤
n=k 1 =j k n n
j j + 1
Si suponemos que a j = P < X ≤ , entonces aplicando el lema
n n
8.1.1, obtenemos:
1 ∞ k k + 1 ∞ k −1 k −1 k
L n = ∑ kP < X ≤ +0= ∑ P <X≤
n k =1 n n k =1 n n n
∞ k k −1 k ∞ 1 k −1 k
= ∑ P < X ≤ - ∑ P <X≤
k =1 n n n k =1 n n n
Por otro lado
k k −1 k k k
P
n n
<X≤ =
n n k-1 k
∑
p(x j ) =
n k-1 k
pj ∑
j/ <xj < j/ <xj £
n n n n
≥ ∑ x jp j
k-1 k
j/ <xj £
n n
∞ 1 k −1 k 1
∑ P < X ≤ = P[X > 0]
k =1 n n n n
Luego
∞ 1 1
Ln ≥ ∑ ∑ x j p j − P[X > 0] ≥ ∑ x m p m −
j / < xj≤ k
k =1 k −1 n {m / x m >0} n
n n
De manera equivalente, se demuestra que
1
Un ≤ ∑ x mpm +
{m / x m >0} n
Por consiguiente, para todo entero positivo n, se cumple:
1 1
∑ x m p m − ≤ I1 ≤ ∑ x m p m +
{m / x m >0} n {m / x m >0} n
de donde, tomando limites cuando n → ∞, se tiene: I1 = ∑ x mpm
{m / x m >0}
De manera análoga, se demuestra que: I 2 = ∑ x mpm
{m / x m ≤0}
Introducción al Cálculo de Probabilidades 253
6 8
x 4 − x
p X (x ) = ; x = 0,1,2,3,4
14
4
De donde:
10 48 60
p X (0 ) = , p X (1) = , p X (2 ) = ,
143 143 143
160 15
p X (3) = , p X (4) = , luego
1001 1001
10 48 60 160 15
E (X) = (0 ) + (1) + (2 ) + (3) + (4 )
143 143 143 1001 1001
48 160 480 60 1996
= + + + = = 1.99
143 143 1001 1001 1001
De aquí que, si la representación laboral de 4 miembros se selecciona
aleatoriamente, una y otra vez, de un grupo de 8 varones y 6 mujeres, se
tendrían, en promedio 1.99 ≈ 2 mujeres.
8.1.3.- Supongamos que se tiene una moneda normal y el jugador tiene sus
oportunidades para que al lanzarla aparezca una cara; el juego termina en
el momento en el que cae una cara o después de tres intentos, lo que
suceda primero. Si en el primero, segundo o tercer lanzamiento aparece
cara el jugador recibe S/.2, S/.5 y S/.10, respectivamente. Si no cae cara
en ninguno de los tres lanzamientos, pierde S/.30. Determinar la ganancia
o pérdida promedio después de un número muy grande de juegos.
SOLUCION:
Sea X la variable aleatoria que representa la cantidad que se gana o
pierde cada vez que se juega; R X = { 2, 5, 10, -30 } y
1 1
p X (2 ) = P[X = 2] = P(C ) = , p X (5) = P[X = 5] = P(S C ) =
2 4
1
p X (10 ) = P[X = 10] = P(S S C ) = ,
8
1
p X (− 30 ) = P[X = −30] = P(S S S) =
8
Por lo tanto, el promedio o la esperanza es:
1 1 1 1
µ = E(X) = S / .2 + S / .5 + S / .10 − S / .30
2 4 8 8
= S / .1 + S / .1.25 + S / .1.25 − S / .3.75 = −S / .0.25
Introducción al Cálculo de Probabilidades 255
x 0 1 2 3 4
p X (x) 0.41 0.37 0.16 0.05 0.01
k =0 k =0 k
n n − 1
n-1
n-1 j
∑
p k −1 (1 − p )n −k = np p (1- p )
n-1- j
= np ∑
k =1 k − 1 j=0 j
= np p+ (1- p ) = np
n-1
1
2 1
= x 2 - x3 =
3 0 3
8.1.9.- Sea X la variable aleatoria que representa la vida en horas de un cierto
dispositivo electrónico. La función de densidad de probabilidad es:
20000
, si x > 100
f X (x ) = x 3
0 , en caso contrario
Hallar la esperanza de este dispositivo.
SOLUCION:
∞ ∞ 20000 ∞
E (X) = ∫ xf X (x )dx = ∫ 2
dx = 20000 ∫ x − 2 dx
−∞ 100 x 100
∞
20000
= − = 200
x 100
Es decir; se debe esperar que este tipo de dispositivo durará, en promedio
200 horas.
8.1.10.-Sea X una variable aleatoria con distribución gamma con parámetros
α y β, hallar la esperanza de dicha variable aleatoria.
SOLUCION:
Como
β
P[X = k ] = Γ(α )
(β x )α −1 e −β x , si x > 0
0 , en caso contrario
Entonces
∝
β ∞ 1 ∞
µ = E(X) = ∫ x (β x )∝ −1 −βx
e dx = ∫ (β x ) e −βx dx
Γ(∝ ) 0 Γ(∝ ) 0
Γ(∝ +1) ∝ Γ(∝ ) ∝
∝ +1−1
1 ∞
= ∫ (βx ) e −βx βdx = = =
βΓ(∝ ) 0 βΓ(∝ ) βΓ(∝ ) β
8.1.11.- Sea X una variable aleatoria con distribución normal con media µ y
varianza σ 2 , hallar la esperanza de X.
SOLUCION:
( x −µ )2
1 −
Como P[X = x ] = e 2σ2 ,−∞ < x < ∞ , -∞ < µ < ∞, σ > 0
2 πσ
258 Hugo Cornejo Villena & Hugo Cornejo Rosell.
( x −µ )2
1 ∞ − x −µ
Luego: µ = E (X) = ∫ xe 2σ2 dx .Si y= , entonces
2 πσ − ∞ σ
y2
1 1 ∞ −
dy = dx ; consecuentemente: E (X) = ∫ (yσ + µ )e 2 σdy
σ 2 πσ − ∞
Como
y2 y2
1 ∞
∫
2 πσ − ∞
yσ e
−
2 σdy =
σ ∞ −2
∫
2π − ∞
e ydy = −
σ ∞ u
∫ e du = −
2π − ∞
σ
2π
eu [ ] ∞
−∞ =0
2
y
donde u = − ,
2
y2
u ∞ −2 u ∞ 2 y
2 ∫ e dy = 2 2 ∫ e − z dz, donde z = ; y como
2π 0 2π 0 2
∞ 2 1
2 ∫ e − z dz = Γ = π , por corolario 7.1.2.
0 2
u ∞ 2 u
Entonces: E(X) = 0 + 2 2 ∫ e − z dz = 2 π =u
2π 0 2π
8.1.12.- Sea X una variable aleatoria con distribución Ji-cuadrada con r grados
de libertad, hallar la esperanza de X.
SOLUCION:
Como
−x r −2
e 2 x 2
, si x > 0
P[X = k ] = r 2
2Γ
2
0 , en caso contrario
Entonces
r −2 r
x x
1 ∞ −2 x 2 1 ∞ x 2 − 2
µ = E(X) = ∫ xe dx = ∫ e dx
r0 2 r 0 2
2Γ Γ
2 2
x
Si y = , luego dx = 2dy , entonces:
2
Introducción al Cálculo de Probabilidades 259
r r
∞ r 2Γ + 1 Γ
2 2 2r 2
=
+1−1
E(X) = ∫ y 2 e − y dy = =r
r0 r 2 r
Γ Γ Γ
2 2 2
8.1.13.- Sea X una variable aleatoria con distribución de Weibull con
parámetros α y β, hallar la esperanza de X.
SOLUCION:
Como
αβ x β−1e −α x β , si x > 0
P[X = k ] =
0 , en caso contrario
∞ β
Entonces, µ = E(X) =∝ β ∫ xx β−1e −∝ x dx
0
1
β y β
Si y = ∝ x , entonces x = , dy =∝ βx β−1dx , luego
∝
1 1
∞
y β 1 ∞ β +1−1 − y 1 1
E (X) = ∫ e − y dy = 1 ∫
y e dy = Γ + 1
1/ β
0 ∝
(∝)β 0 (∝) β
8.1.14.- El tiempo de duración de un sistema, se encuentra aproximadamente
por una distribución de Weibull con α = 50 y β = 2. Hallar el valor
esperado del tiempo de duración del sistema.
SOLUCION:
Para esta distribución, por el ejemplo anterior
1 1 1 1
E(X) = Γ + 1 = Γ + 1
(50) 2 7.07 2
1/ 2
1 1 1 π 1.77
= . Γ = = = 0.125
7.07 2 2 14.14 14.14
Sea g una función real definida sobre (-∞ , ∞) y sea X una variable
aleatoria, consideremos que g(X) sea, a su vez, una variable aleatoria y esto
significa que para todo número real t, la familia de sucesos elementales
[g(X) ≤ t ] = {w ∈ Ω / X( w ) ≤ t}
es un evento; es decir, es un elemento de A .
El objetivo es calcular E[g(X )] en el caso en que X tiene una distribución
discreta o una distribución continua.
260 Hugo Cornejo Villena & Hugo Cornejo Rosell.
TEOREMA 8.1.3.-
Sea X una variable aleatoria discreta con distribución de probabilidad
p X ( x ) = f X (x ) y el rango de X es una sucesión {x n } de números reales. La
media, valor esperado o esperanza matemática de g(X ) está dado por:
∞
µ g (X ) = E[g(X )] = ∑ g(x n )f X (x n )
n =1
siempre y cuando la serie converja absolutamente (esto es,
∞
∑ g(x n )f X (x n ) < ∞ )
n =1
DEMOSTRACION:
Como X es discreta, entonces g(X ) es también discreta. Sea T el conjunto de
todos los números reales de la forma g(x n ) , luego T es un conjunto finito o
infinito numerable y, por el teorema 8.1.1, tenemos:
E[g (X)] = ∑ t ∑ f X (x n ) = ∑ ∑ tf X (x n ) = ∑ g(x n )f X (x n )
t∈T {X n / g ( X n ) = t } t∈T {x n / g ( x n ) = t } n
EJEMPLO
8.1.15.- Sea X una variable aleatoria con la siguiente distribución de
probabilidad:
X -3 6 9
1 1 1
p X ( x , y) = f X (x )
6 2 3
[
E[g (X)] = E (2X + 1) ] = E(4X
+ 4X + 1 = ∑ 4 x 2 + 4 x + 1 f X (x )
2 2
) ( )
1 1 1
= 25 + 169 + 361 = 209
6 2 3
Presentamos el siguiente teorema, sin demostración, que en sí es un caso
particular de la generalización del teorema 6.2.1.
TEOREMA 8.1.4.-
i =1 B
TEOREMA 8.1.5.-
1
De modo similar, tenemos U n ≤ ∫ g ( x )f X ( x )dx +
{x / g ( x ) >0} n
262 Hugo Cornejo Villena & Hugo Cornejo Rosell.
Consecuentemente,
1 1
∫ g ( x )f X ( x )dx - ≤ I1 ≤ ∫ g ( x )f X ( x )dx +
{x / g ( x ) >0} n {x / g ( x ) >0} n
o, en la forma
1
I1 − ∫ g ( x )f X ( x )dx ≤
{x / g ( x ) >0} n
para todo entero positivo n. Como el primer miembro de esta desigualdad no
depende de n, entonces
I1 = ∫ g ( x )f X ( x )dx
{x / g ( x ) >0}
En forma similar, se demuestra que
I2 = − ∫ g ( x )f X ( x )dx
{x / g ( x )≤0}
Luego
∞
E[g (X)] = I1 - I 2 = ∫ g ( x )f X ( x )dx
−∞
EJEMPLO
8.1.16.-Sea X una variable aleatoria continua con función de densidad.
e − x , si x > 0
f X (x) =
0 , en caso contrario
2X
3
Hallar el valor esperado de g (X) = e
SOLUCION:
Por el teorema 8.1.5, se tiene
∞
2X ∞
2x
∞ −
x
−
x
E e 3 3 −x
= e e dx = ∫ e dx = − 3e 3 = 3
3
−∫∞
0
0
El siguiente propósito, es presentar el concepto de esperanza matemática
para el caso de dos variables aleatorias X e Y, con distribuciones de
probabilidad conjunta p X ,Y ( x , y) = f X.Y (x , y ) y considerando g(X, Y) una
variable aleatoria; es decir,
[g(X, Y ) ≤ x ] = {ω ∈ Ω g(X(ω), Y(ω) ) ≤ x}∈ A
para todo número real x.
Introducción al Cálculo de Probabilidades 263
TEOREMA 8.1.6.-
Sean X e Y variables aleatorias discretas con distribución de probabilidad
conjunta p X ,Y ( x , y) = f X.Y (x , y ) . La media o real esperado de la variable
aleatoria g(X, Y ) es:
( ) ( )
∞ ∞
µ g ( X ,Y ) = E[g(X, Y )] = ∑ ∑ g x i , y j f X ,Y x i , y j
i =1 j=1
(donde R X = {x i 1 ≤ i ≤ ∞} y { }
R Y = y j 1 ≤ j ≤ ∞ ) siempre y cuando la
serie doble sea absolutamente convergente.
DEMOSTRACION:
La demostración de este teorema es muy análoga que a la del teorema 8.1.1 y
dejamos como ejercicio al lector su formalización.
TEOREMA 8.1.7.-
Sean X e Y variables aleatorias continuas con distribución de probabilidad
conjunta f X.Y (x , y ) . La media o valor esperado de la variable aleatoria
g(X, Y ) es:
µ g ( x , y ) = E[g(X, Y )] = ∫−∞∞ ∫−∞∞ g ( x , y)f X ,Y ( x , y)dxdy
siempre y cuando sea
∞ ∞
∫−∞ ∫−∞ g ( x , y) f X ,Y ( x , y)dxdy < ∞
DEMOSTRACION:
La demostración de este teorema es análoga que a la del teorema 8.1.2 y
dejamos al lector su comprobación.
Dejamos constancia que el teorema anterior se cumple para una función
g de cualquier número (finito) de variables aleatorias.
EJEMPLOS
8.1.17.- Si X e Y tienen la siguiente función de probabilidad conjunta.
fXY x
2 4
1 0.10 0.15
y
3 0.20 0.30
5 0.10 0.15
Hallar el valor esperado de g(X, Y ) = XY 2 .
SOLUCION:
Por el teorema 8.1.6, tenemos:
264 Hugo Cornejo Villena & Hugo Cornejo Rosell.
( )
E XY 2 = ∑ ∑ xy 2 f X ,Y ( x , y)
x y
[
= ∑ x (1) 2 f X ,Y ( x ,1) + x (3) 2 f X ,Y ( x ,3) + x (5) 2 f X ,Y ( x ,5)
x
]
= 2f X ,Y (2,1) + 18f X ,Y (2,3) + 50f X ,Y (2,5) +
4f X ,Y (4,1) + 36f X ,Y (4,3) + 100f X ,Y (4,5)
= 2(0.10) + 18(0.20) + 50(0.10) + 4(0.15) + 36(0.30) + 100(0.15)
= 0.20 + 3.6 + 5 + 0.6 + 10.8 + 15 = 35.2
8.1.18.- Si X e Y son variables aleatorias con función de densidad conjunta:
4 xy , si 0 < x < 1, 0 < y < 1
f X ,Y ( x , y ) =
0 , en caso contrario
Hallar el valor esperado de Z = X 2 + Y 2
SOLUCION:
Por el teorema 8.1.7, tenemos:
E( Z) = ∫01 ∫01 4 x 2 + y 2 xydydx =
1
∫0 4 x {∫
1
0
}
x 2 + y 2 ydy dx
1
= 1 2
∫0 2 x (x 2
+y 2
)
3
2
dx = ∫
14 2
0 x
3 x + 1 (
3
2
)
− x 3 dx
3 0
=
3 1 2
2
3
( 4 1 4
∫0 x + 1 2 xdx - ∫0 x dx
2
3
)
1 1
2 2 2
= × ( x + 1) 2 4 x5 4 4
( )
5
- = 4 2 −1 −
3 5
0 3 5 0 15 15
16 8
= 2− = 1.508 - 0.533 = 0.975
15 15
NOTA: Si g (X, Y) = X en los teoremas 8.1.6 y 8.1.7, encontramos:
∑ ∑ xf X , Y (x , y ) = ∑ xg X (x ) (caso discreto)
x y
E(X) = ∞ ∞ ∞
∫ ∫ xf X , Y (x , y )dx dy = ∫ xg X (x )dx (caso continuo )
− ∞ − ∞ −∞
∑ ∑ yf X , Y (x , y ) = ∑ yh Y (y ) (caso discreto)
x y
E(Y) = ∞ ∞ ∞
∫ ∫ yf X , Y (x , y )dx dy = ∫ yh Y (y )dy (caso continuo )
− ∞ − ∞ −∞
DEMOSTRACION:
Por el teorema 8.1.5.
E[g (X)] ± E[h (X)] = ∫−∞∞ [g ( x ) ± h ( x )]f X ( x )dx
= ∫−∞∞ g ( x )f X ( x )dx ± ∫−∞∞ h ( x )f X ( x )dx = E[g (X)] ± E[h (X)]
Presentamos el siguiente teorema de mucha importancia, que es una
ampliación del teorema 8.2.2, para el caso de dos variables aleatorias X e Y
con distribución de probabilidad conjunta f X ,Y ( x , y) .
TEOREMA 8.2.3.-
El valor esperado de la suma o diferencia de dos o más funciones de las
variables aleatorias X e Y es la suma o diferencia de los valores esperados de
las funciones. Esto es, para dos funciones:
E[g (X, Y) ± h (X, Y)] = E[g (X, Y)] ± E[h (X, Y)]
DEMOSTRACION:
Por el teorema 8.1.7,
E[g (X, Y) ± h (X, Y)] = ∫−∞∞ ∫−∞∞ [g ( x , y) ± h ( x , y)] f X ,Y ( x , y)dxdy
= ∫−∞∞ ∫−∞∞ g ( x , y)f X ,Y ( x , y)dxdy ± ∫−∞∞ ∫−∞∞ h ( x , y)f X ,Y ( x , y)dxdy
= E[g (X, Y)] ± E[h (X, Y)]
COROLARIO 8.2.3.
E[g (X) ± h (X)] = E[g (X)] ± E[h (X)]
DEMOSTRACION:
En el teorema 8.2.3, consideremos g(X, Y) = g(X) y h(X,Y) = h(Y)
de donde se deduce la prueba de este corolario, que viene a ser el teorema
8.2.2.
COROLARIO 8.2.4.
Si X e Y son variables aleatorias y si a y b son constantes, entonces
E(aX ± bY ) = aE(X) ± bE (Y)
DEMOSTRACION:
En el teorema 8.2.3, consideremos g(X, Y) = aX y h(X,Y) = bY
de donde E(aX ± bY ) = E (aX) ± E (bY) y por el corolario 8.2.2
E(aX ± bY ) = aE(X) ± bE (Y)
TEOREMA 8.2.4.-
Sean X e Y variables aleatorias independientes, cuya esperanza existe,
entonces:
E(XY) = E(X) E(Y).
DEMOSTRACION:
Por el teorema 8.1.7, E (XY) = ∫−∞∞ ∫−∞∞ xy f X ,Y ( x , y)dxdy
Introducción al Cálculo de Probabilidades 267
E ∏ X i = ∏ E (X i )
n n
i =1 i =1
DEMOSTRACION:
Por el teorema 8.1.7, en el caso en que g sea una función de n argumentos y
n
g ( x 1 , x 2 ,..., x n = ∏ X i , tenemos
i =1
i =1
= ∫−∞∞ .....∫−∞∞ x 1 , x 2 ,..., x n f X1 ( x 1 )f X 2 ( x 2 )...f X n ( x n )dx 1 ,...dx n
n ∞ n
= ∏ X i ∫−∞ x i f X i ( x i )dx i = ∏ E (X i )
i =1 i =1
EJEMPLOS
8.2.1.- Sea X una variable aleatoria con la siguiente distribución de
probabilidad:
X -3 6 9
f X (x ) 16 12 13
Hallar [
E (2X + 1)
2
]
SOLUCION:
Aplicando el teorema 8.2.2 a la variable aleatoria Z = (2X + 1)2 ,
[ ]
tenemos E (2X + 1)2 = E (4X 2 + 4X + 1) = 4E(X 2 ) + 4E(X) + E(1)
Del corolario 8.2.1, E(1) = 1, y por cálculo directo:
1 1 1
E (X 2 ) = 9 + 36 + 81 = 1.5+18+27 = 46.5
6 2 3
268 Hugo Cornejo Villena & Hugo Cornejo Rosell.
E[(X − 2 ) ] = E (X )
2 2
− 4X + 4 = E ( X 2 ) - 4E ( X ) + 4 = 6
De donde:
E (X 2 ) = 9 + 2E(X) y E (X 2 ) = 2 + 4E(X)
7
Entonces, 2E(X) + 9 = 4E(X) + 2. Por tanto E (X) = = 3.5
2
8.2.3.-En el ejemplo 8.1.18, si X e Y son variables aleatorias independientes.
Hallar:
a) E(2X − 3Y ) y
b) E(XY )
SOLUCION:
Por aplicación de los teoremas anteriores:
a) E(2X − 3Y ) = 2E(X) − 3E(Y) y por cálculo directo
E (X) = ∫−∞∞ ∫−∞∞ x (4 xy)dxdy = 4 ∫01 ∫01 x 2 y dy dx
1
[ 1
]
= 2 ∫0 x 2 y 2 0 dx = 2 ∫01 x 2 dx =
2
3
∞ ∞ 1 1
E (Y) = ∫−∞ ∫−∞ y(4 xy)dxdy = 4 ∫0 ∫0 xy 2 dx dy
1
[ ]1 2
= 2 ∫0 x 2 y 2 0 dy = 2 ∫01 y 2 dy =
3
2 2 4
Luego, E(2X − 3Y ) = 2 - 3 = - 2 = -0.67
3 3 3
b) Como X e Y son independientes, por el teorema 8.2.4 y la parte a)
2 2 4
E(XY) = E(X)E(Y) = . = = 0.44
3 3 9
A modo de comprobación, calculemos directamente.
Introducción al Cálculo de Probabilidades 269
1
y2
x 3
E (XY) = 1 1 2 2
∫0 ∫0 4 x y dxdy = 4 ∫01 dy
3 0
1
4 4 y3 4
= ∫01 y 2 dy = = = 0.44
3 3 3 0 9
8. 3. MOMENTOS Y FUNCION GENERADORA DE MOMENTOS
DE VARIABLES ALEATORIAS
El objeto de esta sección es definir los momentos, función generadora
de momentos, momentos centrales y los momentos mixtos de las variables
aleatorias y deducir sus propiedades más importantes.
DEFINICION 8.3.1
Si r es un entero positivo, se llama momento de orden r de una variable
aleatoria X, al valor:
µ,r = E ( X r )
siempre que exista tal esperanza.
Dado que el momento de primer orden, de la variable aleatoria X es
( )
µ1 = E X1 = E(X ) , suele escribirse como: µ = µ ,r
,
SOLUCION:
Puesto que la función de densidad, de la variable aleatoria normal X, por
la definición 7.2.1, es:
1 x −µ 2
1 −
f X (x) = e 2 σ , si -∞ < x < ∞, -∞ < µ < ∞, σ >0
2 πσ
Entonces, por el ejemplo 8.1.11 E(X) = µ
que es la distribución normal estándar y consiguientemente
Por otro lado,
1 x −µ 2
[
E ( X − µ)
2
]= 1
2 πσ
∫
∞
−∞
( x − µ )
2 −
e 2 σ
dx
x −µ
Si z = y dx = σdz , tenemos:
σ
[ ]
z2
σ2 ∞ 2 − 2
E (X − µ ) =
2
∫−∞ z e dz ,
2π
integrando por partes, se obtiene:
∞
[ ]
2 z2 z2
σ − −
E (X − µ ) = { − ze 2 + ∫−∞ e 2 dz }= σ 2 (0 + 1) = σ 2
∞
2
2π
−∞
Introducción al Cálculo de Probabilidades 271
( )= 1 ∞ tx − 2
tX σ
m X (t) = E e ∫−∞ e e dx
2 πσ
1 ∞ − 2σ 2 [x − 2 (µ + tσ )x +µ ]
1 2 2 2
= ∫−∞ e dx
2 πσ
Si se completa el cuadrado en el exponente, tenemos
( )
x 2 − 2 µ + tσ 2 x + µ 2 = x − µ + t σ 2 [ ( )] 2
− 2µtσ 2 − t 2 σ 4
y entonces,
2
σ2t 2 1 x − ( µ + tσ 2 )
−
1 µt +
∞ 2 σ
m X (t) = e 2
∫−∞ e dx
2 πσ
Si w =
(
x − µ + tσ 2 )
y dx = σdw , se tiene:
σ
σ2t 2 w2 σ2t 2
µt + 1 ∞ −2 µt +
m X (t) = e 2
∫−∞ e dz = e 2
2π
8.3.2.- Demuestre que la función generadora de momentos de la variable
aleatoria X que tiene una distribución Ji-cuadrada con r grados de
libertadad es m X ( t ) = (1 − 2 t ) − r / 2 .
SOLUCION:
Sabemos que la distribución Ji-cuadrada es un caso especial de la
distribución gamma al sustituir α = r/2 y β = 2. Cuando se sustituye por
fX(x) en la definición 8.3.2, se obtiene:
∞ 1
m X ( t ) = ∫ e tx x r / 2−1e − x / 2 dx
0 2 r/2
Γ(r / 2 )
1 ∞
r / 2 −1 − x (1− 2 t ) / 2
= ∫ x e dx
2 Γ(r / 2 ) 0
r/2
∞ r / 2 −1
1 2y 2
m X (t) = r / 2 ∫
2 Γ(r / 2) 0 1 − 2t
e−y
1 − 2t
dy
272 Hugo Cornejo Villena & Hugo Cornejo Rosell.
1 ∞
e dy = (1 − 2 t )
r / 2 −1 − y −r / 2
= ∫y
Γ(r / 2 )(1 − 2 t ) 0
r/2
}
274 Hugo Cornejo Villena & Hugo Cornejo Rosell.
EJEMPLOS
8.3.4.- Dada la distribución de probabilidad X, del ejemplo 8.1.4. Hallar la
variancia y la desviación típica de fallas por cada 10 metros de tela.
SOLUCION:
Aplicando el resultado del ejemplo 8.1.4, tenemos E(X ) = µ = 0.88 y del
( )
teorema 8.3.4, Var(X ) = σ 2 = E X 2 − µ 2
Pero
( )
E X 2 = 0(0.41) + 1(0.37) + 4(0.16) + 9(0.05) + 16(0.01)
= 0.37 + 0.64 + 0.45 + 0.16 = 1.62 y µ 2 = 0.7744
Luego:
Var(X ) = 1.62 - 0.7744 = 0.8456 y σ = d.t (X ) = 0.8456 = 0.9196
8.3.5.- Sea X una variable aleatoria cuya distribución de probabilidad está
dada por:
x 0 1 2 3 4
p(x) 18 14 14 14 18
Calcular:
a) Var(X ) y σ X
b) Var(2X + 1)
SOLUCION:
Apliquemos los teoremas 8.3.4 y 8.3.5
( )
a) Var(X ) = E X 2 − µ 2 . Como
1 1 1 1 1 1 1 3 1
µ = 0 + 1 + 2 + 3 + 4 = + + + = 2
8 4 4 4 8 4 2 4 2
( ) 1 1 1 1 1 1 9
E X 2 = 0 + 1 + 4 + 9 + 16 = + 1 + + 2 =
11
8 4 4 4 8 4 4 2
Entonces
11 3
Var(X ) = − 4 = = 1.5 y consecuentemente σ X = 1.225
2 2
b) Primero calculemos la media de la variable aleatoria 2X + 1 . De
acuerdo con el teorema 8.1.3
u
µ 2 X +1 = E(2X + 1) = ∑ (2 x + 1)p(x )
x =0
{ } { }
σ 22 X +1 = E [(2X + 1) − µ 2 X +1 ] = E [2X + 1 − 5]
2 2
= 4 E (X ) − 16 E ( X ) + 16
2
( )
Pero, E X 2 =
11
2
y E(X ) = 2
11
Entonces: σ 22 X +1 = 4 − 16(2 ) + 16 = 6
2
8.3.6.- Sea X una variable aleatoria con función de densidad
x2
, si - 1 < x < 2
f X (x ) = 3
, en caso contrario
0
Hallar la variancia de 2X + 3 .
SOLUCION:
Calculemos primero la media de 2X + 3 , de acuerdo con el teorema 8.1.5
µ 2 X +3 = E(2X + 3) = ∫−21
(2x + 3)x 2 dx = 1 2 2x 3 + 3x 2 dx
( )
∫
3 3 −1
2
1 1 16 8 1 1 11
= x4 + x3 = + − − =
6 3 −1 6 3 6 3 2
Ahora, utilizando el teorema 8.3.5.
11
2
5
2
Var(2X + 3) = E (2X + 3) − = E 2X −
2 2
2
( )
2
2
4x − 5 x 1 2 4 3 2
= ∫ dx = ∫ 16 x − 40 x + 25x dx
−1 2 3 12 −1
2
4 5 25 3
= x5 − x4 + x = 2.56
15 6 36 −1
Para el cálculo de las variaciones o desviaciones estándar, presentamos
los siguientes teoremas de mucha importancia.
TEOREMA 8.3.6.-
Si X es una variable aleatoria y si a y b son constantes, entonces
Var (aX ± b ) = σ aX
2
± b = a Var (X ) = a σ
2 2 2
DEMOSTRACION:
{
Por teorema 8.3.5, Var (aX ± b ) = E [(aX ± b ) − µ aX ± b ]2}
276 Hugo Cornejo Villena & Hugo Cornejo Rosell.
COROLARIO 8.3.1.
Si X es una variable aleatoria y b una constante, entonces
Var(X + b ) = σ X2 + b = Var(X ) = σ 2
DEMOSTRACION:
Considerando a = 1 , en el teorema 8.3.6 se tiene el resultado de manera obvia.
COROLARIO 8.3.2.
Si X es una variable aleatoria y a una contante, entonces
Var(aX ) = σ aX2
= a 2 Var(X ) = a 2 σ 2
DEMOSTRACION:
Considerando b = 0 , en el teorema 8.3.6 se obtiene el resultado de manera
obvia.
Si g(X, Y ) = (X − µ X )(Y − µ Y ) ,donde µ X = E(X ) y µ Y = E(Y ) , los teoremas
8.1.6 y 8.1.7. dan el valor esperado que recibe el nombre de covariancia o
covarianza de X e Y, denotado por Cov(X, Y ) o σ XY
DEFINICION 8.3.4.-
Sean X e Y variables aleatorias, la covariancia de X e Y es:
σ XY = Cov(X, Y ) = E{[X − E(X )][Y − E(Y )]} = E[(X − µ X )(Y − µ Y )]
siempre que las esperanzas existan.
TEOREMA 8.3.7.-
La covariancia de las variables aleatorias X e Y, con esperanzas µ X y µ Y ,
respectivamente, es:
σ XY = Cov(X, Y ) = E(XY ) − E(X )E(Y ) = E(XY ) − µ X µ Y
DEMOSTRACION:
Cov(X, Y ) = E[(X − µ X )(Y − µ Y )] = E[XY − Xµ Y − Yµ X + µ X µ Y ]
= E(XY ) − µ Y E(X ) − µ X E(Y ) + µ X µ Y
= E (XY ) − E (X )E (Y ) − E(X )E(Y ) + E(X )E(Y )
= E(XY ) − E(X )E(Y ) = E(XY ) − µ X µ Y
Es preciso manifestar que la covariancia entre dos variables aleatorias es
una medida de asociación natural entre dichas variables. Para valores grandes
de X resultan valores grandes de Y, o para valores pequeños de X resultan
valores pequeños de Y; si X − µ X es positivo, frecuentemente resultará
Y − µ Y positivo y si X − µ X es negativo, frecuentemente resultará Y − µ Y
negativo, entonces el producto (X − µ X )(Y − µ Y ) tenderá a ser positivo. Por
Introducción al Cálculo de Probabilidades 277
= E{[a (X − µ ) + b(Y − µ )] }
X Y
2
Var ∑ a i X i = a i2 ∑ Var (X i )
n n
i =1 i =1
DEMOSTRACION:
En primer lugar, observamos que
E (a 1 X1 + a 2 X 2 + ..... + a n X n ) = a 1 E(X1 ) + ..... + a n E(X n )
Entonces:
n
2
Var ∑ a i X i = E ∑ a i X i − E ∑ a i X i
n n
i =1 i =1 i =1
i =1 i =1
[ ( ) ]
= a i2 E ∑ [X i − E(X i )]2 + ∑ X j − E X j (X k − E(X k ))
n
i =1 j≠k
( )
n
= a i2 ∑ Var(X i ) + ∑ Cov X j , X k
i =1 j≠ k
Para j ≠ k , X j y X k son independientes, y por el resultado en la
( )
demostración del corolario 8.3.3 Cov X j , X k = 0 , entonces
Var ∑ a i X i = a i2 ∑ Var (X i )
n n
i =1 i =1
lo que demuestra el teorema.
EJEMPLOS
8.3.7.- Sean X e Y dos variables aleatorias, que representan el número de
bicicletas producidas al día por las líneas ensambladores A y B,
respectivamente. La distribución de probabilidad conjunta p X ,Y (x , y ) de
las variables aleatorias X e Y, está dada en la siguiente tabla:
Y
X 0 1 2 3 4 5
0 0.00 0.01 0.03 0.06 0.07 0.08
1 0.01 0.02 0.04 0.07 0.07 0.09
2 0.01 0.02 0.04 0.06 0.06 0.06
3 0.00 0.01 0.05 0.05 0.05 0.04
Hallar:
a) Var (3X − 5) , b) Var (6Y ) , c) Cov(X, Y ) y d) Var (2X + 3Y )
SOLUCION:
Introducción al Cálculo de Probabilidades 279
Y
X P[X=x]
0 1 2 3 4 5
0 0.00 0.01 0.03 0.06 0.07 0.08 0.25
1 0.01 0.02 0.04 0.07 0.07 0.09 0.30
2 0.01 0.02 0.04 0.06 0.06 0.06 0.25
3 0.00 0.01 0.05 0.05 0.05 0.04 0.20
P[Y=y] 0.02 0.06 0.16 0.24 0.25 0.27 1
Hallar:
a) Por el teorema 8.3.6 y 8.3.4,
[( )
Var (3X − 5) = 9Var (X ) = 9 E X 2 − µ 2x ]
Pero:
( )
E X 2 = 0(0.25) + 1(0.30 ) + 4(0.25) + 9(0.20 )
= 0.30 + 1 + 1.8 = 3.10
µ X = E(X ) = 0(0.25) + 1(0.30 ) + 2(0.25) + 3(0.20 )
= 0.30 + 0.50 + 0.60 = 1.4 y µ 2X = 1.96
Entonces: Var (3X − 5) = 9(3.10 − 1.96 ) = 10.26
b) Por corolario 8.3.2 y teorema 8.3.4,
[( )
Var (6Y ) = 36Var (Y ) = 36 E Y 2 − µ 2Y ]
Pero:
( )
E Y 2 = 0(0.02 ) + 1(0.06 ) + 4(0.16 ) + 9(0.24 ) + 16(0.25) + 25(0.27 )
= 0.06 + 0.64 + 2.16 + 4 + 6.75 =13.61
µ Y = E ( Y ) = 0 ( 0.02 ) +1( 0.06 ) + 2 ( 0.16 ) + 3 ( 0.24 ) + 4 ( 0.25 ) + 5 ( 0.27 )
= 0.06 + 0.32 + 0.72 + 1 +1.35 = 3.45
µ 2y = 11.9025
Entonces: Var(6Y ) = 36(13.61 − 11.9025) = 61.47
c) Por el teorema 8.3.7,
Cov(X, Y ) = E(XY ) − E(X )E(Y )
Como, aplicando el teorema 8.1.6,
3 5
E(XY ) = ∑ ∑ xyp X ,Y (x , y )
X =0 Y =0
280 Hugo Cornejo Villena & Hugo Cornejo Rosell.
X =0
+ x (3)p X ,Y (x ,3) + x (4 )p X ,Y (x ,4 ) + x (5)p X ,Y (x ,5) ]
= 0 + 1p X ,Y (1,1) + 2p X ,Y (1,2 ) + 3p X ,Y (1,3) + 4p X ,Y (1,4) +
5p X ,Y (1,5) + 2p X ,Y (2,1) + 4p X ,Y (2,2 ) + 6p X ,Y (2,3) +
8p X ,Y (2,4) + 10p X ,Y (2,5) + 3p X ,Y (3,1) + 6p X ,Y (3,2 ) + 9p X ,Y (3,3)
+ 12p X ,Y (3,4) + 15p X ,Y (3,5)
= (0.02) + 2(0.04) + 3(0.07) + 4(0.07) + 5(0.09) + 2(0.02)
+ 4(0.04) + 6(0.06) + 8(0.06) + 10(0.06) + 3(0.01) + 6(0.05) +
9(0.05) + 12(0.05) + 15(0.04)
= 0.02 + 0.08 + 0.21 + 0.28 + 0.45 + 0.04 +0.16+ 0.36 + 0.48 +
0.60 + 0.03 + 0.30 +0.45+ 0.60 + 0.60 = 4.66
y de a) y b); E(X ) = 1.4 y E(Y ) = 3.45
Por tanto, Cov(X, Y ) = 4.66 − (1.4 )(3.45) = 4.66 - 4.83 = -0.17
d) Por el teorema 8.3.8 y los resultados de a), b) y c),
Var (2X + 3Y ) = 4Var (X ) + 9Var (Y ) + 12Cov(X, Y )
[( ) ] [( )
= 4 E X 2 − µ X2 + 9 E Y 2 − µ 2Y + 12(− 0.17 )]
= 4(3.10 - 1.96) + 9(13.61 - 11.9025) - 2.04
= 4.56 + 15.3675 - 2.04 = 17.8875
8.3.8.-Con las variables aleatorias cuya función de densidad conjunta se da en
el ejercicio 21 del capítulo VI, hallar:
X + 3Y
a) Cov(X, Y ) b) Var
2
SOLUCION:
La función de densidad conjunta de X e Y, está dada por:
3x − y
5 , si 1 < x < 2, 1 < y < 3
f X ,Y (x , y ) =
, en caso contrario
0
y las densidades marginales de X e Y, respectivamente, son:
6x − 4
5 , si 1 < x < 2
f X (x ) =
, en caso contrario
0
Introducción al Cálculo de Probabilidades 281
9 − 2y
, si 1 < y < 3
f Y (y ) = 10
, en caso contrario
0
a) Por el teorema 8.3.7,
Cov(X, Y ) = E(XY ) − E(X )E(Y )
Como, aplicando el teorema 8.1.7,
3x − y
( )
∞ ∞ 1 32
E(XY ) = ∫ ∫ xy dxdy = ∫ ∫ 3x 2 y − xy 2 dxdy
−∞ −∞ 5 5 11
2
1 3 3 x 2y2
= ∫ x y −
51 2 1
dy =
1 3
10 1
(
2
∫ 14 y − 3y dy )
=
1
10
[ ] 1
7 y 2 − y 3 1 = (36 − 6 ) = 3
3
10
y aplicando el teorema 8.1.2,
( ) [ 1 8
]
∞ 12 1
E(X ) = ∫ xf X (x )dx = ∫ 6x 2 − 4x dx = 2x 3 − 2x 2 1 = ( 8) = ,
2
y
−∞ 51 5 5 5
3
( )
∞ 1 3 1 9 2 2 3 28
E(Y ) = ∫ yf Y (y )dy = 2
∫ 9 y − 2 y dy = y − y =
−∞ 10 1 10 2 3 1 15
Entonces,
8 28 224 225 − 224 1
Cov(X, Y ) = 3 − = 3 − = = = 0.013
5 15 75 75 75
b) Por el teorema 8.3.8,
X + 3Y X 3 1 9 3
Var = Var + Y = Var(X ) + Var(Y ) + Cov(X, Y )
2 2 2 4 4 2
Como, por teorema 8.3.4,
( ) ( )
Var (X ) = E X 2 − µ 2X y Var(Y ) = E Y 2 − µ 2Y
calculemos E (X ) y E (Y ), aplicando el teorema 8.1.5, tenemos:
2 2
∞ 2
E (X ) = ∫ x 2 f X ( x ) dx = ∫ (3x − 2 x )dx = x − x =
2 2 2 2 3
3 2 79 2 4 3
−∞ 5 1 5 4 3 30 1
( ) ( )
∞ 1 3
E Y 2 = ∫ y 2 f Y (y )dy = 2 3
∫ 9 y − 2 y dy
−∞ 10 1
3
1 1 19
= 3y 3 − y 4 =
10 2 1 5
282 Hugo Cornejo Villena & Hugo Cornejo Rosell.
64 784
y como, por a), µ 2X = y µ 2Y =
25 225
79 64 11 19 784 71
Entonces Var(X ) = − = , Var (Y ) = − =
30 25 150 5 225 225
Por tanto,
X + 3Y 1 11 9 71 3 1
Var = + +
2 4 150 4 225 2 75
11 71 1 449
= + + = = 0.748
600 100 50 600
En estadística aplicada con frecuencia se necesita conocer la distribución
de probabilidad de una combinación lineal de variables aleatorias normales
independientes.
TEOREMA 8.3.10.-
Si X1, X2 , ….., Xn son variables aleatorias independientes que tienen
distribuciones normales con medias µ1, µ2,……, µn y varianzas
2 2 2
σ1 , σ 2 ,....., σ n , respectivamente, entonces la variable aleatoria
Y = a 1 X 1 + a 2 X 2 + ........ + a n X n
donde a1 , a 2 ,.....a n son constantes, tiene una distribución normal con
media µ Y = a 1µ1 + a 2 µ 2 + ....... + a n µ n
y varianza σ 2Y = a 12 σ12 + a 22 σ 22 + ...... + a 22 σ 2n
DEMOSTRACION:
Por el teorema 8.3.3, se encuentra
n
m Y ( t ) = m X1 (a 1 t )m X 2 (a 2 t )...m X n (a n t ) = ∏ m X i (a i t ) .
i =1
Sustituyendo a1t por t en la función generadora de momentos de la distribución
normal obtenida en el ejemplo 8.3.1, luego a2t por t y así sucesivamente ant
por t, se tiene:
m Y ( t ) = exp(a1m1t+ a12s12 t 2 / 2 + a 2 m 2 t+ a 22s 22 t 2 / 2 + .. + a n m n t+ a n2 s n2 t 2 / 2 .
= exp[ (a 1µ1 + a 2 µ 2 + .. + a n ) t + (a 12 σ12 + a 22 σ 22 + .... + a 2n σ 2n ) t 2 / 2 ]
que se reconoce como la función generadora de momentos de una distribución
que es normal con media µ Y = a 1µ1 + a 2 µ 2 + ....... + a n µ n y varianza
σ 2Y = a 12 σ12 + a 22 σ 22 + ...... + a 22 σ 2n .
Ahora resulta evidente que la distribución de Poisson y la distribución
normal tienen una propiedad reproductiva, en el sentido d que las sumas de
variables aleatorias independientes que tienen el mismo tipo de distribuciones.
Esta propiedad reproductiva también la tiene la distribución Ji-cuadrada, de
Introducción al Cálculo de Probabilidades 283
[ ]
Ahora bien, para todo número real t, tenemos que P (tX + Y )2 ≥ 0 = 1, luego
[ ]
E (tX + Y ) = t 2 E (X 2 ) + 2 t E (XY) + E (Y 2 ) ≥ 0
2
y como
2 E 2 {[X − E (X)][Y − E (Y)]}
ρ ( X, Y ) =
{ }{
E [X − E (X)] E [Y − E (Y)]
2
} 2
286 Hugo Cornejo Villena & Hugo Cornejo Rosell.
TEOREMA 8.4.1
Si X e Y son variables aleatorias con función de probabilidad condicional
f Y / X ( y / x ) y tal que existe E(Y), entonces:
E[E (Y / X)] = E (Y) .
DEMOSTRACION:
Como en la sección anterior, probaremos para el caso continuo.
∞ ∞ ∞
E[E (Y / X)] = ∫ E (Y / X)f X ( x )dx = ∫ ∫ yf Y / X ( y / x )dy f X ( x )dx
−∞ −∞ −∞
∞ ∞
= ∫ ∫ yf Y / X ( y / x )f X ( x )dydx
−∞ −∞
f X , Y ( x , y)
Como f Y / X ( y / x ) = , entonces
f X (x)
∞ ∞ ∞
∞
E[E (Y / X)] = ∫ ∫ yf X ,Y ( x , y)dydx = ∫ y ∫ f X ,Y ( x , y)dx dy
−∞ −∞ −∞ −∞
∞
= ∫ yf Y ( y)dy = E (Y)
−∞
DEFINICION 8.4.2
Si X e Y son variables aleatorias, con función de probabilidad condicional
f Y / X ( y / x ) , la varianza condicional de Y dado X = x, está dado por:
(
Var Y
X=x
)= σ 2
Y / X=x = E Y
2
[(
- EY
X = x X=x
)]
2
Similarmente, tendremos
2
Var X = σ2 X2 - E X
X / Y = y = E
Y = y Y = y Y = y
TEOREMA 8.4.2.
Si X e Y son variables aleatorias, con función de probabilidad f Y / X ( y / x ) ,
entonces
Var (Y) = E Var Y [ ( X=x
)]
+ Var E (Y [
X=x
) ]
DEMOSTRACION:
Como
[ (
E Var Y
X=x
)]
= E E Y
2
X = x
− E Y [(
X = x
)]
2
(definición 8.4.2)
= E E Y
2
X = x
− E E Y [(
X=x
2
)]
(teorema 8.2.3)
288 Hugo Cornejo Villena & Hugo Cornejo Rosell.
( ) 2
[ ( X = x )] + [E(Y)]
= E Y 2 − [E(Y )] − E E Y
2 2
X
Y
0 1
0 0.10 0.05
1 0.20 0.10
2 0.30 0.25
Calcular:
Introducción al Cálculo de Probabilidades 289
a) EX( Y = 1) ,
b) E (2X + Y ),
Y=2
c) E (XY ),
X =1
d) Var(Y/X=1), y e) ρ(X, Y)
SOLUCION:
a) Por definición 8.4.1
E(X / Y = 1) = ∑ xP[X = x / Y = 1]
x
= (0) P[X = 0 / Y = 1] +(1) P[X = 1 / Y = 1]
P[X = 1, Y = 1] 0.10 1
Como, P[X = 1 / Y = 1] = = =
P[Y = 1] 0.30 3
1 1
Entonces, E(X / Y = 1) = 1( ) =
3 3
b) De las observaciones 8.4.1 y 8.4.2, tenemos
E(2X + Y / Y = 2 ) = E(2X + 2 / Y = 2 ) =2 E(X / Y = 2 ) +2
Como:
E(X / Y = 2 ) = ∑ xP[X = x / Y = 2]
x
= (0) P[X = 0 / Y = 2] +(1) P[X = 1 / Y = 2]
P[X = 1, Y = 2] 0.25 5
= (1) = =
P[Y = 2] 0.55 11
5 32
Entonces, E(2X + Y / Y = 2 ) = 2( ) + 2 = = 2.91
11 11
c) De la observación 8.4.1, tenemos
E(XY / X = 1) = E(1Y / X = 1) = E(Y / X = 1) = ∑ yP[Y = y / X = 1]
y
( )
2
11 3 11 9 2 1
Entonces, Var Y = − = − = =
X = 1 4 2 4 4 4 2
Cov(X, Y)
e) Por definición 8.3.5 ρ(X, Y) =
σXσY
Como, por teorema 8.3.7 Cov(X, Y ) = E(XY ) − E(X )E(Y )
pero:
E(XY ) = P[X = 1, Y = 1] +(2) P[X = 1, Y = 2]
= 0.10 + 2(0.25) = 0.60
E(X ) = ∑ xP[X = x ] = (1) P[X = 1] = 0.4
x
( )
2
σ X = E X 2 − [E(X )] = ∑ x 2 P[X = x ] − ∑ xP[X = x ]
2
x x
= 0.4 − (0.4 )2 = 0.4 − 0.16 = 0.24 = 0.49
( )
2
σ Y = E Y 2 − [E(Y )] = ∑ y 2 P[Y = y] − ∑ yP[Y = y]
2
y x
= (P[Y = 1] + 4P[Y = 2]) − (P[Y = 1] + 2P[Y = 2])2
= (0.30 + 2.2) − (0.30 + 1.1)2 = 2.5 − 1.96 = 0.54 = 0.73
0.04 0.04
Por lo tanto, ρ(X, Y ) = = = 0.11
(0.49)(0.73) 0.3577
8.4.2 Sea (X, Y) una variable aleatoria continua bidimensional, con densidad
Introducción al Cálculo de Probabilidades 291
1
, si 0 < y < x, 0 < x < 1
f X ,Y (x , y ) = x
0 , en caso contrario
Hallar: a) E (X / Y = 0.5) , b) E (XY ) , c) Var(XY ) y d) ρ(X, Y )
SOLUCION:
Previo a las soluciones particulares, hallaremos las densidades
marginales para X e Y, que serán de utilidad:
x
1
f X (x ) = ∫−∞ f X ,Y (x , y )dy = ∫0 x dy = y ] = 1 ; 0<x<1
∞ x1
x 0
−∞ −∞ 00
x
[ ]
1 y2 1 1 1
= ∫ dx = 12 ∫ x 2 dx = 16 x 3 0 =
0 2 0 6
0
c) Por el teorema 8.3.4
[ ]
Var (XY) = E (XY ) − [E(XY )] = E X 2 Y 2 − [E(XY )]
2 2 2
( )
Como
( )
∞ ∞
E X 2 Y 2 = ∫ ∫ x 2 y 2 ( 1x )dxdy = ∫ ∫ xy 2 dydx
1x
−∞ −∞ 00
[ ] [x]
1 x 1
5 1
= 1
3∫
xy 3 0 dx = 13 ∫ x 4 dx = 13 1
5 0
= 151
0 0
1
y por b), E(XY ) = .
6
292 Hugo Cornejo Villena & Hugo Cornejo Rosell.
2
1 1 1 1 7
Entonces, Var (XY) = − = − = =0.038
15 6 15 36 180
Cov(X, Y)
d) Por definición 8.3.5 ρ(X, Y) =
σXσY
Como, por teorema 8.3.7 Cov(X, Y ) = E(XY ) − E(X )E(Y )
1
1 x2
pero: E(XY ) = , E(X ) = ∫−∞∞ xf X (x )dx = ∫01 xdx = = 12 ,
6 2 0
1
2
E(Y ) =
∞
∫−∞ yf Y (y )dy = − ∫01 y ln (y )dy = − y ln(y ) − 12 ∫01 ydy
2 0
1
y2 1
E(Y) = - ln (y ) − 14 y 2 = 12 ln (1) − 14 =
2 0 4
1 1 1 1 1 1
Entonces, Cov(X, Y ) = − ( )( ) = − = = 0.042
4 2 4 6 8 24
Por otro lado, por teorema 8.3.4
[ ]
σ 2 X = E X 2 − [E(X )] = E X 2 −
2 1
4
( )
1
1 x3 1 1 1 1
= ∫01 x 2 dx
− = − = − = = 0.082
4 3 0 4 3 4 12
σ2Y [ ]
= E Y 2 − [E(Y )] = E Y 2 −
2 1
16
( )
1
1 y3 1 1
=− 1 2
∫0 y ln(y )dy − = − ln(y ) − y 2 −
16 3 6 0 16
1 1 5
= − = = 0.104
6 16 48
1 1
1
Por lo tanto, ρ ( X , Y ) = 24
= 24
= = 0.447
5
1
12
5
48 24
5
8. 5. CONVERGENCIA EN PROBABILIDADES
En esta sección presentaremos la definición y las propiedades
fundamentales de la convergencia en probabilidad; llegando a establecer que
las sumas, productos y cocientes de sucesiones de variables aleatorias
convergen en probabilidad hacia las correspondientes sumas, productos y
Introducción al Cálculo de Probabilidades 293
Como cada uno de los sumandos del segundo miembro tiende a cero,
cuando n
→ ∞ ,
P [ (X n + Yn ) − (X + Y ) ≥ ε ]
→ 0
P
Por lo tanto X n + Yn → X+Y.
En el siguiente teorema tendremos en cuenta que, una constante es una
variable aleatoria que toma un sólo valor con probabilidad uno.
TEOREMA 8.5.2
Si {X n } es una sucesión de variables aleatorias, k una constante y
P P
Xn
→ X , entonces kX n → kX .
DEMOSTRACION:
ε
Si k=0, el teorema es obvio. Si k≠0 y sea ε >0(arbitrario), luego >0 y
k
P
como X n
→ X , entonces
ε
P X n − X ≥
→ 0 , cuando n
→ ∞
k
Por tanto
ε
P X n − X ≥ = P[ kX n − kX ≥ ε]
P
→ 0 , de donde kX n → kX
k
TEOREMA 8.5.3
Si {X n } es una sucesión de variables aleatorias y X n →
P
0 , entonces
2
Xn
→
P
0.
DEMOSTRACION:
Sea ε > 0 (arbitrario), luego ε ≥ 0 y como Xn P
→ 0 , entonces
[
P Xn ≥ ε ]
→ 0 , para n
→ ∞ .
[ ] [
Pero, P X n ≥ ε = P X n 2 ≥ ε ]
→ 0 , luego X n
2
P
→ 0
TEOREMA 8.5.4
Si {X n } es una sucesión de variables aleatorias, k una constante y
P 2 P
Xn → k , entonces X n → k2 .
DEMOSTRACION:
P
Por la definición 8.5.1, X n − k → 0 , para n
→ ∞ . Por el teorema 8.5.3,
P 2 P
(X n − k ) 2
→ 0 , o (X n − 2kX n + k 2 )
→ 0
Como, por hipótesis y el teorema 8.5.2,
Introducción al Cálculo de Probabilidades 295
→ 2k 2 o 2kX n − k 2
2kX n → k 2
Luego, por el teorema 8.5.1
2 P
(X n − 2kX n + k 2 ) + (2kX n − k 2 ) → 0 + k2 = k2
2 P
y por tanto X n → k2 .
TEOREMA 8.5.5
Si {X n } y {Yn } son sucesiones de variables aleatorias, k 1 y k 2 constantes,
P P P
tales que X n → k 1 y Yn → k 2 , entonces X n Yn → k 1k 2 .
DEMOSTRACION:
Por los teoremas 8.5.1 y 8.5.2
P P
X n + Yn → k 1 + k 2 y X n − Yn → k1 − k 2
Por otro lado, aplicando los teoremas 8.5.1, 8.5.2 y 8.5.4
X n Yn = 14 [ (X n + Yn ) 2 − (X n − Yn ) 2 ] → P 1
4
[ ]
(k 1 + k 2 )2 − (k 1 − k 2 )2 = k 1 k 2
TEOREMA 8.5.6
Si {X n } es una sucesión de variables aleatorias, k una constante, ε>0 y
Xn
→
P
k , entonces
P[X n ≤ k − ε]
→ 0 y P[X n ≥ k + ε]
→ 0
para n → ∞ .
DEMOSTRACION:
Como
[
[X n ≤ k − ε] ∪ [X n ≥ k + ε] = X n − k ≥ ε ]
entonces,
P[X n ≤ k − ε] + P[X n ≥ k + ε] = P[ X n − k ≥ ε] ,
Como las probabilidades, siempre, son positivas y P X n − k ≥ ε [
→ 0 , ]
se tiene que
P[X n ≤ k − ε]
→ 0 y P[X n ≥ k + ε] → 0 .
TEOREMA 8.5.7
Si {X n } es una sucesión de variables aleatorias no nulas y X n P
→ 1,
1 P
entonces → 1.
Xn
296 Hugo Cornejo Villena & Hugo Cornejo Rosell.
DEMOSTRACION:
1
Se sabe que P[X n ≥ 0] = P ≤ 0
→ 0 , cuando n → ∞ . Sea ε > 0
Xn
P
(arbitrario), tal que 0<ε<1, por hipótesis X n → 1 y por el teorema 8.5.6,
tenemos:
ε
a) Para ε>0 y > 0 tenemos:
ε +1
ε 1
P 0 < X n ≤ 1 − = P ≥ ε + 1
→ 0 ,
ε + 1 Xn
cuando n
→ ∞ .
ε
b) Para ε>0 y > 0 tenemos:
1− ε
ε 1
P X n ≥ 1 + = P 0 < ≤ 1 − ε → 0 ,
1 − ε Xn
cuando n → ∞ .
Por lo tanto,
1 1 1 1
P − 1 ≥ ε = P ≤ 0 + P 0 < ≤ 1− ε + P ≥ 1+ ε
→ 0 ,
X n X n X n X n
cuando n → ∞ .
1 P
De aquí que, → 1
Xn
TEOREMA 8.5.8
Si {X n } y {Yn } son sucesiones de variables aleatorias, donde {Yn } sea no
P
nula, k 1 y k 2 constantes(tales que k 2 ≠ 0 ) y tal que X n → k1 y
P X n P k1
Yn → k 2 , entonces → .
Yn k2
DEMOSTRACION:
P
Por el teorema 8.5.7, de Yn → k 2 , resulta que
Yn P k P
→1 y también 2 → 1 . De aquí que, por el teorema 8.5.5
k2 Yn
Xnk2 P X n P k1
→ k 1 , luego → .
Yn Yn k2
Introducción al Cálculo de Probabilidades 297
∫
g(X)³r
g(x) f X (x) dx ³ ∫
g(X)³r
rf X (x) dx = r ∫
g(X)³r
f X (x) dx
La desigualdad se cumple ya que fX(x) > 0 y g(X) ≥ 0, por hipótesis; por tanto
E[g (X)]
E[g (X)] ≤ rP[g (X) ≥ r ] , de donde P[g (X) ≥ r ] ≤
r
TEOREMA 8.6.1 (Desigualdad de Tchebysheff)
Si X es una variable aleatoria con esperanza E(X) y varianza Var(X), entonces
Var (X )
P[ X − E(X ) ≥ ε ] ≤
ε2
DEMOSTRACION:
En el teorema anterior, consideremos la función no negativa
[
g(X) = (X − µ) 2 , luego E[g (X)] = E (X − µ) 2 = σ 2 = Var (X) ]
Por tanto,
298 Hugo Cornejo Villena & Hugo Cornejo Rosell.
E[g (X)] σ 2
[
P ( X − µ) 2 ≥ r ≤
r
]=
r
o bien P X − µ ≥ r ≤
σ2
r
. [ ]
Si r = ε que también es positivo, entonces
σ 2 Var (X )
[
P X − E(X ) ≥ ε ≤ 2 = ]
ε ε2
Otra forma de demostración, sin utilizar el teorema de Markov, es la
siguiente:
Supongamos que δ es un número arbitrario, tal que 0<δ<ε, entonces
( ) [ ] [
E X 2 = ∫0∞ P X 2 > x dx ≥ ∫0(ε−δ ) P X 2 > x dx ≥
2
]
(ε − δ) P X 2 > ( ε − δ ) ≥ ( ε − δ ) P X ≥ ε
2 2 2
( )
Como δ>0 es arbitrario, tenemos E X 2 ≥ ε 2 P[ X − E(X ) ≥ ε ] .
Ahora, si sustituimos X por X-E(X), tenemos
{ }
E [X − E(X )] ≥ ε 2 P[ X − E(X ) ≥ ε ]
2
[
P X − E(X) ≥ ε ≤
σ2
ε
]
• Puesto que X − E (X) ≥ r , entonces X − µ ≥ r o X − µ ≤ − r , es
decir, cuando X ≥ µ + r o X ≤ µ − r , por tanto P X − E (X) ≥ ε [ ]
representa la probabilidad que la variable aleatoria X no pertenezca al
( )
intervalo µ ± r , probabilidad que está acotada superiormente,
dependiendo la cota del valor de la constante r y de la varianza σ 2 de X.
• Si r = ε = kσ , se logra otra versión equivalente de la desigualdad de
Tchebysheff:
σ2
P [ X − E ( X ) ≥ kσ ] ≤ 2 = 2
1
ε k
en este caso X − µ ≥ kσ es el suceso que la variable aleatoria X está
fuera del intervalo (µ ± kσ ) dependiendo la cota superior de probabilidad
Introducción al Cálculo de Probabilidades 299
EJEMPLOS
8.6.1 Si E(X) = 4 y Var(X) = 9, determinar los intervalos alrededor de la
media de esta variable aleatoria que contenga al menos el 75% y el 80%
de la probabilidad.
SOLUCION:
Por la desigualdad de Tchebysheff
P[ X − µ < kσ] ≥ 1 − 2
1
k
1
Como para k = 2, 1 − 2 = 0.75 , luego el intervalo de al menos el 75%
k
de probabilidad será: (µ ± kσ ) = (4-2x3, 4+2x3) = (-2,10).
1
Por otro lado, si hacemos: 1 − 2 = 0.80 , entonces k = 2.24,
k
obteniéndose el intervalo de 80% el siguiente: (µ ± kσ ) = (µ ± 2.24σ ) =
(4-(2.24)3, 4+(2.24)3) = (-2.72, 10.72).
1
Pero 1 − = 0.85 , de donde k = 6.66 = 2.58 .
k2
Luego, [µ − 2.58σ, µ + 2.58σ] = [271,529]
c) La distancia entre 500 y la media 400, expresada en término de la
500 − 400 100
desviación estándar es: = = 2.
50 50
Por la desigualdad de Tchebysheff se tiene que, un dato esté en el
intervalo [500 − 2(50 ),500 + 2(50 )] = [400,600] , es por lo menos
1 1
1 − 2 = 1 − = 0.75 .
k 4
Como los sueldos son mayores que $400, podemos inferir que los
sueldos son mayores que $500 en más de del 25%(1-0.75=0.25).
8.6.3 Sea X una variable aleatoria con función de distribución de
probabilidad:
0 , si x < 0
2
x
FX ( x ) = , si 0 ≤ x < 2
4
1 , si x ≥ 2
a) [
Hallar P µ − 2σ, µ + 2σ ]
b) Acotar la probabilidad anterior utilizando la desigualdad de
Tchebysheff.
c) Comentar sobre los resultados anteriores.
SOLUCION:
a) La función de densidad X es:
0 , si x < 0
x x
, si 0 ≤ x < 2
f X ( x ) = , si 0 ≤ x < 2 = 2
2 0 , en otros casos
0 , si x ≥ 2
Luego
2
∞ 2 x x3 4
E (X) = µ = ∫ xf X ( x )dx = ∫ x ( )dx = =
−∞ 0 2 6 0 3
2
2
∞
2
2 x 2 x4
E(X ) = ∫ x f X ( x )dx = ∫ x ( )dx = = 2
−∞ 0 2 8 0
302 Hugo Cornejo Villena & Hugo Cornejo Rosell.
4 16 2
σ 2 = Var (X) = E (X 2 ) − [E (X)] = 2 − ( ) 2 = 2 − =
2
3 9 9
Por tanto:
[ ]
P µ − 2σ ≤ X ≤ µ + 2σ = P − 2
4 2 4
≤X≤ + 2
2
=
3 3 3 3
4 2 4 2 2
P − ≤ X ≤ + = P ≤ X ≤ 2
3 3 3 3 3
2
2 2 x x2 8
= ∫ f X ( x )dx = ∫ dx = = = 0.8
2 2 2 4 2 9
3 3 3
sí n
→ ∞ , para cualquier ε > 0 y donde
X 1 + X 2 + ...... + X n n
X
Xn = =∑ i ,
n i =1 n
es la sucesión de medias aritméticas.
DEMOSTRACION:
Puesto que:
1 n 1
E ( X n ) = E (∑
n
Xi
) = ∑ E ( X i ) = nµ = µ , debido a la generalización
i =1 n n i =1 n
del corolario 8.2.4.
σ2
( )
n n
Xi 1 1
Var X n = Var(∑ )= 2 ∑ Var ( Xi ) = n σ 2
= , debido al teorema
i=1 n n i=1 n2 n
8.3.9.
Entonces, aplicando la desigualdad de Tchebysheff:
[ σ2
P Xn − µ ≥ ε ≤ 2 .
nε
]
σ2
Como
→ 0 si n → ∞ , entonces:
nε 2
[
P Xn − µ ≥ ε ]
→ 0 , sí n
→ ∞ y para cualquier ε > 0 .
[
NOTA: P X n − µ ≥ ε ]
→ 0 es equivalente a decir
n
[ ]
lim P X n − µ ≥ ε = 0 , resultado que aparece en muchos tratados de
→ ∞
Estadística y Probabilidades.
Un caso particular de la ley de los grandes números es un resultado
famoso, llamado el teorema de Bernouilli, establecido por J. Bernouilli y
publicado póstumamente en 1713.
TEOREMA 8.6.3 (Teorema de Bernoulli)
Si S n representa el número de éxitos en una sucesión de Bernouilli y p es la
probabilidad de éxito en una prueba, entonces
Sn P
→ p
n
DEMOSTRACION:
Sea X k una variable aleatoria que indica el número de éxitos en la prueba de
orden k de la sucesión de Bernouilli, tal que P[X k = 1] = p y
P[X k = 0] = 1 − p = q . Tenemos:
304 Hugo Cornejo Villena & Hugo Cornejo Rosell.
( ) ( )
σ = Var(X k ) = E X 2 − µ 2 = 0 2 (q ) + 12 (p ) − p 2 = pq , para todo k.
2
σ2
una varianza σ 2 X = , que tiende hacia una distribución normal conforme
n
Xn - µ
n tiende a ∞ . En otras palabras, la variable aleatoriatiene como límite
σ
n
X -µ
una distribución normal estándar, equivalentemente sí Zn = n , para
σ
n
n = 1,2,3,….; entonces:
Introducción al Cálculo de Probabilidades 305
FZn (x )
→ Φ (x ) = N(0,1) ,
donde Φ(x ) es la distribución normal estándar (definición 7.2.2).
DEMOSTRACION:
Para la demostración, utilizaremos la función generatriz de momento de
Z n ; m Zn (t ) y la función generatriz de momento de la variable aleatoria
normal estándar.
t2
Si demostramos que lim m Zn (t ) = e2 concluiría nuestro objetivo, ya que
n
→ ∞
t2
m N (0,1) (t ) = e2 , debido al ejemplo 8.3.1, para nuestro caso.
Por tanto,
X n −µ X i −µ
Xi −µ
t σ t t σ
m Zn (t ) = E e ( )
tZ n
= E e
n
= E
∏
n
i =1 e
σ
n
= E ∏
n
i =1
e n
n
t
= m X −µ , donde m X −µ es la función generatriz de
σ n σ
momento de la forma estándar para X.
t t X −µ t Zi
Como m X −µ = E e n σ = E e n .
σ n
Pero, aplicando la serie de Taylor:
tZi
t t2 2 t3 3
e Zi +
n
= 1+
Zi + 3
Z i + ......
n 2 n 3! n 2
[ ]
Encontramos, considerando que E(Z i ) = 0 y E Z i = 1; i = 1,2,3,.......n ,
2
tZi 2
t2 t3 3 1 t t3 3
E (e n
) = 1+ + 3
E ( Z i ) + ...... = 1 + ( + E ( Z i ) + ......)
2n 3!n 2 n 2 3! n
306 Hugo Cornejo Villena & Hugo Cornejo Rosell.
a (t) t2 t3
, donde a (t ) = +
3
=1 + E ( Z i ) + ...... .
n 2 3! n
a (t )
n
Por tanto, m Zn (t ) = 1 +
n
a (t )
n
Ahora, lim m Zn (t ) = lim 1 + =e
a (t )
n → ∞ n→ ∞ n
Conforme n → ∞ , todos los términos en a(t), excepto el primero, tienden
hacia cero, debido a que todos tienen potencias positivas de n en sus
denominadores.
Por tanto:
t2
lim m Z n (t ) = e2
n → ∞
que es lo que queríamos probar.
Ahora establezcamos una consecuencia del teorema central del límite,
que es una aproximación de la distribución binomial a una distribución
normal.
TEOREMA 8.6.5 (Teorema de Laplace-De Moivre)
Si S n representa el número de éxitos en una serie de n pruebas de una
sucesión de Bernouilli, en los que p es la probabilidad de éxito en una prueba
y si
S − np
Zn = n
np(1 − p )
Entonces, FZn (x )
→ Φ (x ) = N(0,1) , para n
→ ∞ .
DEMOSTRACION:
Sea X n el número de éxitos en la prueba de orden n; tal que
P[X n = 1] = p, P[X n = 0] = 1 − p . Por cálculo directo E(X n ) = p
Var(X n ) = p(1 − p ) . Por tanto, aplicando el teorema central del límite, se tiene
que:
Xn − µ Xn − p Xn − p n X n − np
Zn = = = =
σ p(1 − p ) p(1 − p ) / n np(1 − p )
n
n
∑ X n − np S − np
= = n
np(1 − p ) np(1 − p )
y consecuentemente
Introducción al Cálculo de Probabilidades 307
FZn (x )
→ Φ (x ) = N(0,1) , para n
→ ∞ .
OBSERVACIÓN: Con mucha frecuencia se considera que: X = X n
EJEMPLOS
8.6.4 Supongamos que se lanza una moneda el número de veces que se quiera.
En especial, definamos X i = 1 si aparece una cara en la i-ésima tirada y
X i = 0 si aparece sello en la i-ésima tirada, para i = 1,2,3,... . Entonces se
define una sucesión de variables aleatorias independientes de Bernouilli
1
X1 , X 2 ,..... , cada uno con parámetro p = . Luego, se define la
2
secuencia de proporciones de caras que aparecen:
1 n
X = ∑ X i , para i = 1,2,3,……
n i =1
1 p(1 − p ) 1
En este caso µ X n = p = y σ 2 Xn = = . Consiguientemente,
2 n 4n
1
de acuerdo con la ley de los grandes números, lim P X n − > ε = 0
n → ∞ 2
; esto quiere decir que, la probabilidad de que la cantidad de tiradas en la
que aparezca una cara difiera de 1/2, es una cantidad mayor que ε, tienda
a 0 conforme el número de tiradas crece indefinidamente. No se pretende,
que la proporción misma se aproxime cada vez más a 1/2, ya que en este
caso se puede lograr una cara en cada tirada. Sin embargo, la probabilidad
de que suceda este último evento se aproxima a cero conforme n tiende a
∞.
8.6.5 Supongamos que extraemos una muestra aleatoria de tamaño 10 de una
población con distribución uniforme (ejercicio 13 del capítulo VII) en el
[
intervalo ]0,1[. Calcular P X − 12 ≤ 0.1 ]
SOLUCION:
Sea X la variable aleatoria con distribución uniforme en el intervalo ]0,1[,
entonces:
q
q x 1 x2 q2 − p2 q + p 0 +1 1
µ = E(X) = ∫p dx = = = = = y
q−p q − p 2 p 2(q − p ) 2 2 2
( )
σ 2 = Var(X ) = E X 2 − µ 2 ; pero
EX( )2
=
1 q 2
∫ x dx =
q−p p
q 3 − p 3 q 2 + qp + p 2 1
3(q − p )
=
3
= ,
3
308 Hugo Cornejo Villena & Hugo Cornejo Rosell.
1 1 1
luego σ 2 = − = . Por lo tanto, por el teorema central del límite
3 4 12
σ2 1 1
X → N µ, = N , ,
n 2 120
Pero,
[ ]
P X − 12 ≤ 0.1 = P[− 0.1 ≤ X − 12 ≤ 0.1]
0.1 X − 12 0.1
= P − ≤ ≤ ≅ P [ -1.1 £ Zn £ 1.1]
1 / 120 1 / 120 1 / 120
= P[Zn ≤ 1.1] − P[Zn ≤ −1.1] = 0.8643-0.1357 = 0.7286.
8.6.6 Supongamos que el número de barriles de petróleo crudo, que produce
un pozo diariamente, es una variable aleatoria con una distribución no
especificada. Si se observa la producción en 81 días, seleccionados en
forma aleatoria y si se sabe que la desviación estándar del número de
barriles por día es σ = 18, determinar la probabilidad de que la media
muestral se encuentre a no más de 6 barriles del verdadero valor de la
producción por día.
SOLUCION:
σ2
Como n es suficientemente grande, la distribución de X → N µ, ,
n
X−µ
equivalentemente Z n = → N(0,1) , ello por el teorema central
σ/ n
del límite.
Por lo tanto:
[ ] 6 X − µ 6
P X − µ < 6 = P[− 6 < X − µ < 6] = P − < <
2 2 2
≅ P[− 3 < Z n < 3] = P[Z n < 3] − P[Z n < −3]
= 0.9987 – 0.0013 = 0.9974
8.6.7 Un dado perfecto es lanzado independientemente 1,200 veces.
Encontrar, aproximadamente, la probabilidad de que salgan ases entre
180 y 220 veces.
SOLUCION:
Se trata de una sucesión de Bernouilli de n pruebas, donde n = 1,200,
1 5
p= y q = . Por tanto, para la variable aleatoria X, donde
6 6
180 ≤ X ≤ 220 ;tenemos:
Introducción al Cálculo de Probabilidades 309
σ 2
=
(0 − 32 ) + (1 = 32 ) + (2 − 32 ) + (3 − 32 )
2 2 2
5
.
2
=
4 4
Ahora, por el teorema central del límite, la distribución muestral de X
puede aproximarse por la distribución normal con media µ = 32 y
σ2
varianza = 196
5
.
n
Luego:
1.6 − 1.5 X − 1.5 1.9 − 1.5
P[1.6 < X < 1.9] = P < <
0.1597 0.1597 0.1597
≅ P[0.63 < Z n < 2.50] = P[Z n < 2.50] − P[Z n < 0.63]
≅ 0.9938-0.7357 = 0.2581.
OBSERVACION: Si {X n } y {Ym } son sucesiones de variables aleatorias
independientes e idénticamente distribuidas, con esperanzas finitas comunes
µ X y µ Y , respectivamente y varianzas finitas comunes σ 2 X y σ 2 Y ,
respectivamente, entonces de acuerdo al teorema 8.6.4, las variables aleatorias
X e Y son aproximadamente distribuidas en forma normal con medias
µ X y µ Y y varianzas σ 2 X / n y σ 2 Y / m , respectivamente. Esta aproximación
mejora conforme n y m crecen. Utilizando el teorema 8.6.4, corolario 8.2.4 y
el teorema 8.3.9 se concluye que la variable aleatoria independiente e
310 Hugo Cornejo Villena & Hugo Cornejo Rosell.
POBLACIÓN 1 POBLACION 2
µ X = 80 µ Y = 75
σX = 5 σY = 3
n = 25 m = 36
Por tanto:
3.4 − 5 (X − Y ) − 5 5.9 − 5
P[3.4 < X − Y < 5.9] = P < <
1.1 1.1 1.1
= P[− 1.4 < Z n < 0.8] = P[Z n < 0.8] − P[Z n < −1.4]
= 0.7881-0.0808 = 0.7073.
8.6.10 El calificativo promedio, para estudiantes que postulan a una
Universidad, en una prueba de aptitudes es 540, con una desviación
estándar de 50. ¿Cuál es la probabilidad de que dos grupos de estudiantes
seleccionados aleatoriamente, consistentes en 32 y 50 estudiantes,
respectivamente, difiera en sus calificaciones promedio por:
a) más de 20 puntos?
b) una cantidad entre 5 y 10 puntos?
SOLUCION:
De los datos del problema, tenemos la siguiente tabla, para los dos
grupos:
GRUPO 1 GRUPO 2
µ X = 540 µ Y = 540
σX = 50 σ Y = 50
n = 32 m = 50
EJERCICIOS
1.- Un embarque de 7 televisores incluye dos defectuosos. Un centro
educativo realiza una compra de manera aleatoria tres de estos aparatos.
Si X es el número de televisores defectuosos adquiridos por el centro
educativo, hallar la media de X.
2.- Por invertir en unas acciones en particular, Artemio puede obtener
ganancias de S/.4000 con una probabilidad de 0.3, o una pérdida de
S/.1000 con una probabilidad de 0.7. ¿Cuál es la ganancia que espera
Artemio?
3.- Una moneda se “carga” de manera que una cara es tres veces más
probable de ocurrir que un sello. Encuentre el número esperado de sellos
cuando se lanza dos veces dicha moneda.
4.- Se lanza una moneda normal hasta que salga cara. Hallar el número
esperado de tiradas.
5.- Un juego consiste en extraer al azar tres fichas a la vez, de una urna que
contiene 4 fichas rojas y 6 azules.
a) Si juega muchas veces, ¿Cuántas fichas rojas extraerá en promedio?
b) Se gana S/.1.00 por cada ficha roja extraída, en caso contrario se
pierde S/.0.50, si se juega muchas veces ¿Cuánto debería ser el
promedio de la ganancia?
6.- Una compañía vendedora de televisores considera que estos tienen algún
defecto con probabilidad 0.1. La compañía asegura que cada aparato
vendido con algún defecto será reparado sin costo para el cliente. Si se
han vendido tres televisores. ¿Cuánto espera gastar la compañía en
reparaciones si el costo por reparación es C = Y 2 + Y+ 5 , donde Y es el
número de televisores, con algún defecto?
7.- Un fabricante está planeando la producción de una novedad de
temporada. El fabricante estima que la demanda de este artículo está dada
en la siguiente tabla:
NUMERO UNIDADES (x) PROBABILIDADES
1,000 14
2,000 12
3,000 14
El costo de producción y comercialización del artículo consiste en un
costo base fija de S/. 5,000 un costo variable de S/.1 por unidad. Si el
precio de venta es de S/.5 por unidad. ¿Cuál es la ganancia esperada para
el fabricante?
Introducción al Cálculo de Probabilidades 313
2 (x + 2 y ) , si 0 ≤ x ≤ 1, 0 ≤ y ≤ 1
f X ,Y (x , y ) = 3
0 , en caso contrario
Hallar la covarianza de X e Y.
21.- Sea (X, Y ) una variable aleatoria bidimensional continua, con función de
densidad conjunta dada por:
2 , si 0 < x < y , 0 < y < 1
f X ,Y (x , y ) =
0 , en caso contrario
Hallar:
a) Cov(X, Y )
b) La densidad condicional de Y dado X = x.
22.- En un examen de admisión a cierta Universidad se califica en base a 100
puntos. Sea X la calificación que obtiene uno de los estudiantes (que
continúa sus estudios hasta graduarse) y sea Y su razón del punto de
calidad al graduarse (4 puntos = A). La función de densidad conjunta de
X e Y es:
1
, si 2 < y < 4 , 25(y − 1) < x < 25y
f X ,Y (x , y ) = 50
0 , en caso contrario
a) Hallar µ X , µ Y , E(XY )
b) σ 2X , σ 2Y , σ XY y PXY
23.- a) Si X e Y son variables aleatorias independientes, con varianzas
σ 2X = 5 y σ 2Y = 3 , encuentre la varianza de Z = −2X + 4Y − 3 .
b) Si X e Y son variables aleatorias no independientes, con σ 2X = 5 ,
σ 2Y = 3 y σ XY = 1 , hallar la varianza de Z = −2X + 4Y − 3 .
g) Ji-Cuadrada, entonces σ 2 = 2r
−2 2 1
2
β
h) Weibull, entonces σ = α Γ1 + − Γ1 +
2
β β
28.- Demostrar que si X e Y son dos variables aleatorias cuyas esperanzas
existan y si P[X ≤ Y ] = 1 , entonces E(X ) ≤ E(Y ) .
Introducción al Cálculo de Probabilidades 317
36.- Cincuenta dados normales son lanzados en una sola vez y sea X la
variable que denota la suma de los puntos que aparecen hacia arriba.
Encontrar aproximadamente la probabilidad de que 150 ≤ X ≤ 200 .
37.- Un antropólogo estima la altura promedio de hombres de cierta raza,
encontrando que la desviación estándar es de 2.5 cm y si él selecciona
una muestra aleatoria de 100 hombres, hallar la probabilidad de que la
diferencia entre la media muestral y media poblacional verdadera no
exceda 0.5 cm.
38.- Si una muestra de tamaño 5, se saca aleatoriamente de una población que
está distribuida normalmente con esperanza µ X = 60 y varianza
σ 2X = 16 y registrando su media muestral X , por otro lado una segunda
muestra de tamaño 4 se selecciona, independiente de la primera muestra,
con esperanza µ Y = 50 y varianza σ 2Y = 9 y también registrando su
media muestral Y . Hallar P[X − Y < 7.76] .
39.- Los cinescopios de televisión del fabricante A tienen una duración
promedio de 6.5 años y una desviación estándar de 0.9 años, mientras que
los del fabricante B tienen una vida promedio de 6 años con una
desviación estándar de 0.8 años. ¿Cuál es la probabilidad de que una
muestra aleatoria de 36 cinescopios del fabricante A, tenga una duración
promedio que sea al menos un año más que la duración promedio de una
muestra de 49 cinescopios del fabricante B?
40.- Si X representa la media de una muestra aleatoria de tamaño n,
seleccionada con reemplazo, de la población discreta
x 2 3 7
p X (x ) 13 13 13
y si Y representa la media de una muestra aleatoria de tamaño m,
seleccionada con reemplazo, de la población discreta
x 1 3
p Y (x ) 23 13
Si se sacan con reemplazo muestras independientes de tamaño n = 125
y m = 100 . ¿Cuál es la probabilidad de que X − Y sea mayor que 1.84,
pero menor que 2.63? Asumir que las medias muestrales pueden medirse
con cualquier grado de precisión.
Introducción al Cálculo de Probabilidades 319
TABLAS
r
Tabla A-1 Sumas de probabilidades binomiales.B(r; n, p) = ∑ b (x; n, p)
x =0
P
n r .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
1 0 .9000 .8000 .7500 .7000 .6000 .5000 .4000 .3000 .2000 .1000
1 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
2 0 .8100 .6400 .5625 .4900 .3600 .2500 .1600 .0900 .0400 .0100
1 .9900 .9600 .9375 .9100 .8400 .7500 .6400 .5100 .3600 .1900
2 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
3 0 .7290 .5120 .4219 .3430 .2160 .1250 .0640 .0270 .0080 .0010
1 .9720 .8960 .8438 .7840 .6480 .5000 .3520 .2160 .1040 .0280
2 .9990 .9920 .9844 .9730 .9360 .8750 .7840 .6570 .4880 .2710
3 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
4 0 .6561 .4096 .3164 .2401 .1296 .0625 .0256 .0081 .0016 .0001
1 .9477 .8192 .7383 .6517 .4752 .3125 .1792 .0837 .0272 .0037
2 .9963 .9728 .9492 .9163 .8208 .6875 .5248 .3483 .1808 .0523
3 .9999 .9984 .9961 .9919 .9744 .9375 .8704 .7599 .5904 .3439
4 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
5 0 .5905 .3277 .2373 .1681 .0778 .0312 .0102 .0024 .0003 .0000
1 .9185 .7373 .6328 .5282 .3370 .1875 .0870 .0308 .0067 .0005
2 .9914 .9421 .8965 .8369 .6826 .5000 .3174 .1631 .0579 .0086
3 .9995 .9933 .9844 .9692 .9130 .8125 .6630 .4718 .2627 .0815
4 1.0000 .9997 .9990 .9976 .9898 .9688 .9222 .8319 .6723 .4095
5 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
6 0 .5314 .2621 .1780 .1176 .0467 .0156 .0041 .0007 .0001 .0000
1 .8857 .6554 .5339 .4202 .2333 .1094 .0410 .0109 .0016 .0001
2 .9841 .9011 .8306 .7443 .5443 .3438 .1792 .0705 .0170 .0013
3 .9987 .9830 .9624 .9295 .8208 .6563 .4557 .2557 .0989 .0158
4 .9999 .9984 .9954 .9891 .9590 .8906 .7667 .5798 .3447 .1143
5 1.0000 .9999 .9998 .9993 .9959 .9844 .9533 .8824 .7379 .4686
6 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
r
Tabla A-1(Continuación) Sumas de probabilidades binomiales.B(r;n,p)= ∑ b (x;n,p)
x =0
P
n r .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
8 0 .4305 .1678 .1001 .0576 .0168 .0039 .0007 .0001 .0000
1 .8131 .5033 .3671 .2553 .1064 .0352 .0085 .0013 .0001
2 .9619 .7969 .6785 .5518 .3154 .1445 .0498 .0113 .0012 .0000
3 .9950 .9437 .8862 .8059 .5941 .3633 .1737 .0580 .0104 .0004
4 .9996 39896 .9727 .9420 .8263 .6367 .4059 .1941 .0563 .0050
5 1.0000 .9988 .9958 .9887 .9502 .8555 .6846 .4482 .2031 .0381
6 .9991 .9996 .9987 .9915 .9648 .8936 .7447 .4967 .1869
7 1.0000 1.0000 .9999 .9993 .9961 .9832 .9424 .8322 .5695
8 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
r
Tabla A-1(Continuación) Sumas de probabilidades binomiales. B(r; n,p)= ∑ b (x;n,p)
x =0
P
n r .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
12 0 .2824 .0687 .0317 .0138 .0022 .0002 .0000
1 .6590 .2749 .1584 .0850 .0196 .0032 .0003 .0000
2 .8891 .5583 .3907 .2528 .0834 .0193 .0028 .0002 .0000
3 .9744 .7946 .6488 .4925 .2253 .0730 .0153 .0017 .0001
4 .9957 .9274 .8424 .7237 .4382 .1938 .0573 .0095 .0006 .0000
5 .9995 .9806 .9456 .8821 .6652 .3872 .1582 .0386 .0039 .0001
6 .9999 .9961 .9857 .9614 .8418 .6128 .3348 .1178 .0194 .0005
7 1.0000 .9994 .9972 .9905 .9427 .8062 .5618 .2763 .0726 .0043
8 .9999 .9996 .9983 .9847 .9270 .7747 .5075 .2054 .0256
9 1.0000 1.0000 .9998 .9972 .9807 .9166 .7472 .4417 .1109
10 1.0000 .9997 .9968 .9804 .9150 .7251 .3410
11 1.0000 .9998 .9978 .9862 .9313 .7176
12 1.0000 1.0000 1.0000 1.0000 1.0000
r
Tabla A-1(Continuación) Sumas de probabilidades binomiales.B(r; n,p)= ∑ b (x;n,p)
x =0
P
n r .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
15 0 .2059 .0352 .0134 .0047 .0005 .0000
1 .5490 .1671 .0802 .0353 .0052 ..0005 .0000
2 .8159 .3980 .2361 .1268 .0271 .0037 .0003 .0000
3 .9444 .6482 .4613 .2969 .0905 .0176 .0019 .0001
4 .9873 .8358 .6865 .5155 .2173 .0592 .0094 .0007 .0000
5 .9978 .9389 .8516 .7216 .4032 .1509 .0338 .0037 .0001
6 .9997 .9819 .9434 .8689 .6098 .3036 .0951 .0152 .0008
7 1.0000 .9958 .9827 .9500 .7869 .5000 .2131 .0500 .0042 .0000
8 .9992 .9958 .9848 .9050 .6964 .3902 .1311 .0181 .0003
9 .9999 .9992 .9963 .9662 .8491 .5968 .2784 .0611 .0023
10 1.0000 .9999 .9993 .9907 .9408 .7827 .4845 .1642 .0127
11 1.0000 .9999 .9981 .9824 .9095 .7031 .3518 .0556
12 1.0000 .9997 .9963 .9729 .8732 .6020 .1841
13 1.0000 .9995 .9948 .9647 .8329 .4510
14 1.0000 .9995 .9953 .9648 .7941
15 1.0000 1.0000 1.0000 1.0000
r
Tabla A-1(Continuación) Sumas de probabilidades binomiales.B(r; n,p)= ∑ b (x;n,p)
x =0
P
n r .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
17 0 .1668 .0225 .0075 .0023 .0002 .0000
1 .4818 .1182 .0501 .0193 .0021 .0001 .0000
2 .7618 .3096 .1637 .0774 .0123 .0012 .0001
3 .9174 .5489 .3530 .2019 .0464 .0064 .0005 .0000
4 .9779 .7582 .5739 .3887 .1260 .0245 .0025 .0001
5 .9953 .8943 .7653 .5968 .2639 .0717 .0106 .0007 .0000
6 .9992 .9623 .8929 .7752 .4478 .1662 .0348 .0032 .0001
7 .9999 .9891 .9598 .8954 .6405 .3145 .0919 .0127 .0005
8 1.0000 .9974 .9876 .9597 .8011 .5000 .1989 .0403 .0026 .0000
9 .9995 .9969 .9873 .9081 .6855 .3595 .1046 .0109 .0001
10 .9999 .9994 .9968 .9652 .8338 .5522 .2248 .0377 .0008
11 1.0000 .9999 .9993 .9894 .9283 .7361 .4032 .1057 .0047
12 1.0000 .9999 .9975 .9755 .8740 .6113 .2418 .0221
13 1.0000 .9995 .9936 .9536 .7981 .4511 .0826
14 .9999 .9988 .9877 .9226 .6904 .2382
15 1.0000 .9999 .9979 .9807 .8818 .5182
16 1.0000 .9998 .9977 .9775 .8332
17 1.0000 1.0000 1.0000 1.0000
r
Tabla A-1(Continuación) Sumas de probabilidades binomiales.B(r; n,p)= ∑ b (x;n,p)
x =0
P
n r .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
19 0 .1351 .0144 .0042 .0011 .0001
1 .4203 .0829 .0310 .0104 .0008 .0000
2 .7054 .2369 .1113 .0462 .0055 .0004 .0000
3 .8850 .4551 .2631 .1332 .0230 .0022 .0001
4 .9648 .6733 .4654 .2822 .0696 .0096 .0006 .0000
5 .9914 .8369 .6678 .4739 .1629 .0318 .0031 .0001
6 .9983 .9324 .8251 .6655 .3081 .0835 .0116 .0006
7 .9997 .9767 .9225 .8180 .4878 .1796 .0352 .0028 .0000
8 1.0000 .9933 .9713 .9161 .6675 .3238 .0885 .0105 .0003
9 .9984 .9911 .9674 .8139 .5000 .1861 .0326 .0016
10 .9997 .9977 .9895 .9115 .6762 .3325 .0839 .0067 .0000
11 .9999 .9995 .9972 .9648 .8204 .5122 .1820 .0233 .0003
12 1.0000 .9999 .9994 .9884 .9165 .6919 .3345 .0676 .0017
13 1.0000 .9999 .9969 .9682 .8371 .5261 .1631 .0086
14 1.0000 .9994 .9904 .9304 .7178 .3267 .0352
15 .9999 .9978 .9770 .8668 .5449 .1150
16 1.0000 .9996 .9945 .9538 .7631 .2946
17 1.0000 .9992 .9896 .9171 .5797
18 .9999 .9989 .9856 .8649
19 1.0000 1.0000 1.0000 1.0000
λ
r 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
0 0.9048 0.8187 0.7408 0.6730 0.6065 0.5488 0.4966 0.4493 0.4066
1 0.9953 0.9825 0.9631 0.9384 0.9098 0.8781 0.8442 0.8088 0.7725
2 0.9998 0.9989 0.9964 0.9921 0.9856 0.9739 0.9659 0.9526 0.9371
3 1.0000 0.9999 0.9997 0.9992 0.9982 0.9966 0.9942 0.9909 0.9865
4 1.0000 1.0000 0.9999 0.9998 0.9996 0.9992 0.9986 0.9977
5 1.0000 1.0000 1.0000 0.9999 0.9998 0.9997
6 1.0000 1.0000 1.0000
r
Tabla A-2 Sumas de probabilidades de Poisson. P(r ; λ) = ∑ p (x ; λ )
x =0
λ
r 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0
0 0.3679 0.2231 0.1353 0.0821 0.0498 0.0302 0.0183 0.0111 0.0067
1 0.7358 0.5578 0.4060 0.2873 0.1991 0.1359 0.0916 0.0611 0.0404
2 0.9197 0.8088 0.6767 0.5438 0.4232 0.3208 0.2381 0.1736 0.1247
3 0.9810 0.9344 0.8571 0.7576 0.6472 0.5366 0.4335 0.3423 0.2650
4 0.9963 0.9814 0.9473 0.8912 0.1853 0.7254 0.6288 0.5321 0.4405
5 0.9994 0.9955 0.9834 0.9580 0.9161 0.8576 0.7851 0.7029 0.6160
6 0.9999 0.9991 0.9955 0.9858 0.9665 0.9347 0.8893 0.8311 0.7622
7 1.0000 0.9998 0.9989 0.9958 0.9881 0.9733 0.9489 0.9134 0.8666
8 1.0000 0.9998 0.9989 0.9962 0.9901 0.9786 0.9597 0.9319
9 1.0000 0.9997 0.9989 0.9967 0.9919 0.9829 0.9682
10 0.9999 0.9997 0.9990 0.9972 0.9933 0.9863
11 1.0000 0.9999 0.9997 0.9991 0.9976 0.9945
12 1.0000 0.9999 0.9997 0.9992 0.9980
13 1.0000 0.9999 0.9997 0.9993
14 1.0000 0.9999 0.9998
15 1.0000 0.9999
16 1.0000
326 Hugo Cornejo Villena & Hugo Cornejo Rosell.
r
Tabla A-2 (Continuación)Sumas de probabilidades de Poisson. P(r ; λ) = ∑ p (x ; λ )
x =0
λ
r 5.5 6.0 6.5 7.0 7.5 8.0 8.5 9.0 9.5
0 0.0041 0.0025 0.0015 0.0009 0.0006 0.0003 0.0002 0.0001 0.0001
1 0.0266 0.0174 0.0113 0.0073 0.0047 0.0030 0.0019 0.0012 0.0008
2 0.0884 0.0620 0.0430 0.0296 0.0203 0.0138 0.0093 0.0062 0.0042
3 0.2017 0.1512 0.1118 0.0818 0.0591 0.0424 0.0301 0.0212 0.0149
4 0.3575 0.2851 0.2237 0.1730 0.1321 0.0996 0.0744 0.0550 0.0403
5 0.5289 0.4457 0.3690 0.3007 0.2414 0.1912 0.1496 0.1157 0.0885
6 0.6860 0.6063 0.5265 0.4497 0.3782 0.3134 0.2562 0.2068 0.1649
7 0.8095 0.7440 0.6728 0.5987 0.5246 0.4530 0.3856 0.3239 0.2687
8 0.8944 0.8472 0.7916 0.7291 06620 0.5925 0.5231 0.4557 0.3918
9 0.9462 0.9161 0.8774 0.8305 0.7764 0.7166 0.6530 0.5874 0.5218
10 0.9747 0.9574 0.9332 0.9015 0.8622 0.8159 0.7634 0.7060 0.6453
11 0.9890 0.9799 0.9661 0.9466 0.9208 0.8881 0.8487 0.8030 0.7520
12 0.9955 0.9912 0.9840 0.9730 0.9573 0.9362 0.9091 0.8758 0.8364
13 0.9983 0.9964 0.9929 0.9872 0.9784 0.9658 0.9486 0.9261 0.8981
14 0.9994 0.9986 0.9970 0.9943 0.9897 0.9827 0.9726 0.9585 0.9400
15 0.9998 0.9995 0.9988 0.9976 0.9954 0.9918 0.9862 0.9780 0.9665
16 0.9999 0.9998 0.9996 0.9990 0.9980 0.9963 0.9934 0.9889 0.9823
17 1.0000 0.9999 0.9998 0.9996 0.9992 0.9984 0.9970 0.9947 0.9911
18 1.0000 0.9999 0.9999 0.9997 0.9994 0.9987 0.9976 0.9957
19 1.0000 1.0000 0.9999 0.9997 0.9995 0.9989 0.9980
20 1.0000 0.9999 0.9998 0.9996 0.9991
21 1.0000 0.9999 0.9998 0.9996
22 1.0000 0.9999 0.9999
23 1.0000 0.9999
24 1.0000
Introducción al Cálculo de Probabilidades 327
r
Tabla A-2 (Continuación)Sumas de probabilidades de Poisson. P(r ; λ) = ∑ p (x ; λ )
x =0
λ
r 10.0 11.0 12.0 13.0 14.0 15.0 16.0 17.0 18.0
0 0.0000 0.0000 0.0000
1 0.0005 0.0002 0.0001 0.0000 0.0000
2 0.0028 0.0012 0.0005 0.0002 0.0001 0.0000 0.0000
3 0.0103 0.0049 0.0023 0.0010 0.0005 0.0002 0.0001 0.0000 0.0000
4 0.0293 0.0151 0.0076 0.0037 0.0018 0.0009 0.0004 0.0002 0.0001
5 0.0671 0.0375 0.0203 0.0107 0.0055 0.0028 0.0014 0.0007 0.0003
6 0.1301 0.0786 0.0458 0.0259 0.0142 0.0076 0.0040 0.0021 0.0010
7 0.2202 0.1432 0.0895 0.0540 0.0316 0.0180 0.0100 0.0054 0.0029
8 0.3328 0.2320 0.1550 0.0998 0.0621 0.0374 0.0220 0.0126 0.0071
9 0.4579 0.3405 0.2424 0.1658 0.1094 0.0699 0.0433 0.0261 0.0154
10 0.5830 0.4599 0.3472 0.2517 0.1757 0.1185 0.0774 0.0491 0.0304
11 0.6968 0.5793 0.4616 0.3532 0.2600 0.1848 0.1270 0.0847 0.0549
12 0.7916 0.6887 0.5760 0.4631 0.3585 0.2676 0.1931 0.1350 0.0917
13 0.8645 0.7813 0.6815 0.5730 0.4644 0.3632 0.2745 0.2009 0.1426
14 0.9165 0.8540 0.7720 0.6751 0.5704 0.4657 0.3675 0.2808 0.2081
15 0.9513 0.9074 0.8444 0.7636 0.6694 0.5681 0.4667 0.3715 0.2867
16 0.9730 0.9441 0.8987 0.8355 0.7559 0.6641 0.5660 0.4677 0.3750
17 0.9857 0.9678 0.9370 0.8905 0.8272 0.7489 0.6593 0.5640 0.4686
18 0.9928 0.9823 0.9626 0.9302 0.8826 0.8195 0.7423 0.6550 0.5622
19 0.9965 0.9907 0.9787 0.9573 0.9235 0.8752 0.8122 0.7363 0.6509
20 0.9984 0.9953 0.9884 0.9750 0.9521 0.9170 0.8682 0.8055 0.7307
21 0.9993 0.9977 0.9939 0.9859 0.9712 0.9469 0.9108 0.8615 0.7991
22 0.9997 0.9990 0.9970 0.9924 0.9833 0.9673 0.9418 0.9047 0.8551
23 0.9999 0.9995 0.9985 0.9960 0.9907 0.9805 0.9633 0.9367 0.8989
24 1.0000 0.9998 0.9993 0.9980 0.9950 0.9888 0.9777 0.9594 0.9317
25 0.9999 0.9997 0.9990 0.9974 0.9938 0.9869 0.9748 0.9554
26 1.0000 0.9999 0.9995 0.9987 0.9967 0.9925 0.9848 0.9718
27 0.9999 0.9998 0.9994 0.9983 0.9959 0.9912 0.9827
28 1.0000 0.9999 0.9997 0.9991 0.9978 0.9950 0.9897
29 1.0000 0.9999 0.9996 0.9989 0.9973 0.9941
30 0.9999 0.9998 0.9994 0.9986 0.9967
31 1.0000 0.9999 0.9997 0.9993 0.9982
32 1.0000 0.9999 0.9996 0.9990
33 0.9999 0.9998 0.9995
34 1.0000 0.9999 0.9998
35 1.0000 0.9999
36 0.9999
37 1.0000
328 Hugo Cornejo Villena & Hugo Cornejo Rosell.
Z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09
-3.4 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0002
-3.3 .0005 .0005 .0005 .0004 .0004 .0004 .0004 .0004 .0004 .0003
-3.2 .0007 .0007 .0006 .0006 .0006 .0006 .0006 .0005 .0005 .0005
-3.1 .0010 .0009 .0009 .0009 .0008 .0008 .0008 .0008 .0007 .0007
-3.0 .0013 .0013 .0013 .0012 .0012 .0011 .0011 .0011 .0010 .0010
-2.9 .0019 .0018 .0017 .0017 .0016 .0016 .0015 .0015 .0014 .0014
-2.8 .0026 .0025 .0024 .0023 .0023 .0022 .0021 .0021 .0020 .0019
-2.7 .0035 .0034 .0033 .0032 .0031 .0030 .0029 .0028 .0027 .0026
-2.6 .0047 .0045 .0044 .0043 .0041 .0040 .0039 .0038 .0037 .0036
-2.5 .0062 .0060 .0059 .0057 .0055 .0054 .0052 .0051 .0049 .0048
-2.4 .0082 .0080 .0078 .0075 .0073 .0071 .0069 .0068 .0066 .0064
-2.3 .0107 .0104 .0102 .0099 .0096 .0094 .0091 .0089 .0087 .0084
-2.2 .0139 .0136 .0132 .0129 .0125 .0122 .0119 .0116 .0113 .0110
-2.1 .0179 .0174 .0170 .0166 .0162 .0158 .0154 .0150 .0146 .0143
-2.0 .0228 .0222 .0217 .0212 .0207 .0202 .0197 .0192 .0188 .0183
-1.9 .0287 .0281 .0274 .0268 .0262 .0256 .0250 .0244 .0239 .0233
-1.8 .0359 .0352 .0344 .0336 .0329 .0322 .0314 .0307 .0301 .0294
-1.7 .0446 .0436 .0427 .0418 .0409 .0401 .0392 .0384 .0375 .0367
-1.6 .0548 .0537 .0526 .0516 .0505 .0495 .0485 .0475 .0465 .0455
-1.5 .0668 .0655 .0643 .0630 .0618 .0606 .0594 .0582 .0571 .0559
-1.4 .0808 .0793 .0778 .0764 .0749 .0735 .0722 .0708 .0694 .0681
-1.3 .0968 .0951 .0934 .0918 .0901 .0885 .0869 .0853 .0838 .0823
-1.2 .1151 .1131 .1112 .1093 .1075 .1056 .1038 .1020 .1003 .0985
-1.1 .1357 .1335 .1314 .1292 .1271 .1251 .1230 .1210 .1190 .1170
-1.0 .1587 .1562 .1539 .1515 .1492 .1469 .1446 .1423 .1401 .1379
-0.9 .1841 .1814 .1788 .1762 .1736 .1711 .1685 .1660 .1635 .1611
-0.8 .2119 .2092 .2061 .2033 .2005 .1977 .1949 .1922 .1894 .1867
-0.7 .2420 .2389 .2358 .2327 .2296 .2266 .2236 .2206 .2177 .2148
-0.6 .2743 .2709 .2676 .2643 .2611 .2578 .2546 .2514 .2483 .2451
-0.5 .3085 .3050 .3015 .2981 .2946 .2912 .2877 .2843 2810 .2776
-0.4 .3446 .3409 .3372 .3336 .3300 .3264 .3228 .3192 .3156 .3121
-0.3 .3821 .3783 .3745 .3707 .3669 .3632 .3594 .3557 .3520 .3483
-0.2 .4207 .4168 .4129 .4090 .4052 .4013 .3974 .3936 .3897 .3859
-0.1 .4602 .4562 .4522 .4483 .4443 .4404 .4364 .4325 .4286 .4247
-0.0 .5000 .4960 .4920 .4880 .4840 .4801 .4761 .4721 .4681 .4641
Introducción al Cálculo de Probabilidades 329
z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09
0.0 .5000 .5040 .5080 .5120 .5160 .5199 .5239 .5279 .5319 .5359
0.1 .5398 .5438 .5478 .5517 .5557 .5596 .5636 .5675 .5714 .5753
0.2 .5793 .5832 .5871 .5910 .5948 .5987 .6026 .6064 .6103 .6141
0.3 .6179 .6217 .6255 .6293 .6331 .6368 .6406 .6443 .6480 .6517
0.4 .6554 .6591 .6628 .6664 .6700 .6736 .6772 .6808 .6844 .6879
0.5 .6915 .6950 .6985 .7019 .7054 .7088 .7123 .7157 .7190 .7224
0.6 .7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517 .7549
0.7 .7580 .7611 .7642 .7673 .7704 .7734 .7764 .7794 .7823 .7852
0.8 .7881 .7910 .7939 .7967 .7995 .8023 .8051 .8078 .8106 .8133
0.9 .8159 .8186 .8212 .8238 .8264 .8289 .8315 .8340 .8365 .8389
1.0 .8413 .8438 .8461 .8485 .8508 .8531 .8554 .8577 .8599 .8621
1.1 .8643 .8665 .8686 .8708 .8729 .8749 .8770 .8790 .8810 .8830
1.2 .8849 .8869 .8888 .8907 .8925 .9844 .8962 .8980 .8997 .9015
1.3 .9032 .9049 .9066 .9082 .9099 .9115 .9131 .9147 .9162 .9177
1.4 .9192 .9207 .9222 .9236 .9251 .9265 .9278 .9292 .9306 .9319
1.5 .9332 .9345 .9357 .9370 .9382 .9394 .9406 .9418 .9429 .9441
1.6 .9452 .9463 .9474 .9484 .9495 .9505 .9515 .9525 .9535 .9545
1.7 .9554 .9564 .9573 .9582 .9591 .9599 .9608 .9616 .9625 .9633
1.8 .9641 .9649 .9656 .9664 .9671 .9678 .9686 .9693 .9699 .9706
1.9 .9713 .9719 .9726 .9732 .9738 .9744 .9750 .9756 .9761 .9767
2.0 .9772 .9778 .9783 .9788 .9793 .9798 .9803 .9808 .9812 .9817
2.1 .9821 .9826 .9830 .9834 .9838 .9842 .9846 .9850 .9854 .9857
2.2 .9861 .9864 .9868 .9871 .9875 .9878 .9881 .9884 .9887 .9890
2.3 .9893 .9896 .9898 .9901 .9904 .9906 .9909 .9911 .9913 .9916
2.4 .9918 .9920 .9922 .9925 .9927 .9929 .9931 .9932 .9934 .9936
2.5 .9938 .9940 .9941 .9943 .9945 .9946 .9948 .9949 .9951 .9952
2.6 .9953 .9955 .9956 .9957 .9959 .9960 .9961 .9962 .9963 .9964
2.7 .9965 .9966 .9967 .9968 .9969 .9970 .9971 .9972 .9973 .9974
2.8 .9974 .9975 .9976 .9977 .9977 .9978 .9979 .9979 .9980 .9981
2.9 .9981 .9982 .9982 .9983 .9984 .9984 .9985 .9985 .9986 .9986
3.0 .9987 .9987 .9987 .9988 .9988 .9989 .9989 .9989 .9990 .9990
3.1 .9990 .9991 .9991 .9991 .9992 .9992 .9992 .9992 .9993 .9993
3.2 .9993 .9993 .9994 .9994 .9994 .9994 .9994 .9995 .9995 .9995
3.3 .9995 .9995 .9995 .9996 .9996 .9996 .9996 .9996 .9996 .9997
3.4 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9998
330 Hugo Cornejo Villena & Hugo Cornejo Rosell.
2
P[X ≤ X α ] = P[ X ≤ x] = α
R
0.010 0.025 0.050 0.100 0.900 0.950 0.975 0.990
1 0.000 0.001 0.004 0.016 2.706 3.841 5.024 6.635
2 0.020 0.051 0.103 0.211 4.605 5.991 7.378 9.210
3 0.115 0.216 0.352 0.584 6.251 7.815 9.348 11.34
4 0.297 0.484 0.711 1.064 7.779 9.488 11.14 13.28
5 0.554 0.831 1.145 1.610 9.236 11.07 12.83 15.09
6 0.872 1.237 1.635 2.204 10.64 12.59 14.45 16.81
7 1.239 1.690 2.167 2.833 12.02 14.07 16.01 18.48
8 1.646 2.180 2.733 3.490 13.36 15.51 17.54 20.09
9 2.088 2.700 3.325 4.168 14.68 16.92 19.02 21.67
10 2.558 3.247 3.940 4.865 15.99 18.31 20.48 23.21
11 3.053 3.816 4.575 5.578 17.28 19.68 21.92 24.72
12 3.571 4.404 5.226 6.304 18.55 21.03 23.34 26.22
13 4.107 5.009 5.892 7.042 19.81 22.36 24.74 27.69
14 4.660 5.629 6.571 7.790 21.06 23.68 26.12 29.14
15 5.229 6.262 7.261 8.547 22.31 25.00 27.49 30.58
16 5.812 6.908 7.962 9.312 23.54 26.30 28.84 32.00
17 6.408 7.564 8.672 10.08 24.77 27.59 30.19 33.41
18 7.015 8.231 9.390 10.86 25.99 28.87 31.53 34.80
19 7.633 8.907 10.12 11.65 27.20 30.14 32.85 36.19
20 8.260 9.591 10.85 12.44 28.41 30.41 34.17 37.57
21 8.897 10.28 11.59 13.24 29.62 32.67 35.48 38.93
22 9.542 10.98 12.34 14.04 30.81 33.92 36.78 40.29
23 10.20 11.69 13.09 14.85 32.01 35.17 38.08 41.64
24 10.86 12.40 13.85 15.66 33.20 36.42 39.36 42.98
25 11.52 13.12 14.61 16.47 34.38 37.65 40.65 44.31
26 12.20 13.84 15.38 17.29 35.56 38.88 41.92 45.64
27 12.88 14.57 16.15 18.11 36.74 40.11 43.19 46.96
28 13.56 15.31 16.93 18.94 37.92 41.34 44.46 48.28
29 14.26 16.05 17.71 19.77 39.09 42.56 45.72 49.59
30 14.95 16.79 18.49 20.60 40.26 43.77 46.98 50.89
40 22.16 24.43 26.51 29.05 51.80 55.76 59.34 63.69
50 29.71 32.36 34.76 37.69 63.17 67.50 71.42 76.15
60 37.48 40.48 43.19 46.46 74.40 79.08 83.30 88.38
70 45.44 48.76 51.74 55.33 85.53 90.53 95.02 100.4
80 53.34 57.15 60.39 64.28 96.58 101.9 106.6 112.3
Introducción al Cálculo de Probabilidades 331
r1
r2
1 2 3 4 5 6 7 8 9 10 12 15 20 30 60 120
0,900 10 3,29 2,92 2,73 2,61 2,52 2,46 2,41 2,38 2,35 2,32 2,28 2,24 2,20 2,16 2,11 2,08 2,06
0,950 10 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3,07 3,02 2,98 2,91 2,85 2,77 2,70 2,62 2,58 2,54
0,975 10 6,94 5,46 4,83 4,47 4,24 4,07 3,95 3,85 3,78 3,72 3,62 3,52 3,42 3,31 3,20 3,14 3,08
0,990 10 10,04 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94 4,85 4,71 4,56 4,41 4,25 4,08 4,00 3,91
0,995 10 12,83 9,43 8,08 7,34 6,87 6,54 6,30 6,12 5,97 5,85 5,66 5,47 5,27 5,07 4,86 4,75 4,64
0,900 12 3,18 2,81 2,61 2,48 2,39 2,33 2,28 2,24 2,21 2,19 2,15 2,10 2,06 2,01 1,96 1,93 1,90
0,950 12 4,75 3,89 3,49 3,26 3,11 3,00 2,91 2,85 2,80 2,75 2,69 2,62 2,54 2,47 2,38 2,34 2,30
0,975 12 6,55 5,10 4,47 4,12 3,89 3,73 3,61 3,51 3,44 3,37 3,28 3,18 3,07 2,96 2,85 2,79 2,73
0,990 12 9,33 6,93 5,95 5,41 5,06 4,82 4,64 4,50 4,39 4,30 4,16 4,01 3,86 3,70 3,54 3,45 3,36
0,995 12 11,75 8,51 7,23 6,52 6,07 5,76 5,52 5,35 5,20 5,09 4,91 4,72 4,53 4,33 4,12 4,01 3,91
0,900 15 3,07 2,70 2,49 2,36 2,27 2,21 2,16 2,12 2,09 2,06 2,02 1,97 1,92 1,87 1,82 1,79 1,76
0,950 15 4,54 3,68 3,29 3,06 2,90 2,79 2,71 2,64 2,59 2,54 2,48 2,40 2,33 2,25 2,16 2,11 2,07
0,975 15 6,20 4,77 4,15 3,80 3,58 3,41 3,29 3,20 3,12 3,06 2,96 2,86 2,76 2,64 2,52 2,46 2,40
0,990 15 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89 3,80 3,67 3,52 3,37 3,21 3,05 2,96 2,87
0,995 15 10,80 7,70 6,48 5,80 5,37 5,07 4,85 4,67 4,54 4,42 4,25 4,07 3,88 3,69 3,48 3,37 3,26
0,900 20 2,97 2,59 2,38 2,25 2,16 2,09 2,04 2,00 1,96 1,94 1,89 1,84 1,79 1,74 1,68 1,64 1,61
0,950 20 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 2,39 2,35 2,28 2,20 2,12 2,04 1,95 1,90 1,84
0,975 20 5,87 4,46 3,86 3,51 3,29 3,13 3,01 2,91 2,84 2,77 2,68 2,57 2,46 2,35 2,22 2,16 2,09
0,990 20 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46 3,37 3,23 3,09 2,94 2,78 2,61 2,52 2,42
0,995 20 9,94 6,99 5,82 5,17 4,76 4,47 4,26 4,09 3,96 3,85 3,68 3,50 3,32 3,12 2,92 2,81 2,69
0,900 30 2,88 2,49 2,28 2,14 2,05 1,98 1,93 1,88 1,85 1,82 1,77 1,72 1,67 1,61 1,54 1,50 1,46
0,950 30 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 2,21 2,16 2,09 2,01 1,93 1,84 1,74 1,68 1,62
0,975 30 5,57 4,18 3,59 3,25 3,03 2,87 2,75 2,65 2,57 2,51 2,41 2,31 2,20 2,07 1,94 1,87 1,79
0,990 30 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07 2,98 2,84 2,70 2,55 2,39 2,21 2,11 2,01
0,995 30 9,18 6,35 5,24 4,62 4,23 3,95 3,74 3,58 3,45 3,34 3,18 3,01 2,82 2,63 2,42 2,30 2,18
0,900 60 2,79 2,39 2,18 2,04 1,95 1,87 1,82 1,77 1,74 1,71 1,66 1,60 1,54 1,48 1,40 1,35 1,29
0,950 60 4,00 3,15 2,76 2,53 2,37 2,25 2,17 2,10 2,04 1,99 1,92 1,84 1,75 1,65 1,53 1,47 1,39
0,975 60 5,29 3,93 3,34 3,01 2,79 2,63 2,51 2,41 2,33 2,27 2,17 2,06 1,94 1,82 1,67 1,58 1,48
0,990 60 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 2,72 2,63 2,50 2,35 2,20 2,03 1,84 1,73 1,60
0,995 60 8,49 5,79 4,73 4,14 3,76 3,49 3,29 3,13 3,01 2,90 2,74 2,57 2,39 2,19 1,96 1,83 1,69
0,900 120 2,75 2,35 2,13 1,99 1,90 1,82 1,77 1,72 1,68 1,65 1,60 1,55 1,48 1,41 1,32 1,26 1,19
0,950 120 3,92 3,07 2,68 2,45 2,29 2,18 2,09 2,02 1,96 1,91 1,83 1,75 1,66 1,55 1,43 1,35 1,26
0,975 120 5,15 3,80 3,23 2,89 2,67 2,52 2,39 2,30 2,22 2,16 2,05 1,94 1,82 1,69 1,53 1,43 1,31
0,990 120 6,85 4,79 3,95 3,48 3,17 2,96 2,79 2,66 2,56 2,47 2,34 2,19 2,03 1,86 1,66 1,53 1,38
0,995 120 8,18 5,54 4,50 3,92 3,55 3,28 3,09 2,93 2,81 2,71 2,54 2,37 2,19 1,98 1,75 1,61 1,43
0,900 2,71 2,30 2,08 1,94 1,85 1,77 1,72 1,67 1,63 1,60 1,55 1,49 1,42 1,34 1,24 1,17 1,02
0,950 3,84 3,00 2,60 2,37 2,21 2,10 2,01 1,94 1,88 1,83 1,75 1,67 1,57 1,46 1,32 1,22 1,02
0,975 5,02 3,69 3,12 2,79 2,57 2,41 2,29 2,19 2,11 2,05 1,94 1,83 1,71 1,57 1,39 1,27 1,03
0,990 6,63 4,61 3,78 3,32 3,02 2,80 2,64 2,51 2,41 2,32 2,18 2,04 1,88 1,70 1,47 1,32 1,03
0,995 7,88 5,30 4,28 3,72 3,35 3,09 2,90 2,74 2,62 2,52 2,36 2,19 2,00 1,79 1,53 1,36 1,04
Introducción al Cálculo de Probabilidades 333
p
0.75 0.90 0.95 0.975 0.99 0.995 0.9995
r
CAPITULO I
1. a) Ω = {6, 12, 18, 24, 30}, b) Ω ={C, CS, CCS, CCC}, c) Ω = φ .
2. Ω = {(x , y ) / x = 1,2,....,10; y = 1,2,....,10} .
3. Ω ={(x,y)/x= calvo, recortado, pelucón; y = ojos negros, ojos pardos}.
A= {(pelucón, ojos negros), (pelucón, ojos pardos)}.
B = {(calvo, ojos pardos),(recortado, ojos pardos),(pelucón ,ojos pardos)}.
C = {(recortado, ojos negros)}.
4. Ω = {( xi , xi , xi ) / xi = 1,2, ,....,7; i = 1,2,3; no hay dos xi iguales}.
A= {(4, x i , x i ) / x i = 1,2,....,7; i = 2,3; x 2 ≠ x 3 , x 2 ≠ 4, x 3 ≠ 4} .
B = {(x i , x i ,4 ) / x i = 1,2,....,7; i = 1,2; x 1 ≠ 4, x 2 ≠ 4, x 1 ≠ x 2 } .
C= {(xi , xi , xi ) / xi = 1,2,......,7; xi ≠ 4; i = 1,2,3}.
5. Ω = {x / x = 0,1,2,....,50}, A = {x / x = 9,10,....,50}.
B= {x / x = 0,1,......,9}, C = {x / x = 9} = A ∩ B.
6. Ω = {( x1 , x 2 ) / xi = 0,1,....,50; i = 1,2}
A = {( x1 , x 2 ) / x1 = 9,10,....,50; x 2 = 0,1,....50},
B = {( x1 , x 2 ) / x1 = 0,1,....,50; x 2 = 9,10,....50},
C =. {( x1 , x 2 ) / x1 = 9,10,....,50; x 2 = 9,10,....50}.
7. Ω = {1CC,1CS,1SC,1SS,2C,2S,3CC,3CS,3SC,3SS,4C,4S,5CC,5CS,5SC,
5SS,6C,6S}.
8. A = {1CC,1CS,1SC,1SS,2C,2S}, B = {1SS,3SS,5SS},
A’= {3CC,3CS,3SC,3SS,4C,4S,5CC,5CS,5SC,5SS,6C,6S},A’ ∩ B={3SS,5SS}
9. a) 121 , b) 19 ; 10. 18 ; 1
11. a) 52 , b) 134 , 1
c) 13 ; 1
12. 200 ;
15. Ω ={DD,NDD,DNDD,DNDN,DNND,NDND,NDNN,NNDD,NNDN,DNNN,NNND,NNNN}
16. a) Ω = {CCC,CCS,CSC,CSS,SCC,SCS,SSC, SSS}, b) 83 , c) 12 , d) 1;
17. a) Ω = {Ai Bi / i = 1,2,3} , b) 4
9
1
3 ; 18. a) 16 ,
, c) 9
b) 1
2 ; 19. a) 1
4 ,
b) 1
6 , 3
c) 14 , d) 12 , e) 34 , f) , g) 34 ;
4 20. 14 ; 21. 1
4 ; 22. 1
4
8 5
23. 13 por obstrucción, 134 por combustión, 13
1
por desgaste; 24. 8 ; 25. a) 0.7, b)
0.5; 26. a) 0.94 , b) 0.59, c) 0.86; 28. a) 0.6, b) 0.48, c) 0.52, d) 0.38;
29. a) 18 , b) 0, c) 18 ; 30. a) 43 a favor, b) 191 en contra, c) 4 a favor.
CAPITULO II
1. 24,300; 2. 120; 3. a) 40, b) 20, c) 40; 4. 36; 5. 6, 6. 120; 7. 9;
8. 120; 9. 720; 10. 362,880; 11. 5,040; 12. 24; 13. 288; 14. 120 y 24;
15. 1,728; 16. 10; 17. 15; 18. 5; 19. 336; 20. 120; 21. a) 24, b) 6;
22. 420; 23. a) 1,152, b) 504, c) 648; 24. a) 5,040, b) 2,520, c) 10,080;
Introducción al Cálculo de Probabilidades 335
25. a) 120, b) 24, c) 24, d) 12; 26. a) a+b, b) i) 504, ii) 180; 28. a) n=9,
b) n=5; 29. 6561; 30. 216; 31. 6840; 32. 455; 33. 8,820;
34. 210; 35. 66; 36. a) 45, b) 28, c) 120, d) 36, e) 8; 37. 672; 38. a)
286, b) 165, c) 110, d) 80, e) 276.
CAPITULO III
39 39
4 3
1. a) 1
3 , b) 3
11 ; 2. 9
230 ; 3. 1 −
49
− 10
49
; 4. a) 1
4 , b) 5
8 ; 5. 5
9 ; 6.
4 4
98 62
48 5
a) 2
105 , b) 2
5 ; 7. 5
28 ; 8.
100 − 98
; 9. 4
11 ; 10. a) 1−
39
, b)
50 50 5
34 + 5 34 3 36
14 12
5
1−
39
, c) 39 39
; 12. 1
2 ; 13. a) 3
8 , b) 2
5 , c) 1
2 ; 14. 3
8 ;
13 5 13
41 13 2 2
15. a) 0.362, b) 0.406, c) 0.382; 16. a) 72 , b) 36 ; 17. 3 ; 18. a) 15 , b)
5 1 1 3 1 1 1
8 , c) 3 ; 19. a) 10 , b) 10 ; 20. a) 12 , b) 9 , c) 3 ; 21. 0.545;
1 1 3
23. a) P(A)=P(B)=P(C) = 2 , P(AB)=P(AC)=P(BC)= 4 , P(ABC)=0; 24. a) 4 ,
2 1 1 2 5
b) 5 , c) 5; 25. a) 3 , b) 2 , c) 3 ; 26. 16 ; 27. a) 0.995, b) 0.145.
CAPITULO IV
1. a) si, b) no; 2. si;
3.
Ω NNN NNM NMN MNN NMM MNM MMN MMM
x 0 1 1 1 2 2 2 3
4.
Ω CCC CCS CSC SCC CSS SCS SSC SSS
x 3 1 1 1 -1 -1 -1 -3
5. 6.
7.
y 3 4 5 6 7
pY ( y ) 1
6
1
6
2
6
1
6
1
6
8.
z 2 5 8 10 13 17 18 20 25 32
p Z (z ) 1
16
2
16
1
16
2
16
2
16
2
16
1
16
2
16
2
16
1
16
336 Hugo Cornejo Villena & Hugo Cornejo Rosell.
9.
x 15 15.5 16 16.5 17.5 18 18.5 19 19.5 21
p X (x) 3
45
12
45
9
45
4
45
3
45
4
45
4
45
4
45
1
45
1
45
1 1
10. a) 30 , b) 11. a) [ X = 7] = {(1,6), (2,5), (3,4), (4,3), (5,2), (6,1)},
20 ;
[ X = 11] = {(5,6), (6,5), (3,4)},
[ X = 7 ó X = 11] = {(1,6), ( 2,5), (3,4), ( 4,3), (5,2), (6,1), (5,6), (6,5)}
,
b) P[ X = 7 ] = 16 , P[ X = 11] = 1 , P[ X = 7 ó X = 11] = 14 ;
18
1 1 1 1 1 1
12. a) 3 , b) 16 , c) 7 ; 13. a) 3 , b) 16 , c) 7 .
14.
20 2
a) 27 , b) 3 .
15.
18. a) e −1 , b) 0.13212, c) 1
2
e −3 , d) 1 − 12 e −1 , e) 0.972527;
Introducción al Cálculo de Probabilidades 337
21.
a) b)
22. a) b) c) 0.64
23.
a) b) c) 42/45
25. a)
338 Hugo Cornejo Villena & Hugo Cornejo Rosell.
b) c) 9/20, d) 19/20;
1 1 11
28. a) k = 15 , b) 3 , c) 15 ; 32. Dependientes; 33. Independientes
34. Dependientes;
36. a) p ( X / 1) = 3 x12− 2 ; x = 1,2,3 ; p ( X / 2) = 3X
18 , X = 1,2,3 ;
p ( X / 3) = 3 X +2
24 , X = 1,2,3 ;
b) p (Y / 1) = 2Y −1
9 , Y = 1,2,3 ; p (Y / 2) = Y +1
9 , Y = 1,2,3 ;
p (Y / 3) = 2Y + 5
27 , Y = 1,2,3 ;
3 3
37. p ( X / 1) = 143 ; X = 0,1,2 ; p ( X = 1 / Y = 1) = 12 ;
x 1 − x
9 1
38. a) 19 b) 3 ; 39. a) 1, b) 0.4.
Introducción al Cálculo de Probabilidades 339
CAPITULO V
1. 12 ; 2. a) 25
1
, b) 1
5 ; 3. a) 0.1672, b) 0.0101, c) 0.1629; 4. 0.9163;
10
[ ]
5. a) P X = x = (0.20 ) (0.8)
x 10 − x
; x = 1,2,3,....10 ; b) 0.0328; c) 9.02 ≅9
x
10 x n− x
6. a) 0.1216, b) 2.65 (10
−5
); 7. a) P[X = x] = ( 12 ) ( 12 ) ; x = 1,2,3,....10 ; b)
x
10
0.9893; 8. (0.95) 7 (0.05) 3 ; 9. a) 0.068, b) 0.605; 10. a) 0.1280, b)
3
0.9547; 11. a) 0, b) 0.4148, c) 0.1019; 12.a)
x − 1 5 x−5
P[X = x] = (0.7 ) (0.3) ; x = 5,6,7,.... ;b) FX ( x) = ∑ r − 1(0.7 )5 (0.3)r −5 , c)
x
4 r =5 4
6 5
r − 1
P[X = 7] = (0.7 ) (0.3) ; P[ X > 5] = 1 − ∑ (0.7 ) (0.3) ;
r −5
5 2 5
4 r =0 4
13. a) 3
4 , b) 7
8 ; 14. ( 3820 )k −1 (1838 ) ; 15. a) 0.16, b) 0.488; 16. a) 0.0630, b)
0.9730; 17. a) 0.047, b) 0.2355;
26 26
P[ X = x ] =
x 13− x
18.
52
; x = 1,2,.....,13 19. 22
35 ; 20. 0.9593;
13
4 2
; x = 1,2,3 ; P[2 ≤ X ≤ 3] = 54 ; 22.
x 2− x
21. h( x;6,3,4) =
6
10
21 , 23. 0.2131;
3
6 14 14
P[ X = k ] =
k 5− k 5
24. a)
20
; k = 0,1,2,3,4,5 ; b) 1 − 20 ; 25. a) p
1+ q ,
5 5
1 1 16 32 8 1
b) , c) 1+ q
; 28. a) 81 , b) 81 , c) 27 , d) ;
1+ q+ q 2 9
− 5x
3. a) k = 5, b) 25 e − 25
e , d) F ( x) = 25 − 25e ; x ≥ 0;
X
0 ; x<0
0 , x<0
x2 0 ≤ x <1 ;
4. a) 0.02, b) 0.84, d) FX (x ) = 2 ,
2 x − − , 1≤ x < 2
x2 3
2 2
0 , x≥2
0 , x<0
x2 , 0 ≤ x < 500
500000
1
5. a) 250000 , b) 34 ; c) FX (x ) = x ;
250 − 50000 − 2 , 500 ≤ x < 1000
x2 3
0 , x ≥ 1000
0 , x < 0
x2
6. a) 2, b) 8 , c) FX (x ) = 16 , 0≤ x≤4 ;
1 , x > 4
0 , x<0
x 2
, 0≤ x<2
4
7. a) k = 12 , 2 , b) FX (x) = x6−1
1 11
, 2≤ x<6 ;
− x 2 +16 x − 40 , 6≤ x<8
24
1 , x≥8
0 , x<0
8. a) k = m, b) FX (x ) = − mx
; c) 0.3679;
1 − e , x≥0
( x + 4 )( x − 2 )
9. a) 16
27 , b) 1
3 , c) FX (x ) = 27
; 10. a) 1
4 , b) 1
2 , c) 1
2 ;
11. a) f X ( x ) =
− 100
x
3
1
100 e , b) 0.8187; 12. b) 4 y 161 ,
2 − 2 x , 0 < x < 1
c) f X ( x ) = ; 13. a) 95 , b) 9
100 ;
0 , en otro caso
2 x , 0 < x < 12
14. a) f X ( x ) = 6(1 − x ) , 12 < x < 1 , b) 1
2 ;
0 , en caso contrario
1 , −1 < x < 1 r (t ) − f X (t )
15. a) f X ( x ) = 2 ; 16. a) f X ( x ) = X , b) -a;
0 , en otro caso rX (t )
Introducción al Cálculo de Probabilidades 341
gY ( y ) = y gY ( y ) =
− 12
17. a) − 1, 0 < y < 1 , b) 3
4 ; 18. a) 32
y3
, y > 4,
b) 1
4 ; 19. a) f X ( x ) = 1, 0<x<1; f Y ( y ) = -ln(y), 0<y<1;
20. a) a = 2 , b) f X ( x ) = f Y ( y ) = 1
2 2
,− 2 < x < 2 , − 2 < y < 2
2 2 2
3 x y − xy −3 x + x −3 y + y + 2 2
(3 x −1)( x −1)
21. FX ,Y ( x, y ) = 10 , b) 0.225, c) FX (x) = 5
,
FY ( y ) = (9 y −10y −8 ) , d) f X ( x ) = fY ( y) =
2
6 x−4 9−2 y
5 , 10
;
t
−1 −
10
1− e 5 1 − e t2 , t1 , t 2 > 0
22. a) F (t1 ,t 2 ) = ; b) 0.69,
0 , en otros casos
t1 10
− −
c) f T1 (t1 ) = 1
5 e 5
, f T2 (t 2 ) = 10e t2
; 23. λ2 e − λ (t +t ) , t1 > 0, t 2 > 0 ;
1 2
24. k = 2
ln ( 2 )
; 27. a) 135
1024 , b) 1
2 ; 28. 3
4 ; 29. a) dependientes, b) 1
3 ;
30. a) k = 54 , b) 79
256 , c) 13
16 , d) 7
40 , e) 16
51 ;
x + y2
, 0 < x <1
31. a) f X / Y ( x / y ) = 1 + y 2 ;
2
0 , en otro caso
b) f X / Y (x / 12 ) = 13
(4x + 1) , 0 < x <1 ; c) 7
18 ;
0 , en otro caso
32. a) 1
3 , b) 5
6 e −1 ; 33. a) f X ( x ) = 1
50 e
− 50
x
, fY ( y) = 1
50 e
1
− 20
(1 − e )1
20
,
1 3 y
− 100
f Y / X =60 ( y / x ) = 100 e e , y > 60
5
b) no, c) ;
0 , en otro caso
34. a) f U ,V (u , v ) = 1 , 0 < u < 1, 0 < v < 1 , b) f U (u ) = 1 , 0 < u <1 ;
0 , en otro caso 0 , en otro caso
35. f Z ( z ) = f X −Y ( z ) = 3z 2 + 3z + 3 / 4 , z > 0 ;
0 , en otro caso
36. f X 1 + X 2 + X 3 + X 4 ( x1 + x 2 + x3 + x 4 ) = f U (u ) = 16 u 3 e − u
, u>0
0 , en otro caso
37. f ( X 1 + X 2 + X 3 + X 4 + X 5 ) / 5 ( x1 , x 2 , x3 , x 4 , x5 ) = f U (u ) = u 4e −5 u , u>0
3125
24
0 , en otro caso
CAPITULO VII
1. 0.594; 2. 0.594; 3. n = 25, máxima ganancia es S/. 125; 4. Ningún máximo
relativo cuando 0< α <1; máximo relativo en x = 0, cuando α = 1;
342 Hugo Cornejo Villena & Hugo Cornejo Rosell.
45. a) f X ( x ) = 2 e , x ≥ 0; b) 1- e , c) e ;
−2 x − 13 −30
46. a) 13.56, b) 14.45,
c) 13.28; 47. a = 5.226, b = 21.03; 48. a) 0.5296, b) 0.7276, c) 0.3572;
−2
49. 0.9549; 50. a = 67.1625; 51. e = 0.1353; 52. 0.9817; 55. a) 0.975,
b) 0.01, c) 0.977, d) 0.01; 56. a) 8.45, b) 4.35, c) 0.069; 57. a = 0.403,
b = 2.62; 61. a) 0.99, b) 0.025, c) 0.005, d) 0.89, e) 0.968;
62. a) 2.567, b) -1.943, c) 2.228, d) 1.548
CAPITULO VIII
1. 76 ; 2. S/.500; 3. 12 ; 4. 2 lanzamientos; 5. a) 1.2, b) S/. 0.30; 6. 5.60;
7. S/. 3,000; 8. E ( X A ) = 32 , E ( X B ) = 24 , E ( X C ) = 18 ; 9. µ = 1 / 2 , σ 2 = 3 ,
8
x 0 1 2
px ( x) 0.5625 0.375 0.0625
10. S/.1,855; 11. a) ambos iguales a µ , b) 0.9306; 12. E(X)=4, Var(X)=4.1;
13. a) (1 − 4t ) −2 , b) µ = 8 , σ 2 = 32 ; [ ]
14. C X ( t ) = n ln 1 − p(1 − e t ) ;
1 1
15. 118.9; 16. 100 horas; 17. a) , b) , c) 641 , d) 2, e) 1 , f) 2
3 6 6 18 6
18. E ( Y ) = 1 ; 19. µ Y = 10 , σ Y = 144 ; 20. − 162 ; 21. a) 6 ,
2 1 1
1
b) f Y = , si x<y<1, 0 ≤ x ≤ 1; 22. a) 62.5; 3; 195 5 ;
X 1− x 6
b) 260.42; 1 ; 8 1 ; 0.894; 23. a) 68, b) 52; 24. a) 3.2, b) 1.6,
3 3
c) 4.2, d) 0.8, e) 3.2857, f) -0.49, 2.25, g) 0.15, h) no existe;
Introducción al Cálculo de Probabilidades 343