Está en la página 1de 351

INTRODUCCIÓN AL

CÁLCULO DE
PROBABILIDADES
HUGO CORNEJO VILLENA
HUGO CORNEJO ROSELL
INTRODUCCIÓN AL
CÁLCULO DE
PROBABILIDADES

HUGO CORNEJO VILLENA


HUGO CORNEJO ROSELL
UNIVERSIDAD NACIONAL AGRARIA LA MOLINA
DR. AMéRICO GUEVARA PéREz
Rector
DR. HéCtOR GONzALES MORA
Vicerrector Académico
DRA. PAtRICIA GIL KODAKA
Vicerrectora de Investigación
JOSé CARLOS VILCAPOMA
Jefe del Fondo Editorial

Hugo Cornejo Villena - Hugo Cornejo Rosell

Introducción al cálculo de probabilidades

Lima: 2021; 348 p.

© Hugo Cornejo Villena


© Hugo Cornejo Rosell
© Universidad Nacional Agraria La Molina
Av. La Molina s/n La Molina

Derechos reservados
ISBN: 978-612-4387-83-8
Hecho el Depósito Legal en la Biblioteca Nacional del Perú N° 2021-10310

Primera edición digital: septiembre de 2021

Queda terminantemente prohibida la reproducción total o


parcial de esta obra por cualquier medio, ya sea electrónico,
mecánico, químico, óptico, incluyendo sistema de fotocopiado,
sin autorización escrita del autor.
Todos los conceptos expresados en la presente obra son
responsabilidad de los autores.
TABLA DE CONTENIDO

Prólogo .................................................................................................... 3
Capítulo 1: Espacio de probabilidad ................................................................. 5
1.1 Introducción............................................................................................... 5
1.2 Experimento aleatorio ............................................................................... 6
1.3 Espacio muestral........................................................................................ 7

1.4 σ -algebra de eventos ............................................................................. 10

1.5 Espacio de probabilidad........................................................................... 14


Capítulo 2: Analisis combinatorio .................................................................. 30
2.1 Principio de enumeración ........................................................................ 30
2.1.1 Principio de multiplicación. .................................................................... 30
2.1.2 Principio de adición ................................................................................ 32
2.2. Tipos de análisis combinatorio. ............................................................... 33
2.2.1 Permutaciones ......................................................................................... 34
2.2.2 Combinaciones ....................................................................................... 43
Capítulo 3: Probabilidad condicional e independencia ................................... 52
3.1 Probabilidad condicional ......................................................................... 52
3.2 Eventos independientes ........................................................................... 69
Capítulo 4: Variables aleatorias y distribuciones discretas ............................. 78
4. 1. Variables aleatorias ................................................................................. 78
4. 2. Distribuciones discretas de una variable.................................................. 84
4. 3. Funcion de probabiliad de una variable aleatoria discreta ................. 85
4. 4. Funcion de distribucion de una variable aleatoria discreta ................. 89
4. 5. Funcion de distribucion de varias variables aleatorias discretas.............. 99
4. 6. Distribucion de probabilidad condicional .............................................. 117
Capítulo 5: Tipos especiales de distribuciones discretas............................... 129
5. 1. Distribucion discreta uniforme .............................................................. 129
5. 2. Distribucion binomial y distribucion de pascal ..................................... 130
2 Hugo Cornejo Villena & Hugo Cornejo Rosell.

5. 3. Distribucion hipergeometrica.................................................................136
5. 4. Distribucion de poisson .........................................................................138
5. 5. Distribucion polinomial .........................................................................144
Capítulo 6: Distribuciones continuas.............................................................153
6. 1. Distribuciones continuas de una variable aleatoria................................153
6. 2. Distribuciones continuas de varias variables aleatorias .........................165
6. 3. Densidad de las funciones de variables aleatorias .................................182
Capítulo 7: Tipos especiales de distribuciones continuas..............................196
7. 1. Distribuciones Gamma y Beta ...............................................................196
7. 2. Distribucion normal ...............................................................................203
7. 3. Distribucion Exponencial ......................................................................220
7. 4. Distribucion ji - cuadrada ......................................................................224
7. 5. Distribucion Weibull..............................................................................230
7. 6. Distribucion F ........................................................................................232
7. 7. Distribucion T de Student ......................................................................236
Capítulo 8: Esperanza matematica y limites..................................................250
8. 1. Esperanza de una variable aleatoria .......................................................250
8. 2. Esperanza de combinacion lineal de variables aleatorias.......................265
8. 3. Momentos y funcion generadora de momentos de variables aleatorias .269
8. 4. Esperanza condicional ...........................................................................286
8. 5. Convergencia en probabilidades ............................................................292
8. 6. Teoremas sobre limites ..........................................................................297
Tablas ........................................................................................319
Respuestas a los ejercicios......................................................................................334
Bibliografía ................................................................................................344
PRÓLOGO

En las últimas décadas, la importancia del conocimiento de


la probabilidad es de suma importancia en todo estudio estadístico y
radica en que, mediante este recurso matemático, es posible ajustar
de la manera más exacta los posibles imponderables debidos al azar en
los más variados campos, tanto de la ciencia como de la vida cotidiana.
La probabilidad es una estrategia mediante la cual se intenta estimar la
frecuencia con la que se obtiene un cierto resultado en el marco de una
experiencia en la que se conocen todos los resultados posibles. Se aplica
en áreas variadas del conocimiento, como las ciencias exactas (estadística,
matemática pura y aplicada, física, química, astronomía), las ciencias
sociales (sociología, psicología social, economía), la astronomía, la
meteorología y, en especial en forma más reciente, la biomedicina.
La importancia esencial de la aplicación de los métodos de cálculo
de la probabilidad reside en su capacidad para estimar o predecir eventos.
Cuanto mayor sea la cantidad de datos disponibles para calcular la
probabilidad de un acontecimiento, más preciso será el resultado calculado.
El libro está divido en ocho capítulos; en el primer capítulo se
aborda el concepto de espacio de probabilidades; en el segundo capítulo
se presentan los principios de enumeración y los tipos de análisis
combinatorio; en el tercer capítulo se presentan los conceptos probabilidad
condicional y eventos independientes; en el cuarto capítulo se informa sobre
variables aleatorias, distribuciones discretas, funciones de probabilidad,
distribuciones de variables discretas; en el quinto capítulo se informa sobre
tipos especiales de distribuciones discretas; en el sexto capítulo se abordan
sobre distribuciones continuas de una y varias variables; en el séptimo
capítulo se estudian los principales tipos de distribuciones continuas y en el
último capítulo se muestran conceptos de esperanza matemática y límites,
así mismo se presentan las diferentes tablas estadísticas y las respuestas a
los ejercicios propuestos.
En cada capítulo se presentan definiciones, conceptos y resultados
claros, ejemplos aplicativos y al final de éstos se han seleccionado ejercicios
adecuados para consolidar los conceptos aprendidos
Estamos agradecidos con muchas personas que nos brindaron su
apoyo cuando escribíamos este libro, gratitud a los amigos y colegas de
las Universidad Nacional Agraria La Molina y Universidad Nacional San
Antonio Abad del Cusco por el aliento y sugerencias recibidas para que
se haga realidad este propósito de publicar. Asimismo, gratitud a nuestros
familiares y alumnos de ambas universidades que nos incentivaron para
llevar adelante esta tarea de escribir.
Especial agradecimiento a las Autoridades de la Universidad
Nacional Agraria La Molina: Al Rector Dr. Américo Guevara Pérez, al
Vicerrector Académico Dr. Héctor Gonzales Mora, a la Vicerrectora de
Investigación Dra. Patricia Gil Kodaka, al Jefe del Fondo Editorial Dr. José
Carlos Vilcapoma y al personal administrativo del Fondo Editorial, por
hacer realidad la publicación de este libro.
LOS AUTORES
CAPÍTULO 1: ESPACIO DE PROBABILIDAD
1.1 INTRODUCCIÓN
La teoría de la probabilidad tuvo su origen en el siglo XVI, en el estudio
de problemas relacionados con los juegos de azar que por entonces se jugaban
en Monte Carlo; un noble francés intentó sin mucha suerte describir en forma
matemática la proporción relativa de tiempo en que se podrían ganar ciertas
apuestas, y como conocía a dos connotados matemáticos de la época: Blas
Pascal (1623-1662) y Pierre de Fermat (1610 - 1665), les transmitió sus
dificultades. Esto originó el fructuoso intercambio de comunicación entre los
dos matemáticos referente a la aplicación correcta de la matemática para poder
calcular la frecuencia relativa de ocurrencias en juegos sencillos de apuestas.
Los historiadores coinciden en que este intercambio de correspondencias
marcó el inicio de la teoría de las probabilidades, tal como es conocido hoy en
día.
El matemático Pedro Simón Marqués de la Place (1749 - 1827) establece
explícitamente en su obra clásica “Theoric Analytique des Probabilites”
(1812), como principio fundamental de toda teoría la definición de frecuencia
relativa que es más o menos la siguiente: si va a realizarse un experimento de
azar (alguna operación cuyo resultado no puede ser predicho), entonces son
varios los resultados posibles que pueden ocurrir cuando se realiza el
experimento. Si ocurre un evento (acontecimiento o suceso inseguro de
realización incierta), entonces la probabilidad de un evento es la razón del
número de casos favorables al evento y el número total de casos favorables.
Existen muchos problemas para los cuales esta definición no es
apropiada, la debilidad surge debido a que nada dice en cuanto a la forma de
decidir si dos cosas deben o no considerarse como igualmente posibles y la
idea de formarse de cómo puede hacerse la división en casos igualmente
posibles cuando se trata de observaciones de los experimentos al azar.
Los avances matemáticos en la teoría de la probabilidad estaban
relativamente limitados y no pudieron establecerse con firmeza, hasta que el
matemático Andrey Nokolaevic Kolmogorov (1903 - 1987) en su obra
“Grundbegriffe der Wahrscheinlich Keitsrechnvng” (1933) enunció
matemáticamente un conjunto sencillo de tres axiomas o reglas a las que se
supone que las posibilidades se ajustan. Establecido esta base axiomática, se
han logrado avances muy significativos en la teoría de las probabilidades y en
el número de problemas prácticos a los cuales puede aplicarse.
En el presente capítulo estudiaremos estos tres axiomas y las razones por
las que podrían adoptarse razonablemente estos axiomas a las que obedecen
las probabilidades; la definición de la frecuencia relativa de la probabilidad,
antes indicada, sólo es una manera de calcular las probabilidades, como
mostraremos, éstas cumplen los tres axiomas.
6 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Centremos nuestra atención en la construcción de un modelo de


probabilidad para un experimento que es el espacio de probabilidad
especificado por (1) el conjunto de resultados posibles, (2) una familia de
eventos del conjunto de resultados y, (3) la frecuencia relativa en que ocurren
estos, calculada a partir de un análisis del experimento y para su consistencia
se usan los axiomas.
1.2 EXPERIMENTO ALEATORIO
Para la comprensión posterior, presentamos las siguientes definiciones:
DEFINICIÓN 1.2.1
Un experimento u operación es una acción y efecto mediante el cual se
obtiene un resultado de una observación.
Un experimento puede ser determinístico y no determinístico.
DEFINICIÓN 1.2.2.
Un experimento es determinístico, cuando el resultado de la
observación se predice con exactitud antes de realizar el experimento.
DEFINICIÓN 1.2.3.
Un experimento es no determinístico, aleatorio o estadístico, cuando
el resultado de la observación no se puede predecir con exactitud antes de
realizar el experimento.
EJEMPLO
1.2.1 Son ejemplos de experimento determinístico, las siguientes operaciones:
1. Lanzar un objeto al aire.
2. Tirar una piedra a un vidrio.
3. Observar el color de una bola extraída de una urna que contiene sólo
bolas azules.
4. Quemar un objeto fungible.
5. El fin de la vida de un ser viviente.
1.2.2 Son ejemplos de experimento aleatorios, las siguientes operaciones:
E1 : Lanzar una moneda y observar la cara superior.
E 2 : Lanzar una moneda 3 veces y observar el número de caras obtenidas.
E 3 : Extraer un artículo de un lote que contiene artículos defectuosos y
no defectuosos.
E 4 : Observar el color de una bola extraída de una urna que contiene
bolas negras y blancas.
E 5 : Observar el tiempo de duración de una bombilla eléctrica.
E 6 : Observar la mortalidad infantil de una población en un determinado
mes.
Al observar experimentos aleatorios, encontramos las siguientes
características comunes:
Introducción al Cálculo de Probabilidades 7

• Cada experimento puede repetirse indefinidamente sin variar


esencialmente sus condiciones.
• No se conoce “a priori” un resultado particular del experimento.
• Cuando el experimento se repite en un número suficientemente grande de
veces, su resultado tiende a un modelo de regularidad; es decir, llega a
m
estabilizarse la función h = (frecuencia relativa), donde n es el número
n
de repeticiones, m el número de éxitos de un resultado particular
establecido antes de realizar el experimento.
1.3 ESPACIO MUESTRAL
Manifestamos como un aspecto común de que cada experimento
aleatorio tiene varios resultados posibles y que podemos describir con
precisión el conjunto de estos resultados posibles; ello nos induce a dar la
siguiente definición:
DEFINICIÓN 1.3.1
Dado un experimento aleatorio E, un espacio muestral, denotado por Ω , es
el conjunto formado por todos los resultados posibles de E, esto es:
Ω = {ω ω es el resultado posible de E}
A cada resultado de un espacio muestral se le llama elemento o miembro del
espacio muestral, o simplemente un punto muestral. El espacio muestral
puede tener un número finito o infinito de elementos y ello depende del
experimento aleatorio.
EJEMPLOS:
1.3.1 Son ejemplos de espacio muestral asociados a los experimentos del
ejemplo 1.2.2, los siguientes espacios, que se describa mediante una
enumeración de los elementos o el método de la regla, que dependen de
cada problema específico:

Experiment Espacio Muestral


o Aleatorio
E1 Ω1 = {C, S} ; C = Cara, S = Sello
E2 Ω 2 = {0,1,2,3} = {(s, s, s), (c, s, s), (s, c, s), (s, s, c), (c, s, c),
(s, c, c), (c, c, s), (c, c, c)}; c = cara s = sello
Ω 3 = {D, N} ; D = Defectuoso, N = No defectuoso
E3
Ω 4 = {x x es una bola negra o blanca}
E4
Ω 5 = {t ∈ / t ≥ 0}
E5
Ω 6 = {x x número de niños que mueren en un mes}
E6
8 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Es deseable, en general, utilizar un espacio muestral que proporcione la


mayor información concerniente a los resultados del experimento.
En algunos experimentos es útil anotar sistemáticamente los elementos del
espacio muestral por medio de un diagrama de árbol, diagrama llamado así
por su apariencia y que se emplea para conexión con el principio anterior.
1.3.2 Consideremos el experimento de lanzar una moneda al aire una vez
y dos en caso de que ocurra cara (C). Si en la primera ocasión se obtiene
sello (S), entonces se arroja un dado una vez. Para representar los
elementos del espacio muestral tal que registre la mayor información
construiremos el siguiente diagrama de árbol:

Las diversas trayectorias, a lo largo de sus ramas, proporcionan los


distintos puntos muestrales. Al dar inicio por la rama superior izquierda y
avanzar hacia la derecha a lo largo de la primera rama (trayectoria), obtenemos
el punto muestral CC, el cual indica la posibilidad de que se presenten dos
caras en dos lanzamientos sucesivos de la moneda. De manera similar, el
punto muestral S2 señala la posibilidad de que se presenta un sello, a la que
seguirá un 2 en el lanzamiento del dado. Si se procede a lo largo de todas las
ramas, el espacio muestral será:
Ω = {CC, CS, S1, S2, S3, S4, S5, S6}
DEFINICIÓN 1.3.2
Todo subconjunto de un espacio muestral Ω , se denomina evento o
suceso.
Es de esperar que Ω es un evento llamado evento universal o suceso
seguro y también lo es el conjunto vacío φ que indica el evento imposible.
Los siguientes son ejemplos de eventos. Otra vez nos referiremos a los
experimentos anotados anteriormente. se referirá a un evento asociado con el
experimento E i .
Introducción al Cálculo de Probabilidades 9

A 1 = {C}; es decir, ocurre una cara.


A 2 = {3}; es decir, ocurren tres caras.
A 3 = {N}; es decir, el artículo tomado no fue defectuoso.
A 4 ={x/x es blanco}; es decir, la esfera extraída es blanca.
A 5 ={t/t<5}; es decir, l bombilla se quema en menos de cinco horas
A 6 ={5}; es decir, 5 niños mueren en un mes.
Dado que los eventos son subconjuntos de un espacio muestral Ω ,
introducimos algunas operaciones algebraicas entre eventos:
a) Si A es un evento: A c ó A' ó A es el evento que ocurre si y sólo si A
no ocurre. (Complemento de un evento, obviamente respecto de Ω ,
también conocido como evento contrario de A).
b) Si A y B son eventos: A ∪ B es el evento que ocurre si y sólo si A ó B
ó ambos ocurren (unión o reunión de dos eventos)
c) Si A y B son eventos, A ∩ B ó AB, es el evento que ocurre si y sólo si
A y B ocurren (intersección de dos eventos)
d) Si A 1 , A 2 , A 3 ,..., A n es una sucesión finita de eventos, entonces:
n
1)  A i es el evento que ocurre si y sólo si, al menos uno de los eventos
i =1
A i ocurre (unión o reunión finita de eventos)
n
2)  A i es el evento que ocurre si y sólo si todos los eventos A i ocurren
i =1
(intersección finita de eventos)
e) Si A 1 , A 2 , A 3 ,..., A n ,... es una sucesión infinita o numerable de eventos,
entonces

1)  A i es el evento que ocurre si y sólo si, al menos uno de los eventos
i =1
A i ocurre (unión, reunión infinita o numerable de eventos)

2)  A i es el evento que ocurre si y sólo si todos los eventos A i ocurren
i =1
(intersección infinita o numerable de eventos)
f) Si representa un espacio muestral asociado con el experimento E y se
realiza E dos veces. Entonces, Ω x Ω se utiliza para representar todos
los resultados de esas dos repeticiones. Es decir (ω1 , ω 2 ) ∈ Ω × Ω ,
significa que resultó cuando se realiza E la primera vez y ω2 cuando E
se realiza la segunda vez.
10 Hugo Cornejo Villena & Hugo Cornejo Rosell.

g) Generalizando f). consideremos n repeticiones de un experimento E cuyo


espacio muestral es Ω , entonces
Ω1 × Ω 2 × ... × Ω n = {(ω1 , ω 2 ..., ω n ) / ωi ∈ Ω, i = 1,2,..., n}
representa el conjunto de todos los resultados posibles, cuando E se
realiza n veces. En cierto sentido, Ω1 × Ω 2 × ... × Ω n es un espacio
muestral asociado con n repeticiones de E.
h) Si A y B son eventos, se dice que son mutuamente excluyentes sí y sólo
si A ∩ B = φ
i) La familia de todos los subconjuntos de, se llama conjunto potencia y es
frecuentemente denotado por; es decir 2 Ω = {A/ A ⊆ Ω }.
Si Ω es finito con n elementos, entonces 2 Ω tiene 2 n elementos.
NOTACION: Siguiendo la tradición en el estudio de las Probabilidades y
Estadística, el producto de eventos denota intersección de eventos, por lo que
n
adoptamos:  A i = A 1 A 2 ...A n ; esperando no confundir con el verdadero
i =1
significado.
1.4 σ -ALGEBRA DE EVENTOS
DEFINICIÓN 1.4.1
Si A es una familia de eventos del espacio muestral Ω . Entonces es un σ -
álgebra de eventos, si Ω ∈ A y es cerrado bajo la complementación y unión
numerable de eventos; es decir:
1. Ω ∈ A
2. Si A ∈ ⇒ A ∈ A
c


3. Si A 1 , A 2 , A 3 ,..., A n ,... ∈ A ⇒  A i ∈ A .
i =1
EJEMPLO
1.4.1 Consideremos el experimento aleatorio E que consiste en lanzar una
moneda. El espacio muestral asociado a este experimento es:
Ω = {C, S}; donde C = cara y S = sello
Son σ - álgebra de eventos de Ω , las familias:
A 1 = { Ω , φ } y A 2 = { Ω , φ , {C}, {S }}= 2 Ω ; ya que satisfacen las
tres condiciones de la definición anterior y mientras que la familia:
A 3 = { Ω , φ , {C}} no es un σ - álgebra de eventos de Ω ; puesto que
{C} ∈ A 3 y {C}c = {S} ∉ A 3, luego no cumple una condición de la
definición.
Pasaremos ahora a establecer y demostrar consecuencias importantes de
las tres condiciones de un σ - álgebra de eventos:
Introducción al Cálculo de Probabilidades 11

TEOREMA 1.4.1
El evento imposible φ , siempre pertenece a A , es decir φ ∈ A .
DEMOSTRACION:
Por (1) de la definición Ω ∈ A y por (2) de la definición Ω c ∈ A y dado
que φ = Ω c , entonces φ ∈ A .
NOTA: Si A es un σ - álgebra de eventos de Ω , de la definición y el teorema
anterior, observamos que siempre Ω y φ pertenecen a A .
EJEMPLO
1.4.2 Tomemos el experimento aleatorio E, que consiste en esperar el
resultado de un partido de fútbol entre dos equipos. El espacio muestral
asociado a este experimento es:
Ω = {G, E, P}; donde G = gana, E = empata y P = pierde
La familia = { Ω , φ ,{G}, {E, P}} es un σ - álgebra, puesto que:
1. Ω ∈ A
2. Ω ∈ A ⇒ Ω c = φ ∈ A
{G} ∈ A ⇒ {G}c = {E, P} ∈ A ⇒ {E, P}c ∈ A
3. La unión de elementos de A están en A ; por ejemplo:
Ω ∪ {G} = Ω ∈ A , {G}∪ {E, P} = Ω ∈ A , etc.
TEOREMA 1.4.2
A es cerrado bajo la unión finita de eventos; es decir si: A 1 , A 2 , A 3 ,..., A n ∈
n
A , entonces  A i ∈ A .
i =1
DEMOSTRACION:
Como φ ∈ A , por el teorema 1.4.1, definimos φ A = A n +1 = A n + 2 = ... ,
∞ ∞ n n
entonces por (3)  A i ∈ A . Pero como  A i =  A i , entonces  A i ∈ A
i =1 i =1 i =1 i =1
TEOREMA 1.4.3
A es cerrado bajo la intersección numerable de eventos; es decir si:

A 1 , A 2 , A 3 ,..., A n ,... ∈ A , entonces  A i ∈ A .
i =1
DEMOSTRACION:
Como A i ∈ A para i=1,2,3, ...., también A ic ∈ A para i=1,2,3, ....
c

∞ c
Entonces por (3)  A i ∈ A . Por (2) se tiene que   A i  ∈ A . Por una
c
i =1  i =1 
12 Hugo Cornejo Villena & Hugo Cornejo Rosell.

( )
c
∞ c ∞
c c ∞
de las leyes de De Morgan generalizada, se tiene:   A i  =  A i =  Ai
 i =1  i =1 i =1

luego  A i ∈ A .
i =1
COROLARIO 1.4.1
A es cerrado bajo la intersección finita de eventos, es decir; si
n
A 1 , A 2 , A 3 ,..., A n ∈ A , entonces  A i ∈ A .
i =1
DEMOSTRACION:
Sea Ω = A n +1 = A n + 2 = .... , entonces aplicando el teorema 1.4.3 se tiene que:
∞ n
 Ai =  Ai ∈ A .
i =1 i =1
Como veremos más adelante, un σ - álgebra será una familia particular
de eventos que representará el dominio de la función real valorada que induce
la ordenación probabilística, o mejor dicho, los elementos del σ -álgebra y
sólo ellos, tendrán asociado a un número real como “medida” de probabilidad
por lo que sólo los elementos de dicho σ - álgebra serán comparables bajo la
indicada ordenación probabilística.
Consecuentemente, decir que un evento pertenece a un σ - álgebra puede
interpretarse intuitivamente como afirmar que interesa “medir” su
probabilidad, o bien interesa compararlo probabilísticamente con los demás
eventos del σ - álgebra. De acuerdo con esta interpretación y tomando en
cuenta la definición de σ - álgebra, así como los teoremas puede afirmarse:
a) Siempre interesará “medir” la probabilidad de φ .
b) Si interesa “medir” la probabilidad de A, interesará “medir” la de A c .
c) Si interesa “medir” la probabilidad de cada término de la sucesión
{A i i ∈ Ν} , entonces interesa “medir” la probabilidad de:
∞ ∞ n n
 Ai ,  Ai ,  Ai  Ai .
i =1 i =1 i =1 i =1
DEFINICIÓN 1.4.2
Sea Ω un espacio muestral y sea A un σ - álgebra de eventos de Ω donde
( A ⊆ 2Ω ) . Se llama espacio medible al par ( Ω , A ). Si A ∈ A se dice
que A es medible.
{ } Ω
Consideremos como G = A, A c donde, A∈ A , G ⊆ 2 , deseamos
encontrar un σ - álgebra de eventos de Ω el "más pequeño" que contiene a
G, en el sentido de que todos los elementos de G están en dicho σ - álgebra
de eventos de Ω y de los restantes eventos, solo están en ese σ - álgebra.
Introducción al Cálculo de Probabilidades 13

Aquellos cuya inclusión resulta imprescindible para caracterizarla como


tal. Si, llamamos A (G) a dicho σ - álgebra de eventos de Ω , encontraremos
que A ∈ A (G) y A c ∈ A (G) y además, φ ∈ A (G) y Ω ∈ A (G) puesto
que φ y Ω pertenecen a cualquier σ - álgebra de eventos de Ω . Por lo tanto,
se tiene que
{ }
φ, A, A c , Ω ⊆ A (G)
{ }
Como φ, A, A c , Ω, es un σ - álgebra de eventos de Ω y por lo tanto cualquier
otro suceso no resulta necesario para caracterizarla, por lo que:
{ }
A (G) = φ, A, A c , Ω,
Daremos ahora una definición matemática del σ - álgebra "más pequeño"

que contiene a G ⊆ 2 .
DEFINICIÓN 1.4.3

Sean G ⊆ 2 y A (G) un σ - álgebra tal que:
1) G ⊆ A (G)
2) G ⊆ A y A es un σ - álgebra de eventos de Ω , entonces
A (G) ⊆ A , luego A (G) se llama σ - álgebra de eventos de Ω
generado por G o es el σ - álgebra mínimo de eventos de Ω que
contiene a G.
Deseamos que todo intervalo del sistema de los números reales tenga
asignada una probabilidad y, por lo tanto, si I es un subconjunto del sistema
de los números reales, consideremos A (I) como un σ - álgebra
suficientemente detallada, la que según se establece en la siguiente definición,
se llama σ - álgebra de Borel en el sistema de los números reales.
DEFINICIÓN 1.4.4
Sea I un conjunto de intervalos en el sistema de los números reales( ), el σ -
álgebra de Borel en R, denotado por B, es el σ - álgebra generado por I. Los
elementos de B se llaman borelianos.
TEOREMA 1.4.4
Sea J = {]a, b]/ a, b ∈ }, entonces A (J) = B.
DEMOSTRACION:
Como J ⊆ I, entonces A (J) ⊆ A (I)= B. Falta demostrar que:
A (I) ⊆ A (J).
Sean x∈ , y∈ , tal que x ≤ y , , definamos:
{A n n ∈ N}{, Bn n ∈ N}{, C n n ∈ N }
de manera que:
14 Hugo Cornejo Villena & Hugo Cornejo Rosell.

 1   1 1  1
A n =  x - , y , Bn =  x - , y -  , C n =  x, y -  ;
 n   n n  n
entonces
A n ∈ J ∧ Bn ∈ J ∧ Cn ∈ J, ∀n ∈ N
y además
lim A n = [x , y], lim B n = ]x , y[, lim C n = ]x , y[
n →∞ n →∞ n →∞
por tanto
lim A n ∈ A (J) ∧ lim B n ∈ A (J) ∧ lim C n ∈ A (J).
n →∞ n →∞ n →∞

En consecuencia, todo intervalo acotado pertenece a A (J).


Ahora consideremos el intervalo no acotado ]− n , x ] , sea
{Dn /n ∈ N} tal que Dn = ]− n, x ] . Entonces Dn ∈ J, ∀ n ∈ N y
lim D n = ]− ∞, x ] ∈ A (J)
n →∞

En forma similar se prueba que [x , ∞[ ∈ A (J). Por tanto, I ⊆ A (J); de


donde
A (I) ⊆ A ( A (J)) = A (J ).
1.5 ESPACIO DE PROBABILIDAD
Dado el evento A, debemos asignarle un número, denotado por P(A), que
se lee como “probabilidad de la ocurrencia del evento A”, o simplemente
como “la probabilidad del evento A”, tal que P(A) refleja el comportamiento
experimental de las frecuencias de la ocurrencia del evento A, cuando
repetimos el experimento aleatorio: "Lanzar al aire un dado dos veces", un
gran número de veces bajo condiciones uniformes. En general, deseamos
definir una función real sobre A tal que a cada evento de A le asigne un
número "su probabilidad de ocurrencia", y, las reglas que damos para
manipular esta función deberán reflejar el comportamiento experimental de
las frecuencias.
Sean A = {(x, y) ∈ Ω × Ω / x + y ≤ 4} un evento, que significa “la puntuación
total lograda en dos lanzamientos de un dado no exceda de 4”, y el evento:
B = {(x, y) ∈ Ω × Ω / x + y > 5} que significa “la puntuación total lograda en
los dos lanzamientos de un dado es mayor que 5”. Supongamos que se han
efectuado 4 veces el experimento de lanzar un dado al aire dos veces y se han
obtenido los siguientes resultados:
Introducción al Cálculo de Probabilidades 15

primera segunda vez tercera vez cuarta vez


vez sale 6 sale 4 sale 9 sale 9
EVENTO A No ocurre ocurre no ocurre no ocurre
EVENTO B ocurre no ocurre ocurre ocurre
EVENTO AUB ocurre ocurre ocurre ocurre
Frecuencia de la
0/1 1/2 1/3 1/4
ocurrencia de A
Frecuencia de la
1/1 1/2 2/3 3/4
ocurrencia de B
Frecuencia de la
ocurrencia de
1/1 2/2 3/3 4/4
AUB

Donde la frecuencia de la ocurrencia de un evento, como ya sabemos, es


la división entre el número de veces que se haya realizado el evento y el
número de veces que se hizo el experimento.
Observamos que en ningún caso las frecuencias son menores que 0 ni
mayores que 1. Si tomamos A ∪ A c = Ω es fácil ver que sus frecuencias
serán siempre iguales a 1 (suponiendo que siempre cae en as o en uno).
DEFINICIÓN 1.5.1
Un espacio de probabilidad es una terna de objetos ( Ω , A , P), donde Ω es
un espacio muestral finito no vacío, A es un σ - álgebra de eventos, y P es
una función real definida sobre A con las siguientes propiedades:
1.- P(A) ≥ 0, ∀A ∈ A
2.- P ( Ω ) = 1
3.- Si: A 1 , A 2 , A 3 ,..., A n ,... es una sucesión numerable de eventos disjuntos
de A , entonces:
P  A i  = ∑ P(A i ) .
∞ ∞

 i =1  i =1

NOTA: La función P: A → , definida con las propiedades mencionadas


se llama función de probabilidad o medida de probabilidad o simplemente
“probabilidad P”.
Si A ∈ A , se dice que P(A) es la probabilidad de A (probabilidad de
ocurrencia de A). Como indicamos anteriormente, las únicas ordenaciones
probabilísticas que estudiaremos serán definidas a través de funciones de
probabilidad; por lo que, en adelante, no se hará distinción entre la
probabilidad (ordenación en los eventos) y la función de probabilidad.
16 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Debemos señalar que este sistema de axiomas de la probabilidad se


supone válido para cualquier experimento. Apoyándonos en los axiomas
anteriores deduciremos los siguientes resultados:
TEOREMA 1.5.1 P (φ ) = 0
DEMOSTRACION:
Sean: A1 = φ , A 2 = φ , ..... Evidentemente, la sucesión numerable de
eventos { An } es disjunta. En consecuencia, por el axioma (3) de la definición
anterior, se tiene:
P(φ) = P  A i  = ∑ P(A i ) = ∑ P(φ)
∞ ∞ ∞

 i =1  i =1 i =1

Para que esta igualdad sea válida, el único valor posible de P ( φ ) es cero.
TEOREMA 1.5.2
Si: A 1 , A 2 ,..., A n es una sucesión finita de eventos disjuntos cualesquiera,
entonces:
P  A i  = ∑ P(A i ) .
n n

 i =1  i =1
DEMOSTRACION:
Hagamos que B i = φ,....{ A i ,..si..i =1, 2 , 3,..., n
si....i > n entonces:

P  A i  = P  B i  = ∑ P(B i ) = ∑ P(B i ) = ∑ P(A i ) .


n ∞ ∞ n n

 i =1   i =1  i =1 i =1 i =1

TEOREMA 1.5.3
Si A y B son eventos cualesquiera de Ω , entonces:

P(A ∪ B) = P(A) + P(B) − P(AB) .


DEMOSTRACION:
Como A ∪ B = A ∪ A c B , entonces por el teorema 1.5.2, se tiene que
P(A ∪ B) = P(A ∪ A c B) = P(A) + P(A c B)
y como B = AB ∪ A c B , entonces P(B) = P(AB) + P(A c B) , de aquí que:
P(A c B) = P(B) − P(AB)
de donde P(A ∪ B) = P(A) + P(B) − P(AB) .
COROLARIO 1.5.1
Si A y B son eventos mutuamente excluyentes, entonces:
P(A ∪ B) = P(A) + P(B)
El corolario 1.5.1 es resultado inmediato del teorema 1.5.3 ya que, si A y B
son mutuamente excluyentes, A ∩ B = φ y entonces,
Introducción al Cálculo de Probabilidades 17

P(A ∩ B) = P(AB) = P(φ) = 0


COROLARIO 1.5.2
Para tres eventos A, B y C, se tiene:
P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(AB) − P(AC) − P(BC) + P(ABC)
DEMOSTRACION
Aplicando el Teorema 1.5.3 en dos oportunidades
COROLARIO 1.5.3 (Desigualdad de Boole)
Si A y B son eventos, entonces:
P(A ∪ B) ≤ P(A) + P(B)
DEMOSTRACION:
Si en el teorema 1.5.3 se supone que P(AB) ≥ 0, entonces
P(A ∪ B) ≤ P(A) + P (B)
COROLARIO 1.5.4
Si A, B y C son tres eventos cualesquiera, entonces:
P(A ∪ B ∪ C) ≤ P(A) + P(B) + P(C)
DEMOSTRACION:
Aplicando 2 veces el teorema 1.5.3 y el corolario 1.5.3, tenemos:
P(A ∪ B ∪ C) ≤ P(A) + P(B ∪ C) ≤ P(A) + P(B) + P(C) .
TEOREMA 1.5.4
Si A y B son eventos cualesquiera de Ω , si A ⊂ B , entonces:
P(A) ≤ P(B) y P(B-A) = P(B) - P(A).
DEMOSTRACION:
Como: B = A ∪ (B − A) , donde A y A-B son mutuamente excluyentes,
entonces, P(B) = P(A) + P(B − A) , de donde P(B-A) = P(B) - P(A).
Puesto que P(B-A) ≥ 0, también resulta que P(B) ≥ P(A) .
TEOREMA 1.5.5
( )
Para cualquier evento A: P A c = 1 − P(A) y P(A ) = 1 − P(A c ) .
DEMOSTRACION:
( )
Como: Ω = A ∪ A c . Entonces 1 = P(Ω) = P(A) ∪ P A c de donde se tiene:
( )
P A = 1 − P(A) y P(A ) = 1 − P(A c ) .
c

( )
Es frecuente llamar tanto a P(A ) y P A c como probabilidades
complementarias.
TEOREMA 1.5.6
Si Ω contiene n eventos elementales equiprobables y m de estos pertenecen al
m
evento A, entonces P(A) = .
n
DEMOSTRACION:
18 Hugo Cornejo Villena & Hugo Cornejo Rosell.

n
n  n
Sea Ω =  Wi ,entonces P(Ω) = P   Wi  = ∑ P( Wi ) . Por ser los eventos Wi
i =1 i =1  i =1
mutuamente excluyentes y eventos elementales (conjunto que tiene un punto
muestral como único elemento; conjunto unitario) equiprobables (igual
probabilidad).
P(W1 ) = P(W2 ) = P(W3 ) = ... = P(Wn ) = P( W ) , entonces:
n n 1
P(Ω) = ∑ P(Wi ) = ∑ P( W ) = nP( W ) ⇒ 1 = nP( W ) ⇒ P( W ) =
i =1 i =1 n
que es la probabilidad de un evento elemental equiprobable.
m
Por otro lado, sea A =  Wi , entonces:
i =1

P(A) = P   Wi  = ∑ P(Wi ) = ∑ P( W ) = mP( W )


m m m

i =1  i =1 i =1

1 m
Por tanto, P(A) = m  = .
n n
Como consecuencia del teorema podemos afirmar que, la probabilidad
de un evento, cuando los eventos elementales son equiprobables, es igual al
número de casos favorables (número de elementos de A o cardinalidad de A)
sobre el número de casos posibles (número de elementos de Ω o cardinalidad
de Ω ).
casos favorables número de elementos de A # (A)
P(A) = = =
casos posibles número de elementos de Ω # (Ω )
Esta es la definición clásica de Probabilidad que dice: “La probabilidad
de un evento A es la oportunidad relativa que tiene el evento de ocurrir y es
igual al número de casos favorables sobre el número de casos posibles”. Así
mismo, es la interpretación de la frecuencia de ocurrencia de un evento,
obviamente bajo las condiciones del teorema 1.5.6.

DEFINICIÓN 1.5.2
Se conoce como espacio de probabilidad equiprobable a aquel espacio donde
la probabilidad P asigna igual probabilidad a cada uno de sus eventos
elementales (condición del teorema 1.5.6).
EJEMPLOS
1.5.1 ¿Cuál es la probabilidad de que al lanzar un dado aparezca en la cara
superior un valor par y cuál es la probabilidad de obtener un número
mayor que dos?
SOLUCIÓN:
El espacio muestral es Ω = {1,2,3,4,5,6}
Introducción al Cálculo de Probabilidades 19

#A 3 1
a) Los pares son A = {2,4,6}, entonces P(A) = = = = 0,5
#Ω 6 2
#B 4 2
b) Mayor que 2: B = {3,4,5,6}, entonces P(B) = = = = 0,666
#Ω 6 3
1.5.2 Una carta se extrae aleatoriamente de una baraja de 52 cartas. ¿Cuál es
la probabilidad de que sea una jota y cuál la probabilidad de que sea un
cinco de corazones?
SOLUCIÓN:
Previamente, recordemos que en una baraja de 52 cartas hay 13 cartas de
cuatro palos: espadas, corazones, tréboles y oros; consecuentemente es
importante tener presente que el espacio muestral Ω , tiene 52 cartas y
los eventos, tienen elementos, de acuerdo con los casos favorables:
4 1
a) P( jota ) = P(11) = =
52 13
1
b) P(cincodecorazones) = , (en las 52 cartas hay un sólo cinco de
52
corazones).
1.5.3 Dos personas A y B juegan de la siguiente manera: cada una lanza una
moneda dos veces. Un posible resultado, representado en notación
matricial es, por ejemplo:

Primer Lanzamiento Segundo lanzamiento


A  C (Cara) C
 
B  S (Sello) C
Si suponemos que cada uno de estos elementos (es decir matrices), tienen
la misma probabilidad ¿Cuál es la probabilidad de que el evento
elemental anterior ocurra?
SOLUCIÓN:
Podemos representar a Ω por medio de:
 X X12  
Ω =  11  X ij = S,obienC;i = 1,2y j = 1,2
 X 21 X 22  
4
En total el número de elementos de Ω es 2 = 16 , por lo que
 X X12  1  X11 X12 
P  11  = para cualquier elemento   de Ω
  X 21 X 22   16  X 21 X 22 
1.5.4 En el ejemplo anterior ¿Cuál es la probabilidad de cada uno de los
siguientes eventos?
20 Hugo Cornejo Villena & Hugo Cornejo Rosell.

a) E1 = A obtiene dos caras.


b) E 2 = Cada persona obtiene por lo menos una cara.
SOLUCIÓN:
 C C  C C  C C  C C  4 1
E 1 =      ∴P(E1 ) = =
 S S  S C  C S  C C  16 4
 C C  C C  C S  C S  S C  S C  C C  C S  S C 
E 2 =          
  C C   C S   C C   C S   S C   C C   S C   S C   C S 
9
∴P(E 2 ) =
16
OBSERVACIÓN: Cuando digamos “un elemento de una población finita Ω
es seleccionado al azar” asignaremos la misma probabilidad a cada elemento
de Ω . Es decir, estaremos trabajando en un espacio equiprobable.
1.5.5 Una bola es seleccionada al azar, de una caja que contiene 4 bolas
blancas, 6 bolas rojas y 5 bolas verdes. Determinar la probabilidad de
que sea:
a) verde
b) no blanca
c) roja o verde
SOLUCIÓN:
El espacio muestral tiene: 4 + 6 + 5 = 15 bolas
número de bolas verdes 5 1
a) P( verde) = = =
número total de bolas 15 3
4 11
b) P (no blanca) = 1 - P(blanca) = 1 − =
15 15
c) P (roja o verde) = P(R ∪ V) = P(R) + P(V) - P(RV)
6 1
= + − 0 , P(RV) = 0, por ser mutuamente
15 3
6 + 5 11
excluyentes, P (roja o verde) = =
15 15
1.5.6 Después de un extenso estudio, los archivos de una compañía de seguros
revelan que la población de una región cualquiera puede clasificarse,
según sus edades, como sigue: Un 35 % menores de 20 años, un 25%
entre 21 y 35 años, un 20% entre 36 y 50 años, un 15% entre 51 y 65 años
y un 5% mayores de 66 años. Supongamos que se puede elegir una
persona, de manera que cualquier habitante de la región supuesta tiene la
Introducción al Cálculo de Probabilidades 21

misma probabilidad de ser elegido. ¿Cuál es la probabilidad de que la


persona elegida sea mayor de 50 años?
SOLUCIÓN:
El espacio muestral: Ω = {menos de 20, 21 a 35, 36 a 50, 51 a 65,
mayores de 66}
Valor asignado a los puntos muestrales:
 35 25 20 15 5 
 , , , , 
100 100 100 100 100 
Por lo tanto, la probabilidad buscada es:
15 5 20 1
P= + = =
100 100 100 5
1.5.7 Una palabra de la frase: “el que estudia triunfa”, será seleccionada al
azar. En este caso Ω = {el, que, estudia, triunfa}, y A es la familia de
todos los subconjuntos (eventos) de Ω y nuestra función de probabilidad
1
asigna probabilidad a cada palabra.
4
Las probabilidades de los eventos:
a) El número de vocales de la palabra seleccionada es 2.
b) El número de consonantes de la palabra seleccionada es 1.
c) Hay más vocales que consonantes.
d) Hay por lo menos dos vocales.
1 1 1 3
son respectivamente , , , . El evento “el número de vocales de la
4 2 2 4
palabra seleccionada es 2”, es representada por A = {que} y tiene
1
probabilidad P(A) = P({que}) = ; el evento "El número de consonantes
4
de la palabra seleccionada es 1", está dada por B = {el, que} y tiene una
2 1
probabilidad de P(B) = = ; el evento “hay más vocales que
4 2
consonantes” es representado por C={que, estudia} y su probabilidad es
1 1 1
P(C) = P({que}) + P({estudia}) = + = ; y finalmente el evento “hay
4 4 2
por lo menos dos vocales”, es representado por D = {que, estudia,
triunfa} y tiene probabilidad:
1 1 1 3
P(D) = P({que}) + P({estudia}) + P({triunfa}) = + + =
4 4 4 4
22 Hugo Cornejo Villena & Hugo Cornejo Rosell.

1 1 2
1.5.8 Si P(A) = , P(B) = ,yP(A ∪ B) = , calcular:
2 2 3
a) P ( A )
b) P( A ∩ B)
c) P( A ∩ B)
SOLUCIÓN:
1 1
a) P( A ) = 1 − P(A) = 1 − =
2 2
b) P ( A ∩ B ) = P [B − ( A ∩ B)] = P(B) − P(A ∩ B)
Como
P(A ∩ B) = P(AB) = P(A) + P(B) − P(A ∪ B)
1 1 2 2 1
= + − = 1− =
2 2 3 3 3
1 1 1
Entonces P( A ∩ B) = − =
2 3 6
1 2
c) P( A ∪ B) = P( A ∩ B) = 1 - P(AB) = 1 - =
3 3
1.5.9 Si se carga un dado, de manera que un número par tiene el doble de
posibilidades de presentarse que un número impar. Sea A el evento de
que el dado caiga en un número par y B el evento de que resulte uno
divisible entre 4. Hallar P(A ∪ B) y P(A ∪ B ) .
c c

SOLUCIÓN:
El espacio muestral es: Ω = {1,2,3,4,5,6}, y si m es la probabilidad de
presentación de un número impar, entonces 2m es la probabilidad de
presentación de un número par. Dado que la suma de las probabilidades
1
debe ser 1, se tiene 3(m) + 3(2m) = 1, entonces 9m = 1, o m = . De
9
1 2
aquí que, las probabilidades de y se le asigna a cada número impar
9 9
y par, respectivamente.
Por otro lado: A= {2,4,6} y B = {4}, entonces A U B = {2,4,6} ,
A ∩ B = {4}
1 2
Al asignarle una probabilidad de a cada impar y de a cada par,
9 9
entonces:
Introducción al Cálculo de Probabilidades 23

2 2 2 6 2
a) P(A ∪ B) = + + = =
9 9 9 9 3
2 7
b) P(A c ∪ B c ) = P(A ∩ B) = 1 - P(A ∩ B) = 1 - =
9 9
NOTA: Debe observar el lector, que Ω contiene eventos no equiprobables y
por lo que no se utiliza el teorema 1.5.6 en el cálculo de las probabilidades.
1.5.10 En cierta ciudad, el porcentaje de personas que leen los diarios A, B y
C están dados en el siguiente diagrama:

a) ¿Qué porcentaje de la población lee al menos uno de los periódicos?


b) ¿Cuál es la probabilidad de que una persona seleccionada
aleatoriamente de esta población sea lectora del periódico B y no lo
sea de los periódicos A y C?
SOLUCIÓN:
a) Deseamos hallar P ( A ∪ B ∪ C ) , entonces:
P ( A ∪ B ∪ C ) = P(A) + P(B) + P(C) −
[ P(AB) + P(AC) + P(BC)] + P(ABC)
= 0.5 + 0.4 + 0.4 - (0.1 + 0.2 + 0.15) + 0.04
= 1.3 - (0.45) + 0.04 = 0.89
Leen al menos uno de los periódicos el 89% de la población.
b) Deseamos Hallar P(A c BC c )
Tenemos el siguiente diagrama de Veen (ampliado):
24 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Luego comparando o por observación directa con el diagrama de la


c c 19
hipótesis: P(A BC ) = = 0.19
100
1.5.11 Si Ω = y P una probabilidad, definida por:
 0, six ≤ 0
 1 2 1
 x , si0 < x ≤
P(]− ∞, x ]) =  2 2
1 1
 ( x + 1),si < x ≤ 1
3 2
 1, six > 1
Calcular:
 1 1 2
a) P  − ∞,   , b) P(]− ∞,5]) y c) P  ,  
 3  3 3
SOLUCIÓN:
2
 1 1  1  11 1
a) P  − ∞,   =   =   = ,b) P(]− ∞,5]) = 1
 3  2  3  2  9  18
1 2  2 1 
c) Como en :  ,  =  − ∞,    ,+∞  ,
3 3  3 3 
Entonces
1 2  2  1 
P  ,   = P  − ∞,   ,+∞  
3 3  3  3 
 2 1   2 1 
= P  − ∞,   + P  ,+∞   − P  − ∞,  ∪  ,+∞  
 3 3   3 3 
 2 1 
= P  − ∞,   + P  ,+∞   − P(Ω)
 3 3 
 2 1  
c

= P  − ∞,   + 1 − P  ,+∞  − P(Ω)
 3 3  

 2  1
= P  − ∞,   + 1 − P  − ∞,   − P(Ω)
 3  3 
12  1
=  + 1 + 1 − − 1
33  18
1  5  1 10 − 1 9 1
=  − = = =
3  3  18 18 18 2
Introducción al Cálculo de Probabilidades 25

1.5.12 Si = y si:
A1 = {( x , y) x ≤ 2 ∧ y ≤ 4} , A 2 = {( x , y) x ≤ 2 ∧ y ≤ 1}
A 3 = {( x , y) x ≤ 0 ∧ y ≤ 4} , A 4 = {( x , y) x ≤ 0 ∧ y ≤ 1}
A 5 = {( x , y) 0 < x ≤ 2 ∧ 1 < y ≤ 4}
Si se tiene que:
7 1 3 2
P(A1 ) = , P(A 2 ) = , P(A 3 ) = , P(A 4 ) = ,
8 2 8 8
Hallar P(A 5 )
SOLUCIÓN
Graficando adecuadamente, los diferentes eventos, obtenemos:
A 5 = A 1 − (A 2 ∪ A 3 ) y aplicando el teorema 1.5.4, tenemos:
P(A 5 ) = P[A1 − (A 2 ∪ A 3 )] = P(A1 ) − P(A 2 ∪ A 3 )
= P(A1 ) − [P(A 2 ) + P(A 3 ) − P(A 2 ∩ A 3 )]
= P(A1 ) − [P(A 2 ) + P(A 3 ) − P(A 4 )]
= P ( A1 ) − P ( A 2 ) − P ( A 3 ) + P ( A 4 )
7 1 3 2 6−4 2 1
= − − + = = =
8 2 8 8 8 8 4

EJERCICIOS
1.- Escriba los elementos de cada uno de los siguientes espacios muestrales:
a) El conjunto de los enteros de 1 y 30 divisibles por 6.
b) El conjunto de resultados, cuando una moneda se lanza al aire hasta
que resulten una cara o tres caras.
c) El conjunto Ω = {x 2 x − 4 ≥ 0∧ x < 1}
2.- Especificar un espacio muestral en un experimento en el que se deje sacar
dos bolas con reemplazo, de una urna que contiene 10 bolas (esto es, la
primera se devuelve a la urna, antes de sacar la segunda). Suponer que
las bolas están numeradas
3.- Supongamos que los residentes de Cotabambas son calvos, o de cabellos
cortos(recortado) o ya sea que son pelucones; además, que tienen ojos
negros o bien ojos pardos. Se selecciona al azar un residente y se pide
dar un espacio muestral Ω para este experimento y defina los siguientes
eventos:
A: El residente seleccionado es pelucón.
B: El residente seleccionado tiene ojos pardos
C: El residente seleccionado tiene cabello corto(recortado) y ojos
negros.
26 Hugo Cornejo Villena & Hugo Cornejo Rosell.

4.- En una carrera participan 7 caballos (numerados del 1 al 7), se otorgan


premios de llegada al primero, segundo y tercer lugar. Dar un espacio
muestral adecuado para este experimento y defina los siguientes eventos:
A: El caballo 4 gana el primer premio.
B: El caballo 4 llega en el tercer lugar.
C: El caballo 4 no termina en los tres primeros lugares.
5.- Un “canillita” vende periódicos todos los días en la misma esquina, y
cuenta con una dotación de 50 periódicos, sin saber por anticipado,
cuantos venderá un determinado día. Definir un espacio muestral
adecuado para el experimento que consiste en el número de ventas que
hará cualquier día, definiendo los eventos:
A: Vende al menos 9 periódicos.
B: Vende cuando mucho 9 periódicos.
C: Vende exactamente 9 periódicos.
6.- Considerar el experimento que consiste en el número de ventas que puede
efectuar el “canillita” del ejercicio anterior, en dos días consecutivos.
Dar un espacio muestral adecuado para el experimento definiendo los
eventos:
A: Vende cuando menos 9 periódicos el primer día.
B: Vende cuando menos 9 periódicos el segundo día.
C: Vende al menos 9 periódicos en ambos días.
7.- Un experimento consiste en lanzar en primer lugar un dado y después
lanzar una moneda, siempre y cuando el número en el dado sea par. Si
al resultado del dado es impar, la moneda se lanza dos veces. Al utilizar
la notación 2C, por ejemplo, se indica el evento donde el número
resultante en el dado es un dos y la moneda cae en cara; y 5CS para
señalar el evento de que el dado muestra un 5 y en la moneda se dan una
cara y un sello. Dibuje un diagrama de árbol para mostrar los elementos
del espacio muestral Ω .
8.- Para el espacio muestral del ejercicio anterior, enumere los elementos del
evento:
a) A: El dado cae en un número menor a 3.
b) B: Se obtiene dos sellos.
c) A'∩B
9.- ¿Cuál es la probabilidad de que al lanzar dos dados comunes se presenten
dos valores tales que la suma sea:
a) 4
b) 9
10.- ¿Cuál es la probabilidad de que sean mujeres los tres hijos de una familia?
11.- Si se extrae una carta de un paquete, bien barajado de 52 naipes ¿Cuál es
la probabilidad de obtener:
Introducción al Cálculo de Probabilidades 27

a) Un rey trébol?
b) Un 2,5,7 o 9?
c) Un as rojo y una jota negra?
12.- Ciertos billetes de lotería están numerados del 00001 al 50000. ¿Cuál es
la probabilidad de comprar un billete al azar y que el número resulte
divisible entre 200?
13.- Si A, B y C son eventos del espacio muestral Ω . Demostrar que:
a) Si A ⊂ ByB ⊂ C , entonces
b) A ∪ B = B ∪ A yA ∩ B = B ∩ A
c) A ∩ (B ∩ C) = (A ∩ B) ∩ Cy(A ∪ B) ∪ C = A ∪ (B ∪ C)
d) φ ∩ A = φ y φ ∪ A = A , e) Ω ∩ A = A y Ω ∪ A = Ω
f) (Ac )c = A , g) A ∪ B = A ∪ BAc y h) B = AB ∪ Ac B
14.- Si {A n } es una sucesión de eventos del espacio muestral Ω . Probar
que:
n
n 
a)  A i = A1 ∪   A1c ...A ic−1 A i 
i =1  i =1 
c c
 n A  = n Ac y  n A  = n Ac
b)  i   i  i   i (Leyes de De Morgan)
 i =1  i =1  i =1  i =1

15.- Los artículos provenientes de una línea de producción se clasifican en


defectuosos (D) y no defectuosos (N). Se observan los artículos y se
anota su condición. Este proceso se continúa hasta que se produzcan dos
artículos defectuosos consecutivos o se hayan verificado cuatro artículos,
cualesquiera que ocurran primero. Describir un espacio muestral para
este experimento.
16.- Se hizo un lanzamiento de tres monedas no sesgadas.
a) Escriba el espacio muestral para este experimento.
¿Cuál es la probabilidad de que:
b) Aparezcan exactamente dos caras?
c) Por lo menos aparezca dos caras?
d) Por lo menos los resultados de dos de las monedas sean iguales?
17.- Dos objetos A y B se distribuyen al azar en tres celdas numeradas. Defina
un espacio muestral adecuado para este experimento. Use subíndices
para indicar el número de las celdas; por ejemplo, significa que A esta en
la celda 1 y B en la celda 3. Cuál es la probabilidad de que:
a) La celda dos quede vacías?
b) Dos celdas queden vacías?
18.- En el ejemplo 1.5.3 ¿Cuál es la probabilidad de cada uno de los siguientes
eventos?:
28 Hugo Cornejo Villena & Hugo Cornejo Rosell.

a) A obtiene por lo menos una cara y B obtiene exactamente una cara.


b) El resultado del primer lanzamiento de A coincida con el primero de
B.
19.- Un punto del diagrama (adjunto) será seleccionada al azar. Calcular las
probabilidades de los eventos:
a) La abscisa del punto es 1.
b La abscisa del punto es -2.
c) La abscisa y la ordenada del punto coincidan.
d) La ordenada es mayor que la abscisa.
e) La ordenada es al menos tan grande como la abscisa.
f) La abscisa y la ordenada del punto no son iguales.
g) La suma de las coordenadas del punto no excede a 4.
Y
5
4
3
2
1
1 2 3 4 5
-5 -4 -3 -2 -1 -1
X
-2
-3
-4
-5

20.- ¿Cuál es la probabilidad de que, al lanzar tres monedas, se obtenga tres


"caras" o tres "sellos?".
21.- Si se lanza un par de dados ¿Cuál es la probabilidad de que la suma sea 5 ó
6?
22.- Se lanza un par de dados ¿Cuál es la probabilidad de que aparezca un
número par de puntos en los dos dados?
23.- Cierto tipo de motor eléctrico falla por obstrucción de los cojinetes, por
combustión del embobinado o por desgaste de las escobillas.
Supongamos que la probabilidad de que la obstrucción es el doblete de la
combustión, la cual es cuatro veces más probable que la inutilización de
las escobillas. ¿Cuál es la probabilidad de que el fallo sea por cada uno
de esos tres mecanismos?
24.- Supongamos que A, B y C son eventos tales que:
1
P(A) = P(B) = P(C) =, P(A ∩ B) = P(C ∩ B) = 0 y P(A ∩ C) = .
8
Calcular la probabilidad de que al menos uno de los eventos A, B ó C
ocurra.
25.- Si A, B y C son eventos mutuamente excluyentes y P(A) = 0.2,
P(B) = 0.3 y P(C) = 0.2, encuentre
a) P(A ∪ B ∪ C) y b) P[A ∩ (B ∪ C)]
Introducción al Cálculo de Probabilidades 29

26.- Si P(A) = 0.35, P(B) = 0.73, P(A ∩ B) = 0.14


Calcular: a) P(A ∪ B) , b) P( A ∩ B) y c) P( A ∪ B)
27.- Si A es una familia de eventos del espacio muestral Ω . Entonces A
es un álgebra, sí y sólo si Ω ∈ A y A es cerrado bajo la
complementación y unión finita, es decir:
a) Ω ∈ A , b) Si A ∈ A ⇒ A c ∈ A .
n
c) Si A 1 , A 2 ,..., A n ∈ A ⇒  A i ∈ A .
i =1
Probar: Que toda álgebra es un σ -álgebra.

28.- En una Universidad, el 40% de los estudiantes son de la misma ciudad


donde funciona dicho Centro Superior de Estudios, el 10% estudian
Educación y el 2% son de la misma ciudad y estudian Educación. si se
selecciona al azar un estudiante:
¿Cuál es la probabilidad de que:
a) No sea de la misma ciudad?
b) Sea de la misma ciudad o estudie Educación?
c) No sea de la ciudad ni estudie Educación?
d) Sea de la misma ciudad y no estudie Educación?
29.- En el ejemplo 1.5.11. Calcular:
1 
(] ])  1
a) P  ,8  , b) P 5,1010 y c) P  − 3,  
2   2
30.- Si la probabilidad de un evento A es p, entonces las posibilidades de que
ocurran están dadas por la razón de p, a 1 - p. Comúnmente las
posibilidades se dan como cocientes de dos enteros positivos que no
tienen un factor común y, si es más probable la no ocurrencia de un
evento, se acostumbra a dar las probabilidades de que no ocurrirá en lugar
de las que si ocurra. ¿Cuáles son las posibilidades a favor o en contra de
la ocurrencia de un evento si su probabilidad es:
4
a) , b) 0.05 y c) 0.8
7
CAPÍTULO 2: ANALISIS COMBINATORIO

En muchas ocasiones es dificultoso determinar el número de elementos


de un espacio muestral, por medio de observación directa y esta evaluación
lleva consigo a tener dificultad de encontrar el elemento de aleatoriedad que
se asocia con la ocurrencia de ciertos eventos. Muchos problemas de
probabilidad pueden solucionarse contando los elementos que pertenecen a
los diferentes conjuntos; para ello, es importante tener a la mano varias
técnicas, desafortunadamente, no existe una técnica general que pueda
aplicarse en forma universal a todos los problemas de conteo y la mayoría de
estos problemas se pueden resolver mediante un análisis razonado y
cuidadoso.
En este capítulo desarrollaremos las ideas básicas de las diferentes
técnicas de conteo o enumeración, conocido como Análisis Combinatorio.
2.1 PRINCIPIO DE ENUMERACIÓN
En esta sección aprenderemos como enumerar. Consideremos el espacio
r
de probabilidad equiparable P(A) = , donde r es el número de elementos de
k
A A ∈ A y k es el número de elementos de Ω . En los ejemplos y ejercicios
propuestos se encuentra poca dificultad de calcular r y k. Pero es necesario
considerar situaciones un poco más complicadas, para apreciar la necesidad
de contar sistemáticamente o de procedimientos de enumeración.
2.1.1 PRINCIPIO DE MULTIPLICACIÓN.
Si un evento puede realizarse de n 1 maneras diferentes; y si, continuando
el procedimiento, un segundo evento puede realizarse de n 2 maneras
diferentes, y si, después de efectuadas, un tercer evento puede realizarse de
n 3 maneras diferentes, y así sucesivamente, el último k evento puede
realizarse de n k maneras, entonces el número de maneras en que los k eventos
pueden realizarse en el orden indicado es el producto n 1 n 2 ...n k
Para interpretar este principio con 2 eventos (1 y 2) consideremos un
enfoque esquemático: Sea M y dos rectas: L1 y L 2 . El primer evento consiste
en ir de M a L1 mientras que el segundo consiste en ir de L1 a L 2 . El esquema
siguiente, indica cómo se obtiene el resultado.
Introducción al Cálculo de Probabilidades 31

EJEMPLOS
2.1.1 ¿Cuántas placas para automóvil pueden hacerse usando 2 letras y un
número de 4 cifras, en el que la primera cifra debe ser diferente de uno?
SOLUCIÓN:
Se trata de llenar seis espacios, dos con letras y cuatro con números. El
primer y segundo espacio pueden llenarse en 26 formas cada uno (no se
consideran letras compuestas: CH, LL, RR y Ñ); el tercer espacio en
nueve formas, el cuarto, quinto y sexto, en 10 formas diferentes cada uno.
Por el principio de multiplicación se tiene:
(26)(26)(9)(10)(10)(10) = 6 084 000
Si suponemos que los seis espacios es una caja de seis compartimentos,
entonces se tiene:

Como un caso particular se tiene:

2.1.2 ¿En cuántas formas puede, una asociación de choferes de microbuses,


elegir entre sus 30 miembros a un presidente, un vicepresidente, un
secretario y un tesorero?
SOLUCIÓN
Dado que el presidente puede ser elegido de 30 maneras distintas, luego
un vicepresidente de 29 maneras diferentes, un secretario de 28 y un
tesorero de 27; consiguientemente utilizando el principio de la
multiplicación hay un total de (30)(29)(28)(27) = 657 720 formas en las
cuales puede realizarse la elección completa de directivos de la
asociación.
2.1.3 ¿De cuántas maneras diferentes puede ser contestado un formulario
de 15 preguntas, si cada una se contesta con un verdadero o un falso?
32 Hugo Cornejo Villena & Hugo Cornejo Rosell.

SOLUCIÓN:
La primera pregunta puede ser contestada de dos maneras distintas, la
segunda de dos maneras distintas, la tercera de dos maneras distintas, y
así sucesivamente, la última pregunta también de dos maneras distintas.
Por consiguiente, aplicando el principio de la multiplicación:

2×
2 × ...
 × 2 = 215 = 32768 formas diferentes.
15 veces

NOTA: El principio de la Multiplicación tiene su analogía matemática: Si


A tiene m elementos y un conjunto B tienen n elementos, entonces el conjunto
A × B (producto cartesiano) tendrá mxn elementos.

2.1.4 Si un experimento consiste en lanzar un dado dos veces y sean los


eventos:
A = {en el primer lanzamiento salga par}
B = {en el segundo lanzamiento salga impar, menor que 5}
C = {primer lanzamiento salga par y segundo lanzamiento salga impar,
menor que 5}
¿De cuantas maneras ocurrirá el evento C?
SOLUCIÓN:
A = {2,4,6}, B = {1,3}, entonces C ocurrirá de 3× 2 = 6 maneras, Por
analogía matemática:
C = A × B = {(2,1)(2,3)(4,1)(4,3)(6,1)(6,3)} que son las seis maneras de
ocurrencia del evento C.
2.1.2 PRINCIPIO DE ADICIÓN
Si un evento puede realizarse de n 1 maneras diferentes; y si, continuando
el procedimiento, un segundo evento puede realizarse de n 2 maneras
diferentes, y si, después de efectuadas, un tercer evento puede realizarse de
n 3 maneras diferentes, y así sucesivamente, el último k evento puede
realizarse de n k maneras diferentes, y tal que los k eventos son mutuamente
excluyentes. Entonces el número de maneras en que los k eventos pueden
realizarse es la suma n 1 + n 2 + ... + n k .
Introducción al Cálculo de Probabilidades 33

Para interpretar este principio con 2 eventos, otra vez usamos el enfoque
esquemático, como se indica:

EJEMPLOS
2.1.5 Supongamos que proyectamos un viaje Cusco - Arequipa y debemos
decidir el transporte por carretera o ferrocarril. Existen tres tipos de
vehículos por carretera (automóvil, camión y ómnibus) y dos por
ferrocarril (simplemente tren y auto vagón).
SOLUCIÓN
Por el principio de la adición se tiene 3+2 = 5 tipos de transporte para
viajar de Cusco a Arequipa por carretera o ferrocarril.
NOTA: El principio de la adición, así como el caso anterior, tiene su analogía
matemática: Si un conjunto A tiene m elementos y un conjunto B tienen n
elementos, entonces A ∪ B tendrá m + n elementos, si A ∩ B = φ (A y B
mutuamente excluyentes).
2.1.6 Si un experimento consiste en lanzar un dado sobre una mesa y sean los
eventos A = {2,4} y B = {1,3,5} . El evento A ocurre de dos maneras
(cuando sale 2 o 4), y el evento B ocurre de tres maneras (cuando sale 1,3
o 5); entonces, como los eventos son mutuamente excluyentes, el evento
A o B ocurrirá de 2 + 3 = 5 maneras; es decir si sale 1,2,3,4 o 5.
A ∪ B = {1,2,3,4,5}
2.2. TIPOS DE ANÁLISIS COMBINATORIO.
Como dejamos entender, en la sección anterior, el Análisis Combinatorio
es un sistema que permite agrupar y ordenar, en diversas formas, los elementos
de un conjunto, obviamente basado en los dos principios de la multiplicación
y adición.
Si tenemos un conjunto de “n” elementos y tomamos “k” de ellos para
formar agrupaciones, estos se distinguen entre sí por el orden en que están
colocados los elementos o por uno o más de ellos.
Así, por ejemplo, con los elementos p, q, r, s y t formamos agrupaciones
de 3 en 3:
pqr y prq se diferencian sólo por el orden.
pqr y pqs se diferencian por un elemento.
34 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Si de los elementos que se disponen para formar las agrupaciones todas


diferentes; resultan agrupaciones sin repetición, si algunas son iguales resultan
agrupaciones con repetición.
Los principales tipos de análisis combinatorio o agrupaciones son:
Permutaciones y Combinaciones.
2.2.1 PERMUTACIONES
A) PERMUTACIONES SIN REPETICIÓN
I) Supongamos que se tienen n objetos diferentes. ¿De cuántas
maneras se puede agrupar (permutar) estos objetos?
Para contestar esta pregunta, induciremos mediante un ejemplo.
EJEMPLO
2.1.1 Supongamos que se tiene tres bolas, una roja (R), una blanca (B) y una
azul (A), las cuales deben colocarse en fila ¿De cuántas formas podemos
agrupar?
SOLUCIÓN:
El problema consiste en hacer una lista de todas las agrupaciones posibles
y luego enumerarlas. Una forma de efectuar el listado es por medio del
siguiente enfoque esquemático:

El diagrama indica que existen 6 agrupaciones posibles y que se toma en


cuenta el orden en que los objetos se colocan. Así BRA y BAR se
cuentan como dos agrupaciones diferentes. En este tipo de agrupaciones
el orden es fundamental.

Otra forma de efectuar el listado es colocar en una caja rectangular de


tres compartimentos las tres bolas, en algún orden específico. El primer
compartimento puede ser ocupado por cualquiera de las tres bolas; es
decir:
Introducción al Cálculo de Probabilidades 35

El segundo compartimento puede ser ocupado por cualquiera de las otras


dos restantes, es decir:

Finalmente, el tercer compartimento será ocupado por la bola restante, es


decir:

Aplicando el principio de la multiplicación, se tiene: 3 x 2 x 1 = 6


agrupaciones posibles, con las cuales se puede llenar la caja.

En general, agrupar los n objetos diferentes es equivalente a ponerlos en


una caja con n compartimentos, en algún orden específico.

La primera casilla se puede llenar en una de las n maneras, la segunda de


las (n-1) maneras restantes, ..., y la última casilla sólo de una manera. Por
lo tanto, aplicando el principio de la multiplicación, vemos que la caja se
puede llenar de (n)(n-1), ... , (3)(2)(1) maneras.
DEFINICIÓN 2.2.1.1
Sí n ∈ Ζ 0+ , el número n(n-1)...3.2.1, es denominado factorial de n, denotado
por n!; es decir:
n! = n(n-1)...3x2x1
Es de notar que 0! = 1 (por convención).
Como ejemplos citemos:
1! = 1
3! = 3x2x1 = 6
6! = 6x5x4x3x2x1 = 120
Cuando n es grande, el cálculo de n! es poco práctico. En tal caso, el
valor de n! se obtiene utilizando máquinas calculadoras o a partir de una
fórmula aproximada de Stirling que es:
n!≈ 2πn n n e − n
donde e = 2.71828182......., es la base de los logaritmos naturales
Así, por ejemplo:
50!≈ 2π(50) (50) 50 e −50 = X
36 Hugo Cornejo Villena & Hugo Cornejo Rosell.

(
log X = log 2π(50) (50) 50 e −50 )
1 1
= log100 + log π + 50 log 50 − 50 log e
2 2
1 1
= 2 + log(3.142) + 50 log 50 − 50 log(2.71828)
2 2
1 1
= (2) + (0.4972) + 50(1.6990) − 50(0.4343)
2 2
log X= 64.4836
de donde X = 3.04 × 10 64 , por tanto: 50!≈ 3.04 × 10 64
Las propiedades más importantes de factoriales son:
1. n!= 1 ⇔ n =0∨ n = 1
2. n! = n (n − 1)!
n!= n (n − 1)(n − 2)!
3. n! = m! ⇔ n = m
DEFINICIÓN 2.2.1.2
Una permutación de n objetos diferentes, es cualquier agrupación que se puede
formar con todos los elementos de un conjunto de n objetos diferentes en un
orden dado; el número de permutaciones que se puede formar con “n”
elementos se representa por nPn; y está dada por.
nPn = n!
Las permutaciones se diferencian entre sí sólo por el orden de sus
elementos.
Aplicando esta definición, las permutaciones de las tres bolas del ejemplo
2.2.1, es:
3! = 3x2x1 = 6
EJEMPLOS
2.2.2 De cuántas maneras pueden formarse una fila de 7 soldados.
SOLUCIÓN:
En este caso, todos los 7 soldados entran en la fila y como el orden en
que están colocados interesa; se trata de una permutación.
Luego 7 P7 = 7!= 7 × 6 × 5 × 4 × 3 × 2 × 1 = 5,040 son las maneras de
formarse
2.2.3 Un examen consta de cinco preguntas y se deja libertad para contestarlas
de la pregunta que se desee. ¿De cuántas maneras se puede contestar?
SOLUCIÓN:
Las cinco preguntas serán contestadas en un determinado orden, luego se
trata de una permutación, entonces se contestará de:
Introducción al Cálculo de Probabilidades 37

5 P5 = 5!= 5 × 4 × 3 × 2 × 1 = 120 maneras.


2.2.4. ¿De cuántas maneras pueden ordenarse las letras de la palabra
ESTUDIAR?
SOLUCIÓN:
Las 8 letras de la palabra ESTUDIAR determinan filas y el orden en que
aparecen interesa, luego se trata de una permutación.
Entonces:
8 P8 = 8! = 8 × 7 × 6 × 5 × 4 × 3 × 2 × 1 = 40320 son las maneras de ordenar
las letras de la palabra ESTUDIAR.
2.2.5. ¿De cuántas maneras pueden ordenarse un estante de cinco libros de
matemática y tres libros de física, a condición de que dos libros de
matemática estén siempre juntos y del mismo modo dos libros de física?
SOLUCIÓN:
Analizando detenidamente, observamos que interesa el orden, luego es
un caso especial de permutaciones:
Permutaciones para los libros de matemáticas:
4 P4 = 4! = 4 × 3 × 2 × 1 = 24
Permutaciones para los libros de física:
2 P2 = 2! = 2 × 1 = 2
Permutaciones con los dos grupos
2 P2 = 2! = 2 × 1 = 2
Luego el número total de permutaciones, por el principio de la
multiplicación es:
4 P4 × 2 P2 × 2 P2 = 24 × 2 × 2 = 96 .

DEFINICIÓN 2.2. 1.3


Se llaman permutaciones circulares a aquellas permutaciones que pueden
formarse con “n” objetos dados, de manera que no hay un primer ni último
objeto; es decir se hallan en forma cerrada. El número de permutaciones
circulares distinto que pueden formarse con “n” objetos está dado por:
c
n Pn = (n − 1)!
EJEMPLO
2.2.6 De cuantas maneras pueden sentarse 10 personas alrededor de una mesa
circular, si:
a) Pueden sentarse indistintamente
b) Hay dos pares de enamorados y cada par distinto de enamorados
deben estar uno al lado del otro.
SOLUCIÓN:
38 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Puesto que el orden es importante, se trata de permutaciones y


distribuciones en una mesa circular.
a) El número total de maneras distintas que pueden sentarse los 10
miembros alrededor de la mesa es:
c
10 P10 = (10 − 1)!= 9!= 362880
b) Considerando las dos personas que han de ir juntas como una sola,
para cada par de enamorados; tenemos como 8 personas para
sentarse alrededor de la mesa, lo que puede hacer de 7! = 5040
maneras. Cada par de enamorados, considerados como una sola
persona, pueden a su vez ordenarse entre sí de 2! = 2x1 = 2 maneras.
Por lo tanto, el número de maneras a sentarse alrededor de la mesa
circular, para este caso es:
c
8 P8 × 2 P2 × 2 P2 = 7!×2!×2!= 5040 × 2 × 2 = 20160 .
II) Supongamos que tenemos n objetos diferentes y que deseamos
escoger r de estos objetos, 0 ≤ r ≤ n y permutemos los r elegidos.
Nuevamente, recurrimos al esquema de la parte I) de llenar una caja que
tiene n compartimentos, ahora nos detenemos después que se ha llenado el
compartimento r-ésimo. Así, el primer compartimento puede llenarse de n
maneras, el segundo de (n-1) maneras, ... , y el r-ésimo compartimento de
[n − (r − 1)] maneras, esquemáticamente:

Así, se puede realizar el procedimiento completo, de nuevo usando, el


principio de la multiplicación, de: n(n-1) (n-2)...(n-r+1) maneras.
DEFINICIÓN 2.2.1.4
Una permutación de n objetos diferentes tomados r a la vez o de r en r, r ≤ n,
es cualquier agrupación de r objetos escogidos de un conjunto de n objetos
diferentes, en un orden dado. El número de permutaciones de n objetos
tomados de r en r, se denota por n Pr ; y está dado por:
n!
n Pr = n (n − 1)...(n − r + 1) =
(n − r )!
En una permutación de n objetos diferentes tomados r a la vez, se deben
tener en cuenta que:
1) En cada grupo entra “r” elementos de los “n”.
2) Dos grupos se consideran distintos cuando difieren o bien en algunos de
los elementos o bien en el orden en que van colocados.
Muchos autores denominan a las permutaciones de n objetos diferentes;
tomados de r a la vez como permutación parcial o variaciones
Introducción al Cálculo de Probabilidades 39

(permutaciones donde los elementos no se toman en su totalidad) de orden o


clase “r”
EJEMPLOS
2.2.7. Hallar el número de permutaciones de 4 objetos, tales como A, B, C y
D tomados dos a la vez. En otras palabras, hallar el número de “palabras
de dos letras diferentes” que pueden formarse con las cuatro letras
numeradas.
Representemos las palabras de dos letras por los dos compartimentos de
una caja. Ahora la primera letra puede escogerse de cuatro formas
diferentes y enseguida, la segunda letra puede escogerse de tres formas
diferentes; es decir.

Así por el principio de la multiplicación se tiene 4x3 =12 posibles


palabras de dos letras sin repetición. Aplicando factoriales se tiene:
4! 4 × 3 × 2 ×1
4 P2 = = = 12
(4 − 2)! 2 ×1
Estas palabras son:
AB, BA, BC, CB
AC, CA, BD, DB
AD, DA, CD, DC
2.2.8. Un club tiene 25 miembros y se desea elegir un presidente, un
vicepresidente, un secretario, un tesorero y un fiscal ¿Cuántos candidatos
pueden formarse si:
a) Cualquier miembro del club es elegible para cualquier cargo?
b) Tres miembros determinados son elegibles para presidente y para los
demás cargos?
SOLUCIÓN:
Notemos que el orden es importante, luego se trata de permutaciones:
a) Observemos que de 25 hay que seleccionar 5 y a su vez éstas tendrán
que distribuirse en uno de los cargos, luego el número de
permutaciones o grupos de candidatos que se puede formar son:
25!
25 P5 = = 25 × 24 × 23 × 22 × 21 = 6375600
(25 − 5)!
b) Sacamos a 1 de las tres personas que pueden ocupar el cargo de
presidente, luego de los 24 restantes formamos, los candidatos para
los 4 cargos restantes que son:
24!
24 P4 = = 24 x 23x 22 x 21 = 255024
(24 − 4)!
40 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Como son tres los que pueden ocupar la presidencia, se tiene para
este caso que el número de candidatos es:
3 x 255024 = 765072
2.2.9. ¿Cuántos números de tres cifras se pueden formar con los dígitos del 0
al 9; usándolos una vez?
SOLUCIÓN:
Se trata de permutaciones, ya que el orden importa. Luego el número
buscado es:
10!
10 P3 = = 10 × 9 × 8 = 720
(10 − 3)!
Es de notar que este caso es diferente a la lotería (que admite repetición),
que teniendo los dígitos del 0 al 9 y cada billete tiene cifras de tres dígitos,
el total de billetes es:
10 3 = 10 x 10 x 10 = 1000.
2.2.10. Cada país de los cuatro que forman un mapa es pintado de diferente
color. ¿De cuántas maneras puede ser pintado el mapa si se dispone de
siete colores?
SOLUCIÓN:
Pintar el mapa con siete colores agrupados de cuatro en cuatro merece un
orden, luego se trata de una permutación.
Entonces las maneras como puede ser pintados el mapa son:
7!
7 P4 = = 7 × 6 × 5 × 4 = 840
(7 − 4)!
2.2.11. ¿Cuántas señales diferentes se pueden formar con 10 banderas
distintas, levantando 3 y no más de 5 banderas en una driza de un mástil?
SOLUCIÓN:
El orden es importante, luego se trata de permutaciones:
Se presentan los siguientes casos:
Levantando sólo 3, tenemos:
10!
10 P3 = = 10 × 9 × 8 = 720
(10 − 3)!
Levantando sólo 4, tenemos
10!
10 P4 = = 10 × 9 × 8 × 7 = 5040
(10 − 4)!
Levantando sólo 5, tenemos
10!
10 P5 = = 10 × 9 × 8 × 7 × 6 = 30204
(10 − 5)!
Introducción al Cálculo de Probabilidades 41

Por lo tanto, aplicando el principio de la adición, se forman las siguientes


señales diferentes:
10 P3 + 10 P4 + 10 P5 = 720 + 5040 + 30240 = 36000
OBSERVACIÓN: Las permutaciones desarrolladas en la parte I) es un caso
particular de las de II). Si r = n, entonces:
n! n! n!
n Pr = = = = n!= n Pn
(n − r )! 0! 1
B) PERMUTACIONES CON REPETICIÓN
Supongamos que tenemos n objeto de los cuales hay n 1 iguales entre sí,
y designemos por x al número de permutaciones posibles. Si los n 1 elementos
fuesen diferentes unos de otros, el número de permutaciones distintas que se
podrían derivar de cada una de las x sería n 1 ! y en total x n 1 !. Pero el número
n!
de permutaciones es, por otro lado, n! de donde x n 1 ! = n! . Entonces, x =
n 1!
Si además de aquellos n 1 elementos iguales entre sí, hay todavía otros
n 2 iguales y designemos con z el número de permutaciones posibles,
obtendríamos de cada una de estas z, si los elementos n2 fuesen distintos,
n 2 ! y en total z. n 2 !. Pero, por otra parte, el número de permutaciones,
n! n!
cuando solamente había n1 elementos iguales, es , por tanto z.n 2 !=
n 1! n 1!
n!
luego z = . Generalizando encontraremos la siguiente definición:
n 1! n 2 !
DEFINICIÓN 2.2.1.5
El número de permutaciones de n tal que dichos n elementos, son divididos en
m partes ordenadas (particionado en m subconjuntos) de los cuales, el primero
contiene n 1 elementos, el segundo n 2 , etc., es:
n!
n Pn1 ,n 2 ,...,n m =
n 1!n 2 !...n m !
Donde n 1 , n 2 , ... , n m son números enteros positivos, tal que
n 1 + n 2 + ... + n m = n
En la práctica los diferentes n j ; 1 ≤ j ≤ m que toman valor de 1, ya no
se consideran en el cálculo, porque n j!= 1!= 1 , pero sí aquellos que son
mayores o iguales a 2 ; como veremos en los siguientes ejemplos:
42 Hugo Cornejo Villena & Hugo Cornejo Rosell.

EJEMPLOS
2.2.12 Hallar el número de permutaciones de los números: 1,2,3,2.
SOLUCIÓN:
Aplicando la definición tenemos: n = 4, n 1 = 1, n 2 = 2, n 3 = 1 (número
de veces que aparecen los números 1,2 y 3 respectivamente)
entonces:
4! 4!
4 P1, 2 ,1 = = = 12 y estos son:
1!2!1! 2!
2213 2321 1223 3212
2231 2132 3221 1322
2123 2312 1232 3122
2.2.13 ¿Cuántas permutaciones distintas pueden formarse con todas las letras
de la palabra: ¿TRIUNFARAS?
SOLUCIÓN:
Como en el caso anterior, se trata de permutaciones con repetición, n
= 10 (número de letras de la palabra TRIUNFARAS), n 1 = 1 (número de
veces que aparece la letra T), n 2 = 2 (número de veces que aparece la
letra R), n 3 = 1 (número de veces que aparece la letra I), n 4 = 1
(número de veces que aparece la letra U), n 5 = 1 (número de veces que
aparece la letra N), n 6 = 1 (número de veces que aparece la letra F), n 7
= 2 (número de veces que aparece la letra A) y n 8 = 1 (número de veces
que aparece la letra S). Tomando en cuenta la observación última, el
número de permutaciones distintas que se pueden formar con las dos
letras de la palabra TRIUNFARAS son:
10! 3628800
10 P1, 2 ,1,1,1,1, 2 ,1 =10 P2 , 2 = = = 907200
2!2! 2× 2
2.2.14 ¿De cuántas formas diferentes pueden ocho personas acomodarse en
dos habitaciones triples y una habitación doble de un hotel??
SOLUCIÓN:
Como quiera que sea importante el orden, se trata de una permutación
con repetición, entonces, las formas posibles de acomodo serán:
8! 4320
8 P3, 3, 2 = = = 560
3!3!2! 6 × 6 × 2
DEFINICIÓN 2.2.1.6
El número de permutaciones de n elementos de un conjunto, todos distintos,
tomados de r en r, con repetición es igual a:
n PR r = nr
Introducción al Cálculo de Probabilidades 43

EJEMPLOS
2.2.15 ¿De cuántas maneras se pueden escoger tres cartas sucesivas de una
baraja de 52 cartas con sustitución?
SOLUCIÓN:
Como el orden importa, se trata de una permutación con repetición y
como cada carta se regresa a la baraja antes de escoger la siguiente, luego
cada carta puede escogerse de 52 maneras diferentes. Entonces el
número de maneras que se puede escoger es de:
3
52 PR 3 = 52 × 52 × 52 = 52 = 140608
pruebas ordenadas diferentes de tamaño 3 con sustitución.

2.2.16¿Cuántos números de dos cifras se pueden formar con los dígitos 1,2 y
3, con repetición?
SOLUCIÓN:
El orden es importante, consecuentemente se trata de una permutación de
3 elementos tomados de 2 en 2, con repetición. Entonces los números
que se forman son:
2
3 PR 2 = 3 = 9
Estos números son:
11 12 13
21 22 23
31 32 33
2.2.2 COMBINACIONES
A) COMBINACIONES SIN REPETICIÓN
El siguiente ejemplo servirá para expresar la idea de combinación de n
objetos tomados de r en r sin repetición.
EJEMPLO
2.2.17 Supongamos que un estudiante tiene posibilidad de llevar 3 de los 5
cursos programados es una especialidad. Determine de cuantas formas
puede hacer su elección.
SOLUCIÓN:
En este caso, el orden no cuenta y solo interesa hacer los arreglos o
“selecciones” de 3 cursos diferentes.
Si los 5 cursos se designan con A, B, C, D y E, las posibles selecciones,
serán las siguientes:
ABC. ABD, ABE, ACD, ACE, ADE, BCD, BCE, BDE y CDE
Es decir, que en total se tiene 10 selecciones, y cada una recibe el nombre
de combinación de los cinco cursos, tomadas de tres en tres o
simplemente se dice que en total son 10 combinaciones.
44 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Este ejemplo sirve de base para marcar la diferencia entre permutación y


combinación. En permutación el orden se toma en cuenta, mientras que
en combinación no se toma en cuenta el orden.
DEFINICIÓN 2.2.2.1
Una combinación de n objetos, sin repetición, tomados de r en r (r < n), es un
subconjunto de r objetos obtenidos de un conjunto de n objetos sin repetición
y sin considerar su orden, y se denota por n C r .
El número de estas combinaciones, todos distintos, es:
n (n − 1)(n − 2)...(n − r + 1) n!
n Cr = =
1 × 2 × 3 × ... × r r!(n − r )!
n Pr
De aquí que: n C r =
r!
Es preciso aclarar que, dado un conjunto de n elementos, combinaciones
significa formar grupos de r elementos, donde un grupo difiere de otro en un
elemento o más y el orden de ellos no interesa.
n!
El número , aparece en muchos contextos en matemáticas, y
r!(n − r )!
por lo tanto se emplea un símbolo especial para designarle. Escribiremos:
n! n
=  
r!(n − r )!  r 
Estos números son los llamados “coeficientes binomiales”. Para nuestro
fin son definidos sólo si n y r son Ζ 0+ tal que, 0 ≤ r ≤ n .
La denominación de coeficientes binomiales es en atención al Teorema
del Binomio en el que aparecen como coeficientes. El Teorema del Binomio,
como es ampliamente conocido, está dado por:
n n
(a + b) n = ∑  a r b n −r
r =0 r 

n (n − 1) n −2 2
= a n + na n −1b + a b + ... + b n
1× 2
Los coeficientes binomiales tienen muchas propiedades interesantes de
las cuales tenemos:
n  n   n   n − 1   n − 1 n  0
a)   =   , b)   =   +   , c)   = 1 d)   = 1 ,
 r  n − r  r   r −1  r  0  0
n n  n + 1  n   n 
e)   = 1 , f)   = n y g)   =   +  
n 1  r   r − 1  r 
Introducción al Cálculo de Probabilidades 45

EJEMPLOS
2.2.18 Sea el conjunto de elementos: A, M, O, R.
¿Cuántas combinaciones podemos obtener tomándolos de 2 en 2?
SOLUCIÓN:
El número de combinaciones es:
4! 4! 24
4 C2 = = = =6
2!(4 − 2)! 2!2! 2 × 2
que son AM, AO, AR, MO, MR y OR
Observemos que MA no está considerado, ya que de acuerdo con la
definición AM es lo mismo que MA; es decir el orden no interesa y los
diferentes grupos se diferencian, mutuamente, por lo menos en un
elemento.
2.2.19 ¿Cuántas combinaciones de 5 cartas pueden formarse de un mazo
ordinario de 52 cartas?
SOLUCIÓN:
El número de combinaciones es:
52!
52 C 5 = = 2598960
5!47!
2.2.20 El entrenador de fulbito del Centro Social “KUTAQ”, ha seleccionado
a 8 jugadores, que se desempeñan con la misma eficiencia en cualquier
puesto en la cancha, a excepción del arquero que es inamovible. ¿De
cuántas maneras distintas puede formar al equipo titular?
SOLUCIÓN:
Como el arquero es inamovible, el entrenador tiene 7 jugadores de los
cuales debe escoger solamente 5 y no importa el orden, luego hallaremos
el número de combinaciones que será las maneras distintas de formar el
equipo titular:
7! 7! 7 × 6
7 C5 = = = = 21
5!(7 − 5)! 5!2! 2
2.2.21 Un examen consta de 6 preguntas, si se debe dar respuesta sólo a 4 de
las 6 preguntas. ¿Cuántos exámenes de diferente contenido habrá que
corregir como máximo?
SOLUCIÓN:
Como los exámenes de diferentes contenidos no necesitan orden, se trata
de un problema de combinaciones. Por tanto, el número de exámenes
que se debe corregir como máximo es:
 6  6! 6 × 5
6 C4 =  4  = 4!2! = 2 = 15
 
y estos son:
46 Hugo Cornejo Villena & Hugo Cornejo Rosell.

1234 1235 1236 1245 1246


1256 1345 1346 1356 1456
2345 2346 2356 2456 3456
2.2.22 ¿Cuántas comisiones compuestas de 3 estudiantes y 6 profesores
pueden formarse a base de 6 estudiantes y 12 profesores como máximo?
SOLUCIÓN:
No siendo necesario el orden, hallaremos el número de combinaciones:
6 C 3 y 12 C 6 y para determinar las comisiones compuestas apliquemos el
principio de multiplicación. Por lo tanto, el número de comisiones que
se puede formar como máximo es:
 6  12  6! 12!
6 C 3 ×12 C 6 = 
 3  ×  6  = 3!3! × 6!6!
   
12 × 11 × 10 × 9 × 8 × 7
= = 18480
6×6
2.2.23 Una caja contiene 5 bolas rojas, 4 bolas verdes y 3 bolas amarillas.
¿Cuántas selecciones de 3 bolas se pueden formar, si:
a) Las tres bolas deben ser rojas.
b) Ninguna puede ser roja.
SOLUCIÓN:
Se trata de problemas de combinaciones, ya que el orden no importa.
 5  5! 5 × 4
a) 5 C 3 =   = = = 10
 3  3!2! 2
b) Las condiciones del problema se cumplen si tenemos:
4 C 3 ×3 C 0 , 4 C 2 ×3 C1 , 4 C1 ×3 C 2 y 4 C 0 ×3 C 3
Como cada una son mutuamente excluyentes, entonces aplicando el
principio de la adición, el número total de selecciones que se forman es:
 4  3   4  3   4  3   4  3 
4 C3 ×3 C 0 + 4 C 2 ×3 C1 + 4 C1×3 C 2 + 4 C 0 ×3 C3 =    +    +    +   
 3  0   2  1   1  2   0  3 
4! 4! 3! 4! 3!
= ×1 + × + × + 1×1
3!1! 2!2! 1!2! 1!3! 2!1!
= 4 + 18 + 12 + 1 = 35 .
2.2.24 La diferencia entre el número de permutaciones de n objetos, tomados
de 2 en 2 y el de combinaciones de estos objetos tomados de 2 en 2 es
105. Calcular el valor de n.
SOLUCIÓN:
Por condición del problema:
Introducción al Cálculo de Probabilidades 47

n! n!
n P2 − n C 2 = − = 105 ,
(n − 2)! (n − 2)!2!
utilizando las propiedades se tiene:
n (n − 1)
n (n − 1) − = 105 ⇒ n (n − 1) = 210 = 14 × 15 .
2
Por tanto, n = 15
B) COMBINACIONES CON REPETICIÓN
DEFINICIÓN 2.2.2.2
El número de combinaciones con repetición de n elementos, tomados de r en
r, (r ≤ n ) , denotado por n CR r , está dado por:
 n + r − 1  n + r − 1 (n + r − 1)(n + r − 2)...n
n CR r =   =   =
 n −1   r  1 × 2 × 3 × ... × r
EJEMPLOS
2.2.25 Determinar el número de combinaciones, con repetición, de los
números: 1,2,3 y 4 de 3 en 3.
SOLUCIÓN:
El número de combinaciones con repeticiones es:
 4 + 3 − 1 6 × 5 × 4
4 CR 3 = 
 3  = 1 × 2 × 3 = 20 y son: (leer verticalmente)
 
111 122 133 144 222 233 244 333 344 444
112 123 134 223 234 334
113 124 224
114
2.2.26 ¿Cuántos y que productos diferentes, cada uno de dos factores primos,
se obtienen con los tres factores primos 2,3 y 5?
SOLUCIÓN:
Del enunciado, nada se opone a que en los factores primos de cada
producto haya dos factores iguales. Dos productos sólo podrán ser
diferentes cuando tengan factores distintos, luego los diferentes
productos serán combinaciones con repetición de 3 elementos tomados
de 2 en 2 y su número será:
 3 + 2 − 1  4  4! 4 × 3
3 CR 2 = 
 2  =  2  = 2!3! = 2 = 6
   
Estos productos son:
2x2 = 4 3x3 = 9
2x3 = 6 3x5 = 15
2x5 = 10 5x5 = 25
48 Hugo Cornejo Villena & Hugo Cornejo Rosell.

EJERCICIOS
1.- ¿Cuántas placas de motocicletas se pueden fabricar si cada uno debe
llevar una letra de un alfabeto de 27 letras seguidos de 3 dígitos, no
aceptándose el cero como primer dígito?
2.- ¿Cuántos números de 3 dígitos, si no se admiten repeticiones de algún
dígito en el número, pueden formarse a partir de los dígitos: 2, 3, 5, 6, 7
y 9?
3.- a) ¿Cuántos números, del ejercicio anterior, son menores de 400?
b) ¿Cuántos números, del ejercicio anterior, son múltiplos de 5?
c) ¿Cuántos números, del ejercicio anterior, son pares?
4.- En un Restaurante hay tres tipos de sopas, cuatro segundos y tres postres
¿de cuantas maneras se puede escoger un menú?
5.- Existen 3 autopistas que unen las ciudades A y B y dos carreteras que
unen las ciudades B y C ¿Cuantos caminos se pueden escoger para
transportarse de la ciudad A a la ciudad C pasando por la ciudad B?
6.- Un producto se arma en tres etapas. En la primera etapa hay cinco líneas
de armado, en la segunda etapa hay 4 líneas de armado y en la tercera
etapa hay 6 líneas de armado. ¿De cuantas maneras pueden moverse el
producto en el proceso de armado?
7.- ¿Cuántos números de 4 cifras menores de 2 341 se puede formar con los
dígitos: 1, 2, 3 y 4, si cada dígito se usa una sola vez?
8.- Se tienen cinco libros. ¿De cuántas formas pueden ser dispuestos en un
estante?
9.- Un inspector visita 6 máquinas diferentes durante el día. A fin de impedir
a los operadores que sepan cuando inspeccionará, varía el orden de las
visitas. ¿De cuántas formas pueden hacerlo?
10.- ¿Cuántas cifras de 9 dígitos se puede formar con los dígitos de 1 a 9?
11.- Se tiene 7 cajas de colores diferentes. ¿De cuántas maneras se puede
poner en forma vertical?
12.- Un estudiante tiene un libro Estadística y Probabilidades, uno de Cálculo
Diferencial, uno de Administración de Personal, uno de Contabilidad
General y uno de Literatura Peruana. ¿De cuántos modos pueden
disponerse es un estante si el de Cálculo Diferencial siempre está al
medio?
13.- ¿De cuántas maneras se puede ordenar un estante con 4 litros de agua
mineral y 3 botellas de gaseosa, de las mismas marcas, a condición de
que los dos litros estén siempre juntos y dos botellas siempre juntas?
14.- ¿De cuántos modos pueden sentarse un padre, su esposa y sus tres hijos
en un banco y alrededor de una mesa, contando siempre a partir del
padre?
Introducción al Cálculo de Probabilidades 49

15.- ¿De cuántas maneras 2 cusqueños, 4 apurimeños y 3 puneños pueden


sentarse en fila, de modo que los del mismo departamento se sienten
juntos?
16.- Cinco personas en una reunión se dan la mano ¿De cuántas formas
pueden hacerlo si cada persona saluda a una y sólo a una?
17.- Seis personas intervienen en un campeonato de “ping pong” ¿Cuántos
partidos pueden programarse?
18.- Cuatro personas entran a un restaurante y en la mesa que elige hay cinco
asientos. ¿De cuántas maneras distintas pueden sentarse?
19.- Una persona posee 3 anillos distintos. ¿De cuántas maneras puede
colocárselos en sus dedos, colocando sólo un anillo por dedo, sin contar
los pulgares?
20.- Cierta sustancia química se forma mezclando 5 líquidos distintos. Se
propone verter un líquido en un estanque y agregar sucesivamente los
otros líquidos. Todas las mezclas posibles se deben probar para
establecer cuál es el mejor resultado ¿Cuántas pruebas deben hacerse?
21.- a) Hallar el número de maneras en que 5 personas pueden sentarse en
una fila.
b) ¿Cuántas maneras hay si dos de las personas insisten en sentarse una
al lado de la otra?
22.- ¿Cuántas señales diferentes se pueden formar con ocho banderas
colocadas en línea vertical, si cuatro son rojas, dos azules y dos verdes?
23.- a) Hallar el número de maneras en que cuatro niños y cuatro niñas se
pueden sentar en una fila, si los niños y las niñas deben quedar
alternados.
b) Hallar el número de maneras si se sientan alternadamente y uno de
los niños se sienta siempre junto a una determinada niña.
c) Hallar el número de maneras si se sientan alternadamente, pero dos
niños no queden en sillas adjuntas.
24.- Hallar el número de permutaciones que se pueden formar con todas las
letras de cada una de las palabras:
a) ESTUDIO,
b) TRABAJO
c) PROGRESO
25.- a) Hallar el número de permutaciones diferentes que se pueden formar
con todas las letras de la palabra CAMARA.
b) ¿Cuántas de ellas principian y terminan en A?
c) ¿Cuántas tienen 3A juntas?
d) ¿Cuántos empiezan en A y terminan en M?
50 Hugo Cornejo Villena & Hugo Cornejo Rosell.

 99   99  100 
26.- a) Si a =  yb =   . Expresar   en función de a y b.
5 4  5 
(Sugerencia: No calcule las expresiones anteriores para resolver el
problema).
n!  n 
b) Si =  .
n 1!n 2 !...n n !  n 1 , n 2 ,..., n n 
Calcular:
 9 
i)  
 3,5,1
 6 

ii) 
 2,2,1,1,0 
n n n n
27.- Comprobar que:   +   +   + ... +   = 2
n
0 1
      2 n
 
28.- Hallar n sí:
a) n P4 = 42 n P2
b) 2 n P2 + 50 = 2n P2
29.- ¿Cuántos números diferentes de cuatro cifras podrán formarse con las
nueve cifras significativas, tal que sí puede figurar una misma cifra, las
veces que se quiera?
30.- ¿Cuántos números de cinco cifras simétricas (los que se pueden leer de
derecha a izquierda o viceversa), pueden formarse con el cero y con los
cinco primeros números primos?
31.- Veinte corredores compiten en una carrera para la cual hay un primero,
segundo y tercer premio ¿De cuántas maneras pueden concederse estos
premios?
32.- Un mecanismo complejo puede fallar en 15 partes diferentes. Si falla en
tres partes ¿De cuántas maneras puede suceder?
33.- ¿De cuántas maneras se puede escoger un comité, compuesto de 5
hombres, 3 mujeres, de un grupo de 10 hombres y 7 mujeres?

34.- En un club hay 10 jugadores de “fulbito”. ¿De cuántas maneras puede


formarse un equipo compuesto de 6 jugadores?
35.- ¿Cuántos cables de conexión se conectan para que dos oficinas
cualesquiera, de 12 oficinas existentes en un edificio, se comuniquen
directamente?
36.- Hay 10 puntos: A, B, C,......, en un plano; en una misma línea no hay 3
puntos:
Introducción al Cálculo de Probabilidades 51

a) ¿Cuántas líneas forman los puntos?


b) ¿Cuantas líneas no pasan por A o B?
c) ¿Cuantos triángulos forman los puntos?
d) ¿Cuantos triángulos de estos se forman con el punto A?
e) ¿Cuantos triángulos contienen al lado AB?
37.- Diez personas deben dormir en 2 dormitorios, acomodando por lo menos
cuatro en cada dormitorio. ¿De cuántas formas pueden acomodarse?
38.- Un estudiante tiene que resolver 10 preguntas de 13 en un examen:
a) ¿Cuántas maneras de escoger tiene?
b) ¿Cuántas, si las dos primeras son obligatorias?
c) ¿Cuántas si una de las dos primeras es obligatoria?
d) ¿Cuántas, si tiene que contestar exactamente tres de las 5 primeras?
e) ¿Cuántas, si tiene que contestar por lo menos tres de las cinco
primeras?
CAPÍTULO 3: PROBABILIDAD CONDICIONAL E
INDEPENDENCIA
3.1 PROBABILIDAD CONDICIONAL
Antes de dar la definición de lo que es una probabilidad condicional
(llamada también probabilidad ligada o relativa) motivaremos mediante un
ejemplo el concepto de ella.
EJEMPLO
3.1.1 En un salón de clases de 18 alumnos, hay 10 hombres de los cuales 6
hablan quechua y 8 mujeres de las cuales únicamente 4 hablan quechua.
Usted llama a una persona al azar y anota el sexo. Enseguida la hace
pasar a otro salón para que un profesor le haga un examen de quechua.
a) ¿Cuál es la probabilidad de que la persona llamada apruebe el
examen, es decir sepa quechua?
b) ¿Cuál es la probabilidad de que la persona apruebe el examen dado
que usted vio que era mujer?
SOLUCIÓN:
Intuitivamente responderíamos que:
10 5
a) P (de saber quechua, apruebe el examen) = = y
18 9
b) Si usted vio que la persona era mujer y dado que se llama a cada una
de ellas con la misma probabilidad, entonces
4 1
P (aprobar el examen dado que es mujer) = = .
8 2
DEFINICIÓN 3.1.1
Dados los eventos A, B ∈ A . Sí P(A)>0, la probabilidad condicional de que
el evento B ocurra dado que el evento A ha ocurrido, está dado por el cociente
de P(AB) con P(A).
NOTACIÓN: La probabilidad condicional de que el evento B ocurra dado
que el evento A ha ocurrido se denota por P(B/A), de aquí que la definición
anterior se exprese como:
P(AB)
P( B A ) = , si P(A) > 0
P( A )
La probabilidad condicional de que el evento A ocurra dado que el
evento B ha ocurrido está dada por:
P(AB)
P(A B) = , si P(B) > 0
P(B)
Si en el ejemplo anterior representamos por A al evento “la persona
llamada es mujer” y B es el evento “aprobar el examen”, entonces:
Introducción al Cálculo de Probabilidades 53

a) La probabilidad de aprobar el examen dado que la persona llamada es


mujer, es:
4
P(AB) 4 1
P(B A) = = 18 = =
P(A) 8 8 2
18
b) La probabilidad de que la persona llamada sea una mujer, dado que
aprobó el examen es:
4
P(AB) 4 2
P(A / B) = = 18 = =
P(B) 10 10 5
18
EJEMPLOS
3.1.2 Supongamos que dos monedas se lanzan al aire una por una, y definimos
A como el evento “dos caras” y B como el evento “la primera moneda
arrojada es cara”. El espacio muestral Ω y los eventos A y B, son
respectivamente:
Ω = {CC, CS, SC, SS}
A = {CC}
B = {CC, CS}
de donde
AB = {CC}
Por tanto:
1 1 1 1
P(AB) 1
P(A) = ,P(B) = ,P(AB) = y P(A B) = = 4= .
4 2 4 P(B) 1 2
2
que es la probabilidad condicional de que el evento A ocurra dado que el
evento B ha ocurrido, y la probabilidad condicional de que el evento B
ocurra dado que el evento A ha ocurrido es:
1
P(AB)
P(B A) = = 4 =1
P(A) 1
4
3.1.3 Se lanzan dos dados normales y se anotan los resultados (x i , x i ) en
donde x i es el resultado del i-ésimo dado i= 1,2. Por tanto, el espacio
muestral Ω se puede representar por 36 resultados igualmente posibles:
Ω = {( x i , x i ) / x i es resultado del i-ésimo dado, i= 1,2}
= {(1,1)(1,2 ),..., (6,6 )}
Consideremos los dos sucesos siguientes:
A = {(x 1 , x 2 ) x 1 + x 2 = 10} , B = {(x 1 , x 2 ) x 1 > x 2 }
Así: A = {(5,5), (4,6), (6,4)} , B = {(2,1), (3,1),..., (6,5)}
54 Hugo Cornejo Villena & Hugo Cornejo Rosell.

3 15
Por tanto P(A) = y P(B) = . Las probabilidades condicionales
36 36
son:
1 1
P(A B) = y P(B A ) =
15 3
De la definición precedente podemos deducir algunas consecuencias que
serán de suma importancia para el desarrollo de la presente obra.
TEOREMA 3.1.1
Si P(A)>0, entonces, P(B/A) es una probabilidad, es decir:
i) P(B A ) ≥ 0,∀ B ∈ A
ii) P(Ω A ) = 1 y
∞  ∞
iii) P  B i A  = ∑ P(B i A ) , donde B1 , B 2 ,...,∈ A y son disjuntos o
 i =1  i =1
mutuamente excluyentes 2 a 2.
DEMOSTRACION:
i) Como BA ∈ A , tenemos que P(BA) ≥ 0. Si se divide los dos miembros
P(BA)
de la desigualdad por P(A)>0, se tiene: ≥0
P(A)
y por definición se tiene que P(B / A) ≥ 0 .
P(ΩA) P(A)
ii) P(Ω A ) = = =1
P( A ) P( A )
∞  ∞ 
iii) Como: P  B i A  = P  B i A  P(A)
 i =1   i =1 
Entonces;

∑ P(B i A) ∞ P (B A )
P  B i A  = i =1
∞ ∞
=∑ i
= ∑ P(B i A ).
 i =1  P(A) i =1 P ( A ) i =1

El teorema establece que una probabilidad condicional es una


probabilidad. Por lo tanto, todos los teoremas demostrados para la
probabilidad son válidos para probabilidades condicionales; así tenemos:
a) P(φ A ) = 0
b) ( )
P B c A = 1 − P(B A )
c) P[(B1 ∪ B 2 ) A ] = P(B1 A ) + P(B 2 A ) − P[(B1 B 2 ) A ]
d) Sí B1 , B 2 ,..., B n ,.. ∈ A son eventos cualesquiera, entonces:
Introducción al Cálculo de Probabilidades 55

 ∞  ∞
P   B i  A  ≤ ∑ P(B i / A )
 i =1   i =1
EJEMPLOS
3.1.4 Si A y B son dos eventos tales que:
1 1 1
P(A) = , P(B) = y P(AB) = . Calcular:
2 3 4
a) P(A ∪ B)
b) P[(A ∪ B) B]
(
c) P B c A c )
SOLUCIÓN:
1 1 1 7
a) P(A ∪ B) = P(A) + P(B) - P(AB) = + − =
2 3 4 12
b) P ( A ∪ B ) B = P(A B) + P(B B) − P(AB B)
P(AB) P(BB) P(ABB)
= + −
P(B) P(B) P(B)
1 1
= 4
1
+1− 4
1
=1
3 3

c) (
P Bc A c =) =
[(
P(B c A c ) P A c B c
=
)]
1 − P(A ∪ B)
P(A )c
P(A )c
1 − P(A)
1 − 127 5 5
= = 12
=
1− 1
2
1
2 6
3.1.5 El Programa de Profesionalización Docente de la Universidad
Tecnológica de los Andes, en la ciudad del Cusco, tiene distribuidos sus
alumnos, por sexo y especialidades, conforme la siguiente tabla:

ESPECIALIDAD
Historia Lengua Matemática Total
SEXO Primaria
Geografía. Literatura Física
Varones 48 34 28 98 208
Mujeres 30 68 12 182 292
Total 78 102 40 280 500

Se selecciona un estudiante aleatoriamente del grupo:


a) ¿Cuál es la probabilidad de que el alumno seleccionado estudie
Matemática - Física si se sabe que es mujer?
56 Hugo Cornejo Villena & Hugo Cornejo Rosell.

b) ¿Cuál es la probabilidad de que el alumno seleccionado estudie


Primaria si se sabe que es varón?
c) ¿Cuál es la probabilidad de que el alumno seleccionado sea un varón
dado que no estudia Historia - Geografía?
c) ¿Cuál es la probabilidad de que el alumno seleccionado sea de
Lengua Literatura dado que no sea mujer?
SOLUCIÓN:
Sean los eventos:
A 1 : El alumno seleccionado es varón.
A 2 : El alumno seleccionado es mujer.
B1 : El alumno seleccionado estudia Historia - Geografía.
B 2 : El alumno seleccionado estudia Lengua - Literatura.
B 3 : El alumno seleccionado estudia Matemática - Física.
B 4 : El alumno seleccionado estudia Primaria.
Consiguientemente:
208 292
P(A1 ) = = 0.416 , P(A 2 ) = = 0.584
500 500
78 102
P(B1 ) = = 0.156 , P(B 2 ) = = 0.204
500 500
40 280
P(B 3 ) = = 0.08 , P(B 4 ) = = 0.56
500 500
y las probabilidades:
( ) ( )
P A i ∩ B j = P A i B j ; i = 1,2 , j = 1,2,3 están dadas en la siguiente
tabla:

B1 B2 B3 B4 Total
A1 0.096 0.068 0.056 0.196 0.416
A2 0.060 0.136 0.024 0.364 0.584
Total 0.156 0.204 0.080 0.560 1.000
12
Donde, por ejemplo: P(A 2 B 3 ) = = 0.024 .
500
Por tanto:
P(B 3 A 2 ) 0.024
a) P(B 3 A 2 ) = = = 0.041
P( A 2 ) 0.584
Introducción al Cálculo de Probabilidades 57

P(B 4 A1 ) 0.196
b) P(B 4 A1 ) = = = 0.471
P( A1 ) 0.416
c)

( ) PP(A(BB) ) = P(A1 )−−PP(B(A) B )


c
P A1 B1c = 1
c
1 1 1 1

1 1

0.416 − 0.096 0.320


= = = 0.379
1 − 0.156 0.844

( ) PP(A(BB) ) = P(B
c
2)− P( A 2 B 2 ) P( A 2 B 2 )
d) P A c2 B 2 = 2 2
= 1−
2 P( B 2 ) P( B 2 )
0.136
= 1− = 1 − 0.667 = 0.333
0.204
3.1.6 Un restaurante popular, únicamente presenta dos tipos de comida: sopa
y arroz con pollo. El 20% de los clientes del sexo masculino prefiere sopa,
el 30% de las mujeres escogen arroz con pollo, el 75% de los clientes son
del sexo masculino.
Determinar:
a) La probabilidad de que el cliente prefiere sopa, sabiendo que es de
sexo masculino.
b) La probabilidad de que el cliente prefiere sopa y que el cliente es
varón.
c) La probabilidad de que el cliente es mujer, sabiendo que prefiere
sopa.
d) La probabilidad de que el cliente es mujer o el cliente prefiere arroz
con pollo.
SOLUCIÓN:
Consideremos los siguientes eventos:
V : Cliente es varón.
M : Cliente es mujer.
S : Cliente prefiere sopa.
A : Cliente prefiere arroz con pollo.
Como el 75% de los clientes son varones, entonces el 25% de los clientes
son mujeres, de aquí que:
75 25
P(V) = = 0.75 y P(M ) = = 0.25
100 100
Por otro lado, como el 20% de los clientes varones prefiere sopa
entonces: P(VS) es el 20% de 75%, es decir es el 15%, luego
58 Hugo Cornejo Villena & Hugo Cornejo Rosell.

15
P(VS) = = 0.15 y como el 30% de las mujeres escogen arroz con
100
pollo entonces: P(MA) es el 30% de 25%, es decir es el 7.5%,
consecuentemente. En forma completa, tenemos la probabilidad de las
intersecciones de los eventos, en la siguiente tabla:

S A Total
V 0.150 0.600 0.750
M 0.175 0.075 0.250
Total 0.325 0.675 1.000

Por tanto:
P(SV ) 0.150
a) P(S V ) = = = 0.2
P(V) 0.750
b) P(SV) =0.15
P(MS) 0.175 7
c) P(M S) = = =
P(S) 0.325 13
d) P(MUA) = P(M)+P(A)–P(MA)= 0.25 + 0.675 – 0.075 = 0.85

3.1.7 Una urna contiene 6 bolas azules y 5 verdes. Se extraen dos bolas
sucesivamente sin reemplazo
a) Calcular la probabilidad de que ambas sean azules
b) Calcular la probabilidad de que la segunda sea azul.
SOLUCIÓN:
Definamos los eventos:
A : La primera bola es azul.
B : La segunda bola es azul.
C : Las dos bolas son azules.
Entonces
6 5 3
a) AB = C y P(C) = P(AB) = P(A) P(B/A) = × =
11 10 11
b) Como
B = (AB) ∪ (A c B) y (AB) ∩ (A c B) = φ
Entonces
P(B) = P(AB) + P(A c B) = P(A)P(B A) + P(A c )P(B A c )
6 5  6 6 3 5 6 3 3 6
= × + 1 − . = + × = + =
11 10  11  10 11 11 10 11 11 11
Introducción al Cálculo de Probabilidades 59

TEOREMA 3.1.2 (Regla del Producto)


Dados n+1 eventos cualesquiera: A 0 , A 1 ,..., A n , para los que, se tiene:
P(A 0 A 1 A 2 ...A n ) = P(A 0 )P(A 1 A 0 )...P(A n A 0 ...A n −1 ) o bien:
 
P  A i −1  = P(A 0 )∏ P A i  A j−1 
n +1 n i

 i =1  i =1  j=1 
DEMOSTRACION:
Como
A 0 A 1 ...A n −1 ⊂ A 0 A 1 ...A n − 2 ⊂ .. ⊂ A 0 A 1 ⊂ A 0 , resulta
0 〈 P(A 0 A 1 ...A n −1 ) ≤ P(A 0 A 1 ...A n − 2 ) ≤ .. ≤ P(A 0 A 1 ) ≤ P(A 0 ) y, por
consiguiente, todas las probabilidades condicionales implicadas en el
enunciado del teorema están bien definidas.
La demostración del teorema se realiza utilizando el axioma de
inducción. Sea S el conjunto de valores de n para los cuales el teorema se
cumple. Evidentemente 1∈ S, puesto que: P(A 0 A 1 ) = P(A 0 )P(A1 / A 0 ) , por
la misma definición de probabilidad condicional. Sea n ∈ S, entonces por la
definición de probabilidad condicional, se tiene:
P(A 0 A 1 ...A n A n +1 ) = P(A 0 A 1 .....A n )P(A n +1 A 0 ...A n )
Como n∈ S el valor:
P(A 0 A 1 ....A n ) = P(A 0 )P(A 1 / A 0 )....P(A n / A 0 A 1 ....A n −1 ) , entonces
P(A 0 A 1 ...A n A n +1 ) = P(A 0 )P(A 1 / A 0 )......P(A n +1 A 0 ...A n )
de donde n+1∈ S, y con esto, por el axioma de inducción S, contiene a todos
los enteros positivos, lo que demuestra el teorema.
EJEMPLOS
3.1.8 A un jugador le reparten cuatro cartas una tras otra de una baraja
corriente de 52 cartas. ¿Cuál es la probabilidad de que todas sean
espadas?
SOLUCIÓN:
Sean A 0 , A 1 , A 2 y A 3 las cartas “espadas” extraídas en forma sucesiva,
13
en el orden que se indica. Entonces: P(A 0 ) = , puesto que hay 13
52
espadas entre las 52 cartas. La probabilidad de que la segunda carta sea
12
espada dado que ya salió una espada es, P(A1 / A 0 ) = , puesto que
51
únicamente hay 12 cartas espadas entre las 51 cartas restantes, siguiendo
el mismo razonamiento se encuentran:
60 Hugo Cornejo Villena & Hugo Cornejo Rosell.

11 10
P(A 2 A 0 A 1 ) = y P( A 3 A 0 A 1 A 2 ) = Por lo tanto aplicando la
50 49
regla del producto se tiene:
13 12 11 10 33
P(A 0 A1 A 2 A 3 ) = × × × =
52 51 50 49 12,495
3.1.9 Una urna contiene 15 bolas, de las cuales 4 son verdes, 5 amarillas y 6
rojas. Se extrae 4 bolas de la urna sin reemplazo. Encontrar la
probabilidad de que la primera bola sea amarilla, la segunda sea roja, el
tercero verde y la cuarta roja.
SOLUCIÓN:
Consideremos los siguientes eventos:
A i : Obtención de una bola amarilla en la i-ésima extracción.
R i : Obtención de una bola roja en la i-ésima extracción.
Vi : Obtención de una bola verde en la i-ésima extracción.
Donde 1 ≤ i ≤ 4 y se entiende, por ejemplo, R 2 : roja en la segunda
extracción, V4 : verde en la cuarta extracción, etc.
De acuerdo a los datos del problema la probabilidad pedida es:
P(A 1 R 2 V3 R 4 ) = P(A 1 )P(R 2 / A 1 )P(V3 / A 1 R 2 )P(R 4 / A 1 R 2 V3 )
y como:
5 1 6 3 4
P(A1 ) = = , P(R 2 / A1 ) = = , P(V3 / A 1 R 2 ) =
15 3 14 7 13
5
P(R 4 / A 1 R 2 V3 ) = .
12
1 3 4 5 5
Entonces: P(A1 R 2 V3 R 4 ) = × × × =
3 7 13 12 273
3.1.10 En el ejemplo anterior, si el experimento consiste en extraer 3 bolas sin
reposición. Encontrar la probabilidad de que la primera bola sea amarilla
y las siguientes verdes o rojas.
SOLUCIÓN:
Consideremos los mismos eventos del ejemplo anterior, donde 1 ≤ i ≤ 3
La probabilidad a calcular es:
P(E ) = P[(A 1 V2 V3 ) ∪ (A 1 V2 R 3 ) ∪ (A 1 R 2 V3 ) ∪ (A 1 R 2 R 3 )]
Dado que los eventos son mutuamente excluyentes

P(E ) = P(A 1 V2 V3 ) + P(A 1 V2 R 3 ) + P(A 1 R 2 V3 ) + P(A 1 R 2 R 3 )


y como
Introducción al Cálculo de Probabilidades 61

5 4 3 2
P(A 1 V2 V3 ) = P(A 1 )P(V2 / A 1 )P(V3 / A 1 V2 ) = × × =
15 14 13 91
5 4 6 4
P(A 1 V2 R 3 ) = P(A 1 )P(V2 / A 1 )P(R 3 / A 1 V2 ) = × × =
15 14 13 91
5 6 4 4
P(A 1 R 2 V3 ) = P(A 1 )P(R 2 / A 1 )P(V3 / A 1 R 2 ) = × × =
15 14 13 91
5 6 5 5
P(A 1 R 2 R 3 ) = P(A1 )P(R 2 / A 1 )P(R 3 / A1 R 2 ) = × × =
15 14 13 91
Entonces:
2 4 4 5 15
P(E) = + + + =
91 91 91 91 91
Otra forma de calcular, directamente, es utilizando la definición clásica
de la probabilidad de un evento; como:
Casos favorables: Fijando la primera bola amarilla, luego consiste en
sacar 2 bolas verdes y/o rojas y es equivalente a sacar 2 bolas verdes o 2
bolas rojas o una bola verde y una roja (el orden no interesa porque en el
denominador hay combinaciones); es decir: los casos favorables
 5  4   5  6   5  4  6 
son:    +    +     .
 1  2   1  2   1  1  1 
15  3 
Casos posibles son:   
 3  1 
Por tanto:

 5  4   5  6   5  4  6 
   +    +    
1 2 1 2 1 1 1 5 × 6 + 5 × 15 + 5 × 24
P(E ) =           =
15  3  455 × 3
  
 3  1 
5(6 + 15 + 24) 5 × 45 15
= = =
455 × 3 455 × 3 91
También se puede resolver el problema, utilizando el diagrama de árbol.
Cada rama representa una probabilidad condicional y el producto de estas
probabilidades es la probabilidad de las intersecciones de los eventos;
debemos observar que las probabilidades asociadas a cada 3 ramas
adyacentes del árbol suman 1 y también la suma de todas las
probabilidades de las intersecciones es 1; así tenemos:
62 Hugo Cornejo Villena & Hugo Cornejo Rosell.

De donde:
P(E ) = P(A 1 V2 V3 ) + P(A 1 V2 R 3 ) + P(A 1 R 2 V3 ) + P(A 1 R 2 R 3 )

5 4 3 5 4 6 5 6 4 5 6 5
= × × + × × + × × + × × 
 15 14 13   15 14 13   15 14 13   15 14 13 
2 4 4 5 15
P(E) = + + + =
91 91 91 91 91
TEOREMA 3.1.3 (Teorema de la probabilidad total)

 N  
Si P   B n   = 1 , donde N es un entero positivo o ∞, y si P(B n ) > 0 para
 n =1  
todo n, entonces para cualquier evento A, se tiene:
N
P(A) = ∑ P(A B n )P(B n )
n =1

DEMOSTRACION:
Introducción al Cálculo de Probabilidades 63

 N 
c

Puesto que P   B n   = 0 , entonces:
 n =1  

 c

P(A) = P A  B n  + P A  B n   = P  AB n  = ∑ P(AB n )
N N N N

 n =1    n =1    n =1  n =1

N
= ∑ P(A / B n )P(B n )
n =1

En forma desarrollada, el teorema de la probabilidad total está dado


por:

P(A) = P(A / B1 )P(B1 ) + P(A / B 2 )P(B 2 ) + ... + P(A / B N )P(B N )

OBSERVACIÓN: Muchos autores enuncian el teorema de la probabilidad


total mediante la hipótesis de que la familia de eventos { B1 , B 2 ,..., B N }
determina una partición del espacio muestral, Ω . Y esto debido a la siguiente
definición y propiedad de probabilidad: (P(Ω) = 1) .
DEFINICIÓN 3.1.2
Se dice que la familia o colección de eventos {B1 , B2 ,...BN } es una partición
del espacio muestral Ω, si satisface las siguientes condiciones:
N
 B n = B1 ∪ B 2 ∪ ... ∪ B n = Ω (Colectivamente exhaustivos).
n =1

B i ∩ B j = φ, ∀ i, j = 1,2,..., N (Eventos disjuntos 2 a 2).

Gráficamente:
64 Hugo Cornejo Villena & Hugo Cornejo Rosell.

El resultado del teorema de la probabilidad total representa una


relación muy útil, ya que frecuentemente cuando se busca P(A) puede ser
difícil calcularlo directamente. Sin embargo, con la información adicional de
que B n ha ocurrido, para todo n, podemos calcular P(A / B n ) y luego P(A),
usando el teorema de la probabilidad total.
EJEMPLOS
3.1.11 Consideremos el lote de 20 artículos defectuosos y 80 sin defectos, de
los cuales escogemos 2 artículos sin sustitución. Definimos los eventos A y
B así:
A: el primer artículo elegido es defectuoso.
B: el segundo artículo elegido es defectuoso.
Luego podemos calcular P(B) como sigue:
( )
P(B) = P(B / A )P(A) + P B / A c P(A c )
donde:
19 20 1 20
P(B / A) = , P(A) = = , P(B / A c ) = y
99 100 5 99
4
P(A c ) = 1 − P(A) =
5
Entonces:
19 1 20 4 1
P(B) = × + × =
99 5 99 5 5
3.1.12 Cierto artículo es manufacturado por tres fábricas: I, II y III. Se sabe
que la primera produce el doble de artículos que la segunda y que ésta y
la tercera producen el mismo número de artículos (durante un período de
producción específico). Se sabe también que el 2% de los artículos
producidos por las dos primeras son defectuosas, mientras que el 4% de
los manufacturados por la tercera es defectuosa. Se colocan juntos todos
los artículos producidos en una fila y se escoge al azar uno. ¿Cuál es la
probabilidad de que este artículo sea defectuoso?
SOLUCIÓN:
Sean los siguientes eventos:
A : el artículo es defectuoso. B1 : el artículo proviene de I.
B 2 : el artículo proviene de II. B 3 : el artículo proviene de III.
Necesitamos calcular P(A) y para tal fin, aplicamos el teorema de la
probabilidad total:
P(A) = P(A / B1 )P(B1 ) + P(A / B 2 )P(B 2 ) + P(A / B 3 )P(B 3 )
Como
Introducción al Cálculo de Probabilidades 65

50 1 25 1
P(B1 ) = = , mientras que: P(B 2 ) = P(B 3 ) = = (I produce
100 2 100 4
el doble que II, por hipótesis II y III producen el mismo número),
2 4
P(A / B1 ) = P(A / B 2 ) = = 0.02 y P(A / B 3 ) = = 0.04 .
100 100
Entonces se tiene:
1 1 1
P(A) = (0.02)( ) + (0.02)( ) + (0.04)( ) = 0.025
2 4 4
3.1.13 En una urna se han colocado 5 bolas blancas y 4 rojas y en una
segunda urna 4 bolas blancas y 6 rojas. Se saca una bola de la primera
urna y, sin verla se introduce en la segunda urna. ¿Cuál es la
probabilidad de que la bola que se extrae de la segunda urna sea roja?
Sean los eventos:
R 1 : retiro de una bola roja de la primera urna
R 2 : retiro de una bola roja de la segunda urna
B1 : retiro de una bola blanca de la primera urna.
Calculemos P(R 2 ) y para ello aplicaremos el teorema de la
probabilidad total dado que R i y B i son mutuamente excluyentes.
Entonces
P(R 2 ) = P(B1 )P(R 2 / B1 ) + P(R 1 )P(R 2 / R 1 )
5 6 4 7 58
P(R 2 ) = × + × =
9 11 9 11 99

La solución por medio del diagrama de árbol es el siguiente:

P(R 2 ) = P(B1 )P(R 2 / R 1 ) + P(R 1 )P(R 2 / R 1 ) = P(B1 R 2 ) + P(R 1 R 2 )


66 Hugo Cornejo Villena & Hugo Cornejo Rosell.

30 28 58
= + =
99 99 99
TEOREMA 3.1.4 (Regla de Bayes)
N 
Si P  B n  = 1 , donde N ∈ 0+ o ∞ , y si P(B n )>0 para todo n, entonces
 n =1 
para cualquier evento A, tal que P(A) > 0, se tiene:
P(A / B j )P(B j )
P(B j / A ) = N ; donde j = 1,2,..., N
∑ P ( A / B n ) P ( B n )
n =1
DEMOSTRACION:
Para cualquier j=1,2,...,N; por definición de probabilidad condicional se
tiene:
P(B j A)
P(B j / A) =
P(A)
Por la misma definición se tiene que: P ( B j A) = P ( A / B j ) P ( B j ) y por el
N
teorema de las probabilidades totales: P(A) = ∑ P(A / B n )P(B n )
n =1

P(A / B j )P(B j )
De donde, P(B j / A) = N
∑ P(A / B n )P(B n )
n =1
que demuestra el teorema.
La regla de Bayes nos da la probabilidad de un B j particular, dado
que el evento A ha ocurrido. Para su aplicabilidad, debemos conocer los
valores de las P ( B j ); muy a menudo esos valores no son conocidos, y esto
limita el uso del resultado; de aquí la importancia de la Regla de Bayes,
debido a que relaciona las probabilidades “a priori” P(B n ) con las
probabilidades “a posteriori” P(B n / A) (Probabilidad de B n después que
ha ocurrido A). Ha existido considerable controversia acerca de la Regla de
Bayes. Matemáticamente, como se vio, es perfectamente correcto; solo la
elección impropia para P ( B j ) hace el resultado objetable.
EJEMPLOS
En el ejemplo 3.1.12. ¿Cuál es la probabilidad de que este artículo
provenga de I, dado que es defectuoso?
Introducción al Cálculo de Probabilidades 67

SOLUCIÓN:
P(A / B1 )P(B1 )
P(B1 / A) =
P(A / B1 )P(B1 ) + ... + P(A / B 3 )P(B 3 )
(0.02)(1 / 2)
= = 0.40
(0.02)(1 / 2) + (0.02)(1 / 4) + (0.04)(1 / 4)
En el siguiente ejemplo ilustramos la regla de Bayes haciendo uso
del "diagrama del árbol".
3.1.15 Supongamos que muchas cajas están llenas de caramelos de dos
tipos: A y B. El tipo A contiene 70% dulce y 30% ácido, mientras que
en B los porcentajes son contrarios. Aún más, supongamos que el 60%
de todas las cajas de caramelos son del Tipo A y el resto son del Tipo B.
Si recibimos una caja de dulces de tipo desconocido. Se permite sacar
una muestra de caramelo (una situación no real, pero que nos permite
presentar las ideas importantes sin mucha complicación) y con esta
información debemos decir que si el tipo A o el tipo B nos fue ofrecido.
SOLUCIÓN
Presentemos el siguiente diagrama de árbol que nos ayudará a analizar
el problema ( C D y C A indican la elección de un caramelo dulce o
ácido, respectivamente)

Se obtiene:
60 40 70
P( A ) = = 0.6 ; P(B) = = 0.4 ; P (C D / A ) = = 0.7 ;
100 100 100
30 30 70
P (C A / A ) = = 0.3 ; P(C D / B) = = 0.3 ; P(C A / B) = = 0.7
100 100 100
Lo que realmente debemos calcular es P(A C D ) , P(A C A ) , P(B C D ) y
P(B C A ) . Suponiendo que escogimos un caramelo dulce. ¿Qué
decisión estaría más indicado a hacer? Comparamos P(A C D ) y
P(B C D ) . Aplicando la regla de Bayes tenemos:
68 Hugo Cornejo Villena & Hugo Cornejo Rosell.

P (C D / A ) P ( A ) (0.7)(0.6) 7
P(A CD ) = = =
P(CD / A)P(A) + P(CD / B)P(B) (0.7)(0.6) + (0.3)(0.4) 9

P(C D / B)P(B) (0.3)(0.4) 2


P(B C D ) = = =
P(C D / B)P(B) + P(C D / A)P(A) (0.3)(0.4) + (0.7)(0.6) 9
Así, con base en la evidencia que tenemos (es decir, la obtención de C D
) es 3 12 veces más probable que estemos considerando un depósito del
tipo A que del tipo B. Por lo tanto, decidiríamos, probablemente, que el
caramelo se obtuvo de una caja del tipo A.
3.1.16 Existen tres candidatos para ocupar la presidencia del Club Cusco,
después de una encuesta se ha llegado a encontrar que la probabilidad de
que salga el señor Acuña es de 0.25, la de que salga el señor Palomino es
de 0.4 y la de que salga el señor Salazar es de 0.35. En caso de que se
elija al señor Acuña, la probabilidad de que la cuota de ingreso de nuevos
socios al club se incremente es de 0.8; si se elige al señor Palomino o al
señor Salazar, las probabilidades de incremento de cuotas de ingreso son
de 0.1 y 0.4, respectivamente. ¿Cuál es la probabilidad de que sea elegido
el señor Salazar como presidente del club si se ha efectuado un
incremento en la cuota de ingreso antes de las elecciones?
SOLUCIÓN:
Consideremos los siguientes eventos:
A: Se incrementa las cuotas de ingreso.
B1 : Se elija al señor Acuña.
B 2 : Se elija al señor Palomino.
B 3 : Se elija al señor Salazar.
Debemos hallar P(B 3 / A) y para ello apliquemos, como en los casos
anteriores, la regla de Bayes:
P( B 3 ) P( A / B 3 )
P( B 3 / A ) =
P(B1 )P(A / B1 ) + P(B 2 )P(A / B 2 ) + P(B 3 )P(A / B 3 )

Del diagrama del árbol:


Introducción al Cálculo de Probabilidades 69

P( B1 ) P( A / B1 ) = (0.25)(0.8) = 0.20
P( B 2 ) P( A / B2 ) = (0.40)(0.1) = 0.04
P( B 3 ) P( A / B3 ) = (0.35)(0.4) = 0.14
Entonces:
0.14 0.14 7
P(B 3 / A) = = =
0.20 + 0.04 + 0.14 0.38 19
Como se incrementó las cuotas de ingreso al club antes de las
elecciones, el resultado sugiere que posiblemente el señor Salazar no
sea el próximo presidente.
3.2 EVENTOS INDEPENDIENTES
La noción de independencia se desprende de la consideración de aquellos
casos en que los resultados son igualmente probables. Por tanto, antes de dar
la definición formal de independencia, comenzaremos considerando un caso
de lo afirmado.
Sea E1 un juego en el que hay n 1 resultados posibles e igualmente
probables. Sea A, el evento de ocurrencia o no-ocurrencia cuando se realiza
el juego: E1 . Si A puede ocurrir de n A maneras igualmente probables, el
n
cociente A da la probabilidad de que ocurra A. Ahora sean E 2 y E 3 otros
n1
dos juegos en los que hay n 2 y n 3 , respectivamente, resultados posibles e
igualmente probables. Se supone que cada juego puede desarrollarse de
manera tal, que su marcha no dependa en absoluto del resultado de los otros
juegos. En tal situación, que ocurra o no el evento A en el juego E1 , ni
depende ni tiene influencia en que un evento B ocurra o no en el juego E 2 . Y
el que ocurra o no uno de los eventos A y B, o ambos, en los juegos E1 y E 2
, no tiene influencia en que un cierto evento C ocurra o no en el juego E 3 , ni
depende de ello. En otras palabras, se puede decir entonces que los eventos
70 Hugo Cornejo Villena & Hugo Cornejo Rosell.

A, B y C son mutuamente independientes. En estas condiciones, deseamos


calcular la probabilidad de que se realicen los eventos A, B y C cuando los
juegos: E1 , E 2 y E 3 se realicen sucesivamente. Si n 2 y n 3 designan el
número de maneras igualmente probables con que los eventos B y C pueden
producirse en los juegos E 2 y E 3 , respectivamente, resulta fácilmente.
n n n n n n n n n n n n
P(A) = A 2 3 = A , P(B) = 1 B 3 = B , P(C) = 1 2 C = C
n 1n 2 n 3 n1 n 1n 2 n 3 n 2 n 1n 2 n 3 n3
n A n Bn C
Ahora bien, como P(ABC) =
n 1n 2 n 3
nos resulta P(ABC)=P(A)P(B)P(C)

En otras palabras, si tres eventos se realizan con mutua independencia (por


pares) en situaciones “igualmente probables”, debemos formular que la
probabilidad de que se realicen simultáneamente es igual al producto de sus
probabilidades individuales.
DEFINICIÓN 3.2.1
Los eventos de A se llaman mutuamente independientes si la probabilidad
de que se realicen simultáneamente varios de ellos son igual al producto de
sus probabilidades individuales.
Así, si A consiste en sólo un par de eventos, A y B, estos son
independientes sí P(AB)=P(A)P(B). Si en A hay tres eventos A, B y C, las
condiciones para que estos sean conjuntamente independientes son las
siguientes:
1) P(AB) = P(A)P(B)
2) P(AC) = P(A)P(C)
3) P(BC) = P(B)P(C) y
4) P(ABC) = P(A)P(B)P(C)
Si cumplen las tres primeras condiciones anteriores, se dice que los eventos
A, B y C son independientes por parejas o mutuamente independientes y si
cumple sólo la ecuación 4) se dice que los eventos A, B y C son
independientes (a secas)
OBSERVACIÓN: Utilizando la definición de probabilidad condicional
tenemos que, si A y B son eventos independientes entonces:
P(AB) P(A)P(B)
a) P(A / B) = = = P(A) , si P(B)>0
P(B) P(B)
Esto significa que, la ocurrencia del evento B no afecta la probabilidad
de la ocurrencia del evento A.
Introducción al Cálculo de Probabilidades 71

P(BA) P(B)P(A)
b) P(B / A) = = = P(B) , si P(A)>0
P(A) P(A)
Este significa que, la ocurrencia del evento A no afecta la probabilidad
de la ocurrencia del evento B.
Por consiguiente, concluimos, que dos eventos son independientes, si la
ocurrencia de uno de los eventos no afecta la probabilidad de la ocurrencia del
otro evento.
EJEMPLOS
3.2.1 La probabilidad de que un hombre viva 15 años más es 15 , y la
probabilidad de que su hermano viva 15 años más es 14 . Hallar la
probabilidad de que ambos vivan 15 años más.
SOLUCIÓN:
Sean los eventos:
A: el hombre vive 15 años más.
B: su hermano vive 15 años más.
Entonces P(A) = 15 y P(B) = 14
Buscamos P(AB). Puesto que A y B son independientes, ya que los años
que vive el hombre no depende de lo que vive su hermano, entonces
1 1 1
P(AB) = P(A)P(B) = × = .
5 4 20
3.2.2 Supongamos que se lanza un dado normal dos veces y dado los eventos:
A: primer dado muestra un número par.
B: segundo dado muestra un 5 o un 6.
Entonces:
Ω = {(1,1), (1,2), (1,3),..................,(6,5), (6,6)}
A = { (2,1), (2,2), (2,3), (2,4), (2,5), (2,6), (4,1), (4,2), (4,3), (4,4),
(4,5), (4,6), (6,1), (6,2), (6,3), (6,4), (6,5), (6,6)}
B= {(1,5), (2,5), (3,5), (4,5), (5,5), (6,5),
(1,6), (2,6), (3,6), (4,6), (5,6). (6,6)}
A∩B= AB = {(2,5), (2,6), (4,5), (4,6), (6,5), (6,6)}
De donde, obtenemos:
18 1 12 1 6 1
P(A) = = , P(B) = = y P(AB) = =
36 2 36 3 36 6
1 1 1
y observamos que P(AB) = = × = P(A)P(B) .
6 2 3
Luego deducimos que los eventos A y B son independientes.

3.2.3 En el ejemplo anterior, consideremos los eventos:


72 Hugo Cornejo Villena & Hugo Cornejo Rosell.

C: la suma de los dados es 7


D: los dos dados tienen el mismo número
Entonces:
C = {(1,6), (2,5), (3,4), (4,3), (5,2), (6,1)}
D = {(1,1), (2,2), (3,3), (4,4), (5,5), (6,6)}
De donde
6 1 6 1
P ( C) = = , P ( D) = = y P(CD) = P(φ) = 0
36 6 36 6
1 1
como P(CD) = P(φ) = 0 ≠ × = P(C)P(D) .
6 6
Luego, los eventos C y D no son independientes.
De este ejemplo, deducimos que si dos eventos son mutuamente
excluyentes (CD = φ ), entonces no son independientes, con lo que se aclara
el hecho de confundir con mucha frecuencia la equivalencia de las
definiciones de independencia y mutuamente excluyentes.
3.2.4 Si se tira dos veces al aire una moneda y dados los eventos:
A: Aparece un sello en la primera tirada.
B: Aparece un sello en la segunda tirada.
C: Aparece la misma figura en ambas tiradas.
Encontramos que:
1 1
P(A) = P(B) = P(C) = , P(AB) = P(AC) = P(BC) = ,
2 4
P(AB) = P(A)P(B) , P(AC) = P(A)P(C) , P(BC) = P(B)P(C) y
1 1 1 1
P(ABC) = ≠ × × = P(A)P(B)P(C)
4 2 2 2
Entonces los eventos A, B y C no son independientes, a pesar de ser
mutuamente independientes; luego no son conjuntamente independientes
TEOREMA 3.2.1
Si A y B son eventos independientes, también son independientes los eventos
A y Bc
DEMOSTRACION;
Como A = AB ∪ AB c .
Entonces P(A) = P(AB ∪ AB c ) = P(AB)+P(AB c )
y como A y B son independientes por hipótesis, entonces:
P(AB c ) = P(A) - P(A)P(B) = P(A)[1-P(B)] =P(A)P(B c ).
TEOREMA 3.2.2
Si A y B son eventos independientes, también son independientes los eventos
A c y B.
Introducción al Cálculo de Probabilidades 73

DEMOSRACION:
Muy similar a la demostración del teorema anterior.
TEOREMA 3.2.3
Si A y B son eventos independientes, también son independientes los eventos
A c y Bc
DEMOSTRACION:
Por la ley de De Morgan:
[ ]
P(A c B c ) = P (A ∪ B) c = 1 − P(A ∪ B) = 1-P(A)-P(B)+P(AB)
como A y B son independientes por hipótesis, tenemos
P(A c B c ) = 1 − P(A) − P(B) + P(A)P(B)
= 1- P (A) – P (B) (1 – P (A)
= (1-P (A)) ((1-P( B )) = P( Ac )P( Bc )
EJEMPLO
3.2.5 En el ejemplo 3.2.1. Hallar la probabilidad de que ninguno estará vivo a
los 15 años
SOLUCIÓN:
c 1
Deseamos calcular: P(A c B c ) . Ahora P(A ) = 1 − P(A) = 1 − de
5
c 4 c 1 3
donde P(A ) = y P(B ) = 1 − P(B) = 1 − =
5 4 4
c c
Como A y B son independientes, ya que A y B son independientes,
se tiene:
4 3 3
P(A c B c ) = P(A c )P(B c ) = × =
5 4 5
Para finalizar, presentamos la definición de clases independientes de
eventos, que tienen mucha aplicabilidad en los espacios medibles.
DEFINICIÓN 3.2.2
Si {Ci / i ∈ I } es una familia de eventos, Ci ∈ A , ∀i ∈ I . Se dice que los
términos o elementos de la familia {Ci / i ∈ I } son clases independientes, si
toda colección finita de elementos de las clases son un conjunto de sucesos
mutuamente independientes.
EJEMPLO
3.2.6 Si A y B son eventos independientes, entonces:
{ }
H 1 = φ, A, A c , Ω y { }
H 2 = φ, B, B c , Ω son clases
independientes, ya que: φ es independiente de cualquier evento
(P(φA) = P(φ)P(A) ) , Ω es independiente de cualquier evento
(P(ΩA) = P(Ω)P(A) ) , A y B son independientes por hipótesis, A y
74 Hugo Cornejo Villena & Hugo Cornejo Rosell.

BC son independientes por el teorema 3.2.1, B y Ac son


c c
independientes por el teorema 3.2.2 y A y B son independientes por
el teorema 3.2.3.

EJERCICIOS

1.- Se lanza un par de dados corrientes. Hallar la probabilidad P de que la


suma de sus números sean 10 o mayor, sí:
a) Aparece un 5 en un primer dado.
b) Aparece un 5 en uno de los dados por lo menos.
2.- A una persona se le reparten 5 cartas rojas de una baraja corriente de 52
cartas. ¿Cuál es la probabilidad de que todos sean de la misma pinta, esto
es corazones o diamantes?
3.- A una persona se le reparten 3 cartas, espadas, de una baraja corriente de
52 cartas. Si se le da cuatro cartas más, determinar la probabilidad de
que por lo menos dos de las cartas adicionales sean también espadas.
4.- Se escogen al azar dos dígitos diferentes, entre los dígitos 1 a 9.
a) Si la suma es impar. ¿Cuál es la probabilidad de que dos sea uno de
los números escogidos?
b) Si 2 es uno de los dígitos seleccionados. ¿Cuál es la probabilidad de
que la suma sea impar?
5.- Una caja contiene 4 tubos malos y 6 buenos. Se saca 2 a la vez. Se prueba
uno de ellos y se encuentra que es bueno. ¿Cuál es la probabilidad de que
el otro también sea bueno?
6.- En el problema anterior los tubos se verifican sacando uno al azar, se
prueba y se repite el proceso hasta que se encuentren los cuatro tubos
malos. ¿Cuál es la probabilidad de encontrar el cuarto tubo malo,
a) ¿en la quinta prueba? y b) ¿en la décima prueba?
7.- De un saco que contiene 5 canicas negras y tres blancas, se extraen 3 de
ellas en sucesión y sin reemplazo. ¿Cuál es la probabilidad de que las
tres sean negras?
8.- Un comité de 50 comunidades campesinas (cada una de 2 delegados), 50
delegados se eligen al azar. Hallar la probabilidad de que los dos
delegados por la comunidad campesina de Huarcoy, queden incluidos
dado que, por lo menos uno ya lo está.
9.- Una urna contiene 5 bolas doradas y 7 azules. Se extraen al azar dos
bolas (sin devolverlas a la urna). Si la primera bola es dorada, calcular la
probabilidad de que la segunda sea también dorada.
10.- Una baraja es repartida en 4 manos de 13 naipes cada una. Si una mano
tiene exactamente siete espadas. ¿Cuál es la probabilidad de que una
determinada de las otras manos contenga:
Introducción al Cálculo de Probabilidades 75

a) Por lo menos una espada.


b) Por lo menos dos espadas.
c) Un palo completo.
11.- Demostrar que: P(A ∪ B C ) = P(A / C) + P(B / C) − P(AB / C)
12.- Una moneda “correcta” es lanzada repetidamente. Sale cara en los 6
primeros lanzamientos. ¿Cuál es la probabilidad de que salga cara en el
séptimo lanzamiento?
13.- En cierta ciudad, 40% de la población tiene cabellos negros, 25% tiene
ojos negros y 15% tiene cabellos y ojos negros. Se escoge una persona
al azar.
a) Si tiene cabellos negros. ¿Cuál es la probabilidad de que también
tenga ojos negros?.
b) Si tiene ojos negros. ¿Cuál es la probabilidad de que no tenga
cabellos negros?
c) ¿Cuál es la probabilidad de que no tenga cabellos ni ojos negros?
14.- En cierta Universidad, 25% de los jóvenes y 10% de las jóvenes son
estudiantes de matemáticas. Las mujeres constituyen el 60% de los
hombres. Si se selecciona al azar un estudiante y resulta ser de
matemáticas, determinar la probabilidad de que el estudiante sea una
joven.
15.- En una fábrica de pernos, las máquinas A, B y C fabrican 25%, 35% y
40% de la producción total, respectivamente. En esta producción, el 5%,
4% y 2% son pernos defectuosos. Se toma un perno al azar de la
producción y se encuentra que es defectuoso ¿Cuál es la probabilidad de
que el perno provenga de la máquina A?, provenga de la máquina B? y
provenga de la máquina C?
16.- Una urna contiene 5 bolas rojas y 3 blancas. Se selecciona una bola al
azar, se descarta y se colocan dos bolas del otro color en la urna. Luego
se saca de la urna una segunda bola. Hallar la probabilidad de que:
a) La segunda bola sea roja.
b) Ambas bolas sean del mismo color.

17.- Una caja contiene tres monedas, dos de ellas normales, y una de dos
“caras”. Se selecciona al azar una moneda y se lanza dos veces. Si
aparece ambas veces caras. ¿Cuál es la probabilidad de que la moneda
lanzada sea la de dos “caras”?
18.- Una caja A contiene nueve cartas numeradas de 1 a 9, y otra caja B
contiene 5 cartas numeradas de 1 a 5. Se escoge una caja al azar y se saca
una carta; si la carta indica un número par, se saca otra carta de la misma
caja, si la carta es impar, se saca una carta de la otra caja.
76 Hugo Cornejo Villena & Hugo Cornejo Rosell.

a) ¿Cuál es la probabilidad de que ambas cartas muestren números


pares?,
b) Si ambas cartas muestran números pares ¿Cuál es la probabilidad
de que procedan de A? y c) ¿Cuál es la probabilidad de que las dos
cartas tengan números impares? Ci ∈ A ,.
19.- Una caja contiene 5 tubos de radio de los cuales 2 son defectuosos. Se
prueban los tubos uno tras otro hasta que se descubran dos defectuosos.
¿Cuál es la probabilidad de que se suspenda el proceso en:
a) la segunda prueba y b) la tercera prueba.
20.- Sean los eventos A y B con P(A) = 14 , P(A ∪ B) = 13 y P(B) = p .
a) Hallar p, si A y B son mutuamente excluyentes.
b) Hallar p, si A y B son independientes.
c) Hallar p, si A es subconjunto de B.
21.- Una caja contiene 5 canicas blancas y 2 canicas negras. Una segunda
caja idéntica a la primera contiene 3 canicas blancas y 5 negras. Si se
seleccionan al azar una de estas cajas y se extrae una canica. ¿Cuál es la
probabilidad de que esta sea blanca?
22.- Si tres eventos A, B y C son independientes, demostrar que A ∪ B y C
son independientes.
23.- Se lanza un dado dos veces. Sean A, B y C los siguientes eventos:
A = {(a,b)/ a es impar}
B = {(a,b)/ b es impar}
C = {(a,b)/ a+b es impar}
a) ¿Calcular: P(A), P(B), P(C), P(AB), P(AC), ¿P(BC) y P(ABC)?
b) Demostrar que: A, B y C son independientes a pares.
c) Demostrar que: A, B y C son conjuntamente independientes.
24.- La probabilidad de que A dé en el blanco, en una competencia de tiro, es
1 1
4 y la probabilidad de que B dé es 3 .
a) Si cada uno dispara dos veces. ¿Cuál es la probabilidad de que el
blanco sea alcanzado una vez por lo menos?
b) Si cada uno dispara una vez y el blanco es alcanzado solamente una
vez. ¿Cuál es la probabilidad de que A dé en el blanco?
c) Si A puede disparar solamente dos veces. ¿Cuántas veces debe
disparar B para que haya por lo menos 90% de probabilidad de que
el blanco sea alcanzado?
25.- Sean los eventos A y B con P(A) = 12 , P ( AB) = 16 y P(A ∪ B) = 23 .
Hallar: a) P(B), b) P(A/B) y c) P(B c / A) .
26.- Dos personas lanzan tres monedas regulares cada una. ¿Cuál es la
probabilidad de que contengan el mismo número de caras?
Introducción al Cálculo de Probabilidades 77

27.- En la fabricación de cierto artículo se encuentra que se presenta un tipo


de defectos con una probabilidad de 0.1 y defectos de un segundo tipo
con probabilidad de 0.05 (Se supone la independencia entre los tipos de
defectos). ¿Cuál es la probabilidad de que:
a) Un artículo no tenga ambas clases de defectos?
b) Un artículo sea defectuoso?.
c) Suponiendo que un artículo sea defectuoso, ¿tenga sólo un tipo
de defecto?
CAPÍTULO 4: VARIABLES ALEATORIAS Y
DISTRIBUCIONES DISCRETAS
4. 1. VARIABLES ALEATORIAS
El objetivo de esta sección es “cuantificar” los eventos; es decir, para
cada suceso ω∈ Ω se le debe asignar un valor numérico x∈ y demostrar
algunos teoremas que, en el fondo, son definiciones equivalentes a la
definición de una variable aleatoria o variable estocástica. El nombre de
“variable aleatoria” es algo engañoso, ya que no se trata de una “variable” ni
tampoco es algo “aleatorio”; como se verá, una variable es una función
medible de valor real definida en Ω , con una propiedad restrictiva.
DEFINICION 4.1.1
Dada los espacios medibles (Ω1 , A1 ) y (Ω 2 , A 2 ) . se dice que la función
X : Ω1 → Ω 2 es una función medible si X −1 (A) ∈ A1 ; para todo A∈ A 2 .
DEFINICION 4.1.2
Dado los espacios medibles (Ω, A ) y ( ,B), toda función medible X : Ω →
se llama variable aleatoria.
{ }
De acuerdo al teorema 1.4.4, si J = ]− ∞, x ] / x ∈ R , entonces
A(J ) =B Por tanto: X: Ω → es una variable aleatoria ⇔
X -1 (]− ∞, x ]) ∈ A , ∀x∈ ; resultado que será de uso frecuente en este libro.
NOTACION: Como X -1 (]− ∞, x ]) = {ω ∈ Ω / X(ω) ≤ x} , utilizaremos la
expresión [ X ≤ x ] ∈ A para decir que X es una variable aleatoria. Por
similitud, utilizaremos la notación [ X < x ] en lugar de {ω ∈ Ω / X(ω) < x} ,
[ X ≥ x ] en vez de {ω ∈ Ω / X(ω) ≥ x} .
De un modo más general, si S es un conjunto de números reales,
escribiremos [X ∈ S] para indicar {ω ∈ Ω / X(ω) ∈ S}.
EJEMPLOS
4.1.1 Dado el espacio muestral Ω = {a, b, c, d, e} y el ∂ - álgebra
A = {φ,Ω, {a , b, c}, {d, e}}
a) Si X está definida por: X(a) = X(b) = X(c) = 2 y X(d) = X(e) = 3
gráficamente tenemos:
Introducción al Cálculo de Probabilidades 79

Entonces:
 φ ; si x<2

X (]− ∞, x ]) = [X ≤ x ] = {a, b, c} ; si 2 ≤ x < 3
-1

 Ω ; si x≥3

De donde, deducimos que X es una variable aleatoria, ya que
X -1 (]− ∞, x ]) ∈ A (cada uno de sus componentes, es decir: φ, {a , b, c} y
Ω pertenecen a A ).
b) Si Y está definida por Y(a) = 1, Y(b) = 2 y Y(c) = Y(d) = Y(e) = 3 ,
gráficamente tenemos:

Entonces:
 φ ; si x <1
 {a} ; si 1 ≤ x < 2

Y -1 (]− ∞, x ]) = [Y ≤ x ] = 
{a , b} ; si 2 ≤ x < 3
 Ω ; si x≥3
De donde, deducimos que Y no es una variable aleatoria, ya que
Y -1 ( ]− ∞, x ]) ∉ A y esto debido a que {a} ∉ A (es suficiente encontrar
uno para la negación; para este caso también tenemos que {a , b} ∉ A ).
80 Hugo Cornejo Villena & Hugo Cornejo Rosell.

4.1.2 Supongamos que lanzamos una moneda, entonces Ω = {C, S } y si


A=
{φ, Ω, {C}, {S}}. Si definimos la función X como “números de veces que
sale cara”, entonces X(C) = 1 y X(S) = 0, de donde:
 φ ; si x<0

X (]− ∞, x ]) = [X ≤ x ] = {S} ; si 0 ≤ x < 1
-1

 Ω ; si x ≥1

Luego X es una variable aleatoria, ya que [X ≤ x ] ∈ A .
4.1.3 Consideremos el juego de lanzar un par de dados. Aquí Ω =
{(11, ), (1,2),..., (6,6)} , que consta de 36 parejas ordenadas de números
entre 1 y 6. Sea X la función dada por: “la suma de los puntos que
muestran ambos dados”; entonces, para cada evento elemental (i , j) se
tiene : X(i , j) = i + j , donde 1 ≤ i, j ≤ 6 . Si:
a) A1 = {φ, Ω, {(1,1), (2,3)}, {(1,2 ), (1,3),......, (1,6 ), (2,1), (2,2), (2,4),....
..., (2,6), (3,1), (3,2), (3,3),..., (6,6)}
Entonces:
 φ ; si x<2
 {(1,1)} ; si 2 ≤ x < 3

 {(1,1), (1,2 ), (2,1)} ; si 3 ≤ x < 4
[X ≤ x ] = 
 . . . .
{(1,1)(1,2 ),..., (4,1)} ; si 5 ≤ x < 6

 Ω ; si x ≥ 12
Luego X no es una variable aleatoria, puesto que {(1,1)}∉ A1 .
b) A 2 = 2 Ω , deducimos que X es una variable aleatoria, ya que
[ X ≤ x ] = X -1 ( ]− ∞, x ]) siempre pertenece a A 2 , dado que A 2 es
el ∂- álgebra de todos los subconjuntos de Ω ; es decir no hay uno
que no deje de pertenecer a A 2 .
OBSERVACION: Si Ω es cualquier espacio muestral y A = 2 Ω , entonces
toda función X: Ω → es necesariamente una variable aleatoria, ya que
X (]− ∞, x ]) ∈ A , ∀x∈ .
-1

Este resultado es la que se adopta como definición de una variable


aleatoria, en la mayoría de textos de Probabilidades y Estadística (una variable
aleatoria es toda función real definida sobre Ω ) sin considerar ninguna
propiedad restrictiva y sin indicar, por lo menos, que el ∂- álgebra A es
Introducción al Cálculo de Probabilidades 81

2 Ω ; consideraremos esta definición en nuestros ejemplos y ejercicios,


cuando no se aclare sobre el ∂- álgebra adoptado.
Deduciremos, a continuación, algunas condiciones equivalentes a las de
la definición de variable aleatoria, y para ello es necesario establecer los
siguientes lemas:
LEMA 4.1.1
Si X es una función de valor real definida en Ω , entonces:

[ ]
 X ≤ x - 2 = [X < x ] ,
n =1
-n

para cualquier número real x.


DEMOSTRACION:
Probaremos el Lema por doble inclusión:
a)

[ ] [
Si ω ∈  X ≤ x - 2 -n , entonces existe algún n tal que ω ∈ X ≤ x - 2 -n
n =1
]
de aquí que X( ω ) ≤ x - 2 -n , lo cual implica que X( ω ) < x , o
ω ∈ [ X < x] .
b) Si ω ∈ [X < x ] , entonces X ( ω ) < x. Tomando m suficientemente grande
[ ]
para que 2 − m ≤ x − X(ω) , resultará que ω ∈ X ≤ x - 2 -m está incluida en

[ ]
 X ≤ x - 2 , entonces ω ∈  X ≤ x - 2
n =1
-n -n

n =1
[ ].
De a) y b) se tiene demostrado el Lema.
LEMA 4.1.2
Si X es una función de valor real definida en Ω , entonces:

[ ]
 X < x + 2 = [X ≤ x ] ,
n =1
-n

para cualquier número real x.


DEMOSTRACION:
Como en el caso anterior, demostraremos por doble inclusión:
a) Sea ω ∈ [ X ≤ x ] , entonces X ( ω ) ≤ x < x + 2 -n para todo n∈ Z 0+ . Así

[
ω ∈  X < x + 2 -n .
n =1
]
b)

[ ]
Si ω ∈  X < x + 2 -n , entonces X ( ω ) < x + 2 -n para n = 1, 2, 3, ….
n =1
Esto hace imposible que X ( ω ) > x sea cierta, pues si lo fuese podríamos
encontrar que existe un n∈ Z , tal que 2 − n < X ( ω ) - x , que contradice
a la desigualdad anterior. Por lo tanto, X ( ω ) ≤ x, lo que implica que ω
∈ [ X ≤ x] .
82 Hugo Cornejo Villena & Hugo Cornejo Rosell.

De a) y b) queda demostrado el Lema.


TEOREMA 4.1.1
Sea X una función de valor real definida en Ω ; X es una variable aleatoria si
y sólo sí para cualquier x∈ , [X < x ] ∈ A .
DEMOSTRACION
a) Condición Necesaria
[ ]
Si X es una variable aleatoria, entonces X ≤ x - 2 -n ∈ A para n = 1,
2,…Como toda unión numerable de eventos es un evento, entonces

[ ]
 X ≤ x - 2 ∈ A y por el lema 4.1.1 [X < x ] ∈ A .
n =1
-n

b) Condición Suficiente
[ ]
Si [X < t ] ∈ A para cualquier t real, entonces X < x + 2 -n ∈ A para n

[ ]
= 1, 2, …y esto implica que  X < x + 2 -n ∈ A lo que a su vez, por el
n =1
lema 4.1.2, implica que [X ≤ x ] ∈ A .
De a) y b) queda demostrado el teorema.
Las demostraciones de los siguientes teoremas se dejan al lector; es
necesario aclarar, que deben utilizar la definición de variable aleatoria, el
teorema 4.1.1 y si A∈ A entonces A c ∈ A .
TEOREMA 4.1.2
Si X es una función de valor real definida en Ω ; X es una variable aleatoria
sí y sólo sí [X ≥ x ] ∈ A , para todo x∈ .
TEOREMA 4.1.3
Si X es una función de valor real definida en Ω ; X es una variable aleatoria
sí y sólo sí [X > x ] ∈ A , para todo x∈ .
PROPIEDADES DE VARIABLES ALEATORIAS
Si X, Y son variables aleatorias y k∈ , entonces:
4.1.1 X + Y es una variable aleatoria.
4.1.2 k X es una variable aleatoria.
4.1.3 X 2 es una variable aleatoria.
4.1.4 X Y es una variable aleatoria.
X
4.1.5 es una variable aleatoria, sí [Y = 0] = φ .
Y
4.1.6 max{X, Y}es una variable aleatoria.
DEMOSTRACION:
4.1.1.- Consideremos el conjunto:
A =  [X ≤ r ][Y < z − r ] ; donde r∈ Q .
r
Introducción al Cálculo de Probabilidades 83

Como el conjunto de todos los números racionales es numerable, A∈ A


Por esto y por el teorema 4.1.1, sólo es necesario probar que A =
[X + Y < z] .
Es claro que A ⊂ [X + Y < z ] , así que sólo debemos probar que
A ⊃ [X + Y < z ] .
Sea ω ∈ [X + Y < z ] , entonces (X + Y )(z) = X(z) + Y(z) < z .
Sea r0 ∈ Q que satisfaga la condición: X(ω) < r0 < z − Y(ω) . Entonces
X(ω) < ro e Y(ω) < z − ro y así ω ∈ [X < ro ][Y < z − ro ] y por tanto ω
∈A.
Con lo que queda demostrado la propiedad.
4.1.2.- Consideremos tres casos:
 φ ∈ A , si x < 0
a) k = 0, en este caso [kX ≤ x ]= 
Ω ∈ A , si x ≥ 0

b) k > 0, en este caso, para todo x∈ [kX ≤ x ]= X ≤ x  ∈ A


 k
 x
c) k < 0, en este caso, para todo x∈ [kX ≤ x ] = X ≥  ∈ A
 k
De a), b) y c) tenemos demostrado la propiedad.
4.1.3.-Es consecuencia inmediata de que para todo x < 0 se tiene
[ ]
X 2 ≤ x = φ ∈ A y que para todo x ≥ 0 se tiene
[X 2
≤ x ] = [−
x ≤ X ≤ x = X ≤ x X ≥ − x ∈A .] [ ][ ]
4.1.4.-La aplicación de las tres propiedades anteriores permiten escribir la
siguiente sucesión de propiedades:
a) X + Y y X - Y son variables aleatorias.
b) (X + Y ) y (X − Y ) son variables aleatorias.
2 2

c)
{(X + Y ) 2
− (X − Y )
2
} es una variable aleatoria.
4
Pero
{ }
(X + Y )2 − (X − Y )2 = X 2 + 2XY + Y 2 − X 2 + 2XY − Y 2 = XY ,
4 4
es decir XY es una variable aleatoria.
4.1.5.- Podemos escribir
X  X  X 
 Y ≤ x  =  Y ≤ x  [ Y < 0] ∪  Y ≤ x  [ Y > 0]
     
84 Hugo Cornejo Villena & Hugo Cornejo Rosell.

= [X ≥ xY ] [Y < 0] ∪ [X ≤ xY ] [Y > 0]
= [X − xY ≥ 0] [Y < 0] ∪ [X − xY ≤ 0] [Y > 0]
Cada una de estas cuatro últimas colecciones de eventos, son eventos de
acuerdo con los teoremas de esta sección y las propiedades anteriores,
X 
por tanto  ≤ x  ∈ A .
Y 
4.1.6.- Como:
[max{X, Y} ≤ x] = [X ≤ x ] [Y ≤ x ] , entonces [max{X, Y} ≤ x] ∈ A .
Consideremos una variable aleatoria X: Ω → , de manera que el ∂-
álgebra A = 2 Ω , entonces se observa que el dominio de la variable
aleatoria X es todo Ω y el rango es un subconjunto de , denotado por
RX .
Si el rango de la variable aleatoria X es finito o infinito numerable, se
dice que la variable aleatoria X es discreta y se dice que la variable
aleatoria X es continua cuando el rango es un intervalo o unión de
intervalos de la recta real o un conjunto infinito no numerable de valores.
Veremos con mucha más precisión, estos conceptos, en las siguientes
secciones y los capítulos siguientes.
4. 2. DISTRIBUCIONES DISCRETAS DE UNA VARIABLE
DEFINICION 4.2.1
Una variable aleatoria X se llama discreta si el rango de X es finito o infinito
numerable. En este caso R X = {x 1 , x 2 ,..., x n ,...} ⊂ , tal que X( ω )∈ R X , ∀
ω ∈Ω .
EJEMPLO
Sea X la variable aleatoria que denota el número de veces que se lanza al aire
una moneda correcta hasta que aparezca el primer sello. El espacio muestral
asociado a este experimento es:
Ω = {s, cs, ccs, cccs, ...} y consiguientemente X(s) =1, X(cs)=2 , X(ccs) = 3 ,
X(cccs) = 4 , ….
De donde R X = {1,2,3,4,...} es un conjunto infinito numerable. Por tanto, X
es una variable aleatoria discreta.
En las siguientes secciones se tendrán más ejemplos de variables aleatorias
discretas.
La definición significa que hay un conjunto finito o infinito numerable de
números reales: x 1 , x 2 ,…, x n ,… tal que  [X = x n ] = Ω , donde la unión 
n n
Introducción al Cálculo de Probabilidades 85

se realiza sobre un conjunto finito de enteros, en caso de que R X sea finito, o


sobre todo los enteros positivos, en caso de que R X sea infinito numerable.
4. 3. FUNCION DE PROBABILIAD DE UNA VARIABLE
ALEATORIA DISCRETA
Si R X = {x 1 , x 2 ,.......} conjunto finito o infinito numerable, para cada
i = 1, 2, …Denotamos por [X = xi ] al evento {ω ∈ Ω / X(ω) = xi } y
[ ]
consiguientemente su probabilidad estará dada por P X = x i , ∀ i = 1,2,....
DEFINICION 4.3.1
Se dice que p X ( xi ) es una función de probabilidad, función de masa o
distribución de probabilidad de la variable aleatoria discreta X, si a cada
valor de x i se le asocia su probabilidad de ocurrencia; esto es
p X ( xi ) = P[X = xi ] .
Como es de amplio dominio, en sí, el conjunto de pares ordenados
(x i , p X ( xi ) ) es la función de probabilidad de la variable aleatoria discreta X.
Para x = x i se tiene p X ( x ) = P[X = x ] y para otros valores de x, p X (x) =0.
Obviamente p X ( x ) es una función de probabilidad y satisface las siguientes
condiciones:
a) p X ( x ) ≥ 0; p X (x) = 0, sí x ∉ R X .
b) ∑ p X ( x ) = 1 (la suma se efectúa sobre los valores posibles de x),
x
∀ x ∈RX .
La gráfica de p X ( x ) se llama gráfica de probabilidad y se representa
por espectros o diagramas de barras (lo más usual) o mediante un histograma.
ELEMPLOS
4.3.1.-Si lanzamos una moneda dos veces, encontramos que Ω = {cc, cs, sc, ss}
y si consideramos la variable aleatoria X al “número de caras que pueden
resultar”, obtenemos que: X(cc) = 2, X(cs) = X(sc) = 1 y X(ss) = 0, de
donde R X = {0,1,2} . De aquí que:

p X (0) = P[{ss}] = 1 , p X (1) = P[{cs, sc}] = 2 = 1 y


4 4 2
p X (2) = P[{cc}] = 1 . Entonces, la función de probabilidad de la variable
4
aleatoria X está dada por la siguiente tabla:
86 Hugo Cornejo Villena & Hugo Cornejo Rosell.

X 0 1 2
1 1 1
pX (x)
4 2 4

Gráficamente:

pX (x) pX (x)
1 1

1/2 1/2
1/4
1/4
x x
0 0
1 2 1 2
(a) Espectro o diagrama de barras (b) Histograma

4.3.2.-Si se seleccionan en forma aleatoria tres artículos de un centro


manufacturero. Se examina cada uno de ellos y se les clasifica como
defectuosos (D) o no defectuosos (N). Entonces:
Ω = {DDD, DDN, DND, NDD, DNN, NDN, NND, NNN} y si X = n D − n N ,
donde n D representa el número de artículos defectuosos y n N al número
de no defectuosos que se obtengan en el experimento; así definida X es
una variable aleatoria y sus valores son:
X(DDD) = 3 - 0 = 3
X(DDN) = X(DND) = X(NDD) = 2 - 1 = 1
X(DNN) = X(NDN) = X(NND) = 1 - 2 = -1
X(NNN) = 0 - 3 = -3
De donde, R X = {− 3,−1,1,3} .
Luego:
pX (−3) = P[X = -3] = P[{NNN}] = 1
8
pX (−1) = P[X = -1] = P[{DNN, NDN, NND}] = 3
8
3
pX (1) = P[X = 1] = P[{DDN, DND, NDD}] =
8
pX (3) = P[X = 3] = P[{DDD}] = 1
8
Por tanto, la función de probabilidad de la variable aleatoria X, está dada
por la siguiente tabla:
Introducción al Cálculo de Probabilidades 87

x -3 -1 1 3
1 3 3 1
pX (x)
8 8 8 8
Gráficamente:

pX (x) pX (x)
1 1

4/8 4/8

3/8 3/8

2/8 2/8
1/8 1/8
x x
-3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3

(a) Espectro o diagrama de barras (b) Histograma

4.3.3.-Un embarque de 10 microcomputadoras similares que se envía a un


distribuidor contiene tres aparatos defectuosos. Si un comprador efectúa
aleatoriamente la adquisición de dos computadoras. Hallar la distribución
de probabilidad para el número de microcomputadoras defectuosas.
SOLUCION:
Sea X “el número de microcomputadoras defectuosas en la adquisición
de dos microcomputadoras”. Entonces R X = {0,1,2} y el número de
10 
elementos del espacio muestral es   , de donde:
2
 3  7 
  
pX (0) = P[X = 0] =    = 21 = 7
0 2
10  45 15
 
2
 3  7 
  
pX (1) = P[X = 1] =    = 21 = 7
1 1
10  45 15
 
2
 3  7 
  
pX (2) = P[X = 2] =    = 3 = 1
2 0
10  45 15
 
2
88 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Por tanto, la función de probabilidad de X es:

X 0 1 2
7 7 1
pX (x)
15 15 15

4.3.4.-De una caja que contiene cuatro bolas negras y dos verdes, se
seleccionan tres de ellas en sucesión con reemplazo. Encontrar la
distribución de probabilidad para el número de bolas verdes.
SOLUCION:
En este experimento, la variable aleatoria X es “el número de bolas
verdes”, entonces R X = {0,1,2,3} y el número de elementos del espacio
muestral es 6 3 = 216 , de donde:
 3 3 0
 4 2
 0 8
pX (0) = P[X = 0] = 3 = ,
6 27
 3 2 1
 4 2
pX (1) = P[X = 1] =   3 = 4
1
6 9
 3 1 2
 4 2
pX (2) = P[X = 2] =   3 = 2
2
6 9
 3 0 3
 4 2
pX (3) = P[X = 3] =   3 = 1
3
6 27
por tanto, la distribución de probabilidad de X es:
x 0 1 2 3
8 4 2 1
pX (x)
27 9 9 27
4.3.5.-Encuentre la distribución de probabilidad para el número de discos de
vals, cuando cuatro discos se seleccionan al azar, de una colección
consistente de cinco discos de vals, dos de bolero y tres de huayno.
Expresar el resultado por medio de una fórmula.
SOLUCION:
Introducción al Cálculo de Probabilidades 89

La variable aleatoria X es “el número de discos de vals”, entonces


 10
R X = {0,1,2,3,4} y el número de elementos del espacio muestral es  
 4
de donde:
 5  5   5  5   5  5   5  5 
           
0 4
pX (0) =    =  0  4 − 0  , 1 3
pX (1) =    =  1  4 − 1
10  10  10  10 
       
4 4 4 4
 5  5  5  5 
     
 2  2   2  4 − 2
pX (2) = = , etc. De estos tres casos inducimos
 10  10
   
 4  4
 5  5 
  
 x  4 − x 
que: p X (x) = , para x = 0, 1, 2, 3, 4.
10 
 
4
es la distribución de probabilidad de X, expresada mediante fórmula.
4.3.6.-La variable aleatoria X toma los valores: 1, 2, …, 11, 12 con función de
probabilidad para X, dada por: p X (x) = P[X = x ] = k x
Calcular el valor de la constante k ≠ 0.
SOLUCION:
Para que p X (x) sea una función de probabilidad debe satisfacer las
condiciones de una probabilidad, entonces:
a) p X (x) = k x > 0 , para todo x = 1, 2, …, 11, 12, luego k > 0.
12
b) ∑ k x = k(1 + 2 + ... + 11 + 12) = 1 , de donde
x =1
1 1 1
k= = = .
12(13) 6(13) 78
2
4. 4. FUNCION DE DISTRIBUCION DE UNA VARIABLE
ALEATORIA DISCRETA
Con toda variable aleatoria discreta está asociada otra función real; que
se llama función de distribución acumulada o simplemente función de
distribución de la variable aleatoria discreta dada, que tiene por objeto resolver
problemas en los cuales se desea calcular la probabilidad de un valor
90 Hugo Cornejo Villena & Hugo Cornejo Rosell.

observado de la variable aleatoria discreta que sea “menor que” o “igual” a


algún número real x.
DEFINICION 4.4.1
Si X es una variable aleatoria discreta, se llama función de distribución
acumulada o simplemente función de distribución de X, a la función FX ,
dada por:
FX ( x ) = P[X ≤ x ]
para todo número real x.
EJEMPLOS
En todos los casos consideraremos el ∂-álgebra A = 2 Ω .
4.4.1.-Sea el experimento de lanzar una moneda tres veces, entonces
Ω = {CCC, CCS, CSC, SCC, CSS, SCS, SSC, SSS}
Asumamos que la variable aleatoria X es “el número de caras que hayan
aparecido en las tres tiradas de la moneda”, luego
X(CCC) = 3 , X(CCS) = X(CSC) = X(SCC) = 2 , X(CSS) = X(SCS) =
X(SSC) = 1 y X(SSS) = 0, de donde R X = {0,1,2,3} .
Por tanto:
 φ ; si x<0
 {SSS} ; si 0 ≤ x < 1

[X ≤ x ] =  {CSS, SCS, SSC, SSS} ; si 1 ≤ x < 2
{CCS, CSC, SCC, CSS, SCS, SSC, SSS} ; si 2 ≤ x < 3

 Ω ; si x≥3
1
y como P (φ) = 0 , P({sss}) =
1
8
( )
, P {css,scs,ssc,sss} =
2
,

7
P({CCS, CSC, SCC, CSS, SCS, SSC, SSS}) = y P( Ω ) = 1 .
8
Entonces, la función de distribución de X es:
 0 ; si x<0
1
 ; si 0 ≤ x < 1
8
1
FX ( x ) = P[ X ≤ x ] =  ; si 1 ≤ x < 2
2
 7 ; si 2 ≤ x < 3
8
 1 ; si x≥3
La representación gráfica de esta función es la siguiente:
Introducción al Cálculo de Probabilidades 91

FX(x)
1

7/8

1/2

1/8

0 1 2 3
x

Es importante darnos cuenta de que, la función de distribución FX está


definida sobre el eje real completo, aun cuando el recorrido de x puede
ser una porción acotada del eje real. En efecto, si todo los números X(ω)
están en un cierto intervalo finito [ a , b] , entonces para x < a la
probabilidad P[ X ≤ x ] es cero ( ya que para x < a el conjunto [ X ≤ x ]
es vacío ) y para x ≥ b la probabilidad P[X ≤ x ] es uno ( debido a que en
este caso el conjunto [ X ≤ x ] es el espacio muestral completo ). Esto
significa que para la variable aleatoria discreta X acotada, cuyo recorrido
está dentro de un intervalo [ a , b] tenemos FX ( x ) = 0 para todo x < a y
FX ( x ) = 1 para todo x ≤ b
4.4.2.-De una caja que contiene dos bolas blancas, dos bolas azules y tres bolas
verdes. Se extrae sucesivamente una bola sin reposición hasta que salga
una verde. Hallar la distribución de probabilidad y la función de
distribución correspondiente y graficar.
SOLUCION:
La variable aleatoria X es “el número de extracciones
sucesivas de bolas sin reposición hasta obtener una verde”, luego
R X = {1,2,3,4,5} y el espacio muestral asociado al experimento es:

{
Ω = V, V ' V, V ' V ' V, V ' V ' V ' V, V ' V ' V ' V ' V }
donde V significa extracción de una bola verde y V’ significa su
complemento (la no extracción de una bola verde) o la extracción de bola
blanca o azul. Entonces:
92 Hugo Cornejo Villena & Hugo Cornejo Rosell.

a) Cálculo de la distribución de probabilidad de X.


Como:
3
pX (1) = P(V) =
7

pX (2) = P(V ' V) = P(V ' ) P(V) =     =
4 3 2
7 6 7
 4   3   3 6
pX (3) = P(V ' V ' V) =       =
 7   6   5 35
 4   3  2   3  3
pX (4) = P(V ' V ' V ' V) =         =
 7   6   5   4  35
 4  3  2  1  3  1
pX (5) = P(V ' V ' V ' V ' V) =       =
 7  6  5  4  3  35
Por tanto, la distribución de probabilidad de X es:

x 1 2 3 4 5
3 2 6 3 1
pX (x)
7 7 35 35 35

b) Cálculo de la función de distribución de X.


Como:

φ ; si x <1
{V} ; si 1≤ x < 2

{
 V ' V, V
[ X ≤ x ] =  ' '
} ; si 2≤ x<3
{
 V V V, V V, V
'
} ; si 3≤ x < 4


{
 V ' V ' V ' V, V ' V ' V, V ' V, V } ; si 4≤ x<5
Ω ; si x≥5
Entonces:
3
P( φ) = 0 , P({ V} ) = ,
7

({ }) = P({V V}) + P({ V} ) = 73 + 27 = 75


P V ' V, V '

P({V V V, V V, V}) =
' ' '6 2 3 31
+ + = ,
35 7 7 35
Introducción al Cálculo de Probabilidades 93

({ }) = 353 + 356 + 27 + 73 = 3435 , y P(Ω) = 1


P V ' V ' V ' V, V ' V ' V, V ' V, V
Luego, la función de distribución de X es:
0 ; si x < 1
3/7 ; si 1 ≤ x < 2

5/7 ; si 2 ≤ x < 3
FX ( x ) = P[X ≤ x ] = 
31/35 ; si 3 ≤ x < 4
34/35 ; si 4 ≤ x < 5

1 ; si x ≥ 5
Tabularmente, representamos la distribución de probabilidad y la función
de distribución de X, en forma conjunta, así:

x 1 2 3 4 5
3 2 6 3 1
p X (x)
7 7 35 35 35
3 5 31 34 1
FX ( x )
7 7 35 35

La representación gráfica de la función de distribución de la variable


aleatoria es:

FX(x)
1
34/35

31/25

5/7 = 25/35

3/7 = 15/35

4 5
x
0 1 2 3
94 Hugo Cornejo Villena & Hugo Cornejo Rosell.

OBSERVACION: En la representación tabular de la distribución de


probabilidad y la función de distribución de una variable aleatoria discreta, se
nota que los resultados de la función de distribución son acumulaciones de
resultados de la distribución de probabilidad, así tenemos en el ejemplo
anterior que:
3 2 6 31
FX (3) = pX (1) + pX (2) + pX (3) = + + = , etc.;
7 7 35 35
esto justifica su denominación dada en la definición 4.3.1.
A continuación, presentamos un cierto número de propiedades comunes
a todas las funciones de distribución.

PROPIEDADES DE FUNCIONES DE DISTRIBUCION DE UNA


VARIABLE ALEATORIA DISCRETA
Si FX ( x ) es una función de distribución de una variable aleatoria
discreta X, entonces:
4.4.1 0 ≤ FX ( x ) ≤ 1 , para todo x
4.4.2 [ ]
P x1 < X ≤ x 2 = FX ( x 2 ) - FX ( x 1 ) , sí x1 < x 2 .
4.4.3 FX ( x 1 ) ≤ FX ( x 2 ) , sí x1 < x 2 .
4.4.4 P[x1 ≤ X ≤ x 2 ] = FX ( x 2 ) - FX ( x 1 ) + P[X = x 1 ] , si x1 < x 2
4.4.5 P[x1 < X < x 2 ] = FX ( x 2 ) - FX ( x 1 ) - P[X = x 2 ] , si x1 < x 2
4.4.6 P[x1 ≤ X < x 2 ] = FX ( x 2 ) - FX ( x 1 ) + P[X = x 1 ] - P[X = x 2 ] , si
x1 < x 2
4.4.7 lim FX (x) = 1 .
x →+∞

4.4.8 lim FX (x) = 0 .


x →.∞

DEMOSTRACION:
4.4.1.-Consecuencia inmediata de la definición de FX ( x ) y dado que la
probabilidad está siempre comprendida entre 0 y 1.
4.4.2.-Observemos que los eventos [x1 < X ≤ x 2 ] y [X ≤ x 1 ] son disjuntos.
Su unión es el evento [X ≤ x 2 ] ; gráficamente:
Introducción al Cálculo de Probabilidades 95

y entonces, tomando probabilidades obtenemos:


P[X ≤ x 2 ] = P[X ≤ x 1 ] + P[x1 < X ≤ x 2 ] , de donde
P[x1 < X ≤ x 2 ] =P [X ≤ x 2 ] - P[X ≤ x 1 ] ,
y utilizando la definición de FX ( x ) , se tiene:
P[x1 < X ≤ x 2 ] = FX ( x 2 ) - FX ( x 1 )
que demuestra la proposición.
4.4..3.-Se deduce de la propiedad anterior, que si P[x1 < X ≤ x 2 ] ≥ 0, entonces
FX ( x 1 ) ≤ FX ( x 2 ) .
4.4.4.-Observemos que los eventos [x1 < X ≤ x 2 ] y [X = x 1 ] son disjuntos y
su unión es [x 1 ≤ X ≤ x 2 ] , tomando probabilidades y aplicando la
propiedad 4.4.2, se obtiene finalmente
P[x1 ≤ X ≤ x 2 ] = FX ( x 2 ) - FX ( x1 ) + P[X = x 1 ] .
Las propiedades 4.4.5 y 4.4.6 se demuestran en forma similar y se deja al
lector su verificación.
4.4.7.-Debemos demostrar que si dado un ε > 0 , existe N > 0 tal que:
FX ( x) −1 < ε , siempre que x > N,
equivalentemente:
1 − ε < FX ( x) < 1 + ε , siempre que x > N.
Como FX ( x ) es una probabilidad, sólo será necesario demostrar que si
dado un ε > 0 , existe N > 0 tal que:
1 − ε < FX ( x ) , siempre que x > N.
Pero X es una variable aleatoria, X(ω ) es finito para cualquier ω ∈ Ω ,
entonces:
∞ 
Ω = [X ≤ 0] ∪   N − 1 < X ≤ N  ,
 N =1 
tomando probabilidad, se tiene:

1 = P[X ≤ 0] + ∑ P[N − 1 < X ≤ N ]
N =1
Observemos que la serie es convergente y consiguientemente, existe N ε
tal que para todo N > N ε

P[X ≤ 0] + ∑ P[k − 1 < X ≤ k ] > 1 − ε , o P[X ≤ N ] > 1 − ε .
k =1
Tomando N = Nε + 1, aplicando la propiedad 4.4.3, vemos que
FX ( x) > 1 − ε para todo x > N, con lo que concluye la demostración.
4.4.8.-Debemos demostrar que si dado un ε > 0 , ∃ N > 0 tal que:
96 Hugo Cornejo Villena & Hugo Cornejo Rosell.

FX ( x ) − 0 < ε , siempre que x < N o FX ( x) < ε , siempre que x < N


Por el mismo razonamiento, efectuado en la demostración de la
propiedad anterior,
Ω = [X > 0] ∪   [− (k + 1) < X ≤ − k ]

k =o 
tomando probabilidad, resulta:

1 = P[X > 0] + ∑ P[− (k + 1) < X ≤ − k ]
k =0
Como la serie es convergente, existe un entero N ε tal que para todo
n > Nε

P[X > 0] + ∑ P[− (k + 1) < X ≤ − k ] > 1 - ε.
k =0
Esto es lo mismo que escribir:
P[X ≤ −(n + 1)] < ε
para todo n > N ε . Si N = - ( Nε + 1), entonces por la propiedad 4.4.3,
FX ( x ) < ε , para todo x < N, lo que completa la demostración.
Tenemos, además, las siguientes propiedades cuyas demostraciones de
deja al lector.
4.4.9 P[X > x ] = 1 - P[X ≤ x ] = 1 - FX ( x ) , para todo x
   1     1 
4.4.10 P[X < x ] = P  lim  X ≤  x -    = lim P  X ≤  x -  
 n →+∞
  n   n →+∞
  n 
1
= lim FX ( x − )
n →+∞ n
1
4.4.11 P[X = x ] = P[X ≤ x ] - P[X < x ] = FX ( x ) - lim FX ( x − )
n →+∞ n
EJEMPLOS
4.4.3.-Supongamos que la función de probabilidad de la variable aleatoria
discreta X está dada por:
x 0 1 2
2 4 1
p X (x)
7 7 7
Hallar la distribución acumulada de X y utilizando esta distribución,
calcular:
a) P[X < 1] b) P[X = 1] c) P[0 < X ≤ 2] d) P[X ≥ 1]
SOLUCION:
Introducción al Cálculo de Probabilidades 97

De acuerdo con la observación de esta sección, dado que R X = {0,1,2,} ,


encontramos que la función de distribución de la variable aleatoria X es:
0 ; si x < 0
2
 ; si 0 ≤ x < 1
FX ( x ) =  7
6
 ; si 1 ≤ x < 2
7
1 ; si x ≥ 2
Por tanto, utilizando propiedades tenemos:
   1   1 2
a) P[X < 1] = P  lim  X ≤ 1 -    = lim F(1 − ) =
 n →+∞   n    n →+∞ n 7
b) P[X = 1] = P[X ≤ 1] - P[X < 1] = FX (1) - P[X < 1]
6 2 4
= - = (como se esperaba)
7 7 7
2 5
c) P[0 < X ≤ 2] = FX (2) - FX (0) = 1 - =
7 7
2 5
d) P[X ≥ 1] = 1 - P[X < 1] = 1 - =
7 7
4.4.4.-Si la variable aleatoria discreta X tiene la siguiente función de
distribución acumulada:
0 ; si x < 10
1
 ; si 10 ≤ x < 15
FX ( x ) =  4
3
 ; si 15 ≤ x < 20
4
1 ; si x ≥ 20
Hallar:
a) P[X ≤ 10.5] + P[X ≥ 15.5] .
b) P[10.2 ≤ X ≤ 15.5] .
c) Distribución de probabilidad de la variable aleatoria X.
SOLUCION:
a) Como
1
P[X ≤ 10.5] = FX (10.5) = y P[X ≥ 15.5] =1 - P[X < 15.5]
4
1 3 1
= 1 - lim F(15.5 − ) = 1 - =
n →+∞ n 4 4
Por tanto:
98 Hugo Cornejo Villena & Hugo Cornejo Rosell.

1 1 1
P[X ≤ 10.5] + P[X ≥ 15.5] = + =
4 4 2
b) P[10.2 ≤ X ≤ 15.5] = FX (15.5) - FX (10.2) + P[X = 10.2]
3 1
= - + P[X ≤ 10.2] - P[X < 10.2]
4 4
2 1
= + FX (10.2) - lim F(10.2 − )
4 n →+∞ n
2 1 1 2 1
= + - = = .
4 4 4 4 2
c) Como
P[X = 10] = P[X ≤ 10] - P[X < 10]
1 1 1
= FX (10) - lim F(10 − ) = -0=
n →+∞ n 4 4
1 3 1 1
P[X = 15] = FX (15) - lim F(15 − ) = - =
n →+∞ n 4 4 2
1 3 1
P[X = 20] = FX (20) - lim F(20 − ) = 1 - =
n →+∞ n 4 4
Entonces, la distribución de probabilidad de X está dada por:

X 10 15 20
p X (x) 1 1 1
4 2 4

Debemos observar que, para calcular directamente la distribución de


probabilidad a partir de la distribución acumulada, se diferencia los
valores correspondientes a la proximidad del punto de discontinuidad
{ }
(puntos de RX ); es decir si R X = x 1 , x 2 ,..., x j , x j+1 ,... entonces
( ) ( ) ( )
p X x j+1 = FX x j+1 − FX x j , para todo j=1,2,......
Por ejemplo, en nuestro caso, si x j+1 = 15, entonces
3 1 1
p X (15) = FX (15) − FX (10 ) =− =
4 4 2
OBSERVACION: Como resumen de lo visto anteriormente tenemos que, si
X es una variable aleatoria discreta entonces su función de distribución se dice
que es función de distribución discreta y está dada por:
Introducción al Cálculo de Probabilidades 99

FX ( x ) = P[X ≤ x ] = ∑p X ( x j ) = ∑ P[X = x j ]
xj ≤x x j ≤x

4. 5. FUNCION DE DISTRIBUCION DE VARIAS VARIABLES


ALEATORIAS DISCRETAS
En nuestro estudio de las variables aleatorias hemos considerado, hasta
aquí, sólo el caso unidimensional; es decir, el resultado de un experimento que
fue representado por una sola variable, sin embargo, un experimento puede
ser representado o inducido por dos o más variables aleatorias. Por ejemplo,
si se extrae al azar un ejemplar de un zoológico y se anota su especie por x y
su peso por y, se considera el par (x, y) como resultado del experimento y
consiguientemente se toma dos variables aleatorias y si a éste se añade
anotando su sexo por z, se considera la terna (x, y, z) como resultado del
experimento y por tanto se tiene tres variables aleatorias.
En esta sección presentaremos o estudiaremos, los conceptos para el caso
bidimensional y luego generalizaremos para el caso multidimensional o de
varias variables tales como: Función de probabilidad, función de distribución
acumulada, etc.
DEFINICION 4.5.1.-
Si Ω es el espacio muestral asociado a un mismo experimento y a un mismo
∂-álgebra de eventos y si X e Y son dos variables aleatorias definidas en Ω, el
par (X, Y) se llama variable aleatoria bidimensional o vector aleatorio
bidimensional.
Gráficamente tenemos:

En sí, el par (X, Y) es una aplicación de Ω en 2, dada por


(X, Y )(ω) = [X(ω ), Y(ω )] , para todo ω ∈Ω .
El rango de la variable aleatoria bidimensional está dado por:
R X,Y = { ( x, y ) / x = X(ω ), y = Y(ω ), ∀ω ∈ Ω}
que es el producto cartesiano de los rangos de las variables aleatorias X e Y.
100 Hugo Cornejo Villena & Hugo Cornejo Rosell.

OBSERVACION 4.5.1: Si X1 , X 2 , ..., X n , ... , es un conjunto (finito o


infinito) de variables aleatorias definidas en Ω , tal que cada una asocia un
número real a cada resultado ω ∈Ω ; es decir, X1 (ωω = x1 , X 2 (ωω = x 2 ,
X 3 (ωω = x3 , … , X n (ωω = x n , …, entonces el vector ( X1 , X 2 , ..., X n , ... ) se
denomina variable aleatoria multidimensional o vector aleatorio
multidimensional.
Adoptan las denominaciones de discreta o continua, cuando las variables
aleatorias X1 , X 2 , ..., X n , ... son, respectivamente, discretas o continuas.
Las diferentes notaciones adoptadas para el caso unidimensional se
expresan o presentan por extensión natural; así, por ejemplo:
• [X < a ][Y = b] = [X < a , Y = b] representa que la variable aleatoria X
toma valores menores que a y que la variable aleatoria Y toma el valor b
(intersección de eventos).
• [X ≤ a ][Y > b] = [X ≤ a , Y > b]
• [X ≥ a ][Y ≥ b] = [X ≥ a , Y ≥ b] , etc.
Sus probabilidades escribiremos por:
P([X < a ][Y = b]) = P([X < a , Y = b]) , P([X ≤ a ][Y > b]) =
P([X ≤ a , Y > b]) ; P([X ≥ a ][Y ≥ b]) = P([X ≥ a , Y ≥ b]) , etc.
Como en la sección 4.3, consideraremos A = 2Ω , R X y R Y como
conjuntos finitos o infinitos numerables, para la definición de función de
probabilidad conjunta, que damos a continuación:
DEFINICION 4.5.2
Sea (X, Y) una variable aleatoria bidimensional discreta con rango R X ,Y . La
función que hace corresponder a cada par (x, y) de (X, Y) el número
pX,Y (x, y) = P([X = x][Y = y ]) = P([X = x, Y = y ])
Se llama distribución de probabilidad o función de probabilidad
conjunta o función masa de probabilidad de la variable aleatoria discreta
(X, Y), que satisface las siguientes condiciones:
1. p X,Y (x, y) ≥ 0 para todo ( x, y)∈ 2.
2. ∑∑
x y
p X,Y (x, y) = 1 .

Para cualquier región A en el plano X × Y,


P[(X, Y ) ∈ A] = ∑ ∑ p X,Y (x, y) .
A
Introducción al Cálculo de Probabilidades 101

Como indicamos en el caso unidimensional, en sí, el conjunto de pares


ordenados (x, y), p X,Y (x, y)  es la distribución de probabilidad conjunta de
la variable aleatoria discreta (X, Y).
Cuando el rango de la variable aleatoria discreta (X , Y) es finito, la
distribución de probabilidad conjunta se representa en una tabla de doble
entrada, como se muestra:

REPRESENTACION TABULAR
La representación gráfica de la función de probabilidad conjunta de la
variable aleatoria (X, Y) se muestra a continuación:

REPRESENTACION GRÁFICA

DEFINICION 4.5.3
La función de distribución acumulada o simplemente función de
distribución bivariable del vector aleatorio (X, Y), denotada por FXY , es
la función de 2
en [0,1] dada por:
102 Hugo Cornejo Villena & Hugo Cornejo Rosell.

FX,Y ( x , y) = P[X ≤ x, Y ≤ y ] , ∀ ( x , y ) ∈ 2
Si el rango de la variable aleatoria (X , Y) es finito o infinito numerable:
R X = {x1 , x 2 ,...} , R Y = {y1 , y 2 ,...} , o la variable aleatoria (X , Y) es discreta,
entonces, la función de distribución acumulada de (X , Y) está dada por:
FX,Y ( x , y) = P[X ≤ x, Y ≤ y ] = ∑ ∑ p XY ( xi , y j )
y j ≤ y xi ≤ x
Gráficamente, FX,Y ( x , y) es la suma de las probabilidades de todos los
puntos de la región
{( )
A = x i , y j / x i ≤ x, y j ≤ y }
que se muestra:

OBSERVACION 4.5.2: En la práctica FX,Y ( x , y) es la suma total de los


elementos que forman la matriz:
 p X,Y (x1 , y1 ) p X,Y (x1 , y 2 ) ... p X,Y (x1 , y j ) ... pX,Y (x1 , y) 
 p (x , y ) p (x , y ) ... p (x , y ) ... pX,Y (x 2 , y) 
 X,Y 2 1 X,Y 2 2 X,Y 2 j

 . . . . . . 

 p X,Y (x i , y1 ) p X,Y (x i , y 2 ) ... p X,Y (x i , y j ) ... pX,Y (x i , y) 
 . . . . . . 
 
 p X,Y (x, y1 ) p X,Y (x, y 2 ) ... p X,Y (x, y j ) ... pX,Y ( x, y) 
donde x i ≤ x e y j ≤ y .
Por ejemplo, si deseamos calcular FX,Y ( x 3 , y 4 ) , sumamos todos los
elementos de la matriz:
 p X,Y (x1 , y1 ) p X,Y (x1 , y 2 ) p X,Y (x1 , y3 ) p X,Y (x1 , y 4 ) 
 
 p X,Y (x 2 , y1 ) p X,Y (x 2 , y 2 ) p X,Y (x 2 , y3 ) p X,Y (x 2 , y 4 ) 
 p X,Y (x 3 , y1 ) p X,Y (x 3 , y 2 ) p X,Y (x 3 , y3 ) p X,Y (x 3 , y 4 ) 
 
EJEMPLOS
Introducción al Cálculo de Probabilidades 103

4.5.1.-Sea X la variable aleatoria definida como el número de caras que


resultan al lanzar una moneda cuatro veces y sea Y la variable aleatoria
definida como el número de sellos que resulta del mismo experimento;
es decir, del lanzamiento de una moneda cuatro veces.
a) Determinar la función de probabilidad conjunta de (X, Y) y graficar.
b) Hallar la función de distribución acumulada de (X, Y).
SOLUCION:
a) El espacio muestral Ω y los valores de X e Y en forma tabulada
están dadas por:

Ω scsc sscc csss scss sscs sssc ssss


X 2 2 1 1 1 1 0
Y 2 2 3 3 3 3 4
Ω cccc cccs cscc ccsc sccc ccss cscs cssc sccs
X 4 3 3 3 3 2 2 2 2
Y 0 1 1 1 1 2 2 2 2
Luego
R X = {0,1,2,3,4} , R Y = {0,1,2,3,4} y
R X ,Y = {(0,4), (1,3), (2,2), (3,1), (4,0)}
que se muestra en el siguiente gráfico:
y

4
3
2
1
R XY
x
0 1 2 3 4
Observemos que R X ,Y ≠ R X x R Y dado que, por ejemplo, el par
(1, 1) ∉ R XY ya que en la tabulación conjunta no se encuentra este
valor, puesto que no se presenta en ningún lanzamiento de 4
monedas que salga sólo una cara y un sello.
1
Como la selección es al azar, cada evento tiene probabilidad de
16
dado que el número de elementos de Ω es 16. Entonces:
# de pares (0,4) 1
pX,Y (0, 4) = P[X = 0, Y = 4] = =
# de elementos Ω 16
104 Hugo Cornejo Villena & Hugo Cornejo Rosell.

# de pares (1,3) 4 1
pX,Y (1, 3) = P[X = 1, Y = 3] = = =
# de elementos Ω 16 4
# de pares (2,2) 6 3
pX,Y (2, 2) = P[X = 2, Y = 2] = = =
# de elementos Ω 16 8
# de pares (3,1) 4 1
pX,Y (3,1) = P[X = 3, Y = 1] = = =
# de elementos Ω 16 4
# de pares (4,0) 1
pX,Y (4, 0) = P[ X = 4, Y = 0] = =
# de elementos Ω 16
Como aclaración tengamos, por ejemplo:
4 1
P[X = 1, Y = 3] = P (CSSS o SCSS o SSCS o SSSC) = =
16 4
1
P[X = 4, Y = 0] = P (CCCC) = . etc.
16
Por tanto, la función de probabilidad conjunta de (X, Y) está dada
en la siguiente tabla:

Representación gráfica:
Introducción al Cálculo de Probabilidades 105

b) De acuerdo a la observación de esta sección, encontramos la función de


distribución acumulada de (X, Y) a partir de la tabla que representa la
función de probabilidad conjunta de (X , Y), expresada por:

Así tenemos, por ejemplo:


FX,Y (0,0) = p X,Y (0, 0) = 0
FX,Y (0,3) = p X,Y (0,1) + p X,Y (0, 2) + p X,Y (0, 3) = 0
FX,Y (2,2) = p X,Y (0, 0) + p X,Y (0,1) + p X,Y (0, 2) +
pX,Y (1, 0) + pX,Y (1,1) + pX,Y (1, 2) pX,Y (2, 0) +
pX,Y (2,1) + pX,Y (2, 2) = 3/8
FX,Y (3,3) = p X,Y (0, 0) + p X,Y (0,1) + p X,Y (0, 2) + p X,Y (0, 3) +
pX,Y (1, 0) + pX,Y (1,1) + pX,Y (1, 2) + pX,Y (1, 3) +
pX,Y (2, 0) + pX,Y (2,1) + pX,Y (2, 2) + pX,Y (2, 3)
pX,Y (3, 0) + pX,Y (3,1) + pX,Y (3, 2) + pX,Y (3, 3) =
1 3 1 7
+ + = ; etc.
4 8 4 8
Los resultados obtenidos, aparentemente son complicados, sin embargo,
trazando matrices con líneas imaginarias en la tabla que representa la
función de probabilidad conjunta de (X, Y) es fácil su deducción; así por
ejemplo para calcular FX,Y (4,3) tracemos las líneas verticales en la
columna 3 y horizontal en la fila 4; sin pasar la línea divisoria de las
variables.
106 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Encontramos que en la parte superior de la línea horizontal y el lado


izquierdo de la línea vertical se forma una región (matriz) de la forma:

0 0 0 0
 1
0 0 0 4
 3 
0 0 0
 8 
0 1 0 0 
 4
1 
 0 0 0
16 
La suma de todos sus elementos es el valor de FX,Y (4,3) ; es decir
1 3 1 1 15
FX,Y (4,3) = + + + = .
4 8 4 16 16
La tabla que representa los valores de FX,Y ( x , y) , ∀ x, y ∈ , también
se puede expresar como:

4.5.2.-La función de probabilidad conjunta de (X, Y) está dada por


pX,Y (x, y) = k (x + 2y), donde x e y pueden tomar valores enteros tales
que 0 ≤ x ≤ 2 , 0 ≤ y ≤ 3 y pX,Y ( x, y ) = 0 en caso contrario:
a) Hallar el valor de la constante k.
b) Hallar P[X = 1, Y = 2] .
c) Hallar P[X ≥ 1, Y ≤ 2] .
SOLUCION:
Los puntos muestrales (x, y) para los cuales las probabilidades son
diferentes de cero se encuentran en :
R X,Y = {(x , y ) / 0 ≤ x ≤ 2 , 0 ≤ y ≤ 3}=
{(0,0), (0,1), (0,2), (0,3), (1,0), (1,1), (1,2), (1,3), (2,0), (2,1), (2,2), (2,3)}
Introducción al Cálculo de Probabilidades 107

Las probabilidades asociadas con estos puntos, dados por k (x + 2y),


están en la siguiente tabla:

a) Como el gran total es 48k, y este debe ser igual a 1, entonces


1
k= .
48
 1  5
b) De la tabla se deduce que: P[X = 1, Y = 2] = 5k = 5   = .
 48  48
c) Como
P[X ≥ 1, Y ≤ 2] = ∑ ∑
p X,Y ( x, y )
x 1 2
≥ y≤
= p X,Y (1, 2) + p X,Y (1,1) + p X,Y (1, 0) +
pX,Y (2, 2) + pX,Y (2,1) + pX,Y (2, 0)
Luego, aplicando los valores de la tabla, tenemos:
21 7
P[X ≥ 1, Y ≤ 2] = 5k + 3k + k + 6k + 4k + 2k = 21k = = .
48 16
Las funciones de distribución bivariable tienen muchas propiedades en
común que las de una variable. La demostración de las siguientes propiedades
es semejante a las vistas anteriormente. Se indican sugerencias y la
formalización queda a cargo del lector.
PROPIEDADES
4.5.1 FX,Y ( x 1 , y1 ) ≤ FX,Y ( x 2 , y 2 ) , sí x 1 ≤ x 2 y y1 ≤ y 2 .
(Sugerencia: Para la demostración utilizar
[X ≤ x1 ][Y ≤ y1 ] ⊆ [X ≤ x2 ][Y ≤ y 2 ] )
4.5.2 FX,Y (−∞, y) = lim FX,Y ( x, y ) = 0, ∀ y∈ .
x → −∞
(Sugerencia: Seguir los pasos de la demostración de la propiedad 4.4.8)
4.5.3 FX,Y ( x ,−∞) = lim FX,Y ( x, y ) = 0, ∀ x∈ .
y → −∞

(Sugerencia: Seguir los pasos de la demostración de la propiedad


4.4.8)
4.5.4 lim FX,Y ( x, y ) = FX,Y (+∞,+∞) = 1
x → +∞
y → +∞
108 Hugo Cornejo Villena & Hugo Cornejo Rosell.

4.5.5 P[a < X ≤ b, c < Y ≤ d ] = FX,Y (b, d ) - FX,Y (a , d ) - FX,Y (b, c) +


FX,Y (a , c) .
4.5.6 P[Y ≤ y] = lim FX,Y ( x, y ) = FX,Y (+∞, y) = FY ( y) , para todo y.
x → +∞
(Sugerencia: Para la demostración tomar en cuenta:

[Y ≤ y ] = [X ≤ 0][Y ≤ y ] ∪   [k − 1 < X ≤ k ][Y ≤ y]  y seguir los
k =1
pasos de la demostración de la propiedad 4.4.7)
4.5.7 P[X ≤ x ] = lim FX,Y ( x, y ) = FX,Y ( x ,+∞) = FX ( x ) , para todo x.
y → +∞

(Sugerencia: Puede utilizar la propiedad 4.5.6 si se observa que


FX,Y ( x , y) = FX,Y ( y, x ) )
4.5.8 P[X > x, Y > y ] = 1 - FX ( x ) - FY ( y) + FX,Y ( x , y) .
Es importante manifestar que se establecen propiedades análogas a las
indicadas o precedentes para un conjunto de las variables: X1 , X 2 , X 3 ; en
especial las propiedades: 4.5.1, 4.5.2, 4.5.3, 4.5.6 y 4.5.7.
OBSERVACION 4.5.3: Si los posibles valores de la variable aleatoria
bidimensional (X, Y) son finitos o infinitos numerables o (X, Y) es una
variable aleatoria discreta, entonces la función de probabilidad de X es
obtenida de p X,Y ( x , y) por:
pX (x) = P[X = x ] = ∑ p X, Y ( x , y)
y: p X,Y ( x , y ) >0

similarmente: p Y ( y) = P[Y = y ] = ∑ p X, Y ( x , y)
x : p X,Y ( x , y ) >0

Llamadas probabilidades marginales de las variables X e Y,


respectivamente.
Se denomina distribución marginal de X a la tabla que contiene los
valores de X y sus probabilidades marginales, esto es

X x1 x2 … xn
pX (x j ) pX (x1 ) pX (x 2 ) … pX (x n )

Similarmente, se denomina distribución marginal de Y a la tabla que


contiene los valores de Y y sus probabilidades marginales, esto es

Y y1 y2 … ym
pY (y j ) pY (y1 ) pY (y 2 ) … pY (y m )
Introducción al Cálculo de Probabilidades 109

Las distribuciones acumuladas marginales de X e Y están dadas


respectivamente por:
FX ( x ) = P[X ≤ x ] = P[X ≤ x, Y ≤ ∞] = ∑ p X (x i )
xi ≤ x
FY ( y) = P[Y ≤ y ] = P[X ≤ ∞, Y ≤ y] = ∑p Y (y j )
yj≤y
EJEMPLOS
4.5.3.-De una caja de frutas que contiene 3 naranjas, 2 manzanas y 3 plátanos,
se selecciona una muestra aleatoria de 4 frutas. Si X es el número de
naranjas y Y es el número de manzanas en la muestra, hallar:
a) La distribución de probabilidad conjunta de (X, Y).
b) Las distribuciones de probabilidad pX ( x ) y pY ( y ) .
c) P[X ≤ 2, Y = 1] , d) P[X > 2, Y < 1] , e) P[X > Y ] ,
f) P[X + Y = 2] y g) FX,Y (2,2) .
SOLUCION
De los datos del problema se tiene: R X = {0,1,2,3} , R Y = {0,1,2} y
R X ,Y = {(0,1), (0,2), (1,0), (1,1), (1,2), (2,0), (2,1), (2,2), (3,0), (3,1)}, los
pares existentes se justifican debido a que la muestra aleatoria es de 4
frutas así, por ejemplo:
(0,1) representa 0 naranjas, 1 manzana y 3 plátanos (las tres frutas
deben sumar 4 frutas).
(1,2) representa 1 naranja, 2 manzanas y 1 plátano, etc.
Por otro lado, no es posible la existencia del par (0,0) que representa 0
naranjas, 0 manzanas y 4 plátanos, debido a que sólo hay 3 plátanos; así
mismo (3,2) escapa de la muestra de 4 frutas.
a) Para el cálculo de las correspondientes probabilidades, usemos el
8
análisis combinatorio. El espacio muestral Ω tiene   = 70
 4
 3
elementos; por otro lado   da el número de casos en se obtienen
x
 2
x naranjas,   representa el número de casos en que se obtienen
 y
 3 
“y” manzanas y   da el número de casos en que se
4 − x − y
obtienen plátanos conocido x naranjas e y manzanas. Por tanto:
110 Hugo Cornejo Villena & Hugo Cornejo Rosell.

 3  2  3 
   
0 1 3
pX,Y (0,1) = P[X = 0, Y = 1] =     = 2
8 70
 
 4
 3  2  4 
   
0 2 2
pX,Y (0, 2) = P[X = 0, Y = 2] =     = 3
8 70
 
 4
 3  2  3 
   
1 0 3
pX,Y (1, 0) = P[X = 1, Y = 0] =     = 3
8 70
 
 4
 3  2  3 
   
1 1 2
pX,Y (1,1) = P[X = 1, Y = 1] =     = 18
8 70
 
 4
 3  2  3 
   
1 2 1
pX,Y (1, 2) = P[X = 1, Y = 2] =     = 9
8 70
 
 4
 3  2  3 
   
2 0 2
pX,Y (2, 0) = P[X = 2, Y = 0] =     = 9
8 70
 
 4
 3  2  3 
   
2 1 1
pX,Y (2,1) = P[X = 2, Y = 1] =     = 18
8 70
 
 4
Introducción al Cálculo de Probabilidades 111

 3  2  3 
   
2 2 0
pX,Y (2, 2) = P[X = 2, Y = 2] =     = 3
8 70
 
 4
 3  2  3 
   
3 0 1
pX,Y (3, 0) = P[X = 3, Y = 0] =     = 3
8 70
 
 4
 3  2  3 
   
3 1 0
pX,Y (3,1) = P[X = 3, Y = 1] =     = 2
8 70
 
 4
Es necesario aclarar que, podemos utilizar la fórmula:
 3  2  3 
   
 x  y  4 − x − y
pX,Y (x, y) = ;
 8
 
 4
para x = 0,1,2,3; y = 0,1,2; 0 ≤ x + y ≤ 4.
Por tanto, la distribución de probabilidad conjunta (X, Y) está dada
en la siguiente tabla:

b) De acuerdo con la última observación 4.5.3, las distribuciones de


probabilidad
112 Hugo Cornejo Villena & Hugo Cornejo Rosell.

p X (x) y p Y (y) se encuentran en las márgenes de la tabla anterior,


que se muestra a continuación:

c) P[X ≤ 2, Y = 1] = P[X = 0, Y = 1] + P[X = 1, Y = 1] +


P[X = 2, Y = 1]
2 18 18 19
= + + =
70 70 70 35
3
d) P[X > 2, Y < 1] = P[X = 3, Y = 0] =
70
e) P[X > Y ] = P[X − Y > 0] = P[X = 1, Y = 0] + P[X = 2, Y = 0] +
P[X = 2, Y = 1] + P[X = 3, Y = 0] + P[X = 3, Y = 1] +
3 9 18 3 2
P[X = 3, Y = 2] = + + + + +0
70 70 70 70 70
35 1
= =
70 2
f) P[X + Y = 2] = P[X = 0, Y = 2] + P[X = 1, Y = 1] + P[X = 2, Y = 0]
3 18 9 30 3
= + + = =
70 70 70 70 7
g) FX,Y (2,2) = P[X ≤ 2, Y ≤ 2] = ∑∑ pX,Y ( xi , y j )
y j ≤ 2 xi ≤ 2
2 3 3 18 9 9 18 3
= + + + + + + +
70 70 70 70 70 70 70 70
65 13
= =
70 14
Introducción al Cálculo de Probabilidades 113

4.5.4.-Dada la distribución de probabilidad conjunta de la variable aleatoria


(X, Y), mediante la tabla:

Calcular:
a) P[X > 0, Y > 0]
b) P[− 1 < X ≤ 1, 0 < Y ≤ 1]
SOLUCION:
Se puede calcular como en el ejemplo anterior, pero utilizaremos las
propiedades expuestas y para ello calcularemos las distribuciones
marginales de p Y (y) y p X (x) y las funciones de distribución acumulada
de (X, Y) :
Como la tabla da el siguiente resultado de probabilidades marginales

De aquí deducimos los siguientes resultados de distribuciones marginales


y funciones de distribución acumulada de X e Y, respectivamente:

X 0 1 Y 0 1 2
pX (x) 0.6 0.4 pY (y) 0.15 0.3 0.55
FX (x ) 0.6 1 FY (y ) 0.15 0.45 1

Por otro lado, tenemos las funciones de distribución acumulada de


(X, Y) en la siguiente tabla:
114 Hugo Cornejo Villena & Hugo Cornejo Rosell.

a) De la propiedad 4.5.8 y de las tablas anteriores se tiene:


P[X > 0, Y > 0] = 1 - FX (0 ) - FY (0 ) + FX,Y (0,0 )
= 1 - 0.6 - 0.15 + 0.1 = 0.35
b) De la propiedad 4.5.5 y la última tabla tenemos:
P[- 1 < X ≤ 1, 0 < Y ≤ 1] = FX,Y (1,1) - FX,Y (− 1,1) - FX,Y (1,0 ) +
FX,Y (− 1,0 ) = 0.45 - 0 - 0.15 + 0 = 0.3
Para concluir esta sección dedicada al estudio de las funciones de
distribución multivariables, veamos el estudio de variables aleatorias
independientes.
DEFINICION 4.5.4
El conjunto (finito o infinito numerable) de variables aleatorias:
X1 , X 2 , …, X n ,…; son independientes (o estocásticamente independientes)
si para todas las posibles selecciones de pares ordenados de números reales:
(a 1 , b1 ) , (a 2 , b 2 ) , …, (a n , b n ) , ….
con a i < b j para todo i, j = 1,2,…,n,… y donde los valores ± ∞ están
permitidos, los eventos:
[a 1 < X1 ≤ b1 ] , [a 2 < X 2 ≤ b 2 ] , … , [a n < X n ≤ b n ] , … son
independientes.
TEOREMA 4.5.1
El conjunto de n variables aleatorias: X1 , X 2 , …, X n son independientes sí,
y sólo si:
( )
n
FX1 ,X 2 ,...,X n (x 1 , x 2 ,..., x n ) = ∏ FX j x j
j =1

para cualquier n-upla (x 1 , x 2 ,..., x n ) de números reales.


DEMOSTRACION:
Primero demostraremos que la condición es necesaria. Supongamos que las
variables aleatorias son independientes y que se cumpla la igualdad anterior.
En este caso sean −∞= a1= a 2= ...= a n y x i = bi para 1 ≤ i ≤ n . Entonces,
por la definición de independencia y la distribución multivariable, tendremos:
[ n
] 
FX1 ,X 2 ,...,X n (x 1 , x 2 ,..., x n ) = P  - ∞ < X j ≤ x j 
 j=1 
n
[ ]
= ∏ P X j ≤ x j = ∏ FX j x j
j =1
n

j =1
( )
lo que demuestra la condición.
Introducción al Cálculo de Probabilidades 115

Recíprocamente, consideremos la igualdad y probemos la independencia


de las variables aleatorias. Observaremos primero que si i 1 , i 2 ,..., i k es un ( )
subconjunto del conjunto de enteros (1, 2, …, n), entonces:
FXi , X ,...X i
1 i2 k
(x i1 , x i 2 ) k
,..., x i k = ∏ FXi x i j
j =1 j
( )
Esto es consecuencia de la hipótesis (igualdad) tomando límites para x α → ∞,
tal que α ∉ {i1 , i 2 ,..., i k }, y utilizando las propiedades 4.5.6 y 4.5.1. Quedará
demostrado nuestro objetivo si probamos que:
k
P( [a 1 < X1 ≤ b1 ][a 2 < X 2 ≤ b 2 ]... [a k < X k ≤ b k ] ) = ∏ P a j < X j ≤ b j
j =1
[ ]
para 1 ≤ k ≤ n . Demostraremos para 1 ≤ k ≤ 2 , quedando como ejercicio
para el lector el caso 3 ≤ k ≤ n que viene a ser similar, pero más complicada
por el aspecto de notación; es decir probemos que
2
P( [a 1 < X1 ≤ b1 ][a 2 < X 2 ≤ b 2 ] ) = ∏ P a j < X j ≤ b j
j =1
[ ]
De la observación indicada en esta demostración, resulta que para
cualquier x1 y x 2 será
FX1 ,X 2 (x 1 , x 2 ) = FX1 (x 1 ) FX 2 (x 2 )
Por otro lado, se tienen:
FX1 ,X 2 (b1 , b 2 ) = FX1 (b1 ) FX 2 (b 2 )
FX1 ,X 2 (a 1 , b 2 ) = FX1 (a 1 ) FX 2 (b 2 ) 
 (a)
FX1 ,X 2 (b1 , a 2 ) = FX1 (b1 ) FX 2 (b 2 )
FX1 ,X 2 (a 1 , a 2 ) = FX1 (a 1 ) FX 2 (a 2 ) 
Además, es fácil comprobar que:
[X1 ≤ b1 ][X 2 ≤ b 2 ] = [a1 < X1 ≤ b1 ][a2 < X 2 ≤ b 2 ] + 
[a1 < X1 ≤ b1 ][X 2 ≤ a 2 ] + 

(b)
[X1 ≤ a 1 ][a2 < X 2 ≤ b 2 ] + 
[X1 ≤ a 1 ][X 2 ≤ a 2 ] 
Como:
[X 1 ≤ b1 ] [X 2 ≤ a 2 ] = [X1 ≤ a 1 ] [X 2 ≤ a 2 ] + [a1 < X1 ≤ b1 ] [X 2 ≤ a 2 ]
tomando probabilidades en los dos miembros, se tiene:
P( [a 1 < X1 ≤ b1 ][X 2 ≤ a 2 ] ) = FX1 ,X 2 (b1 , a 2 ) - FX1 ,X 2 (a 1 , a 2 ) (c)
De forma similar tenemos:
P( [X1 ≤ a 1 ][a 2 < X 2 ≤ b 2 ] ) = FX1 ,X 2 (a 1 , b 2 ) - FX1 ,X 2 (a 1 , a 2 ) (d)
116 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Ahora, si tomamos probabilidades en los dos miembros de la igualdad


(b) y utilizamos las relaciones (c), (d) y (a), encontramos:
P( [a 1 < X1 ≤ b1 ][a 2 < X 2 ≤ b 2 ] ) = FX1 (b1 ) FX 2 (b 2 ) - FX1 (a 1 ) FX 2 (b 2 ) -
FX1 (b1 ) FX 2 (a 2 ) + FX1 (a 1 ) FX 2 (a 2 )

( ( )
= FX1 b1 - FX1 a1 ( )) ( FX (b2 ) - FX (a2 ))
2 2

= P([a 1 < X 1 ≤ b1 ]) P([a 2 < X 2 ≤ b 2 ])


Si sustituimos X1 por X i y X 2 por X i , en esta última relación, resulta
1 2

demostrado que:
 2
[
 j =1 j j j


] 2

j =1 j
[
P  a i < X i ≤ b i  = ∏ P ai < X i ≤ b i
j j
]
Para el caso en que A = 2Ω , R X1 , …, R X n sean conjuntos finitos o
infinitos numerables, tenemos el siguiente corolario.
COROLARIO 4.5.1
El conjunto de n variables aleatorias discretas: X1 , X 2 , …, X n son
n
independientes sí y sólo si p X1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) = ∏p (x ) ,
j =1
Xj j para

cualquier n-upla (x 1 , x 2 ,..., x n ) de números reales.


DEMOSTRACION:
Aplicación directa del teorema 4.5.1, para el caso en que R X1 , …, R X n son
conjuntos finitos o infinitos numerables en el que se definen función de
probabilidad de varias variables.
EJEMPLOS
4.5.5.-Demostrar que las variables aleatorias del ejemplo 4.5.3 no son
independientes.
SOLUCION:
Consideremos el punto (1, 1) y la tabla de la solución de la parte b),
encontramos que:
18 30 40
p X,Y (1,1) = , p X (1) = y p Y (1) =
70 70 70
De donde, p X,Y (1,1) ≠ p X (1) p Y (1)
y por lo tanto X e Y no son variables aleatorias independientes
(dependientes).
Introducción al Cálculo de Probabilidades 117

4.5.6.-Determine si las variables aleatorias X e Y que tienen la siguiente


distribución de probabilidad conjunta, son dependientes o
independientes.

SOLUCION
En la misma tabla calculando las distribuciones marginales, tenemos:

De la tabla observamos que:


p X,Y ( 2,1) = p X ( 2 ) p Y (1) ya que 0.10 = (0.40) (0.25)
p X,Y ( 2,3) = p X ( 2 ) p Y ( 3) ya que 0.20 = (0.40) (0.50)
p X,Y ( 2,5 ) = p X ( 2 ) p Y ( 5 ) ya que 0.10 = (0.40) (0.25)
p X,Y ( 4,1) = p X ( 4 ) p Y (1) ya que 0.15 = (0.60) (0.25)
p X,Y ( 4,3) = p X ( 4 ) p Y ( 3) ya que 0.30 = (0.60) (0.50)
p X,Y ( 4,5 ) = p X ( 4 ) p Y ( 5 ) ya que 0.15 = (0.60) (0.25)
Entonces p X,Y ( x i , y j ) = p X ( x i ) p Y ( y j ) por tanto, X e Y son
independientes.
4. 6. DISTRIBUCION DE PROBABILIDAD CONDICIONAL
Extenderemos el concepto visto en el capítulo I sobre probabilidad
condicional de que ocurra el evento A dado que ha ocurrido el evento B; a la
distribución condicional de una variable aleatoria X, dado que la variable
aleatoria Y haya tomado un valor determinado.
Consideraremos (X, Y) como una variable aleatoria bidimensional discreta
con función de probabilidad pX,Y ( x i , y j ) ; i = 1,2,…,n ; j = 1,2,…,m
de rango R X,Y y probabilidades marginales p X (x i ) y p Y (y j ) y de rangos
R X y R Y , respectivamente, de las variables aleatorias discretas X e Y.
Recordemos que, por definición de probabilidad condicional de que ocurra A
dado que ha ocurrido B, está dado por:
118 Hugo Cornejo Villena & Hugo Cornejo Rosell.

P(A  B) P(AB)
P(A / B) = = ; P(B)>0
P(B) P(B)
entonces si: A = [X = xi ] y B = Y = y j ; [ ]
luego [ ] [
A  B = AB = [X = xi ] Y = y j = X = xi , Y = y j . ]
Por lo tanto,
[
P(AB) = P X = xi , Y = y j = ] p X,Y (x i , y j ) y P(B) = P Y = y j . [ ]
Luego,
p X,Y (x i , y j )
P(A/B) = P [X = xi( ] [ Y = y ]) = P[X = x
j i Y = yj = ] p Y (y j )
Formalmente tenemos:
DEFINICION 4.6.1
Si (X, Y) es una variable aleatoria bidimensional discreta, la función de
probabilidad condicional de X = x i dado Y = y j ; 1 ≤ i ≤ n ; 1 ≤ j ≤ m ,
está dada por :
pX,Y ( x i , y j )
pX Y ( x i yj ) = ; pY ( y j ) > 0; j = 1,2,…,m.
pY ( y j )
Similarmente. La función de probabilidad condicional de Y = y j dado
X = xi , está dada por
pX,Y ( x i , y j )
pY X ( y j xi ) = ; pX ( x i ) > 0 ; i = 1,2,…,n.
pX ( x i )
Para el primer caso, observamos que para cada y j fijo, el conjunto de
pares { (x i , p X / Y (x i / y j )) } define la distribución de probabilidad
condicional de X dado Y = y j , pues:
n
[ ] ∑p (x
n
yj ) = ∑
n [
P X = xi ,Y = y j ]
∑ P X = xi Y = y j =
i =1 i=1
X Y i
i =1 [
P Y = yj ] =

[
P Y = yj] =1
P[Y = y ] j

Similarmente, para cada x i fijo, el conjunto de pares {( y , p j X / Y (y j / }


xi )
define la distribución de probabilidad condicional de Y dado X = x i ,
también
Introducción al Cálculo de Probabilidades 119

m
[
∑ P Y = y j X = xi = 1
j =1
]
A la tabla:

X x1 .... xn
(
pX / Y xi / y j ) (
p X / Y x1 / y j ) .... (
pX / Y x n / y j )
donde pX Y ( x i [ ]
y j ) ≥ 0 y ∑ P X = xi Y = y j = 1 , se llama distribución
n

i =1
de probabilidad condicional de X dado Y = y j .
Similarmente, se llama distribución de probabilidad condicional de Y
dado X = xi , a la siguiente tabla:

Y y1 .... ym
(
pY / X y j / xi ) p Y / X (y 1 / x i ) .... p Y / X (y m / x i )

donde pY X ( y j [
x i ) ≥ 0 y ∑ P Y = y j X = xi = 1.
m

j =1
]
EJEMPLOS
4.6.1.-Sea (X, Y) una variable aleatoria bidimensional discreta, cuya
distribución de probabilidad conjunta está dado por la siguiente tabla:

Hallar:
a) P[X = 1 Y = 2]
b) P[Y = 2 X = 0]
c) P[0 ≤ Y < 2 X = 1]
d) P[0 < X < 2 Y = 1]
SOLUCION:
Encontramos las correspondientes funciones de probabilidad marginal
(en una sola tabla):
120 Hugo Cornejo Villena & Hugo Cornejo Rosell.

a) En la definición sea x i = 1 y y j = 2 ( fijos), entonces


P[X = 1, Y = 2] p X,Y (1, 2 ) 0.25 5
P[X = 1 Y = 2] = = = = = 0.54.
P[Y = 2] pY ( 2 ) 0.55 11
b) En la definición sea y j = 2 y x i = 0 (fijos), entonces
pX Y ( 0, 2 ) 0.3
P[Y = 2 X = 0] = = = 0.5.
pX ( 0 ) 0.6
c) Como:
P[a ≤ Y < b X = x i ] = ∑ p (y
y j ÎR Y a£y j <b
Y X j x i ) , entonces

P[0 ≤ Y < 2 X = 1] = pY X ( 0 1) + pY X (1 1)
pX,Y ( 0,1) pX,Y (1,1)
= +
pX (1) pX (1)
0.2 0.1 1 1 3
= + = + = = 0.75 .
0.4 0.4 2 4 4
d) Como:
[
P a < X < b Y = yj = ] ∑ p (x XY i y j ) , entonces
x i ÎR X a<x i <b

p X ,Y (1,1)
[ ]
P 0 < X < 2 Y = 1 = pX Y (1 1) =
p Y (1)
=
01
.
=
0.3 3
1
= 0. 3 .

4.6.2.- Si la función de probabilidad conjunta de (X, Y) está dada por:


x+y
p X ,Y (x , y ) = , para x = 0,1,2,3; y = 0,1,2
30
Hallar
a) La distribución de probabilidad condicional de X dado Y = 1.
b) La distribución de probabilidad condicional de Y dado X = 3.
SOLUCION:
a) Calculemos las correspondientes funciones de probabilidad
marginal (en una sola tabla)
Introducción al Cálculo de Probabilidades 121

Como:
i) p X Y ( x i y j ) = pX Y ( x i 1) ; entonces
1
p ( 0,1) 30 3 1
ii) p X Y ( 0 1) = X,Y = = =
pY (1) 1 30 10
3
1
pX,Y (1,1) 3 1
pX Y (1 1) = = 15 = =
pY (1) 1 15 5
3
1
p (2,1) 3
pX Y ( 2 1) = X,Y = 10 =
p Y (1) 1 10
3
2
pX,Y ( 3,1) 15 6 2
pX Y ( 3 1) = = = =
pY (1) 1 15 5
3
Por tanto, la distribución de probabilidad de X dado Y = 1 está
dada por la siguiente tabla

Y 0 1 2 3
pX Y (x i 1) 1 1 3 2
10 5 10 5

b) Como:
pX,Y ( 3, y j )
pY X ( y j xi ) = pY X ( y j 3) = , entonces
p X ( 3)
122 Hugo Cornejo Villena & Hugo Cornejo Rosell.

1
p X,Y (3, 0) 1
p Y X ( 0 3) = = 10 = ,
p X (3) 2 4
5
2
p X,Y (3,1) 15 1
pY X (1 3) = = =
p X (3) 2 3
5
1
pX,Y ( 3, 2 ) 6 5
p Y X ( 2 3) = = = .
p X ( 3) 2 12
5
Por tanto, la distribución de probabilidad de Y dado X = 3 está dada por
la siguiente tabla:

Y 0 1 2
p Y/X (y j / 3) 1/4 1/3 5/12

EJERCICIOS
1.- Dado el espacio muestral Ω del ejemplo 4.1.1 y el ∂-álgebra
A = {φ ,Ω, {a , b}, {c, d, e}} sí:
a) X está dada por X(a) = X(b) = 1, X(c) = X(d) = X(e) = 2. ¿X es una
variable aleatoria?
b) Y está dada por Y(a) = 1, Y(b) = Y(c) = 2 y Y(d) = Y(e) = 3. ¿Y es
una variable aleatoria?
{
2.- Supongamos que lanzamos tres monedas y sea A = φ ,Ω, {ccc}, {ccc}2 }
¿X definida por: “número de veces que sale cara” es una variables
aleatoria ?
3.- Un embarque de cinco automóviles importados, incluye dos que tienen
unas ligeras manchas de pintura. Si una agencia recibe tres de estos
vehículos aleatoriamente, indique los elementos del espacio muestral Ω
utilizando las letras M y N para “manchado” y “no manchado”,
respectivamente; asigne entonces para cada punto muestral un valor x de
la variable aleatoria X que representa el “número de automóviles con
manchas de pintura comprados por la agencia”.
4.- Sea X una variable aleatoria que da el número de caras menos el de sellos
en tres lanzamientos de una moneda. Indique los elementos del espacio
Introducción al Cálculo de Probabilidades 123

muestral Ω para los tres lanzamientos de la moneda y asigne un valor de


x de la variable X a cada punto muestral.
5.- Encuentre la distribución de probabilidad de la variable aleatoria X en el
ejercicio anterior, suponiendo que la moneda está cargada de tal forma
que una cara tiene dos veces más la probabilidad de ocurrir con respecto
a un sello.
6.- Una urna contiene cuatro bolas numeradas 1, 2, 3, 4 respectivamente. Sea
X la variable aleatoria que da el número que ocurre si se saca al azar una
bola de la urna ¿Cuál es la función de probabilidad de X?
7.- Supongamos en el ejercicio anterior. Se saca dos bolas de la urna sin
reemplazo, y sea Y la suma de los dos números que ocurren. Hallar la
función de probabilidad para Y.
8.- Se sacan de la urna, del ejercicio 6, dos bolas con reemplazo. Sea Z la
suma de los cuadrados de los dos números sacados. Encontrar la función
de probabilidad para Z.
9.- Hay diez estudiantes inscritos en una clase de Cálculo de Probabilidades,
de entre los cuales tres tienen 15 años, cuatro tienen 16, uno tiene 17, uno
tiene 20, y uno tiene 22 años. De esta clase se seleccionan dos estudiantes
al azar sin reemplazo. Sea X la edad promedio de los dos estudiantes
seleccionados. Hallar la función de probabilidad para X.
10.- Determine el valor de k de tal manera que cada una de las siguientes
funciones sirva como una distribución de probabilidad de la variable
aleatoria X:
( )
a) f (x) = k x 2 + 4 para x = 0, 1, 2, 3.
 2  4 
b) f (x) = k    para x = 0, 1, 2.
 x  3 − x 
11.- Se tiran dos dados correctos, siendo cada resultado un par ordenado
(a, b), donde a y b son enteros de 1 al 6. Sea X la variable aleatoria que
asigna el valor (a + b) al resultado (a, b).
a) Describir, en lista, los eventos [ X = 7] , [ X = 11] ,
[X = 7 o X = 11] .
b) Calcular las probabilidades de los eventos de la parte a).
12.- Demostrar los teoremas 4.1.2 y 4.1.3.
13.- Supongamos que la variable aleatoria X tiene valores posibles 1,2,3,…y
1
P[X = j] = ; j = 1, 2, ….
2j
a) Calcular P[X es par ] .
b) Calcular P[X ≥ 5] .
124 Hugo Cornejo Villena & Hugo Cornejo Rosell.

c) Calcular P[X es divisible por 3].


14.- Encuentra la distribución acumulada de la variable aleatoria X en el
ejercicio 5, utilizando FX ( x ) , hallar:
a) P[X > 0] .
b) P[- 1 ≤ X < 3] .
15.- La siguiente tabla, muestra la función de masa de probabilidad de la
variable aleatoria X “número de personas por día que solicitan un
tratamiento en el servicio de urgencia de un pequeño hospital”

X 0 1 2 3 4 5
pX ( x ) 0.01 0.1 0.3 0.4 0.1 A

Encontrar la distribución acumulada de X y las siguientes probabilidades:


a) P[X = 5] , b) P[X ≤ 2] , c) P[X < 2] y d) P[X > 3] .
16.- Una compañía de inversiones ofrece a sus clientes bonos municipales que
vencen después de diferente número de años. Dada la distribución
acumulada de X, el número de años para el vencimiento de un bono
seleccionado aleatoriamente es
0 , si x < 1
1
 , si 1 ≤ x < 3
 4
1
FX ( x ) =  , si 3 ≤ x < 5
2
 3 , si 5 ≤ x < 7
4
1 , si x ≥ 7
Encuentre:
a) P[X = 5] , b) P[X > 3] y c) P[1.4 < X < 6]
17.- La función de distribución F de una variable aleatoria X viene definida
por:
0 , si x < −2
1
 , si - 2 ≤ x < 0
FX ( x ) =  2
3
 , si 0 ≤ x < 2
4
1 , si x ≥ 2
a) Graficar F.
b) Describir la función de masa de probabilidad p X y representarlo.
Introducción al Cálculo de Probabilidades 125

c) Calcular:
c1 ) P[X = 1] c5 ) P[X ≤ 2]
c2 ) P[X ≤ 1] c6 ) P[0 < X < 2]
c3 ) P[X < 1] c7 ) P[0 < X ≤ 2]
c4 ) P[X = 2] c8 ) P[1 ≤ X ≤ 2]
18.- La función de distribución acumulada de la variable aleatoria Y está dada
por:

e y , si y < − ln 2
 1
FY ( y) =  , si − ln 2 < y ≤ 0
 2
1 − 1 e − y , si y > 0
 2
Hallar las siguientes probabilidades
a) P[Y < −1] , b) P[- 1 < Y < 0] , c) P[Y > 1] , d) P[Y < 3] y
e) P[- 4 < Y ≤ 4]
19.- Consideremos una variable aleatoria X, cuyos posibles valores son todos
n n +1
los números racionales de la forma y , siendo
n +1 n
n = 1, 2, 3, ….
 n   n + 1 1
Si P X =  = P X =  = n +1
 n + 1  n  2
Probar que esta asignación de probabilidades es correcta y diseñar la
forma de la gráfica de la función de distribución FX .
20.- Demostrar que, si X es una variable aleatoria, su función de distribución
FX ( x ) es continua a la derecha. Esto significa que para ε > 0 existe un
δ > 0 (que depende de x y de ε ) tal que: F(x + u) - F(x) < ε para todo
u entero: 0 < u < δ
(Sugerencia: Utilizar la relación,
[x < X ≤ x + 1] =  x + 1 < X ≤ x + 1  y la circunstancia de que el

n =1 n +1 n
resto de una serie convergente, o sea, la parte posterior a un cierto término
de lugar n, tiende a cero cuando n → ∞ ).
21.- Si X representa el número de caras e Y el número de caras menos el de
sellos, cuando se lanzan tres monedas. Encontrar:
a) La distribución de probabilidad conjunta (X, Y)
b) La función de distribución acumulada de (X, Y)
126 Hugo Cornejo Villena & Hugo Cornejo Rosell.

22.- Una moneda se lanza dos veces. Sea X el número de caras en el primer
lanzamiento e Y el número total de caras en los dos lanzamientos. Si
la moneda no está equilibrada y una cara tiene 40% posibilidades de
ocurrir. Encuentre:
a) La distribución de probabilidad conjunta de X e Y.
b) Las distribuciones marginales de X e Y
c) La probabilidad de que ocurra al menos una cara.
23.- Se sacan tres cartas sin remplazo de las 12 cartas mayores (sotas, reinas
y reyes) de un
paquete común de 52 cartas. Sea X el número de reyes seleccionados e
Y el número de reinas. Encuentre:
a) La distribución de probabilidad conjunta de X e Y
b) La distribución acumulada de (X, Y)
c) P [ (X,Y ) ∈ A ], donde A es la región { ( x , y ) / x + y ≥ 2 }
24.- La función de probabilidad conjunta de la variable aleatoria
bidimensional (X, Y) está
dada por:
k x y , si x = 1,2,3 ; y = 1,2,3
p X,Y ( x, y) = 
0 , en otros casos
Determinar:
a) El valor de la constante k, b) P [ X = 1, Y = 3 ], c) FX ,Y (2,3)
d) P [ 0 < X ≤ 1, -2 < Y ≤ 3 ] y e) P [ X + Y < 4 ].
25.- Dada la siguiente distribución de probabilidad conjunta (X, Y)

Hallar:
a) Las distribuciones marginales de X e Y
b) La función de distribución acumulada de (X, Y)
c) P [ X > Y ] , d) P [ X > 1, Y < -1 ] y e) P [ X > 1, Y > -1 ]
26.- Se selecciona al azar dos repuestos para un bolígrafo, de una caja que
tiene 3 repuestos azules, 2 rojos y 3 negros. Si X es el número de
repuestos azules e Y el de rojos. Encuentre:
a) La función de distribución acumulada de (X, Y)
b) P [ ( X, Y ) ∈ A ], donde A es la región { ( x , y ) / x + y ≤ 1 }
27.- Supongamos que se extrae aleatoriamente, en un solo acto tres fichas de
un depósito que contiene seis fichas numeradas con: 1,2,3,4,5 y 6. Si la
Introducción al Cálculo de Probabilidades 127

variable aleatoria X es el número de pares y la variable aleatoria Y es el


número de impares, entre las tres fichas numeradas.
Calcular:
a) Las distribuciones marginales de X e Y
b) La función de distribución acumulada de X e Y, y graficar.
c) P [ X = 1, Y = 2 ]
d) P [ X ≥ 1, Y ≤ 2 ]
28.- Sea (X, Y) una variable aleatoria bidimensional, con función de masa
dada por:
k x + y , si x = −2,0,2 ; y = −2,3
p X,Y ( x, y) = 
0 , en otros casos
Determinar:
a) El valor de la constante k.
b) P [ X = 2 ]
c) P[ X - Y ≤ 2]
29.- Demostrar formalmente las propiedades 4.5.1, 4.5.2, 4.5.3, 4.5.6 y 4.5.7.
30.- Redactar y formular la definición de función de distribución de las
variables aleatorias X, Y, Z.
31.- Demostrar que si X, Y, Z, son tres variables aleatorias tales que
FX,Y,Z ( x , y , z) = FX ( x ) FY ( y ) FZ ( z )
para todos los x, y, z reales, entonces X, Y, Z son independientes.
32.- Determinar si las dos variables aleatorias del ejercicio 23 son
dependientes o independientes.
33.- Si la distribución de probabilidad conjunta de las variables aleatorias
(X, Y) está dada por la siguiente tabla:

¿Las variables aleatorias X e Y son dependientes o independientes?


34.- Determinar si las dos variables aleatorias del ejercicio 25 son
dependientes o independientes.
35.- Si la distribución de probabilidad conjunta de las variables aleatorias
(X, Y ) está dada por:
1
pX,Y (x, y) =  n 2 , x = 1,2,..., n ; y = 1,2,..., n
0 , en cualquier otro caso
128 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Verificar que X e Y son independientes.


36.- La distribución de probabilidad conjunta de X e Y está definida por:
p X.Y (x, y ) = 3x + 2 y − 4 ; x, y = 1, 2, 3.
54
a) Calcular p ( X 1) , p ( X 2 ) , p ( X 3) .
b) Calcular p ( Y 1) , p ( Y 2 ) , p ( Y 3) .
37.- Se selecciona al azar dos frutas de una caja que contiene 3 mangos, 2
naranjas y 3 limas. Si X es el número de mangos e Y el número de
naranjas, determine la distribución condicional de X dado que Y = 1 y
hallar P[X = 1 Y = 1] .
38.- Supongamos que X e Y tiene la siguiente distribución de probabilidad
conjunta:
a) Calcular P[Y = 3 X = 2]
b) Calcular P[X = 3 Y = 1]

39.- Una moneda se lanza dos veces. Sea Z el número de caras en el primer
lanzamiento y W el número total de caras en los dos lanzamientos. Si la
moneda no está equilibrada y una cara tiene 40% posibilidades de ocurrir,
encuentre
a) P[Z = 1 W = 2]
b) P[W = 1 Z = 0]
CAPÍTULO 5: TIPOS ESPECIALES DE
DISTRIBUCIONES DISCRETAS

El comportamiento de una variable aleatoria queda descrito por su


distribución de probabilidad, sin importar que ésta se presente gráficamente
por un histograma, en forma tabular o por medio de una fórmula. Con
frecuencia, las observaciones que se deducen o generan en diferentes
experimentos estadísticos tienen el mismo tipo de comportamiento en
términos generales. Por tanto, las variables aleatorias discretas que se asocian
en estos experimentos pueden describirse, esencialmente, por la misma
distribución de probabilidad y por consiguiente se presentan por una sola
fórmula. De hecho, se necesita sólo unas cuantas distribuciones de
probabilidad importantes para describir muchas de las variables aleatorias
discretas que se encuentran en la práctica, que presentaremos en las siguientes
secciones.
5. 1. DISTRIBUCION DISCRETA UNIFORME
La más simple de todas las distribuciones discretas de probabilidad es
aquella en la cual la variable aleatoria toma cada uno de sus valores con la
misma probabilidad, tal distribución de probabilidad recibe la denominación
de distribución discreta uniforme.
DEFINICION 5.5.1
Si la variable aleatoria X asume los valores: x1 , x 2 ,...., x k , con iguales
probabilidades, entonces la distribución discreta uniforme es:
1
p X ( x ) = f X (x; k ) = , x = x 1 , x 2 , …, x k
k
Se utiliza la relación f X (x; k ) en lugar de p X ( x ) = f X (x ) para indicar
que la distribución discreta uniforme depende del parámetro k.
EJEMPLOS
5.1.1.- Cuando se lanza un dado, cada elemento del espacio muestral
1
Ω = {1,2,3,...,6} ocurre con una probabilidad de . Por tanto, se tiene la
6
siguiente distribución discreta uniforme:
1
f X (x;6 ) = ; x = 1,2,3,4,5,6
6
En general, la representación gráfica de la distribución discreta uniforme
por medio de un histograma es siempre un conjunto de rectángulos con
la misma altura; para nuestro ejemplo, el histograma es el siguiente:
130 Hugo Cornejo Villena & Hugo Cornejo Rosell.

y f( x )
x

1/6

x
1 2 3 4 5 6
5.1.2.- Una urna contiene tres fichas de color rojo y una de color verde, si
extraemos una ficha sin reposición, uno a uno sucesivamente hasta sacar
la ficha verde, encontramos que el rango de la variable aleatoria X, que
es el número de intentos que se realizan, es el conjunto
R X = {1,2,3,4} . Entonces
1 3 1 1
f X (1) = P[X = 1] = , f X (2 ) = P[X = 2] = x =
4 4 3 4
3 2 1 1
f X (3) = P[X = 3] = x x = y
4 3 2 4
3 2 1 1 1
| f X (4 ) = P[X = 4] = x x x =
4 3 2 1 4
por lo tanto, esta distribución de probabilidad es discreta uniforme y está
dada por medio de la siguiente fórmula:
1
f X (x ,4 ) = ; x = 1,2,3,4
4
5. 2. DISTRIBUCION BINOMIAL Y DISTRIBUCION DE PASCAL

Frecuentemente un experimento consiste en ensayos repetidos, cada uno


con dos posibles resultados que pueden llamarse éxito (E) y fracaso (F). Así,
por ejemplo, el experimento de lanzar una moneda al aire con los resultados
de obtener cara y sello que vendría a ser éxito y fracaso, respectivamente; el
experimento de retirar cartas en sucesión de un paquete de 52 cartas y a cada
intento se le puede asignar éxito o fracaso, si la carta es o no espadas si se
reemplaza cada carta y el paquete se baraja antes de sacar una nueva carta.
Los dos experimentos señalados tienen propiedades similares en el sentido
de que los intentos o ensayos repetidos son independientes y la probabilidad
de éxito permanece constante para cada uno de ellos. Este proceso se conoce
como proceso, prueba o ensayo de Bernoullí y cada intento se llama
experimento de Bernoullí y formalmente tenemos la siguiente definición.
DEFINICION 5.2.1
Un proceso, prueba o ensayo de Bernoullí es todo experimento aleatorio que
satisfaga las siguientes condiciones:
1. El experimento consiste en n intentos repetidos.
Introducción al Cálculo de Probabilidades 131

2. Los resultados de cada uno de los intentos pueden clasificarse como un


éxito (E) o como un fracaso (F).
3. La probabilidad de éxito, representada por p, permanece constante para
todos los intentos.
4. Los n intentos o pruebas repetidas son independientes.
El proceso de Bernoullí es también conocido como una sucesión de n
pruebas de Bernoullí.
En la definición p representa la probabilidad de éxito y la de fracaso,
naturalmente, es (1 - p) que designaremos por q; es decir q = ( 1 - p ).
Cuando se realiza un proceso de Bernoullí, el espacio muestral Ω , puede
considerarse como el conjunto de todas las agrupaciones posibles de n letras
formadas únicamente con E y F ( naturalmente repetidas ); de aquí que Ω está
constituido por 2 n eventos elementales. El suceso expresado por “tener éxito
en la k-ésima prueba o prueba de orden k” está constituida por todos aquellos
sucesos elementales de Ω (esto es n-úplas de letras E y F) cuya k-ésima letra
es una E. Si un suceso elemental está constituido por k letras E y (n - k) letras
F (con 0 ≤ k ≤ n), la probabilidad de este suceso elemental es p k q n -k , o sea
p k (1 - p ) .
n -k

DEFINICION 5.2.2
Se llama variable aleatoria binomial a la variable aleatoria X definida en Ω
como el número de éxitos que ocurren en las n pruebas de Bernoullí.
Si deseamos determinar el número total de puntos muestrales en el
experimento que tiene k éxitos y (n - k) fracasos, encontraremos que es igual
al número de particiones de n resultados en dos grupos, con k en un grupo y
n
(n - k) en el otro y se expresa por   ; debido a que estas particiones son
k
mutuamente excluyentes, se suman las probabilidades de todas las diferentes
particiones para obtener la fórmula general, o simplemente multiplicar p k
n
q n -k por   ; k = 0,1,2,…,n. Este número total de pruebas muestrales es la
k
distribución de probabilidad de obtener k éxitos en n pruebas, llamada
distribución binomial; formalmente tenemos la siguiente definición.
DEFINICION 5.2.3
Se dice que la variable aleatoria binomial X tiene distribución binomial con
parámetro n y p, denotado por b (k; n, p) si su función de probabilidad es:
n
p X (k ) = b (k; n, p) = P[X = k ] =   p k q n -k ; k = 0,1,2,…,n.
k
132 Hugo Cornejo Villena & Hugo Cornejo Rosell.

La suma de estas probabilidades es igual a 1, una condición que debe


cumplirse para cualquier distribución de probabilidad; para ello, y para
justificar el apelativo de distribución binomial, recordemos que el teorema del
binomio establece la fórmula:
n n
(a + b )n = ∑  a k b n -k de donde se tiene
k = 0 k 

n n n n
∑  p q
k n -k
= ∑  p k (1 - p) n -k = [p + (1 - p)]n = 1
k= 0  k  k= 0  k 

Cuando n = 1, a la distribución binomial B(k;1,p) se le conoce como la


distribución de Bernoullí de parámetro p.
La función de distribución de la variable aleatoria binomial X es:
0 , si x < 0
 [x ]  n 
FX ( x ) = P[X ≤ x ] =  ∑  p k q n -k , si x = 0,1,..., n - 1
k = 0 k 
1 , si x ≥ n
En la práctica se presentan problemas donde es necesario encontrar P[X < r ]
o P[a ≤ X ≤ b] y para ello se dispone de las sumas binomiales
r
B (r; n , p ) = ∑ b(x; n, p) que se dan en la tabla A-1 del apéndice para
x =0
n = 1,2,…,20 y valores seleccionados de p de 0.1 a 0.9. En el ejemplo 5.4.2
se ilustra el uso de la tabla A-1.
EJEMPLOS
2
5.2.1.-Un fruticultor del Valle Sagrado de los Incas afirma que, de su
3
cosecha de duraznos ha sido contaminado por la “arañita roja”. Encuentre
la probabilidad de que al inspeccionar 4 duraznos:
a) Los 4 estén contaminados por la “arañita roja”.
b) Tres estén contaminados.
c) Entre 1 y 3 estén contaminados.
SOLUCION:
2 2 1
Sea p = , entonces q = 1 - = , n=4
3 3 3
4 0 4
2  4  2   1  2 16
a) P[X = 4] = b (4; 4, ) =       =   =
3  4  3   3  3 81
Introducción al Cálculo de Probabilidades 133

3 4 −3 3
2  4  2   1  2 1 32
b) P[X = 3] =b (3; 4, )=       =4x   x =
3  3  3   3  3 3 81
3  2 2 2 2
c) P[1 ≤ X ≤ 3] = ∑ b x;4,  = b (1; 4, ) + b (2; 4, ) + b (3; 4, )
x =1  3 3 3 3
1 3 2 2 3 2
 4  2   1   4  2   1   4  2  1
=       +       +      
1  3   3   2  3   3   3  3   3
2 1 4 1 8 1
=4x x +6x x +4x x
3 27 9 9 27 3
8 24 32 64
= + + =
81 81 81 81
5.2.2.-La probabilidad de que un paciente sobreviva de una rara enfermedad
de sangre es 0.3. Si se sabe que 20 personas han contraído esta
enfermedad, ¿Cuál es la probabilidad de que:
a) al menos 8 sobrevivan,
b) sobrevivan entre 4 y 10 personas, y
c) sobrevivan exactamente 6 personas?
SOLUCION
Sea X el número de personas que sobreviven, n = 20 y p = 0.3.
P[X ≥ 8] = 1 - P[X < 8] = 1 - ∑ b(x; n, p )
7
a)
k =0
7
= 1 - ∑ b ( x, 20, 0.3) = 1 - 0.7723 = 0.2277
k=0

b) P[4 ≤ X ≤ 10] = ∑ b(k;20,0.3)


10

k =4
10 3
= ∑ b(k;20,0.3) - ∑ b(k;20,0.3)
k =0 k =0
= 0.9829 - 0.1071 = 0.8758
c) P[X = 6] = b (6; 20, 0.3) = ∑ b(k;20,0.3) - ∑ b(k;20,0.3)
6 5

k =0 k =0
= 0.6080 - 0.4164 = 0.1916
Consideremos un experimento en el cual las propiedades sean las mismas
que aquellas indicadas para un experimento binomial, con la excepción de que
los intento se repetirán hasta que ocurra un número determinado de éxitos. Por
lo tanto, en lugar de encontrar la probabilidad de k éxitos en n intentos, donde
n es fijo, ahora se está interesado en la probabilidad de que el m-ésimo éxito
134 Hugo Cornejo Villena & Hugo Cornejo Rosell.

ocurra en el k-ésimo intento. Los experimentos de esta clase se llaman


experimentos binomiales negativos o de Pascal.
A la variable aleatoria X que se define como el número de intentos
hasta que ocurra el éxito número m se le denomina variable aleatoria
binomial negativa o de Pascal; y su rango es R X = {m, m + 1, m + 2,...} .
Ahora nuestro interés radica en definir la distribución de probabilidad
que depende del número de éxitos deseados y esta probabilidad
representaremos por la simbología. Para la obtención de una fórmula general
para esta distribución de probabilidad, consideremos la probabilidad de éxito
en el intento k, precedido por m-1 éxitos y k-m fracasos en algún orden
específico; dado que los intentos son independientes, se pueden multiplicar
todas las probabilidades correspondientes a cada resultado deseado. Cada
éxito ocurre con una probabilidad p y cada fracaso con una probabilidad q =
1 - p; por lo tanto, la probabilidad para el orden especificado, que finaliza en
su éxito, es p m-1 q k -m p = p m q k -m . El número total de puntos muestrales en
el experimento que terminan en un éxito, después de que ocurran m-1 éxitos
y k-m fracasos en cualquier orden es igual al número de particiones de k-1
intentos en dos grupos con m-1 éxitos correspondientes al grupo 1 y k-m
 k -1 
fracasos correspondientes al otro grupo; este número es   , donde cada
 m - 1
uno es mutuamente excluyente y ocurre con igual probabilidad p m q k-m . Se
 k -1 
obtiene la fórmula general multiplicando p m q k -m por  
 m - 1
DEFINICION 5.2.4
Si se repite en forma independiente un ensayo de Bernoullí, donde cada
resultado puede ser un éxito con probabilidad p o un fracaso con probabilidad
q = 1 - p, se dice que la variable aleatoria X que se define como el número de
intentos hasta que ocurra k éxitos tiene distribución binomial negativa o de
Pascal, si su función de probabilidad es:
 k - 1  m k -m
p X ( k ) = P[X = k ] = b ∗ (k; m, p ) =   p q ; k = m, m+1, m+2,...
 m - 1
La distribución binomial negativa toma su nombre del hecho de que para
demostrar que la suma de las probabilidades es igual a uno, se usa la siguiente
serie binomial negativa
∞ - m ∞  k -1 
(1 - q )− m = ∑  (- q )i = ∑  (q )k -m
i = 0 i  k = m  m - 1
Introducción al Cálculo de Probabilidades 135

Si se considera el caso especial de la distribución binomial negativa


donde m=1, se tiene una distribución de probabilidad para el número de
intentos requeridos para un sólo éxito. Un ejemplo sería el lanzamiento de una
moneda hasta que salga una cara y se podría estar interesado en hallar la
probabilidad de que la primera cara ocurriera en el tercer lanzamiento. La
distribución de Pascal en forma general se reduce a la fórmula:
b ∗ (k;1, p ) = p q k -1 ; k = 1,2,3,… dado que los términos sucesivos
constituyen una progresión geométrica se acostumbra a referirse a este caso
especial como distribución geométrica.
EJEMPLOS
5.2.3.-En una población grande se sabe que el 10% padecen de cierta
enfermedad rara. Con la finalidad de hacer un diagnóstico se requiere 10
personas afectadas por dicha enfermedad para el análisis
correspondiente. Defina X como el número de personas seleccionadas
hasta que se tengan las 10 personas afectadas por la enfermedad.
a) Hallar la distribución de probabilidad de la variable aleatoria X.
b) Calcular la probabilidad de que se necesitan seleccionar
exactamente 15 personas.
SOLUCION:
Como X es el número de personas seleccionadas hasta que 10 personas
tengan la enfermedad rara, entonces
10
R X = {10,11,...} ; p = = 0.1, q = 0.9 y m = 10 .
100
X es la variable aleatoria binomial negativa, por lo tanto:
a) La distribución de probabilidad de X es:
 k - 1
b ∗ (k;10,0.1) =   (0.1)10 (0.9 )k -10 ; k = 10,11,12,…
 9 
14 
b) P[X = 15] = b ∗ (k;10,0.1) =   (0.1)10 (0.9 )5 = 118x 10 −9
9
5.2.4.-En un cierto proceso manufacturado se sabe que, en promedio, 2 de
cada 100 piezas están defectuosas. ¿Cuál es la probabilidad de que la
cuarta pieza inspeccionada sea la primera defectuosa?
SOLUCION:
Sea X número de inspecciones efectuadas hasta conseguir un artículo
defectuoso.
2
R X = {1,2,3,4,...} , p = = 0.02, q = 0.98 . Luego la variable aleatoria
100
X tiene una distribución geométrica.
136 Hugo Cornejo Villena & Hugo Cornejo Rosell.

b ∗ (k;1,0.02 ) = (0.02 ) (0.98) ;


k -1
k = 1,2,…
Por tanto
P[X = 4] = b* (4;1,0.02) = (0.02 ) (0.98)3 = 0.0188
5. 3. DISTRIBUCION HIPERGEOMETRICA
Los tipos de aplicaciones de la distribución hipergeométrica son muy
similares a aquellos de la binomial sólo que, en este caso de la binomial, se
requiere la independencia entre intentos. Si la distribución binomial se aplica
al muestreo de un lote de artículos (mazo de cartas, número de artículos de
producción de una fábrica, etc.), el muestreo debe realizarse con reemplazo de
cada artículo después de observarse. Por otro lado, la distribución
hipergeométrica no requiere independencia y se basa en el muestreo llevado a
cabo sin reemplazo. Consideremos una urna que contiene r bolas rojas y N-r
bolas blancas, idénticas en todo salvo en el color. Se toma al azar n de estas
bolas o se toman una a una y sin sustituirlas a la urna hasta tener n bolas
( 0 ≤ n ≤ N ). En este caso el espacio de probabilidades es el conjunto de todas
las ordenaciones de n letras construidas con R (bola roja) y B (bola blanca),
de manera que R en la ordenación no puede exceder de r, ni el número de
letras B puede exceder de N-r. Sea X la variable aleatoria que indica el número
de bolas rojas obtenidas en una de estas muestras de extensión n. El primer
paso para determinar la distribución de X es determinar los valores que pueden
tomar; es decir, el rango de X; observemos que X no puede tomar ningún valor
menor que cero. Además, si n > N-r, el mínimo valor que puede tomar X es n
- (N - r); es decir, debe haber por lo menos n - (N - r) bolas rojas en la muestra.
En cualquier caso, el mínimo valor de X es max{0, n - (N - r)} . El mayor
valor de X no puede ser superior a n, y en el caso de que r < n el máximo valor
de X es r. Por tanto, el mayor valor de X es, min (n, r ) . Para calcular P[X = x ]
r
tengamos presente que hay   maneras de elegir x bolas rojas entre las r
x
disponibles, y para cada una de estas elecciones es posible elegir las n - x bolas
 N-r  N
blancas de   maneras. Además, hay   maneras de elegir n bolas
n − x n
entre las N de que se dispone. Formalmente daremos este resultado en la
correspondiente definición.
En general, el interés que se tiene es en la probabilidad de seleccionar x
éxitos de los r posibles resultados o artículos considerados como éxitos y n -
x fracasos de los N-r posibles resultados o artículos también considerados
fracasos, cuando una muestra aleatoria de tamaño n es seleccionado de N
artículos totales. Esto se conoce como experimento hipergeométrico. Algo
Introducción al Cálculo de Probabilidades 137

más, un experimento hipergeométrico es aquel que posee las siguientes


propiedades:
1. Una muestra aleatoria de tamaño n se selecciona sin reemplazo de un
total de N artículos.
2. Resultados o artículos del total N pueden clasificarse como éxitos y N-r
como fracasos.
El número de éxitos x en un experimento hipergeométrico se llama
variable aleatoria hipergeométrica. Si n ≤ r, el rango de X es
R X = {0,1,2,..., n} .
DEFINICION 5.3.1
La distribución de probabilidad de la variable aleatoria hipergeométrica
X que se define como el número de éxitos en una muestra aleatoria de tamaño
n seleccionada de N resultados posibles, de los cuales r son considerados como
éxitos, N-r como fracasos es:
 r  N - r 
  
 x  n − x 
p X ( x ) = P[X = x] = h (x; N, n, r ) = ; x = 0,1,2,…,n
 N
 
n
o donde x puede ser cualquier entero que cumpla la condición
max{0, n - (N - r)} ≤ x ≤ min{n, r}
EJEMPLO
5.3.1.-Un comerciante recibe para su venta, cierto tipo de mercadería en cajas
que contienen 12 unidades cada una. El control de calidad por caja
consiste en extraer una muestra de 4 mercaderías al azar uno por uno sin
reposición y aceptar la caja si la muestra contiene a lo más un defectuoso.
Si la caja escogida tiene 3 objetos defectuosos:
a) Determinar la distribución de probabilidad del número de objetos
defectuosos en la muestra.
b) Calcular la probabilidad de rechazar una caja.
SOLUCION:
Sea X la variable definida como el número de mercaderías defectuosas
en la muestra de 4 extraídas uno a uno sin reposición.
Si la caja contiene 3 objetos defectuosos, los valores posibles de X son
R X = {0,1,2,3} .
a) La distribución de probabilidad de X es:
138 Hugo Cornejo Villena & Hugo Cornejo Rosell.

 3  9 
  
 x  4 − x 
P[X = x ] = h (x;12,4,3) = ; x = 0,1,2,3
12 
 
4
b) Se rechaza la caja si contiene por lo menos dos mercaderías
defectuosas. Luego, la probabilidad de rechazar la caja es:
 3  9   3  9 
     
 2  2   3  1  3 x 36 1 x 9 108 9
∑ P[X = x ] =
3
+ = + = +
x =2 12  12  495 495 495 495
   
4 4
117
= = 0.236
495
5. 4. DISTRIBUCION DE POISSON
Los experimentos que resultan en valores numéricos de una variable
aleatoria X, durante un intervalo de tiempo o en una determinada región,
frecuentemente se llama experimento de Poisson. El intervalo de tiempo que
se considera puede ser de cualquier duración, por ejemplo, un minuto, un día,
una semana, un mes, o un año. De aquí que un experimento de Poisson puede
generar observaciones para la variable aleatoria X que representa el número
de pacientes que ingresan en una hora a un hospital, el número de días que se
cierra una Universidad por huelga de sus trabajadores, etc. La región señalada
podría ser un segmento de recta, un área, un volumen, pedazo de material, etc.
En este caso X podrá representar el número de partículas radiactivas que pasan
por un contador, número de bacterias que atacan a cultivos de papas en una
hectárea, o el número de errores que comete un estudiante al escribir en una
página.
Un experimento de Poisson surge del proceso de Poisson y tiene las
siguientes propiedades:
1. El número de resultados que ocurre en un intervalo de tiempo o región
específica es independiente del número que ocurre en cualquier otro
intervalo disjunto de tiempo o región del espacio disjunto.
2. La probabilidad de que un resultado sencillo ocurra en un intervalo de
tiempo muy corto o una región pequeña es proporcional a la longitud del
intervalo de tiempo o al tamaño de la región y no depende del número de
resultados que ocurran fuera de este intervalo o región.
3. La probabilidad de que más de un resultado ocurra en ese intervalo de
tiempo tan corto o en esa región tan pequeña es despreciable.
Introducción al Cálculo de Probabilidades 139

El número X de resultados que ocurran en un experimento de Poisson se


llama variable aleatoria de Poisson y su distribución de probabilidad se
llama distribución de Poisson. El número promedio de resultados se calcula
con λ = µ t , donde t es el “tiempo” o “región” específicos de interés.
DEFINICION 5.4.1
La distribución de probabilidad o distribución de Poisson de parámetro
λ > 0 de la variable aleatoria de Poisson X es:
 e −λ λ x
pX (x) = P[X = x] = p(x; λ) =  x! , x = 0,1,2,...
0 , en caso contrario
donde e = 2.71828…..
Debemos notar que esta distribución de Poisson es una función de
densidad discreta, ya que
P[X = x ] , x = 0,1,2,...
f X (x) = 
0 , en caso contrario
P[X = x ] , x = 0,1,2,...
f X (x) = 
0 , en caso contrario
∞ ∞
Por lo tanto ∑ f X ( x ) = ∑ P[X = x ] = 1; en efecto :
x =0 x =0
−λ
∞ ∞ e λ x ∞ λ x
∑ P[X = x ] = ∑ = e −λ ∑
x =0 x =0 x! x = 0 x!

−λ  λ λ λ3 λn 
2
= e 1 + + + + ... + + ... 
 1 2! 3! n! 
-λ λ 0
=e e = e =1
En la tabla A.2 se encuentra la suma de las probabilidades de Poisson
r
P(r;λ ) = ∑ p( x;λ ) para algunos valores seleccionados de λ en el rango 0.1
x =0
a 18. Con los siguientes ejemplos se muestra el uso de esta tabla.
EJEMPLOS
5.4.1.-Supongamos que llegan en forma aleatoria una serie de llamadas a una
central telefónica con un promedio de 2 llamadas por minuto. a) Calcular
la probabilidad de que ocurra 5 o más llamadas en el período de un
minuto y b) Calcular la probabilidad de que ocurra 9 o más llamadas,
en 4 minutos.
SOLUCION
140 Hugo Cornejo Villena & Hugo Cornejo Rosell.

a) Sea X el número de llamadas que ocurren en el período de un


minuto. El promedio de llamadas en el período de un minuto es
λ =2 . La probabilidad de que ocurra x llamadas en el período de
un minuto es:
e −λ λ x e −2 (2) x
P[X = x ] = = , x = 0,1,2,…
x! x!
y la probabilidad de que ocurra 5 o más llamadas en dicho período
es:
4 e −2 2 x
P[X ≥ 5] = 1 - P[X ≤ 4] = 1 - ∑ p( x;2) = 1 - ∑
4

x =0 x = 0 x!

de la tabla A.2, para r = 4 y λ =2 , tenemos:


P [ X ³ 5] =
1 − 0,9473 =
0,0527
b) Para este caso, consideremos X el número de llamadas recibidas en
el período de t minutos. La probabilidad de recibir x llamadas en el
período de t es:
e −μ t (μt ) x
P[X = x ] = , x = 0,1,2,… ; µ > 0
x!
donde µ =2 es el promedio de llamadas por minuto y el período de
4 minutos ocurre cuando t = 4. Entonces λ = µ t = 2 × 4 = 8 y
por tanto
8 e −8 8 x
P[X ≥ 9] = 1 - P[X ≤ 8] = 1 - ∑ = 1 - 0.5925 = 0.4075
x = 0 x!
5.4.2.-Una secretaria comete en promedio 2 errores por página ¿Cuál es la
probabilidad de que en la siguiente página
a) Cometa 4 errores.
b) No cometa errores.
SOLUCION:
Sea X el número de errores que comete la secretaria en una página.
Entonces λ =2 y por tanto, utilizando la tabla A.2 tenemos:
e −2 (2) x
a) P[X = 4] =
4 3
= ∑ p ( x ; 2) - ∑ p ( x ; 2)
x! x =0 x =0
= 0.9473 - 0.8571 = 0.0902.
e −2 (2) 0 0 e −2 2 x
[ ]
0
b) P X = 0 = = ∑ = ∑ p( x;2) = 0.1353
0! x = 0 x! x =0
El siguiente teorema establece que la distribución de Poisson se
encuentra en forma de límite de la distribución bonomial, si n es grande y p se
Introducción al Cálculo de Probabilidades 141

aproxima o tiende a 0 y np se aproxima a λ , llamando a este teorema como la


aproximación de la distribución binomial a la de Poisson.
TEOREMA 5.4.1
Sea X una variable aleatoria que tiene una distribución binomial con
parámetro p (con base en n repeticiones del experimento). Es decir
n
P[X = x ] =   p x (1 − p )n − x
x
Supongamos que, cuando n → ∞ , np = λ (constante), o
equivalentemente, cuando n → ∞ , p → 0 tal que np → λ Bajo estas
condiciones tenemos
e −λ λ x
limP [ X = x ] = ,
n→∞ x!
la distribución de Poisson con parámetro λ .
DEMOSTRACION:
n
Como P[X = x ] =   p x (1 − p )n − x y np = λ , entonces
x
x n −x n −x
 n  λ   λ  n! λx  λ
P[X = x ] =     1 −  = 1 − 
x  n   n  (n - x)! x! n x  n 
[n(n - 1)(n - 2)...n - ( x - 1)](n - x)! λx  λ 
n
 λ
−x

= 1 −  1 − 
(n - x)! x! nx  n   n
n −x
n(n - 1)...(n - x + 1) λ x  λ   λ
= 1 −  1 − 
x! nx  n   n
n −x
 λ λ x  n (n - 1) (n - 2) (n - x + 1)   λ 
= 1 −   ...  1 − 
 n x!  n n n n   n
n −x
 λ λx   1  2   x -1   λ 
= 1 −  11 − 1 − ...1 −   1 − 
 n x!   n  n   n    n 
 λ  λ   λ   x - 1  λ  
n x −1 −1 −1
1  λ  
= 1 −  1 −  1 − 1 −  ...1 − 1 − 
 n  x!   n  n  n  n  n  

 λ  λ x −1  λ   j 
n x −1
= 1 −  ∏ 1 −  1 − 
 n  x! j= 0  n   n 
Entonces aplicando límites se tiene:
142 Hugo Cornejo Villena & Hugo Cornejo Rosell.

 λ  n λ x x −1  λ  −1  j  
lim P [ X = x ] = lim 1 −  ∏ 1 −  1 −  
n →∞ n →∞  n x! j= 0  n   n  
 
n −1
λx  λ x −1  λ  j
= lim 1 −  ∏ lim 1 −  lim 1 − 
x! n →∞ n  j= 0 n →∞ n n →∞  n
−λ
 n

x −1  j 
−1
λ x
 (−λ )  -λ   λ 
= lim  1 +  ∏  lim 1 −  lim 1 − 
x! n →∞  n 
  n n 
j= 0  → ∞ n →∞ 
 n
 
−λ
−1  n

 λ  j   (−λ )  -λ 
ya que: lim 1 −  = 1, lim 1 −  =1 y  lim 1 +   = e −λ
n →∞  n n →∞  n  n →∞  n  
 
x
 1
Este último de la propiedad lim 1 +  = e.
x →∞  x
λ x −λ
Por tanto, lim P [ X = x ] = e , que completa la demostración.
n →∞ x!
OBSERVACION: El teorema, esencialmente, dice que podemos aproximar
las probabilidades binomiales con las probabilidades de la distribución de
Poisson siempre que n sea grande y p pequeño.
Para aclarar de mejor manera, observemos la siguiente tabla; donde n =
100 y p = 0.01, de donde λ = np = 1 :

X 0 1 2 3 4 5
Binomial 0.366 0.370 0.158 0.0610 0.0149 0.0029
Poisson 0.368 0.368 0.184 0.0613 0.0153 .00307

EJEMPLOS
5.4.3.-Supongamos que el 2 % de los artículos producidos en una fábrica son
defectuosos. Hallar la probabilidad de que haya 4 artículos defectuosos
en una muestra de 100 artículos.
SOLUCION:
Se aplica la distribución binomial para n = 100 y p = 0.02. Sin embargo,
puesto que p es pequeño, usamos la distribución de Poisson con
λ = np = 2 . Así
Introducción al Cálculo de Probabilidades 143

e −λ λ x
P[X = x ] = , donde X es el número de artículos defectuosos y
x!
2 4 e −2 16 x (0.135)
x = 4, entonces P[X = 4] = = = 0.0902.
4! 24
5.4.4.-Un hombre dispara a un blanco y sabe que la probabilidad de anotar es
p = 0.01. ¿Cuántos disparos tendrá que hacer para tener una probabilidad
mayor que 0,9 de dar en el blanco (acertar) por lo menos una vez?
SOLUCION:
Si X es el número de aciertos en n disparos, se deduce que
R X = {0,1, 2,...., n} , de donde X es una variable aleatoria discreta. Por
la naturaleza del problema tenemos dos tipos de solución:
i) Aplicando la distribución Binomial.
Se quiere determinar n, tal que P[X ≥ 1] > 0.9
Como [X ≥ 1] = [X = 0] ; entonces P[X ≥ 1] = 1 - P[X = 0] , per
C

n
P[X = x ] =   p x (1 − p )n − x ; x = 0, 1, . . . , n ; luego
x
n
P[X = 0] =   (0.01) 0 (0.99 )n = (0.99 )n
0
Por consiguiente, hay que encontrar n, tal que
1 - (0.99 )n > 0.9, o (0.99 )n < 0.1,aplicando logaritmos se tiene:
n log (0.99) < log (0.1) ⇒ n (1 - 0.99564) > 1 ⇒
1 100,000
n (0.00436) > 1 ⇒ n > = ≈ 231
0.00436 436
De donde, por lo menos tiene que hacer 231 disparos.
ii) Aplicando la distribución de Poisson
Se quiere determinar n, tal que P[X ≥ 1] > 0.9, como en i) se quiere
determinar n tal que 1 - P[X = 0] > 0.9, dado que P[X = x ]
e −λ λ x
= ; x = 0, 1, …, n, luego P[X = 0] = e −λ , donde
x!
λ =(0, 01) n .
Por consiguiente, hay que encontrar n, tal que
−λ −λ λ λ
1 - e > 0.9; o e - 1 > 0.9 e , o , ( 1 - 0.9 ) e = 1 , o ,
1
eλ > = 10
0.1
Aplicando logaritmos naturales obtenemos:
144 Hugo Cornejo Villena & Hugo Cornejo Rosell.

2.3026
λ > ln10 = 2.3026 ⇒ ( 0.01 ) n > 2.3026 ⇒ n > ≈ 230.26
0.01
de donde, por lo menos tiene que dispar 231 disparos.
5. 5. DISTRIBUCION POLINOMIAL
El experimento binomial se convierte en un experimento polinomial o
multinomial si cada intento tiene más de dos resultados posibles. Por ejemplo,
son experimentos polinomiales la clasificación de un producto manufacturado
en bueno, malo, regular, ligero, pesado; el tirar un par de dados cinco veces y
esperar que salga un par igual en dos oportunidades, esperar que salga tres
veces “diez” o “cuatros”, etc.
En general, si un intento dado puede resultar en cualquiera de k
posibilidades: E1 , E 2 ,…, E k , con probabilidades p1 , p 2 . …, p k ,
respectivamente; entonces la distribución polinomial dará la probabilidad de
que E1 ocurra x 1 veces; E 2 ocurra x 2 veces, … , y E k ocurra x k veces en
n intentos independientes, donde:
x 1 + x 2 + … + x k = n y p1 + p 2 + … + p k = 1
dado que el resultado de cada intento debe ser uno de los k posibles resultados;
esta distribución lo representaremos por la notación m ( x 1 , x 2 , …, x k ;
p1 , p 2 , .. , p k , n ).
Para encontrar la fórmula general procedemos como en el caso binomial.
Como los n intentos son independientes, cualquier orden en que se presenten
o produzcan x 1 resultados para, x 2 resultados para E 2 , … , x k resultados
para E k , ocurrirá con una probabilidad p1x1 p 2x 2 … p kx k . El número total de
órdenes que producen resultados similares para los n intentos independientes
es igual al número de particiones de n intentos en k grupos con x 1 en el primer
grupo; x 2 en el segundo; … ; y x k en el k-ésimo grupo.
Esto puede realizarse en:
 n  n!
  =
 x 1 , x 2 ,..., x k  x 1! x 2 !...x k !
maneras. Dado que todas las particiones son mutuamente excluyentes y
ocurren con igual probabilidad, se obtiene la distribución polinomial o
multinomial al multiplicar la probabilidad para un orden específico por el
número total de particiones.
DEFINICION 5.5.1
Si un intento determinado puede resultar en cualquiera de los k resultados: E1
, E 2 , …, E k con probabilidades: p1 , p 2 ,…, p k , respectivamente; se dice que
Introducción al Cálculo de Probabilidades 145

las variables aleatorias X1 , X 2 , … , X k , tiene distribución polinomial o


multinomial con parámetros: n , p1 , p 2 ,…, p k , si su función de
probabilidad es :
p X1X2 ...Xk ( x1 , x 2 ,..., x k ) = f X1X2 ...Xk ( X1 , X 2 ,..., X k )
= P[X1 = x 1 , X 2 = x 2 ,..., X k = x k ]
= m ( x 1 , x 2 , … , x k ; p1 , p 2 , … , p k , n )
n! k p ix i
= p1x1 p 2x 2 … p kx k = n! ∏
x 1! x 2 !...x k ! i =1 xi !
k k
con ∑ x i = n y ∑ p i = 1.
i =1 i =1
Esta distribución se llama polinomial, por su relación evidente con la fórmula
que se expresa el desarrollo de la potencia de un polinomio:
(p1 + p 2 + ... + p k )n .
EJEMPLOS
5.5.1.-Las probabilidades de que una declaración de impuestos sea llenada
correctamente, que contenga un error que favorezca al declarante, que
lleve un error que favorezca al fisco o que contenga ambos tipos de
errores son, respectivamente 0.60, 0.20, 0.10 y 0.10. Calcular la
probabilidad de que, entre 10 de tales declaraciones de impuestos
aleatoriamente escogidos por un auditor, cinco estén correctas, tres
contengan un error que favorezca al declarante, una lleva un error que
favorezca al fisco y una contenga ambos tipos de errores.
SOLUCION:
Se tiene los siguientes eventos posibles:
E1: ocurre que una declaración de impuestos sea llenada
correctamente.
E2 : ocurre que contenga un error que favorezca al declarante.
E3 : ocurre que lleve un error que favorezca al fisco.
E4 : ocurre que contenga ambos tipos de errores.
Las correspondientes probabilidades son:
6 2 1 1
p1 = 0.60 = , p 2 = 0.20 = , p 3 =0.10 = y p 4 = 0.10 = .
10 10 10 10
Estos valores se conservan constantes entre 10 declaraciones. Entonces
apliquemos la distribución polinomial con x 1 = 5, x 2 = 3, x 3 = 1,
x 4 = 1 y n = 10 , para obtener la probabilidad que deseamos y que es:
146 Hugo Cornejo Villena & Hugo Cornejo Rosell.

5 3 1
6 2 1 1 10! 6  2 1
m (5, 3, 1, 1; , , , ; 10 ) =      
10 10 10 10 5!3!1!1!  10   10   10 
1
1 10 x 9 x8x7x6 65 x23 9 x8x7x6 5 x 2 3
  = x = = 0.0314.
 10  1x2x3 1010 10 9
5.5.2.-De acuerdo con la teoría de la genética, un cierto cruce de conejillos de
indias resultará en una descendencia roja, negra y blanca en la relación 8
: 4 : 4. Encontrar la probabilidad de que de 8 descendientes 5 sean rojas,
2 negras y 1 blanco.
SOLUCION:
Sean los eventos
E1 : descendencia roja.
E2 : descendencia negra.
E3 : descendencia blanca.
1 1 1
Luego, n = 8, p1 = , p2 = , p3 =
2 4 4
Tenemos x 1 = 5, x 2 = 2, x 3 = 1
Por tanto:
1 1 1
P[X1 = 5, X 2 = 2, X 3 = 1] = m (5, 2, 1; , , ; 8)
2 4 4
5 2 1
8!  1   1   1  8x7x6 1 1 1
=       = x x x
5!2!1!  2   4   4  2 32 16 4
21
= = 0.0820.
256
EJERCICIOS
1.- Se selecciona a un empleado de un grupo de 8 para supervisar un cierto
proyecto, escogiendo aleatoriamente una placa de una caja que contiene
8 numeradas del 1 al 8. Encuentre la fórmula para la distribución de
probabilidad de X que representa el número de la placa que se saca.
¿Cuál es la probabilidad de que el número que se saque sea menor a 5?
2.- La rueda de una ruleta se divide en 25 sectores de igual área y numeradas
del 1 al 25. Si X representa el número que ocurre cuando se hace girar la
ruleta.
a) ¿Cuál es la probabilidad de que, al hacer girar la ruleta, salga 15?
b) ¿Cuál es la probabilidad de que al hacer girar la ruleta salga un
número que sea múltiplo de 5?
Introducción al Cálculo de Probabilidades 147

3.- En el distrito de Haquira, el 40 % de la población adulta pertenece al


partido político “Movimiento Independiente Cotabambino”. Se
selecciona una muestra aleatoria de 9 adultos.
a) ¿Qué probabilidad hay de que 5 de ellos pertenezca al partido
“Movimiento Independiente Cotabambino”?.
b) ¿Cuál es la probabilidad de que ninguno pertenezca al partido
“Movimiento Independiente Cotabambino”?
c) ¿Cuál es la probabilidad de que pertenezcan 2 sabiendo que al menos
uno pertenece al partido “Movimiento Independiente
Cotabambino”?
7
4.- Supongamos que el jugador de fútbol Arce tiene probabilidad de de
10
meter gol de tiro penal y que sus patadas son independientes. Si Arce
consigue patear 4 penales en un juego particular. ¿Cuál es la probabilidad
de que él meta 2 o más goles de penal?
5.- Un estudiante contesta al azar 10 preguntas en un examen, siendo cada
una de 5 respuestas de las cuales una es correcta.
a) Determinar la distribución de probabilidad del número de preguntas
contestadas correctamente.
b) Si para aprobar el examen debe contestar correctamente al menos 6
preguntas. ¿Cuál es la probabilidad de aprobar el examen?
c) Si dicho examen rinde 275 alumnos. ¿Cuántos de ellos aprobarán?
6.- Un fabricante de piezas envía en lotes de 20 a sus clientes. Suponer que
cada lote contiene piezas defectuosas y no defectuosas, y que la
probabilidad de las defectuosas es 0.10.
a) ¿Cuál es la probabilidad de que determinado lote no contenga piezas
defectuosas?
b) Si un cliente del proveedor va a recibir 5 lotes ¿Cuál es la
probabilidad de que ninguno de los 5 lotes contenga piezas
defectuosas?
7.- Un laberinto para ratones tiene un corredor recto, y al final una
bifurcación; en la bifurcación, el ratón debe ir a la derecha o la izquierda.
Suponer que se colocan 10 ratones en el laberinto, de uno en uno. Si cada
uno de los ratones toma al azar una de las dos alternativas del camino.
a) ¿Cuál es la distribución del número de los que van a la derecha?
b) ¿Cuál es la probabilidad de que cuando menos 9 vayan al mismo
lado?
8.- Supongamos que la máquina A produce el doble de artículos que la
máquina B. Se sabe que el 6 % de los artículos que produce la máquina
A son defectuosas, mientras que el 3 % de los artículos producidos por la
máquina B son defectuosos. Si se junta la producción de estas máquinas
148 Hugo Cornejo Villena & Hugo Cornejo Rosell.

y se toma una muestra aleatoria de 10 artículos. Calcular la probabilidad


de obtener más de tres artículos defectuosos.
9.- El Departamento de Matemáticas y Estadística de la UNSAAC tiene dos
trabajadores a tiempo parcial: Esperanza y Ricardo, Esperanza trabaja los
martes, jueves y sábado en tanto Ricardo los lunes, miércoles y viernes.
Ricardo archiva erróneamente uno de cada cinco documentos, mientras
que Esperanza lo hace uno de cada seis. Se elige al azar un día de la
semana y en ese día se toma una muestra de seis documentos de entre los
documentos archivados ese día.
a) ¿Cuál es la probabilidad de que la muestra contenga exactamente 3
documentos mal archivados?
b) Suponiendo que la muestra contenga exactamente 3 documentos mal
archivados,
c) ¿Cuál es la probabilidad de que hayan sido archivados por Ricardo?
10.- Se lanzan 7 dados, si el éxito consiste en sacar un 5 o 6, encontrar la
probabilidad
a) De sacar exactamente 4 éxitos.
b) De sacar a lo más 4 éxitos.
11.- Como regla, 25 % de ciertos productos manufacturados por un cierto
torno, son defectuosos. ¿Cuál es la probabilidad de que en 20 de estos
productos haya:
a) Exactamente 15 defectuosos.
b) Menos de 5 defectuosos.
c) Por lo menos 8 defectuosos.
12.- Cierta dieta con yodo para animales produce un ensanchamiento de la
glándula tiroides en un 70 % de animales de una población. Se necesita
5 animales con glándula tiroides ensanchada para un experimento. Defina
la variable aleatoria X como el número de animales seleccionados hasta
que 5 de ellos sean con glándulas tiroides ensanchada.
a) Hallar la función de probabilidad de la variable aleatoria X.
b) Hallar la función de distribución de X.
c) Calcular P[ X = 7] y P[ X > 5]
13.- Se tira una moneda no cargada hasta que aparezca una cara.
a) ¿Cuál es la probabilidad de que se necesite menos de 3 intentos?
b) ¿Qué se necesiten menos de 4 intentos?
14.- Una ruleta americana, generalmente, tiene 38 lugares, de los cuales 18
son negras, 18 son rojas y 2 son verdes. Sea X el número de juegos
necesarios para obtener el primer número rojo. Dar la función de
probabilidad.
15.- La probabilidad de que abra un ladrón aficionado, una caja con joyas en
un intento es 0.20. ¿Cuál es la probabilidad de que:
Introducción al Cálculo de Probabilidades 149

a) Necesite exactamente dos intentos para abrir la caja?


b) Abra la caja en no menos de tres intentos?
16.- La probabilidad de que un postulante para chofer apruebe el examen
escrito para obtener su licencia de chofer particular es 0.7. Encontrar la
probabilidad de que una persona apruebe el examen
a) en el tercer intento.
b) antes del cuarto intento.
17.- Un determinado fármaco se envía a las farmacias en cajas de 24 unidades.
El farmacéutico sospecha que la cantidad de fármacos en algunas
unidades es deficiente y decide analizar 5 unidades, supongamos que 10
de las 24 unidades son deficientes.
a) Hallar la probabilidad de que ninguna de las unidades analizadas sea
deficiente.
b) Encuentre la probabilidad de que exactamente una unidad analizada
sea deficiente.
18.- Se extrae al azar trece cartas sin reemplazo de un mazo de 52. ¿Cuál es
la función de probabilidad para el número de cartas negras en la muestra?
19.- Un jurado de 7 miembros va a decidir entre dos finalistas, quien es la
ganadora del reinado del Festival del Carnaval Apurimeño, para lo cual
bastará una mayoría simple de los jueces. Supongamos que 4 jueces votan
por la finalista A y que los otros 3 votan por la finalista B. Si se
seleccionan al azar 3 jueces y se les pregunta por quién van a votar. ¿Cuál
es la probabilidad de que la mayoría de los jueces de la muestra están a
favor de la finalista A.
20.- Una empresa manufacturera recibe un lote que contiene 100 artículos de
los cuales 5 son defectuosos. La empresa revisa constantemente los lotes
que recibe para establecer la calidad del material. Si la calidad de un lote
revisado es baja, devuelve al proveedor el lote completo. Supongamos
que la empresa recibe el lote y lo acepta si hay uno o menos piezas
defectuosas en una muestra de tamaño 6. ¿Cuál es la probabilidad de que
se acepte un lote que contenga 5 artículos defectuosos?
21.- Un comité de 3 integrantes se forman aleatoriamente seleccionando de
entre 4 médicos y 2 enfermeras. Escriba una fórmula para la distribución
de probabilidad de la variable aleatoria X que representa el número de
médicos en el comité. Evalúe P[2 ≤ X ≤ 3] .
22.- ¿Cuál es la probabilidad de que un cantinero se rehúse a servir bebidas
alcohólicas únicamente a 2 menores de edad, si verifica aleatoriamente
sólo 5 identificaciones de entre 9 estudiantes de los cuales 4 no tienen la
edad suficiente?
23.- Se estima que 4000 de los 10000 ciudadanos de una determinada
población están en contra de un nuevo edicto municipal. Si se seleccionan
150 Hugo Cornejo Villena & Hugo Cornejo Rosell.

aleatoriamente 15 ciudadanos y se les pregunta su opinión, ¿Cuál es la


probabilidad de que al menos 7 estén a favor del nuevo edicto municipal?
24.- Un comerciante tiene 20 unidades de cierto objeto, de los cuales 30 % no
están aptos para su venta y el resto sí. El escoge 5 objetos al azar uno a
uno sin reposición.
a) Determinar la distribución de probabilidad del número de objetos
escogidos que sean no aptos para su venta.
b) Calcular la probabilidad de que al menos uno sea no apto para su
venta.
25.- Sea X, Y, Z variables aleatorias independientes con la misma distribución
geométrica. Determinar:
a) P[X = Y ] b) P[X ≥ 2Y ] c) P[X + Y ≤ Z]
26.- Demostrar que la distribución condicional de X1 dado X1 ≠ X 2 , es
binomial; es decir que
 λ1 
P[X1 = k X1 + X 2 = n ] = b k; n , 
 λ 1 + λ 2 
27.- Sean X1 y X 2 variables aleatorias independientes y con distribución
geométrica común. Demuestre sin hacer cálculos, que la distribución
condicional de X1 dado X1 + X 2 es uniforme, o sea, que
1
P[X1 = k X1 + X 2 = n ] = ; k = 0, …, n.
n +1
28.- Si 6 de 18 nuevos edificios en una ciudad violan la licencia de
construcción. ¿Cuál es la probabilidad de que un inspector de obras;
quien selecciona aleatoriamente cuatro de ellos para inspección, descubre
que:
a) Ninguno de los nuevos edificios viola la licencia de construcción.
b) Uno viola la licencia de construcción.
c) Dos violan la licencia de construcción.
d) Al menos tres violan la licencia de construcción.
29.- Si el 3 % de las bombillas fabricadas por una compañía son defectuosas,
hallar la probabilidad de que en una muestra de 100 bombillas:
a) 4 sean defectuosas.
b) más de 5 sean defectuosas.
c) entre 1 y 3 sean defectuosas.
d) 2 bombillas o menos sean defectuosas.
30.- Supongamos que en una empresa aérea se ha enterado el supervisor de
vuelos que, en promedio uno de cada 150 vuelos se retrasa más de una
hora; si se hacen 1500 vuelos en un mes.
Introducción al Cálculo de Probabilidades 151

a) ¿Cuál es la probabilidad de que exactamente 3 vuelos se retardan


más de una hora?
b) ¿Cuál es la probabilidad de que menos de 5 vuelos se retrasen más
de una hora?
c) ¿Cuál es la probabilidad de que más de tres vuelos se retrasen más
de una hora?
31.- Entre las 2 y las 4 de la tarde, el promedio de llamadas telefónicas que
recibe un conmutador de una empresa por minuto es 2,5. Hallar la
probabilidad de que en un determinado minuto haya:
a) Cero llamadas. b) Tres llamadas.
32.- El número de averías semanales de una computadora es una variable
aleatoria que tiene una distribución de Poisson con λ = 0.3 . ¿Cuál es la
probabilidad de que la computadora opere sin averías dos semanas
consecutivas?
33.- Un tirador experto da en el blanco el 95 % de las veces. ¿Cuál es la
probabilidad de que falle por primera vez en su decimoquinto disparo?
34.- Suponga que a un almacén llegan al azar camiones para ser cargados con
ladrillos con un promedio de 8 camiones por día.
a) Determinar la distribución de probabilidad del número de camiones
que llegan por día al almacén para ser cargados de ladrillos.
b) Si dicho almacén solo puede atender a 10 camiones por día. ¿Cuál
es la probabilidad de que en un día determinado se tengan que
regresar los camiones no atendidos?
35.- Cierta panadería dispone de una masa con frutas confitadas para elaborar
200 panetones. Agrega 2,000 pasas de uvas a la masa y la mezcla bien.
Cada panetón contiene en promedio 10 pasas
a) Hallar la probabilidad de que un panetón elegido al azar no contenga
ninguna pasa.
b) Suponga que en dicha producción hay 15 panetones con a lo más 6 pasas,
si un cliente adquiere 5 panetones. ¿Cuál es la probabilidad de que dos
tengan más de 6 pasas?
36.- Suponer que la página impresa de un libro contiene 40 líneas, y que cada
línea contiene 75 espacios (que pueden estar en blanco u ocupados con
algún símbolo). Por tanto, en cada página se deben formar 3000 espacios.
Suponer que el linotipista comete un error en cada 6000 espacios que
forma como promedio.
a) ¿Cuál es la distribución para X, el número de errores por hoja?
b) Calcular la probabilidad de que una página no contenga errores.
c) ¿Cuál es la probabilidad de que un capítulo de 16 páginas no
contenga errores?
152 Hugo Cornejo Villena & Hugo Cornejo Rosell.

37.- El norte del Perú es afectado en promedio por 6 huaicos al año. Encuentre
la probabilidad de que en un determinado año esta región sea afectada
por
a) menos de 4 huaicos.
b) cualquier cantidad entre 6 y 8 huaicos.
38.- Suponga que X es una variable aleatoria con distribución de Poisson. Si
2
P[X = 2] = P[X = 1]
3
Calcular: a) P[X = 0] y b) P[X = 3]
39.- Se estima que una máquina produce 150 piezas defectuosas al mes (mes
de 30 días). Calcular la probabilidad de que en un día determinado
produzca 3 piezas defectuosas.
40.- Se lanza un dado 8 veces. Calcular la probabilidad de que aparezcan dos
números 2, dos números 5 y los demás números una sola vez.
41.- La sangre humana fue clasificada en 4 tipos: A, O, B y AB. En una cierta
población, las probabilidades de estos tipos son respectivamente: 0,40,
0,45, 0,10 y 0,05. ¿Cuál es la probabilidad de que en 5 pobladores
escogidos al azar haya
a) dos del tipo A y uno de cada uno de los otros tipos?
b) tres del tipo A y dos del tipo O?
42.- Las probabilidades de que, al conducir en cierta ciudad, de un modelo
específico de auto se obtenga en promedio menos de 22 kilómetros por
galón, entre 22 y 25 kilómetros por galón o más de 25 kilómetros por
galón son, respectivamente: 0,40, 0.40 y 0.20. Calcule la probabilidad de
que entre 12 de tales autos probados, cuatro en promedio menos de 22
kilómetros por galón, seis entre 22 y 25 kilómetros por galón y dos más
de 25 kilómetros por galón.
43.- ¿Cuál es la probabilidad de obtener dos caras dos veces, una cara y un
sello tres veces y dos sellos una vez en seis lanzamientos de un par de
monedas legales?
CAPÍTULO 6: DISTRIBUCIONES CONTINUAS

6. 1. DISTRIBUCIONES CONTINUAS DE UNA VARIABLE


ALEATORIA
DEFINICION 6.1.1
Una variable aleatoria X se dice que es continua, si el rango de X ( R X ) es
un intervalo o unión de intervalos en la recta real o un conjunto infinito no
numerable de valores.
Es preciso aclarar que en general las variables aleatorias discretas
representan datos que provienen del conteo del número de elementos, mientras
que, las variables aleatorias continuas se obtienen de mediciones, por ejemplo,
longitud, peso, tiempo, etc.
EJEMPLOS
6.1.1.-Supongamos el instante en que salimos de nuestro domicilio para
realizar nuestras actividades diarias, es igualmente factible para ir de
cualquier lugar en el intervalo de tiempo de 7:30 a 8 a.m. (inclusive). Sea
X un intervalo de tiempo entre el instante que salimos de nuestro
domicilio y las 8 a.m. El espacio muestral puede ser definido tomando a
las 7:30 a.m. como el cero en la escala de tiempo y usando el minuto
como unidad; así tenemos
Ω = x∈ / 0 ≤ x ≤ 30}
La variable aleatoria X puede ser escrito en notación funcional como:
X(ω ) = 30 - ω , para ω ∈ Ω
Consecuentemente el rango de X es:
R X =x∈ / 0 ≤ x ≤ 30}
así X es una variable aleatoria continua.

6.1.2.-Sea Ω el espacio muestral que consiste del tiempo de duración de un


artefacto electrodoméstico obtenido al azar de una tienda comercial,
entonces
Ω = x∈ / x ≥ 0} . Si la variable aleatoria X se define también como
el tiempo de duración del artefacto, entonces X es una función identidad
dada por:
X(ω ) = ω , para ω ∈ Ω
de donde el rango de X es:
R X = { x ∈ / x ≥ 0}
Así X es una variable aleatoria continua.
154 Hugo Cornejo Villena & Hugo Cornejo Rosell.

DEFINICION 6.1.2
Sea X una variable aleatoria continua con rango R X ⊆ . La función de
densidad de probabilidad o simplemente función de densidad de la
variable aleatoria X, es una función:
f X : R X → [0,+∞[
que satisface las siguientes condiciones:
i) f X ( x ) ≥ 0, para todo x ∈ R X ⊂ .
ii) ∫ f X (x )dx = 1.
R
La probabilidad de ocurrencia del evento A = {x / a ≤ X ≤ b} está dada
por:
b
P (A) = P[a ≤ X ≤ b] = ∫ f X (x )dx
a
OBSERVACIONES:
1. La función de densidad f X ( x ) no es probabilidad y sólo cuando se
integra a dicha función entre dos límites produce una probabilidad.
2. De la condición i) establecemos que la gráfica de f X está encima del eje
X.
3. Si el R X = , entonces la condición ii) se puede escribir como

∫ f X (x )dx = 1. La condición ii) representa que el área de la región
-∞
limitada por la curva y = f X ( x ), el eje X y las rectas verticales que pasan
por los puntos extremos de R X es 1.
4. Si x 0 es cualquier valor específico de la variable aleatoria continua X,
x0
entonces P[X = x0 ] = P[x0 ≤ X ≤ x0 ] = ∫ f X (x )dx = 0. De donde se
x0

tiene:
a) P(A ) = 0 , no implica que A = φ .
b) P[a ≤ X ≤ b] = P[a ≤ X < b] = P[a < X ≤ b]
b
= P[a < X < b] = ∫ f X (x )dx .
a
Como las integrales definidas representan el área entre la función por
integrar y el eje horizontal entre los límites finitos, podemos pensar
gráficamente que la probabilidad de a < X < b es, el área bajo el gráfico f X
entre a y b, es decir:
Introducción al Cálculo de Probabilidades 155

b
P[a < X < b] = ∫ f X (x )dx = área de la parte sombreada.
a
EJEMPLOS
6.1.3.- Dada la siguiente función
 kx , 0<x≤2

f (x ) = k (4 − x ) , 2<x≤4
 0 , en otros casos

a) Hallar el valor de k para que f sea una función de densidad.
b) Hallar P[- 1 ≤ X ≤ 3] .
 5
c) Hallar P X <  .
 2
d) Hallar P[X ≥ 3]
e) Graficar f X (x ) .
SOLUCION:
a) Para que f (x ) sea una función de densidad de una variable aleatoria
continua, debe cumplirse que
∞ 0 2 4 ∞
1 = ∫ f X (x )dx = ∫ 0dx + ∫ kxdx + ∫ k(4 - x )dx + ∫ 0dx
-∞ −∞ 0 2 4
2 4
 kx 2   k(4 - x ) 2   4
=0+   -   + 0 = 2k - k 0 − 2  = 2k + 2k = 4k
 2 0  2 2  
1
de donde k = .
4
3 0 2 3
P[- 1 ≤ X ≤ 3] = ∫ f X (x )dx = ∫ f X (x )dx + ∫ f X (x )dx + ∫ f X (x )dx
-1 -1 0 2
156 Hugo Cornejo Villena & Hugo Cornejo Rosell.

2 3
0 2x 31 x2   (4 − x )2 
= ∫ 0dx + ∫ dx + ∫ (4 − x )dx = 0 +   -  
−1 0 4 24  8  0  8  2
4 1 4 4 3 7
= − −  = + = .
8 8 8 8 8 8
 5  5/ 2 0 2 5/ 2
b) P X <  = ∫ f X (x )dx = ∫ f X (x )dx + ∫ f X (x )dx + ∫ f X (x )dx
 2 -∞ -∞ 0 2
0 2x 5/ 2 1
= ∫ 0dx + ∫ dx + ∫ (4 − x )dx
−∞ 0 4 2 4

 3 2 
2 5/ 2    
x2   (4 − x ) 
2
4  2  4
=0+   -   = - −
 8  0  8  2 8  8 8
 
 
4  9 4 8 9 32 − 9 23
= - −  = - = = .
8  32 8  8 32 32 32
∞ 44−x ∞
c) P[X ≥ 3] = ∫ f X (x )dx = ∫ dx + ∫ 0dx
3 3 4 4
4
 (4 − x )2   1 1
=-   + 0 = - 0 −  = .
 8  3  8 8
e) A continuación presentamos la función de densidad de
probabilidad y su correspondiente gráfico:
x
4 , 0<x≤2
 4 − x
f X (x ) =  , 2<x≤4
 4
0 , en otros casos.

Introducción al Cálculo de Probabilidades 157

6.1.4.-Si la función de densidad de una variable aleatoria X está dada por:


2 x , 0 < x < 1
f X (x ) = 
0 , en otros casos
Determinar n tal que P[X ≥ n ] = P[X ≤ n ] .
SOLUCION:
Como la función f X (x ) es una función de densidad, entonces
P[X ≤ n ] + P[X ≥ n ] = 1
1
y consecuentemente P[X ≥ n ] = , por tanto
2
∞ 1 ∞ 1
P[X ≥ n ] = ∫ f X (x )dx = ∫ f X (x )dx + ∫ f X (x )dx =
n n 1 2
[ ]
1 ∞ 1 1
= ∫ 2 xdx + ∫ 0dx = x 2 n = 1 - n 2 =
n 1 2
1 1 1
Luego, n 2 = 1 - = , de donde n = .
2 2 2
Antes de continuar con el desarrollo de esta sección, debemos presentar
nuestro interés de mostrarles aplicaciones en las cuales una variable aleatoria
X puede tomar valores discretos: x 1 , x 2 , …, x n , con probabilidades
positivas y además puede tomar, también, todos los valores de un cierto
intervalo [a , b] o familia de intervalos. Es decir, X es una combinación de los
dos tipos de variables aleatorias. Las distribuciones de probabilidad de este
tipo de variables aleatorias se llaman distribuciones mixtas, que se obtienen
combinando las definiciones de distribución de probabilidad de una variable
aleatoria discreta y la función de densidad de una variable aleatoria continua,
en la forma siguiente.
a) A cada uno de los valores x i , se le asigna un número p X (x i ) > 0, y se
define una función f X tal que f X (x ) ≥ 0 para todo x ∈ [a , b] ; dado que
R X = {x 1 ,..., x n }  [a , b] .
n b
b) ∑ p X (x i ) + ∫ f X (x )dx = 1.
x =1 a
La probabilidad de un evento cualquiera A se define así:
P (A) = ∑ p X (x j ) + ∫ f X (x )dx
x j∈A E⊂A
158 Hugo Cornejo Villena & Hugo Cornejo Rosell.

6.1.5.-Dada la función
3 − (x +1) ; x = 0,1,2,...

kx ; 1< x < 2
f X (x ) = 
k (4 − x ) ; 2 < x < 3
0 ; en otros casos

a) Determinar k, de manera que f X sea una función de
probabilidad de una variable aleatoria X.
 3
b) Calcular P 0 ≤ X ≤  .
 2
SOLUCION:
a) Debemos observar que
∞ 2 3
−( x +1)
∑3 + ∫ kxdx + ∫ k(4 - x )dx = 1
x =0 1 2
2 3
1 ∞ 1 x  2
x2 
∑ +k  + k  4 x −  =1
3 x =0 3 x  2 1  2 2
∞ 1 1 1 1
Como ∑ k = 1 + + + +…=S
x =0 3 3 9 27
1 1 1 1
Entonces, 1 + [1+ + + +…]=S
3 3 9 27
1 3
de donde 1 + S = S, luego S = .
3 2
1 3  k  9k 
Por tanto: x +  2k -  +  6k -  = 1, luego
3 2  2  2 
1 1
+ 3 k = 1, de donde k = .
2 6
 3 1 3/ 2 x 1 1 1
b) P 0 ≤ X ≤  = ∑ 3 −(x +1) + ∫ dx =
3/2
+ +  x 2 
 2  x =0 1 6 3 9 12 1

4 1 4 4 5 79
= + ( - 1) = + =
9 12 9 9 48 144
DEFINICION 6.1.3
La función de distribución acumulada o simplemente función de
distribución, FX , de una variable aleatoria continua X, con función de
densidad f X , está dada por:
Introducción al Cálculo de Probabilidades 159

x
FX (x ) = P[X ≤ x ] = ∫ f X (x )dx , ∀ x ∈ .
-∞
Comparar con la definición 4.4.1.
Gráficamente, el área sombreada es la función FX ( x ) :

Área sombreada es FX ( x )
6.1.5.-Hallar FX (x ) , si una variable aleatoria continua X que puede asumir
1
valores entre x = 2 y x = 4 tiene una función de densidad f X (x ) = .
2
SOLUCION:
La función de densidad está dada por:
1
 , 2≤x≤4
f X (x ) =  2
0 , en otro caso
Determinación de la función de distribución:
x
FX (x ) = ∫ 0 dx = 0, para x < 2
-∞
x
x
1 1  x x−2
FX (x ) = FX (2 ) + ∫ dx = 0 +  x  = -1= , para 2 ≤ x ≤ 4.
2 2 2 2 2 2

FX (x ) = FX (4 ) + ∫ 0 dx = 1 + 0 = 1, si x > 4.
4
Luego, la función de distribución acumulada y su gráfica,
respectivamente, son:
0 , si x<2
 x- 2

FX ( x ) =  , si 2≤x≤4
 2
1 , si x>4
160 Hugo Cornejo Villena & Hugo Cornejo Rosell.

6.1.6.-Para la función de densidad del ejemplo 6.1.3 hallar FX (x ) y expresar


gráficamente.

SOLUCION
La función de densidad está dada por:
x
4 , si 0 < x ≤ 2
 1
f X (x ) =  (4 − x ) , si 2 < x ≤ 4
4
0 , en otros casos

Determinación de la función de distribución
x
FX (x ) = ∫ 0 dx = 0 , para x ≤ 0
-∞
x
x x x2  x2
FX (x ) = FX (0 ) + ∫ dx = 0 +   = , para 0 < x ≤ 2
04  8 0 8
x
4  (4 − x ) 
2
x 1
FX (x ) = FX (2 ) + ∫ (4 - x ) dx = -  
24 8  8  2
4 (4 − x )2 4 (4 − x )2 , para 2 < x ≤ 4
= - + =1-
8 8 8 8

FX (x ) = FX (4 ) + ∫ 0 dx = 1 + 0 = 1, para x > 4
4
Luego, la función de distribución y su gráfica son:
0 , si x ≤ 0
 2
x , si 0 < x ≤ 2
8
FX (x) = 
 (4 - x)
2

1- 8 , si 2 < x ≤ 4

1 , si x > 4
Para mayor variedad de ejemplos o solución de ejercicios es importante
tener en cuenta las propiedades vistas en la sección 4.4, compatibilizando, con
las observaciones de esta sección y además se tiene que:
a) La función de distribución es no decreciente; es decir, si a ≤ b, entonces
FX (a ) ≤ FX (b ) .
Introducción al Cálculo de Probabilidades 161

b) Del segundo teorema fundamental del cálculo se tiene que si FX (x ) es


una función derivable, entonces:
d
f X (x ) = FX (x )
dx
6.1.7.- Supongamos que la función de distribución está dada por:
0 , si t < 0

FX ( t ) =  t , si 0 ≤ t ≤ 1
1 , si t > 1

d 0 , para t > 0 y t < 1
La derivada de FX es FX ( t ) = 
dt 1 , para 0 < t < 1
La derivada no existe para t = 0 y t = 1; pero podemos definir
convenientemente
1 , si 0 < x < 1
fX ( x ) = 
0 , en otro caso
y usando f X encontramos las siguientes probabilidades:
1 3  3/4 3 1 2 1
P  < X <  = ∫ dx = x ]1/4 = - = = .
3/4

4 4  1/4 4 4 4 2
 1  1/2 0 1/2
P - 1 < X <  = ∫ f X ( x ) dx = ∫ f X ( x ) dx + ∫ f X ( x ) dx
 2  -1 -1 0
0 1/2
1
= ∫ 0 dx + ∫ 1 dx = .
-1 0
2
La representación gráfica de las probabilidades anteriores está dada por:

6.1.8.-Supongamos que la función de distribución está dada por:


0 , si t < 0
FY ( t ) =  - t
1- e , si t ≥ 0
162 Hugo Cornejo Villena & Hugo Cornejo Rosell.

d 0 , si t < 0
La derivada de FY es: FY ( t ) =  − t
dt e , si t > 0
Entonces podemos definir
e - y , y>0
fY ( y ) = 
0 , caso contrario
y usando f Y , encontramos
3
P[1 < Y < 3] = ∫ e- y dy = - e- y 1 = e −1 - e −3 = 0,318
3

[ ]4∞ = e
¥
P[ Y > 4] = ∫ e- y dy = − e − y −4
= 0,018
4

[ ]20 = 1 - e
2 2
P[ Y < 2] = ∫ f Y dy = ∫ e dy = − e
-y −y −2
= 0,865.
-¥ 0
6.1.9.-Un experimento consiste en seleccionar aleatoriamente un punto en el
interior de un triángulo isósceles cuya base mide 8 cm. y cuyos lados
iguales miden 5 cm. cada uno. Si X es la variable aleatoria que se define
como la distancia del punto de elección a la base, hallar la función de
densidad.
SOLUCION:
Sea el triángulo ABC de la figura adjunta.

La altura del triángulo es: h = 25 − 16 = 3


Como la elección se efectúa en el interior del triángulo, entonces el rango
de X es R X = ]0,3 [ .
La función de distribución, FX ( x ) está dada por:
0 , si x ≤ 0
 área trapecio ADEC
FX ( x ) =  , si 0 < x < 3
 área del triángulo ABC
1 si, x ≥ 3
Del gráfico resulta:
Introducción al Cálculo de Probabilidades 163

 8 + DE 
• Área del trapecio ADEC =   x. Por semejanza de los
 2 
triángulos ABF y DBG, se tiene
DG BG DG 3− x 4( 3 − x )
= ⇒ = ⇒ DG =
AF BF 4 3 3
8(3 − x )
y como DE = 2DG = , entonces
3
área del trapecio ADEC
 DE   4( 3 − x )  4
= 4 +  x = 4 +  x = 8 x - x2 .
 2   3  3
8×3
• Área del triángulo ABC = = 12.
2
Luego, la función de distribución de X es:

0 , si x ≤ 0
2x 1

FX ( x ) =  - x2 , si 0 < x < 3
 3 9
1 , si x ≥ 3

y la función de densidad de probabilidad es:


2 2
d  - x , si 0 < x < 3
fX ( x ) = FX (x) =  3 9
dx 0 , en otros casos
Ahora nos interesa hallar la función de densidad (g) de la función
Y = H (X); donde X es una variable aleatoria continua con función de densidad
f y H es otra función continua.
El procedimiento general será así:
a) [ ]
Obtener G, la función de distribución de Y, donde GY(y) = P Y ≤ y , al
encontrar el evento A (en el recorrido de X) que es equivalente al evento
[Y ≤ y ] .
b) ( )
Diferenciar GY(y) con respecto a y para obtener g Y y .
c) Determinar estos valores de y en el recorrido de Y para los cuales
g Y ( y ) > 0.
164 Hugo Cornejo Villena & Hugo Cornejo Rosell.

EJEMPLOS
6.1.10.- Supongamos que X tiene una función densidad
2 x , si 0 < x < 1
fX ( x ) = 
0 , en caso contrario
Sea H(x) = e − x . Para encontrar la función de distribución de Y = H(X)
procedemos como sigue:
[ ] [ ]
GY(y) = P Y ≤ y = P e - x ≤ y = P X ≥ − ln y [ ]
∫ 2 xdx = x ]
1
= 2 1
− ln y = 1 - (− ln y )2 = 1 − ln 2 y
-ln y

Por tanto
d ln y
gY ( y) = G Y (y) = -2 . Puesto que f X ( x ) > 0 para 0 < x < 1,
dy y
1
encontramos que g Y ( y ) > 0 para < y < 1. (Notamos que el signo
e
1
algebraico para g Y ( y ) es correcto ya que ln y < 0 para < y < 1).
e
Existe otro método ligeramente diferente, para obtener el mismo
resultado. Sea
[ ]
GY( y ) = P Y ≤ y = P X ≥ − ln y [ ]
= 1 - P[X ≤ − ln y ] = 1 - FX − ln y ( )
en donde como FX ( - lny ) es la función de distribución de X. A fin de
obtener la derivada de G usamos la regla de la cadena así:
d dG du
GY ( y) = , donde u = - ln y
dy du dy
Por tanto, como FX(x) = x2, para 0 < x < 1
d dF (du)  1   1 ln y
GY ( y) = X  -  = -2 ln y   = -2
dy du  y   y y
Los métodos empleados en el ejemplo anterior se pueden generalizar en
el siguiente Teorema, cuya demostración se deja al lector.
TEOREMA 6.1.1
Sea X una variable aleatoria continua con función de densidad f, en donde
f X ( x ) > 0 para a < x < b. Supongamos que y = H(x) sea una función de x,
estrictamente monótona (creciente o decreciente). Además, supongamos que
Introducción al Cálculo de Probabilidades 165

esta función es derivable y continua para todo x. Luego la variable aleatoria Y


definida como Y = H(x) tiene una función de densidad dada por:
dx
gY ( y ) = fX ( x ) ;
dy
donde x se expresa en función de y. Si H es creciente, entonces g es distinto
de cero para los valores de y que satisfacen H(a) < y < H(b). Si H es
decreciente, entonces g es distinto de cero para los valores de y que satisfacen
H(b) < y < H(a).
EJEMPLO
6.1.11.- Dada la variable aleatoria X con función de densidad
2 x , si 0 < x < 1
fX ( x ) = 
0 , en otro caso
Encuentre la distribución de probabilidad de Y, donde Y = 8 X 3 .
SOLUCION:
y 1
La solución inversa de y = 8 x 3 da x = 3 = 3 y , de donde se obtiene:
8 2
dx 1 1/3-1 1 -2/3 1
= y = y = . Luego, utilizando el teorema anterior,
dy 6 6 6 3 y2
se encuentra que la función de densidad de Y es:
 1 3  1 1 1
2  2 y  = ; si 0 < y < 8
( )
2
gY ( y) =   6 3 y 63y

0 ; en otro caso
6. 2. DISTRIBUCIONES CONTINUAS DE VARIAS VARIABLES
ALEATORIAS
En la sección 4.5 presentamos en forma general las distribuciones de
varias variables y los ejemplos aplicativos se presentaron para variables
aleatorias discretas, nuestro objetivo ahora es presentar un resumen de la parte
teórica y ejemplos para variables aleatorias continuas. Podemos afirmar que,
en esta sección las diferentes definiciones serán las mismas sustituyendo
integrales por sumatorias.
Siguiendo el mismo procedimiento, visto en la sección 4.4 y se
presentarán para el caso bidimensional y luego se generalizará para el caso de
varias variables.
DEFINICIÓN 6.2.1
Se dice que una variable aleatoria bidimensional (X, Y) es continua si ambas
variables aleatorias son continuas y su rango R X ,Y ⊂ 2.
166 Hugo Cornejo Villena & Hugo Cornejo Rosell.

DEFINICIÓN 6.2.2
Sea (X, Y) una variable aleatoria bidimensional continua. La función de
densidad de probabilidad conjunta asociada a la variable aleatoria (X, Y), es
la función integrable f: R X ,Y → +
que satisfacen las siguientes
propiedades:
(a) f X ,Y ( x,y ) ≥ 0, ∀ ( x,y ) ∈ R X ,Y
∞ ∞ ∞ ∞
(b) ∫ ∫
−∞ −∞
f X ,Y ( x,y ) dx dy =1 (o ∫ ∫
−∞ −∞
f X ,Y ( x,y ) dy dx =1 )
La probabilidad de un evento A definido en el plano XY, está dado por:
P [(X, Y) ∈ A ] = ∫∫ f
A
X ,Y (x.y) dx dy

Si 1 y 2 son conjuntos de números reales, entonces tomando como


A = 1x 2 = {(x, y) / x ∈ 1 ∧y∈x 2 },
tenemos
P[X∈ 1, Y∈x 2 ]= ∫∫ f
R2 R1
X ,Y (x,y) dx dy

En particular, si RX, Y = {(x,y) / a ≤ x ≤ b, c ≤ y ≤ d }, tenemos


d b
P [ a ≤ X ≤ b, c ≤ Y ≤d] = ∫c ∫a f X ,Y dx dy.
DEFINICIÓN 6.2.3
Si (X, Y) es una variable aleatoria continua con función de densidad de
probabilidad conjunta f X ,Y (x, y). La función de distribución acumulada de
(X, Y) es:
x y
FX ,Y (x, y) = P [ X ≤ x, Y ≤ y ] = ∫−∞ ∫−∞ f X ,Y (x, y) dy dx.

∂ 2 FX ,Y ( x , y )
Se cumple que f X ,Y ( x, y) = ; siempre que FX ,Y sea una
∂x∂y
función absolutamente continua.
DEFINICION 6.2.4
Si ( X , Y ) es una variable aleatoria continua con función de densidad de
probabilidad conjunta f X .Y (x, y), entonces:
a) La función de densidad marginal para X es:
¥
fX ( x ) = ∫ f ( x, y ) dy
X,Y ; − ∞ < x < ∞.

b) La función de densidad marginal para Y es:
Introducción al Cálculo de Probabilidades 167

¥
fY ( y ) = ∫ f ( x, y ) dx
X,Y ; − ∞ < y < ∞.

c) Las distribuciones acumuladas marginales de X e Y están dadas por:
x
FX ( x ) = P [ X ≤ x ] = P [ X ≤ x, Y ≤ ∞ ] = ∫ f ( x ) dx
X

y
FY ( y ) = P [ Y ≤ y ] = P [ X ≤ ∞, Y ≤ y ] = ∫ f ( y ) dy
Y

EJEMPLOS
6.2.1.-Si dos variables aleatorias tienen la siguiente densidad conjunta:
k ( x + y ) , 0 ≤ x ≤ 2 , 1≤ y ≤ 4
2 2

f X,Y ( x, y ) = 
o , en otros casos
Determinar:
a) k
b) P [1 < X < 2, 2 < Y ≤ 3]
c) P [1 ≤ X ≤ 2]
d) P [ X+ Y > 4]
SOLUCION:
¥ ¥
a) Como ∫ ∫ f ( x, y ) dxdy
-¥ -¥
X,Y = 1, entonces
2
¥ ¥ 4 2
 x3 2
4

∫- ¥ -∫¥ X,Y
f ( x, y ) dxdy = ∫1 ∫0 k ( x + y ) 2
dxdy = ∫1  3 + xy  dy
2
k
0
4 4
8  8 2 3
= k ∫  + 2 y 2  dy = k  3 y+ 3 y 
1 3   1
 32 128  8 2   160 10 
= k  +  − +  =k  −  = 50 k = 1, de
 3 3   3 3    3 3
1
donde k = .
50
3 2
1
P [1 < X < 2, 2 < Y ≤ 3] = ∫ ∫ 50 ( x + y 2 ) dxdy
2
b)
2 1
2
1  x3 2
3
1 3  8 2 1 2 
= ∫  + xy  dy =
50 2  3 1
∫   + 2 y  -  + y   dy
50 2  3  3 
168 Hugo Cornejo Villena & Hugo Cornejo Rosell.

1 7 y3 
3 3
1 7 2 1 7 
= ∫ 
50 2  3
+ y 

dy = 
50  3
y+  = ∫ 
3  50 2  3
+ y 2  dy

1  14 8 
3
1  7 y3 
=  +  = ( 7 + 9) −  +  
50  3 3  2 50   3 3 
1  22  26 13
=  16 −  = = .
50  3  50 × 3 75
c) P [1 ≤ X ≤ 2] = P [1 ≤ X ≤ 2, - ∞ < Y < ∞ ]
2 ¥ 2 4
1
∫ ∫ f X,Y ( x, y ) dydx = ∫ ∫ 50 ( x + y 2 ) dydx
2
=
1 -¥ 1 1
4
1 2
 2 y3  1 2
 63 
∫1  ∫  3 x
2
=  x y+  dx = +  dx
50 3 1 50 1 3 
1  3 63 
2
1  126   63 
=
50  x + 3 x  = 50  8 + 3  −  1 + 3  
 1  
1  63 84 14
= 7 +  = = .
50  3  150 25
d) El conjunto de puntos R = (x, y) / (x,y)∈ R X ,Y , para los
cuales f X,Y ( x, y ) ≥ 0 se muestra en el gráfico 1.
El subconjunto S de R, donde x + y > 4, se muestra en el siguiente
gráfico 2.

Luego
P [ X+ Y > 4] = ∫∫ f ( x, y ) dxdy
X,Y
S
Introducción al Cálculo de Probabilidades 169

4
2 4
1 2 2 1  2 y3 
2
=∫ ∫ ( x + y ) dydx =
50 ∫0  x y+ 3  dx
0 4-x 50 4-x

1 2  2 64 3 (4 - x) 
3


2
= 4 x + - 4 x + x -  dx
50 0  3 3 
1 2  4 x 3 -12 x 2 + 48 x  1 2
= ∫ 
50 0  3
 dx =
 150
 x 4 - 4 x 3 + 24 x 2 
0

1
= (16 − 32 + 96) = 80 = 8
150 150 15
6.2.2.-Una compañía dulcera distribuye cajas de chocolates con una mezcla
de tres tipos de chocolate: cremas, de chiclosas y envinados. Supongamos
que el peso de cada caja es de un kilogramo, pero los pesos individuales
de las cremas, de las chiclosas y de las envinadas varían de una caja a
otra. Para una caja elegida al azar, X e Y representan los pesos de las
cremas y de las chiclosas, respectivamente y supongamos que la función
de densidad conjunta de estas variables está dada por:
24 xy, 0 ≤ x ≤ y 0 ≤ y ≤ 1, x+ y ≤ 1
f X,Y (x, y) = 
0, en otro caso
a) Hallar la probabilidad de que en una caja determinada el peso de los
chocolates envinados es más de ½ del peso total.
b) Encuentre la densidad marginal para el peso de las cremas.
c) Determinar la densidad marginal para el peso de las chiclosas.
d) Hallar FX ,Y (½, ½)
e) Hallar la probabilidad de que en una caja determinada el peso de
los chocolates chiclosas sea menor o igual ¾ del peso total.
SOLUCION:
a) Si representamos por Z el peso de los chocolates envinados y como
en una caja de chocolates hay los tres tipos de chocolates; entonces
se tiene que: X +Y + Z = 1 y de donde Z = 1-(X+Y) y como
queremos hallar P [ Z > ½], es equivalente hallar
P [ 1 - (X + Y) > ½ ] = P [ X + Y < ½ ]. Como el conjunto de
puntos R= ( x, y) / (x, y)∈ R X ,Y , para las cuales
FX,Y (x, y) ≥ 0, se muestra en el siguiente gráfico. También el
subconjunto S de R, donde X + Y < ½, se muestra en el siguiente
gráfico:
170 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Luego:
1 1
−x
 1
∫∫ f X ,Y ( x , y )dydx
2 2

P X + Y <  =
 2
= ∫ ∫ 24 xydydx
S 0 0
1 1/ 2 1
2
 xy 2   3 x 2

∫  2  dx =12 ∫  x − x + 4  dx
2
= 24
0 0 0
1/ 2
 x4 x3 x2  1 1 1 12 1
=12  − +  = 12  − +  = = .
4 3 8 
0
 64 24 32  192 16
¥
b) f X (x) = ∫f

X,Y (x, y) dy ; −∞< x <∞
1-x
1-x
 y2 
= ∫ 24 xydy =  24 x  = 12 x (1- x ) ; 0 ≤ x ≤ 1
2

0  2 0
Luego:
12 x (1- x )2 ; 0 ≤ x ≤ 1
f X (x) = 
0 ; en otro caso
¥
c) f Y (y) = ∫f

X,Y (x, y) dx ; −∞ < y < ∞

1−y 1−y
 x2 
∫ 24 xydx =  24 y  =12 y (1 − y ) ; 0 ≤ y ≤ 1
2
=
0  2 0
Luego:
Introducción al Cálculo de Probabilidades 171

12 y (1- y ) 2
; 0 ≤ y ≤1
f Y (y) = 
0 ; en otro caso
1 1

1 1  1 1 2 2

d) FX,Y  ,  = P  X ≤ , Y ≤  =
2 2  2 2 ∫ ∫f
-¥ -¥
X,Y (x, y) dxdy
1 1 1
2 1/2
1
2 2
 x  2 2

= ∫ ∫ 24 xydxdy = 24 ∫  y  dy = 3 ∫ ydy
0 0 0  2 0 0
1/2
y  3 2
=3   = .
 2 0 8
e) Deseamos calcular:
3

 3 3 4

P  Y ≤  = FY   = ∫ f Y (y) dy
 4  4  -¥
y como por c) tenemos calculado f Y ( y ) . Entonces
3 3

 3 4 4

∫0 ∫0 (y- 2 y + y ) dy
2
P Y ≤ = 12 y(1- y) dy = 12 2 3

 4 
3/4
 y 2 2 y3 y 4  9 9 81  243
= 12  - +  =12  − + = .
 2 3 4 0  32 32 1024  256
Ahora presentamos la generalización de distribuciones acumuladas para
varias variables continuas, tal como indicamos anteriormente, también
presentaremos conceptos de función de distribución condicionada y densidad
de las funciones de varias variables.
DEFINICION 6.2.5
Se dice que las variables aleatorias continuas: X1 , X 2 ,..., X n , tienen
distribución acumulada, cuando existe una función f X1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n )
tal que, cualquiera que sea la n-upla de número reales ( x1 , x 2 ,..., x n ) se
verifica la igualdad:
x1 x 2 xn

FX1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) = ∫ ∫ ... ∫ f X1 ,X2 ,...,XN ( t1 , t 2 ,..., t n ) dt1dt 2 ...dt n
-¥ -¥ -¥

La función f X1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) de la definición es la función de


densidad de probabilidad conjunta o simplemente función de densidad
conjunta de las n variables aleatorias continuas: X1 , X 2 ,..., X n .
172 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Por el teorema fundamental del cálculo integral, para el caso de varias


variables, en todo punto ( x1 , x 2 ,..., x n ) del espacio euclidiano n-
dimensional, donde f X1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) sea continua, se cumple que:
∂n
FX ,X ,...,X ( x1 , x 2 ,..., x n ) = f X1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n )
∂ x1 ∂ x 2 ...∂ x n 1 2 n
Es de observar que la función de densidad conjunta de las variables
aleatorias: X1 , X 2 ,..., X n satisfacen las siguientes condiciones:
a) f X1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) ≥ 0, para todo ( x1 , x 2 ,..., x n ) .
∞ ∞
∫ ∫ ... ∫ f X1 ,X 2 ,...,X n (t 1 , t 2 ,..., t n )dt 1dt 2 ...dt n = 1.

b)
−∞ −∞ −∞
Presentaremos a continuación un teorema que no será generalizado por
escapar del contenido del curso.
TEOREMA 6.2.1
Si X1 , X 2 , X 3 son variables aleatorias continuas que tiene una distribución
acumulada, entonces las variables aleatorias continuas X 1 y X 3 también
tienen una distribución acumulada; donde la función de densidad conjunta está
dada por:
¥
f X1 ,X3 ( x1 , x 3 ) = ∫f X1 ,X 2 ,X3 ( x1 , x 2 , x 3 ) dx 2

DEMOSTRACION:
Por la propiedad 4.5.7, la definición de densidad, y las propiedades usuales de
la integral, tenemos:
FX1 ,X3 ( x1 , x 3 ) = lim FX1 ,X2 ,X3 ( x1 , x 2 , x 3 )
x 2 →∞
x 3 x 2 x1

= lim
x 2 →∞ ∫ ∫ ∫f X1 ,X 2 ,X3 ( t1 , t 2 , t 3 ) dt1dt 2dt 3
-∞ -∞ -∞

 
x 3 x1 x2

= ∫ ∫  lim ∫ f X1 ,X2 ,X3 ( t1 , t 2 , t 3 ) dt 2  dt1 dt 3


-∞ -∞  x 2 →∞ - ∞ 
 ∞
x3 x1

= ∫ ∫  ∫ f X1 ,X2 ,X3 ( t1 , t 2 , t 3 ) dt 2  dt1 dt 3
−∞ −∞ -∞ 
Por otro lado, se tiene:
x3 x1

FX1 ,X3 (x1 , x 3 ) =


−∞
∫ ∫f −∞
X1 ,X3 (t1 , t 3 ) dt1dt 3
Introducción al Cálculo de Probabilidades 173


Por lo tanto: f X1 ,X3 ( x1 , x 3 ) = ∫f X1 ,X 2 ,X3 ( x1 , x 2 , x 3 ) dx 2 ,
−∞
que demuestra el teorema.
DEFINICION 6.2.6

La función de densidad conjunta f X1 ,X3 ( x1 , x 3 ) = ∫f X1 ,X 2 ,X3 ( x1 , x 2 , x 3 ) dx 2 , se
−∞
llama “marginal” o “densidad marginal” de la función de densidad conjunta
f X1 ,X2 ,X3 ( x1 , x 2 , x 3 ) .
En general, cuando se pretende encontrar una función de densidad
marginal de un cierto número (finito) de varias variables aleatorias y sea
conocida una función de densidad para un conjunto (finito) de variables
aleatorias que incluye aquel; debe integrarse respecto a las variables
extrañas; la definición 6.2.4 a) y b) son casos particulares de lo que
afirmamos, como se ve en el siguiente ejemplo.
EJEMPLO
6.2.3.-Supongamos que X e Y son dos variables aleatorias con una función de
densidad conjunta definida por:
2 ( x+ y- 3 xy 2 ) , 0 < x < 1, 0 < y < 1
f X,Y (x, y) = 
0 , en caso contrario
Deseamos hallar las funciones de densidad marginal para X e Y. Por el
teorema que acabamos de demostrar se obtiene:
a) La marginal para X es

∫ 2 ( x+ y- 3 xy ) dy ;
2
f X (x) = de donde
−∞
1
1 , 0 < x < 1
∫ 2 ( x+ y- 3 xy ) dy
2
f X (x) = =  .
0 0 , en caso contrario
b) La marginal para Y, análogamente que a) se tiene:
1
1+ 2 y- 3 y 2 , 0 < x < 1
f Y (y) ∫ 2 ( x+ y- 3 xy ) dx 
= 2
=
0 0 , en caso contrario
Cuando las variables aleatorias continuas tienen una distribución
conjunta, es fácil establecer si son independientes. Esto es lo que destacaremos
en el siguiente teorema.
174 Hugo Cornejo Villena & Hugo Cornejo Rosell.

TEOREMA 6.2.2
Si X1 , X 2 ,..., X n son variables aleatorias continuas que tienen una distribución
conjunta, la condición necesaria y suficiente para que sean independientes es
que la función de densidad conjunta de X1 , X 2 ,..., X n sea
n
f X1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) = ∏f
j=1
Xj (x j )

DEMOSTRACION:
Probaremos la condición suficiente, para esto supongamos que
n
f X1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) = ∏f
j=1
Xj (x j ) , pero
x1 x 2 xn

FX1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) = ∫ ∫ ... ∫ f X1 ,X 2 ,...,X N ( t1 , t 2 ,..., t n ) dt1dt 2 ...dt n


-∞ -∞ -∞
entonces
xj
 n 
x1 xn n
FX1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) = ∫ ... ∫ ∏ f X j ( t j ) dt j  = ∏∫f Xj (t j ) dt j
-∞ -∞   j=1  j=1 - ∞
n
= ∏F
j=1
Xj (x j ) .

La independencia de X1 , X 2 ,..., X n se deduce de aquí, según el teorema


4.5.1.
Probaremos la condición necesaria, suponiendo que las variables
aleatorias son independientes, encontramos que para todo ( x1 , x 2 ,..., x n ) se
tiene:
n n xj

FX1 ,X2 ,...,Xn ( x1 , x 2 ,..., x n ) = ∏F


j=1
Xj (x j ) = ∏∫f
j=1 - ∞
Xj (t j ) dt j

 n 
xn x1

∫-∞ -∫∞ ∏


... f X j ( t j )  dt1 ,...dt n
=
j=1 
Por la propia definición de función de densidad conjunta el integrando de
la última integral múltiple, es una función de densidad conjunta; con lo que
queda demostrado el teorema.
El resto de esta sección se dedicará al estudio de las distribuciones
condicionadas de variables aleatorias continuas que son de mucha valía para
estudios de probabilidades y estadística; para el caso de variables aleatorias
discretas vimos en la sección 5.2.
Introducción al Cálculo de Probabilidades 175

DEFINICION 6.2.7
La función de distribución condicionada de una variable aleatoria X, con la
condición de que otra variable aleatoria Y tome el valor y, Y = y, está dada
por
FX Y ( x y ) = limP
ε→0+
{[ X ≤ x ] [ y- ε < Y ≤ y+ ε]}
suponiendo que ese límite exista.
Si FX Y ( x y ) existe, diremos que una función de densidad condicionada
de X para Y dada, es una función f X Y ( x y ) ; tal que, para todo número real x
se tiene la igualdad
x
FX Y ( x y ) = ∫ f ( t y ) dt
-∞
X Y

TEOREMA 6.2.3
Si X, Y son dos variables aleatorias continuas, que tienen una distribución
conjunta, entonces, en todo punto (x , y) en el que f X,Y (x, y) sea continua y,
además, sea f Y (y) > 0 y continua, existe una función de densidad
condicionada de X, dada Y, que puede escribirse como sigue :
f (x, y)
f X Y ( x y ) = X,Y
f Y (y)
DEMOSTRACION:
Por la definición de función de distribución condicionada de probabilidad
condicionada se tiene:
FX Y ( x y ) = limP
ε→0+
{[ X ≤ x ] [ y- ε < Y ≤ y+ ε]}
P {[ X ≤ x ][ y- ε < Y ≤ y+ ε ]}
= lim+ ; pero
ε→0 P [ y- ε < Y ≤ y+ ε ]
FX,Y (u, v)
FX Y ( x y ) = lim+ ; donde u ∈ (- ∞ , x) y v ∈ ( y - ε , y + ε)
ε→0 FY (v)
luego por definición de funciones de distribución se obtiene:
x y+ε

∫ ∫ f X,Y (u, v) dudv


FX Y ( x y ) = lim+
u=- ∞ v=y-ε
y+ε
ε→0


v=y-ε
f Y (v) dv

similarmente
176 Hugo Cornejo Villena & Hugo Cornejo Rosell.

x  1 y +ε 
lim+ ∫  ∫ f X,Y (u, v) dv  du
 2ε v=y −ε
ε→0
u =−∞  
FX Y ( x y ) = y +ε
1
ε→0+ 2ε ∫
lim f Y (v) dv
v=y −ε

Pero
y +ε y +ε
1 1
lim+
ε→0 ∫
2ε y −ε ε→0 2ε ∫
f Y (v) dv = f Y (y) ; dado que lim+
y −ε
f Y (v) dv - f Y (y) =0 o

 1 
y +ε y +ε
1
lim+ ∫
2ε y −ε
f Y (v) dv - lim f
+ Y
(y) = 0, lim  ∫ f Y (v) dv- f Y (y)  =0 o
 2ε y −ε
+
ε→0 ε→0

ε→0

y +ε
1
ε→0+ 2ε ∫
lim ( f Y (v) - f Y (y) ) dv = 0,
y −ε

cuya prueba se encuentra en [1] tomo I, página 249 y 250.


En forma similar y generalizada se obtiene que:
y +ε
1
ε→0 2ε ∫
lim+ f X,Y (u, v) dv = f X,Y (u, v)
y −ε

Por tanto:
x

∫ f X,Y (u, y) du x
FX Y ( x y ) = ∫ (f (u, y) f Y (y) ) du
u=−∞
= X,Y
f Y (y) −∞
x
f X,Y (x, y)
y como FX Y ( x y ) = ∫f X Y (u y) du ⇒ f X Y ( x y ) = ,
−∞ f Y (y)
que completa la demostración.
En forma similar se demuestra que:
f X,Y (x, y)
fY X ( y x ) =
f X (x)
Así mismo, para varias variables se sigue, por generalización del teorema
6.2.3 como, por ejemplo:
f (x, y, z)
f X,Y Z ( x, y z ) = X,Y,Z , etc.
f Z (z)
EJEMPLOS
6.2.4.- Supongamos que U y V son dos variables aleatorias continuas que
tienen una distribución conjunta con densidad
Introducción al Cálculo de Probabilidades 177

1
 , u 2 + v2 ≤ 1
f U,V (u, v) =  p
0 , en caso contrario

Entonces la densidad marginal para U es
 2 1- u 2
 , -1 < u ≤ 1
f U (u) =  π
0 , en caso contrario

Así, la densidad condicional de V, dado U = u, es:
f (u, v) 1
f V U ( v u ) = U,V = , donde
f U (u) 2 1- u 2
- 1 − u 2 < v < 1 − u 2 , -1 < u < 1.
6.2.5.-Si la función de densidad conjunta de las variables aleatorias X e Y está
dada por:
 3
f X,Y (x, y) =  7
(2 x 2 + xy) , 0 < x < 1, 0 < y < 2
0 , en otro caso
a) Hallar la densidad marginal de X.
 1 1
b) Calcular P  Y > X< .
 2 2
c) Hallar la distribución acumulada de X e Y.
SOLUCION:
a) Por definición,
∞ 2
3
∫f ∫ 7 (2 x
2
f X (x) = X,Y (x, y)dy = + xy)dy
−∞ 0
2
3  2 xy 2  6
 = 7 (2 x + x)
2
=
7  2 x y+
 2 0
6 2
(
 2x + x , 0 < x <1
Entonces: f X (x) =  7
)
0 , en otro caso
178 Hugo Cornejo Villena & Hugo Cornejo Rosell.

 1 1
P X < , Y >
 1 1 2 
X< = 
2
b) P Y >
 2 2  1
P X < 
 2
1 1
2 2
2 2
3
∫ ∫ f X,Y (x, y)dydx ∫ ∫ 7 (2 x
2
+ xy)dydx
0 1 0 1
= 2
1 = 2
1
2 2
6
∫f ∫ 7 (2 x
2
X (x)dx + x)dx
0 0
1 2 1

3  2 xy 
2 2 2
 15 x 
∫0 7 2 x y+ 2  dx 1 ∫  3x
2
+  dx
1/ 2 0
8 
= =

6 2x 3
x 2 1/ 2
 2 5
+ 
7  3 2 0 24
1/ 2
12  3 15 2  12  1 15  69
= x + x =  +  = .
5  16  0 5  8 64  80
c) La distribución acumulada de X e Y es:
x y x y
3
∫ ∫ f X,Y (x, y)dydx = ∫ ∫ 7 (2 x
2
FX,Y (x, y) = + xy) dydx
-∞ -∞ 0 0
y
3  2 xy 
x
3  2 xy 2 
2 x
=
7 ∫0 2 x y+ 2  dx = 7 ∫0  2 x y+ 2  dx
0

3 2 3 x y  2 2
3 2
=  x y+  = x y(8 x+ 3 y) ; 0<x<1, 0<y<2
7 3 4  84

Es decir
0 , x ≤ 0, y ≤ 0
3

FX,Y (x, y) =  x 2 y ( 8 x+ 3 y ) , 0 < x < 1, 0 < y < 2
 84
1 , x ≥ 1, y ≥ 2
Introducción al Cálculo de Probabilidades 179

6.2.6.-Si X e Y representan las duraciones, en años, de dos componentes en


un sistema electrónico. Si la función de densidad conjunta de estas
variables es:
e- (x+ y) , x > 0, y > 0
f X,Y (x, y) = 
0 , en cualquier otro caso
a) Determinar las funciones de densidad marginal para ambas variables
aleatorias.
b) Determinar si X e Y son independientes.
c) Calcular P [1 < Y < 3 X = 2] .
d) Calcular P [ 0 < X < 1 Y = 2] .
SOLUCION:
a) Por definición:
∞ ∞

∫ f X,Y (x, y)dy = ∫ e dy


-(x+ y)
i) f X (x) =
−∞ 0

=  -e-(x+ y)  = e- x
0
Luego, la función de densidad marginal para X es:
e - x , x>0
f X (x) = 
0 , en otro caso
∞ ∞

∫ f X,Y (x, y)dx = ∫ e dx = -e  = e
-(x+ y) -(x+ y) -y
ii) f Y (y) =
0
−∞ 0
Luego la función de densidad marginal para Y es:
e - y , y>0
f Y (y) = 
0 , en otro caso
b) Como
f X,Y (x, y) = e-(x+ y) = e- x e- y = f X (x) f Y (y) , ∀ (x , y).
Entonces, afirmamos que X e Y son independientes.
c) Para x > 0, y > 0, tenemos:
e(
- x+ y )
f X,Y (x, y)
fY X ( y x ) = = = e- y
f X (x) e- x
Luego:
3 3
P [1 < Y < 3 X = 2] = ∫ f Y X ( y x ) dy = ∫ e- y dy = -e- y 
3

1
1 1
180 Hugo Cornejo Villena & Hugo Cornejo Rosell.

1 1
= - e −3 + e −1 = - ≅ 0 − 3680 − (0.0498) ≅ 0.3182 .
e e3
d) Para x > 0, y > 0, tenemos
e(
- x+ y )
f X,Y (x, y)
f X/ Y ( x/ y ) = = = e- x
f Y (y) e- y
luego,
1 1
P [ 0 < X < 1 Y = 2] = ∫ f X Y ( x y ) dx = ∫ e- x dx = -e- x 
1

0
0 0

1
= - e −1 + e 0 = 1 - e −1 = 1 - ≅ 1 − 0.3680 ≅ 0.632 .
e
6.2.7.-La función de densidad de probabilidad conjunta de las variables
aleatorias X, Y, Z es
 4 xyz 2
 , 0 < x < 1, 0 < y < 1, 0 < z < 3
f ( x, y, z ) =  9

0 , en cualquier otro caso
Hallar:
a) La función de densidad marginal conjunta de Y y Z.
b) La densidad marginal de Y.
1 1 1 
c) P  < X < , Y > , 1 < Z < 2
4 2 3 
 1 1 
d) P 0 < X < Y = , Z = 2
 2 4 
e) P [ X > 0, Z < 2 Y = 1]
SOLUCION:
a) Por definición,
∞ 1
4 xyz 2
f Y,Z (y, z) = ∫ f X,Y,Z (x, y, z)dx =
−∞
∫0 9 dx
1
 4 x2 2  2
=  yz  = yz 2 ;
9 2 0 9
Luego, la función de densidad marginal conjunta de Y y Z es:
Introducción al Cálculo de Probabilidades 181

 2 yz 2
 , 0 < y < 1, 0 < z < 3
f Y,Z (y, z) =  9
0 , en cualquier otro caso

b) De a) y aplicando la definición tenemos:


∞ 3
2 2 3 3
∫ f Y,Z (y, z)dz = ∫ 9 yz dz = yz  = 2 y
2
f Y (y) =
−∞ 0 27 0

Luego, la función de densidad marginal de Y es:

2 y , 0 < y < 1
f Y (y) = 
0 , en cualquier otro caso
1
∞2
1 1 1 
2

c) P  < X < , Y > , 1 < Z < 2  = ∫ ∫ ∫ f X,Y,Z ( x, y, z ) dzdydx


4 2 3  14 13 1
1 1 1
1 2 1 2 1
2
4 xyz 2 2
4 3
2
28
=∫∫∫ dzdydx = ∫1 ∫1  27 xyz 1 dydx = ∫ ∫ 27 xy dydx
1 1 1 9 1 1
4 3 4 3 4 3
1 1
1 1/ 2
 14 2 
2
112  56 2 
2
56 × 3 7
= ∫  xy  dx = ∫ x dx =  x  = = .
1  27  1 1 243  243 1/ 4
243 × 16 162
4 3 4

d) Para 0 < x < 1, 0 < y < 1, 0 < z < 3, tenemos


4
f X,Y,Z (x, y, z) xyz 2
f X/ Y,Z ( x/ y, z ) = = 9 =2x
f Y,Z (y, z) 2 2
yz
9
Luego,
1

 1 1 
2

P 0 < X < Y = , Z = 2  = ∫ f X Y,Z ( x y, z ) dx


 2 4  0
1
2
2 1/ 2 1
= ∫ 2 xdx =  x
0
 = .
0 4
e) Para 0 < x < 1, 0 < y < 1, 0 < z < 3, tenemos:
182 Hugo Cornejo Villena & Hugo Cornejo Rosell.

4
f X,Y,Z (x, y, z) xyz 2
2
f X,Z Y ( x, z y ) = = 9 = xz 2
f Y (y) 2y 9
Luego,
2
12 2 1
2 
P [ X > 0, Z < 2 Y = 1] = ∫ ∫ xz 2 dzdx = ∫  xz 3  dx
00 9 0  27 0
1
116 8  8
= ∫ xdx =  x 2  =
0 27  27  0 27
6. 3. DENSIDAD DE LAS FUNCIONES DE VARIABLES
ALEATORIAS
Consideremos n variables aleatorias continuas: X1 , X 2 , …, X n que
tienen una distribución conjunta. Muchas veces se presenta la necesidad de
calcular una función de densidad para una variable aleatoria Y que está en
función de: X1 , X 2 , …, X n ; tales como, Y puede ser la suma de esas n
variables aleatorias, o la suma de sus cuadrados, o la razón entre X1 y X 2 .
En esta sección se explica la técnica adecuada para obtener una densidad
de las variables Y de este tipo. Para tal fin estableceremos dos teoremas cuyas
demostraciones omitimos:
TEOREMA 6.3.1
Sean X1 , X 2 , …, X n , n variables aleatorias continuas que tienen
distribución conjunta. Sea u1 = u1 ( x1 ,..., x n ) , … , un = un ( x1 ,..., x n ) una
( )
función continua del espacio euclidiano n-dimensional, E n , en sí mismo.
( )
Sea T ⊂ E n definido por:
T = {( x1 ,..., x n ) / u1 ( x1 ,..., x n ) ≤ a1 ,..., u n ( x1 ,..., x n ) ≤ a n }
en donde a1 ,...,a n son constantes, entonces
P ( X1 ,..., X n ) ∈ T  = ∫ ..∫ ...∫ f X1 ,...,X n ( x1 ,..., x n ) dx1 ...dx n
T
El caso más general de este teorema, que será utilizado en lo que sigue,
se enuncia así:
( )
Si T es un subconjunto del espacio E n , con la condición de que
{ }
w/ ( X1 (w),..., X n (w) ) ∈ T = ( X1 ,..., X n ) ∈ T  ∈ A
(es decir, es un evento), se tiene
Introducción al Cálculo de Probabilidades 183

P ( X1 ,..., X n ) ∈ T  = ∫ ..∫ ...∫ f X1 ,...,X n ( x1 ,..., x n ) dx1 ...dx n


T
siempre que exista la integral de la derecha.
TEOREMA 6.3.2
Sea H ( x1 ,..., x n ) una función multivariable real con a1 ≤ x1 ≤ b1 , …,
a n ≤ x n ≤ bn , supongamos que: u1 = u1 ( x1 ,..., x n ) , … ,
u n = u n ( x1 ,..., x n ) sea una aplicación uno a uno de E ( n ) sobre sí mismo, es
decir, que sobre el rango de esta transformación está definida la
transformación inversa: x1 = x1 ( u1 ,..., u n ) , …, x n = x n ( u1 ,..., u n ) .
Supongamos que ambas transformaciones son continuas; en tercer lugar,
∂ xi
supongamos que existen y son continuas las n 2 derivadas parciales con
∂uj
1 ≤ i ≤ n, 1 ≤ j ≤ n . Finalmente, supongamos que el determinante Jacobiano:
∂ x1 ∂ x1 ∂ x1
...
∂ u1 ∂ u2 ∂ un
∂ x2 ∂ x2 ∂ x2
...
∂ u1 ∂ u2 ∂ un
∂ ( x1 ,..., x n )
J= = . . .
∂ ( u1 ,..., u n )
. . .
. . .
∂ xn ∂ xn ∂ xn
...
∂ u1 ∂ u2 ∂ un
no se anule para ningún ( u1 ,..., u n ) ∈ R, donde
R= {( u ,..., u ) / a
1 n i ≤ x i ( u1 ,..., u n ) ≤ bi ;1 ≤ i ≤ n}
Con estas hipótesis es válido la fórmula:
b1 bn

∫ ... ∫ H ( x ,..., x ) dx ...dx = ∫ .. .∫ H ( x ( u ,...,u ) ,..., x ( u ,...,u ) ) J du ...du


a1 an
1 n 1 n
R
1 1 n n 1 n 1 n

Esta fórmula, es la llamada fórmula para el cambio de variable en las


integrales múltiples. Resulta familiar esta fórmula aplicada al caso particular
de las coordenadas polares, donde n = 2, u1 = r , u 2 = θ , x1 = x , x 2 = y ;
184 Hugo Cornejo Villena & Hugo Cornejo Rosell.

∂x ∂x
x = r cos θ , y = r sen θ ; por consiguiente: = cosθ , =
− r sen θ ,
∂r ∂θ
∂y ∂y
= sen θ , = r cos θ . El Jacobiano es
∂r ∂θ

∂ ( x, y ) cos θ − r sen θ
J= = =r
∂ ( r, θ ) sen θ r cos θ
de donde
b1 b 2

∫ ∫ H ( x, y ) dxdy = ∫
a1 a 2 R
∫ H(r cos θ, r sen θ)rdrdθ

en donde R = {( r, θ ) / a 1 ≤ rcos θ ≤ b1 ,a 2 ≤ rsen θ ≤ b 2 } . Que es la fórmula


conocida para el paso de las integrales dobles a coordenadas polares.
Pasamos ahora a establecer el teorema básico de esta sección.
TEOREMA 6.3.3
Sean X1 , X 2 , …, X n , n variables aleatorias continuas con una distribución
conjunta. Sea u1 = u1 ( x1 ,..., x n ) , … , u n = u n ( x1 ,..., x n ) una aplicación
( )
del espacio euclidiano E n en sí mismo, que satisface a las condiciones
exigidas en el teorema del cambio de variables en las integrales múltiples. Sea
U i = u i (X1 ,..., X n ) , 1 ≤ i ≤ n . Entonces U1 ,..., U n tienen una distribución
conjunta continua y
( )
f U1 ,...,Un ( u1 ,..., u n ) = f X1 ,...,Xn x1 ( u1 ,..., u n ) ,..., x n ( u1 ,..., u n ) J ; donde:
∂ ( x1 ,...x n )
J=
∂ ( u1 ,..., u n )
DEMOSTRACION:
Para ( v1 ,..., v n ) ∈ E n sea R =
( )
{( x ,..., x ) / u ( x ,..., x ) ≤ v ,1 ≤ i ≤ n}
1 n i 1 n i

Por los dos teoremas formulados anteriormente, se tiene


FU1 ,..,Un ( v1 ,.., v n ) = P ( X1 ,.., X n ) ∈ R  = ∫ ....∫ f X1 ,..,Xn ( x1 ,.., x n ) dx1 ..dx n
R
v1 vn

= ∫ ... ∫ f X1 ,...,Xn ( x1 ( u1 ,..., u n ) ,..., x n ( u1 ,..., u n ) ) J du1 ...du n


−∞ −∞
Por otro lado
Introducción al Cálculo de Probabilidades 185

v1 vn

FU1 ,...,Un ( v1 ,..., v n ) = ∫ ... ∫ f X1 ,...,Xn ( u1 ,..., u n ) du1 ...du n


−∞ −∞
Por consiguiente
f U1 ,...,Un ( u1 ,..., u n ) = f X1 ,...,Xn ( x1 ( u1 ,..., u n ) ,..., x n ( u1 ,..., u n ) ) J , que
completa la demostración.
EJEMPLOS
6.3.1.-Supongamos
4 xy , 0 < x < 1, 0 < y < 1
f X,Y (x, y) = 
0 , en caso contrario
El problema consiste en hallar una densidad de un conjunto para X 2 , Y 2
Consideremos la transformación u = x 2 , v = y 2 ; o sea x = u ,
y = v ; el Jacobiano de la transformación es:
1
0
∂ ( x, y ) 2 u 1
= =
∂ ( u, v ) 1 4 uv
0
2 v
Por el teorema 6.3.3 se obtiene:

1 , 0 < u < 1, 0 < v < 1


f U,V (u, v) = 
0 , en caso contrario
6.3.2.-Sea
3x , 0 < y < x, 0 < x < 1
f X,Y (x, y) = 
0 , en caso contrario
El problema consiste en hallar la densidad de Z = X - Y, para este caso
consideremos la transformación z = x - y, w = y de la que se obtiene x
= z + w, y = w. El Jacobiano de la transformación es:
∂ ( x, y ) 1 1
= =1
∂ ( z, w ) 0 1
Las desigualdades 0 < y < x, 0 < x < 1, son equivalentes a
0 < w < w + z, 0 < z + w <1. Estas dos implican que 0 < w < 1 - z.
Por el teorema 6.2.1 se obtiene:
186 Hugo Cornejo Villena & Hugo Cornejo Rosell.

1-z
f Z (z) = ∫f
0
Z,W (z, w) dw

1-z  (1- z 2 )
3 , 0 < z <1
= ∫ 3(z+ w)dw =  2
0 0 , en caso contrario

6.3.3.-Supongamos
- ( x+ y+z )
e , x > 0, y > 0, z > 0
f X,Y,Z (x, y, z) =  ,
0 , en caso contrario
El problema consiste en calcular una densidad de U = (X+Y+Z) / 5.
Consideremos la transformación u = (x+ y+ z) / 5, v = y , w = z, de la
que se obtienen, como transformaciones inversas:
x = 5 u - v - w , y = v , z = w. El Jacobiano de transformación está
dado por:
5 −1 1
∂ ( x, y, z )
J= = 0 1 0 =5
∂ ( u, v, w )
0 0 1
y por el teorema 6.3.3, una función de densidad conjunta de U, V, W
viene dada por
f U,V,W (u, v, w) = f X,Y,Z (x(u, v, w), y(u, v, w), z(u, v, w)) J
5e-5 u , 5u- v- w > 0, v > 0, w > 0
= 
0 , en caso contrario
Las dos desigualdades w > 0, 5u - v - w > 0, implican que
0 < w < 5u - v. Así
5 u-v -5 u
f U,V (u, v) =  ∫0
 5e dw , 5u- v > 0, v > 0
0 , en caso contrario

Finalmente:
5 u 5 u-v -5 u 125 2 -5 u
 ∫ dv ∫ 5e dw = ue , u>0
f U (u) =  0 0 2
0 , en caso contrario

Introducción al Cálculo de Probabilidades 187

EJERCICIOS
1.- Determinar el valor de k, para que cada una de las siguientes funciones
de densidad:
 2
( )
-1/ 2
a) f(x) = k 1- x 2 , ∀ x ∈  0, 
 2 
b) f(x) = k (1 + x ) , ∀ x ∈ ]−1,1[
2k
c) f(x) = , ∀x ∈฀
1 + x2
4 kx , si 0 ≤ x ≤ 1
d) f(x) = 
k(5 - x) , si 1 ≤ x ≤ 5
2.- Sea una variable aleatoria cuya función de densidad es:
0 , x≤0
α(1 + x) , 0 < x ≤1

f X (x) =  2
3 , 1< x ≤ 2

0 , x>2
a) Obtener el valor de α.
b) P [ 0.5 < x ≤ 1.5]
3.- Sea X una variable aleatoria continua, cuya función de densidad es:
ke- 5
x
, x>0
f X (x) = 
0 , en caso contrario
a) Determinar el valor de k.
b) Calcular P [ X ≤ 5] y P [ 0 ≤ X ≤ 8] .
c) Graficar f X ( x ) .
d) Determinar FX ( x ) y graficar.
4.- Si la función de densidad de probabilidad de una variable aleatoria está
dada por:
x , 0 < x <1

f X (x) = 2 - x , 1 ≤ x < 2
0 , en caso contrario

a) Hallar P [ X > 1.8] .
188 Hugo Cornejo Villena & Hugo Cornejo Rosell.

b) Hallar P [ 0.4 < X < 1.6] .


c) Determinar FX (x) y graficar.
5.- Si X es una variable aleatoria continua con función de densidad:
0 , x<0
kx , 0 ≤ x < 500

f X ( x ) = f X (x) = 
k(1000 - x) , 500 ≤ x < 1000
0 , x ≥ 1000
a) Hallar la constante k.
b) Calcular P [ 250 ≤ X ≤ 750]
c) Determinar la función de distribución acumulada FX (x) y graficar.
6.- Si la función de densidad de una variable aleatoria X está dada por:
1
 x , si 0 ≤ x ≤ 4
f X (x) =  8
0 , en otros casos
1
a) Determinar el valor de t, tal que P [ X ≤ t ] =
4
1
b) Determinar el valor de t, tal que P [ X > t ] =
2
c) Determine la función de distribución acumulada FX (x) .
7.- El tiempo en horas, que una familia ve televisión durante el día es una
variable aleatoria X, con función de densidad:
kx , 0≤x<2
2 k , 2≤x<6

f X (x) = 
-k(x- 8) , 6≤x <8
0 , en otros casos
a) Hallar k y calcular la probabilidad de que la familia mire televisión
entre 1 y 7 horas.
b) Determinar la función de distribución acumulada FX (x) .
8.- El tiempo de vida en meses de un producto perecible es una variable
aleatoria continua X, con función de densidad:
ke- mx , x ≥ 0, m > 0
f X (x) = 
0 , x<0
Introducción al Cálculo de Probabilidades 189

a) Hallar el valor de la constante k.


b) Calcular la función de distribución acumulada FX (x) .
1
c) Si m = . ¿Cuál es la probabilidad de que el producto dure al
4
menos 4 meses?
9.- Una variable aleatoria continua X, que puede tomar valores entre x = 2 y
2(1 + x)
x = 5 tiene una función de densidad: f X (x) = . Hallar:
27
a) P [ X < 4]
b) P [3 < X < 4]
c) FX (x)
10.- Una firma de inversiones ofrece a sus clientes bonos de reconstrucción
nacional que vencen después de diferentes números de años. Si la
distribución acumulada de T, del número de años para el vencimiento de
un bono seleccionada aleatoriamente, es:
0 , t <1
1
 , 1≤ t < 3
4
 1
FT (t) =  , 3≤ t <5
2
3
 , 5£ t <7
4
1 , t ³7
Hallar:
a) P [ T = 5]
b) P [ T > 3]
c) P [1.4 < T < 6]
11.- La duración en horas de un componente electrónico, es una variable
aleatoria cuya función de distribución acumulada es
x
− 100
FX (x) = 1 − e , x>0
a) Determinar la función de probabilidad de X.
b) Determinar la probabilidad de que el componente trabaje más de 200
horas.
190 Hugo Cornejo Villena & Hugo Cornejo Rosell.

12.- La función de distribución acumulada de una variable aleatoria X está


dada por:
0 , x<0

FX (x) = 2 x- x 2 , 0 ≤ x <1
1 , x ≥1

a) Graficar FX (x) .
b) Hallar P [ X < 1 / 2] y P [ X > 3 / 4]
c) Determinar f X (x) .
13.- Si la función de distribución de una variable aleatoria X está dada por:
 4
1- , para x > 2
FX (x) =  x 2
0 , para x ≤ 2
Hallar la probabilidad de que esta variable aleatoria asuma un valor
a) menor que 3.
b) entre 4 y 5.
14.- Si la función de distribución de una variable aleatoria X está dada por:
0 , x<0
 2 , 0 ≤ x <1/ 2
x
FX (x) = 
1- 3(1- x)
2
, 1/ 2 ≤ x <1
1 , x ≥1
Hallar:
a) f X (x) .
b) P [ 0 < X < 3] .
15.- Verifique que
0 , x < -1
 x+1

FX (x) =  , -1 ≤ x < 1
 2
1 , x >1
es una función de distribución.
a) Hallar la función de densidad de X.
 1 1
b) Calcular P - ≤ X ≤ 
 2 2
Introducción al Cálculo de Probabilidades 191

16.- Dada una variable aleatoria no negativa X, con función de densidad f X ,


se define su riesgo como la función:
f X (t)
rX (t) = , ∀t > 0
1- FX (t)
siendo FX la función de distribución de X.
a) Determinar la función de distribución a partir de la función de
riesgo.
b) Calcular el riesgo de una variable con distribución
FX (t) = 1- eat , ∀ t ≥ 0 , a > 0 .
17.- Si la utilidad de un distribuidor, en unidades de $1,000; en la venta de un
nuevo automóvil es X = Y 2 , donde X es una variable aleatoria con una
función de densidad:
2(1- x) , 0 < x < 1
f X (x) = 
0 , en caso contrario
a) Encuentre la función de densidad de probabilidad de la variable
aleatoria Y.
b) Utilizando la función de densidad de Y, encuentre la probabilidad
de que la utilidad sea menor a $250 en el siguiente automóvil que
venda este distribuidor.
18.- El período de hospitalización en días, para pacientes que siguen un
tratamiento para un cierto tipo de desorden renal, es una variable aleatoria
Y = X + 4, donde X tiene la función de densidad:
 32
 , x>0
f X (x) =  (x+ 4)3
0 , en otro caso

a) Encuentre la función de densidad de probabilidad de la variable
aleatoria Y.
b) Utilizando la función de densidad de Y, hallar la probabilidad de que
el período de hospitalización para un paciente que sigue este
tratamiento exceda los 8 días.
19.- Si la función de densidad conjunta de las variables aleatorias X e Y está
dada por:
1
 , si 0 < y < x ,0 < x < 1
f X,Y (x, y) =  x
0 , en caso contrario
Encontrar las densidades marginales para X e Y.
192 Hugo Cornejo Villena & Hugo Cornejo Rosell.

20.- Si la función de densidad conjunta de las variables aleatorias X e Y, está


1
dado por: f X,Y (x, y) = , para (x, y ) en el interior del cuadrado de
2
vértices ( a , a ), ( a , -a ) , ( -a , a ), ( -a , -a ) y que f X,Y (x, y) = 0, en
caso contrario.
a) Hallar a.
b) Encontrar la densidad marginal para X e Y.
21.- Si la función de densidad conjunta de las variables aleatorias X e Y, está
dada por:
 3x- y
 , si 1 < x < 2, 1 < y < 3
f X,Y (x, y) =  5
0 , en otro caso
a) Hallar la función de distribución conjunta acumulativa.
b) ¿Cuál es la probabilidad conjunta de X < 3/2 y Y < 2?
c) Mediante el empleo de su respuesta de a), obtener las distribuciones
acumulativas marginales de X e Y.
d) Encontrar las funciones de densidad marginal de X y de Y.
22.- En función de su prioridad, un programa para computadora espera en la
fila de entrada cierto tiempo, después del cual lo ejecuta el procesador
central en un lapso dado. La función de densidad conjunta para los
tiempos de espera y ejecución se determina por:
 -( t51 +10 t 2 )
f ( t1 , t 2 ) = 2e , t1 , t 2 > 0
0 , en otro caso
a) Hallar la distribución conjunta acumulativa.
b) Encontrar la probabilidad conjunta, de que el tiempo de espera no
sea mayor de 8 minutos y el de ejecución no sea mayor de 12
segundos.
c) Obtener las funciones de densidad marginal y deducir que estos
lapsos son variables aleatorias independientes.
23.- Si la función de distribución conjunta de (X, Y) está dada por:
0 , si t1 < 0 o t 2 < 0
FX,Y ( t1 , t 2 ) =  - lt1 - lt 2 - l(t1 +t 2 )
1- e - e + e , si t1 ≥ 0 , t 2 ≥ 0
Hallar f X,Y ( t1 , t 2 ) .
24.- Hallar el valor de k tal que la función:
Introducción al Cálculo de Probabilidades 193

 x
k , 0 < x <1 , 1< y < 2
f X,Y ( x, y ) =  y
0 , en otros casos

Sea una función de densidad de (X, Y).
25.- Demostrar que:
P [ a < X ≤ b , Y=
≤ d ] FX,Y ( b,a ) − FX,Y ( a,d )
(Sugerencia: Haga un dibujo)
26.- Demostrar que:
P[a < X ≤ b , c < Y ≤ d ] = FX ,Y (b, d ) - FX ,Y (a , a ) -
FX ,Y (b, c ) - FX ,Y (a , c ) .
(Sugerencia: Use el problema anterior y un nuevo dibujo)
27.- La función de densidad conjunta de las variables aleatorias X e Y está
dada por:
4 xy , 0 < x < 1 , 0 < y < 1
f X,Y ( x, y ) = 
0 , en cualquier otro caso
Encuentre
a) P[0 ≤ X ≤ 3 / 4 , 1/8 ≤ Y ≤ 1 / 2] ,
b) P [Y > X] .
28.- Dada la función de densidad conjunta
 6 - x- y
 , 0<x<2 , 0<y<4
f X,Y ( x, y ) =  8
0 , en otros casos
Hallar: P [1 < Y < 3 X = 2] .
29.- La cantidad de gasolina, en miles de litros, en un tanque al principio del
día es una cantidad aleatoria Y, de la cual una cantidad aleatoria X se
vende durante el día. Supongamos que el tanque no se rellena durante el
día, de manera que x ≤ y , y supongamos que la función de densidad
conjunta de estas variables es:
2 , 0 < x < y , 0 < y < 1
f X,Y ( x, y ) = 
0 , en otro caso
a) Determinar si X e Y son independientes.
b) Encuentre P [1 / 2 < X < 1 / 2 Y = 3 / 4]
194 Hugo Cornejo Villena & Hugo Cornejo Rosell.

30.- La función de densidad conjunta de las variables aleatorias X e Y está


dada por:
k(x 2 + y) , 0 ≤ y ≤ 1- x 2
f X,Y ( x, y ) = 
0 , en otro caso
Determinar:
a) El valor de la constante k.
b) P [ 0 £ X £ 1 / 2]
c) P [ Y ≤ X+1]
d) P [0 ≤ X ≤ 1 / 2 Y = 1 / 2]
e) P [ 0 ≤ Y < 1 / X = 1 / 4]
31.- Si las dos variables aleatorias tienen la densidad conjunta:
6 2
 (x+ y ) , si 0 < x < 1, 0 < y < 1
f X,Y ( x, y ) =  5
0 , en caso contrario
Hallar:
a) Una expresión para f X Y (X Y) , cuando 0 < y < 1.
b) Una expresión para f X Y (X 12 ) .
1 1
c) f X/ Y ( / ).
24 2
32.- Si tres variables aleatorias tienen la densidad conjunta
 -z
si 0 < x < 1,
k(x+ y)e ,
f X,Y,Z ( x, y, z ) =  0 < y < 2, z>0

0 , en otros casos
a) Hallar el valor de k.
b) Encontrar la probabilidad de que x < y y z > 1.
c) Verifique si las tres variables son independientes.
d) Verifique si dos cualesquiera de las tres variables son
independientes por partes.
33.- Se ensayan dos tubos de vacío hasta que fallan. Sea X el tiempo de falla
menor y sea Y el tiempo de falla mayor. La función de densidad conjunta
está dada por:
Introducción al Cálculo de Probabilidades 195

 2 -( 2 + m )
 e 100 100 , 0<x<y
f X,Y ( x, y ) =  (100) 2

0 , en otros casos

a) Hallar las densidades marginales de X e Y.
b) ¿Son X e Y independientes?
c) Hallar la densidad condicional de Y dado X = 60.
34.- Sea
9 x 2 y 2 , 0 < x < 1 , 0 < y ≤ 1
f X,Y ( x, y ) = 
0 , en otros casos
Con U = X 3 y V = Y 3 , calcular f U,V ( u, v ) y f U ( u ) .
35.- Sea
 3x
 , 0 < x <1 , - x < y < x
f X,Y ( x, y ) =  2
0 , en caso cantrario
Calcular la densidad de X - Y.
36.- Sea
f X1 ,X2 ,X3 ,X4 ( x1 , x 2 , x 3 , x 4 ) =
e-( x1 + x 2 + x3 + x 4 ) , si x1 > 0, x 2 > 0, x 3 > 0, x 4 > 0

0 , en caso cantrario

Hallar la densidad de: X1 + X 2 + X 3 + X 4 .


37.- Sea
f X1 ,X2 ,X3 ,X4 ,X5 ( x1 , x 2 , x 3 , x 4 , x 5 ) =
 -∑ xi
5

e i=1 , si x i > 0, i = 1, 2,3, 4,5



0 , en caso cantrario

X1 + X 2 + X 3 + X 4 + X 5
Calcular la densidad de: .
5
CAPÍTULO 7: TIPOS ESPECIALES DE
DISTRIBUCIONES CONTINUAS

7. 1. DISTRIBUCIONES GAMMA Y BETA


DEFINICION 7.1.1

La función gamma, es aquella definida por la integral: ∫ x p −1e − x dx , donde
0
p > 0 y denotada por: Γ(p ) ; es decir:

Γ(p ) = ∫ x p −1e − x dx , ∀ p>0.
0
TEOREMA 7.1.1
Si p>0, entonces Γ(p + 1) = p Γ(p )
DEMOSTRACION:

Por definición: Γ(p + 1) = ∫ x p e − x dx , luego integrando por partes:
0

Sean: u = x p
du = px p−1
dx y dv = e − x dx v = −e − x
Entonces
b  b

Γ(p + 1) = lim ∫ x p e − x dx = lim  − x p e − x + p ∫ e − x x p −1dx 
b →∞ 0 b →∞  0 
= lim − x e
b →∞
(
p −x
)] b
0

+ p ∫ x p−1e − x dx
0
Es fácil ver que:
[p ] +1
p −b b
0 ≤ lim b e ≤ lim
b →∞ ex b →∞

Calculando este último límite, por aplicación de la regla de L’ Hospital p + 1


veces, se obtiene:
p −b p −b
0 ≤ lim b e ≤ 0 , o lim b e = 0
b →∞ b →∞
De aquí que,

Γ(p + 1) = p ∫ x p −1e − x dx = p Γ(p ) , ∀ p>0.
0
COROLARIO 7.1.1
Si p ∈ , entonces Γ(p + 1) = p!
DEMOSTRACION:
Demostraremos utilizando el axioma de inducción:
i) Sea p = 1 por el teorema 7.1.1 se tiene
Introducción al Cálculo de Probabilidades 197

Γ(1+ 1) = 1 Γ(1)
Pero

b →∞
b

b →∞
(
Γ(1) = ∫ x 0 e − x dx = lim ∫ e − x dx = lim − e − x )
b
0 (
= lim 1 − e
b →∞
)
−b
=1
0 0
Por consiguiente: Γ(2 ) = 1.
ii) Supongamos que para p = n, se cumple: Γ(p + 1) = Γ(n + 1) = n!
iii) Sea p = n +1 , entonces Γ(p + 1) = Γ(n + 1 + 1) = Γ(n + 2 )
Por el teorema 7.1.1 y i) obtenemos:
Γ(n + 1 + 1) = (n + 1)Γ(n ) = (n + 1)n! = (n + 1)!
Por lo tanto: Γ(p + 1) = p! .
COROLARIO 7.1.2
1
Γ  = π
2
DEMOSTRACION:
 1  ∞ −1
Γ  = ∫ x 2 e − x dx
2 0
1 ∞
Sea x = z 2 (z > 0 ) dx = 2zdz , luego Γ  = 2 ∫ e − z dz
2

2 0

1 1 2 1 
Como Γ  > 0, por lo que Γ  es la raíz cuadrada positiva de Γ   .
2 2 2
2 1 
Pero Γ   = 4 ∫ e − x dx ∫ e − y dy = 4 ∫ ∫ e − (x + y )dxdy
∞ 2 ∞ 2 ∞∞ 2 2

2 0 0 00
Aplicando la transformación: x = r cos θ , y = r sen θ
El Jacobiano de esta transformación es r, y se tiene
{(x, y ) / 0 < x < ∞ , 0 < y < ∞} = (r, θ) / 0 < r < ∞ , 0 < θ < π 
 2
Por consiguiente:
π
1 2 ∞ 2 1
Γ 2   = 4 ∫ dθ ∫ e −r rdr = π y Γ  = π .
2 0 0 2
DEFINICION 7.1.2
Sea X una variable aleatoria continua que toma valores positivos. Decimos
que X tiene una distribución gamma con parámetros α y β, si su función
densidad está dada por:
198 Hugo Cornejo Villena & Hugo Cornejo Rosell.

 β

f X (x ) =  Γ(α )
(βx )α−1 e −βx , si x > 0
0 , en caso contrario
Esta distribución depende de los dos parámetros:α y β, que son números reales
positivos y obviamente Γ(α ) es la función gamma.
Mediante la función gamma; demostraremos que, en efecto f X (x ) dada
en la definición 7.1.2, es una función de densidad de probabilidad. Para tal
efecto, consideremos un cambio de variable de integración, tal que: u = βx y
du = βdx , entonces:
∞ ∞ β ∞ 1 ∞ α −1 − u
f
∫ X (x )dx = f
∫ X (x )dx = ∫ (β x )α −1 −βx
e dx = ∫ u e du
−∞ 0 Γ(α ) 0 Γ(α ) 0
1
= Γ(α ) = 1.
Γ(α )
La función de distribución acumulada está dada por:
 β α x α −1 −βx

P[X ≤ x ] = FX (x; α, β ) =  Γ(α ) 0∫ x e dx , si x > 0
0 , en otro caso
La distribución gamma es muy variante o versátil ya que presenta varios
perfiles que dependen del valor del parámetro α. En el siguiente gráfico se
presenta distintos perfiles de la función de densidad gamma para distintos
valores de α y β.

Gráfica de la función gamma para distintos valores de α y β


Introducción al Cálculo de Probabilidades 199

Podemos observar que, para α ≤ 1, la distribución gamma tiene una forma


de J transpuesta y para α > 1, presenta una cúspide que ocurre en x = β (α
- 1 ).
Esta distribución se emplea para representar problemas donde el tiempo
aleatorio de falla de un sistema ocurre, siempre que los componentes fallan y
1
la falla de cada componente ocurre a una frecuencia constante λ = por
β
unidad de tiempo; también se aplica en problemas de líneas de espera, para
representar el intervalo total para completar una reparación, si ésta se lleva a
cabo en subestaciones; completar la reparación en cada subestación es un
1
evento independiente que ocurre a una frecuencia constante igual a λ =
β
Existen algunos ejemplos que no siguen el patrón anterior, pero que se
aproximan de manera adecuada mediante el ejemplo de la distribución
gamma, como los ingresos familiares, la edad de la mujer al contraer
matrimonio por primera vez, etc. También es preciso indicar que la
distribución gamma describe la función de densidad de la variable aleatoria,
que representa el tiempo que transcurre hasta que ocurre un número específico
de eventos de Poisson con parámetro λ ; este número específico es el
parámetro α y β = λ , en la función de densidad gamma.
EJEMPLO
7.1.1.-Supongamos que llegan llamadas telefónicas en un conmutador en
particular y que siguen el proceso de Poisson con un promedio de 5
llamadas por minuto. ¿Cuál es la probabilidad de que pase hasta 1 minuto,
antes de que lleguen 2 llamadas?
SOLUCION:
Sea la variable aleatoria X el tiempo que transcurre antes de que lleguen
2 llamadas, entonces X tiene distribución gamma con parámetros α = 2
y β = 5. La probabilidad de que transcurra hasta x minutos antes de que
lleguen 2 llamadas es:
5 2 x 2−1 −5 x x
P[X ≤ x ] = ∫ x e dx = 25 ∫ xe dx , donde Γ(2 ) = 1 .
−5 x
Γ(2 ) 0 0

[ ]
1
Luego P[X ≤ 1] = 25 ∫ xe −5 x dx = 1 − e −5 (1 + 5) = 0.96.
0
Es destacable manifestar la importancia de la distribución gamma que
radica en el hecho de que define una familia de la cual otras distribuciones son
casos especiales; así tenemos que cuando α es un entero positivo n, la
distribución gamma se conoce como distribución Erlanh, en honor del
200 Hugo Cornejo Villena & Hugo Cornejo Rosell.

científico danés A. K. Erlang (1878 - 1929) que la usó por primera vez a
principios del año 1900 a fin de establecer resultados útiles para problemas de
tráfico en líneas telefónicas y que su función de densidad está dada por:
 βn n −1 −βx

f X (x ) =  (n − 1)! x e , si x > 0
0 , en otro caso
También son casos especiales de la función gamma las distribuciones:
Exponencial, Ji-cuadrada y Weibull y están íntimamente relacionadas con la
distribución beta; definiciones que veremos en las secciones posteriores.
DEFINICION 7.1.3
1
La función beta, es aquella definida por la integral ∫ x p −1 (1 − x )q −1 dx ,
0
denotada por β(p, q ) , donde p y q son positivos. Es decir:
1
β(p, q ) = ∫ x p −1 (1 − x )q −1 dx ; ∀ p>0 y q>0
0
La función beta tiene una íntima conexión con la función gamma, según
el siguiente teorema.
TEOREMA 7.1.3
Γ(p )Γ(q )
Si p>0 y q>0, entonces β(p, q ) = = β(q, p )
Γ(p + q )
DEMOSTRACION:
Por definición tenemos:
∞ ∞
Γ(p ) = ∫ z p −1e −z dz y Γ(q ) = ∫ w q −1e − w dw ,
0 0

Haciendo los cambios de variables: z = x y w = y 2 , obtenemos 2

∞ ∞
Γ(p ) = 2 ∫ x 2 p −1e − x dx y Γ(q ) = 2 ∫ y 2q −1e − y dy
2 2

0 0
Entonces:
∞ ∞
Γ(p ) Γ(q ) =4 ∫ x 2 p −1e − x dx ∫ y 2q −1e − y dy
2 2

0 0

=4 ∫ ∫ x 2 p −1 y 2q −1e − (x )dxdy
∞∞ 2
+ y2

00
Consideremos la transformación: x = r cos θ , y = r sen θ ; entonces:
π

Γ(p ) Γ(q ) = 4 ∫ dr ∫ (r cos θ)2 p −1 (r sen θ)2q −1 e −r rdθ
2 2

0 0
Introducción al Cálculo de Probabilidades 201

π

dr ∫ (cos θ) (sen θ)2q −1 rdθ
2
2 p + 2 q −1 − r 2 2 p −1
= 4 ∫r e
0 0
2
En la primera integral realicemos el cambio de variables: r = u , y en la
segunda: sen 2 θ = v , con lo que resulta:
∞ 1
Γ(p ) Γ(q ) = ∫ u p +q −1e −u du ∫ v q −1 (1 − v )p −1 dv
0 0
= Γ(p + q ) β(q, p ) , que demuestra el teorema.
DEFINICION 7.1.4
Sea X una variable aleatoria continua que toma valores positivos. Decimos
que X tiene una distribución beta con parámetros p y q, si su función
densidad está dada por:
 x p −1 (1 − x )q −1
 , si 0 < x < 1
f X (x ) =  β(p, q )
 0 , en otros casos

Esta distribución depende de los dos parámetros p y q, que son números reales
positivos.
La distribución beta es una función de densidad de probabilidad, ya que:
∞ 1 1 x p −1 (1 − x )q −1
∫ Xf (x )dx = ∫ Xf (x ) dx = ∫ dx
−∞ 0 0 β(p, q )
1 1 p −1 β(p, q )
∫ x (1 − x ) dx =
q −1
= =1
β(p, q ) 0 β(p, q )
La función de distribución acumulada está dada por:
0 ; x≤0
 1 x p −1
P[X ≤ x ] = FX ( x; p, q ) =  ∫ x (1 − x ) dx ; 0 < x < 1
q −1

 β (p , q ) 0
1 ; x ≥1
Las variables: p y q de la distribución beta son, ambas, parámetros de
perfil. Valores distintos de p y q dan como resultado distintos perfiles para la
función de densidad beta. Si p y q son menores que uno, la distribución beta
tiene un perfil en forma de U. Si p<1 y q≥1, la distribución tiene un perfil de
J transpuesta y si p≥1 y q<1, el perfil es una J. Cuando p y q son mayores que
p −1
uno, la distribución presenta un pico en x = . Finalmente, la
p+q−2
distribución beta es simétrica cuando p = q. En el siguiente gráfico se
encuentran ilustrados estos perfiles.
202 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Gráficos de la función de densidad beta, para distintos valores de p y q


Esta distribución beta es utilizada para problemas con variables físicas
cuyos valores se encuentran restringidos en un intervalo de longitud finita y
es preciso manifestar que, esta distribución juega un gran papel en la
estadística Bayesiana.
EJEMPLO
7.2.1.-Si la proporción de televisores de una marca que requieren servicio
durante el primer año de operación es una variable aleatoria que tiene una
distribución beta con p = 3 y q = 2. ¿Cuál es la probabilidad de que al
menos el 80% de los nuevos modelos que se vendan este año requieran
servicio durante su primer año de operación?
SOLUCION:
4
Como el 80% = , p = 3 y q = 2; entonces debemos calcular
5
Γ(β + 2) 5 2
4 4
 4  4 5
P X ≥  =1- P X <  =1- ∫ f X ( x )dx =1 ∫ x (1 − x )dx
 5  5 0 Γ(β)Γ(2) 0
4 4

Γ(5) 5 2 24  x 3 x 4  5
=1- 3
(
∫ x − x dx = 1 -
Γ(3)Γ(2 ) 0
)  − 
2 ×1  3 4 0
3
 4 1 1 768  2 
= 1 - 12    −  = 1 -  
 5 3 5 125  15 
1536
=1- = 1 - 0.8192 = 0.1808.
1875
Introducción al Cálculo de Probabilidades 203

7. 2. DISTRIBUCION NORMAL
La distribución normal o Gaussiana es la más importante y la de mayor
uso de todas las distribuciones continuas de probabilidad, debido a que en el
análisis de datos de muchos fenómenos que ocurren en la naturaleza, la
industria y la investigación tienden hacia la distribución normal conforme
crece el tamaño de la muestra. La gráfica de la distribución normal, que recibe
el nombre de curva normal, es una curva simétrica en forma de campana, que
se extiende sin límite tanto en la dirección positiva como en la negativa.
Algunos ejemplos específicos incluyen datos meteorológicos tales como la
temperatura y la precipitación fluvial, mediciones efectuadas en organismos
vivos, clasificaciones en pruebas de actitud, mediciones físicas de partes
manufacturadas, errores de instrumentación y otras desviaciones de las
normas establecidas, etc. Sin embargo, se debe tener cuidado al suponer para
una situación dada, un modelo de probabilidad normal sin previa
comprobación. Si bien es cierto que la distribución normal es la que tiene un
mayor uso, es también de la que más se abusa; quizá esto se deba a la mala
interpretación de la palabra “normal”, especialmente si se aplica su significado
literal de “patrón o estándar aceptado”.
La función de densidad de probabilidad de la distribución normal fue
descubierta por Abraham De Moivre en 1733 como una forma de límite de la
función de probabilidad binomial, después la estudió Laplace; también se
conoce como distribución Gaussiana, porque Karl Friedrich Gauss (1777-
1855) la citó en un artículo que publicó en 1809.
Una variable aleatoria continua X que tiene la distribución en forma de
campana, se llama variable aleatoria normal. La ecuación matemática para
la distribución de probabilidad de la variable normal depende de dos
parámetros µ y σ, llamadas media y desviación estándar, respectivamente
(como veremos en el capítulo siguiente).
DEFINICIÓN 7.2.1
Se dice que una variable aleatoria continua X, tiene una distribución normal,
con media  y varianza σ , si su función de densidad está dada por:
2

( x − u )2
1 −
f X (x) = e 2σ2
, si - ∞ < x < ∞ , −∞ < µ < ∞ , σ >0
2 πσ
( )
Suele expresarse a una distribución normal por: N µ, σ 2 con media µ
y varianza σ .
2
204 Hugo Cornejo Villena & Hugo Cornejo Rosell.

En el siguiente gráfico, de la función de densidad para diferentes valores


de µ y σ; se observan que, para cualquier par de valores de µ y σ , la curva es
simétrica y tiene forma de campana y están centradas en diferentes posiciones
sobre el eje horizontal y sus formas reflejan los dos diferentes valores de σ
(mayor detalle daremos en las propiedades, que veremos posteriormente).

Gráficas de la función de densidad normal para diferentes valores de µ y σ


La función de densidad de probabilidad cumple con la condición
(necesaria) para poder ser, en efecto, función de probabilidad; es decir

∫ f X ( x )dx = 1
−∞
x −µ
Para tal fin, efectuamos el cambio de variable t = , entonces

∞ 1 ∞ −t 2 2 ∞ −t 2 1  ∞ −t 2 
∫ f X ( x )dx = ∫ e dt = ∫ e dt = 2 ∫ e dt 
−∞ π −∞ π 0 π  0 
1   1  π
= Γ  2   = =1
π    π
PROPIEDADES DE LA DISTRIBUCION NORMAL
A partir de un análisis del gráfico y del examen de la primera y la segunda
derivada de la función de densidad, se encuentra las siguientes propiedades de
la curva normal:
Introducción al Cálculo de Probabilidades 205

7.2.1.- Es simétrica con respecto al eje vertical x = µ , debido a que f X ( x )


sólo depende de x mediante la expresión: (x − µ )2 , luego f X (µ + x ) =
f X (µ − x ) .
7.2.2.- La curva tiene sus puntos de inflexión en: x = µ ± σ , es cóncava hacia
abajo sí µ − σ < X < µ + σ , y es cóncava hacia arriba en cualquier otro
punto.
1
7.2.3.- Tiene valor máximo en x = µ . Este valor máximo es: f X (µ) =
σ 2π
7.2.4.- La curva normal se aproxima al eje horizontal en forma asintótica, ya
que lim f X ( x ) = 0 y lim f X ( x ) = 0 .
x → −∞ x →∞
7.2.5.- El área total bajo la curva y encima del eje horizontal es igual a 1.
La probabilidad de que una variable aleatoria normalmente distribuida X,
sea menor o igual a un valor específico x, está dada por la función de
distribución acumulada:
x − ( t −µ )
2
1
P[X ≤ x ] = FX ( x ) = ∫e 2 σ2
dt
2 π σ −∞
La integral, en la relación anterior, no puede evaluarse en forma cerrada;
sin embargo, se puede tabular FX ( x ) como una función de µ y σ, lo que
necesitaría una tabla para cada par de valores. Como existe un número infinito
de valores µ y σ, esta tarea es virtualmente imposible. Afortunadamente, lo
anterior se simplificará mediante el empleo de una transformación que
veremos en los teoremas 7.2.1 y 7.2.2 y para ello se necesita el concepto de
distribución normal estándar.
DEFINICION 7.2.2
La distribución de una variable aleatoria normal con los parámetros
=
µ 0 y= σ 1 se llama distribución normal estándar; denotada por Φ y
está dada por:
1 x − t22
Φ(x ) = ∫ e dt
2 π −∞
Los valores de la distribución normal estándar se encuentran tabuladas
en la tabla A-3, que se encuentra en el apéndice y su aplicación veremos en
los ejemplos que presentamos después; como insinuamos anteriormente. Los
( )
valores de una función de distribución del tipo N µ, σ 2 con media µ y
2
varianza σ , se calcularán mediante el uso de la tabla A-3, gracias a la
aplicación de los siguientes teoremas:
TEOREMA 7.2.1
206 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Si la distribución de una variable aleatoria X es N µ, σ 2 con media µ y ( )


2
varianza σ , entonces:
 x −µ
FX ( x ) = Φ 
 σ 
DEMOSTRACION:
2
1 t −µ 
1 x − 2  σ  t −µ
Como FX ( x ) = ∫e dt , por cambio de variable: z = ,o
2 πσ − ∞ σ
t = σz + µ y dt = σdz , se tiene:
x −µ
z2
1 σ −2  x −µ
FX ( x ) = ∫ e dz = Φ 
2π −∞  σ 
TEOREMA 7.2.2
Si la distribución de la variable aleatoria X es N µ, σ 2 ( ) con media µ y
varianza σ , entonces la distribución de la variable
2

X −µ X −µ
aleatoria es N ( 0,1) aleatoria es N ( 0,1) .
σ σ
DEMOSTRACION:
X −µ
Sea Z = o X = σZ + µ , entonces aplicando el teorema 6.3.3, se tiene:
σ
1 − z22
f Z (z) = f X (σz + µ) σ = e ,

que demuestra el teorema.
Los teoremas anteriores, como se puede observar, son equivalentes.
Antes de presentar ejemplos, tenemos las siguientes observaciones:
1.- La probabilidad
1 b − z22
P[a ≤ Z ≤ b] = ∫ e dx
2π a
no se puede calcular directamente, ya que no es factible encontrar una
2
−z
función cuya derivada sea igual a e 2 ; pero usando métodos de
integración numérica se han tabulado los valores de la función de
distribución normal estándar (A-3).
2
1 x −µ 
1 b − 2  
1 z2 −z 2
2.- Como P[a < X < b] =
σ 
∫e dx = ∫e dz
2 πσ a 2π z1
Introducción al Cálculo de Probabilidades 207

z2
= ∫ N(z;0,1)dz = P(z1 < Z < z1 )
z1

Las distribuciones original y transformada se muestran en el siguiente

gráfico:

Dado que todos los valores de X entre a y b tienen valores


correspondientes Z entre z1 y, el área bajo la curva X entre los puntos: x
= a y x = b, en el gráfico, es igual al área bajo la curva Z entre los puntos
transformados: z = z1 y z = z 2 .
3.- El área, Φ (z) , es representado por la parte sombreada del siguiente
gráfico:
Tienen las siguientes propiedades:
a) P[a ≤ Z ≤ b] = Φ (b) - Φ (a ) .
b) Φ (− z) = 1 - Φ (z) , esto se debe a
que la curva es simétrica
respecto a la vertical z = 0.
c) P[− a ≤ Z ≤ a ] = Φ (a ) - Φ (−a ) =
2 Φ (a ) - 1.
a − µ b −µ b−µ a −µ
4.- P[a ≤ X ≤ b] = P  ≤Z≤  = Φ  - Φ  . En
 σ σ   σ   σ 
el siguiente gráfico, se ve la correspondencia entre las probabilidades de
X y de Z.
208 Hugo Cornejo Villena & Hugo Cornejo Rosell.

5.- La tabla A-3 proporciona el área bajo la curva normal estándar,


correspondiente a P[Z < z ] . Por ejemplo, obtengamos P[Z < 2.57] ,
usando la tabla. Primero se localiza el valor de z igual a 2.5 en la columna
de la izquierda y desplazándonos por el reglón hasta la columna
correspondiente a 0.07 se lee 0.9949. Por tanto P[Z < 2.57] = 0.9949.
Para encontrar un valor z correspondiente a una probabilidad
determinada, el proceso es a la inversa. Por ejemplo, el valor de z que
proporciona un área de 0.4801 bajo la curva normal a la izquierda de z es
- 0.05.
EJEMPLOS
7.2.1.-Dada una distribución normal estándar, encuentre el área bajo la curva
que está:
a) a la izquierda de z = 1.43.
b) a la derecha de z = -0.89.
c) entre z = -2.16 y z = -0.65.
d) entre z = -0.48 y z = 1.74.
SOLUCION:
a) El área en el gráfico adjunto, a la
izquierda de z = 1.43, se encuentra en la
tabla A- 3 y es 0.9236.
b) El área en el gráfico adjunto, a la derecha
de z = -0.89 es igual a 1 menos el área
que la tabla A-3 da a la izquierda de
z = -0.89; es decir: 1 - 0.1867 = 0.8133.

c) El área en el gráfico adjunto, entre


z = -2.16 y z = -0.65 es igual al área a
la izquierda de z = -0.65 menos el
área a la izquierda de z = -2.16. De tabla
A-3 se encuentra el área pedida, que es:
0.2578-0.0154=0.2424.
d) El área en el gráfico adjunto, entre
z = -0.48 y z = 1.74 es igual al área a la
izquierda de z = 1.74 menos el área a
la izquierda de z = -0.48. De la tabla A-3
se encuentra el área pedida, que es:
0.9591 - 0.3156 = 0.6435.
Introducción al Cálculo de Probabilidades 209

7.2.2.-Encuentre el valor de z, si el área bajo una curva normal estándar:


a) a la derecha de z es 0.3632.
b) a la izquierda de z es 0.1131.
c) entre 0 y z, con z>0 ; es 0.4838.
d) entre -z y z, con z>0; es 0.9500.
SOLUCION:
a) En el gráfico adjunto, puede apreciarse que el valor de z que da un
área de 0.3632 a la derecha debe,
entonces dar un área de 1 - 0.3632 =
0.6368 a la izquierda. De la tabla A-3, se
tiene que z = 0.35.
b) A partir de la tabla A-3, se tiene que el área de 0.1131 corresponde
a z = -1.21.
c) Del gráfico adjunto, se tiene que el
área a la izquierda de z corresponde al
área 0.4838 más el área de la
izquierda de 0, que obviamente es
0.500; es decir 0.4838+0.5000 =
0.9838. De la tabla A-3, se obtiene
que z = 2.14.
d) Del gráfico adjunto se observa que, el área de la parte no sombreada
es 1 - 0.9500 = 0.05 que corresponde a
la región que está a la derecha de z y a
la izquierda de -z que son simétricas, de
0.05
área = 0.025. Luego el área a la
2
izquierda de z es 0.9500 + 0.0250 = 0.975. De la tabla A-3, se
obtiene que z= 1.96.
7.2.3.-Dada una distribución normal estándar, encuentre el valor de k tal que

P[Z > k ] = 0.2946.

P[− 0.93 < Z < k ] = 0.7235.


210 Hugo Cornejo Villena & Hugo Cornejo Rosell.

SOLUCION:
a) En el gráfico adjunto, se puede apreciar que
el valor de k que da un área 0.2946 a la
derecha debe, entonces dar un área de
1 - 0.2946 = 0.7054 a la izquierda. De la
tabla A-3 se tiene que k = 0.54.
b) De la tabla A-3 se deduce que el área de la
izquierda de z = -0.93 es 0.1762. En el
gráfico adjunto, se observa que el área de
la izquierda de k es 0.1762 + 0.7235 =
0.8997. Por lo tanto, de la tabla A-3, se
tiene que k = 1.28.
7.2.4.-Dada la distribución normal con y, encuentre:
El área de la curva normal a la derecha de x = 13.
El área de la curva normal entre x = -5 y x = 18.
El valor de x que corresponde a P[X < x ] = 0.025.
P[16 < X < 23] .
Encuentre el valor de x que tiene el 40 % del área a la derecha.
Los valores de x que contienen un intervalo central del 70 % de la mitad
del área de la curva normal.
SOLUCION:
a) La distribución de probabilidad normal
que muestra el área deseada, es la que
aparece en el gráfico adjunto.
Transformemos x = 13 al
correspondiente valor de z, obteniendo
el área a la izquierda de z aplicando la
tabla A-3 y luego restando a 1 esta
x −µ 13 − 10
área. Encontramos que z = = = 0.6. Por lo tanto, el
σ 5
área de la curva normal a la derecha de x = 13 es:
P[X > 13] = P[Z > 0.6] = 1 - P[Z < 0.6] = 1 - Φ( 0.6)
= 1 - 0.7257 = 0.2743.
b) Los valores de z correspondientes a = -5 y b = 18 son:
− 5 − 10 18 − 10
z1 = = -3 y z 2 = = 1.6
5 5
Por lo tanto, el área de la curva normal entre x = -5 y x = 18,
corresponde al área de la curva normal estándar de z = -3 a
Introducción al Cálculo de Probabilidades 211

z = 1.6 y que es equivalente a calcular P[− 3 < Z < 1.6] =


P[Z < 1.6] - P[Z < −3] . De la tabla A-3, se tiene:
P[− 5 < X < 18] = P[− 3 < Z < 1.6] = Φ (1.6 ) - Φ (− 3)
= 0.9452 - 0.0013 = 0.9439.
c) El problema es equivalente a
calcular el área a la izquierda del
valor deseado x, que es la parte
sombreada del gráfico adjunto. Se
requiere un valor z que tenga un
área de 0.025 a la izquierda. De la
tabla A-3 se encuentra que P[ Z < z ] = 0.025. se cumple para z = -
1.96.
Por lo tanto,
x = σz + µ = 5 (-1.96) + 10 = 0.2.
d) Los valores correspondientes para a = 16 y b = 23 son:
16 − 10 23 − 10
z1 = = 1.2 y z 2 = = 2.6
5 5
Luego de la tabla A-3, se tiene:
P[16 < X < 23] = P[1.2 < Z < 2.6] = P[Z < 2.6] - P[z < 1.2]
= Φ(2.6 ) - Φ (1.2 ) = 0.9953 - 0.8849 = 0.1104.
e) En el gráfico adjunto, se muestra el
área igual al 40 % = 0.40 a la derecha
del valor x deseado. Ahora se requiere
un valor z que tenga 0.40 del área a la
derecha y, por lo tanto, un área de 1
- 0.40 = 0.60 a la izquierda; es decir:
Φ( z ) = 0.6000.
Como en la tabla A-3, no se tiene un z
que satisfaga este valor, encontremos por interpolación:
Valores de z: 0.25 ≤ z ≤ 0.26
Valor de Φ( z ) : 0.5987 ≤ 0.6000 ≤ 0.6026
Entonces
0.6000 − 0.5987
Φ( z ) =
0.6026 − 0.5987
(0.01)(0.0013) 0.000013
de donde z = 0.25 + = 0.25 +
0.0039 0.0039
= 0.25 + 0.0033 = 0.2533.
212 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Por tanto, el valor deseado es:


x = 5 (0.2533) + 10 = 1.2665.
En el gráfico adjunto, se muestra el
área de valor 70 % = 0.70 entre x 1 y
x 2 o P[x 1 < X < x 2 ] = 0.70. A la
izquierda de tenemos el área de valor:
+ 0.70 = 0.15 + 0.70 = 0.85; es decir
P[X < x 2 ] = 0.85 y se requiere un
valor de z que tenga un área de 0.85 o Φ (z ) = P[Z < z ] = 0.85.
Como en la tabla A-3 no se tiene este valor, como en el caso
anterior, hallemos z por interpolación:
Valor de z: 1.03 ≤ z ≤ 1.04.
Valor de Φ( z ) : 0.8485 ≤ 0.8500 ≤ 0.8508.
Entonces
z − 1.03 0.8500 − 0.8485
=
1.04 − 1.03 0.8508 − 0.8485
(0.01)(0.0015)
de donde z = 1.03 + = 1.03 + 0.006 = 1.036.
0.0025
En la curva normal estándar, por datos del problema
P[x 1 < X < x 2 ] = P[z1 < Z < z 2 ] y se tiene que z 2 = z y z1 = − z
; consecuentemente los valores de x son:
x 2 = 5 (1.036) + 10 = 15.18 y x 1 = 5 ( -1.036 ) + 10 = 4.82
( )
7.2.5.- Si X tiene distribución N µ, σ 2 . Calcular el valor de k tal que
P[µ − kσ ≤ X ≤ µ + kσ] = 0.4318.
SOLUCION:
Como
 X−µ 
P[µ − kσ ≤ X ≤ µ + kσ] = P − k ≤ ≤ k
 σ 
= P [− k ≤ Z ≤ k ] = 2 Φ (k ) - 1 = 0.4318
entonces Φ (k ) = 0.7159 y como en la tabla A-3 no existe un k que
satisfaga este valor, hallemos por interpolación:
Valor de z: 0.57 ≤ k ≤ 0.58.
Valor de Φ(k ) : 0.7157 ≤ 0.7159 ≤ 0.7190
k − 0.57 0.7159 − 0.7157
Entonces =
0.58 − 0.57 0.7190 − 0.7157
Introducción al Cálculo de Probabilidades 213

(0.01)(0.0002)
de donde k = 0.57 + = 0.57 + 0.0006 = 0.5706.
0.0033
7.2.6.- Una compañía fabrica focos cuya
duración son normalmente distribuidas
con µ = 800 horas (media) y σ = 40 horas
(desviación estándar). Hallar la
probabilidad de que un foco se “queme”
entre 750 y 846 horas de uso.
SOLUCION:
La distribución de vida de los focos se muestra en el gráfico
adjunto. Los valores de z correspondientes a x 1 = 750 y x 2 = 846
son:
750 − 800 846 − 800
z1 = = −1.25 y z 2 = = 1.15
40 40
De aquí que:
P[750 < X < 846] = P[− 1.25 < Z < 1.15]
= Φ (1.15) - Φ (−1.25) = 0.8749 - 0.1056 = 0.7693.
7.2.7.- El peso medio de las frutas de un cargamento es de 15 onzas,
con una desviación estándar de 1.62 onzas; si sus pesos están
distribuidos normalmente. ¿Qué porcentaje de frutas tendrá un
peso entre 15 y 18 onzas?
SOLUCION:
De los datos del problema, tenemos que µ = 15 y σ = 1.62,
deseamos calcular P [15 < X < 18] expresado en porcentaje.
Entonces
15 − 15 18 − 15 
P [15 < X < 18] = P  <Z<
 1.62 1.62 
= P[0 < Z < 1.85] = Φ (1.85) - Φ (0)
= 0.9678 - 0.5000 = 0.4678
o equivalentemente 46.78 %.
7.2.8.- Los pesos de 500 estudiantes de una cierta universidad dan µ =
62.5 Kg. y la desviación típica de 5 Kg. Suponiendo que los pesos
se distribuyen normalmente, hallar cuántos estudiantes pesan:
a) entre 50 y 67 Kg.
b) más de 73.5 Kg.
SOLUCION:
De los datos del problema tenemos µ = 62.5 y σ = 5 y N = 500.
a) Como
214 Hugo Cornejo Villena & Hugo Cornejo Rosell.

 50 − 62.5 67 − 62.5 
P[50 < X < 67] = P  <Z< 
 5 5 
= P[− 2.5 < Z < 0.9]
= Φ (0.9) - Φ (−2.5) = 0.8159 - 0.0062 = 0.8097.
Entonces, los estudiantes que pesan entre 50 y 67 Kg. son
500 (0.8097) = 405.
b) Como
 73.5 − 62.5 
P[X > 73.5] = 1 - P[X < 73.5] = 1 - P  Z < 
 5 
= 1 - P[Z < 2.2] = 1 - 0.9861 = 0.0139.
Entonces los estudiantes que pesan más de 73.5 Kg. Son
500 (0.0139) = 7.
7.2.9.- En una distribución normal que tiene una desviación estándar de 2, la
probabilidad de que el valor de una variable elegida al azar sea mayor
de 25, es 0.063.
a) Calcular la media de la distribución.
b) Obtenga el valor de la variable que supera el 92 % de los valores.
SOLUCION:
a) De los datos del problema, sabemos que:
σ = 2 y P[X > 25] = 0.063, entonces
P[X < 25] = 1 - P[X > 25] = 1 – 0.063 = 0.937 y
consecuentemente
 25 − µ 
P Z < = P[Z < z ] = 0.937 se cumple para z = 1.53.
 2 
x −µ
Como z = , entonces µ = x − zσ , luego
σ
µ = 25 – (1.53) (2) = 21.94.
b) 92 % = 0.92 = P[Z < z ] , se cumple para z = 1.41 y como
x = µ + zσ , entonces x = 21.94 + (1.41) 2 = 24.76.
7.2.10.- En cierta ciudad, el número de interrupciones en el suministro
eléctrico al mes es una variable aleatoria que tiene una distribución con
µ = 12.5 y σ = 3.7. Si esta distribución puede aproximarse con una
distribución normal. ¿Cuál es la probabilidad de que haya al menos
siete interrupciones en cualquier mes?
SOLUCION:
Introducción al Cálculo de Probabilidades 215

Debemos calcular P[X > 6.5] y no P[X ≥ 7] , ello se debe a que el


número de interrupciones es una variable aleatoria discreta, y si
queremos aproximar mediante la distribución normal, debemos
“distribuir” sus valores una escala continua. Hacemos esto
1 1
representando cada entero n por el intervalo entre n − y n + ; de
2 2
manera que 7 está representado por el intervalo entre 6.5 y 7.5. Por lo
tanto, la probabilidad que buscamos es aproximada por:
 6.5 − 12.5 
P[X > 6.5] = 1 - P[X < 6.5] = 1 - P  Z <
 3.7 
= 1 - P[Z < −1.62] = 1 - 0.052 6= 0.9474.
7.2.11.- En un proceso industrial, el diámetro de un balero (molde para
fundir balas) es una importante parte componente. El comprador
establece en sus especificaciones que el diámetro debe ser 2.0 ± 0.01
cm. La implicación es que no se acepte ningún balero que se salga de
esta especificación. Se sabe que, en el proceso, el diámetro de un balero
tiene una distribución normal con una media de 2.0 y una desviación
estándar σ = 0.005. En promedio, ¿cuántos valeros fabricados se
descartarán?
SOLUCION:
La distribución de diámetros se
muestra en el gráfico adjunto. Los
valores que corresponden a los
límites de la especificación son:
x 1 = 1.99 y x 2 = 2.01 .
Por lo tanto, la probabilidad que
buscamos es:
1.99 − 2.0 2.01 − 2.0 
1 - P[1.99 < X < 2.01] = 1 - P  <Z<
 0.005 0.005 
= 1 - P[− 2 < Z < 2] = 1 - Φ (2) + Φ (−2)
= 1 - 0.9772 + 0.0228 = 0.0456.
De aquí que, en promedio, el 4.56 % de los valeros manufacturados se
descarten.
7.2.12.- En un examen, la calificación promedio fue 14.5 y la desviación
estándar fue 1.5. Si el 12 % de la clase recibió una nota A (excelente), y
si las calificaciones siguen una curva de distribución normal. ¿Cuál es la
posible A más baja y la posible B (buena) más alta que se obtengan?
SOLUCION:
216 Hugo Cornejo Villena & Hugo Cornejo Rosell.

De los datos del problema tenemos:


µ = 14.5, σ = 1.5 y P[X > x ] = 12 %
= 0.1200, que es el área
correspondiente a la fracción de
estudiantes que reciben una nota A,
está sombreada en el gráfico adjunto.
Debemos determinar x, de la
relación x = σz + µ .
Como P[X < x ] = 1 - P[X > x ] = 1 - 0.1200 = 0.8800. Deseamos
calcular z tal que P[Z < z ] = 0.8800 y como no se encuentra en la tabla
A-3, hallamos por interpolación:
Valor de z: 1.17 ≤ z ≤ 1.18.
Valor de Φ (z) : 0.8790 ≤ 0.8800 ≤ 0.8810.
z − 1.17 0.8800 − 0.8790 0.001
Entonces, = =
1.18 − 1.17 0.8810 − 0.8790 0.002
 0.001 
de donde z = 1.17 + (0.01)   = 1.17 + 0.005 = 1.175
 0.002 
Por tanto, x = 1.5 (1.175) + 14.5 = 16.2625
Consecuentemente, la nota A más baja es 16.5 y la nota B más alta es
16.
7.2.13.- Si una variable aleatoria X tiene una distribución N (1,4), hallar k tal
que P[X > k ] = 2 P[X ≤ k ]
SOLUCION:
 k − 1  k −1
Como P[X > k ] = 1 - P[X < k ] = 1 - P  Z <  = 1 - Φ 
 2   2 
 k − 1  k −1
y P[X ≤ k ] = P  Z ≤  = Φ  , entonces
 2   2 
 k −1  k −1  k −1
1 - Φ  = 2 Φ  , de donde Φ  = 0.3333.
 2   2   2 
Como no se encuentra aplicando la tabla A-3, hallamos por
interpolación:
k −1
Sea z = , luego para valor de z : -0.44 ≤ z ≤ -0.43 y como
2
0.3300 ≤ 0.3333 ≤ 0.3336, tenemos:
z + 0.43 0.3333 − 0.3336 − 0.0003
= =
− 0.44 − 0.43 0.3300 − 0.3336 − 0.0336
Introducción al Cálculo de Probabilidades 217

de donde:
 0.0003 
z = -0.43 - (0.01)   = -0.43 - 0.0000892 = -0.4300892
 0.0336 
Por tanto, k = 1 + 2 ( -0.4300892) = 0.1398216 ≅ 0.14.
7.2.14.- El tiempo empleado para ir de un hotel a un aeropuerto, de una
ciudad, por la ruta A es una distribución normal con media igual a 27
minutos y desviación estándar igual a 5 minutos; mientras que por la
ruta B, también es una distribución normal con media igual a 30
minutos y desviación estándar igual a 2 minutos. ¿Qué ruta conviene
utilizar si se dispone de:
a) 30 minutos.
b) 34 minutos.
SOLUCION:
De los datos del problema tenemos:
RUTA A RUTA B
µ = 27 µ = 30
σ=5 σ=2
a) Si se dispone de 30 minutos, entonces tenemos las siguientes
probabilidades (para la ruta A y B, respectivamente):
 30 − 27 
PA [X < 30] = PA  Z < = PA [Z < 0.6]
 5 
= Φ A (0.6) = 0.7257 = 72.57 %.
 30 − 30 
PB [X < 30] = PB  Z < = PB [Z < 0]
 2 
= Φ B (0) = 0.5000 = 50 %.
De donde, conviene elegir la ruta A que da una probabilidad de
72.57 %, mayor que elegir la ruta B que da una probabilidad de
50 %; que significa llegar temprano.
b) Se dispone de 34 minutos, entonces tenemos las siguientes
probabilidades (para la ruta A y B, respectivamente).
 34 − 27 
PA [X < 34] = PA  Z < = PA [Z < 1.4]
 5 
= Φ (1.4) = 0.9192 = 91.92 %.
 34 − 30 
PB [X < 34] = PB  Z < = PB [Z < 2]
 2 
= Φ (2) = 0.9772 = 97.72 %.
En este caso conviene elegir la ruta B.
218 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Para finalizar esta sección presentaremos una aproximación de la


distribución normal a la binomial; aunque se trate de aproximar una
distribución continua con una distribución discreta; como vimos en el
ejemplo 7.2.10 y en último ejemplo, mostraremos un enlace entre la
distribución normal y la distribución gamma.
Recordemos que la distribución binomial es una forma límite de la
distribución de Poisson cuando n es grande y p pequeño. Ahora
presentaremos un teorema (sin demostración, ya que para ello se necesita
conceptos del siguiente capítulo), que afirma que la distribución normal es
una forma límite de la binomial, cuando n es grande y p no tiene un valor
próximo a cero o a uno y también cuando n es pequeño y p es
razonablemente próximo a ½; este teorema se conoce como teorema del
límite de De Moivre - Laplace.
TEOREMA 7.2.2
Si X es una variable aleatoria binomial con media µ = n p y desviación
estándar σ = npq , entonces la forma de límite de la distribución de:
X − np
Z=
npq
cuando n → ∞ , es la distribución normal estándar N (0,1).
Una sugerencia que posibilite determinar, cuándo puede utilizarse la
aproximación normal, es tener en cuenta el cálculo de np y nq. Si ambos: np
y nq, son mayores o iguales a 5, la aproximación será buena.
EJEMPLOS
7.2.15.- Una moneda se lanza 400 veces. Utilizando la aproximación de la
curva normal, encontrar la probabilidad de obtener:
a) entre 185 y 210 caras inclusive.
b) exactamente 205 caras.
c) menos de 176 o más de 227 caras.
SOLUCION:
Tenemos: n = 400, p = ½ y q = ½, luego
1  1  1 
µ = 400   = 200 y σ = 400   = 10
2  2  2 
Como el lanzamiento de una moneda es una variable aleatoria discreta y
queremos aproximar con la distribución normal, como en el ejemplo
7.2.10, debemos distribuir en una escala continua; por tanto:
a) Debemos calcular: P[184.5 < X < 210.5] ; en efecto:
184.5 − 200 210.5 − 200 
P[184.5 < X < 210.5] = P  <Z< 
 10 10 
Introducción al Cálculo de Probabilidades 219

= P[− 1.55 < Z < 1.05] = Φ (1.05) − Φ (−1.55)


= 0.8531 - 0.0606 = 0.7925.
b) Debemos calcular: P[204.5 < X < 205.5] ; en efecto:
 204.5 − 200 205.5 − 200 
P[204.5 < X < 205.5] = P  <Z< 
 10 10 
= P[0.45 < Z < 0.55] = Φ (0.55) − Φ (0.45)
= 0.7088 - 0.6736 = 0.0352.
c) De acuerdo con el gráfico adjunto:
Calculamos:
1 - P[175.6 < X < 227.5] =
175.6 − 200 227.5 − 200 
1 - P <Z< 
 10 10 
= 1 - P[− 2.45 < Z < 2.75]
= 1 - [φ(2.75) − φ(− 2.45)]
= 1 - (0.9970 - 0.0071 ) = 1 - 0.9899 = 0.0101.
7.2.16.- Como regla, 25 % de ciertos productos manufacturados por un cierto
torno, son defectuosos. ¿Cuál es la probabilidad de que en 48 de estos
productos haya:
a) exactamente 14 defectuosos.
b) menos de 8 defectuosos.
c) por lo menos 10 defectuosos.
SOLUCION:
Para la solución de este problema, aplicaremos la aproximación de la
curva normal, entonces:
p = 25 % = 0.25, q = 0.75, n = 48, µ = 48 (0.25) = 12,
σ = npq = 48(0.25)(0.75) = 9.00 = 3 ⇒ σ = 3
13.5 − 12 14.5 − 12 
a) P[13.5 < X < 14.5] = P  <Z< 
 3 3 
= P[0.5 < Z < 0.83]
P[0.5 < Z < 0.83] = Φ (0.83) − Φ (0.5)
= 0.7967 - 0.6915 = 0.1052.
 7.5 − 12 
b) P[X < 7.5] = P  Z < = P[Z < −1.5]
 3 
= Φ (−1.5) = 0.0668.
220 Hugo Cornejo Villena & Hugo Cornejo Rosell.

 9.5 − 12 
c) P[X > 9.5] = 1 - P[X < 9.5] = 1 - P  Z <
 3 
= 1 - P[Z < −0.83] = 1 - Φ (−0.83)
= 1 - 0.2033 = 0.7967.
7.2.17.- Calcular la densidad de X 2 , cuando X es una variable aleatoria de
distribución N (0,1).
SOLUCION:
La función de distribución de X 2 es:

[ ] [ ] 1 − t22 2 x − t22
x
P X2 ≤ x = P − x ≤ X ≤ x = ∫ e dt = ∫ e dt
− x 2π 2π 0
Utilizando el teorema fundamental del cálculo y la regla de la cadena,
obtenemos
 x −1 / 2 e − x / 2
 , si x > 0
f X2 (x) =  2π
0 , en caso contrario
1 1
Que es la densidad de la distribución Gamma, con α = y β = . Que
2 2
viene a ser, como manifestamos anteriormente, un enlace entre la
distribución Normal y Gamma.
7. 3. DISTRIBUCION EXPONENCIAL
Manifestamos en la Sección 7.1 que la distribución exponencial
(conocida también como exponencial negativa) es un caso especial de la
distribución gamma y esta distribución juega un papel importante tanto en la
teoría de colas como en problemas de confiabilidad. El tiempo entre las
llegadas en las instalaciones de servicio y el tiempo de falla de los
componentes y sistemas eléctricos, frecuentemente corresponden a
distribuciones exponenciales. La distribución exponencial no tiene
“memoria”; es decir, la probabilidad de ocurrencia de eventos presentes y
futuros no dependen de los que hayan ocurrido en el pasado; de esta forma, la
probabilidad de que una unidad falle en un lapso específico depende
únicamente de la duración de éste y no del tiempo en que la unidad ha estado
operativa.
La distribución gamma especial, para la cual α = 1 se llama distribución
exponencial.
DEFINICION 7.3.1
La variable aleatoria continua X, tiene una distribución exponencial, con
parámetro β, si su función de densidad es:
Introducción al Cálculo de Probabilidades 221

βe −βx , si x ≥ 0
f X (x) =  , donde β > 0.
0 , en caso contrario
Esta función de densidad cumple la condición necesaria para ser función

de probabilidad; es decir ∫ f X ( x )dx = 1.
−∞
En efecto:
∞ 0 ∞ b
∫ f X ( x )dx = ∫ f X ( x )dx + ∫ f X ( x )dx = blim
→∞
(
∫ f X ( x )dx = blim
→∞
)
1 − e −βb = 1.
−∞ −∞ 0 0
El siguiente gráfico, representa a la distribución exponencial:

Por otra parte, su función de distribución exponencial está dada por:


 x −βt
β e dt = 1 − e −βx , si x ≥ 0
FX ( x ) = P[X ≤ x ] =  0∫
0 , en caso contrario
De aquí tenemos las siguientes condiciones, útiles para solución de
problema:

a) P[X > x ] = 1 - P[X ≤ x ] = e −βx ; si x ≥ 0 y β > 0 .


P[X > s + t ]
−β( s+t )
e
b) P  X > s+ t/ X > s  = = = e −βt = P[X > t ] ,
P[X > s] e −β s

si s y t son números reales positivos.


EJEMPLO
7.3.1.- Supongamos que la vida útil de cierto tipo de tubos electrónicos tiene
1
una distribución exponencial con parámetro β = horas
600
a) Hallar la probabilidad de que se queme antes de las 200 horas.
b) ¿Cuál es la probabilidad de que dure por lo menos 200 horas?
c) Si un tubo particular ha durado 200 horas ¿Cuál es la probabilidad
de que dure otras 500 horas?
222 Hugo Cornejo Villena & Hugo Cornejo Rosell.

SOLUCION:
P[X < 200] = FX (200) = 1 - e
1
− 600 ( 200 ) − 13
a) =1- e = 1-0.7165 =0.2835
P[X > 200] = 1 - P[X < 200] = 1 - 1 + e
− 13 − 13
b) = e = 0.7165
c) [ ] [
P X > 500 / X > 200 = P X > 300 + 200 / X > 200 ]
= P[X > 300] = 1 - P[X < 300] = 1 - 1 − e 600  = e 2 = 0.6065.
− 300 −1
 
Es importante manifestar que la relación entre la distribución exponencial
y el proceso de Poisson es simple. Como vimos, la distribución de Poisson se
desarrolló como una distribución de un sólo parámetro λ, donde λ puede
interpretarse como el número promedio de eventos por unidad de tiempo.
Consideremos ahora la variable aleatoria descrita por el tiempo que se requiere
para que ocurra el primer evento. Mediante la distribución de Poisson, se
encuentra que la probabilidad de que no ocurran eventos en el espacio hasta
el tiempo t está dada por:
e − λt (λ t ) 0
= e − λt
0!
Ahora puede utilizarse lo anterior y hacer que X sea el tiempo para el
primer evento de Poisson (o el tiempo entre eventos de Poisson). La
probabilidad de que el período hasta que ocurre el primer evento exceda x es
la misma que la probabilidad de que no ocurra un evento de Poisson en x. Esto
− λx
está dado por e ; es decir
P[X ≥ x ] = e − λx
Consecuentemente, la función de distribución acumulada para X es:

P[X ≤ x ] = 1 - e − λx
Con la finalidad de que se reconozca la presencia de la distribución
exponencial, derivemos la distribución acumulada, para obtener la función de
densidad
λe − λx , si x ≥ 0
f X (x) = = 
0 , en caso contrario
la cual es la función de densidad de la distribución exponencial con λ = β.
EJEMPLO
7.3.2.- Supongamos que llegan llamadas telefónicas a una central telefónica
y que siguen el proceso de Poisson con un promedio de 4 llamadas por
minuto. ¿Cuál es la probabilidad de que pase hasta un minuto antes de
que llegue la siguiente llamada?
Introducción al Cálculo de Probabilidades 223

SOLUCION:
El proceso de Poisson corresponde al tiempo entre eventos de Poisson
que siguen una distribución exponencial con λ = β = 4. Sea la variable
aleatoria X el tiempo que transcurre entre dos llamadas consecutivas. La
probabilidad pedida es
P[X ≤ 1] = 1 - e −4(1) = 1 - e −4 = 1 - 0.0183 = 0.9817.
7.3.3.- El número de clientes que llegan a un banco sigue la ley de Poisson
con parámetro λ. Si con X denotamos el tiempo que transcurre desde el
momento en que se abre el banco y el momento en que llega el primer
cliente, hallar la función de densidad de X.
SOLUCION:
Puesto que la función de acumulación de X es:
FX ( x ) = P[X ≤ x ] = 1 - P[X > x ] ,
entonces derivemos y encontraremos la función de densidad.
El evento [X > x ] indica que la primera llegada ha ocurrido después del
tiempo x; es decir que en el intervalo [0, x[ no ha ocurrido ninguna
llegada.
Por tanto: FX ( x ) = P[X ≤ x ] = 1 - P[X > x ] = 1 - e − λx , x ≥ 0
De donde:
dF ( x )
f X (x) = X = λ e − λx
dx
que es la distribución exponencial de parámetro β.
OBSERVACION: Debemos destacar que el ejemplo 7.3.1, es del tipo
conocido como problema de confiabilidad que consiste en determinar el
tiempo de vida promedio de un componente o de un sistema de éstos. La
función de confiabilidad del sistema tiempo t, R(t), es la probabilidad de que
el lapso de duración del sistema sea mayor que con tiempos t dado; es decir
[ ]
R ( t ) = P T > t = 1 - F( t ) , t > 0
Si f ( t ) y R ( t ) son funciones de densidad de probabilidad y de
confiabilidad, respectivamente, de una unidad en un tiempo dado t. La
frecuencia de falla h ( t ) (o función de riesgo) es la proporción de unidades
que fallan en el intervalo ]t , t + dt[ con respecto a las que siguen funcionando
a tiempo t; y está dada por:
f (t)
h(t) =
R (t)
224 Hugo Cornejo Villena & Hugo Cornejo Rosell.

7. 4. DISTRIBUCION JI - CUADRADA
La distribución Ji - cuadrada (o Chi - cuadrada, χ 2 , derivada de la letra
griega mayúscula Ji), fue dada a conocer aparentemente por primera vez, por
Helmert en 1875 y redescubierta por Karl Pearson en 1900; se aplica para las
mismas condiciones de una distribución normal, pero para muestras pequeñas,
se aconseja para n < 30; así mismo se utiliza la distribución Ji - cuadrada en
todas aquellas cosas que se ofrecen o presentan más de dos resultados posibles
y mientras que la distribución normal se utiliza para los casos que ofrecen dos
resultados posibles. Un ejemplo típico de distribución normal lo constituye el
lanzamiento de una moneda con las probabilidades de obtener cara o sello, y
de Ji - cuadrada consiste en el lanzamiento de un dado numerado de 1 a 6 con
seis posibilidades de obtener un resultado.
DEFINICION 7.4.1
Sean: X1 , X 2 , …, X r , variables aleatorias independientes todas ellas con la
distribución normal estándar, la distribución de:
χ 2 = X12 + X 22 + ... + X 2r
se llama distribución Ji - cuadrada con r grados de libertad (o que tiene
una distribución Ji - cuadrada con r grados de libertad).
Observemos que el grado de libertad r, es el número de variables
aleatorias independientes que se suman, también se interpreta como el número
de variables que pueden variar libremente o como el parámetro asociado con
la distribución de probabilidad, que veremos en el siguiente teorema.
TEOREMA 7.4.1
La distribución de Ji-cuadrada con r grados de libertad tiene por función de
densidad:
 e − x2  x  r −22
   ; si x > 0

f χ 2 ( x ) =  2Γ r   2 
 2
0 ; en caso contrario
DEMOSTRACION:
La función de densidad conjunta de X1 , X 2 , …, X r está dada por:
n
x i2
−∑
1 i =1 2
f X1 ,X 2 ,...,X r ( x 1 , x 2 ,..., x r ) = e
(2π)
r
2

donde − ∞ < x i < ∞ , para i = 1,2,…,r.


Sea la transformación:
x1 = ρ cos θ1 cos θ 2 ... cos θ r −3 cos θ r − 2 cos θ r −1
Introducción al Cálculo de Probabilidades 225

x 2 = ρ cos θ1 cos θ 2 ... cos θ r −3 cos θ r − 2 sen θ r −1


x 3 = ρ cos θ1 cos θ 2 ... cos θ r −3 sen θ r − 2
-------------------------------
x r = ρ sen θ1
donde ρ > 0 , 0 ≤ θ r −1 ≤ π , … , 0 ≤ θ1 ≤ 2π ; de donde: ρ 2 = x 12 + ... + x 2r ,
∂ (x1 ,..., x r )
y = p n −1 D(θ1 ,..., θ r −1 ) (Jacobiano de la transformación),
∂ (p, θ1 ,..., θr −1 )
donde D(θ1 ,..., θ r −1 ) es una cierta función que depende de: θ1 ,..., θ r −1 .
Sean las variables aleatorias: χ , Θ1 ,..., Θ r −1 , que se definen remplazando
ρ por χ , θ1 por Θ1 y por X i en la transformación anterior. Por el teorema
6.3.3 obtenemos la densidad de conjunto de χ , Θ1 ,..., Θ r −1 , dado por:
 1 −
ρ2
para ρ > 0, 0 ≤ θ1 < 2π,
f χ,Θ1 ,...,Θ r −1 
= e 2 ρr −1 D(θ1 ,..., θr −1 ) ;

(2π ) 2
−r 0 ≤ θ2≤ πs ,...,0 ≤ θr −1 ≤ π
0 ; en otro caso
De aquí, obtenemos la densidad marginal para χ :
2π π π
f χ (ρ) = ∫ dθ1 ∫ dθ 2 ...∫ f x ,Θ1 ,...,Θ r −1 (ρ, θ1 ,..., θ r −1 )dθ r −1
0 0 0

 1 −
ρ2
k e 2 ρ r −1 ; si ρ > 0
= 

(2π) − 2r

0 ; si ρ ≤ 0
2π π π
en donde k = ∫ dθ1 ∫ dθ 2 ...∫ D(θ1 ,..., θ r −1 ) dθ r −1
0 0 0
Para hallar k apliquemos la condición necesaria de ser probabilidad f χ (ρ) y
no calcular el jacobiano, es decir:
r
p2
∞ ∞ 1 −
r −1 (2π) 2
∫ f χ (ρ)dρ = ∫ k e 2 ρ dρ = 1, de donde: k =
(2π) ρ2
r
−∞ 0 2 ∞ −
r −1
∫ρ e 2 dρ
0

ρ2 1
Si suponemos que z = , entonces ρ = 2z y dρ = dz ; por tanto:
2 ρ
226 Hugo Cornejo Villena & Hugo Cornejo Rosell.

r r
(2π) 2 (2π) 2
k = ∞ r −1 r −1 =
−z −
1
−1 r −2
r
∫ 2 2 z 2 e 2 2 z 2 dz 2 2 Γ 
0 2
Luego:
 −
ρ2
r −1
 ρ e 2
f χ (ρ) =  r −22 r ; si ρ > 0
 2 Γ( 2 )
0 ; si ρ ≤ 0
Por otro lado, calculemos la densidad de χ2 que es nuestro objetivo y
observemos que f 2 ( x ) = 0 si x ≤ 0 y para x > 0 se tiene:
χ

f
χ2
(x) =
d
dx
[
P χ2 ≤ x =
d
dx
]
Pχ≤ x [ ]
()
ρ2 r −2
− r −1
−x − 12 − x2 x
d x d x ρ r −1e 2 x 2 e 2 2 −1 x e 2

= f
∫ χ (ρ) d ρ = ∫ r −2 dρ = = 2
dx 0 2 2 Γ( r ) 2 2 Γ( 2r ) 2Γ( 2r )
r −2
dx 0
2
es decir
 − x r −2
 e 2 ( x2 ) 2
; si x > 0
2Γ( 2r )
f (x) = 
χ2 
0 ; si x ≤ 0
con lo que se prueba el teorema.
OBSERVACION: Comparando el resultado del teorema anterior con la
definición 7.1.2, vemos que la distribución Ji-cuadrada es la distribución
r−2
gamma para el caso particular α = y β = 2 ; resultado que se considera
2
como definición por muchos autores.
Una propiedad muy importante de la distribución Ji-cuadrada es la
permanencia aditiva, como muestra el siguiente teorema.
TEOREMA 7.4.2
Sí X1 , X 2 , …, X m son m variables aleatorias independientes, tal que X i
sigue la distribución Ji-cuadrada con ri grados de libertad, para 1 ≤ i ≤ m ,
entonces la variable X1 + X 2 + … + X m tiene la distribución Ji-cuadrada;
con: r1 + r2 + … + rm grados de libertad.
DEMOSTRACION:
Introducción al Cálculo de Probabilidades 227

Es suficiente demostrar para m = 2. (por ser infinito las variables aleatorias).


Para este caso se tiene:
 − ( x1 + x 2 ) r1 − 2 r2 − 2
 e 2  x1  2  x 2  2
    ; si x 1 > 0, x 2 > 0
f X1 ,X 2 ( x 1 , x 2 ) = 

()()
4 Γ
r1
2
Γ
r2
2  2   2 
0 ; si min{x 1 , x 2 } ≤ 0
Considerando la transformación: u 1 = x 1 + x 2 , u 2 = x 2 y de donde
x 1 = u 1 − u 2 , x 2 = u 2 y el Jacobiano vale 1.
Según el teorema 6.3.3, al suponer: U1 = X1 + X 2 , U 2 = X 2 , se obtiene:
 u
− 1 r1 − 2 r2 − 2
 e 2  u1 − u 2  2  u2  2 si 0 < u 2 < u 1
f U1 , U 2 (u 1 , u 2 ) =  r    
()()
 4Γ 2 Γ
1 r2
2
 2   2 
;
0 < u1 < ∞
0 ; en caso contrario
Ahora para u 1 > 0
u1 r1 − 2 r2 − 2


e 2 u1
 u1 − u 2  2  u2  2
f U1 (u 1 ) = ∫ f U1 , U 2 (u 1 , u 2 )du 2 = ∫   
−∞ 4Γ ( )Γ( )
r1
2
r2
2
0 2   2 
du 2

u2
y si sustituimos x = , resultará para u 1 > 0
u1
u1 r1 + r2 − 2

e 2
 u1  2 r r 
 
f U1 (u 1 ) =
2Γ ( )Γ( )
r1
2
r2
2  2
β 1 , 2 
2 2
donde
r −2
r r  1 1 r2 − 2
β 1 , 2  = ∫ x 2 (1 − x ) 2 dx
2 2 0
Luego, utilizando el teorema 7.1.3, tenemos:
 u1 r1 + r2 − 2
− u 
e 2  1  2
  2
f U1 (u 1 ) =  ; si u 1 > 0

0
r +r
2Γ 1 2 2 ( )
 ; si u 1 ≤ 0
que es la densidad de la distribución Ji-cuadrada con r1 + r2 grados de libertad.
El siguiente gráfico, ilustra la función de densidad de la variable aleatoria
Ji-cuadrada, para distintos grados de libertad.
228 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Debemos observar que la distribución Ji-cuadrada son una familia de


distribuciones continuas positivamente asimétrico; si r aumenta x 2 se
aproxima a una distribución normal; de aquí que si r es grande ( r > 30 ), la
probabilidad de la Ji-cuadrada pueda calcularse empleando la aproximación
normal.
En mérito a que la distribución Ji-cuadrada es importante, como
aplicación, en inferencia estadística, la función de distribución Fχ2 ( x ) están

preparadas en tablas (A-4) para valores seleccionadas de r y χ ; 0 ≤ r ≤ 30 .


2

Por lo tanto, en la tabla se encuentra, la probabilidad de que la variable


aleatoria X tiene una distribución Ji-cuadrada sea mayor a un valor constante,
representado por:
[ ]
P X ≤ χ α2 = α;0 < α < 1
y consecuentemente,
χα2
[ 2
α
0
]
P X ≤ χ = ∫ f χ2 ( x )dx

ver el siguiente gráfico:

Dado que existe una distribución Ji-cuadrada diferente para cada valor de
r, resulta impráctico proporcionar tablas de áreas completas. La tabla A-4, sólo
presenta un resumen de la información más esencial respecto
de la distribución.
Introducción al Cálculo de Probabilidades 229

EJEMPLOS
7.4.1.- Si r = 18 y χ 02.95 = 28.87; entonces
[ ]
P X ≤ χ 02.95 = P[X ≤ 28.87] = 0.95.
7.4.2.- Si X es una variable aleatoria con una distribución χ 2 (21). Hallar
a) P[X > 35.48]
b) P[X < 11.59]
c) P[8.897 < X ≤ 32.67]
d) a y b tal que P[a < X < b] = 0.875 y P[X > b] = 0.100
SOLUCION:
a) A partir de la tabla A-4, se tiene que para r = 21 y
χ α2 (21) = 35.48; corresponde para α = 0.975
Por tanto:
[
P[X > 35.48] = 1 - P[X ≤ 35.48] = 1 - P X ≤ χ 02.975 ]
= 1 - 0.975 = 0.025.
b) A partir de la tabla A-4, se tiene que para r = 21 y
χ α2 (21) = 11.59; corresponde α = 0.050
Por tanto
[ ]
P[X < 11.59] = P X < χ 02.050 = 0.050.
c) Similarmente a los casos anteriores, de la tabla A-4 se tiene
P[8.897 < X ≤ 32.67] = P[X ≤ 32.67] - P[X < 8.897]
[ ] [ ]
= P X ≤ x 02.950 - P X < χ 02.010 = 0.950 - 0.010 = 0.94.
d) Usando la tabla A-4 y propiedades, tenemos:
P[X > b] = 1 - P[X < b] = 0.100; luego
P[X < b] = 0.900, de donde b = x 02.900 = 29.62.
Por otro lado
P[a < X < b] = P[X < b] - P[X < a ] = 0.875
= 0.900 - P[X < a ] = 0.875,
Luego P[X < a ] = 0.900 - 0.875 = 0.025, de donde
a = χ 02.025 = 10.28.
7.4.3.- Supongamos que X1 , X 2 , … , X10 es una muestra aleatoria de
una variable aleatoria normal estándar. Calcular
P 2.558 < ∑ x i2 < 18.31 .
10

 i =1 
230 Hugo Cornejo Villena & Hugo Cornejo Rosell.

SOLUCION:
10
De acuerdo con el teorema 7.4.1, ∑ x i2 = χ2 , r = 10, luego:
i =1
X1 , X 2 , … , X10 son muestras aleatorias de tamaño 10 de una variable
aleatoria con distribución χ 2 (10).
Por tanto
P[2.558 < X < 18.31] = P[X < 18.31] - P[X < 2.558]
[ ] [
= P X < χ 02.950 - P X < χ 0.010
2
]
= 0.950 - 0.010 = 0.9400.
NOTA: Si la variable aleatoria X tiene distribución Ji-cuadrada con r grados
de libertad y si r es suficientemente grande (r ≥ 30), entonces la variable
aleatoria 2X tiene distribución aproximadamente normal N 2r − 1,1 . ( )
Luego la variable aleatoria Z = 2X − 2r − 1 , tiene distribución
aproximadamente normal N (0, 1).
EJEMPLO
7.4.4.- Si la variable aleatoria tiene distribución Ji-cuadrada con 100 grados
de libertad. Calcular P[87 ≤ X ≤ 150] .
SOLUCION:
Aplicando la nota anterior:
P[87 ≤ X ≤ 150]
[
= P 2(87) − 2(100) − 1 ≤ 2X − 2r − 1 ≤ 2(150) − 2(100) − 1 ]
= P[ 174 − 199 ≤ 2X − 2r − 1 ≤ 300 − 199 ]
= P[13.19 − 14.11 ≤ Z ≤ 17.32 − 14.11] = P[− 0.92 ≤ Z ≤ 3.21]
= P[Z ≤ 3.21] - P[Z ≤ −0.92] = 0.9993 - 0.1788 = 0.8142.
7. 5. DISTRIBUCION WEIBULL
La distribución de Weibull fue establecida por el físico sueco Waloddi
Weibull en 1939, quien demostró, con base en una evidencia empírica, que el
esfuerzo al que se someten los materiales puede modularse de manera
adecuada mediante el empleo de esta distribución. En los últimos años, esta
distribución se emplea como modelo para situaciones de tipo tiempo-falla y
con el objeto de lograr una amplia variedad de componentes mecánicos y
eléctricos; con sustitución del papel que juegan las distribuciones gamma y
exponencial en estos tipos de problemas.
DEFINICION 7.5.1
Se dice que una variable aleatoria continua X tiene una distribución de
Weibull , con parámetro α y β si su función de densidad está dada por :
Introducción al Cálculo de Probabilidades 231

αβ x β−1 x −αx β ; si x > 0


f X (x) = 
0 ; en otro caso
donde α >0 y β > 0.
La función de densidad de probabilidad cumple con la condición
(necesaria) para poder ser, en efecto, función de probabilidad; es decir

∫ f X ( x )dx = 1
−∞
Efectivamente:
∞ ∞ β b β
β −1 − αx
∫ f X ( x )dx = ∫ αβ x e dx = lim ∫ αβ x β−1e −αx dx
−∞ 0 b →∞ 0

[ ]
= lim e −αx
b →∞
β 1
0
β
= 1 - lim e − αb = 1 - 0 = 1.
b →∞

Las gráficas de la distribución Weibull para α = 1 y distintos valores de


β se muestran en el gráfico adjunto.

En el gráfico, se observa que las curvas cambian de forma para diferentes


valores de los parámetros, en particular para β. Para el caso β = 1, la
distribución se reduce a la distribución exponencial. Para valores β >0, β ≠ 1
las curvas adquieren una forma acampanada y tienen un parecido con las
curvas normales, pero muestran cierta asimetría.
La función de distribución acumulada de Weibull, por evaluación directa
de la integral, está dada por:
1 − e −α x
β
; si x ≥ 0
FX (x) = 
0 ; en otro caso
Tal como ocurre con las distribuciones gamma y exponencial, la
distribución Weibull también se aplica a problemas de confiabilidad y de
prueba de duración o vida, tales como tiempo de falla o período de vida de un
componente, medido a partir de un tiempo determinada hasta que se presente
232 Hugo Cornejo Villena & Hugo Cornejo Rosell.

una falla. Este tiempo de falla se representa por la variable aleatoria continua
T con función de densidad de probabilidad f T ( t ) , donde f T ( t ) es la
distribución Weibull.
Como definimos, en la observación de la sección 7.3, la función de
confiabilidad del componente dado en el tiempo t, es: R T ( t ) = 1 - FT ( t ) ,
donde FT ( t ) es la distribución acumulada de T.
Para nuestro caso:
β
R T ( t ) = e − αt , t >0.
f T (t)
También la función de riesgo o frecuencia de falla es: h T ( t ) =
R T (t)
para nuestro caso: h T ( t ) = αβ t β−1 , t > 0.
EJEMPLO
7.5.1.- La duración de un cierto sello para automóvil tiene la distribución
1
Weibull con una tasa o frecuencia de falla h T ( t ) = . Encontrar la
t
probabilidad de que tal sello siga en uso después de 4 años.
SOLUCION:
1
Como h T ( t ) = = αβ t β−1 , entonces integrando obtenemos que,
t
β
αt β = 2 t , luego R T ( t ) = e − αt = e −2 t
Por tanto
P[T > 4] = 1 - P[T ≤ 4] = 1 - FT (4) = 1 - [1 − R T (4)]
−2 4
= R T (4) = e = e −4 = 0.0183.
7. 6. DISTRIBUCION F
Una de las distribuciones más importantes en estadística aplicada es la
distribución F o la distribución de Snedecor, relacionada íntimamente con la
distribución gamma y Ji-cuadrada como veremos enseguida.
DEFINICION 7.6.1
Sean X e Y dos variables aleatorias independientes que tienen distribuciones
Ji-cuadradas con r1 y r2 grados de libertad, respectivamente, la distribución
de la variable aleatoria:
X / r1
U=
Y / r2
se llama distribución F con ( r1 , r2 ) grados de libertad.
Introducción al Cálculo de Probabilidades 233

TEOREMA 7.6.1
La distribución F con ( r1 , r2 ) grados de libertad tiene por función de densidad:
 r1 r2
 r + r  1 −1
r

 (r1 ) 2 (r2 ) 2 Γ 1 2 u 2
  2  ; si u > 0
f U (u ) = 
()()  r1 + r2 
 Γ r21 Γ r22 (r1 u + r2 ) 2 
0
 ; en caso contrario
DEMOSTRACION:
La densidad conjunta de X , Y es:
 − x+y r1
−1
r2
−1
 e 2 x2  y2
 4 ()()
f X ,Y ( x , y) =  r1 r2  2   2 
Γ 2
Γ 2
   
; si x > 0, y > 0

0 ; si min{x , y} ≤ 0
r2 x r uv
Considerando la transformación: u = , v= y, o x = 1 , y = v , de
r1 y r2
r1 v r1 u
∂ ( x , y) r1
Jacobiano = r2 r2 = v
∂ ( u , v) r2
0 1
Por el teorema 6.3.3 obtenemos:
 v r u 
−  1 +1  r1
 e 2  r2   r uv  2 −1 r2 −1 r
f U ,V (u , v) =  r1 + r2  1  (v ) 2 1 v ; si u > 0, v > 0
()( )
 2 2 Γ r21 Γ r22
0
 r2  r2

 ; si min{u , v} ≤ 0
Ahora, si u > 0 ,
r1
r
 r1  2 21 −1
  u v  r1u  r1 + r2
∞ −  +1 

 r2  2  r2  −1
f U (u ) = ∫ f U ,V (u , v)dv = r1 + r2 ∫e v 2 dv
−∞
2 2 Γ ( )Γ( )
r1
2
r2
2
0

En esta última integral, hagamos la siguiente sustitución:

v
y= (r1u + r2 ) y dv = 2 dy , y se obtiene:
2r2 r1 u
+1
r1
234 Hugo Cornejo Villena & Hugo Cornejo Rosell.

r1 r1 + r2
r −1
 r1  2 21 −1   2
  u  
 r2  ∞
−y  2y  2
f U (u ) = r1 + r2 ∫e  
dy
( )Γ( )
r1  r1 
 u +1
0
2 2 Γ r1 r2
 u + 1
2 2
 r2   r2 
 r1 r2 r1
−1
 r1 2 r2 2 u 2 r r 
 r  r  Γ 1 + 2 
r1 + r2
 Γ 1 Γ 2 (r u + r ) 2  2 2  ; si u > 0
=  2 2
1 2
    

0 ; si u ≤ 0

En el siguiente gráfico, se da un bosquejo de la función de densidad de la


variable aleatoria F, para tres pares diferentes de grados de libertad.

Como la distribución F depende de los parámetros r1 y r2 , se necesita


una tabla con tres entradas para tabular el valor de F que corresponde a
diferentes probabilidades y valores de r1 y r2 . Una tabla de este tipo se da en
la tabla A-5 al final de este libro. Dados el par de números enteros ( r1 , r2 ) y
la probabilidad p, la tabla presenta el valor de x para el que es,
P[X ≤ x ] = p
cuando X tiene una distribución F con ( r1 , r2 ) grados de libertad. Por ejemplo,
si ( r1 , r2 ) = (7, 12) y p = 0.99; se lee x = 4.64; por otro lado, si ( r1 , r2 ) = (3, 5)
y p = 0.975, obtenemos x = 7.76. Podemos observar que la tabla está diseñada
para valores grandes de la probabilidad p. Sin embargo, es muy fácil utilizar
Introducción al Cálculo de Probabilidades 235

las tablas para valores pequeños de p, observando que si X tiene una


distribución F en ( r1 , r2 ) grados de libertad, es
 1
P[X ≤ x ] = 1 - P Y ≤ 
 x
siendo Y una variable aleatoria con distribución F con ( r2 , r1 ) grados de
libertad. Por ejemplo, debemos hallar x tal que P[X ≤ x ] = 0.05, siendo X una
variable aleatoria con distribución F con (8, 4) grados de libertad. En este caso,
1  1
se consultará en las tablas el valor de para el que sea P Y ≤  = 0.95,
x  x
donde Y sigue la distribución F con (4, 8) grados de libertad, se halla
1
= 3.84 y luego x = 0.2604
x
EJEMPLOS
7.6.1.- Si X tiene una distribución F con (5,6) grados de libertad buscar:
a) P[X ≤ 8.75]
b) P[X > 11.1]
c) P[X ≤ 7]
d) P[X ≤ 0.1398]
SOLUCION:
a) De la tabla
P[X ≤ 8.75] = 0.99
b) P[X > 11.5] = 1 - P[11.5] = 1 - 0.995 = 0.005
c) Por interpretación:
valor de F: 5.99 < 7 < 8.75
área correspondiente: 0.975 < < 0.99
p 0 − 0.975 7 − 5.99
Luego = , de donde = 0.9805
0.99 − 0.975 8.75 − 5.99
d) Como en la tabla no existe esta probabilidad, sea
 1 
P[X ≤ 0.1433] = 1 - P Y < = 1 - P[Y < 6.98]
 0.1433 
= 1 - 0.975 = 0.025
7.6.2.- Si X tiene una distribución F con (120, 5) grados de libertad, hallar el
valor de a y b tal que
P[a ≤ X ≤ b] = 0.95, sabiendo que P[X > b] = 0.025
SOLUCIÓN:
236 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Como P[X > b] = 0.025, entonces


P[X ≤ b] = 1 - P[X > b] = 0.975; luego b = 6.33
Por otro lado 0.95 = P[a ≤ X ≤ b] = P[X ≤ b] - P[X ≤ a ]
0.95 = 0.975 - P[X ≤ a ] , de donde P[X ≤ a ] = 0.025
 1
Pero 0.025= P[X ≤ a ] = 1 - P Y <  , entonces
 a
 1
P Y <  = 1 - 0.025 = 0.975
 a
1
luego = 2.67 por tanto, a = 0.375
a
7. 7. DISTRIBUCION t de STUDENT
La distribución t de student fue establecida por el estadístico irlandés
W.S. G; en esa época Gosset era empleado de una compañía cervecera que
desaprobaba la publicación de trabajos de investigación de sus trabajadores,
para evitar esta restricción Gosset público su trabajo en secreto con el
seudónimo de “Student”, por lo que se conoce por este nombre. Como la
distribución F y esta distribución de Student son las que más se utilizan en la
estadística aplicada; tiene una relación próxima a la distribución Ji-cuadrada
y a la normal estándar (para valores grandes).
DEFINICION 7.7.1
Sean X e Y dos variables aleatorias independientes, donde X sigue una
distribución normal estándar e Y una distribución Ji-cuadrada con r grados de
libertad, la distribución de la variable aleatoria:
X
T=
Y
r
se llama distribución t de Student con r grados de libertad.
TEOREMA 7.7.1
La distribución t de Student con r grados de libertad tiene por función de
densidad:
 r +1 r +1
Γ  2 − 2
2   t 
f T (t) =  1 + 
 , cuando - ∞ < t < ∞
r  r 
Γ  πr
2
DEMOSTRACIÓN:
Introducción al Cálculo de Probabilidades 237

Como X e Y son variables aleatorias independientes, su distribución de


probabilidad conjunta está dada por el producto de las distribuciones de X e
Y. Como:
 e − x2  x  r −22
   ; si x > 0

f χ 2 ( x) =  2Γ r   2 
 2
0 ; en caso contrario
Y
Si Z = , donde Y = χ 2 , entonces x = rz 2 . Por tanto:
r
 r

 2 r  2 e − rz2 z r −1
2

  2 
f Z (z ) = f χ 2 ( x ) (2rz) =  ; si z > 0
/ r r
 Γ 
 2
0 ; si z ≤ 0
Consiguientemente la densidad conjunta de X y Z será:
 r
 r 
 2  e 2 z
2 2
2 − ( x + rz ) r −1

  2 
f Z, Z (x , z ) = f X ( x )f Z (z) =  ; si - ∞ < x < ∞ y z > 0
r
 2 π Γ 
 2
0 ; en otro caso
x
Efectuando la transformación t = , s = z ; de donde x = ts , z = s y el
z
∂ ( x , z) s 0
Jacobiano es: = =s
∂ ( t , s) t 1
Luego
 r

 2  r  2
s 2 (t 2 + r )
  2  − si - ∞ < t < ∞
fT , S (t , s ) = f Z , Z (ts, s )s = 
r
s e 2 ;
r 0<s<∞
 2 π Γ 
 2
0 ; en otro caso
Integrando los dos miembros de esta igualdad respecto a s, entre 0 e ∞,
tenemos:
238 Hugo Cornejo Villena & Hugo Cornejo Rosell.

r
 r 2
2  2
2 t +r

f T (t ) = ∫0∞ f T ,S (t , s )ds = ∫0∞  2  s r e −s ( 2 ) ds


r
2 π Γ 
2
r r
 r 2  r 2
2  t 2 +r 2  t 2 +r

=
2 ∞ r −
∫0 s e
s2 (
2 ds
)
=
2 ∞ r −1
∫0 s e
−s 2 (
2 (
)
)
t 2 + r sds
r
2 π Γ 
 
r
(
2 π Γ  t 2 + r )
2 2
 t2 + r 
Si u = s 
2
 , entonces du = s (t 2 + r )ds y
 2 
1
2
u u
u= =
t +r
2 1
 t2 + r 2
2  
 2 
r
 r 2
2  r −1

Luego, fT (t ) =
2 ∞
r −1 ∫
0
u 2 −u
e du
+r
( ) t
2
r 2
2π Γ  t 2 + r 
2  2 
r −1
∞  r + 1
Como ∫0
u 2 −u
e du = Γ
 2 

r
 r 2
2 
2  r +1
Entonces, fT (t ) = r +1
Γ 
 2 
 r  t +r 
2 2
2 π Γ 2 
2  2 
Introducción al Cálculo de Probabilidades 239

r
 r 2 r +1
  −
2
   + 1   2
+ 
fT (t ) = =
r t r 2
Γ  
r 2  2 
2 π Γ  
2
r +1 r +1 r +1 r +l
− − − −
 t 2
 2 r +t 2
 2 r +t 2
 2
2 2
Pero 1 +  =   =    
 r   r   2  r

r +1 r

r +t 2
 2
 r 2 r
=    
 2  2 2
Por tanto:
 r +1 r +1
Γ  2 − 2
2   t 
f T (t) =  1 + 
 , cuando: - ∞ < t < ∞
 
r  r 
Γ  πr
2
Puesto que, la distribución de la variable aleatoria T (de Student ), está
completamente determinado sólo por el parámetro r, luego hay una
distribución T correspondiente a cada grado de libertad.
En el siguiente gráfico, se presenta una interpretación de la función de
densidad de la variable aleatoria T, para diferentes grados de libertad y en el
mismo gráfico se presenta la gráfica de la curva normal estándar.

Debemos notar que, la simetría de la distribución t de Student, alrededor


de t = 0 , varía de menos infinito a más infinito; se asemeja a la distribución
normal estándar y cuando r → ∞ las dos distribuciones son iguales.
240 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Debido a la importancia de la distribución t de Student, en inferencia


estadística y la dificultad para evaluar la función de distribución de la variable
aleatoria T, estas se dan en una tabla, tabla A-6, al final del libro. Si una
variable aleatoria X sigue la distribución t de Student con r grados de libertad,
la tabla dice para qué valor de x se cumple:
P[X ≤ x ] = p, donde p es la probabilidad que se conoce.
Por ejemplo, si r = 8 y p = 0.75, se lee x = 0.706 y esto quiere decir que
P[X ≤ 0.706] = 0.75.
Para valores pequeños de p, se utiliza esta tabla, teniendo en cuenta que para
la distribución t de Student se cumple: P[X ≤ x ] = 1 - P[X ≤ − x ]
Por ejemplo, si r = 24 y p = 0.0005, como P[X ≤ 3.745] = 0.9995, resulta x
= -3.745; es decir, P[X ≤ −3.745] = 0.0005
Para valores grandes de r () la distribución t de Student con r grados de
libertad es próxima a la distribución normal, como manifestamos
anteriormente; por tanto, si r es grande, puede utilizarse la tabla A-1 para
aproximar la distribución t de Student en aquellos valores de r que no figuran
en l atabla A-6.
EJEMPLOS
7.7.1.- Si X tiene distribución t de Student con 17 grados de libertad hallar:
a) P[X ≤ 2.898]
b) P[X > 1.740]
c) P[X ≤ −3.965]
SOLUCION:
a) P[X ≤ 2.898] = 0.995.
b) P[X > 1.740] = 1 - P[X ≤ 1.740] = 1 - 0.95 = 0.05.
c) P[X ≤ 3.965] = 1 - P[X ≤ −3.965] , entonces
P[X ≤ −3.965] = 1 - P[X ≤ 3.965] = 1 - 0.9995 = 0.0005.
7.7.2.- Si X tiene distribución t de Student con 12 grados de libertad, hallar
el valor de k tal que:
a) P[ X ≤ k ] = 0.90.
b) P[ X ≥ k ] = 0.05.
SOLUCION:
a) P[ X ≤ k ] = P[− k ≤ X ≤ k ] = P[X ≤ k ] - P[X ≤ − k ]
= P[X ≤ k ] [1 − P[X ≤ k ]] = 2 P[X ≤ k ] - 1 = 0.90.
De donde P[X ≤ k ] = 0.95, luego k = 1.782.
Introducción al Cálculo de Probabilidades 241

b) Como
P[ X ≥ k ] = 1 - P[ X < k ] = 0.05, entonces
P[ X < k ] = 2 P[X < k ] - 1 = 0.95, de donde
P[X < k ] = 0.975, luego k = 2.179.

EJERCICIOS
1.- El número de automóviles que llegan a un surtidor de gasolina se
distribuye según el modelo de Poisson con un promedio de 2 autos por
minuto. Hallar la probabilidad de que pase hasta un minuto hasta que
lleguen 2 autos.
2.- Si una variable aleatoria tiene distribución gamma con α = 2 y β = 2,
calcular la probabilidad de que la variable aleatoria tome un valor menor
que 4.
3.- Si n vendedores son utilizados en una compañía de ventas de casa, el
volumen de ventas total en millones de soles puede considerarse como
una variable aleatoria que tiene una distribución gamma con
1
α = 100 n y β = . Si los gastos ascienden a s/5,000 por vendedor.
2
¿Cuántos vendedores deberán ser contratados a fin de maximizar la
utilidad?
4.- Demostrar que, cuando α > 1, la gráfica de la función de densidad gamma
tiene un máximo relativo en x = β (α - 1) ¿Qué sucede cuando 0 < α < 1
y cuando α = 1?
5.- Si una variable aleatoria X tiene una distribución gamma con α = 2 y
β = 1, hallar P[1.8 < X < 2.4] .
6.- En una ciudad cualquiera el consumo diario de agua (en millones de litro)
sigue aproximadamente una distribución gamma con α = 2 y β = 3. Si la
capacidad diaria para esta ciudad es de 9 millones de litros de agua. ¿Cuál
es la probabilidad de que en un determinado día el suministro de agua sea
inadecuado?
7.- Supongamos que el tiempo, en horas, que toma reparar una bomba es una
variable aleatoria X que tiene una distribución gamma con parámetro
1
α = 2 y β = . ¿Cuál es la probabilidad de que en el siguiente servicio
2
a) ¿Tome cuando mucho 1 hora para reparar la bomba?
b) ¿Al menos se requiera 2 horas para reparar la bomba?
8.- Una variable aleatoria X tiene la distribución uniformemente continua si
su función de densidad es:
242 Hugo Cornejo Villena & Hugo Cornejo Rosell.

 1
 ; si α < x < β
f X (x) = β − α
0 ; en cualquier otro caso
para una distribución uniformemente continua con α = 2 y β = 7,
encuentre
a) P[X ≥ 4]
b) P[3 < X < 5.5]
9.- La cantidad diaria en litros de café despachado por una máquina ubicada
en la sala de espera de un aeropuerto, es una variable aleatoria X que tiene
una distribución uniformemente continua con α = 7 y β = 10.
Determinar la probabilidad de que en un determinado día la cantidad de
café despachado por esta máquina sea:
a) cuando mucho 8.8. litros.
b) más de 7.4 pero menos de 9.5 litros.
c) de menos 8.5 litros.
10.- En una determinada provincia, la proporción de tramos de autopista que
requieren reparación de un año determinado es una variable aleatoria con
distribución beta, p = 3, q = 2. ¿Calcular la probabilidad de que a lo
sumo la mitad de los tramos de autopista requieran reparación en un año
cualquiera?
11.- Si la proporción anual de declaraciones de impuestos erróneas en la
SUNAT puede considerarse como una variable aleatoria que tiene una
distribución beta con p = 2, q = 9. ¿Cuál es la probabilidad de que, en un
año determinado, menos del 10% de las declaraciones sean erróneas?
12.- Supongamos que la proporción de unidades defectuosas embarcadas por
un vendedor, las cuales varían de cargamento a cargamento, puede
considerarse como una variable aleatoria que tiene la distribución beta
con p = 1, q = k. Hallar la probabilidad de que un embarque de este
vendedor contenga el 25% o más de unidades defectuosas.
13.- La variable aleatoria X tiene la distribución uniforme de parámetros p y
q y su función de densidad es:
 1
 ; si p < x < q
f X (x) =  q − p
0 ; en cualquier otro caso
donde p y q son números reales.
a) Encontrar la distribución acumulativa.
b) En ciertos experimentos, el error cometido al determinar la densidad
de una sustancia es una variable aleatoria cuya distribución es
Introducción al Cálculo de Probabilidades 243

uniforme con p = -0.025 y q = 0.025. ¿Cuáles son las probabilidades


de que tal error esté entre 0.01 y 0.015 y entre -0.012 y 0.012?
1
14.- Sea X una variable aleatoria con distribución beta y parámetros 𝑝𝑝𝑝𝑝 = y
2
3
q= .
2
a) Graficar la función de densidad de probabilidad.
b) ¿Cuál es la probabilidad de que X tome un valor que se encuentre
entre -6 y 2?
15.- Si los parámetros de la distribución beta son enteros, demostrar que la
función de distribución acumulativa beta se encuentra relacionada con la
distribución binomial por:
n!
P[X < t ] = I t (p, q ) = ∑
n
t y (1 − t )
n−y

y = p ( n − y)! y!

en donde n = p + q - 1 y 0 < t <1. Si X es una variable aleatoria con una


distribución beta con parámetros p = 2 y q = 3, emplear la relación
anterior para obtener P[X < 0.1] .
16.- Dada una distribución normal estándar, encuentre el área bajo la curva
que cae
a) a la izquierda de x = 2.27.
b) a la derecha de x = -0.34.
c) entre x = -2.05 y x = 1.68.
d) entre x = 1.03 y x = 3.42.
e) entre x = -3.00 y x = -1.73.
17.- Dada una distribución normal estándar, hallar el valor de k, tal que:
a) P[X < k ] = 0.0427.
b) P[k < Z < 0.54] = 0.7235.
c) P[Z > k ] = 0.2776.
d) P[Z < k ] = 0.9903.
18.- Dada la distribución normal con µ = 200 y σ = 20 . Determinar las
siguientes probabilidades:
a) P[185 < X < 210]
b) P[215 < X < 250]
c) P[X > 240]
d) P[X > 178]
19.- Dada la distribución normal con µ = 10 y σ = 5 . Encontrar los valores
de x que corresponden a las siguientes probabilidades.
244 Hugo Cornejo Villena & Hugo Cornejo Rosell.

a) P[X < x ] = 0.05.


b) P[X < x ] = 0.975.
c) P[X < x ] = 0.95.
d) P[X < x ] = 0.01.
20.- Dada una distribución normal con µ = 3 y σ = 6 , Hallar:
a) El área de la curva a la derecha de x = 17.
b) El área de la curva normal a la izquierda de x = 22.
c) El área de la curva normal entre x = 32 y x = 41.
d) El valor de x que tiene el 80% del área de la curva normal a la
izquierda.
e) Los dos valores de x que contienen un intervalo central de 75% de
la mitad del área de la curva normal.
21.- Si una variable aleatoria X, tiene una distribución N (3,4), hallar k tal que
P[X ≥ k ] = 2 P[X < k ] .
22.- Si una variable aleatoria X, tiene una distribución N (650,625). Hallar la
constante k > 0, tal que P[ X − 650 ≤ k ] = 0.9544.
23.- En una distribución normal se tiene los siguientes datos:
P[ X < 45] = 0.31 y P[ X > 64] = 0.08
Hallar la media y la desviación estándar de la distribución.
24.- Un fabricante de bombillas eléctricas ha encontrado que, en promedio un
2% son defectuosos. ¿Cuál es la probabilidad de que en 1,000 bombillas
seleccionadas al azar se encuentren 15 o más defectuosas?
25.- Una máquina despachadora de refrescos está ajustada para servir en
promedio de 200 mililitros por vaso. Si la cantidad de refresco es
normalmente distribuida con una desviación estándar igual a 15
mililitros.
a) ¿Qué fracción de los vasos contendrá más de 222 mililitros?
b) ¿Cuál es la probabilidad de que un vaso contenga entre 191 y 209
mililitros?
c) ¿Cuántos vasos probablemente se derramarán si se utilizan vasos de
230 mililitros en los siguientes 1,000 refrescos?
d) ¿Abajo de qué valor se obtiene el 25% más pequeño de los
refrescos?
26.- El Gerente de Créditos de un Almacén de artículos electrodomésticos,
estima las pérdidas por malos clientes durante un año, en la siguiente
forma: La pérdida tiene distribución normal de $50,000; además, la
probabilidad de que sea mayor de $60,000 y menor de $40,000 es de 0.40.
¿Cuál es la desviación estándar?
Introducción al Cálculo de Probabilidades 245

27.- La vida útil de las pilas de cierta marca está distribuida normalmente. Si
el 7.68% de las pilas duran más de 54 horas y 39.80% duran menos de 50
horas. ¿Cuál es la media y la desviación estándar?
28.- La demanda mensual de cierto producto A, tiene una distribución normal
con una media de 200 unidades y desviación estándar igual a 40 unidades.
La demanda de otro producto B, también tiene una distribución con
media de 500 unidades y desviación estándar igual a 80 unidades. Un
comerciante que vende estos productos tiene en su almacén 280 unidades
de A y 650 de B al inicio de un mes. ¿Cuál es la probabilidad de que, en
el mes, se vendan todas las unidades de ambos productos?
29.- Las especificaciones de cierta tarea recomiendan lavadoras con
u diámetro interno de 0.300 ± 0.005 pulgadas. Si los diámetros internos
de las lavadoras proporcionadas por un fabricante determinado pueden
considerarse como una variable aleatoria, cuya distribución es normal
con pulgadas y pulgadas. ¿Qué porcentaje de las lavadoras cumplen las
especificaciones?
30.- Si una variable aleatoria tiene una distribución binomial con n = 29 y p =
0.60, con la aproximación normal determinar las probabilidades de que
asuma:
a) El valor 14.
b) Un valor menor que 12.
31.- La probabilidad de un componente electrónico falle en menos de 1,000
horas de uso continuo es 0.25. Utilizando la aproximación normal para
encontrar la probabilidad de que entre 200 de tales componentes menos
de 45 fallen en menos de 1,000 de uso continuo.
32.- El propietario de una carnicería ha determinado que la demanda diaria de
carne molida tiene una distribución normal con una media de 240 Kg. y
una desviación estándar de 23 Kg. ¿Qué cantidad de carne molida debe
estar disponible diariamente para que la probabilidad de que se agote la
dotación no sea mayor del 2%?
33.- La tasa de mortalidad para cierta enfermedad es de 18 por 1,000 ¿Cuál es
la probabilidad de que 5 mueran de esta enfermedad de un grupo de 500?
34.- Un par de dados perfectos se lanzan 50 veces ¿Cuál es la probabilidad de
que un 6, un 7 o un 8 aparezcan 25 veces o más utilizando la
aproximación normal?
35.- Los ingresos de un grupo económico se distribuyen normalmente. La
clasificación de los grupos económicos de mayor o menor ingreso es el
siguiente:
246 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Grupo Porcentaje de personas en el grupo


A 8
B 16
C 42
D 20
E 14

Si el grupo C está comprendido entre $36,500 y $39,500 quincenales.


Calcular la media y desviación estándar.
36.- El 20% de los residentes de una ciudad prefieren un teléfono blanco que
cualquier otro color disponible. ¿Cuál es la probabilidad de que entre los
siguientes 1,000 teléfonos que se instalen en dicha ciudad:
a) Entre 170 y 185 inclusive sean blancos
b) De menos 210 pero no más de 225 sean blancos
37.- Una compañía farmacéutica sabe que aproximadamente 5% de sus
píldoras para el control de natalidad tiene un ingrediente que está por
debajo de la dosis, mínima, lo que vuelve ineficaz a la píldora ¿Cuál es
la probabilidad de que menos de 10, en una muestra de 200 sea ineficaz?
38.- Sean X1 , X 2 , …, X n , n variables aleatorias independientes, todas con
la misma distribución N(µ, σ 2 ) . Demostrar que X1 + X 2 + … + X n
tiene la distribución N(nµ, nσ 2 ) . (Sugerencia: realizar la
transformación: µ1 = x1 + x 2 + ... + x n , µ 2 = x 2 + x 3 + ... + x n ,..., µ n = x n )
39.- Demostrar: Si X es una variable aleatoria, con distribución N(µ, σ 2 ) y k
es una constante, entonces:
a) La distribución de k X es N(kµ, k 2 σ 2 )
b) La distribución de X + k es N(µ + k , σ 2 )
40.- Sean X e Y dos variables aleatorias, ambas con distribución N (0,1).
X
Hallar f Z (z) , con Z = (La distribución de Z se llama distribución de
Y
Cauchy).
41.- La distribución de la duración, en meses, de cierto tipo de objeto es
exponencial, con parámetro β. ¿Cuál es el valor de β si se sabe que hay
una probabilidad de 0.7 de que uno de estos objetos tenga una duración a
lo más de 6 meses?
Introducción al Cálculo de Probabilidades 247

42.- Supongamos que el tiempo que necesita un obrero para ensamblar un


1
objeto tiene una distribución exponencial con parámetro β =
40
minutos.
a) Calcular la probabilidad de que un objeto sea ensamblado en menos
de media hora.
b) Si no ensambló un objeto en media hora, ¿Cuál es la probabilidad de
que no lo ensamble en el transcurso de 20 minutos más?
43.- Sea X una variable aleatoria con distribución exponencial ¿Cuál es la
1
probabilidad de que X tome un valor mayor que ?.
β
44.- Un dispositivo tiene una frecuencia de falla constante h ( t ) = 10 −2 por
hora. ¿Cuál es la confiabilidad del dispositivo para t = 200 horas?
45.- La tasa de llegada de los camiones que abastecen un almacén es 2 cada
hora. Si el número de camiones que llegan tiene ley de Poisson y el
tiempo que transcurre entre dos llegadas consecutivas se denota con T
a) Hallar la función de densidad de T.
b) Hallar la probabilidad de que el tiempo que transcurre entre dos
llegadas consecutivas sea menor que 10 minutos.
c) Si desde la llegada de un camión ha transcurrido 30 minutos. ¿Cuál
es la probabilidad de que no llegue ningún camión en los 15 minutos
siguientes?
46.- a) Hallar χ 02.01 , si r = 28. b) Hallar χ 0.975 , si r = 7.
2

[ ]
Hallar χ α2 tal que P X < χ α2 = 0.99 con r = 4.
47.- Si X es χ 2 (12) , hallar las constantes a y b tales que:
P[a < X < b] = 0.90 y P[X < a ] = 0.05 .
48.- Si X es una variable aleatoria que tiene distribución Ji-cuadrada con 19
grados de libertad, calcular
a) P[X ≤ 20] , b) P[X ≥ 15] , c) P[16 ≤ X ≤ 21] .
49.- Si la variable aleatoria X, tiene distribución Ji-cuadrada con 200 grados
de libertad. Calcular
P[160 ≤ X ≤ 240]
50.- Si la variable aleatoria X, tiene distribución Ji-cuadrada con 50 grados de
libertad. Hallar a tal que: P[X ≥ a ] = 0.05.
51.- Supongamos que la vida útil en años, de una batería para audífonos es
1
una variable aleatoria que tiene una distribución Weibull con α = y
2
248 Hugo Cornejo Villena & Hugo Cornejo Rosell.

β = 2. ¿Cuál es la probabilidad de que dicha batería siga funcionando


después de 2 años?
52.- En el ejemplo 7.5.1, Hallar la probabilidad de que tal sello ya no funciona
antes de los 4 años.
53.- Si f T ( t ) es la distribución Weibull con parámetros α y β entonces
demostrar que:
a) La función de confiabilidad del componente dado en el tiempo t, es:
β
R T ( t ) = e − αt , t > 0.
b) La función de riesgo o frecuencia de falla: h T ( t ) = αβ t β−1 , t > 0.
54.- Demostrar que la función de densidad, de la distribución Γ con (r1 , r2 )
grados de libertad, en efecto es una probabilidad.
55.- Si X tiene distribución F con (4, 5) grados de libertad, encontrar:
a) P[X ≤ 7.39] , b) P[X > 11.4] , c) P[X ≤ 8] , d) P[X ≤ 0.0645]
56.- Si X tiene una distribución F con (3, 7) grados de libertad, hallar k si:
a) P[X ≤ k ] = 0.99
b) P[X ≥ k ] = 0.05, c) P[X ≤ k ] = 0.025
57.- Si X tiene distribución F con (15, 2) grados de libertad, hallar a y b tales
que P[a ≤ X ≤ b] = 0.90, sabiendo que P[X > b] = 0.05.
58.- Demostrar que si X sigue la distribución F con (r1 , r2 ) grados de libertad,
e Y sigue la distribución con (r2 , r1 ) grados de libertad, para todo x
positivo se tiene
 1
P[X ≤ x ] = 1 − P Y ≤ 
 x
59.- Probar que la función de densidad de la distribución t de Student es en
efecto, una probabilidad.
60.- Demostrar que la distribución t de Student con r grados de libertad, es
simétrica; es decir, que, si la variable X tiene la distribución t de Student
con r grados de libertad, entonces:
P[X ≤ x ] = 1 − P[X ≤ − x ]
61.- Si X tiene distribución t de Student con 18 grados de libertad, hallar:
a) P[X ≤ 2.552]
b) P[X > 2.101]
c) P[X ≤ −2.878]
d) P[− 1.330 ≤ X ≤ 2.552]
e) P[X ≤ 2]
Introducción al Cálculo de Probabilidades 249

62.- Si X tiene una distribución t de Student con r grados de libertad, hallar el


valor de k que satisfacen, respectivamente, a las condiciones:
a) P[X ≤ k ] = 0.99 con r = 17.
b) P[X ≤ k ] = 0.05 con r = 6.
c) P[ X ≤ k ] = 0.95 con r = 10.
d) P[X ≤ k ] = 0.92 con r = 10.
63.- Sea T una variable aleatoria que sigue la distribución t de Student con r
grados de libertad. Demostrar que T 2 sigue una distribución F con (1, r)
grados de libertad.
CAPÍTULO 8: ESPERANZA MATEMATICA Y
LIMITES

8. 1. ESPERANZA DE UNA VARIABLE ALEATORIA


En esta sección estudiaremos el valor esperado o la media o esperanza
de una variable aleatoria que tiene importancia dentro de las distribuciones de
probabilidad. La esperanza de una variable aleatoria tiene sus orígenes en los
juegos de azar, debido a que los apostaderos deseaban saber cuál era su valor
esperado de ganar repetidamente un juego. En este sentido, la esperanza
representa la cantidad de dinero promedio que el apostador está dispuesto a
ganar o perder, después de un número muy grande de apuestas. Este
significado también es válido para una variable aleatoria; es decir, el valor
promedio de una variable aleatoria después de un número grande de
experimentos es su valor esperado.
Luego de presentar la definición y el teorema 8.1.1, ilustraremos la
esencia de la esperanza; mediante ejemplos.
DEFINICION 8.1.1
Sea X una variable aleatoria con función de distribución FX (x) , la esperanza,
la media o valor esperado de X es:
µ = E (X) = ∫0∞ [1 − FX ( x )]dx − ∫−0∞ FX ( x )dx ,
supuesto que ambas integrales sean finitas. Si una de estas integrales es
infinita, se dice que la esperanza de X no existe.
En forma gráfica, la esperanza de X se
interpreta como la diferencia de dos áreas: el
área situada encima de y = FX ( x ) , a la
derecha del eje Y y bajo la recta y = 1, menos el
área de la izquierda del eje Y, bajo y = FX (x) y
encima de la recta y = 0; es decir:
E(X) = área I - área II
Para la demostración de los teoremas que veremos posteriormente, es
importante establecer el siguiente lema.
LEMA 8.1.1.-

Si {a n } es una sucesión de números no negativos y sí S n = ∑ a j , entones
j=n
∞ ∞
∑ S n = ∑ na n .
n =1 n =1
DEMOSTRACION:
Sumando por filas y columnas la serie doble:
Introducción al Cálculo de Probabilidades 251

∞ ∞ ∞ ∞
∑ S n = ∑ ∑ a j = ∑ (a n + a n +1 + a n + 2 + ...)
n =1 n =1 j= n n =1

= a 1 + a 2 + a 3 + a 4 + ...
+ a 2 + a 3 + a 4 + ...
+ a 3 + a 4 + ...
……
= a 1 + 2a 2 + 3a 3 + ...

= ∑ na n
n =1
TEOREMA 8.1.1.-
Sea X una variable aleatoria con distribución discreta, lo cual significa que
existen un conjunto numerable de números {x n } y de probabilidades {p n }

tales que, P[X = x n ] = p n y ∑ p n = 1 . La esperanza de X existe y está dada
n =1

por: µ = E(X) = ∑ x n p n , siempre y cuando la serie sea absolutamente
n =1

convergente (esto es, ∑ x n p n < ∞ )
n =1
DEMOSTRACION:
Como:
E (X) = ∫0∞ [1 − FX ( x )]dx − ∫−0∞ FX ( x )dx = ∫0∞ P[X > x ]dx - ∫−0∞ P[X ≤ x ]dx
Sean
I 1 = ∫0∞ P[X > x ]dx y I 2 = ∫−0∞ P[X ≤ x ]dx
Por la definición de integral impropia (o de Cauchy)
2 3 k

I 1 = ∫0 P[X > x ]dx + ∫ P[X > x ]dx + ∫ P[X > x ]dx + … = ∑ ∫ P[X > x ]dx
1 n n n
n
1 2 k −1 k =1
n n n

Como P [ X > x ] es no creciente con x; es decir, si x1 < x 2 , entonces


P [ X > x1 ] ≥ P [ X > x 2 ] , se cumple la siguiente condición:
k

1  k n
1  k-1 
P X>
n  n 
≤ ∫ P [ X > x ] dx ≤
k-1
P X >
n  n 
n

Si, tenemos las siguientes consideraciones:


∞ ∞
1  k 1  k-1 
Ln = ∑
k =1 n
P X >  y
 n
Un = ∑ n P X >
k =1 n 
252 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Entonces se cumple: L n ≤ I1 ≤ U n
para cualquier entero positivo n. Por otro lado, aplicando propiedades de
probabilidades:
1 ∞ ∞ j j+1 
Ln = ∑ ∑ P < X ≤
n=k 1 =j k  n n 
j j + 1
Si suponemos que a j = P < X ≤ , entonces aplicando el lema
n n 
8.1.1, obtenemos:
1 ∞ k k + 1 ∞ k −1  k −1 k
L n = ∑ kP  < X ≤  +0= ∑ P <X≤ 
n k =1  n n  k =1 n  n n
∞ k  k −1 k  ∞ 1  k −1 k
= ∑ P < X ≤  - ∑ P <X≤ 
k =1 n  n n  k =1 n  n n
Por otro lado
k  k −1 k k k
P
n  n
<X≤  =
n  n  k-1 k

p(x j ) =
n  k-1 k 
pj ∑
 j/ <xj <   j/ <xj £ 
 n n  n n

≥ ∑ x jp j
 k-1 k
 j/ <xj £ 
 n n

∞ 1  k −1 k 1
∑ P < X ≤  = P[X > 0]
k =1 n  n n n
Luego
 
∞  1  1
Ln ≥ ∑  ∑ x j p j − P[X > 0] ≥ ∑ x m p m −
 j / < xj≤ k 
k =1  k −1 n  {m / x m >0} n
 n n 
De manera equivalente, se demuestra que
1
Un ≤ ∑ x mpm +
{m / x m >0} n
Por consiguiente, para todo entero positivo n, se cumple:
1 1
∑ x m p m − ≤ I1 ≤ ∑ x m p m +
{m / x m >0} n {m / x m >0} n
de donde, tomando limites cuando n → ∞, se tiene: I1 = ∑ x mpm
{m / x m >0}
De manera análoga, se demuestra que: I 2 = ∑ x mpm
{m / x m ≤0}
Introducción al Cálculo de Probabilidades 253

Puesto que, la serie ∑ x m p m es absolutamente convergente, luego las


m

integrales I1 y I 2 existen; por consiguiente:


µ = E(X) = I1 − I 2 = ∑ x m p m , si n = m, tenemos µ = E ( x ) = ∑ x n p n
m n

Debemos observar que p n , es la función de probabilidad de X;


p x (x n ) = P [ X = x n ]
EJEMPLOS
8.1.1.- Si dos monedas se lanzan 20 veces, sea X el número de caras que
ocurren en cada lanzamiento, entonces los valores de X pueden ser 0, 1 y
2. Supongamos que en el experimento resultan: En 8 lanzamientos cero
caras y en 7 lanzamientos salió una cara y en 5 lanzamientos salieron dos
caras. El número promedio de caras por lanzamiento de las dos monedas
es, entonces
0(8) + 1(7) + 2(5)
= 0.85
20
Este es un valor promedio y no necesariamente un resultado posible.
La solución anterior podemos expresar en forma equivalente como:
(0) 8  + (1) 7  + (2) 5  = 0.85
 20   20   20 
que en sí, es la esperanza de obtener un número de caras por lanzamiento;
8 7 5
Los números , y son las fracciones del total de lanzamiento
20 20 20
que resultan en 0, 1 y 2 caras, respectivamente; estas fracciones son las
frecuencias relativas para los diferentes valores de X en el experimento.
De esta manera, interpretamos el verdadero significado de la esperanza,
que es la media o promedio de un conjunto de datos, conociendo los
distintos valores de que ocurren y sus frecuencias relativas.
8.1.2.- Hallar el número esperado de mujeres que forman parte de una
representación laboral de 4 miembros que se seleccionan al azar o por
sorteo de un grupo de 8 varones y 6 mujeres.
SOLUCIÓN:
Sea X la variable aleatoria que representa el número de mujeres en la
representación laboral; R X = {0,1,2,3,4} . La función de probabilidad de
X es:
254 Hugo Cornejo Villena & Hugo Cornejo Rosell.

 6  8 
  
 x  4 − x 
p X (x ) = ; x = 0,1,2,3,4
14 
 
4
De donde:
10 48 60
p X (0 ) = , p X (1) = , p X (2 ) = ,
143 143 143
160 15
p X (3) = , p X (4) = , luego
1001 1001
 10   48   60   160   15 
E (X) = (0 )  + (1)  + (2 )  + (3)  + (4 ) 
 143   143   143   1001   1001 
48 160 480 60 1996
= + + + = = 1.99
143 143 1001 1001 1001
De aquí que, si la representación laboral de 4 miembros se selecciona
aleatoriamente, una y otra vez, de un grupo de 8 varones y 6 mujeres, se
tendrían, en promedio 1.99 ≈ 2 mujeres.
8.1.3.- Supongamos que se tiene una moneda normal y el jugador tiene sus
oportunidades para que al lanzarla aparezca una cara; el juego termina en
el momento en el que cae una cara o después de tres intentos, lo que
suceda primero. Si en el primero, segundo o tercer lanzamiento aparece
cara el jugador recibe S/.2, S/.5 y S/.10, respectivamente. Si no cae cara
en ninguno de los tres lanzamientos, pierde S/.30. Determinar la ganancia
o pérdida promedio después de un número muy grande de juegos.
SOLUCION:
Sea X la variable aleatoria que representa la cantidad que se gana o
pierde cada vez que se juega; R X = { 2, 5, 10, -30 } y
1 1
p X (2 ) = P[X = 2] = P(C ) = , p X (5) = P[X = 5] = P(S  C ) =
2 4
1
p X (10 ) = P[X = 10] = P(S  S  C ) = ,
8
1
p X (− 30 ) = P[X = −30] = P(S  S  S) =
8
Por lo tanto, el promedio o la esperanza es:
1 1 1 1
µ = E(X) = S / .2  + S / .5  + S / .10  − S / .30 
2 4 8 8
= S / .1 + S / .1.25 + S / .1.25 − S / .3.75 = −S / .0.25
Introducción al Cálculo de Probabilidades 255

De donde podemos inferir que, participando en el juego una sola vez, se


puede ganar o perder, pero si se repite el juego muchas veces, en
promedio, se perderá S/.0.25; es decir, “a la larga” se pierde S/.0.25 por
juego.
8.1.4.- La distribución de probabilidad X, de número de defectos por cada 10
metros de una tela sintética en rollos continuos de ancho uniforme, es:

x 0 1 2 3 4
p X (x) 0.41 0.37 0.16 0.05 0.01

Hallar el número promedio de fallas por cada 10 metros de esta tela.


SOLUCION:
E(X) = 0(0.41) + 1(0.37) + 2(0.16) + 3(0.05) + 4(0.01)
= 0.37 + 0.32 + 0.15 + 0.04 = 0.88
8.1.5.- Sea X una variable aleatoria con distribución binomial de parámetros
p y n, hallar la esperanza de dicha variable aleatoria.
SOLUCION:
 n  k
 p (1 − p )
n −k
, si k = 0,1,2,...., n
Como P[X = k ] =  k 
0 , en caso contrario

Entonces
n n
µ = E (X) = ∑ kP[X = k ] = ∑ k  p k (1 − p )
n n −k

k =0 k =0  k 

n  n − 1
n-1
 n-1 j

p k −1 (1 − p )n −k = np   p (1- p )
n-1- j
= np ∑ 
k =1 k − 1 j=0  j 

= np  p+ (1- p )  = np
n-1

8.1.6.- Sea X una variable aleatoria con distribución de Poísson, hallar la


esperanza de dicha variable aleatoria.
SOLUCION:
e − λ λn
Como P[X = n ] = ; n = 0,1,2,..... ; entonces
n!
∞ e − λ λn ∞ λn −1
µ = E(X) = ∑ n = λe − λ ∑ = λe − λ e λ = λ
n =0 n! n =1 (n − 1)!

8.1.7.- Sea X una variable aleatoria con distribución de Pascal, hallar la


esperanza de X.
SOLUCION:
256 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Como P[X = n ] = q n p; n = 0,1,.....;0 < p = 1 − q < 1


Entonces, aplicando la definición, el lema 8.1.1 y la fórmula:

n 1
∑x = , si |x| > 1; obtenemos
n =0 1− x
∞ ∞ ∞  ∞ 1 q q
µ = E (X) = ∑ nq n p = p ∑  ∑ q j  = p ∑ q n = =
n =0 n =1 j= n  n =1 (1 − q ) (1 − q ) p
OBSERVACION: Mayor cantidad de ejemplos se puede hallar calculando la
esperanza de los ejemplos de las distribuciones discretas de probabilidad
vistas en el capítulo V.
TEOREMA 8.1.2.-
Sea X una variable aleatoria con una distribución continua. La esperanza de X
existe y tiene el valor de:

E (X) = ∫ xf X ( x )dx
−∞
siempre y cuando la integral impropia tenga sentido.
DEMOSTRACION:
La demostración de este teorema es análoga a la demostración del teorema
anterior, excepto que:
k
n
∑ p j , debe ser reemplazado por ∫ f X ( x )dx , ∑ x j p j se
 k −1 k k −1  k −1 k
j/ <x j ≤  j <x j ≤ 
 n n n  n n
k
n
reemplaza por ∫ xf X (x )dx y, así mismo ∑ x m p m es reemplazado por
k −1 {m x m > 0}
n

∫ xf X (x )dx .
0
EJEMPLOS
8.1.8.- La función de densidad de probabilidad de una variable aleatoria X está
dada por:
2(1 − x ) , si 0 < x < 1
f X (x ) = 
0 , en caso contrario
Determinar la esperanza de X.
SOLUCION:
∞ 1 1
E(X) = ∫ xf X ( x ) dx = ∫ x  2 (1- x )  dx = ∫ ( 2 x- 2 x 2 ) dx
−∞ 0 0
Introducción al Cálculo de Probabilidades 257

1
 2  1
= x 2 - x3  =
 3 0 3
8.1.9.- Sea X la variable aleatoria que representa la vida en horas de un cierto
dispositivo electrónico. La función de densidad de probabilidad es:
 20000
 , si x > 100
f X (x ) =  x 3
0 , en caso contrario
Hallar la esperanza de este dispositivo.
SOLUCION:
∞ ∞ 20000 ∞
E (X) = ∫ xf X (x )dx = ∫ 2
dx = 20000 ∫ x − 2 dx
−∞ 100 x 100

 20000 
= − = 200
 x  100
Es decir; se debe esperar que este tipo de dispositivo durará, en promedio
200 horas.
8.1.10.-Sea X una variable aleatoria con distribución gamma con parámetros
α y β, hallar la esperanza de dicha variable aleatoria.
SOLUCION:
Como
 β

P[X = k ] =  Γ(α )
(β x )α −1 e −β x , si x > 0
0 , en caso contrario
Entonces

β ∞ 1 ∞
µ = E(X) = ∫ x (β x )∝ −1 −βx
e dx = ∫ (β x ) e −βx dx
Γ(∝ ) 0 Γ(∝ ) 0
Γ(∝ +1) ∝ Γ(∝ ) ∝
∝ +1−1
1 ∞
= ∫ (βx ) e −βx βdx = = =
βΓ(∝ ) 0 βΓ(∝ ) βΓ(∝ ) β
8.1.11.- Sea X una variable aleatoria con distribución normal con media µ y
varianza σ 2 , hallar la esperanza de X.
SOLUCION:
( x −µ )2
1 −
Como P[X = x ] = e 2σ2 ,−∞ < x < ∞ , -∞ < µ < ∞, σ > 0
2 πσ
258 Hugo Cornejo Villena & Hugo Cornejo Rosell.

( x −µ )2
1 ∞ − x −µ
Luego: µ = E (X) = ∫ xe 2σ2 dx .Si y= , entonces
2 πσ − ∞ σ
y2
1 1 ∞ −
dy = dx ; consecuentemente: E (X) = ∫ (yσ + µ )e 2 σdy
σ 2 πσ − ∞
Como
y2 y2
1 ∞

2 πσ − ∞
yσ e

2 σdy =
σ ∞ −2

2π − ∞
e ydy = −
σ ∞ u
∫ e du = −
2π − ∞
σ

eu [ ] ∞
−∞ =0
2
y
donde u = − ,
2
y2
u ∞ −2 u ∞ 2 y
2 ∫ e dy = 2 2 ∫ e − z dz, donde z = ; y como
2π 0 2π 0 2
∞ 2 1
2 ∫ e − z dz = Γ  = π , por corolario 7.1.2.
0 2
u ∞ 2 u
Entonces: E(X) = 0 + 2 2 ∫ e − z dz = 2 π =u
2π 0 2π
8.1.12.- Sea X una variable aleatoria con distribución Ji-cuadrada con r grados
de libertad, hallar la esperanza de X.
SOLUCION:
Como
 −x r −2
 e 2 x 2
   , si x > 0
P[X = k ] =   r   2 
2Γ 
 2
0 , en caso contrario

Entonces
r −2 r
x x
1 ∞ −2  x  2 1 ∞ x  2 − 2
µ = E(X) = ∫ xe   dx = ∫   e dx
r0  2  r  0 2 
2Γ   Γ 
2 2
x
Si y = , luego dx = 2dy , entonces:
2
Introducción al Cálculo de Probabilidades 259

r  r
∞ r 2Γ  + 1 Γ 
2 2  2r  2 
= 
+1−1
E(X) = ∫ y 2 e − y dy = =r
r0 r 2 r
Γ  Γ  Γ 
2 2 2
8.1.13.- Sea X una variable aleatoria con distribución de Weibull con
parámetros α y β, hallar la esperanza de X.
SOLUCION:
Como
αβ x β−1e −α x β , si x > 0
P[X = k ] = 
0 , en caso contrario
∞ β
Entonces, µ = E(X) =∝ β ∫ xx β−1e −∝ x dx
0
1
β  y β
Si y = ∝ x , entonces x =   , dy =∝ βx β−1dx , luego
∝
1 1

 y β 1 ∞ β +1−1 − y 1 1 
E (X) = ∫   e − y dy = 1 ∫
y e dy = Γ + 1
1/ β 
0 ∝ 
(∝)β 0 (∝)  β 
8.1.14.- El tiempo de duración de un sistema, se encuentra aproximadamente
por una distribución de Weibull con α = 50 y β = 2. Hallar el valor
esperado del tiempo de duración del sistema.
SOLUCION:
Para esta distribución, por el ejemplo anterior
1 1  1 1 
E(X) = Γ  + 1 = Γ  + 1
(50)  2  7.07  2 
1/ 2

1 1 1 π 1.77
= . Γ  = = = 0.125
7.07 2  2  14.14 14.14
Sea g una función real definida sobre (-∞ , ∞) y sea X una variable
aleatoria, consideremos que g(X) sea, a su vez, una variable aleatoria y esto
significa que para todo número real t, la familia de sucesos elementales
[g(X) ≤ t ] = {w ∈ Ω / X( w ) ≤ t}
es un evento; es decir, es un elemento de A .
El objetivo es calcular E[g(X )] en el caso en que X tiene una distribución
discreta o una distribución continua.
260 Hugo Cornejo Villena & Hugo Cornejo Rosell.

TEOREMA 8.1.3.-
Sea X una variable aleatoria discreta con distribución de probabilidad
p X ( x ) = f X (x ) y el rango de X es una sucesión {x n } de números reales. La
media, valor esperado o esperanza matemática de g(X ) está dado por:

µ g (X ) = E[g(X )] = ∑ g(x n )f X (x n )
n =1
siempre y cuando la serie converja absolutamente (esto es,

∑ g(x n )f X (x n ) < ∞ )
n =1
DEMOSTRACION:
Como X es discreta, entonces g(X ) es también discreta. Sea T el conjunto de
todos los números reales de la forma g(x n ) , luego T es un conjunto finito o
infinito numerable y, por el teorema 8.1.1, tenemos:
E[g (X)] = ∑ t ∑ f X (x n ) = ∑ ∑ tf X (x n ) = ∑ g(x n )f X (x n )
t∈T {X n / g ( X n ) = t } t∈T {x n / g ( x n ) = t } n

EJEMPLO
8.1.15.- Sea X una variable aleatoria con la siguiente distribución de
probabilidad:

X -3 6 9
1 1 1
p X ( x , y) = f X (x )
6 2 3

Hallar E[g (X)] , donde g (X) = (2X + 1)2 .


SOLUCION:

[
E[g (X)] = E (2X + 1) ] = E(4X
+ 4X + 1 = ∑ 4 x 2 + 4 x + 1 f X (x )
2 2
) ( )
1 1 1
= 25  + 169  + 361  = 209
6 2  3
Presentamos el siguiente teorema, sin demostración, que en sí es un caso
particular de la generalización del teorema 6.2.1.
TEOREMA 8.1.4.-

Sean: X1 , X 2 ,..., X n , n variables aleatorias con una distribución conjunta


continua. Sean: g1 , g 2 ,..., g m , m funciones reales de n variables, tales que
Introducción al Cálculo de Probabilidades 261

g i (X1 , X 2 ,..., X n ) sea una variable aleatoria para i = 1,2,…,m. Si


− ∞ ≤ a i < b i ≤ ∞ para i = 1,2,…,m, y si
B = { (x 1 , x 2 ,..., x n ) / a i < g i (x 1 , x 2 ,..., x n ) ≤ b i ,1 ≤ i ≤ m }
entonces será:
P   [a i < g i (X 1 ,..., X n ) ≤ b i ] = ∫ . .∫ p X1 ,..X N ( x 1 ,..x n )dx 1 ,.., dx n
m

i =1  B
TEOREMA 8.1.5.-

Sea X una variable aleatoria continua con distribución de probabilidad f X (X )


. La media o valor esperado de la variable aleatoria g(X) está dado por:
µ g (X ) = E[g(X )] = ∫−∞∞ g(x )f X (x )dx
siempre y cuando ∫−∞∞ g(x ) f X (x )dx < ∞ .
DEMOSTRACION:
La demostración de este teorema es muy similar a la del teorema 8.1.2,
considerando I1 = ∫0∞ P[g(x ) > x ]dx y I 2 = ∫−0∞ P[g(x ) ≤ x ]dx , la esperanza de
g(X) existirá siempre y cuando I1 e I 2 sean finitos, en cuyo caso
E[g(X )] = I1 - I 2 . Sea ahora: Π (x ) = {t ∈ IR / g(t ) > x} y se tiene que, si
x 1 < x 2 , entonces Π (x 2 ) ⊂ Π (x 1 ) . Si definimos h ( x ) = P[g (X) > x ] ,
entonces por el teorema 8.1.4
h ( x ) = ∫ f X ( t )dt ,
Π(x)

será una función no creciente de x; es decir, si x 1 < x 2 entonces


h ( x 2 ) ≤ h ( x 1 ) . Si ahora llamamos:
∞ 1 ∞ 1
Ln = ∑ ∫ f X ( t )dt , U n = ∑ ∫ f X ( t )dt resulta que: L n ≤ I1 ≤ U n ,
k =1 n  k  k =1 n  k −1 
Π
  Π  
n  n 
para todo entero positivo n.
Pero;
∞ k −1 ∞ k ∞ 1
Ln = ∑ ∫ f X ( x )dx = ∑ ∫ f X ( x )dx - ∑ ∫ f X ( x )dx
k =1 n  k −1 k k =1 n  k −1 k k =1 n  k −1 k
x/  <g ( x )≤  x/ <g ( x )≤
  x/ <g ( x )≤
 
 n n  n n  n n
∞ 1 1
≥∑ ∫ g ( x )f X ( x )dx - ∫ f X ( x )dx ≥ ∫ g ( x )f X ( x )dx -
k =1 k −1 k
<g ( x )≤ 
n {x / g ( x )>0} {x / g ( x ) >0} n
x /
 n n

1
De modo similar, tenemos U n ≤ ∫ g ( x )f X ( x )dx +
{x / g ( x ) >0} n
262 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Consecuentemente,
1 1
∫ g ( x )f X ( x )dx - ≤ I1 ≤ ∫ g ( x )f X ( x )dx +
{x / g ( x ) >0} n {x / g ( x ) >0} n
o, en la forma
1
I1 − ∫ g ( x )f X ( x )dx ≤
{x / g ( x ) >0} n
para todo entero positivo n. Como el primer miembro de esta desigualdad no
depende de n, entonces
I1 = ∫ g ( x )f X ( x )dx
{x / g ( x ) >0}
En forma similar, se demuestra que

I2 = − ∫ g ( x )f X ( x )dx
{x / g ( x )≤0}
Luego

E[g (X)] = I1 - I 2 = ∫ g ( x )f X ( x )dx
−∞
EJEMPLO
8.1.16.-Sea X una variable aleatoria continua con función de densidad.
e − x , si x > 0
f X (x) = 
0 , en caso contrario
2X
3
Hallar el valor esperado de g (X) = e
SOLUCION:
Por el teorema 8.1.5, se tiene


 2X  ∞
2x
∞ −
x
 − 
x

E e 3  3 −x
= e e dx = ∫ e dx = − 3e 3  = 3
3
  −∫∞
  0
  0
El siguiente propósito, es presentar el concepto de esperanza matemática
para el caso de dos variables aleatorias X e Y, con distribuciones de
probabilidad conjunta p X ,Y ( x , y) = f X.Y (x , y ) y considerando g(X, Y) una
variable aleatoria; es decir,
[g(X, Y ) ≤ x ] = {ω ∈ Ω g(X(ω), Y(ω) ) ≤ x}∈ A
para todo número real x.
Introducción al Cálculo de Probabilidades 263

TEOREMA 8.1.6.-
Sean X e Y variables aleatorias discretas con distribución de probabilidad
conjunta p X ,Y ( x , y) = f X.Y (x , y ) . La media o real esperado de la variable
aleatoria g(X, Y ) es:
( ) ( )
∞ ∞
µ g ( X ,Y ) = E[g(X, Y )] = ∑ ∑ g x i , y j f X ,Y x i , y j
i =1 j=1

(donde R X = {x i 1 ≤ i ≤ ∞} y { }
R Y = y j 1 ≤ j ≤ ∞ ) siempre y cuando la
serie doble sea absolutamente convergente.
DEMOSTRACION:
La demostración de este teorema es muy análoga que a la del teorema 8.1.1 y
dejamos como ejercicio al lector su formalización.
TEOREMA 8.1.7.-
Sean X e Y variables aleatorias continuas con distribución de probabilidad
conjunta f X.Y (x , y ) . La media o valor esperado de la variable aleatoria
g(X, Y ) es:
µ g ( x , y ) = E[g(X, Y )] = ∫−∞∞ ∫−∞∞ g ( x , y)f X ,Y ( x , y)dxdy
siempre y cuando sea
∞ ∞
∫−∞ ∫−∞ g ( x , y) f X ,Y ( x , y)dxdy < ∞
DEMOSTRACION:
La demostración de este teorema es análoga que a la del teorema 8.1.2 y
dejamos al lector su comprobación.
Dejamos constancia que el teorema anterior se cumple para una función
g de cualquier número (finito) de variables aleatorias.
EJEMPLOS
8.1.17.- Si X e Y tienen la siguiente función de probabilidad conjunta.
fXY x
2 4
1 0.10 0.15
y
3 0.20 0.30

5 0.10 0.15
Hallar el valor esperado de g(X, Y ) = XY 2 .
SOLUCION:
Por el teorema 8.1.6, tenemos:
264 Hugo Cornejo Villena & Hugo Cornejo Rosell.

( )
E XY 2 = ∑ ∑ xy 2 f X ,Y ( x , y)
x y

[
= ∑ x (1) 2 f X ,Y ( x ,1) + x (3) 2 f X ,Y ( x ,3) + x (5) 2 f X ,Y ( x ,5)
x
]
= 2f X ,Y (2,1) + 18f X ,Y (2,3) + 50f X ,Y (2,5) +
4f X ,Y (4,1) + 36f X ,Y (4,3) + 100f X ,Y (4,5)
= 2(0.10) + 18(0.20) + 50(0.10) + 4(0.15) + 36(0.30) + 100(0.15)
= 0.20 + 3.6 + 5 + 0.6 + 10.8 + 15 = 35.2
8.1.18.- Si X e Y son variables aleatorias con función de densidad conjunta:
4 xy , si 0 < x < 1, 0 < y < 1
f X ,Y ( x , y ) = 
0 , en caso contrario
Hallar el valor esperado de Z = X 2 + Y 2
SOLUCION:
Por el teorema 8.1.7, tenemos:
E( Z) = ∫01 ∫01 4 x 2 + y 2 xydydx =
1
∫0 4 x {∫
1
0
}
x 2 + y 2 ydy dx
1
= 1 2
∫0 2 x  (x 2
+y 2
)
3
2
 dx = ∫
14  2
0 x
3  x + 1 (
3
2
)
− x 3  dx
 3 0 

=
3 1 2
2
3
( 4 1 4
∫0 x + 1 2 xdx - ∫0 x dx
2
3
)
1 1
2 2 2
= × ( x + 1) 2 4  x5  4 4
( )
5
-   = 4 2 −1 −
3 5  
 0 3  5  0 15 15
16 8
= 2− = 1.508 - 0.533 = 0.975
15 15
NOTA: Si g (X, Y) = X en los teoremas 8.1.6 y 8.1.7, encontramos:
∑ ∑ xf X , Y (x , y ) = ∑ xg X (x ) (caso discreto)
x y
E(X) =  ∞ ∞ ∞
 ∫ ∫ xf X , Y (x , y )dx dy = ∫ xg X (x )dx (caso continuo )
− ∞ − ∞ −∞

donde g X ( x ) es la distribución marginal de X. Por lo tanto, al calcular E(X)


en un espacio de dos dimensiones, puede utilizarse, ya sea la distribución de
probabilidad conjunta de X e Y o la distribución marginal de X.
De manera análoga, se tiene:
Introducción al Cálculo de Probabilidades 265

∑ ∑ yf X , Y (x , y ) = ∑ yh Y (y ) (caso discreto)
x y
E(Y) =  ∞ ∞ ∞
 ∫ ∫ yf X , Y (x , y )dx dy = ∫ yh Y (y )dy (caso continuo )
− ∞ − ∞ −∞

donde h Y (y) es la distribución marginal de la variable aleatoria Y.

8. 2. ESPERANZA DE COMBINACION LINEAL DE VARIABLES


ALEATORIAS
En esta sección desarrollaremos algunas propiedades importantes de
esperanza de variables aleatorias y las que permitirán calcular valores
esperados en términos de otros parámetros que sean conocidos o fácilmente
calculables. Los resultados de los teoremas que se presentan pueden
generalizarse y que escapa a las necesidades de esta obra.
Todos los resultados que se presentan aquí son válidos para ambas
variables aleatorias, discretas y continuas. Las demostraciones sólo se dan
para el caso continuo.
TEOREMA 8.2.1.-
Para toda variable aleatoria X, cuya esperanza exista y si a y b son constantes,
entonces E (a X + b) = a E(X) + b.
DEMOSTRACION:
Por el teorema 8.1.5.
E(aX + b ) = ∫−∞∞ (ax + b )f x ( x )dx
= a ∫−∞∞ xf X ( x )dx + b ∫−∞∞ f X ( x )dx = a E(x) + b(1) = a E(X) + b.
COROLARIO 8.2.1.
Si b es una constante, entonces E(b) = b
DEMOSTRACION:
En el teorema 8.2.1, sea a = 0, entonces
E (a X + b) = E(b) = (0) E(X) + b = b.
COROLARIO 8.2.2.
Para toda variable X y a constante, se tiene: E (a X) = a E(X).
DEMOSTRACION:
En el teorema 8.2.1, sea b = 0, entonces
E (a X) = E (a X + 0) = a E (X) + 0 = a E (X)
TEOREMA 8.2.2.-
El valor esperado de la suma o diferencia de dos o más funciones de una
variable aleatoria X, es la suma o diferencia de los valores esperados de dichas
funciones. Esto es, para dos funciones:
E[g (X) ± h (X)] = E[g (X)] ± E[h (X)]
266 Hugo Cornejo Villena & Hugo Cornejo Rosell.

DEMOSTRACION:
Por el teorema 8.1.5.
E[g (X)] ± E[h (X)] = ∫−∞∞ [g ( x ) ± h ( x )]f X ( x )dx
= ∫−∞∞ g ( x )f X ( x )dx ± ∫−∞∞ h ( x )f X ( x )dx = E[g (X)] ± E[h (X)]
Presentamos el siguiente teorema de mucha importancia, que es una
ampliación del teorema 8.2.2, para el caso de dos variables aleatorias X e Y
con distribución de probabilidad conjunta f X ,Y ( x , y) .
TEOREMA 8.2.3.-
El valor esperado de la suma o diferencia de dos o más funciones de las
variables aleatorias X e Y es la suma o diferencia de los valores esperados de
las funciones. Esto es, para dos funciones:
E[g (X, Y) ± h (X, Y)] = E[g (X, Y)] ± E[h (X, Y)]
DEMOSTRACION:
Por el teorema 8.1.7,
E[g (X, Y) ± h (X, Y)] = ∫−∞∞ ∫−∞∞ [g ( x , y) ± h ( x , y)] f X ,Y ( x , y)dxdy
= ∫−∞∞ ∫−∞∞ g ( x , y)f X ,Y ( x , y)dxdy ± ∫−∞∞ ∫−∞∞ h ( x , y)f X ,Y ( x , y)dxdy
= E[g (X, Y)] ± E[h (X, Y)]
COROLARIO 8.2.3.
E[g (X) ± h (X)] = E[g (X)] ± E[h (X)]
DEMOSTRACION:
En el teorema 8.2.3, consideremos g(X, Y) = g(X) y h(X,Y) = h(Y)
de donde se deduce la prueba de este corolario, que viene a ser el teorema
8.2.2.
COROLARIO 8.2.4.
Si X e Y son variables aleatorias y si a y b son constantes, entonces
E(aX ± bY ) = aE(X) ± bE (Y)
DEMOSTRACION:
En el teorema 8.2.3, consideremos g(X, Y) = aX y h(X,Y) = bY
de donde E(aX ± bY ) = E (aX) ± E (bY) y por el corolario 8.2.2
E(aX ± bY ) = aE(X) ± bE (Y)
TEOREMA 8.2.4.-
Sean X e Y variables aleatorias independientes, cuya esperanza existe,
entonces:
E(XY) = E(X) E(Y).
DEMOSTRACION:
Por el teorema 8.1.7, E (XY) = ∫−∞∞ ∫−∞∞ xy f X ,Y ( x , y)dxdy
Introducción al Cálculo de Probabilidades 267

Como X e Y son independientes, entonces f X ,Y ( x , y) = g X ( x )h Y ( y)


donde g X ( x ) y h Y ( y) son las distribuciones marginales de X e Y,
respectivamente.
Por tanto:
E (XY) = ∫−∞∞ xg X ( x )dx ∫−∞∞ yh Y ( y)dy = E (X)E (Y)
Generalizando este teorema tenemos el siguiente teorema.
TEOREMA 8.2.5.-
Sean: X1 , X 2 ,..., X n , n variables aleatorias independientes cuyas esperanzas
existan y si sus distribuciones conjuntas son discretas o continuas, entonces
n
existe la esperanza del producto ∏ X i , y se tiene
i =1

E ∏ X i  = ∏ E (X i )
n n

 i =1  i =1
DEMOSTRACION:
Por el teorema 8.1.7, en el caso en que g sea una función de n argumentos y
n
g ( x 1 , x 2 ,..., x n = ∏ X i , tenemos
i =1

E ∏ X i  = ∫−∞∞ .....∫−∞∞ x 1 , x 2 ,..., x n f X1 ,...,X n (x 1 ,..., x n )dx 1 ,...dx n


n

 i =1 
= ∫−∞∞ .....∫−∞∞ x 1 , x 2 ,..., x n f X1 ( x 1 )f X 2 ( x 2 )...f X n ( x n )dx 1 ,...dx n
n ∞ n
= ∏ X i ∫−∞ x i f X i ( x i )dx i = ∏ E (X i )
i =1 i =1
EJEMPLOS
8.2.1.- Sea X una variable aleatoria con la siguiente distribución de
probabilidad:
X -3 6 9
f X (x ) 16 12 13
Hallar [
E (2X + 1)
2
]
SOLUCION:
Aplicando el teorema 8.2.2 a la variable aleatoria Z = (2X + 1)2 ,
[ ]
tenemos E (2X + 1)2 = E (4X 2 + 4X + 1) = 4E(X 2 ) + 4E(X) + E(1)
Del corolario 8.2.1, E(1) = 1, y por cálculo directo:
1 1 1
E (X 2 ) = 9  + 36   + 81   = 1.5+18+27 = 46.5
6 2 3
268 Hugo Cornejo Villena & Hugo Cornejo Rosell.

1 1 1


E (X) = − 3  +6   + 9   = -0.5 + 3 + 3 = 5.5
6 2 3
Por lo tanto:
[ ]
E (2X + 1) = 4(46.5) + 4(5.5) + 1 = 186 + 22 + 1= 209
2

Este resultado comprueba lo encontrado en el ejemplo 8.1.15.


8.2.2.- Si una variable aleatoria X se define de manera que:
[ 2
] [2
]
E (X − 1) = 10, E (X − 2 ) = 6. Hallar E(x ) .
SOLUCION:
Aplicando las propiedades vistas en los teoremas anteriores, tenemos:
[ ] ( )
E (X − 1) = E X 2 − 2X + 1 = E (X 2 ) - 2E (X) + 1 = 10
2

E[(X − 2 ) ] = E (X )
2 2
− 4X + 4 = E ( X 2 ) - 4E ( X ) + 4 = 6
De donde:
E (X 2 ) = 9 + 2E(X) y E (X 2 ) = 2 + 4E(X)
7
Entonces, 2E(X) + 9 = 4E(X) + 2. Por tanto E (X) = = 3.5
2
8.2.3.-En el ejemplo 8.1.18, si X e Y son variables aleatorias independientes.
Hallar:
a) E(2X − 3Y ) y
b) E(XY )
SOLUCION:
Por aplicación de los teoremas anteriores:
a) E(2X − 3Y ) = 2E(X) − 3E(Y) y por cálculo directo
E (X) = ∫−∞∞ ∫−∞∞ x (4 xy)dxdy = 4 ∫01 ∫01 x 2 y dy dx
1
[ 1
]
= 2 ∫0 x 2 y 2 0 dx = 2 ∫01 x 2 dx =
2
3
∞ ∞ 1 1
E (Y) = ∫−∞ ∫−∞ y(4 xy)dxdy = 4 ∫0 ∫0 xy 2 dx dy
1
[ ]1 2
= 2 ∫0 x 2 y 2 0 dy = 2 ∫01 y 2 dy =
3
2 2 4
Luego, E(2X − 3Y ) = 2 - 3 = - 2 = -0.67
3 3 3
b) Como X e Y son independientes, por el teorema 8.2.4 y la parte a)
2 2 4
E(XY) = E(X)E(Y) = . = = 0.44
3 3 9
A modo de comprobación, calculemos directamente.
Introducción al Cálculo de Probabilidades 269

1
y2 
x 3
E (XY) = 1 1 2 2
∫0 ∫0 4 x y dxdy = 4 ∫01   dy
 3 0
1
4 4  y3  4
= ∫01 y 2 dy =   = = 0.44
3 3  3 0 9
8. 3. MOMENTOS Y FUNCION GENERADORA DE MOMENTOS
DE VARIABLES ALEATORIAS
El objeto de esta sección es definir los momentos, función generadora
de momentos, momentos centrales y los momentos mixtos de las variables
aleatorias y deducir sus propiedades más importantes.
DEFINICION 8.3.1
Si r es un entero positivo, se llama momento de orden r de una variable
aleatoria X, al valor:
µ,r = E ( X r )
siempre que exista tal esperanza.
Dado que el momento de primer orden, de la variable aleatoria X es
( )
µ1 = E X1 = E(X ) , suele escribirse como: µ = µ ,r
,

No obstante que los momentos de una variable aleatoria pueden


determinarse a partir de la definición 8.3.1, existe un procedimiento alterno y
que requiere la utilización de una función generadora de momentos, que
definiremos a continuación, antes de ver los casos particulares de los
momentos de orden r de una variable aleatoria.
DEFINICION 8.3.2
La función generadora de momento de la variable aleatoria X, denotado por
m X ( t ) , es:
m X ( t ) = E(e tX )
De la definición de esperanza tenemos:
∑ e tx p X ( x ) = ∑ e tx f X ( x ) si X es discreta
x x
m X ( t ) = E(e tX ) =  ∞
tx
 ∫ e f X (x) si X es continua
− ∞
TEOREMA 8.3.1.-
Sea X una variable aleatoria con función generadora de momento m X ( t ) .
Entonces:
d r m X (t)
r
= µ ,r
dt t =0
DEMOSTRACION:
270 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Probaremos para cuando X es una variable aleatoria continua, entonces


m X ( t ) = ∫−∞∞ e tx f X ( x )dx
y si suponemos que puede diferenciarse dentro del signo integral, se obtiene
d r m X (t)
r
= ∫−∞∞ x r e tx f X ( x )dx
dt
Si t = 0, entonces:
d r m X (t) ∞ r ,
t = 0 = ∫−∞ x f X ( x )dx = E ( x ) = µ r
r
r
dt
El teorema 8.3.1, nos induce a manifestar que las derivadas sucesivas
de m X ( t ) calculadas en el origen generan los momentos de X, razón por la
cual se llama función generadora o generatriz de momento de X.
EJEMPLOS
8.3.1.- Demostrar que la función generadora de momento de la variable
aleatoria X que tiene una distribución de probabilidad normal, está dado
por:
σ2t 2
µt+
e 2

SOLUCION:
Puesto que la función de densidad, de la variable aleatoria normal X, por
la definición 7.2.1, es:
1  x −µ  2
1 −  
f X (x) = e 2  σ  , si -∞ < x < ∞, -∞ < µ < ∞, σ >0
2 πσ
Entonces, por el ejemplo 8.1.11 E(X) = µ
que es la distribución normal estándar y consiguientemente
Por otro lado,
1  x −µ  2

[
E ( X − µ)
2
]= 1
2 πσ


−∞
( x − µ )
2 − 
e 2 σ 

dx

x −µ
Si z = y dx = σdz , tenemos:
σ

[ ]
z2
σ2 ∞ 2 − 2
E (X − µ ) =
2
∫−∞ z e dz ,

integrando por partes, se obtiene:

 
[ ]
2 z2 z2
σ − −
E (X − µ ) = { − ze 2  + ∫−∞ e 2 dz }= σ 2 (0 + 1) = σ 2

2

2π  
−∞
Introducción al Cálculo de Probabilidades 271

Por tanto, de la definición 8.3.2


2
1  x −µ 

( )= 1 ∞ tx − 2  
tX σ 
m X (t) = E e ∫−∞ e e dx
2 πσ
1 ∞ − 2σ 2 [x − 2 (µ + tσ )x +µ ]
1 2 2 2

= ∫−∞ e dx
2 πσ
Si se completa el cuadrado en el exponente, tenemos
( )
x 2 − 2 µ + tσ 2 x + µ 2 = x − µ + t σ 2 [ ( )] 2
− 2µtσ 2 − t 2 σ 4
y entonces,
2
σ2t 2 1  x − ( µ + tσ 2 ) 
−  
1 µt +
∞ 2  σ 
m X (t) = e 2
∫−∞ e dx
2 πσ

Si w =
(
x − µ + tσ 2 )
y dx = σdw , se tiene:
σ
σ2t 2 w2 σ2t 2
µt + 1 ∞ −2 µt +
m X (t) = e 2
∫−∞ e dz = e 2

8.3.2.- Demuestre que la función generadora de momentos de la variable
aleatoria X que tiene una distribución Ji-cuadrada con r grados de
libertadad es m X ( t ) = (1 − 2 t ) − r / 2 .
SOLUCION:
Sabemos que la distribución Ji-cuadrada es un caso especial de la
distribución gamma al sustituir α = r/2 y β = 2. Cuando se sustituye por
fX(x) en la definición 8.3.2, se obtiene:

∞ 1
m X ( t ) = ∫ e tx x r / 2−1e − x / 2 dx
0 2 r/2
Γ(r / 2 )

1 ∞
r / 2 −1 − x (1− 2 t ) / 2
= ∫ x e dx
2 Γ(r / 2 ) 0
r/2

Si y = x(1-2t) /2 y dx = [2 /(1 − 2 t )]dy , se obtiene:

∞ r / 2 −1
1  2y  2
m X (t) = r / 2 ∫  
2 Γ(r / 2) 0  1 − 2t 
e−y
1 − 2t
dy
272 Hugo Cornejo Villena & Hugo Cornejo Rosell.

1 ∞
e dy = (1 − 2 t )
r / 2 −1 − y −r / 2
= ∫y
Γ(r / 2 )(1 − 2 t ) 0
r/2

ya que la última integral es igual a Γ(r / 2 )


8.3.3.- Supongamos que el tiempo que trabaja un transistor (en un circuito
dado) es una variable aleatoria X, con función de densidad:
1000e −1000 x , si x > 0
f X (x ) = 
0 , en caso contrario
Hallar la función generatriz de momento de X.
SOLUCION:
( )
m X ( t ) = E e tX = ∫0∞ 1000 e tx e −1000 x dx

= ∫0∞ 1000 e (t −1000 )x dx =


1000
t − 1000
[ ∞
e ( t −1000) x 0 =
1000
1000 − t
]
y esto se cumple para t < 1000
TEOREMA 8.3.2.-
Sea X una variable aleatoria con función generadora de momento m X ( t ) y si
a y b son constantes, entonces:
m aX+ b ( t ) = e bt m X (at )
DEMOSTRACION:
Por definición 8.3.2,
( ) ( ) ( )
m aX+ b ( t ) = E e t ( aX + b ) = E e t ( aX ) e bt = e bt E e (at )X = e bt m X (at )
TEOREMA 8.3.3.-
Si X1 , X 2 ,..., X n ; son n variables aleatorias independientes con funciones
generadoras de momentos m X1 ( t ), m X 2 ( t ),..., m X n ( t ) , respectivamente. Si
Y = a 1 X1 + a 2 X 2 + ... + a n X n , donde a 1 , a 2 ,..., a n son constantes, entonces:
n
m Y ( t ) = m X1 (a 1 t )m X 2 (a 2 t )...m X n (a n t ) = ∏ m X i (a i t ) .
i =1
DEMOSTRACION:
De la definición 8.3.2 y la hipótesis de independencia, tenemos:
( ) ( ) (
m Y ( t ) = E e tY = E e t (a1X1 +...+ a n X n ) = E e (a1t )X1 e (a 2 t )X 2 e (a n t )X n )
= E (e ( ) )E (e (
a1t X1 a 2 t )X 2
).....E(e (a n t )X n1
)= m X1 (a 1 t )m X 2 (a 2 t )....m X n (a n t )
DEFINICION 8.3.3.-
Si r es un entero positivo, se llama momento central de orden r de una
variable aleatoria X, al valor
µ r = E [X − E(X )] r { }
siempre que las esperanzas implicadas en la definición existan.
Introducción al Cálculo de Probabilidades 273

Al momento central de orden 2 de X, se le llama varianza o variancia


de X, y se denota por: Var(X), σ 2 o µ 2 : es decir,
[
σ 2 = µ 2 = Var(X) = E (X − µ )
2
]
Con la finalidad de aclarar la presencia de la variable aleatoria X, se denota
por σ 2X .
La raíz cuadrada positiva de la varianza, σ , se llama desviación
estándar o típica de X, denotado por σ = d.t(X); es decir,
σ = d.t(X)= Var(X)
En forma similar, a lo indicado anteriormente, denotaremos por σ X , a la
desviación estándar de la variable aleatoria X.
La cantidad (X- µ ) en la varianza de X, se llama desviación de una
observación con respecto a su media.
TEOREMA 8.3.4.-
Si X es una variable aleatoria que tiene una distribución discreta o continua, y
( )
si existe E X 2 , entonces
( )
µ 2 = σ 2 = Var (X) = E X 2 − [E(X )] = E X 2 − µ 2
2
( )
DEMOSTRACION:
Aplicando la definición y propiedades:
[ ] [ ] [
Var (X) = E (X − µ ) = E X 2 − 2Xµ + µ 2 = E X 2 − 2µX + µ 2
2
]
( ) ( ) ( )
= E X 2 − 2µE(X ) + µ 2 = E X 2 − 2µ 2 + µ 2 = E X 2 − µ 2
E (X ) = µ − (µ ) ,
2
Como 2 '
2 , entonces σ 2 = µ '2 − µ12 = µ '2 '
1 resultado que
muestra, que la varianza de una variable aleatoria X, está expresado en
términos de momentos de orden 1 y 2.
Ahora, generalicemos el concepto de varianza de una variable aleatoria
X, para incluir también variables aleatorias relacionadas con X. Para la
variable aleatoria g ( X ) , la varianza se denota por Var[g(X )] o σ g2 ( X ) y se
calcula mediante el siguiente teorema de demostración obvia.
TEOREMA 8.3.5.-
Sea X una variable aleatoria con distribución de probabilidad f X (x ) . La
varianza de la variable aleatoria g(X ) está dada por:

Var g ( X )  = σg(X)


2
{
= E g ( X ) - mg ( X ) 
 
2

}
274 Hugo Cornejo Villena & Hugo Cornejo Rosell.

EJEMPLOS
8.3.4.- Dada la distribución de probabilidad X, del ejemplo 8.1.4. Hallar la
variancia y la desviación típica de fallas por cada 10 metros de tela.
SOLUCION:
Aplicando el resultado del ejemplo 8.1.4, tenemos E(X ) = µ = 0.88 y del
( )
teorema 8.3.4, Var(X ) = σ 2 = E X 2 − µ 2
Pero
( )
E X 2 = 0(0.41) + 1(0.37) + 4(0.16) + 9(0.05) + 16(0.01)
= 0.37 + 0.64 + 0.45 + 0.16 = 1.62 y µ 2 = 0.7744
Luego:
Var(X ) = 1.62 - 0.7744 = 0.8456 y σ = d.t (X ) = 0.8456 = 0.9196
8.3.5.- Sea X una variable aleatoria cuya distribución de probabilidad está
dada por:

x 0 1 2 3 4
p(x) 18 14 14 14 18
Calcular:
a) Var(X ) y σ X
b) Var(2X + 1)
SOLUCION:
Apliquemos los teoremas 8.3.4 y 8.3.5
( )
a) Var(X ) = E X 2 − µ 2 . Como
1 1 1 1 1 1 1 3 1
µ = 0  + 1  + 2  + 3  + 4  = + + + = 2
8  4  4  4 8 4 2 4 2
( ) 1 1 1 1 1 1 9
E X 2 = 0  + 1  + 4  + 9  + 16  = + 1 + + 2 =
11
8  4  4  4 8 4 4 2
Entonces
11 3
Var(X ) = − 4 = = 1.5 y consecuentemente σ X = 1.225
2 2
b) Primero calculemos la media de la variable aleatoria 2X + 1 . De
acuerdo con el teorema 8.1.3
u
µ 2 X +1 = E(2X + 1) = ∑ (2 x + 1)p(x )
x =0

1 1 1 1 1 1 3 5 7 9


= + 3  + 5  + 7  + 9  = + + + + = 5
8  4  4  4 8 8 4 4 4 8
Ahora, utilizando el teorema 8.3.5, tenemos
Introducción al Cálculo de Probabilidades 275

{ } { }
σ 22 X +1 = E [(2X + 1) − µ 2 X +1 ] = E [2X + 1 − 5]
2 2

= E[(2X − 4 ) ] = E (4X − 16X + 16 )


2 2

= 4 E (X ) − 16 E ( X ) + 16
2

( )
Pero, E X 2 =
11
2
y E(X ) = 2

 11 
Entonces: σ 22 X +1 = 4  − 16(2 ) + 16 = 6
2
8.3.6.- Sea X una variable aleatoria con función de densidad
x2
 , si - 1 < x < 2
f X (x ) =  3
 , en caso contrario
0
Hallar la variancia de 2X + 3 .
SOLUCION:
Calculemos primero la media de 2X + 3 , de acuerdo con el teorema 8.1.5

µ 2 X +3 = E(2X + 3) = ∫−21
(2x + 3)x 2 dx = 1 2 2x 3 + 3x 2 dx
( )

3 3 −1
2
1 1   16 8   1 1  11
=  x4 + x3  =  +  −  −  =
6 3  −1  6 3   6 3  2
Ahora, utilizando el teorema 8.3.5.
 11  
2
 5 
2
Var(2X + 3) = E (2X + 3) −   = E  2X −  
 2    2  
2
( )
2
2
 4x − 5  x 1 2 4 3 2
= ∫  dx = ∫ 16 x − 40 x + 25x dx
−1 2  3 12 −1
2
4 5 25 3 
=  x5 − x4 + x = 2.56
15 6 36  −1
Para el cálculo de las variaciones o desviaciones estándar, presentamos
los siguientes teoremas de mucha importancia.
TEOREMA 8.3.6.-
Si X es una variable aleatoria y si a y b son constantes, entonces
Var (aX ± b ) = σ aX
2
± b = a Var (X ) = a σ
2 2 2

DEMOSTRACION:
{
Por teorema 8.3.5, Var (aX ± b ) = E [(aX ± b ) − µ aX ± b ]2}
276 Hugo Cornejo Villena & Hugo Cornejo Rosell.

De acuerdo con el teorema 8.2.1 µ aX ± b = E(aX ± b ) = aE(X ) ± b = aµ ± b


Por tanto:
[ ] 2
[ ]
Var(aX ± b ) = E (aX ± b − aµ  b ) = a 2 E (X − µ ) = a 2 Var(X ) = a 2 σ 2
2

COROLARIO 8.3.1.
Si X es una variable aleatoria y b una constante, entonces
Var(X + b ) = σ X2 + b = Var(X ) = σ 2
DEMOSTRACION:
Considerando a = 1 , en el teorema 8.3.6 se tiene el resultado de manera obvia.
COROLARIO 8.3.2.
Si X es una variable aleatoria y a una contante, entonces
Var(aX ) = σ aX2
= a 2 Var(X ) = a 2 σ 2
DEMOSTRACION:
Considerando b = 0 , en el teorema 8.3.6 se obtiene el resultado de manera
obvia.
Si g(X, Y ) = (X − µ X )(Y − µ Y ) ,donde µ X = E(X ) y µ Y = E(Y ) , los teoremas
8.1.6 y 8.1.7. dan el valor esperado que recibe el nombre de covariancia o
covarianza de X e Y, denotado por Cov(X, Y ) o σ XY
DEFINICION 8.3.4.-
Sean X e Y variables aleatorias, la covariancia de X e Y es:
σ XY = Cov(X, Y ) = E{[X − E(X )][Y − E(Y )]} = E[(X − µ X )(Y − µ Y )]
siempre que las esperanzas existan.
TEOREMA 8.3.7.-
La covariancia de las variables aleatorias X e Y, con esperanzas µ X y µ Y ,
respectivamente, es:
σ XY = Cov(X, Y ) = E(XY ) − E(X )E(Y ) = E(XY ) − µ X µ Y
DEMOSTRACION:
Cov(X, Y ) = E[(X − µ X )(Y − µ Y )] = E[XY − Xµ Y − Yµ X + µ X µ Y ]
= E(XY ) − µ Y E(X ) − µ X E(Y ) + µ X µ Y
= E (XY ) − E (X )E (Y ) − E(X )E(Y ) + E(X )E(Y )
= E(XY ) − E(X )E(Y ) = E(XY ) − µ X µ Y
Es preciso manifestar que la covariancia entre dos variables aleatorias es
una medida de asociación natural entre dichas variables. Para valores grandes
de X resultan valores grandes de Y, o para valores pequeños de X resultan
valores pequeños de Y; si X − µ X es positivo, frecuentemente resultará
Y − µ Y positivo y si X − µ X es negativo, frecuentemente resultará Y − µ Y
negativo, entonces el producto (X − µ X )(Y − µ Y ) tenderá a ser positivo. Por
Introducción al Cálculo de Probabilidades 277

otro lado, para valores grandes de X, frecuentemente, resultan valores


pequeños de Y, entonces el producto tenderá a ser negativo.
Consecuentemente el signo de la covarianza indica si las relaciones entre dos
variables aleatorias dependientes son positiva o negativa.
TEOREMA 8.3.8.-
Si X e Y son variables aleatorias con distribución de probabilidad conjunta
f X.Y (x.y ) y si a y b son constantes, entonces
Var (aX + bY ) = a 2 Var (X ) + b 2 Var (Y ) + 2abCov(X, Y ) , o
2 2 2 2 2
σ aX+ bY = a σ X + b σ Y + 2abσ XY
DEMOSTRACION:
{
Por el teorema 8.3.5. Var(aX + bY ) = E [(aX + bY ) − µ aX + bY ]2 . }
Pero, aplicando el corolario 8.2.4 y el corolario 8.2.2 tenemos:
µ aX + bY = E(aX + bY ) = aE(X ) + bE(Y ) = aµ X + bµ Y
Por tanto:
{ }
Var (aX + bY ) = E [(aX + bY ) − (aµ X + bµ Y )]
2

= E{[a (X − µ ) + b(Y − µ )] }
X Y
2

= E{a (X − µ ) + b (Y − µ ) + 2ab(X − µ )(Y − µ )}


2
X
2 2
Y
2
X Y

= a E[(X − µ ) ]+ b [(Y − µ ) ] + 2abE[(X − µ )(Y − µ


2
X
2 2
Y
2
X Y )]
= a 2 Var (X ) + b 2 Var (Y ) + 2abCov(X, Y ) o
2 2 2 2 2
σ aX + bY = a σ X + b σ Y + 2abσ XY
COROLARIO 8.3.3.
Si X e Y son variables aleatorias independientes y si a y b son constantes,
entonces: Var(aX + bY ) = a 2 Var(X ) + b 2 Var(Y )
DEMOSTRACION:
La covariancia de dos variables aleatorias independientes es cero; en efecto,
del teorema 8.3.7 y teorema 8.2.4,
σ XY = Cov(X.Y ) = E(XY ) − E(X )E(Y ) = E(XY ) − E(XY ) = 0
Por tanto, del teorema 8.3.8, tenemos
Var (aX + bY ) = E{(aX + bY ) − E(aX + bY )} = a 2 Var(X ) + b 2 Var(Y )
La generalización de este corolario se da en el siguiente teorema.
TEOREMA 8.3.9.-
Si X1 , X 2 ,..., X n , son n variables aleatorias independientes, todas ellas con
distribución discreta o continua y momento de segundo orden y a 1 , a 2 ,..., a n
constantes, entonces:
278 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Var ∑ a i X i  = a i2 ∑ Var (X i )
n n

 i =1  i =1
DEMOSTRACION:
En primer lugar, observamos que
E (a 1 X1 + a 2 X 2 + ..... + a n X n ) = a 1 E(X1 ) + ..... + a n E(X n )
Entonces:
 n  
2
Var ∑ a i X i  = E  ∑ a i X i − E ∑ a i X i  
n n

 i =1  i =1  i =1  

= E  ∑ a i2 [X i − E(X i )]2  = a i2 E  ∑ [X i − E(X i )]2 


n n

i =1  i =1 
[ ( ) ]
= a i2 E  ∑ [X i − E(X i )]2  + ∑ X j − E X j (X k − E(X k ))
n

i =1  j≠k

( ) 
n
= a i2  ∑ Var(X i ) + ∑ Cov X j , X k 
i =1 j≠ k 
Para j ≠ k , X j y X k son independientes, y por el resultado en la
( )
demostración del corolario 8.3.3 Cov X j , X k = 0 , entonces

Var ∑ a i X i  = a i2 ∑ Var (X i )
n n

 i =1  i =1
lo que demuestra el teorema.
EJEMPLOS
8.3.7.- Sean X e Y dos variables aleatorias, que representan el número de
bicicletas producidas al día por las líneas ensambladores A y B,
respectivamente. La distribución de probabilidad conjunta p X ,Y (x , y ) de
las variables aleatorias X e Y, está dada en la siguiente tabla:

Y
X 0 1 2 3 4 5
0 0.00 0.01 0.03 0.06 0.07 0.08
1 0.01 0.02 0.04 0.07 0.07 0.09
2 0.01 0.02 0.04 0.06 0.06 0.06
3 0.00 0.01 0.05 0.05 0.05 0.04
Hallar:
a) Var (3X − 5) , b) Var (6Y ) , c) Cov(X, Y ) y d) Var (2X + 3Y )
SOLUCION:
Introducción al Cálculo de Probabilidades 279

Para la solución de los problemas, es importante calcular las


distribuciones de probabilidades marginales, que se dan en la siguiente
tabla (remitirse al capítulo IV):

Y
X P[X=x]
0 1 2 3 4 5
0 0.00 0.01 0.03 0.06 0.07 0.08 0.25
1 0.01 0.02 0.04 0.07 0.07 0.09 0.30
2 0.01 0.02 0.04 0.06 0.06 0.06 0.25
3 0.00 0.01 0.05 0.05 0.05 0.04 0.20
P[Y=y] 0.02 0.06 0.16 0.24 0.25 0.27 1
Hallar:
a) Por el teorema 8.3.6 y 8.3.4,
[( )
Var (3X − 5) = 9Var (X ) = 9 E X 2 − µ 2x ]
Pero:
( )
E X 2 = 0(0.25) + 1(0.30 ) + 4(0.25) + 9(0.20 )
= 0.30 + 1 + 1.8 = 3.10
µ X = E(X ) = 0(0.25) + 1(0.30 ) + 2(0.25) + 3(0.20 )
= 0.30 + 0.50 + 0.60 = 1.4 y µ 2X = 1.96
Entonces: Var (3X − 5) = 9(3.10 − 1.96 ) = 10.26
b) Por corolario 8.3.2 y teorema 8.3.4,
[( )
Var (6Y ) = 36Var (Y ) = 36 E Y 2 − µ 2Y ]
Pero:
( )
E Y 2 = 0(0.02 ) + 1(0.06 ) + 4(0.16 ) + 9(0.24 ) + 16(0.25) + 25(0.27 )
= 0.06 + 0.64 + 2.16 + 4 + 6.75 =13.61
µ Y = E ( Y ) = 0 ( 0.02 ) +1( 0.06 ) + 2 ( 0.16 ) + 3 ( 0.24 ) + 4 ( 0.25 ) + 5 ( 0.27 )
= 0.06 + 0.32 + 0.72 + 1 +1.35 = 3.45
µ 2y = 11.9025
Entonces: Var(6Y ) = 36(13.61 − 11.9025) = 61.47
c) Por el teorema 8.3.7,
Cov(X, Y ) = E(XY ) − E(X )E(Y )
Como, aplicando el teorema 8.1.6,
3 5
E(XY ) = ∑ ∑ xyp X ,Y (x , y )
X =0 Y =0
280 Hugo Cornejo Villena & Hugo Cornejo Rosell.

= ∑ [ x (0 )p X ,Y (x ,0) + x (1)p X ,Y (x ,1) + x (2 )p X ,Y (x ,2 )


3

X =0
+ x (3)p X ,Y (x ,3) + x (4 )p X ,Y (x ,4 ) + x (5)p X ,Y (x ,5) ]
= 0 + 1p X ,Y (1,1) + 2p X ,Y (1,2 ) + 3p X ,Y (1,3) + 4p X ,Y (1,4) +
5p X ,Y (1,5) + 2p X ,Y (2,1) + 4p X ,Y (2,2 ) + 6p X ,Y (2,3) +
8p X ,Y (2,4) + 10p X ,Y (2,5) + 3p X ,Y (3,1) + 6p X ,Y (3,2 ) + 9p X ,Y (3,3)
+ 12p X ,Y (3,4) + 15p X ,Y (3,5)
= (0.02) + 2(0.04) + 3(0.07) + 4(0.07) + 5(0.09) + 2(0.02)
+ 4(0.04) + 6(0.06) + 8(0.06) + 10(0.06) + 3(0.01) + 6(0.05) +
9(0.05) + 12(0.05) + 15(0.04)
= 0.02 + 0.08 + 0.21 + 0.28 + 0.45 + 0.04 +0.16+ 0.36 + 0.48 +
0.60 + 0.03 + 0.30 +0.45+ 0.60 + 0.60 = 4.66
y de a) y b); E(X ) = 1.4 y E(Y ) = 3.45
Por tanto, Cov(X, Y ) = 4.66 − (1.4 )(3.45) = 4.66 - 4.83 = -0.17
d) Por el teorema 8.3.8 y los resultados de a), b) y c),
Var (2X + 3Y ) = 4Var (X ) + 9Var (Y ) + 12Cov(X, Y )
[( ) ] [( )
= 4 E X 2 − µ X2 + 9 E Y 2 − µ 2Y + 12(− 0.17 )]
= 4(3.10 - 1.96) + 9(13.61 - 11.9025) - 2.04
= 4.56 + 15.3675 - 2.04 = 17.8875
8.3.8.-Con las variables aleatorias cuya función de densidad conjunta se da en
el ejercicio 21 del capítulo VI, hallar:
 X + 3Y 
a) Cov(X, Y ) b) Var 
 2 
SOLUCION:
La función de densidad conjunta de X e Y, está dada por:

 3x − y
 5 , si 1 < x < 2, 1 < y < 3
f X ,Y (x , y ) = 
 , en caso contrario
0
y las densidades marginales de X e Y, respectivamente, son:
 6x − 4
 5 , si 1 < x < 2
f X (x ) = 
 , en caso contrario
0
Introducción al Cálculo de Probabilidades 281

 9 − 2y
 , si 1 < y < 3
f Y (y ) =  10
 , en caso contrario
0
a) Por el teorema 8.3.7,
Cov(X, Y ) = E(XY ) − E(X )E(Y )
Como, aplicando el teorema 8.1.7,
 3x − y 
( )
∞ ∞ 1 32
E(XY ) = ∫ ∫ xy  dxdy = ∫ ∫ 3x 2 y − xy 2 dxdy
−∞ −∞  5  5 11
2
1 3 3 x 2y2 
= ∫ x y −
51 2 1
 dy =
1 3
10 1
(
2
∫ 14 y − 3y dy )
=
1
10
[ ] 1
7 y 2 − y 3 1 = (36 − 6 ) = 3
3

10
y aplicando el teorema 8.1.2,

( ) [ 1 8
]
∞ 12 1
E(X ) = ∫ xf X (x )dx = ∫ 6x 2 − 4x dx = 2x 3 − 2x 2 1 = ( 8) = ,
2
y
−∞ 51 5 5 5
3
( )
∞ 1 3 1  9 2 2 3  28
E(Y ) = ∫ yf Y (y )dy = 2
∫ 9 y − 2 y dy =  y − y  =
−∞ 10 1 10  2 3  1 15
Entonces,
 8  28  224 225 − 224 1
Cov(X, Y ) = 3 −    = 3 − = = = 0.013
 5  15  75 75 75
b) Por el teorema 8.3.8,
 X + 3Y  X 3  1 9 3
Var  = Var + Y  = Var(X ) + Var(Y ) + Cov(X, Y )
 2  2 2  4 4 2
Como, por teorema 8.3.4,
( ) ( )
Var (X ) = E X 2 − µ 2X y Var(Y ) = E Y 2 − µ 2Y
calculemos E (X ) y E (Y ), aplicando el teorema 8.1.5, tenemos:
2 2

∞ 2
E (X ) = ∫ x 2 f X ( x ) dx = ∫ (3x − 2 x )dx =  x − x  =
2 2 2 2 3
3 2  79 2 4 3

−∞ 5 1 5 4 3 30  1

( ) ( )
∞ 1 3
E Y 2 = ∫ y 2 f Y (y )dy = 2 3
∫ 9 y − 2 y dy
−∞ 10 1
3
1  1  19
= 3y 3 − y 4  =
10  2 1 5
282 Hugo Cornejo Villena & Hugo Cornejo Rosell.

64 784
y como, por a), µ 2X = y µ 2Y =
25 225
79 64 11 19 784 71
Entonces Var(X ) = − = , Var (Y ) = − =
30 25 150 5 225 225
Por tanto,
 X + 3Y  1 11 9 71 3 1
Var = + +
 2  4 150 4 225 2 75
11 71 1 449
= + + = = 0.748
600 100 50 600
En estadística aplicada con frecuencia se necesita conocer la distribución
de probabilidad de una combinación lineal de variables aleatorias normales
independientes.
TEOREMA 8.3.10.-
Si X1, X2 , ….., Xn son variables aleatorias independientes que tienen
distribuciones normales con medias µ1, µ2,……, µn y varianzas
2 2 2
σ1 , σ 2 ,....., σ n , respectivamente, entonces la variable aleatoria
Y = a 1 X 1 + a 2 X 2 + ........ + a n X n
donde a1 , a 2 ,.....a n son constantes, tiene una distribución normal con
media µ Y = a 1µ1 + a 2 µ 2 + ....... + a n µ n
y varianza σ 2Y = a 12 σ12 + a 22 σ 22 + ...... + a 22 σ 2n
DEMOSTRACION:
Por el teorema 8.3.3, se encuentra
n
m Y ( t ) = m X1 (a 1 t )m X 2 (a 2 t )...m X n (a n t ) = ∏ m X i (a i t ) .
i =1
Sustituyendo a1t por t en la función generadora de momentos de la distribución
normal obtenida en el ejemplo 8.3.1, luego a2t por t y así sucesivamente ant
por t, se tiene:
m Y ( t ) = exp(a1m1t+ a12s12 t 2 / 2 + a 2 m 2 t+ a 22s 22 t 2 / 2 + .. + a n m n t+ a n2 s n2 t 2 / 2 .
= exp[ (a 1µ1 + a 2 µ 2 + .. + a n ) t + (a 12 σ12 + a 22 σ 22 + .... + a 2n σ 2n ) t 2 / 2 ]
que se reconoce como la función generadora de momentos de una distribución
que es normal con media µ Y = a 1µ1 + a 2 µ 2 + ....... + a n µ n y varianza
σ 2Y = a 12 σ12 + a 22 σ 22 + ...... + a 22 σ 2n .
Ahora resulta evidente que la distribución de Poisson y la distribución
normal tienen una propiedad reproductiva, en el sentido d que las sumas de
variables aleatorias independientes que tienen el mismo tipo de distribuciones.
Esta propiedad reproductiva también la tiene la distribución Ji-cuadrada, de
Introducción al Cálculo de Probabilidades 283

acuerdo con el teorema 7.4.2 y de acuerdo al siguiente teorema, que la


volvemos a enunciar y demostrar (utilizando momentos y función generadora
de momentos).
TEOREMA 8.3.11.-
Si X1 , X2 , ….., Xn son variables aleatorias mutuamente independientes que
tienen, respectivamente, distribuciones Ji-cuadradas con r1, r2,……, rn grados
de libertad, entonces la variable aleatoria
Y = X 1 + X 2 + ........ + X n
tiene una distribución Ji-cuadrada con r = r1 + r2 + …. + rn grados de libertad.
DEMOSTRACION:
Por el teorema 8.3.3, se encuentra
n
m Y ( t ) = m X1 (a 1 t )m X 2 (a 2 t )...m X n (a n t ) = ∏ m X i (a i t ) .
i =1
Del ejemplo 8.3.2
m X i ( t ) = (1 − 2 t ) − ri / 2 . donde i = 1, 2, …., n
Por tanto,
m Y ( t ) = (1 − 2 t ) − r1 / 2 (1 − 2 t ) − r2 / 2 ….. (1 − 2 t ) − rn / 2 .
= (1 − 2 t ) − ( r1 + r2 +.....rn ) / 2
la cual se reconoce como la función generadora de momento de una
distribución Ji-cuadrada con r = r1 + r2 + …. + rn grados de libertad.
COROLARIO 8.3.4.-
Si X1 , X2 , ….., Xn son variables aleatorias independientes que tienen
distribuciones normales idénticas con media µ y varianza σ2, entonces la
variable aleatoria
n X −µ
Y = ∑( i )2
i =1 σ
tiene una distribución Ji-cuadrada con r = n grados de libertad.
El corolario es una consecuencia inmediata del ejemplo 7.4.5, el cual
establece que cada una de las n variables aleatorias independientes
[(X i − µ) / σ]2 , donde i = 1,2,….,n, tiene una distribución Ji-cuadrada con 1
grado de libertad. Este corolario es sumamente importante, establece una
relación entre la muy importante distribución Ji-cuadrada y la distribución
normal, en el corolario debemos observar que si Z1, Z2,….., Zn son variables
n
aleatorias normales estándar independientes, entonces ∑ Z i2 tiene una
i =1
distribución Ji-cuadrada y el parámetro único, r, los grados de libertad, es n,
el número de variables normales estándar.
284 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Ahora veremos, en lo que sigue, la desigualdad de Schwarz, pero


previamente tenemos el siguiente teorema.
TEOREMA 8.3.12.-
Si X es una variable aleatoria tal que: P[X ≥ 0] = 1 , P[X > 0] > 0 y que exista
E(X ) , entonces E(X ) > 0 .
DEMOSTRACION:
Observemos que para cualquier sucesión de números positivos {E n } en la que
E n → 0 para n → ∞ , se cumple que:

[X > 0] =  [X > E n ]
n =1
Por el corolario 1.5.2 (desigualdad de Boole),

P[X > 0] ≤ ∑ P[X > E n ]
n =1
Como P[X > 0] > 0 , entonces, para algún valor de n, P[X > E n ] > 0 . Por lo
tanto, existen algún ε > 0 y algún δ > 0 tales que P[X > ε] = δ o FX ( x ) ≤
FX (ε) = 1 - δ , para todo x ∈ [0, ε] . Por otro lado, como P[X ≥ 0] = 1, implica
que FX ( x ) = 0, para todo x < 0. Ahora, supongamos que g es una función
definida por:
δ , si x ∈ [0, ε]
g (x) = 
0 , si x ∉ [0, ε]
entonces, 1 - FX ( x ) ≥ g (x), para todo x > 0.
Luego
∞ ∞
E(X) = ∫ (1 − FX ( x ) )dx ≥ ∫ g ( x )dx = δε > 0
0 0
TEOREMA 8.3.13 (Desigualdad de Schwarz)
Si X e Y son variables aleatorias, tal que existan E (X) y E (Y) , entonces
E 2 (XY) ≤ E (X 2 ) E (Y 2 ) .
La igualdad se cumple siempre y cuando exista un número real t, tal que:
P[tX + Y = 0] = 1 o P[X + tY = 0] = 1.
DEMOSTRACION
Recordemos que la ecuación de segundo grado de la forma: ax 2 + 2bx + c =
0, donde a, b y c son números reales, tiene dos raíces reales si b 2 − 4ac > 0 ,
una sola raíz real si b 2 − 4ac = 0 y ninguna raíz real si b 2 − 4ac < 0 ; el signo
de ax 2 + 2bx + c = 0 es contrario al de a para los valores de x comprendidos
entre las eventuales raíces, y sólo para ellos.
Introducción al Cálculo de Probabilidades 285

[ ]
Ahora bien, para todo número real t, tenemos que P (tX + Y )2 ≥ 0 = 1, luego
[ ]
E (tX + Y ) = t 2 E (X 2 ) + 2 t E (XY) + E (Y 2 ) ≥ 0
2

Esta expresión cuadrática en t no tiene, pues, ninguna raíz real o tiene a lo


sumo una sola, y por lo tanto E 2 (XY) - E (X 2 ) E (Y 2 ) ≤ 0, de donde,
E 2 (XY) ≤ E (X 2 ) E (Y 2 ) .
La igualdad, vale sólo cuando exista un número real t tal que
[
E (tX + Y )
2
]
= 0. Aplicando el teorema 8.3.6, P[tX + Y = 0] = 1.
Recíprocamente, si P[tX + Y = 0] = 1, para algún t, por el teorema 8.3.6
[
E (tX + Y )
2
] = 0, de donde
E 2 (XY) = E (X 2 ) E (Y 2 )
Para concluir esta sección, presentaremos la noción de coeficiente de
correlación, que es un número que relaciona dos variables aleatorias y cuya
aplicabilidad se ve dentro del análisis de correlación en estadística aplicada.
DEFINICION 8.3.5
Sean X e Y dos variables aleatorias, con momentos de segundo orden. El
coeficiente de correlación de X e Y, denotado por ρ(X, Y) , es:
Cov(X, Y)
ρ(X, Y) =
σXσY
siempre que σ X > 0 y σ Y > 0. Si alguna de estas desviaciones típicas es nula,
ρ(X, Y) no existe.
TEOREMA 8.3.14
El coeficiente de correlación entre las variables aleatorias X e Y, está dentro
del intervalo [− 1,1] ; es decir,
-1 ≤ ρ(X, Y) ≤ 1
Se cumple ρ(X, Y) = 1 siempre y cuando exista un número positivo a tal
que: Y - E (Y) = a [X − E (X)] .
Se cumple ρ(X, Y) = - 1 siempre y cuando exista un número negativo b
tal que: Y - E (Y) = b [X − E (X)] .
DEMOSTRACION:
Por el teorema 8.3.11, desigualdad de Schwarz,
{ } {
E 2 [[X − E(X)][Y − E(Y)]] ≤ E [X − E(X)] E [Y − E(Y)]
2
}
2

y como
2 E 2 {[X − E (X)][Y − E (Y)]}
ρ ( X, Y ) =
{ }{
E [X − E (X)] E [Y − E (Y)]
2
} 2
286 Hugo Cornejo Villena & Hugo Cornejo Rosell.

entonces ρ 2 (X, Y) ≤ 1 o ρ(X, Y) ≤ 1, de donde


-1 ≤ ρ(X, Y) ≤ 1.
Por la desigualdad Schwarz, aplicando para el caso del signo igual ( = ); es
decir
{ } {
E 2 [[X − E (X)][Y − E (Y)]] = E [X − E(X)] E [Y − E (Y)]
2 2
}
siempre y cuando exista algún número real t, tal que
P{t[X − E(X)] + [Y − E(Y)] = 0} = 1.
o simplemente Y - E (Y) = k [X − E (X)] ; donde k = - t , es un número real.
Entonces multiplicando a ambos miembros, por X − E(X) , obtenemos
[Y − E(Y)][X − E(X)] = k [X − E(X)] [X − E(X)]
Cov(X, Y) = k Var(X, Y)
Si k > 0 (k = a), del último resultado se tiene Cov(X, Y) > 0,
entonces ρ(X, Y) > 0 y consecuentemente ρ(X, Y) = 1.
Si k < 0 (k = b), en forma similar a la anterior, Cov(X, Y) < 0,
entonces ρ(X, Y) < 0 y consecuentemente ρ(X, Y) = - 1, con lo que concluye
la demostración.
8. 4. ESPERANZA CONDICIONAL
La esperanza condicional, se infiere de modo similar que a la de una
esperanza ordinaria, excepto en la utilización de la probabilidad condicional
en lugar de la probabilidad ordinaria y esto debido a que la probabilidad
condicional satisface las condiciones de ser una función de probabilidad, así
tenemos la siguiente definición, en virtud de los teoremas 8.1.1. y 8.1.2.
DEFINICION 8.4.1
Sean X e Y variables aleatorias, con función de probabilidad condicional de
Y dado X = x, f Y / X ( y / x ) . La esperanza o valor medio de Y dado X = x,
denotado por µ Y / X o E(Y / X = x ) , está dado por:
a) E(Y / X = x ) = ∑ yf Y / X ( y / x ) ; para el caso discreto.
y

b) E(Y / X = x ) = ∫ yf Y / X ( y / x )dy , para el caso continuo.
−∞
De modo similar, tendremos:
c) E(X / Y = y ) = ∑ xf X / Y ( x / y) ; para el caso discreto.
x

d) E(X / Y = y ) = ∫ xf X / Y ( x / y)dx ; para el caso continuo.
−∞
Introducción al Cálculo de Probabilidades 287

TEOREMA 8.4.1
Si X e Y son variables aleatorias con función de probabilidad condicional
f Y / X ( y / x ) y tal que existe E(Y), entonces:
E[E (Y / X)] = E (Y) .
DEMOSTRACION:
Como en la sección anterior, probaremos para el caso continuo.
∞ ∞ ∞
 
E[E (Y / X)] = ∫ E (Y / X)f X ( x )dx = ∫  ∫ yf Y / X ( y / x )dy  f X ( x )dx
−∞ −∞  −∞ 
∞ ∞
= ∫ ∫ yf Y / X ( y / x )f X ( x )dydx
−∞ −∞
f X , Y ( x , y)
Como f Y / X ( y / x ) = , entonces
f X (x)
∞ ∞ ∞
∞ 
E[E (Y / X)] = ∫ ∫ yf X ,Y ( x , y)dydx = ∫ y ∫ f X ,Y ( x , y)dx dy
−∞ −∞ −∞  −∞ 

= ∫ yf Y ( y)dy = E (Y)
−∞
DEFINICION 8.4.2
Si X e Y son variables aleatorias, con función de probabilidad condicional
f Y / X ( y / x ) , la varianza condicional de Y dado X = x, está dado por:

(
Var Y
X=x
)= σ 2
Y / X=x = E Y

2
[(
 - EY
X = x  X=x
)]
2

Similarmente, tendremos
2
Var X  = σ2 X2  -  E X 
 X / Y = y = E   
 Y = y   Y = y    Y = y 
TEOREMA 8.4.2.
Si X e Y son variables aleatorias, con función de probabilidad f Y / X ( y / x ) ,
entonces
Var (Y) = E Var Y [ ( X=x
)]
+ Var E (Y [
X=x
) ]
DEMOSTRACION:
Como
[ (
E Var Y
X=x
)]
= E E Y
 
2
X = x
 − E Y [(
X = x 
)]
2
(definición 8.4.2)

= E E Y
 
2
X = x 
 − E E Y [(
X=x
2
)]
(teorema 8.2.3)
288 Hugo Cornejo Villena & Hugo Cornejo Rosell.

( ) 2
[ ( X = x )] + [E(Y)]
= E Y 2 − [E(Y )] − E E Y
2 2

= Var(Y ) − E[E (Y )] + E[E(Y X = x )]


2 2
X=x
= Var (Y ) − Var[E (Y )] (teorema 8.4.1)
X=x
Entonces
[ (
Var (Y) = E Var Y
X=x
)]
+ Var E (Y[X=x
) ]
Para el caso de que X e Y sean variables aleatorias, con función de
probabilidad condicional f X / Y ( x / y) , se tiene

Var (X) = E Var X  + Var E (X )



  Y = y   Y = y 
OBSERVACIONES:
8.4.1. De modo análogo a la definición 8.4.1, se tiene establecido que si (X,Y)
es una variable aleatoria condicional y g(X,Y) es una función de dos
variables, entonces
E(g (X, Y) / Y = y ) = ∑ g ( x , y)P[X = x / Y = y]
x
= E[g ( x , y) / Y = y] ; para el caso discreto.

E(g (X, Y) / Y = y ) = ∫ g ( x , y)f X / Y ( x / y)dy
−∞
= E[g (X, y) / Y = y] ; para el caso continuo.
8.4.2. E[aX + b) / Y = y] =a E[X / Y = y] +b; donde a y b son números reales y
P[Y = y] > 0 , la justificación de esta última se deja al lector.
EJEMPLOS
8.4.1. Si la distribución de probabilidad conjunta de la variable aleatoria (X,Y)
está dada por la siguiente tabla.

X
Y
0 1
0 0.10 0.05

1 0.20 0.10

2 0.30 0.25
Calcular:
Introducción al Cálculo de Probabilidades 289

a) EX( Y = 1) ,
b) E (2X + Y ),
Y=2
c) E (XY ),
X =1
d) Var(Y/X=1), y e) ρ(X, Y)
SOLUCION:
a) Por definición 8.4.1
E(X / Y = 1) = ∑ xP[X = x / Y = 1]
x
= (0) P[X = 0 / Y = 1] +(1) P[X = 1 / Y = 1]
P[X = 1, Y = 1] 0.10 1
Como, P[X = 1 / Y = 1] = = =
P[Y = 1] 0.30 3
1 1
Entonces, E(X / Y = 1) = 1( ) =
3 3
b) De las observaciones 8.4.1 y 8.4.2, tenemos
E(2X + Y / Y = 2 ) = E(2X + 2 / Y = 2 ) =2 E(X / Y = 2 ) +2
Como:
E(X / Y = 2 ) = ∑ xP[X = x / Y = 2]
x
= (0) P[X = 0 / Y = 2] +(1) P[X = 1 / Y = 2]
P[X = 1, Y = 2] 0.25 5
= (1) = =
P[Y = 2] 0.55 11
5 32
Entonces, E(2X + Y / Y = 2 ) = 2( ) + 2 = = 2.91
11 11
c) De la observación 8.4.1, tenemos
E(XY / X = 1) = E(1Y / X = 1) = E(Y / X = 1) = ∑ yP[Y = y / X = 1]
y

= 0) P[Y = 0 / X = 1] +(1) P[Y = 1 / X = 1] +2 P[Y = 2 / X = 1]


= P[Y = 1 / X = 1] + 2 P[Y = 2 / X = 1]
P[Y = 1, X = 1] P[Y = 2, X = 1] 0.10 0.25 1 5 3
= +2 = + 2( )= + =
P[X = 1] P[X = 1] 0.40 0.40 4 4 2
d) Por definición 8.4.2
(
Var Y
X =1
) = E Y

2
X = 1 
[(
 - E Y
X =
)]
1
2

Como, por observación 8.4.1 y definición 8.4.1


E Y
2
 = y 2 P[Y = y / X = 1]
 X = 1 ∑ y
290 Hugo Cornejo Villena & Hugo Cornejo Rosell.

= 0 +(1) P[Y = 1 / X = 1]+(4) P[Y = 2 / X = 1]


P[Y = 1, X = 1] P[Y = 2, X = 1]
= +4
P[X = 1] P[X = 1]
0.10 0.25 1 10 11
= + 4( )= + =
0.40 0.40 4 4 4
EY( X =1
) = ∑ yP[Y = y / X = 1] =
y
3
2

( )
2
11  3  11 9 2 1
Entonces, Var Y = − = − = =
X = 1 4  2  4 4 4 2
Cov(X, Y)
e) Por definición 8.3.5 ρ(X, Y) =
σXσY
Como, por teorema 8.3.7 Cov(X, Y ) = E(XY ) − E(X )E(Y )
pero:
E(XY ) = P[X = 1, Y = 1] +(2) P[X = 1, Y = 2]
= 0.10 + 2(0.25) = 0.60
E(X ) = ∑ xP[X = x ] = (1) P[X = 1] = 0.4
x

E(Y ) = ∑ yP[Y = y] = (1) P[Y = 1] + (2) P[Y = 2]


y

= 0.30 + 2(0.55) = 1.4


Entonces, Cov(X, Y ) = (0.60) – (0.4) (1.4) = 0.04
Por otro lado, por teorema 8.3.4

( )
2
σ X = E X 2 − [E(X )] = ∑ x 2 P[X = x ] −  ∑ xP[X = x ]
2

x x 
= 0.4 − (0.4 )2 = 0.4 − 0.16 = 0.24 = 0.49

( )
2
σ Y = E Y 2 − [E(Y )] = ∑ y 2 P[Y = y] −  ∑ yP[Y = y]
2

y x 
= (P[Y = 1] + 4P[Y = 2]) − (P[Y = 1] + 2P[Y = 2])2
= (0.30 + 2.2) − (0.30 + 1.1)2 = 2.5 − 1.96 = 0.54 = 0.73
0.04 0.04
Por lo tanto, ρ(X, Y ) = = = 0.11
(0.49)(0.73) 0.3577
8.4.2 Sea (X, Y) una variable aleatoria continua bidimensional, con densidad
Introducción al Cálculo de Probabilidades 291

1
 , si 0 < y < x, 0 < x < 1
f X ,Y (x , y ) =  x
0 , en caso contrario
Hallar: a) E (X / Y = 0.5) , b) E (XY ) , c) Var(XY ) y d) ρ(X, Y )
SOLUCION:
Previo a las soluciones particulares, hallaremos las densidades
marginales para X e Y, que serán de utilidad:
x
1
f X (x ) = ∫−∞ f X ,Y (x , y )dy = ∫0 x dy = y ] = 1 ; 0<x<1
∞ x1
x 0

f Y (y ) = ∫−∞∞ f X ,Y (x , y )dx = ∫y1 1x dx = ln (x ) ]y = − ln(y ) ; 0<y<1


1

a) Por definición 8.4.1



E(X / Y = 0.5) = ∫ xf X / Y ( x / y)dx
−∞
f X , Y (x , y ) 1
1
Como f X / Y (x / y ) = = x
=− ,
f Y (y ) − ln (y ) x ln (y )
Entonces
1 1 1 1
E(X / Y = 0.5) = ∫ − dx = − 1 x ]10 = −
0 ln (0.5) ln ( 2 ) ln ( 12 )
b) Por teorema 8.1.7
∞ ∞
E(XY ) = ∫ ∫ xy( 1x )dxdy = ∫ ∫ ydydx
1x

−∞ −∞ 00
x

[ ]
1  y2  1 1 1
= ∫   dx = 12 ∫ x 2 dx = 16 x 3 0 =
0 2  0 6
0
c) Por el teorema 8.3.4
[ ]
Var (XY) = E (XY ) − [E(XY )] = E X 2 Y 2 − [E(XY )]
2 2 2
( )
Como
( )
∞ ∞
E X 2 Y 2 = ∫ ∫ x 2 y 2 ( 1x )dxdy = ∫ ∫ xy 2 dydx
1x

−∞ −∞ 00

[ ] [x]
1 x 1
5 1
= 1
3∫
xy 3 0 dx = 13 ∫ x 4 dx = 13 1
5 0
= 151
0 0
1
y por b), E(XY ) = .
6
292 Hugo Cornejo Villena & Hugo Cornejo Rosell.

2
1 1 1 1 7
Entonces, Var (XY) = −  = − = =0.038
15  6  15 36 180
Cov(X, Y)
d) Por definición 8.3.5 ρ(X, Y) =
σXσY
Como, por teorema 8.3.7 Cov(X, Y ) = E(XY ) − E(X )E(Y )
1
1 x2 
pero: E(XY ) = , E(X ) = ∫−∞∞ xf X (x )dx = ∫01 xdx =   = 12 ,
6  2 0
1
 2 
E(Y ) =

∫−∞ yf Y (y )dy = − ∫01 y ln (y )dy = −  y ln(y ) − 12 ∫01 ydy
 2 0
1
 y2  1
E(Y) = -  ln (y ) − 14 y 2  = 12 ln (1) − 14 =
2 0 4
1 1 1 1 1 1
Entonces, Cov(X, Y ) = − ( )( ) = − = = 0.042
4 2 4 6 8 24
Por otro lado, por teorema 8.3.4
[ ]
σ 2 X = E X 2 − [E(X )] = E X 2 −
2 1
4
( )
1
1  x3  1 1 1 1
= ∫01 x 2 dx
− =  − = − = = 0.082
4  3  0 4 3 4 12

σ2Y [ ]
= E Y 2 − [E(Y )] = E Y 2 −
2 1
16
( )
1
1  y3 1  1
=− 1 2
∫0 y ln(y )dy − = −  ln(y ) − y 2  −
16 3 6  0 16
1 1 5
= − = = 0.104
6 16 48
1 1
1
Por lo tanto, ρ ( X , Y ) = 24
= 24
= = 0.447
5
1
12
5
48 24
5
8. 5. CONVERGENCIA EN PROBABILIDADES
En esta sección presentaremos la definición y las propiedades
fundamentales de la convergencia en probabilidad; llegando a establecer que
las sumas, productos y cocientes de sucesiones de variables aleatorias
convergen en probabilidad hacia las correspondientes sumas, productos y
Introducción al Cálculo de Probabilidades 293

cocientes de los límites en probabilidad (si existen) de dichas variables


aleatorias.
DEFINICION 8.5.1
Sea {X n } una sucesión de variables aleatorias. Se dice que esta sucesión
converge en probabilidades hacia la variable aleatoria X, denotado por
Xn  →P
X , si para cada ε > 0 ,
P[ X n − X ≥ ε ] 
→ 0
cuando n 
→ ∞ .Equivalentemente lim P[ X n − X ≥ ε] = 0
n → ∞
P
Como consecuencia de la definición, se tiene que si X n 
→ X , también
P
Xn − X  → 0
TEOREMA 8.5.1
Si {X n } y {Yn } son sucesiones de variables aleatorias tal que X n P
→ X y
P P
Yn  → Y , entonces X n + Yn → X+Y
DEMOSTRACION:
Sea ε > 0 (arbitrario), entonces por definición 8.5.1
P  ε
Xn  → X  P X n − X ≥   → 0
 2
ε
Yn  →P
Y  P  Yn − Y ≥   → 0
 2
cuando n  → ∞ .
Por otro lado, tomando en cuenta que si la suma de dos números no es
ε
menor que ε , uno por lo menos de los sumandos no será menor que .
2
(
Utilizando la desigualdad triangular para números reales a + b ≤ a + b , )
se tiene:
[(X n + Yn ) − (X + Y ) ≥ ε]= [(X n − X ) + (Yn − Y ) ≥ ε]
 ε 
⊆ {[ X n − X + Yn − Y ≥ ε]} ⊂  X n − X ≥ ∪ Yn − Y ≥  
ε
 2 2 
Tomando probabilidades y utilizando el corolario 1.5.2(desigualdad de
Boole), se tiene:
[ ] ε 
0 ≤ P ( X n + Yn ) − ( X + Y ) ≥ ε ≤ P  X n − X ≥  + P  Yn − Y ≥ 
2
ε
2
 
294 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Como cada uno de los sumandos del segundo miembro tiende a cero,
cuando n 
→ ∞ ,
P [ (X n + Yn ) − (X + Y ) ≥ ε ] 
→ 0
P
Por lo tanto X n + Yn → X+Y.
En el siguiente teorema tendremos en cuenta que, una constante es una
variable aleatoria que toma un sólo valor con probabilidad uno.
TEOREMA 8.5.2
Si {X n } es una sucesión de variables aleatorias, k una constante y
P P
Xn 
→ X , entonces kX n → kX .
DEMOSTRACION:
ε
Si k=0, el teorema es obvio. Si k≠0 y sea ε >0(arbitrario), luego >0 y
k
P
como X n 
→ X , entonces
 ε
P X n − X ≥  
→ 0 , cuando n 
→ ∞
 k
Por tanto
ε
P  X n − X ≥  = P[ kX n − kX ≥ ε] 
 P
→ 0 , de donde kX n → kX
 k
TEOREMA 8.5.3
Si {X n } es una sucesión de variables aleatorias y X n  →
P
0 , entonces
2
Xn 
→
P
0.
DEMOSTRACION:
Sea ε > 0 (arbitrario), luego ε ≥ 0 y como Xn P
→ 0 , entonces
[
P Xn ≥ ε  ]
→ 0 , para n 
→ ∞ .
[ ] [
Pero, P X n ≥ ε = P X n 2 ≥ ε ]
→ 0 , luego X n 
2
P
→ 0
TEOREMA 8.5.4
Si {X n } es una sucesión de variables aleatorias, k una constante y
P 2 P
Xn  → k , entonces X n  → k2 .
DEMOSTRACION:
P
Por la definición 8.5.1, X n − k  → 0 , para n 
→ ∞ . Por el teorema 8.5.3,
P 2 P
(X n − k ) 2 
→ 0 , o (X n − 2kX n + k 2 ) 
→ 0
Como, por hipótesis y el teorema 8.5.2,
Introducción al Cálculo de Probabilidades 295

→ 2k 2 o 2kX n − k 2 
2kX n  → k 2
Luego, por el teorema 8.5.1
2 P
(X n − 2kX n + k 2 ) + (2kX n − k 2 ) → 0 + k2 = k2
2 P
y por tanto X n  → k2 .
TEOREMA 8.5.5
Si {X n } y {Yn } son sucesiones de variables aleatorias, k 1 y k 2 constantes,
P P P
tales que X n → k 1 y Yn  → k 2 , entonces X n Yn  → k 1k 2 .
DEMOSTRACION:
Por los teoremas 8.5.1 y 8.5.2
P P
X n + Yn  → k 1 + k 2 y X n − Yn  → k1 − k 2
Por otro lado, aplicando los teoremas 8.5.1, 8.5.2 y 8.5.4
X n Yn = 14 [ (X n + Yn ) 2 − (X n − Yn ) 2 ] → P 1
4
[ ]
(k 1 + k 2 )2 − (k 1 − k 2 )2 = k 1 k 2
TEOREMA 8.5.6
Si {X n } es una sucesión de variables aleatorias, k una constante, ε>0 y
Xn 
→
P
k , entonces
P[X n ≤ k − ε] 
→ 0 y P[X n ≥ k + ε] 
→ 0
para n → ∞ .
DEMOSTRACION:
Como
[
[X n ≤ k − ε] ∪ [X n ≥ k + ε] = X n − k ≥ ε ]
entonces,
P[X n ≤ k − ε] + P[X n ≥ k + ε] = P[ X n − k ≥ ε] ,
Como las probabilidades, siempre, son positivas y P X n − k ≥ ε  [
→ 0 , ]
se tiene que
P[X n ≤ k − ε] 
→ 0 y P[X n ≥ k + ε]  → 0 .
TEOREMA 8.5.7
Si {X n } es una sucesión de variables aleatorias no nulas y X n P
→ 1,
1 P
entonces → 1.
Xn
296 Hugo Cornejo Villena & Hugo Cornejo Rosell.

DEMOSTRACION:
 1 
Se sabe que P[X n ≥ 0] = P  ≤ 0 
→ 0 , cuando n  → ∞ . Sea ε > 0
Xn 
P
(arbitrario), tal que 0<ε<1, por hipótesis X n  → 1 y por el teorema 8.5.6,
tenemos:
ε
a) Para ε>0 y > 0 tenemos:
ε +1
 ε   1 
P 0 < X n ≤ 1 −  = P ≥ ε + 1 
→ 0 ,
 ε + 1 Xn 
cuando n 
→ ∞ .
ε
b) Para ε>0 y > 0 tenemos:
1− ε
 ε   1 
P X n ≥ 1 + = P  0 < ≤ 1 − ε → 0 ,
 1 − ε   Xn 
cuando n  → ∞ .
Por lo tanto,
 1  1   1  1 
P  − 1 ≥ ε  = P  ≤ 0  + P 0 < ≤ 1− ε  + P  ≥ 1+ ε  
→ 0 ,
 X n   X n   X n   X n 
cuando n  → ∞ .
1 P
De aquí que, → 1
Xn
TEOREMA 8.5.8
Si {X n } y {Yn } son sucesiones de variables aleatorias, donde {Yn } sea no
P
nula, k 1 y k 2 constantes(tales que k 2 ≠ 0 ) y tal que X n → k1 y
P X n P k1
Yn  → k 2 , entonces → .
Yn k2
DEMOSTRACION:
P
Por el teorema 8.5.7, de Yn  → k 2 , resulta que
Yn P k P
→1 y también 2 → 1 . De aquí que, por el teorema 8.5.5
k2 Yn
Xnk2 P X n P k1
→ k 1 , luego → .
Yn Yn k2
Introducción al Cálculo de Probabilidades 297

8. 6. TEOREMAS SOBRE LIMITES


Esta sección está diseñada a establecer dos resultados de suma
importancia en el estudio de probabilidades y estadística que son: La ley de
los grandes números y el teorema central del límite; obviamente considerando
teoremas que serán de utilidad para nuestro propósito y también
presentaremos algunas aplicaciones de dichos resultados.
En primer lugar, estudiaremos el teorema de Markov y la desigualdad de
Tchebysheff, en honor al matemático ruso P.L. Tchebysheff (1821-1894), que
presenta una idea del hecho de que la desviación estándar de una variable
aleatoria es una unidad, bastante natural, para la ley de probabilidades de una
variable aleatoria.
TEOREMA 8.6.1 (Teorema de Markov)
Sea X una variable aleatoria y g(X) una función de dicha variable, tal que g(X)
≥ 0 , si r es una constante positiva cualquiera, entonces:
E[g (X)]
P[g (X) ≥ r ] ≤
r
DEMOSTRACION:
Dividamos el campo de variación de X en dos subconjuntos complementarios,
uno de ellos formado por los valores de X donde g(X) ≥ r y el otro por el resto
de los valores de X donde g(X) < r. Entonces, siendo f X ( x ) la función de
densidad de X:

E[g (X)] = ∫ g ( x )f X ( x )dx = ∫ g ( x )f X ( x )dx + ∫ g ( x )f X ( x )dx ≥
−∞ g ( X )≥ r g ( X )< r


g(X)³r
g(x) f X (x) dx ³ ∫
g(X)³r
rf X (x) dx = r ∫
g(X)³r
f X (x) dx

= r ∫ f X ( x )dx = rP[g (X) ≥ r ]


g ( X ) ≥r

La desigualdad se cumple ya que fX(x) > 0 y g(X) ≥ 0, por hipótesis; por tanto
E[g (X)]
E[g (X)] ≤ rP[g (X) ≥ r ] , de donde P[g (X) ≥ r ] ≤
r
TEOREMA 8.6.1 (Desigualdad de Tchebysheff)
Si X es una variable aleatoria con esperanza E(X) y varianza Var(X), entonces
Var (X )
P[ X − E(X ) ≥ ε ] ≤
ε2
DEMOSTRACION:
En el teorema anterior, consideremos la función no negativa
[
g(X) = (X − µ) 2 , luego E[g (X)] = E (X − µ) 2 = σ 2 = Var (X) ]
Por tanto,
298 Hugo Cornejo Villena & Hugo Cornejo Rosell.

E[g (X)] σ 2
[
P ( X − µ) 2 ≥ r ≤
r
]=
r
o bien P X − µ ≥ r ≤
σ2
r
. [ ]
Si r = ε que también es positivo, entonces
σ 2 Var (X )
[
P X − E(X ) ≥ ε ≤ 2 = ]
ε ε2
Otra forma de demostración, sin utilizar el teorema de Markov, es la
siguiente:
Supongamos que δ es un número arbitrario, tal que 0<δ<ε, entonces
( ) [ ] [
E X 2 = ∫0∞ P X 2 > x dx ≥ ∫0(ε−δ ) P X 2 > x dx ≥
2
]
(ε − δ) P  X 2 > ( ε − δ )  ≥ ( ε − δ ) P  X ≥ ε
2 2 2
 
( )
Como δ>0 es arbitrario, tenemos E X 2 ≥ ε 2 P[ X − E(X ) ≥ ε ] .
Ahora, si sustituimos X por X-E(X), tenemos
{ }
E [X − E(X )] ≥ ε 2 P[ X − E(X ) ≥ ε ]
2

y utilizando, la definición 8.3.2, obtenemos


Var (X ) ≥ ε 2 P[ X − E(X ) ≥ ε ] ,
de donde:
Var (X )
P[ X − E(X ) ≥ ε ] ≤
ε2
Es importante tener las siguientes observaciones:
• La desigualdad de Tchebysheff es equivalente a la expresión:

[
P X − E(X) ≥ ε ≤
σ2
ε
]
• Puesto que X − E (X) ≥ r , entonces X − µ ≥ r o X − µ ≤ − r , es
decir, cuando X ≥ µ + r o X ≤ µ − r , por tanto P X − E (X) ≥ ε [ ]
representa la probabilidad que la variable aleatoria X no pertenezca al
( )
intervalo µ ± r , probabilidad que está acotada superiormente,
dependiendo la cota del valor de la constante r y de la varianza σ 2 de X.
• Si r = ε = kσ , se logra otra versión equivalente de la desigualdad de
Tchebysheff:
σ2
P [ X − E ( X ) ≥ kσ ] ≤ 2 = 2
1
ε k
en este caso X − µ ≥ kσ es el suceso que la variable aleatoria X está
fuera del intervalo (µ ± kσ ) dependiendo la cota superior de probabilidad
Introducción al Cálculo de Probabilidades 299

sólo de la constante k. La cota correspondiente a la probabilidad del


suceso complementario será:
P[ X − µ < kσ ] ≥ 1 −
1
k2
• Consideremos los siguientes casos particulares:
Para k = 2 [ ]1
P X − µ ≥ 2σ ≤ = 0.25
4
[ ]3
P X − µ < 2σ ≥ = 0.75
4
[ ]
Para k = 3 P X − µ ≥ 3σ ≤ = 0.11
1
9
[ ]8
P X − µ < 3σ ≤ = 0.89
9
Ahora tengamos las siguientes consecuencias de la desigualdad de
Tchebysheff:
1. Esta desigualdad permite confirmar que σ 2 = Var (X) es una buena
medida de dispersión ya que, a medida que k crece, la probabilidad de
que la variable aleatoria X tome valores fuera del intervalo (µ ± kσ ) es
cada vez más pequeña, es decir, resulta poco probable encontrar valores
de X fuera del intervalo (µ ± kσ ) cuando k se va haciendo mayor.
Por otra parte, la cota de probabilidad es la misma para cualquier variable
aleatoria ya que sólo depende de la constante k, mientras que la amplitud
del intervalo depende de σ para cada k dado. Cuanto menor sea σ,
tendremos la misma cota de probabilidad para un intervalo de menor
amplitud; por el contrario, si σ se hace mayor, la amplitud del intervalo
aumentará manteniéndose la probabilidad; es decir, la amplitud del
intervalo depende del valor que tome σ, es decir, de la mayor o menor
dispersión de la variable aleatoria.
2. La utilidad práctica de la desigualdad de Tchebysheff se centra en aquellos
casos en que no conozcamos la distribución de probabilidad de la variable
aleatoria, lo que no permite calcular ninguna probabilidad. De acuerdo
con esta desigualdad, aunque se desconozca la distribución de
probabilidad de una variable aleatoria X, puede determinarse cotas de
probabilidad para intervalos del tipo (µ ± kσ ) o de sus complementarios,
siempre y cuando podamos asignar algún valor a µ y σ
300 Hugo Cornejo Villena & Hugo Cornejo Rosell.

EJEMPLOS
8.6.1 Si E(X) = 4 y Var(X) = 9, determinar los intervalos alrededor de la
media de esta variable aleatoria que contenga al menos el 75% y el 80%
de la probabilidad.
SOLUCION:
Por la desigualdad de Tchebysheff
P[ X − µ < kσ] ≥ 1 − 2
1
k
1
Como para k = 2, 1 − 2 = 0.75 , luego el intervalo de al menos el 75%
k
de probabilidad será: (µ ± kσ ) = (4-2x3, 4+2x3) = (-2,10).
1
Por otro lado, si hacemos: 1 − 2 = 0.80 , entonces k = 2.24,
k
obteniéndose el intervalo de 80% el siguiente: (µ ± kσ ) = (µ ± 2.24σ ) =
(4-(2.24)3, 4+(2.24)3) = (-2.72, 10.72).

8.6.2 En una determinada empresa, el sueldo promedio de los trabajadores es


de $ 400, con una desviación estándar de $50.
a) Indicar la probabilidad de que el sueldo de un trabajador esté entre
$300 y $500.
b) Calcular el intervalo más corto que contenga, por lo menos al 85%
de los sueldos de los trabajadores.
c) ¿Con qué frecuencia, se puede decir que, los sueldos de los
trabajadores de dicha empresa son mayores que $500, si se sabe que
los sueldos son mayores que $400?
SOLUCION:
Usaremos la desigualdad de Tchebysheff y por datos del problema
tenemos: E(X)=µ=$400 y σ =$50.
a) El intervalo
[300,500] = [400 − 100,400 + 100] = [µ − 2σ, µ + 2σ]
1 3
y como P[µ − 2σ, µ + 2σ] ≥ 1 − 2 = = 0.75 .
(2) 4
Entonces P[300,500] ≥ 0.75 ; es decir se “espera” que el 75% de los
trabajadores tienen sueldo entre $300 y $500.
b) El intervalo que se pide es de la forma:
[µ − kσ, µ + kσ] = [400 − 50k,400 + 50k ] .
Introducción al Cálculo de Probabilidades 301

1
Pero 1 − = 0.85 , de donde k = 6.66 = 2.58 .
k2
Luego, [µ − 2.58σ, µ + 2.58σ] = [271,529]
c) La distancia entre 500 y la media 400, expresada en término de la
500 − 400 100
desviación estándar es: = = 2.
50 50
Por la desigualdad de Tchebysheff se tiene que, un dato esté en el
intervalo [500 − 2(50 ),500 + 2(50 )] = [400,600] , es por lo menos
1 1
1 − 2 = 1 − = 0.75 .
k 4
Como los sueldos son mayores que $400, podemos inferir que los
sueldos son mayores que $500 en más de del 25%(1-0.75=0.25).
8.6.3 Sea X una variable aleatoria con función de distribución de
probabilidad:
0 , si x < 0
 2
x
FX ( x ) =  , si 0 ≤ x < 2
 4
1 , si x ≥ 2

a) [
Hallar P µ − 2σ, µ + 2σ ]
b) Acotar la probabilidad anterior utilizando la desigualdad de
Tchebysheff.
c) Comentar sobre los resultados anteriores.
SOLUCION:
a) La función de densidad X es:
0 , si x < 0
x x
  , si 0 ≤ x < 2
f X ( x ) =  , si 0 ≤ x < 2 = 2
2 0 , en otros casos
0 , si x ≥ 2
Luego
2
∞ 2 x x3  4
E (X) = µ = ∫ xf X ( x )dx = ∫ x ( )dx =   =
−∞ 0 2  6 0 3
2
2

2
2 x 2 x4 
E(X ) = ∫ x f X ( x )dx = ∫ x ( )dx =   = 2
−∞ 0 2  8 0
302 Hugo Cornejo Villena & Hugo Cornejo Rosell.

4 16 2
σ 2 = Var (X) = E (X 2 ) − [E (X)] = 2 − ( ) 2 = 2 − =
2

3 9 9
Por tanto:

[ ]
P µ − 2σ ≤ X ≤ µ + 2σ = P  − 2
4 2 4
≤X≤ + 2
2
=
3 3 3 3 
4 2 4 2 2 
P  − ≤ X ≤ +  = P  ≤ X ≤ 2
 3 3 3 3   3 
2
2 2 x x2  8
= ∫ f X ( x )dx = ∫ dx =   = = 0.8
2 2 2  4 2 9
3 3 3

Por la desigualdad de Tchebysheff P[ X − µ < kσ] ≥ 1 −


1
b)
k2
Como k = 2 , tenemos:
[ ] [
P X − µ < 2σ = P µ − 2σ ≤ X ≤ µ + 2σ ]
que es la cota o intervalo de probabilidad, en este caso será:
1 1 1
1− 2 =1− 2
= = 0.50 .
k ( 2) 2
c) En el caso (a) calculamos la probabilidad exacta de un intervalo, que
es 0.8 , superior a la cota inferior obtenida, que es 0.50. Es necesario
incidir que, si se conoce la distribución de probabilidad de la
variable aleatoria, no tiene mucho sentido el trabajar con cotas de
probabilidad ya que, en muchas ocasiones, la cota (en nuestro caso
de 0.50) deja un margen muy grande a la verdadera probabilidad (en
nuestro caso 0.8 ).
DEFINICION 8.6.1
Una sucesión {X n } de variables aleatorias, se dice que es sucesión
independiente e idénticamente distribuida, si todas las variables aleatorias
X n son independientes y tienen la misma función de distribución.
TEOREMA 8.6.2 (Ley de los Grandes Números de Kolmogorov).
Si {X n } es una sucesión de variables aleatorias independientes e
idénticamente distribuidas, todas tienen una esperanza finita común µ y una
varianza finita común σ 2 . Entonces la sucesión de medias aritméticas
converge en probabilidad hacia µ; es decir,
P  X n - µ ≥ ε  
→0
 
Introducción al Cálculo de Probabilidades 303

sí n 
→ ∞ , para cualquier ε > 0 y donde
X 1 + X 2 + ...... + X n n
X
Xn = =∑ i ,
n i =1 n
es la sucesión de medias aritméticas.
DEMOSTRACION:
Puesto que:
1 n 1
E ( X n ) = E (∑
n
Xi
) = ∑ E ( X i ) = nµ = µ , debido a la generalización
i =1 n n i =1 n
del corolario 8.2.4.
σ2
( )
n n
Xi 1 1
Var X n = Var(∑ )= 2 ∑ Var ( Xi ) = n σ 2
= , debido al teorema
i=1 n n i=1 n2 n
8.3.9.
Entonces, aplicando la desigualdad de Tchebysheff:

[ σ2
P Xn − µ ≥ ε ≤ 2 .

]
σ2
Como 
→ 0 si n  → ∞ , entonces:
nε 2
[
P Xn − µ ≥ ε  ]
→ 0 , sí n 
→ ∞ y para cualquier ε > 0 .

[
NOTA: P X n − µ ≥ ε  ]
→ 0 es equivalente a decir

n
[ ]
lim P X n − µ ≥ ε = 0 , resultado que aparece en muchos tratados de
→ ∞
Estadística y Probabilidades.
Un caso particular de la ley de los grandes números es un resultado
famoso, llamado el teorema de Bernouilli, establecido por J. Bernouilli y
publicado póstumamente en 1713.
TEOREMA 8.6.3 (Teorema de Bernoulli)
Si S n representa el número de éxitos en una sucesión de Bernouilli y p es la
probabilidad de éxito en una prueba, entonces
Sn P
→ p
n
DEMOSTRACION:
Sea X k una variable aleatoria que indica el número de éxitos en la prueba de
orden k de la sucesión de Bernouilli, tal que P[X k = 1] = p y
P[X k = 0] = 1 − p = q . Tenemos:
304 Hugo Cornejo Villena & Hugo Cornejo Rosell.

m = E ( X k ) = ∑ xP [ X k = x ] = 0 ( q ) +1( p ) = p , para todo k y


x

( ) ( )
σ = Var(X k ) = E X 2 − µ 2 = 0 2 (q ) + 12 (p ) − p 2 = pq , para todo k.
2

De aquí que, las variables aleatorias de la sucesión {X n } son independientes e


idénticamente distribuidas y S n = X1 + X 2 + .... + X n . Por tanto, aplicando la
ley de los grandes números, se tiene que
S 
P  n − p ≥ ε → 0 , sí n  → ∞ , para cualquier ε > 0 .Aplicando la
 n 
Sn P
definición 8.5.1, tenemos:  → p .
n
A continuación, presentaremos uno de los resultados más importantes en
estadística y que justifica la importancia de la distribución normal, llamado
teorema central del límite, que en líneas generales establece: Cualesquiera
que sean las distribuciones de las variables aleatorias independientes
X i ; i = 1,2,...., n , sujetas a ciertas condiciones muy generales, la distribución
 σ2 
X n se encontrará aproximada por  µ,
N  para valores grandes de n. Este

 n 
teorema fue enunciado por primera vez, por Laplace en 1812. Liaponnoff dio
en 1901 una demostración rigurosa en condiciones bastante generales. Feller,
Khintchine y Lévy, en 1935, han encontrado las condiciones más generales de
validez.
TEOREMA 8.6.4 (Teorema Central del Límite)
Sea {X n } es una sucesión de variables aleatorias independientes e
idénticamente distribuidas, con una distribución de probabilidad no
especificada y que tiene media µ y una varianza σ 2 . El promedio
n
X + X 2 + ...... + X n X
Xn = 1 = ∑ i tiene una distribución con media µ X = µ y
n i=1 n

σ2
una varianza σ 2 X = , que tiende hacia una distribución normal conforme
n
Xn - µ
n tiende a ∞ . En otras palabras, la variable aleatoriatiene como límite
σ
n
X -µ
una distribución normal estándar, equivalentemente sí Zn = n , para
σ
n
n = 1,2,3,….; entonces:
Introducción al Cálculo de Probabilidades 305

FZn (x ) 
→ Φ (x ) = N(0,1) ,
donde Φ(x ) es la distribución normal estándar (definición 7.2.2).
DEMOSTRACION:
Para la demostración, utilizaremos la función generatriz de momento de
Z n ; m Zn (t ) y la función generatriz de momento de la variable aleatoria
normal estándar.
t2
Si demostramos que lim m Zn (t ) = e2 concluiría nuestro objetivo, ya que
n
→ ∞
t2
m N (0,1) (t ) = e2 , debido al ejemplo 8.3.1, para nuestro caso.

En efecto: Para todo n, E ( X n ) = µ y E ( X n − µ ) = [ 2


] σ2
n
, por lo visto en

la demostración del teorema 8.6.2.


[ ]
Luego E(Z n ) = 0 y E Z n = 1 , para todo n.
2

Por tanto,
  X n −µ     X i −µ  
    Xi −µ  
 t σ    t   t σ  
m Zn (t ) = E e ( )
tZ n 
= E e

 n 

 = E 

n

 i =1 e
 σ
 n

 = E ∏
n

i =1
 e  n  
 
     
     
n
  t 
=  m X −µ   , donde m X −µ es la función generatriz de
 σ  n  σ
momento de la forma estándar para X.
 t   t X −µ   t Zi 
Como m X −µ   = E  e n σ  = E e n .
   
σ  n     
Pero, aplicando la serie de Taylor:
tZi
t t2 2 t3 3
e Zi +
n
= 1+
Zi + 3
Z i + ......
n 2 n 3! n 2
[ ]
Encontramos, considerando que E(Z i ) = 0 y E Z i = 1; i = 1,2,3,.......n ,
2

tZi 2
t2 t3 3 1 t t3 3
E (e n
) = 1+ + 3
E ( Z i ) + ...... = 1 + ( + E ( Z i ) + ......)
2n 3!n 2 n 2 3! n
306 Hugo Cornejo Villena & Hugo Cornejo Rosell.

a (t) t2 t3
, donde a (t ) = +
3
=1 + E ( Z i ) + ...... .
n 2 3! n
 a (t ) 
n
Por tanto, m Zn (t ) = 1 + 
 n 
 a (t ) 
n
Ahora, lim m Zn (t ) = lim 1 +  =e
a (t )
n → ∞ n→ ∞ n 
Conforme n  → ∞ , todos los términos en a(t), excepto el primero, tienden
hacia cero, debido a que todos tienen potencias positivas de n en sus
denominadores.
Por tanto:
t2
lim m Z n (t ) = e2
n → ∞
que es lo que queríamos probar.
Ahora establezcamos una consecuencia del teorema central del límite,
que es una aproximación de la distribución binomial a una distribución
normal.
TEOREMA 8.6.5 (Teorema de Laplace-De Moivre)
Si S n representa el número de éxitos en una serie de n pruebas de una
sucesión de Bernouilli, en los que p es la probabilidad de éxito en una prueba
y si
S − np
Zn = n
np(1 − p )
Entonces, FZn (x ) 
→ Φ (x ) = N(0,1) , para n 
→ ∞ .
DEMOSTRACION:
Sea X n el número de éxitos en la prueba de orden n; tal que
P[X n = 1] = p, P[X n = 0] = 1 − p . Por cálculo directo E(X n ) = p
Var(X n ) = p(1 − p ) . Por tanto, aplicando el teorema central del límite, se tiene
que:
Xn − µ Xn − p Xn − p n X n − np
Zn = = = =
σ p(1 − p ) p(1 − p ) / n np(1 − p )
n
n
∑ X n − np S − np
= = n
np(1 − p ) np(1 − p )
y consecuentemente
Introducción al Cálculo de Probabilidades 307

FZn (x ) 
→ Φ (x ) = N(0,1) , para n 
→ ∞ .
OBSERVACIÓN: Con mucha frecuencia se considera que: X = X n
EJEMPLOS
8.6.4 Supongamos que se lanza una moneda el número de veces que se quiera.
En especial, definamos X i = 1 si aparece una cara en la i-ésima tirada y
X i = 0 si aparece sello en la i-ésima tirada, para i = 1,2,3,... . Entonces se
define una sucesión de variables aleatorias independientes de Bernouilli
1
X1 , X 2 ,..... , cada uno con parámetro p = . Luego, se define la
2
secuencia de proporciones de caras que aparecen:
1 n
X = ∑ X i , para i = 1,2,3,……
n i =1
1 p(1 − p ) 1
En este caso µ X n = p = y σ 2 Xn = = . Consiguientemente,
2 n 4n
 1 
de acuerdo con la ley de los grandes números, lim P  X n − > ε  = 0
n → ∞  2 
; esto quiere decir que, la probabilidad de que la cantidad de tiradas en la
que aparezca una cara difiera de 1/2, es una cantidad mayor que ε, tienda
a 0 conforme el número de tiradas crece indefinidamente. No se pretende,
que la proporción misma se aproxime cada vez más a 1/2, ya que en este
caso se puede lograr una cara en cada tirada. Sin embargo, la probabilidad
de que suceda este último evento se aproxima a cero conforme n tiende a
∞.
8.6.5 Supongamos que extraemos una muestra aleatoria de tamaño 10 de una
población con distribución uniforme (ejercicio 13 del capítulo VII) en el
[
intervalo ]0,1[. Calcular P X − 12 ≤ 0.1 ]
SOLUCION:
Sea X la variable aleatoria con distribución uniforme en el intervalo ]0,1[,
entonces:
q
q x 1 x2  q2 − p2 q + p 0 +1 1
µ = E(X) = ∫p dx =   = = = = y
q−p q − p  2  p 2(q − p ) 2 2 2
( )
σ 2 = Var(X ) = E X 2 − µ 2 ; pero

EX( )2
=
1 q 2
∫ x dx =
q−p p
q 3 − p 3 q 2 + qp + p 2 1
3(q − p )
=
3
= ,
3
308 Hugo Cornejo Villena & Hugo Cornejo Rosell.

1 1 1
luego σ 2 = − = . Por lo tanto, por el teorema central del límite
3 4 12
 σ2  1 1 
X → N µ,  = N , ,
 n   2 120 
Pero,
[ ]
P X − 12 ≤ 0.1 = P[− 0.1 ≤ X − 12 ≤ 0.1]
 0.1 X − 12 0.1 
= P − ≤ ≤  ≅ P [ -1.1 £ Zn £ 1.1]
 1 / 120 1 / 120 1 / 120 
= P[Zn ≤ 1.1] − P[Zn ≤ −1.1] = 0.8643-0.1357 = 0.7286.
8.6.6 Supongamos que el número de barriles de petróleo crudo, que produce
un pozo diariamente, es una variable aleatoria con una distribución no
especificada. Si se observa la producción en 81 días, seleccionados en
forma aleatoria y si se sabe que la desviación estándar del número de
barriles por día es σ = 18, determinar la probabilidad de que la media
muestral se encuentre a no más de 6 barriles del verdadero valor de la
producción por día.
SOLUCION:
 σ2 
Como n es suficientemente grande, la distribución de X  → N  µ,  ,
 n 
X−µ
equivalentemente Z n = → N(0,1) , ello por el teorema central

σ/ n
del límite.
Por lo tanto:
[ ]  6 X − µ 6
P X − µ < 6 = P[− 6 < X − µ < 6] = P − < < 
 2 2 2
≅ P[− 3 < Z n < 3] = P[Z n < 3] − P[Z n < −3]
= 0.9987 – 0.0013 = 0.9974
8.6.7 Un dado perfecto es lanzado independientemente 1,200 veces.
Encontrar, aproximadamente, la probabilidad de que salgan ases entre
180 y 220 veces.
SOLUCION:
Se trata de una sucesión de Bernouilli de n pruebas, donde n = 1,200,
1 5
p= y q = . Por tanto, para la variable aleatoria X, donde
6 6
180 ≤ X ≤ 220 ;tenemos:
Introducción al Cálculo de Probabilidades 309

E(X ) = np = 200 y Var(X ) = npq = 166.66 ≅ 167 (ver la


demostración del teorema 8.6.3). Luego, por el teorema 8.6.5,
180 − 200 X − 200 220 − 200 
P[180 ≤ X ≤ 220] = P  ≤ ≤ 
 167 167 167 
≅ P [ -1.55 ≤ Zn ≤ 1.55] = 0.9394-0.0606 = 0.8788 ≅ 0.88.
8.6.6 Sea X una variable aleatoria discreta con función de probabilidad
1
 , si x = 0,1,2,3
p X (x ) =  4
0 , en caso contrario
Hallar la probabilidad de que una muestra aleatoria de tamaño 49,
seleccionada con remplazo, dé una media muestral mayor que 1.6, pero
menor que 1.9.
SOLUCION:
Previamente, tenemos aplicando el ejercicio 27 (a):
1 1 1 1 3
µ = 0  + 1  + 2  + 3  = ,
4 4 4 4 2

σ 2
=
(0 − 32 ) + (1 = 32 ) + (2 − 32 ) + (3 − 32 )
2 2 2
5
.
2

=
4 4
Ahora, por el teorema central del límite, la distribución muestral de X
puede aproximarse por la distribución normal con media µ = 32 y
σ2
varianza = 196
5
.
n
Luego:
1.6 − 1.5 X − 1.5 1.9 − 1.5 
P[1.6 < X < 1.9] = P  < < 
 0.1597 0.1597 0.1597 
≅ P[0.63 < Z n < 2.50] = P[Z n < 2.50] − P[Z n < 0.63]
≅ 0.9938-0.7357 = 0.2581.
OBSERVACION: Si {X n } y {Ym } son sucesiones de variables aleatorias
independientes e idénticamente distribuidas, con esperanzas finitas comunes
µ X y µ Y , respectivamente y varianzas finitas comunes σ 2 X y σ 2 Y ,
respectivamente, entonces de acuerdo al teorema 8.6.4, las variables aleatorias
X e Y son aproximadamente distribuidas en forma normal con medias
µ X y µ Y y varianzas σ 2 X / n y σ 2 Y / m , respectivamente. Esta aproximación
mejora conforme n y m crecen. Utilizando el teorema 8.6.4, corolario 8.2.4 y
el teorema 8.3.9 se concluye que la variable aleatoria independiente e
310 Hugo Cornejo Villena & Hugo Cornejo Rosell.

idénticamente distribuida X − Y está aproximadamente distribuida en forma


normal con media: µ X−Y = µ X − µ Y = µ X − µ Y y varianza
σ 2X σ 2Y
σ X2 − Y = σ 2X + σ 2Y = + .De aquí que, lo manifestado es equivalente a
n m
decir que Z n =
(X − Y ) − (µ X − µ Y ) tiene como límite una distribución
σ 2X σ 2Y
+
n m
normal estándar.
Si tanto n como m son mayores que o iguales a 30, la aproximación
normal para la distribución X − Y es muy buena, sin importar las formas de las
variables aleatorias de las dos sucesiones. Sin embargo, aun cuando n y m sean
menores que 30, la aproximación normal es razonablemente buena excepto
cuando las sucesiones de variables aleatorias no sean definitivamente
normales. Por supuesto, si ambas sucesiones sean normales, entonces X − Y
tiene una distribución normal sin importar que valores asuman n y m.
EJEMPLOS
8.6.9 Una muestra aleatoria de tamaño 25 se toma de una población que está
normalmente distribuida (población normal), que tiene una media de 80
y una desviación estándar de 5. Se toma una segunda muestra aleatoria
de tamaño 36, de una población diferente que también está normalmente
distribuida, que tiene una media de 75 y una desviación estándar de 3.
Encontrar la probabilidad de que la media muestral calculada de las 25
mediciones exceda la media muestral calculada de las 36 mediciones, al
menos por 3.4, pero menos de 5.9; asumir que las medias se redondean a
décimas.
SOLUCION:
De los datos del problema, tenemos:

POBLACIÓN 1 POBLACION 2
µ X = 80 µ Y = 75
σX = 5 σY = 3
n = 25 m = 36

Debemos calcular: P[ 3.4 < X − Y < 5.9 ] .


De la última observación, la distribución muestral X − Y será normal y
tendrá una media y una desviación estándar, tales como:
µ X − Y = 80 − 75 = 5 y σ X − Y = 25
25
+ 9
36
= 1.1
Introducción al Cálculo de Probabilidades 311

Por tanto:
 3.4 − 5 (X − Y ) − 5 5.9 − 5 
P[3.4 < X − Y < 5.9] = P  < <
 1.1 1.1 1.1 
= P[− 1.4 < Z n < 0.8] = P[Z n < 0.8] − P[Z n < −1.4]
= 0.7881-0.0808 = 0.7073.
8.6.10 El calificativo promedio, para estudiantes que postulan a una
Universidad, en una prueba de aptitudes es 540, con una desviación
estándar de 50. ¿Cuál es la probabilidad de que dos grupos de estudiantes
seleccionados aleatoriamente, consistentes en 32 y 50 estudiantes,
respectivamente, difiera en sus calificaciones promedio por:
a) más de 20 puntos?
b) una cantidad entre 5 y 10 puntos?
SOLUCION:
De los datos del problema, tenemos la siguiente tabla, para los dos
grupos:

GRUPO 1 GRUPO 2
µ X = 540 µ Y = 540
σX = 50 σ Y = 50
n = 32 m = 50

Consideremos como X − Y a la diferencia de sus calificaciones


promedio, luego X − Y será normal, con media µ X − Y = 540 − 540 = 0
y σ X−Y = 2500
32
+ 2500
50
= 78.125 + 50 = 11.32 .
Luego,
a) [ ] [ ] [
P X − Y > 20 = 1 − P X − Y < 20 = 1 − P − 20 < X − Y < 20 ]
 20 X −Y 20 
= 1 − P − < <  = 1 − P[− 1.77 < Z n < 1.77]
 11.32 11.32 11.32 
= 1 − {P[Z n < 1.77] − P[Z n < −1.77]} = 1 − (0.9616 − 0.0384 )
= 1 – 0.9232 = 0.0768.
 5 10 
b) [ ]
P 5 < X − Y < 10 = P  <
X-Y
< 
11.32 11.32 11.32 
= P[0.44 < Z n < 0.88]
= P[Z n < 0.88] − P[Z n < 0.44] = 0.8106 − 0.6700 = 0.1406
312 Hugo Cornejo Villena & Hugo Cornejo Rosell.

EJERCICIOS
1.- Un embarque de 7 televisores incluye dos defectuosos. Un centro
educativo realiza una compra de manera aleatoria tres de estos aparatos.
Si X es el número de televisores defectuosos adquiridos por el centro
educativo, hallar la media de X.
2.- Por invertir en unas acciones en particular, Artemio puede obtener
ganancias de S/.4000 con una probabilidad de 0.3, o una pérdida de
S/.1000 con una probabilidad de 0.7. ¿Cuál es la ganancia que espera
Artemio?
3.- Una moneda se “carga” de manera que una cara es tres veces más
probable de ocurrir que un sello. Encuentre el número esperado de sellos
cuando se lanza dos veces dicha moneda.
4.- Se lanza una moneda normal hasta que salga cara. Hallar el número
esperado de tiradas.
5.- Un juego consiste en extraer al azar tres fichas a la vez, de una urna que
contiene 4 fichas rojas y 6 azules.
a) Si juega muchas veces, ¿Cuántas fichas rojas extraerá en promedio?
b) Se gana S/.1.00 por cada ficha roja extraída, en caso contrario se
pierde S/.0.50, si se juega muchas veces ¿Cuánto debería ser el
promedio de la ganancia?
6.- Una compañía vendedora de televisores considera que estos tienen algún
defecto con probabilidad 0.1. La compañía asegura que cada aparato
vendido con algún defecto será reparado sin costo para el cliente. Si se
han vendido tres televisores. ¿Cuánto espera gastar la compañía en
reparaciones si el costo por reparación es C = Y 2 + Y+ 5 , donde Y es el
número de televisores, con algún defecto?
7.- Un fabricante está planeando la producción de una novedad de
temporada. El fabricante estima que la demanda de este artículo está dada
en la siguiente tabla:
NUMERO UNIDADES (x) PROBABILIDADES
1,000 14
2,000 12
3,000 14
El costo de producción y comercialización del artículo consiste en un
costo base fija de S/. 5,000 un costo variable de S/.1 por unidad. Si el
precio de venta es de S/.5 por unidad. ¿Cuál es la ganancia esperada para
el fabricante?
Introducción al Cálculo de Probabilidades 313

8.- Los jugadores A, B y C cortan un mazo de naipes, sucesivamente en ese


orden. El primero que saque corazón gana S/.74.00. Las extracciones se
hacen con reposición. Determine la esperanza de cada jugador.
9.- Un experimento consiste en lanzar 2 bolas en 4 cajas, de tal manera que
cada bola tiene igual probabilidad de caer en cualquier caja. Si X denota
el número de bolas en la primera caja. Hallar la media y la varianza de X.
10.- Una empresa industrial compra varias computadoras nuevas cada año,
cuya cantidad depende de la frecuencia de reparaciones en el año anterior.
Supongamos que el número de computadoras, X, que se compra cada año
tiene la siguiente distribución de probabilidad:
x 0 1 2 3
f X (x ) 1 10 3 10 25 15
Si el costo del modelo que se desea adquirir permanece sin cambio en
S/.1,200 durante un año y se ofrece un descuento de 50 X 2 en cualquier
compra. ¿Cuánto dinero espera esta firma invertir en computadoras para
fin de año?
11.- Demuestre que la función generadora de momentos de la variable
µ ( e t −1)
aleatoria X, que tiene distribución de Poisson, es: M X ( t ) = e .
a) Utilizando esta función hallar la media y varianza de la distribución
de Poisson,
b) Hallar P[µ − 2σ < X < µ + 2σ]
12.- Sea X una variable aleatoria que representa el número de clientes que
llega a una tienda en un periodo de una hora. Dada la siguiente
información:
0 1 2 3 4 5 6 7 8
x
f X (x )
0.0 0.1 0.1 0.1 0.2 0.2 0.1 0.0 0.0
5 0 0 0 0 5 0 5 5
Hallar E(X) y Var(X).
13.- La función de densidad de probabilidad de una variable aleatoria X está
dada por.
 −x
 1 xe 4 , si x > 0
f X (x ) =  16
0 , en caso contrario
a) Determinar la función generadora de momentos de X.
b) Utilizar la función generadora de momento para encontrar la media
y la varianza de X.
314 Hugo Cornejo Villena & Hugo Cornejo Rosell.

14.- La función generatriz cumulativa o cumulante, de la variable aleatoria


X, es:
C X (t ) = ln (m X (t )) .
a) Probar que C (X1) (0 ) = µ X , C (X2 ) (0 ) = σ 2 x
b) Hallar la función generatriz cumulativa de una variable aleatoria
binomial.
15.- Sea X una variable aleatoria con distribución de probabilidad, dada en el
ejemplo 8.2.1.
Encuentre la desviación estándar de g(X ) = (2X + 1)2 .
16.- Una función de densidad de la variable aleatoria X, el número total de
horas, en unidades de 100 horas, de que una familia utilice una aspiradora
durante un año, se dio en el ejercicio 4 del capítulo VI. Encuentre el
número promedio de horas por año que la familia utiliza la aspiradora.
17.- Si
2(1 − x ) , si 0 < x < 1
f X (x ) = 
0 , en caso contrario
Hallar:
( )
a) E(X ) , b) E X 2 , c) E(X + 10 ) , d) E[1 (1 − X )] , e) σ 2X , f) σ X
2

18.- Sea X una variable aleatoria con función de densidad de probabilidad.


 2x
 , si 0 ≤ x ≤ 3
f X (x ) =  9
0 , en caso contrario
Calcular la media y la varianza de la variable aleatoria Y = 2X − 3 .
19.- El periodo de tiempo, en minutos, que un aeroplano espera vía libre para
aterrizar en un cierto aeropuerto es una variable aleatoria Y = 3X − 2 ,
donde X tiene función de densidad
 −x
 1 xe 4 , si x > 0
f X (x ) =  4
0 , en caso contrario
Encuentre la media y la varianza de la variable aleatoria Y.
20.- Una tienda comercial cuenta con instalaciones para atender a clientes que
llegan en automóvil y a quienes llegan caminando. En un día
seleccionado aleatoriamente, se consideran las variables X e Y que
representan los periodos de tiempo que utilizan para cada caso y si
suponemos que la función de densidad conjunta para estas dos variables
está dada por:
Introducción al Cálculo de Probabilidades 315

 2 (x + 2 y ) , si 0 ≤ x ≤ 1, 0 ≤ y ≤ 1
f X ,Y (x , y ) =  3
0 , en caso contrario
Hallar la covarianza de X e Y.
21.- Sea (X, Y ) una variable aleatoria bidimensional continua, con función de
densidad conjunta dada por:
2 , si 0 < x < y , 0 < y < 1
f X ,Y (x , y ) = 
0 , en caso contrario
Hallar:
a) Cov(X, Y )
b) La densidad condicional de Y dado X = x.
22.- En un examen de admisión a cierta Universidad se califica en base a 100
puntos. Sea X la calificación que obtiene uno de los estudiantes (que
continúa sus estudios hasta graduarse) y sea Y su razón del punto de
calidad al graduarse (4 puntos = A). La función de densidad conjunta de
X e Y es:
1
 , si 2 < y < 4 , 25(y − 1) < x < 25y
f X ,Y (x , y ) =  50
0 , en caso contrario
a) Hallar µ X , µ Y , E(XY )
b) σ 2X , σ 2Y , σ XY y PXY
23.- a) Si X e Y son variables aleatorias independientes, con varianzas
σ 2X = 5 y σ 2Y = 3 , encuentre la varianza de Z = −2X + 4Y − 3 .
b) Si X e Y son variables aleatorias no independientes, con σ 2X = 5 ,
σ 2Y = 3 y σ XY = 1 , hallar la varianza de Z = −2X + 4Y − 3 .

24.- La distribución de probabilidad conjunta de (X, Y ) está dada por:


x
y
0 1
1 0.1 0.4
4 0.2 0.3
Hallar:
a) E(X + Y ) , b) E(XY ) , c) E(2X + 3 / Y = 4 ) , d) E(XY Y = 1) ,
e) E(X + Y Y = 2 ) , f) σ 2X y σ 2Y , g) Cov(X, Y ) y h) ρ(X, Y )
316 Hugo Cornejo Villena & Hugo Cornejo Rosell.

25.- Sea (X, Y ) una variable aleatoria bidimensional, con función de


densidad conjunta dada por:
x + y
 , si 0 < x , y < 20
f X ,Y (x , y ) =  800
0 , en caso contrario
Hallar la media y la varianza condicional de X para Y = 10
26.- La función de densidad conjunta de probabilidad para la demanda
mensual de dos productos en una distribución normal bivariada dada por:
f X ,Y (x , y ) = 1001π 3 exp{− 23 ( x10

( ) ( )
) − ( x10−50 ) y10−25 + y10−25  }
−50 2

a) ¿Cuál es la covarianza entre X e Y?


b) Obtener la función de densidad de probabilidad condicional
f X  x 
Y  y
c) Supongamos que la demanda de Y es 30 ¿Cuál es la probabilidad
condicional de que X sea menor que 65?
d) ¿Cuál es el coeficiente de correlación entre X e Y?
27.- Demostrar que si X es una variable aleatoria con distribución:
1
a) Uniforme: f (x; k ) = ; x = x 1 , x 2 ,..., x k , donde k es con
k
k
∑ xi k
i =1
σ 2 = ∑ (x i − µ ) / k
2
parámetro, entonces µ = y
k i =1
1 1− p
b) Geométrica, entonces µ = y σ 2 = 2
p p
c) De Poisson, entonces σ 2 = λ
d) Normal, entonces Var (x ) = σ 2
e) Gamma, entonces µ = αβ y σ 2 = αβ 2
α αβ
f) Beta, entonces µ = y σ2 =
α+β (α + β) (α + β + 1)
2

g) Ji-Cuadrada, entonces σ 2 = 2r
−2  2    1  
2
β 
h) Weibull, entonces σ = α Γ1 +  − Γ1 +  
2

  β    β  
28.- Demostrar que si X e Y son dos variables aleatorias cuyas esperanzas
existan y si P[X ≤ Y ] = 1 , entonces E(X ) ≤ E(Y ) .
Introducción al Cálculo de Probabilidades 317

29.- Si a < b , donde a y b son números reales y P[a ≤ X ≤ b] = 1 . Demostrar


que la esperanza de X existe y a ≤ E(X ) ≤ b .
 σ2 
30.- Sea {X n } una sucesión de variables aleatorias, siendo N µ,  la
 n 
2
distribución de X n , con µ y σ > 0 constantes dadas,
P
independientemente de n. Demostrar que X n 
→ µ (Sugerencia:
P
probar que X n − µ 
→ 0 ).
31.- Una variable aleatoria X, tiene una media µ = 10 , una varianza σ 2 = 9 y
una distribución desconocida. Utilizando la desigualdad de Tchebysheff.
Hallar:
a) P[6 < X < 18]
b) P[3 < X < 21]
32.- Si, en el ejercicio anterior σ 2 = 4 . Hallar:
a) P[ X − 10 ≥ 3]
b) P[ X − 10 < 3]
c) P[5 < X < 15]
d) el valor de la constante k, tal que P[ X − 10 ≥ k ] ≤ 0.04 .
33.- Si la variable aleatoria X tiene la función de probabilidad:
6 x (1 − x ) , si 0 < x < 1
f X (x ) = 
0 , en caso contrario
Hallar P[µ − 2σ < X < µ + 2σ] y comparar con el resultado dado en el
teorema 8.6.1.
34.- En una refinería, la producción media diaria de gasolina es de 150,000
galones con una desviación estándar de 1,000 galones. Se sabe con
certeza que la mínima producción de gasolina es 147,000 galones diarios.
a) Hallar la probabilidad de que la producción diaria de gasolina esté
entre 148,000 y 152,000.
b) Calcular el intervalo más corto que contenga por lo menos 90% de
los niveles de producción diaria.
c) ¿Con qué frecuencia se puede decir, que la producción será mayor
que 157,000 galones diarios?
35.- Si µ = 17 y σ 2 = 298 , use la desigualdad de Tchebysheff para hallar una
cota inferior para:
a) P[ X − 2 < 4] , b) P[− 3 < X < 7]
318 Hugo Cornejo Villena & Hugo Cornejo Rosell.

36.- Cincuenta dados normales son lanzados en una sola vez y sea X la
variable que denota la suma de los puntos que aparecen hacia arriba.
Encontrar aproximadamente la probabilidad de que 150 ≤ X ≤ 200 .
37.- Un antropólogo estima la altura promedio de hombres de cierta raza,
encontrando que la desviación estándar es de 2.5 cm y si él selecciona
una muestra aleatoria de 100 hombres, hallar la probabilidad de que la
diferencia entre la media muestral y media poblacional verdadera no
exceda 0.5 cm.
38.- Si una muestra de tamaño 5, se saca aleatoriamente de una población que
está distribuida normalmente con esperanza µ X = 60 y varianza
σ 2X = 16 y registrando su media muestral X , por otro lado una segunda
muestra de tamaño 4 se selecciona, independiente de la primera muestra,
con esperanza µ Y = 50 y varianza σ 2Y = 9 y también registrando su
media muestral Y . Hallar P[X − Y < 7.76] .
39.- Los cinescopios de televisión del fabricante A tienen una duración
promedio de 6.5 años y una desviación estándar de 0.9 años, mientras que
los del fabricante B tienen una vida promedio de 6 años con una
desviación estándar de 0.8 años. ¿Cuál es la probabilidad de que una
muestra aleatoria de 36 cinescopios del fabricante A, tenga una duración
promedio que sea al menos un año más que la duración promedio de una
muestra de 49 cinescopios del fabricante B?
40.- Si X representa la media de una muestra aleatoria de tamaño n,
seleccionada con reemplazo, de la población discreta
x 2 3 7
p X (x ) 13 13 13
y si Y representa la media de una muestra aleatoria de tamaño m,
seleccionada con reemplazo, de la población discreta
x 1 3
p Y (x ) 23 13
Si se sacan con reemplazo muestras independientes de tamaño n = 125
y m = 100 . ¿Cuál es la probabilidad de que X − Y sea mayor que 1.84,
pero menor que 2.63? Asumir que las medias muestrales pueden medirse
con cualquier grado de precisión.
Introducción al Cálculo de Probabilidades 319

TABLAS
r
Tabla A-1 Sumas de probabilidades binomiales.B(r; n, p) = ∑ b (x; n, p)
x =0

P
n r .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
1 0 .9000 .8000 .7500 .7000 .6000 .5000 .4000 .3000 .2000 .1000
1 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

2 0 .8100 .6400 .5625 .4900 .3600 .2500 .1600 .0900 .0400 .0100
1 .9900 .9600 .9375 .9100 .8400 .7500 .6400 .5100 .3600 .1900
2 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

3 0 .7290 .5120 .4219 .3430 .2160 .1250 .0640 .0270 .0080 .0010
1 .9720 .8960 .8438 .7840 .6480 .5000 .3520 .2160 .1040 .0280
2 .9990 .9920 .9844 .9730 .9360 .8750 .7840 .6570 .4880 .2710
3 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

4 0 .6561 .4096 .3164 .2401 .1296 .0625 .0256 .0081 .0016 .0001
1 .9477 .8192 .7383 .6517 .4752 .3125 .1792 .0837 .0272 .0037
2 .9963 .9728 .9492 .9163 .8208 .6875 .5248 .3483 .1808 .0523
3 .9999 .9984 .9961 .9919 .9744 .9375 .8704 .7599 .5904 .3439
4 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

5 0 .5905 .3277 .2373 .1681 .0778 .0312 .0102 .0024 .0003 .0000
1 .9185 .7373 .6328 .5282 .3370 .1875 .0870 .0308 .0067 .0005
2 .9914 .9421 .8965 .8369 .6826 .5000 .3174 .1631 .0579 .0086
3 .9995 .9933 .9844 .9692 .9130 .8125 .6630 .4718 .2627 .0815
4 1.0000 .9997 .9990 .9976 .9898 .9688 .9222 .8319 .6723 .4095
5 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

6 0 .5314 .2621 .1780 .1176 .0467 .0156 .0041 .0007 .0001 .0000
1 .8857 .6554 .5339 .4202 .2333 .1094 .0410 .0109 .0016 .0001
2 .9841 .9011 .8306 .7443 .5443 .3438 .1792 .0705 .0170 .0013
3 .9987 .9830 .9624 .9295 .8208 .6563 .4557 .2557 .0989 .0158
4 .9999 .9984 .9954 .9891 .9590 .8906 .7667 .5798 .3447 .1143
5 1.0000 .9999 .9998 .9993 .9959 .9844 .9533 .8824 .7379 .4686
6 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

7 0 .4783 .2097 .1335 .0824 .0280 .0078 .0016 .0002 .0000


1 .8503 .5767 .4449 .3294 .1586 .0625 .0188 .0038 .0004 .0000
2 .9743 .8520 .7564 .6471 .4199 .2266 .0963 .0288 .0047 .0002
3 .9973 .9667 .9294 .8740 .7102 .5000 .2898 .1260 .0333 .0027
4 .9998 .9953 .9871 .9712 .9037 .7734 .5801 .3529 .1480 .0257
5 1.000 .9996 .9987 .9962 .9812 .9375 .8414 .6706 .4233 .1497
6 1.0000 .9999 .9998 .9984 .9922 .9720 .9176 .7903 .5217
7 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.000
320 Hugo Cornejo Villena & Hugo Cornejo Rosell.

r
Tabla A-1(Continuación) Sumas de probabilidades binomiales.B(r;n,p)= ∑ b (x;n,p)
x =0

P
n r .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
8 0 .4305 .1678 .1001 .0576 .0168 .0039 .0007 .0001 .0000
1 .8131 .5033 .3671 .2553 .1064 .0352 .0085 .0013 .0001
2 .9619 .7969 .6785 .5518 .3154 .1445 .0498 .0113 .0012 .0000
3 .9950 .9437 .8862 .8059 .5941 .3633 .1737 .0580 .0104 .0004
4 .9996 39896 .9727 .9420 .8263 .6367 .4059 .1941 .0563 .0050
5 1.0000 .9988 .9958 .9887 .9502 .8555 .6846 .4482 .2031 .0381
6 .9991 .9996 .9987 .9915 .9648 .8936 .7447 .4967 .1869
7 1.0000 1.0000 .9999 .9993 .9961 .9832 .9424 .8322 .5695
8 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

9 0 .3874 .1342 .0751 .0404 .0101 .0020 .0003 .0000


1 .7748 .4362 .3003 .1960 .0705 .0195 .0038 .0004 .0000
2 .9470 .7382 .6007 .4628 .2318 .0898 .0250 .0043 .0003 .0000
3 .9917 .9144 .8343 .7297 .4826 .2539 .0994 .0253 .0031 .0001
4 .9991 .9804 .9511 .9012 .7334 .5000 .2666 .0988 .0196 .0009
5 .9999 .9969 .9900 .9747 .9006 .7461 .5174 .2703 .0856 .0083
6 1.0000 .9997 .9987 .9957 .9750 .9102 .7682 .5372 .2618 .0530
7 1.0000 .9999 .9996 .9962 .9805 .9295 .8040 .5638 .2252
8 1.0000 1.0000 .9997 .9980 .9899 .9596 .8658 .6126
9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

10 0 .3487 .1074 .0563 .0282 .0060 .0010 .0001 .0000


1 .7361 .3758 .2440 .1493 .0464 .0107 .0017 .0001 .0000
2 .9298 .6778 .5256 .3828 .1673 .0547 .0123 .0016 .0001
3 .9872 .8791 .7759 .6496 .3823 .1719 .0548 .0106 .0009 .0000
4 .9984 .9672 .9219 .8497 .6331 .3770 .1662 .0474 .0064 .0002
5 .9999 .9936 .9803 .9527 .8338 .6230 .3669 .1503 .0328 .0016
6 1.0000 .9991 .9965 .9894 .9452 .8281 .6177 .3504 .1209 .0128
7 .9999 .9996 .9984 .9877 .9453 .8327 .6172 .3222 .0702
8 1.0000 1.0000 .9999 .9983 .9893 .9536 .8507 .6242 .2639
9 1.0000 .9999 .9990 .9940 .9718 .8926 .6513
10 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

11 0 .3138 .0859 .0422 .0198 .0036 .0005 .0000


1 .6974 .3221 .1971 .1130 .0302 .0059 .0007 .0000
2 .9104 .6174 .4552 .3127 .1189 .0327 .0059 .0006 .0000
3 .9815 .8369 .7133 .5696 .2963 .1133 .0293 .0043 .0002
4 .9972 .9496 .8854 .7897 .5328 .2744 .0994 .0216 .0020 .0000
5 .9997 .9883 .9657 .9218 .7535 .5000 .2465 .0782 .1117 .0003
6 1.0000 .9980 .9924 .9784 .9006 .7256 .4672 .2103 .0504 .0028
7 .9998 .9988 .9957 .9707 .8867 .7037 .4304 .1611 .0185
8 1.0000 .9999 .9994 .9941 .9673 .8811 .6873 .3826 .0896
9 1.0000 1.0000 .9993 .9941 .9698 .8870 .6779 .3026
10 1.0000 .9995 .9964 .9802 .9141 .6862
11 1.0000 1.0000 1.0000 1.0000 1.0000
Introducción al Cálculo de Probabilidades 321

r
Tabla A-1(Continuación) Sumas de probabilidades binomiales. B(r; n,p)= ∑ b (x;n,p)
x =0

P
n r .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
12 0 .2824 .0687 .0317 .0138 .0022 .0002 .0000
1 .6590 .2749 .1584 .0850 .0196 .0032 .0003 .0000
2 .8891 .5583 .3907 .2528 .0834 .0193 .0028 .0002 .0000
3 .9744 .7946 .6488 .4925 .2253 .0730 .0153 .0017 .0001
4 .9957 .9274 .8424 .7237 .4382 .1938 .0573 .0095 .0006 .0000
5 .9995 .9806 .9456 .8821 .6652 .3872 .1582 .0386 .0039 .0001
6 .9999 .9961 .9857 .9614 .8418 .6128 .3348 .1178 .0194 .0005
7 1.0000 .9994 .9972 .9905 .9427 .8062 .5618 .2763 .0726 .0043
8 .9999 .9996 .9983 .9847 .9270 .7747 .5075 .2054 .0256
9 1.0000 1.0000 .9998 .9972 .9807 .9166 .7472 .4417 .1109
10 1.0000 .9997 .9968 .9804 .9150 .7251 .3410
11 1.0000 .9998 .9978 .9862 .9313 .7176
12 1.0000 1.0000 1.0000 1.0000 1.0000

13 0 .2542 .0550 .0238 .0097 .0013 .0001 .0000


1 .6213 .2336 .1267 .0637 .0126 .0017 .0001 .0000
2 .8661 .5017 .3326 .2025 .0579 .0112 .0013 .0001
3 .9658 .7473 .5843 .4206 .1686 .0461 .0078 .0007 .0000
4 .9935 .9009 .7940 .6543 .3530 .1334 .0321 .0040 .0002
5 .9991 .9700 .9198 .8346 .5744 .2905 .0977 .0182 .0012 .0000
6 .9999 .9930 .9757 .9376 .7712 .5000 .2288 .0624 .0070 .0001
7 1.0000 .9980 .9944 .9818 .9023 .7095 .4256 .1654 .0300 .0009
8 .9998 .9990 .9960 .9679 .8666 .6470 .3457 .0991 .0065
9 1.0000 .9999 .9993 .9922 .9539 .8314 .5794 .2527 .0342
10 1.0000 .9999 .9987 .9888 .9421 .7975 .4983 .1339
11 1.0000 .9999 .9983 .9874 .9363 .7664 .3787
12 1.0000 .9999 .9987 .9903 .9450 .7458
13 1.0000 1.0000 1.0000 1.0000 1.0000

14 0 .2288 .0440 .0178 .0068 .0008 .0001 .0000


1 .5846 .1979 .1010 .0475 .0081 .0009 .0001
2 .8416 .4481 .2811 .1608 .0398 .0065 .0006 .0000
3 .9559 .6982 .5213 .3552 .1243 .0287 .0039 .0002
4 .9908 .8702 .7415 .5842 .2793 .0898 .0175 .0017 .0000
5 .9985 .9561 .8883 .7805 .4859 .2120 .0583 .0083 .0004
6 .9998 .9884 .9617 .9067 .6925 .3953 .1501 .0315 .0024 .0000
7 1.0000 .9976 .9897 .9685 .8499 .6047 .3075 .0933 .0116 .0002
8 .9996 .9978 .9917 .9417 .7880 .5141 .2195 .0439 .0015
9 1.0000 .9997 .9983 .9825 .9102 .7207 .4158 .1298 .0092
10 1.0000 .9998 .9961 .9713 .8757 .6448 .3018 .0441
11 1.0000 .9994 .9935 .9602 .8392 .5519 .1584
12 .9999 .9991 .9919 .9525 .8021 .4154
13 1.0000 .9999 .9992 .9932 .9560 .7712
14 1.0000 1.0000 1.0000 1.0000 1.0000
322 Hugo Cornejo Villena & Hugo Cornejo Rosell.

r
Tabla A-1(Continuación) Sumas de probabilidades binomiales.B(r; n,p)= ∑ b (x;n,p)
x =0

P
n r .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
15 0 .2059 .0352 .0134 .0047 .0005 .0000
1 .5490 .1671 .0802 .0353 .0052 ..0005 .0000
2 .8159 .3980 .2361 .1268 .0271 .0037 .0003 .0000
3 .9444 .6482 .4613 .2969 .0905 .0176 .0019 .0001
4 .9873 .8358 .6865 .5155 .2173 .0592 .0094 .0007 .0000
5 .9978 .9389 .8516 .7216 .4032 .1509 .0338 .0037 .0001
6 .9997 .9819 .9434 .8689 .6098 .3036 .0951 .0152 .0008
7 1.0000 .9958 .9827 .9500 .7869 .5000 .2131 .0500 .0042 .0000
8 .9992 .9958 .9848 .9050 .6964 .3902 .1311 .0181 .0003
9 .9999 .9992 .9963 .9662 .8491 .5968 .2784 .0611 .0023
10 1.0000 .9999 .9993 .9907 .9408 .7827 .4845 .1642 .0127
11 1.0000 .9999 .9981 .9824 .9095 .7031 .3518 .0556
12 1.0000 .9997 .9963 .9729 .8732 .6020 .1841
13 1.0000 .9995 .9948 .9647 .8329 .4510
14 1.0000 .9995 .9953 .9648 .7941
15 1.0000 1.0000 1.0000 1.0000

16 0 .1853 .0281 .0100 .0033 .0003 .0000


1 .5147 .1407 .0635 .0261 .0033 .0003 .0000
2 .7892 .3518 .1971 .0994 .0183 .0021 .0001
3 .9316 .5981 .4050 .2459 .0651 .0106 .0009 .0000
4 .9830 .7982 .6302 .4499 .1666 .0384 .0049 .0003
5 .9967 .9183 .8103 .6598 .3288 .1051 .0191 .0016 .0000
6 .9995 .9733 .9204 .8247 .5272 .2272 .0583 .0077 .0002
7 .9999 .9930 .9729 .9256 .7161 .4018 .1423 .0257 .0015 .0000
8 1.0000 .9985 .9925 .9743 .8577 .5982 .2839 .0744 .0070 .0001
9 .9998 .9984 .9929 .9417 .7728 .4728 .1753 .0267 .0005
10 1.0000 .9997 .9984 .9809 .8949 .6712 .3402 .0817 .0033
11 1.0000 .9997 .9951 .9616 .8334 .5501 .2018 .0170
12 1.0000 .9991 .9894 .9349 .7541 .4019 .0684
13 .9999 .9979 .9817 .9006 .6482 .2108
14 1.0000 .9997 .9967 .9739 .8593 .4853
15 1.0000 .9997 .9967 .9719 .8147
16 1.0000 1.0000 1.0000 1.0000
Introducción al Cálculo de Probabilidades 323

r
Tabla A-1(Continuación) Sumas de probabilidades binomiales.B(r; n,p)= ∑ b (x;n,p)
x =0

P
n r .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
17 0 .1668 .0225 .0075 .0023 .0002 .0000
1 .4818 .1182 .0501 .0193 .0021 .0001 .0000
2 .7618 .3096 .1637 .0774 .0123 .0012 .0001
3 .9174 .5489 .3530 .2019 .0464 .0064 .0005 .0000
4 .9779 .7582 .5739 .3887 .1260 .0245 .0025 .0001
5 .9953 .8943 .7653 .5968 .2639 .0717 .0106 .0007 .0000
6 .9992 .9623 .8929 .7752 .4478 .1662 .0348 .0032 .0001
7 .9999 .9891 .9598 .8954 .6405 .3145 .0919 .0127 .0005
8 1.0000 .9974 .9876 .9597 .8011 .5000 .1989 .0403 .0026 .0000
9 .9995 .9969 .9873 .9081 .6855 .3595 .1046 .0109 .0001
10 .9999 .9994 .9968 .9652 .8338 .5522 .2248 .0377 .0008
11 1.0000 .9999 .9993 .9894 .9283 .7361 .4032 .1057 .0047
12 1.0000 .9999 .9975 .9755 .8740 .6113 .2418 .0221
13 1.0000 .9995 .9936 .9536 .7981 .4511 .0826
14 .9999 .9988 .9877 .9226 .6904 .2382
15 1.0000 .9999 .9979 .9807 .8818 .5182
16 1.0000 .9998 .9977 .9775 .8332
17 1.0000 1.0000 1.0000 1.0000

18 0 .1501 .0180 .0056 .0016 .0001 .0000


1 .4503 .0991 .0395 .0142 .0013 .0001
2 .7338 .2713 .1353 .0600 .0082 .0007 .0000
3 .9018 .5010 .3057 .1646 .0328 .0038 .0002
4 .9718 .7164 .5787 .3327 .0942 .0154 .0013 .0000
5 .9936 .8671 .7175 .5344 .2088 .0481 .0058 .0003
6 .9988 .9487 .8610 .7217 .3743 .1189 .0203 .0014 .0000
7 .9998 .9837 .9431 .8593 .5634 .2403 .0576 .0061 .0002
8 1.0000 .9957 .9807 .9404 .7368 .4073 .1347 .0210 .0009
9 .9991 .9946 .9790 .8653 .5927 .2632 .0596 .0043 .0000
10 .9998 .9988 .9939 .9424 .7597 .4366 .1407 .0163 .0002
11 1.0000 .9998 .9986 .9797 .8811 .6257 .2783 .0513 .0012
12 1.0000 .9997 .9942 .9519 .7912 .4656 .1329 .0064
13 1.0000 .9987 .9846 .9058 .6673 .2836 .0282
14 .9998 .9962 .9672 .8354 .4990 .0982
15 1.0000 .9993 .9918 .9400 .7287 .2662
16 .9999 .9987 .9858 .9009 .5497
17 1.0000 .9999 .9984 .9820 .8499
18 1.0000 1.0000 1.0000 1.0000
324 Hugo Cornejo Villena & Hugo Cornejo Rosell.

r
Tabla A-1(Continuación) Sumas de probabilidades binomiales.B(r; n,p)= ∑ b (x;n,p)
x =0

P
n r .10 .20 .25 .30 .40 .50 .60 .70 .80 .90
19 0 .1351 .0144 .0042 .0011 .0001
1 .4203 .0829 .0310 .0104 .0008 .0000
2 .7054 .2369 .1113 .0462 .0055 .0004 .0000
3 .8850 .4551 .2631 .1332 .0230 .0022 .0001
4 .9648 .6733 .4654 .2822 .0696 .0096 .0006 .0000
5 .9914 .8369 .6678 .4739 .1629 .0318 .0031 .0001
6 .9983 .9324 .8251 .6655 .3081 .0835 .0116 .0006
7 .9997 .9767 .9225 .8180 .4878 .1796 .0352 .0028 .0000
8 1.0000 .9933 .9713 .9161 .6675 .3238 .0885 .0105 .0003
9 .9984 .9911 .9674 .8139 .5000 .1861 .0326 .0016
10 .9997 .9977 .9895 .9115 .6762 .3325 .0839 .0067 .0000
11 .9999 .9995 .9972 .9648 .8204 .5122 .1820 .0233 .0003
12 1.0000 .9999 .9994 .9884 .9165 .6919 .3345 .0676 .0017
13 1.0000 .9999 .9969 .9682 .8371 .5261 .1631 .0086
14 1.0000 .9994 .9904 .9304 .7178 .3267 .0352
15 .9999 .9978 .9770 .8668 .5449 .1150
16 1.0000 .9996 .9945 .9538 .7631 .2946
17 1.0000 .9992 .9896 .9171 .5797
18 .9999 .9989 .9856 .8649
19 1.0000 1.0000 1.0000 1.0000

20 0 .1216 .0115 .0032 .0008 .0000


1 .3917 .0692 .0243 .0076 .0005 .0000
2 .6769 .2016 .0913 .0355 .0036 .0002 .0000
3 .8670 .4114 .2252 .1071 .0160 .0013 .0001
4 .9568 .6296 .4148 .2375 .0510 .0059 .0003
5 .9887 .8042 .6172 .4164 .1256 .0207 .0016 .0000
6 .9976 .9133 .7858 .6080 .2500 .0577 .0065 .0003
7 .9996 .9679 .8982 .7723 .4159 .1316 .0210 .0013 .0000
8 .9999 .9900 .9591 .8867 .5956 .2517 .0565 .0051 .0001
9 1.0000 .9974 .9861 .9520 .7553 .4119 .1275 .0171 .0006
10 .9994 .9961 .9829 .8725 .5881 .2447 .0480 .0026 .0000
11 .9999 .9991 .9949 .9435 .7483 .4044 .1133 .0100 .0001
12 1.0000 .9998 .9987 .9790 .8684 .5841 .2277 .0321 .0004
13 1.0000 .9997 .9935 .9423 .7500 .3920 .0867 .0024
14 1.0000 .9984 .9793 .8744 .5836 .1958 .0113
15 .9997 .9941 .9490 .7627 .3704 .0432
16 1.0000 .9987 .9840 .8929 .5886 .1330
17 .9998 .9964 .9645 .7939 .3231
18 1.0000 .9995 .9924 .9308 .6083
19 1.0000 .9992 .9885 .8784
20 1.0000 1.0000 1.0000
Introducción al Cálculo de Probabilidades 325

λ
r 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
0 0.9048 0.8187 0.7408 0.6730 0.6065 0.5488 0.4966 0.4493 0.4066
1 0.9953 0.9825 0.9631 0.9384 0.9098 0.8781 0.8442 0.8088 0.7725
2 0.9998 0.9989 0.9964 0.9921 0.9856 0.9739 0.9659 0.9526 0.9371
3 1.0000 0.9999 0.9997 0.9992 0.9982 0.9966 0.9942 0.9909 0.9865
4 1.0000 1.0000 0.9999 0.9998 0.9996 0.9992 0.9986 0.9977
5 1.0000 1.0000 1.0000 0.9999 0.9998 0.9997
6 1.0000 1.0000 1.0000
r
Tabla A-2 Sumas de probabilidades de Poisson. P(r ; λ) = ∑ p (x ; λ )
x =0

λ
r 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0
0 0.3679 0.2231 0.1353 0.0821 0.0498 0.0302 0.0183 0.0111 0.0067
1 0.7358 0.5578 0.4060 0.2873 0.1991 0.1359 0.0916 0.0611 0.0404
2 0.9197 0.8088 0.6767 0.5438 0.4232 0.3208 0.2381 0.1736 0.1247
3 0.9810 0.9344 0.8571 0.7576 0.6472 0.5366 0.4335 0.3423 0.2650
4 0.9963 0.9814 0.9473 0.8912 0.1853 0.7254 0.6288 0.5321 0.4405
5 0.9994 0.9955 0.9834 0.9580 0.9161 0.8576 0.7851 0.7029 0.6160
6 0.9999 0.9991 0.9955 0.9858 0.9665 0.9347 0.8893 0.8311 0.7622
7 1.0000 0.9998 0.9989 0.9958 0.9881 0.9733 0.9489 0.9134 0.8666
8 1.0000 0.9998 0.9989 0.9962 0.9901 0.9786 0.9597 0.9319
9 1.0000 0.9997 0.9989 0.9967 0.9919 0.9829 0.9682
10 0.9999 0.9997 0.9990 0.9972 0.9933 0.9863
11 1.0000 0.9999 0.9997 0.9991 0.9976 0.9945
12 1.0000 0.9999 0.9997 0.9992 0.9980
13 1.0000 0.9999 0.9997 0.9993
14 1.0000 0.9999 0.9998
15 1.0000 0.9999
16 1.0000
326 Hugo Cornejo Villena & Hugo Cornejo Rosell.

r
Tabla A-2 (Continuación)Sumas de probabilidades de Poisson. P(r ; λ) = ∑ p (x ; λ )
x =0

λ
r 5.5 6.0 6.5 7.0 7.5 8.0 8.5 9.0 9.5
0 0.0041 0.0025 0.0015 0.0009 0.0006 0.0003 0.0002 0.0001 0.0001
1 0.0266 0.0174 0.0113 0.0073 0.0047 0.0030 0.0019 0.0012 0.0008
2 0.0884 0.0620 0.0430 0.0296 0.0203 0.0138 0.0093 0.0062 0.0042
3 0.2017 0.1512 0.1118 0.0818 0.0591 0.0424 0.0301 0.0212 0.0149
4 0.3575 0.2851 0.2237 0.1730 0.1321 0.0996 0.0744 0.0550 0.0403
5 0.5289 0.4457 0.3690 0.3007 0.2414 0.1912 0.1496 0.1157 0.0885
6 0.6860 0.6063 0.5265 0.4497 0.3782 0.3134 0.2562 0.2068 0.1649
7 0.8095 0.7440 0.6728 0.5987 0.5246 0.4530 0.3856 0.3239 0.2687
8 0.8944 0.8472 0.7916 0.7291 06620 0.5925 0.5231 0.4557 0.3918
9 0.9462 0.9161 0.8774 0.8305 0.7764 0.7166 0.6530 0.5874 0.5218
10 0.9747 0.9574 0.9332 0.9015 0.8622 0.8159 0.7634 0.7060 0.6453
11 0.9890 0.9799 0.9661 0.9466 0.9208 0.8881 0.8487 0.8030 0.7520
12 0.9955 0.9912 0.9840 0.9730 0.9573 0.9362 0.9091 0.8758 0.8364
13 0.9983 0.9964 0.9929 0.9872 0.9784 0.9658 0.9486 0.9261 0.8981
14 0.9994 0.9986 0.9970 0.9943 0.9897 0.9827 0.9726 0.9585 0.9400
15 0.9998 0.9995 0.9988 0.9976 0.9954 0.9918 0.9862 0.9780 0.9665
16 0.9999 0.9998 0.9996 0.9990 0.9980 0.9963 0.9934 0.9889 0.9823
17 1.0000 0.9999 0.9998 0.9996 0.9992 0.9984 0.9970 0.9947 0.9911
18 1.0000 0.9999 0.9999 0.9997 0.9994 0.9987 0.9976 0.9957
19 1.0000 1.0000 0.9999 0.9997 0.9995 0.9989 0.9980
20 1.0000 0.9999 0.9998 0.9996 0.9991
21 1.0000 0.9999 0.9998 0.9996
22 1.0000 0.9999 0.9999
23 1.0000 0.9999
24 1.0000
Introducción al Cálculo de Probabilidades 327

r
Tabla A-2 (Continuación)Sumas de probabilidades de Poisson. P(r ; λ) = ∑ p (x ; λ )
x =0

λ
r 10.0 11.0 12.0 13.0 14.0 15.0 16.0 17.0 18.0
0 0.0000 0.0000 0.0000
1 0.0005 0.0002 0.0001 0.0000 0.0000
2 0.0028 0.0012 0.0005 0.0002 0.0001 0.0000 0.0000
3 0.0103 0.0049 0.0023 0.0010 0.0005 0.0002 0.0001 0.0000 0.0000
4 0.0293 0.0151 0.0076 0.0037 0.0018 0.0009 0.0004 0.0002 0.0001
5 0.0671 0.0375 0.0203 0.0107 0.0055 0.0028 0.0014 0.0007 0.0003
6 0.1301 0.0786 0.0458 0.0259 0.0142 0.0076 0.0040 0.0021 0.0010
7 0.2202 0.1432 0.0895 0.0540 0.0316 0.0180 0.0100 0.0054 0.0029
8 0.3328 0.2320 0.1550 0.0998 0.0621 0.0374 0.0220 0.0126 0.0071
9 0.4579 0.3405 0.2424 0.1658 0.1094 0.0699 0.0433 0.0261 0.0154
10 0.5830 0.4599 0.3472 0.2517 0.1757 0.1185 0.0774 0.0491 0.0304
11 0.6968 0.5793 0.4616 0.3532 0.2600 0.1848 0.1270 0.0847 0.0549
12 0.7916 0.6887 0.5760 0.4631 0.3585 0.2676 0.1931 0.1350 0.0917
13 0.8645 0.7813 0.6815 0.5730 0.4644 0.3632 0.2745 0.2009 0.1426
14 0.9165 0.8540 0.7720 0.6751 0.5704 0.4657 0.3675 0.2808 0.2081
15 0.9513 0.9074 0.8444 0.7636 0.6694 0.5681 0.4667 0.3715 0.2867
16 0.9730 0.9441 0.8987 0.8355 0.7559 0.6641 0.5660 0.4677 0.3750
17 0.9857 0.9678 0.9370 0.8905 0.8272 0.7489 0.6593 0.5640 0.4686
18 0.9928 0.9823 0.9626 0.9302 0.8826 0.8195 0.7423 0.6550 0.5622
19 0.9965 0.9907 0.9787 0.9573 0.9235 0.8752 0.8122 0.7363 0.6509
20 0.9984 0.9953 0.9884 0.9750 0.9521 0.9170 0.8682 0.8055 0.7307
21 0.9993 0.9977 0.9939 0.9859 0.9712 0.9469 0.9108 0.8615 0.7991
22 0.9997 0.9990 0.9970 0.9924 0.9833 0.9673 0.9418 0.9047 0.8551
23 0.9999 0.9995 0.9985 0.9960 0.9907 0.9805 0.9633 0.9367 0.8989
24 1.0000 0.9998 0.9993 0.9980 0.9950 0.9888 0.9777 0.9594 0.9317
25 0.9999 0.9997 0.9990 0.9974 0.9938 0.9869 0.9748 0.9554
26 1.0000 0.9999 0.9995 0.9987 0.9967 0.9925 0.9848 0.9718
27 0.9999 0.9998 0.9994 0.9983 0.9959 0.9912 0.9827
28 1.0000 0.9999 0.9997 0.9991 0.9978 0.9950 0.9897
29 1.0000 0.9999 0.9996 0.9989 0.9973 0.9941
30 0.9999 0.9998 0.9994 0.9986 0.9967
31 1.0000 0.9999 0.9997 0.9993 0.9982
32 1.0000 0.9999 0.9996 0.9990
33 0.9999 0.9998 0.9995
34 1.0000 0.9999 0.9998
35 1.0000 0.9999
36 0.9999
37 1.0000
328 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Tabla A-3 Áreas bajo la curva normal

Z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09
-3.4 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0002
-3.3 .0005 .0005 .0005 .0004 .0004 .0004 .0004 .0004 .0004 .0003
-3.2 .0007 .0007 .0006 .0006 .0006 .0006 .0006 .0005 .0005 .0005
-3.1 .0010 .0009 .0009 .0009 .0008 .0008 .0008 .0008 .0007 .0007
-3.0 .0013 .0013 .0013 .0012 .0012 .0011 .0011 .0011 .0010 .0010

-2.9 .0019 .0018 .0017 .0017 .0016 .0016 .0015 .0015 .0014 .0014
-2.8 .0026 .0025 .0024 .0023 .0023 .0022 .0021 .0021 .0020 .0019
-2.7 .0035 .0034 .0033 .0032 .0031 .0030 .0029 .0028 .0027 .0026
-2.6 .0047 .0045 .0044 .0043 .0041 .0040 .0039 .0038 .0037 .0036
-2.5 .0062 .0060 .0059 .0057 .0055 .0054 .0052 .0051 .0049 .0048

-2.4 .0082 .0080 .0078 .0075 .0073 .0071 .0069 .0068 .0066 .0064
-2.3 .0107 .0104 .0102 .0099 .0096 .0094 .0091 .0089 .0087 .0084
-2.2 .0139 .0136 .0132 .0129 .0125 .0122 .0119 .0116 .0113 .0110
-2.1 .0179 .0174 .0170 .0166 .0162 .0158 .0154 .0150 .0146 .0143
-2.0 .0228 .0222 .0217 .0212 .0207 .0202 .0197 .0192 .0188 .0183

-1.9 .0287 .0281 .0274 .0268 .0262 .0256 .0250 .0244 .0239 .0233
-1.8 .0359 .0352 .0344 .0336 .0329 .0322 .0314 .0307 .0301 .0294
-1.7 .0446 .0436 .0427 .0418 .0409 .0401 .0392 .0384 .0375 .0367
-1.6 .0548 .0537 .0526 .0516 .0505 .0495 .0485 .0475 .0465 .0455
-1.5 .0668 .0655 .0643 .0630 .0618 .0606 .0594 .0582 .0571 .0559

-1.4 .0808 .0793 .0778 .0764 .0749 .0735 .0722 .0708 .0694 .0681
-1.3 .0968 .0951 .0934 .0918 .0901 .0885 .0869 .0853 .0838 .0823
-1.2 .1151 .1131 .1112 .1093 .1075 .1056 .1038 .1020 .1003 .0985
-1.1 .1357 .1335 .1314 .1292 .1271 .1251 .1230 .1210 .1190 .1170
-1.0 .1587 .1562 .1539 .1515 .1492 .1469 .1446 .1423 .1401 .1379

-0.9 .1841 .1814 .1788 .1762 .1736 .1711 .1685 .1660 .1635 .1611
-0.8 .2119 .2092 .2061 .2033 .2005 .1977 .1949 .1922 .1894 .1867
-0.7 .2420 .2389 .2358 .2327 .2296 .2266 .2236 .2206 .2177 .2148
-0.6 .2743 .2709 .2676 .2643 .2611 .2578 .2546 .2514 .2483 .2451
-0.5 .3085 .3050 .3015 .2981 .2946 .2912 .2877 .2843 2810 .2776

-0.4 .3446 .3409 .3372 .3336 .3300 .3264 .3228 .3192 .3156 .3121
-0.3 .3821 .3783 .3745 .3707 .3669 .3632 .3594 .3557 .3520 .3483
-0.2 .4207 .4168 .4129 .4090 .4052 .4013 .3974 .3936 .3897 .3859
-0.1 .4602 .4562 .4522 .4483 .4443 .4404 .4364 .4325 .4286 .4247
-0.0 .5000 .4960 .4920 .4880 .4840 .4801 .4761 .4721 .4681 .4641
Introducción al Cálculo de Probabilidades 329

Tabla A-3 (Continuación) Áreas bajo la curva normal

z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09
0.0 .5000 .5040 .5080 .5120 .5160 .5199 .5239 .5279 .5319 .5359
0.1 .5398 .5438 .5478 .5517 .5557 .5596 .5636 .5675 .5714 .5753
0.2 .5793 .5832 .5871 .5910 .5948 .5987 .6026 .6064 .6103 .6141
0.3 .6179 .6217 .6255 .6293 .6331 .6368 .6406 .6443 .6480 .6517
0.4 .6554 .6591 .6628 .6664 .6700 .6736 .6772 .6808 .6844 .6879

0.5 .6915 .6950 .6985 .7019 .7054 .7088 .7123 .7157 .7190 .7224
0.6 .7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517 .7549
0.7 .7580 .7611 .7642 .7673 .7704 .7734 .7764 .7794 .7823 .7852
0.8 .7881 .7910 .7939 .7967 .7995 .8023 .8051 .8078 .8106 .8133
0.9 .8159 .8186 .8212 .8238 .8264 .8289 .8315 .8340 .8365 .8389

1.0 .8413 .8438 .8461 .8485 .8508 .8531 .8554 .8577 .8599 .8621
1.1 .8643 .8665 .8686 .8708 .8729 .8749 .8770 .8790 .8810 .8830
1.2 .8849 .8869 .8888 .8907 .8925 .9844 .8962 .8980 .8997 .9015
1.3 .9032 .9049 .9066 .9082 .9099 .9115 .9131 .9147 .9162 .9177
1.4 .9192 .9207 .9222 .9236 .9251 .9265 .9278 .9292 .9306 .9319

1.5 .9332 .9345 .9357 .9370 .9382 .9394 .9406 .9418 .9429 .9441
1.6 .9452 .9463 .9474 .9484 .9495 .9505 .9515 .9525 .9535 .9545
1.7 .9554 .9564 .9573 .9582 .9591 .9599 .9608 .9616 .9625 .9633
1.8 .9641 .9649 .9656 .9664 .9671 .9678 .9686 .9693 .9699 .9706
1.9 .9713 .9719 .9726 .9732 .9738 .9744 .9750 .9756 .9761 .9767

2.0 .9772 .9778 .9783 .9788 .9793 .9798 .9803 .9808 .9812 .9817
2.1 .9821 .9826 .9830 .9834 .9838 .9842 .9846 .9850 .9854 .9857
2.2 .9861 .9864 .9868 .9871 .9875 .9878 .9881 .9884 .9887 .9890
2.3 .9893 .9896 .9898 .9901 .9904 .9906 .9909 .9911 .9913 .9916
2.4 .9918 .9920 .9922 .9925 .9927 .9929 .9931 .9932 .9934 .9936

2.5 .9938 .9940 .9941 .9943 .9945 .9946 .9948 .9949 .9951 .9952
2.6 .9953 .9955 .9956 .9957 .9959 .9960 .9961 .9962 .9963 .9964
2.7 .9965 .9966 .9967 .9968 .9969 .9970 .9971 .9972 .9973 .9974
2.8 .9974 .9975 .9976 .9977 .9977 .9978 .9979 .9979 .9980 .9981
2.9 .9981 .9982 .9982 .9983 .9984 .9984 .9985 .9985 .9986 .9986

3.0 .9987 .9987 .9987 .9988 .9988 .9989 .9989 .9989 .9990 .9990
3.1 .9990 .9991 .9991 .9991 .9992 .9992 .9992 .9992 .9993 .9993
3.2 .9993 .9993 .9994 .9994 .9994 .9994 .9994 .9995 .9995 .9995
3.3 .9995 .9995 .9995 .9996 .9996 .9996 .9996 .9996 .9996 .9997
3.4 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9997 .9998
330 Hugo Cornejo Villena & Hugo Cornejo Rosell.

Tabla A-4 Distribución Ji - Cuadrado

2
P[X ≤ X α ] = P[ X ≤ x] = α
R
0.010 0.025 0.050 0.100 0.900 0.950 0.975 0.990
1 0.000 0.001 0.004 0.016 2.706 3.841 5.024 6.635
2 0.020 0.051 0.103 0.211 4.605 5.991 7.378 9.210
3 0.115 0.216 0.352 0.584 6.251 7.815 9.348 11.34
4 0.297 0.484 0.711 1.064 7.779 9.488 11.14 13.28
5 0.554 0.831 1.145 1.610 9.236 11.07 12.83 15.09
6 0.872 1.237 1.635 2.204 10.64 12.59 14.45 16.81
7 1.239 1.690 2.167 2.833 12.02 14.07 16.01 18.48
8 1.646 2.180 2.733 3.490 13.36 15.51 17.54 20.09
9 2.088 2.700 3.325 4.168 14.68 16.92 19.02 21.67
10 2.558 3.247 3.940 4.865 15.99 18.31 20.48 23.21
11 3.053 3.816 4.575 5.578 17.28 19.68 21.92 24.72
12 3.571 4.404 5.226 6.304 18.55 21.03 23.34 26.22
13 4.107 5.009 5.892 7.042 19.81 22.36 24.74 27.69
14 4.660 5.629 6.571 7.790 21.06 23.68 26.12 29.14
15 5.229 6.262 7.261 8.547 22.31 25.00 27.49 30.58
16 5.812 6.908 7.962 9.312 23.54 26.30 28.84 32.00
17 6.408 7.564 8.672 10.08 24.77 27.59 30.19 33.41
18 7.015 8.231 9.390 10.86 25.99 28.87 31.53 34.80
19 7.633 8.907 10.12 11.65 27.20 30.14 32.85 36.19
20 8.260 9.591 10.85 12.44 28.41 30.41 34.17 37.57
21 8.897 10.28 11.59 13.24 29.62 32.67 35.48 38.93
22 9.542 10.98 12.34 14.04 30.81 33.92 36.78 40.29
23 10.20 11.69 13.09 14.85 32.01 35.17 38.08 41.64
24 10.86 12.40 13.85 15.66 33.20 36.42 39.36 42.98
25 11.52 13.12 14.61 16.47 34.38 37.65 40.65 44.31
26 12.20 13.84 15.38 17.29 35.56 38.88 41.92 45.64
27 12.88 14.57 16.15 18.11 36.74 40.11 43.19 46.96
28 13.56 15.31 16.93 18.94 37.92 41.34 44.46 48.28
29 14.26 16.05 17.71 19.77 39.09 42.56 45.72 49.59
30 14.95 16.79 18.49 20.60 40.26 43.77 46.98 50.89
40 22.16 24.43 26.51 29.05 51.80 55.76 59.34 63.69
50 29.71 32.36 34.76 37.69 63.17 67.50 71.42 76.15
60 37.48 40.48 43.19 46.46 74.40 79.08 83.30 88.38
70 45.44 48.76 51.74 55.33 85.53 90.53 95.02 100.4
80 53.34 57.15 60.39 64.28 96.58 101.9 106.6 112.3
Introducción al Cálculo de Probabilidades 331

Tabla A–5 Distribución F P[ X ≤ x ] = p


r1
r2
1 2 3 4 5 6 7 8 9 10 12 15 20 30 60 120
0,900 1 39,9 49,5 53,6 55,8 57,2 58,2 58,9 59,4 59,9 60,2 60,7 61,2 61,7 62,3 62,8 63,1 63,3
0,950 1 161 200 216 225 230 234 237 239 241 242 244 246 248 250 252 253 254
0,975 1 648 799 864 900 922 937 948 957 963 969 977 985 993 1001 1010 1014 1018
0,990 1 4052 5000 5403 5625 5764 5859 5928 5981 6022 6056 6106 6157 6209 6261 6313 6339 6366
0,995 1 16211 20000 21615 22500 23056 23437 23715 23925 24091 24224 24426 24630 24836 25044 25253 25359 25463
0,900 2 8,53 9,00 9,16 9,24 9,29 9,33 9,35 9,37 9,38 9,39 9,41 9,42 9,44 9,46 9,47 9,48 9,49
0,950 2 18,51 19,00 19,16 19,25 19,30 19,33 19,35 19,37 19,38 19,40 19,41 19,43 19,45 19,46 19,48 19,49 19,50
0,975 2 38,51 39,00 39,17 39,25 39,30 39,33 39,36 39,37 39,39 39,40 39,41 39,43 39,45 39,46 39,48 39,49 39,50
0,990 2 98,50 99,00 99,17 99,25 99,30 99,33 99,36 99,37 99,39 99,40 99,42 99,43 99,45 99,47 99,48 99,49 99,50
0,995 2 198,5 199,0 199,2 199,2 199,3 199,3 199,4 199,4 199,4 199,4 199,4 199,4 199,4 199,5 199,5 199,5 199,5
0,900 3 5,54 5,46 5,39 5,34 5,31 5,28 5,27 5,25 5,24 5,23 5,22 5,20 5,18 5,17 5,15 5,14 5,13
0,950 3 10,13 9,55 9,28 9,12 9,01 8,94 8,89 8,85 8,81 8,79 8,74 8,70 8,66 8,62 8,57 8,55 8,53
0,975 3 17,44 16,04 15,44 15,10 14,88 14,73 14,62 14,54 14,47 14,42 14,34 14,25 14,17 14,08 13,99 13,95 13,90
0,990 3 34,12 30,82 29,46 28,71 28,24 27,91 27,67 27,49 27,35 27,23 27,05 26,87 26,69 26,50 26,32 26,22 26,13
0,995 3 55,55 49,80 47,47 46,19 45,39 44,84 44,43 44,13 43,88 43,69 43,39 43,08 42,78 42,47 42,15 41,99 41,83
0,900 4 4,54 4,32 4,19 4,11 4,05 4,01 3,98 3,95 3,94 3,92 3,90 3,87 3,84 3,82 3,79 3,78 3,76
0,950 4 7,71 6,94 6,59 6,39 6,26 6,16 6,09 6,04 6,00 5,96 5,91 5,86 5,80 5,75 5,69 5,66 5,63
0,975 4 12,22 10,65 9,98 9,60 9,36 9,20 9,07 8,98 8,90 8,84 8,75 8,66 8,56 8,46 8,36 8,31 8,26
0,990 4 21,20 18,00 16,69 15,98 15,52 15,21 14,98 14,80 14,66 14,55 14,37 14,20 14,02 13,84 13,65 13,56 13,46
0,995 4 31,33 26,28 24,26 23,15 22,46 21,97 21,62 21,35 21,14 20,97 20,70 20,44 20,17 19,89 19,61 19,47 19,33
0,900 5 4,06 3,78 3,62 3,52 3,45 3,40 3,37 3,34 3,32 3,30 3,27 3,24 3,21 3,17 3,14 3,12 3,11
0,950 5 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,77 4,74 4,68 4,62 4,56 4,50 4,43 4,40 4,37
0,975 5 10,01 8,43 7,76 7,39 7,15 6,98 6,85 6,76 6,68 6,62 6,52 6,43 6,33 6,23 6,12 6,07 6,02
0,990 5 16,26 13,27 12,06 11,39 10,97 10,67 10,46 10,29 10,16 10,05 9,89 9,72 9,55 9,38 9,20 9,11 9,02
0,995 5 22,78 18,31 16,53 15,56 14,94 14,51 14,20 13,96 13,77 13,62 13,38 13,15 12,90 12,66 12,40 12,27 12,15
0,900 6 3,78 3,46 3,29 3,18 3,11 3,05 3,01 2,98 2,96 2,94 2,90 2,87 2,84 2,80 2,76 2,74 2,72
0,950 6 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4,06 4,00 3,94 3,87 3,81 3,74 3,70 3,67
0,975 6 8,81 7,26 6,60 6,23 5,99 5,82 5,70 5,60 5,52 5,46 5,37 5,27 5,17 5,07 4,96 4,90 4,85
0,990 6 13,75 10,92 9,78 9,15 8,75 8,47 8,26 8,10 7,98 7,87 7,72 7,56 7,40 7,23 7,06 6,97 6,88
0,995 6 18,6 14,5 12,9 12,0 11,5 11,1 10,8 10,6 10,4 10,3 10,0 9,8 9,6 9,4 9,1 9,0 8,9
0,900 7 3,59 3,26 3,07 2,96 2,88 2,83 2,78 2,75 2,72 2,70 2,67 2,63 2,59 2,56 2,51 2,49 2,47
0,950 7 5,59 4,74 4,35 4,12 3,97 3,87 3,79 3,73 3,68 3,64 3,57 3,51 3,44 3,38 3,30 3,27 3,23
0,975 7 8,07 6,54 5,89 5,52 5,29 5,12 4,99 4,90 4,82 4,76 4,67 4,57 4,47 4,36 4,25 4,20 4,14
0,990 7 12,25 9,55 8,45 7,85 7,46 7,19 6,99 6,84 6,72 6,62 6,47 6,31 6,16 5,99 5,82 5,74 5,65
0,995 7 16,24 12,40 10,88 10,05 9,52 9,16 8,89 8,68 8,51 8,38 8,18 7,97 7,75 7,53 7,31 7,19 7,08
0,900 8 3,46 3,11 2,92 2,81 2,73 2,67 2,62 2,59 2,56 2,54 2,50 2,46 2,42 2,38 2,34 2,32 2,29
0,950 8 5,32 4,46 4,07 3,84 3,69 3,58 3,50 3,44 3,39 3,35 3,28 3,22 3,15 3,08 3,01 2,97 2,93
0,975 8 7,57 6,06 5,42 5,05 4,82 4,65 4,53 4,43 4,36 4,30 4,20 4,10 4,00 3,89 3,78 3,73 3,67
0,990 8 11,26 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91 5,81 5,67 5,52 5,36 5,20 5,03 4,95 4,86
0,995 8 14,69 11,04 9,60 8,81 8,30 7,95 7,69 7,50 7,34 7,21 7,01 6,81 6,61 6,40 6,18 6,06 5,95
0,900 9 3,36 3,01 2,81 2,69 2,61 2,55 2,51 2,47 2,44 2,42 2,38 2,34 2,30 2,25 2,21 2,18 2,16
0,950 9 5,12 4,26 3,86 3,63 3,48 3,37 3,29 3,23 3,18 3,14 3,07 3,01 2,94 2,86 2,79 2,75 2,71
0,975 9 7,21 5,71 5,08 4,72 4,48 4,32 4,20 4,10 4,03 3,96 3,87 3,77 3,67 3,56 3,45 3,39 3,33
332 Hugo Cornejo Villena & Hugo Cornejo Rosell.

r1
r2
1 2 3 4 5 6 7 8 9 10 12 15 20 30 60 120
0,900 10 3,29 2,92 2,73 2,61 2,52 2,46 2,41 2,38 2,35 2,32 2,28 2,24 2,20 2,16 2,11 2,08 2,06
0,950 10 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3,07 3,02 2,98 2,91 2,85 2,77 2,70 2,62 2,58 2,54
0,975 10 6,94 5,46 4,83 4,47 4,24 4,07 3,95 3,85 3,78 3,72 3,62 3,52 3,42 3,31 3,20 3,14 3,08
0,990 10 10,04 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94 4,85 4,71 4,56 4,41 4,25 4,08 4,00 3,91
0,995 10 12,83 9,43 8,08 7,34 6,87 6,54 6,30 6,12 5,97 5,85 5,66 5,47 5,27 5,07 4,86 4,75 4,64
0,900 12 3,18 2,81 2,61 2,48 2,39 2,33 2,28 2,24 2,21 2,19 2,15 2,10 2,06 2,01 1,96 1,93 1,90
0,950 12 4,75 3,89 3,49 3,26 3,11 3,00 2,91 2,85 2,80 2,75 2,69 2,62 2,54 2,47 2,38 2,34 2,30
0,975 12 6,55 5,10 4,47 4,12 3,89 3,73 3,61 3,51 3,44 3,37 3,28 3,18 3,07 2,96 2,85 2,79 2,73
0,990 12 9,33 6,93 5,95 5,41 5,06 4,82 4,64 4,50 4,39 4,30 4,16 4,01 3,86 3,70 3,54 3,45 3,36
0,995 12 11,75 8,51 7,23 6,52 6,07 5,76 5,52 5,35 5,20 5,09 4,91 4,72 4,53 4,33 4,12 4,01 3,91
0,900 15 3,07 2,70 2,49 2,36 2,27 2,21 2,16 2,12 2,09 2,06 2,02 1,97 1,92 1,87 1,82 1,79 1,76
0,950 15 4,54 3,68 3,29 3,06 2,90 2,79 2,71 2,64 2,59 2,54 2,48 2,40 2,33 2,25 2,16 2,11 2,07
0,975 15 6,20 4,77 4,15 3,80 3,58 3,41 3,29 3,20 3,12 3,06 2,96 2,86 2,76 2,64 2,52 2,46 2,40
0,990 15 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89 3,80 3,67 3,52 3,37 3,21 3,05 2,96 2,87
0,995 15 10,80 7,70 6,48 5,80 5,37 5,07 4,85 4,67 4,54 4,42 4,25 4,07 3,88 3,69 3,48 3,37 3,26
0,900 20 2,97 2,59 2,38 2,25 2,16 2,09 2,04 2,00 1,96 1,94 1,89 1,84 1,79 1,74 1,68 1,64 1,61
0,950 20 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 2,39 2,35 2,28 2,20 2,12 2,04 1,95 1,90 1,84
0,975 20 5,87 4,46 3,86 3,51 3,29 3,13 3,01 2,91 2,84 2,77 2,68 2,57 2,46 2,35 2,22 2,16 2,09
0,990 20 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46 3,37 3,23 3,09 2,94 2,78 2,61 2,52 2,42
0,995 20 9,94 6,99 5,82 5,17 4,76 4,47 4,26 4,09 3,96 3,85 3,68 3,50 3,32 3,12 2,92 2,81 2,69
0,900 30 2,88 2,49 2,28 2,14 2,05 1,98 1,93 1,88 1,85 1,82 1,77 1,72 1,67 1,61 1,54 1,50 1,46
0,950 30 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 2,21 2,16 2,09 2,01 1,93 1,84 1,74 1,68 1,62
0,975 30 5,57 4,18 3,59 3,25 3,03 2,87 2,75 2,65 2,57 2,51 2,41 2,31 2,20 2,07 1,94 1,87 1,79
0,990 30 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07 2,98 2,84 2,70 2,55 2,39 2,21 2,11 2,01
0,995 30 9,18 6,35 5,24 4,62 4,23 3,95 3,74 3,58 3,45 3,34 3,18 3,01 2,82 2,63 2,42 2,30 2,18
0,900 60 2,79 2,39 2,18 2,04 1,95 1,87 1,82 1,77 1,74 1,71 1,66 1,60 1,54 1,48 1,40 1,35 1,29
0,950 60 4,00 3,15 2,76 2,53 2,37 2,25 2,17 2,10 2,04 1,99 1,92 1,84 1,75 1,65 1,53 1,47 1,39
0,975 60 5,29 3,93 3,34 3,01 2,79 2,63 2,51 2,41 2,33 2,27 2,17 2,06 1,94 1,82 1,67 1,58 1,48
0,990 60 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 2,72 2,63 2,50 2,35 2,20 2,03 1,84 1,73 1,60
0,995 60 8,49 5,79 4,73 4,14 3,76 3,49 3,29 3,13 3,01 2,90 2,74 2,57 2,39 2,19 1,96 1,83 1,69
0,900 120 2,75 2,35 2,13 1,99 1,90 1,82 1,77 1,72 1,68 1,65 1,60 1,55 1,48 1,41 1,32 1,26 1,19
0,950 120 3,92 3,07 2,68 2,45 2,29 2,18 2,09 2,02 1,96 1,91 1,83 1,75 1,66 1,55 1,43 1,35 1,26
0,975 120 5,15 3,80 3,23 2,89 2,67 2,52 2,39 2,30 2,22 2,16 2,05 1,94 1,82 1,69 1,53 1,43 1,31
0,990 120 6,85 4,79 3,95 3,48 3,17 2,96 2,79 2,66 2,56 2,47 2,34 2,19 2,03 1,86 1,66 1,53 1,38
0,995 120 8,18 5,54 4,50 3,92 3,55 3,28 3,09 2,93 2,81 2,71 2,54 2,37 2,19 1,98 1,75 1,61 1,43
0,900 2,71 2,30 2,08 1,94 1,85 1,77 1,72 1,67 1,63 1,60 1,55 1,49 1,42 1,34 1,24 1,17 1,02
0,950 3,84 3,00 2,60 2,37 2,21 2,10 2,01 1,94 1,88 1,83 1,75 1,67 1,57 1,46 1,32 1,22 1,02
0,975 5,02 3,69 3,12 2,79 2,57 2,41 2,29 2,19 2,11 2,05 1,94 1,83 1,71 1,57 1,39 1,27 1,03
0,990 6,63 4,61 3,78 3,32 3,02 2,80 2,64 2,51 2,41 2,32 2,18 2,04 1,88 1,70 1,47 1,32 1,03
0,995 7,88 5,30 4,28 3,72 3,35 3,09 2,90 2,74 2,62 2,52 2,36 2,19 2,00 1,79 1,53 1,36 1,04
Introducción al Cálculo de Probabilidades 333

Tabla A-6 Distribución t de Student P[ X≤ x ] = p

p
0.75 0.90 0.95 0.975 0.99 0.995 0.9995
r

1 1.000 3.078 6.314 12.706 31.821 63.657 636.619


2 0.816 1.886 2.920 4.303 6.965 9.925 31.598
3 0.765 1.638 2.353 3.182 4.541 5.841 12.941
4 0.741 1.533 2.132 2.776 3.747 4.604 8.610
5 0.727 1.476 2.015 2.571 3.365 4.032 6.859

6 0.718 1.440 1.943 2.447 3.143 3.707 5.959


7 0.711 1.415 1.895 2.365 2.998 3.499 5.405
8 0.706 1.397 1.860 2.306 2.896 3.355 5.041
9 0.703 1.383 1.833 2.262 2.821 3.250 4.781
10 0.700 1.372 1.812 2.228 2.764 3.169 4.587

11 0.697 1.363 1.796 2.201 2.718 3.106 4.437


12 0.695 1.356 1.782 2.179 2.681 3.055 4.318
13 0.694 1.350 1.771 2.160 2.650 3.012 4.221
14 0.692 1.345 1.761 2.145 2.624 2.977 4.140
15 0.691 1.341 1.753 2.131 2.602 2.947 4.073

16 0.690 1.337 1.746 2.120 2.583 2.921 4.015


17 0.689 1.333 1.740 2.110 2.567 2.898 3.965
18 0.688 1.330 1.734 2.101 2.552 2.878 3.922
19 0.688 1.328 1.729 2.093 2.539 2.861 3.883
20 0.687 1.325 1.725 2.086 2.528 2.845 3.850

21 0.686 1.323 1.721 2.080 2.518 2.831 3.819


22 0.686 1.321 1.717 2.074 2.508 2.819 3.792
23 0.685 1.319 1.714 2.069 2.500 2.807 3.767
24 0.685 1.318 1.711 2.064 2.492 2.797 3.745
25 0.684 1.316 1.708 2.060 2.485 2.787 3.725

26 0.684 1.315 1.706 2.056 2.479 2.779 3.707


27 0.684 1.314 1.703 2.052 2.473 2.771 3.690
28 0.683 1.313 1.701 2.048 2.467 2.763 3.674
29 0.683 1.311 1.699 2.045 2.462 2.756 3.659
30 0.683 1.310 1.697 2.042 2.457 2.750 3.646

40 0.681 1.303 1.684 2.021 2.423 2.704 3.551


60 0.679 1.296 1.671 2.000 2.390 2.660 3.460
120 0.677 1.289 1.658 1.980 2.358 2.617 3.373
∞ 0.674 1.282 1.645 1.960 2.326 2.576 3.291
RESPUESTAS A LOS EJERCICIOS

CAPITULO I
1. a) Ω = {6, 12, 18, 24, 30}, b) Ω ={C, CS, CCS, CCC}, c) Ω = φ .
2. Ω = {(x , y ) / x = 1,2,....,10; y = 1,2,....,10} .
3. Ω ={(x,y)/x= calvo, recortado, pelucón; y = ojos negros, ojos pardos}.
A= {(pelucón, ojos negros), (pelucón, ojos pardos)}.
B = {(calvo, ojos pardos),(recortado, ojos pardos),(pelucón ,ojos pardos)}.
C = {(recortado, ojos negros)}.
4. Ω = {( xi , xi , xi ) / xi = 1,2, ,....,7; i = 1,2,3; no hay dos xi iguales}.
A= {(4, x i , x i ) / x i = 1,2,....,7; i = 2,3; x 2 ≠ x 3 , x 2 ≠ 4, x 3 ≠ 4} .
B = {(x i , x i ,4 ) / x i = 1,2,....,7; i = 1,2; x 1 ≠ 4, x 2 ≠ 4, x 1 ≠ x 2 } .
C= {(xi , xi , xi ) / xi = 1,2,......,7; xi ≠ 4; i = 1,2,3}.
5. Ω = {x / x = 0,1,2,....,50}, A = {x / x = 9,10,....,50}.
B= {x / x = 0,1,......,9}, C = {x / x = 9} = A ∩ B.
6. Ω = {( x1 , x 2 ) / xi = 0,1,....,50; i = 1,2}
A = {( x1 , x 2 ) / x1 = 9,10,....,50; x 2 = 0,1,....50},
B = {( x1 , x 2 ) / x1 = 0,1,....,50; x 2 = 9,10,....50},
C =. {( x1 , x 2 ) / x1 = 9,10,....,50; x 2 = 9,10,....50}.
7. Ω = {1CC,1CS,1SC,1SS,2C,2S,3CC,3CS,3SC,3SS,4C,4S,5CC,5CS,5SC,
5SS,6C,6S}.
8. A = {1CC,1CS,1SC,1SS,2C,2S}, B = {1SS,3SS,5SS},
A’= {3CC,3CS,3SC,3SS,4C,4S,5CC,5CS,5SC,5SS,6C,6S},A’ ∩ B={3SS,5SS}
9. a) 121 , b) 19 ; 10. 18 ; 1
11. a) 52 , b) 134 , 1
c) 13 ; 1
12. 200 ;
15. Ω ={DD,NDD,DNDD,DNDN,DNND,NDND,NDNN,NNDD,NNDN,DNNN,NNND,NNNN}
16. a) Ω = {CCC,CCS,CSC,CSS,SCC,SCS,SSC, SSS}, b) 83 , c) 12 , d) 1;
17. a) Ω = {Ai Bi / i = 1,2,3} , b) 4
9
1
3 ; 18. a) 16 ,
, c) 9
b) 1
2 ; 19. a) 1
4 ,
b) 1
6 , 3
c) 14 , d) 12 , e) 34 , f) , g) 34 ;
4 20. 14 ; 21. 1
4 ; 22. 1
4
8 5
23. 13 por obstrucción, 134 por combustión, 13
1
por desgaste; 24. 8 ; 25. a) 0.7, b)
0.5; 26. a) 0.94 , b) 0.59, c) 0.86; 28. a) 0.6, b) 0.48, c) 0.52, d) 0.38;
29. a) 18 , b) 0, c) 18 ; 30. a) 43 a favor, b) 191 en contra, c) 4 a favor.
CAPITULO II
1. 24,300; 2. 120; 3. a) 40, b) 20, c) 40; 4. 36; 5. 6, 6. 120; 7. 9;
8. 120; 9. 720; 10. 362,880; 11. 5,040; 12. 24; 13. 288; 14. 120 y 24;
15. 1,728; 16. 10; 17. 15; 18. 5; 19. 336; 20. 120; 21. a) 24, b) 6;
22. 420; 23. a) 1,152, b) 504, c) 648; 24. a) 5,040, b) 2,520, c) 10,080;
Introducción al Cálculo de Probabilidades 335

25. a) 120, b) 24, c) 24, d) 12; 26. a) a+b, b) i) 504, ii) 180; 28. a) n=9,
b) n=5; 29. 6561; 30. 216; 31. 6840; 32. 455; 33. 8,820;
34. 210; 35. 66; 36. a) 45, b) 28, c) 120, d) 36, e) 8; 37. 672; 38. a)
286, b) 165, c) 110, d) 80, e) 276.
CAPITULO III
 39   39 
4 3 
1. a) 1
3 , b) 3
11 ; 2. 9
230 ; 3. 1 −  
 49 
− 10  
 49 
; 4. a) 1
4 , b) 5
8 ; 5. 5
9 ; 6.
4   4
   
 98   62 
 48   5
a) 2
105 , b) 2
5 ; 7. 5
28 ; 8.  
 100  − 98 
; 9. 4
11 ; 10. a) 1−  
 39 
, b)
 50   50   5
     
 34  + 5 34  3 36 
 14   12 
 5
1−    
 39 
, c)  39   39 
; 12. 1
2 ; 13. a) 3
8 , b) 2
5 , c) 1
2 ; 14. 3
8 ;
 13   5   13 
    
41 13 2 2
15. a) 0.362, b) 0.406, c) 0.382; 16. a) 72 , b) 36 ; 17. 3 ; 18. a) 15 , b)
5 1 1 3 1 1 1
8 , c) 3 ; 19. a) 10 , b) 10 ; 20. a) 12 , b) 9 , c) 3 ; 21. 0.545;
1 1 3
23. a) P(A)=P(B)=P(C) = 2 , P(AB)=P(AC)=P(BC)= 4 , P(ABC)=0; 24. a) 4 ,
2 1 1 2 5
b) 5 , c) 5; 25. a) 3 , b) 2 , c) 3 ; 26. 16 ; 27. a) 0.995, b) 0.145.
CAPITULO IV
1. a) si, b) no; 2. si;
3.
Ω NNN NNM NMN MNN NMM MNM MMN MMM
x 0 1 1 1 2 2 2 3
4.
Ω CCC CCS CSC SCC CSS SCS SSC SSS
x 3 1 1 1 -1 -1 -1 -3
5. 6.

7.
y 3 4 5 6 7
pY ( y ) 1
6
1
6
2
6
1
6
1
6

8.
z 2 5 8 10 13 17 18 20 25 32
p Z (z ) 1
16
2
16
1
16
2
16
2
16
2
16
1
16
2
16
2
16
1
16
336 Hugo Cornejo Villena & Hugo Cornejo Rosell.

9.
x 15 15.5 16 16.5 17.5 18 18.5 19 19.5 21
p X (x) 3
45
12
45
9
45
4
45
3
45
4
45
4
45
4
45
1
45
1
45
1 1
10. a) 30 , b) 11. a) [ X = 7] = {(1,6), (2,5), (3,4), (4,3), (5,2), (6,1)},
20 ;
[ X = 11] = {(5,6), (6,5), (3,4)},
[ X = 7 ó X = 11] = {(1,6), ( 2,5), (3,4), ( 4,3), (5,2), (6,1), (5,6), (6,5)}
,
b) P[ X = 7 ] = 16 , P[ X = 11] = 1 , P[ X = 7 ó X = 11] = 14 ;
18
1 1 1 1 1 1
12. a) 3 , b) 16 , c) 7 ; 13. a) 3 , b) 16 , c) 7 .
14.

20 2
a) 27 , b) 3 .

15.

a) 0.09, b) 0.41, c) 0.11, d) 0.19;


16. a) 14 , b) 12 , c) 12 ;
17. b)
c1 ) 0, c 2 ) 43 , c3 ) 3
4 , c4 ) 1
4 ,
c5 ) 1, c6 ) 0, c7 ) 1
4 , c8 ) 1
4

18. a) e −1 , b) 0.13212, c) 1
2
e −3 , d) 1 − 12 e −1 , e) 0.972527;
Introducción al Cálculo de Probabilidades 337

21.
a) b)

22. a) b) c) 0.64

23.
a) b) c) 42/45

24. a) k = 1/36, b) 1/12, c) 1/2 , d) 1/6, e) 5/36;

25. a)
338 Hugo Cornejo Villena & Hugo Cornejo Rosell.

b) c) 0.6 , d) 0.2, e) 0.1

26. a) b) 9/14; 27. a)

b) c) 9/20, d) 19/20;

1 1 11
28. a) k = 15 , b) 3 , c) 15 ; 32. Dependientes; 33. Independientes
34. Dependientes;
36. a) p ( X / 1) = 3 x12− 2 ; x = 1,2,3 ; p ( X / 2) = 3X
18 , X = 1,2,3 ;
p ( X / 3) = 3 X +2
24 , X = 1,2,3 ;
b) p (Y / 1) = 2Y −1
9 , Y = 1,2,3 ; p (Y / 2) = Y +1
9 , Y = 1,2,3 ;
p (Y / 3) = 2Y + 5
27 , Y = 1,2,3 ;
 3  3 
37. p ( X / 1) = 143   ; X = 0,1,2 ; p ( X = 1 / Y = 1) = 12 ;
 x 1 − x 
9 1
38. a) 19 b) 3 ; 39. a) 1, b) 0.4.
Introducción al Cálculo de Probabilidades 339

CAPITULO V
1. 12 ; 2. a) 25
1
, b) 1
5 ; 3. a) 0.1672, b) 0.0101, c) 0.1629; 4. 0.9163;
10 
[ ]
5. a) P X = x =  (0.20 ) (0.8)
x 10 − x
; x = 1,2,3,....10 ; b) 0.0328; c) 9.02 ≅9
 x
10  x n− x
6. a) 0.1216, b) 2.65 (10
−5
); 7. a) P[X = x] =  ( 12 ) ( 12 ) ; x = 1,2,3,....10 ; b)
 x
10 
0.9893; 8.  (0.95) 7 (0.05) 3 ; 9. a) 0.068, b) 0.605; 10. a) 0.1280, b)
3 
0.9547; 11. a) 0, b) 0.4148, c) 0.1019; 12.a)
 x − 1 5 x−5
P[X = x] =  (0.7 ) (0.3) ; x = 5,6,7,.... ;b) FX ( x) = ∑  r − 1(0.7 )5 (0.3)r −5 , c)
x

 
4  r =5  4 
6 5
 r − 1
P[X = 7] =  (0.7 ) (0.3) ; P[ X > 5] = 1 − ∑  (0.7 ) (0.3) ;
r −5
5 2 5

 4 r =0  4 
13. a) 3
4 , b) 7
8 ; 14. ( 3820 )k −1 (1838 ) ; 15. a) 0.16, b) 0.488; 16. a) 0.0630, b)
0.9730; 17. a) 0.047, b) 0.2355;
 26   26 
P[ X = x ] =
 x   13− x 
18.  
 52 

; x = 1,2,.....,13 19. 22
35 ; 20. 0.9593;
 13 
 
 4  2 
; x = 1,2,3 ; P[2 ≤ X ≤ 3] = 54 ; 22.
 x  2− x 
21. h( x;6,3,4) =  
6
 10
21 , 23. 0.2131;
3
 
 6   14   14 
P[ X = k ] =
 k   5− k   5
24. a)  
 20 

; k = 0,1,2,3,4,5 ; b) 1 −  20  ; 25. a) p
1+ q ,
 5  5
   
1 1 16 32 8 1
b) , c) 1+ q
; 28. a) 81 , b) 81 , c) 27 , d) ;
1+ q+ q 2 9

29. a) 0.16804, b) 0.08388, c) 0.59747, d) 0.42321;


30. a) 0.008025, b) 0.03108, c) 0.98893; 31. a) 0.08208, b) 0.2137;
32. 0.549; 33. 0.024; 34. a) Poisson con λ = 8 , b) 0.1841;
C315C 2185
35. a) e-10 , b)
C5200
; 36. a) Binomial, n = 300, p= 1
2n = 1
6000 , b) 0.607,
c) 0.0003; 37. a) 0.1512, b) 0.4015; 38. a) 0.264477, b) 0.1044847;
39. 0.14039; 40. 0.006; 41. a) 0.0216, b) 0.1298; 42. 0.058; 43. 0.0146484.
CAPITULO VI
1. a) k = π4 , b) k = 13 , c) k = 21π , d) k = 0,1; 2. a) α = 92 , b) 19
36 ;
340 Hugo Cornejo Villena & Hugo Cornejo Rosell.

 − 5x
3. a) k = 5, b) 25 e − 25
e , d) F ( x) = 25 − 25e ; x ≥ 0;
X
0 ; x<0
0 , x<0
 x2 0 ≤ x <1 ;
4. a) 0.02, b) 0.84, d) FX (x ) =  2 ,

2 x − − , 1≤ x < 2
x2 3
2 2

0 , x≥2
0 , x<0
 x2 , 0 ≤ x < 500
 500000
1
5. a) 250000 , b) 34 ; c) FX (x ) =  x ;
 250 − 50000 − 2 , 500 ≤ x < 1000
x2 3

0 , x ≥ 1000
0 , x < 0
 x2
6. a) 2, b) 8 , c) FX (x ) =  16 , 0≤ x≤4 ;
1 , x > 4

0 , x<0
x 2
, 0≤ x<2
 4
7. a) k = 12 , 2 , b) FX (x) =  x6−1
1 11
, 2≤ x<6 ;
 − x 2 +16 x − 40 , 6≤ x<8
 24
1 , x≥8
0 , x<0
8. a) k = m, b) FX (x ) =  − mx
; c) 0.3679;
1 − e , x≥0
( x + 4 )( x − 2 )
9. a) 16
27 , b) 1
3 , c) FX (x ) = 27
; 10. a) 1
4 , b) 1
2 , c) 1
2 ;

11. a) f X ( x ) =
− 100
x
3
1
100 e , b) 0.8187; 12. b) 4 y 161 ,
2 − 2 x , 0 < x < 1
c) f X ( x ) =  ; 13. a) 95 , b) 9
100 ;
0 , en otro caso
2 x , 0 < x < 12

14. a) f X ( x ) = 6(1 − x ) , 12 < x < 1 , b) 1
2 ;
0 , en caso contrario

 1 , −1 < x < 1 r (t ) − f X (t )
15. a) f X ( x ) =  2 ; 16. a) f X ( x ) = X , b) -a;
0 , en otro caso rX (t )
Introducción al Cálculo de Probabilidades 341

gY ( y ) = y gY ( y ) =
− 12
17. a) − 1, 0 < y < 1 , b) 3
4 ; 18. a) 32
y3
, y > 4,
b) 1
4 ; 19. a) f X ( x ) = 1, 0<x<1; f Y ( y ) = -ln(y), 0<y<1;

20. a) a = 2 , b) f X ( x ) = f Y ( y ) = 1
2 2
,− 2 < x < 2 , − 2 < y < 2
2 2 2
3 x y − xy −3 x + x −3 y + y + 2 2
(3 x −1)( x −1)
21. FX ,Y ( x, y ) = 10 , b) 0.225, c) FX (x) = 5
,

FY ( y ) = (9 y −10y −8 ) , d) f X ( x ) = fY ( y) =
2
6 x−4 9−2 y
5 , 10
;
 t
−1  − 
10

 1− e 5 1 − e t2  , t1 , t 2 > 0
22. a) F (t1 ,t 2 ) =    ; b) 0.69,
  

0 , en otros casos
t1 10
− −
c) f T1 (t1 ) = 1
5 e 5
, f T2 (t 2 ) = 10e t2
; 23. λ2 e − λ (t +t ) , t1 > 0, t 2 > 0 ;
1 2

24. k = 2
ln ( 2 )
; 27. a) 135
1024 , b) 1
2 ; 28. 3
4 ; 29. a) dependientes, b) 1
3 ;
30. a) k = 54 , b) 79
256 , c) 13
16 , d) 7
40 , e) 16
51 ;
x + y2
 , 0 < x <1
31. a) f X / Y ( x / y ) =  1 + y 2 ;
2
0 , en otro caso

b) f X / Y (x / 12 ) =  13

(4x + 1) , 0 < x <1 ; c) 7
18 ;
0 , en otro caso

32. a) 1
3 , b) 5
6 e −1 ; 33. a) f X ( x ) = 1
50 e
− 50
x
, fY ( y) = 1
50 e
1
− 20
(1 − e )1
20
,
1 3 y
− 100
f Y / X =60 ( y / x ) = 100 e e , y > 60
5
b) no, c) ;

0 , en otro caso
34. a) f U ,V (u , v ) = 1 , 0 < u < 1, 0 < v < 1 , b) f U (u ) = 1 , 0 < u <1 ;
0 , en otro caso 0 , en otro caso
35. f Z ( z ) = f X −Y ( z ) = 3z 2 + 3z + 3 / 4 , z > 0 ;

0 , en otro caso

36. f X 1 + X 2 + X 3 + X 4 ( x1 + x 2 + x3 + x 4 ) = f U (u ) =  16 u 3 e − u

, u>0
0 , en otro caso

37. f ( X 1 + X 2 + X 3 + X 4 + X 5 ) / 5 ( x1 , x 2 , x3 , x 4 , x5 ) = f U (u ) =  u 4e −5 u , u>0
3125
24

0 , en otro caso
CAPITULO VII
1. 0.594; 2. 0.594; 3. n = 25, máxima ganancia es S/. 125; 4. Ningún máximo
relativo cuando 0< α <1; máximo relativo en x = 0, cuando α = 1;
342 Hugo Cornejo Villena & Hugo Cornejo Rosell.

5. 2.8e −1.8 − 3.4e −2.4 = 0.1594; −3


6. 4 e = 0.1992;
−2
7. a) 1-3 e = 0.5940,
−4
b) 5 e =0.0916; 8. a) 53 , b) 12 ; 9. a) 0.6, b) 0.7, c) 0.5;
0 ; para x≤p
10. 0.3125; 11. 0.00016; 12. 81
256 ; 13. a) F ( x ) =  ;
X x −p
 q − p ; para p < x < q
b) 0.001725, 0.01369; 14. b) 1- π2 ; 15. 0.0703; 16. a) 0.9850,
b) 0.6331, c) 0.9333, d) 0.1512, e) 0.0405; 17. a) k = -1.72,
b) k = -0.93, c) k = 0.59, d) k = 0.3366; 18. a) 0.4649, b) 0.2204,
c) 0.0228, d) 0.8643; 19. a) 1.775, b) 19.8, c) 18.225, d) -1.65;
20. a) 0.9850, b) 0.0918, c) 0.3371, d) 35.04, e) 23.1 y 36.9;
21. K = 2.1398216; 22. K = 50; 23. µ = 50, σ = 10; 24. 0.8925;
25. a) 0.0548, b) 0.4514, c) 23, d) 189.95 mililitros; 26. σ = 19,230.77;
27. σ = 2.37 y µ = 50.61; 28. 0.00069; 29. 83.14%; 30. a) 0.1212,
b) 0.4090; 31. 0.1841; 32. x = 287.15; 33. 5.35%; 34. 0.2578;
35. µ = 37598.21, σ = 2678.57; 36. a) 0.1171, b) 0.2049; 37. 0.4364;
− 34
41. β = 0.2; 42. a) 1- e , b) e −0.5 ; 43. 0.3679; 44. 0.1353;

45. a) f X ( x ) = 2 e , x ≥ 0; b) 1- e , c) e ;
−2 x − 13 −30
46. a) 13.56, b) 14.45,
c) 13.28; 47. a = 5.226, b = 21.03; 48. a) 0.5296, b) 0.7276, c) 0.3572;
−2
49. 0.9549; 50. a = 67.1625; 51. e = 0.1353; 52. 0.9817; 55. a) 0.975,
b) 0.01, c) 0.977, d) 0.01; 56. a) 8.45, b) 4.35, c) 0.069; 57. a = 0.403,
b = 2.62; 61. a) 0.99, b) 0.025, c) 0.005, d) 0.89, e) 0.968;
62. a) 2.567, b) -1.943, c) 2.228, d) 1.548
CAPITULO VIII
1. 76 ; 2. S/.500; 3. 12 ; 4. 2 lanzamientos; 5. a) 1.2, b) S/. 0.30; 6. 5.60;
7. S/. 3,000; 8. E ( X A ) = 32 , E ( X B ) = 24 , E ( X C ) = 18 ; 9. µ = 1 / 2 , σ 2 = 3 ,
8
x 0 1 2
px ( x) 0.5625 0.375 0.0625
10. S/.1,855; 11. a) ambos iguales a µ , b) 0.9306; 12. E(X)=4, Var(X)=4.1;
13. a) (1 − 4t ) −2 , b) µ = 8 , σ 2 = 32 ; [ ]
14. C X ( t ) = n ln 1 − p(1 − e t ) ;
1 1
15. 118.9; 16. 100 horas; 17. a) , b) , c) 641 , d) 2, e) 1 , f) 2
3 6 6 18 6
18. E ( Y ) = 1 ; 19. µ Y = 10 , σ Y = 144 ; 20. − 162 ; 21. a) 6 ,
2 1 1

1
b) f Y = , si x<y<1, 0 ≤ x ≤ 1; 22. a) 62.5; 3; 195 5 ;
X 1− x 6
b) 260.42; 1 ; 8 1 ; 0.894; 23. a) 68, b) 52; 24. a) 3.2, b) 1.6,
3 3
c) 4.2, d) 0.8, e) 3.2857, f) -0.49, 2.25, g) 0.15, h) no existe;
Introducción al Cálculo de Probabilidades 343

25. 11.67; 30.56; 26. a) 50,


{( ) }
b) f X (x , y ) = exp − 1 [x − 50 − (y − 25) / 2]2 / 150π ,
Y 50
c) f (X / Y = 30 ) = exp[− (1 150 )(x − 52.5)2 ]/ 150π = 0.9251, d) 12 ;
31. a) cuando menos 34 , b) cuando menos 89 ; 32. a) cuanto mucho 94 , b) cuanto
5 21
menos 9 , c) cuando menos 25 , d) 10; 33. 0.9839; 34. a) 75%,
b) [147,000;153162.20] , c) 2.04%; 35. a) 0.174, b) 0.257; 36. 0.96155;
37. 0.9545; 38. 0.1587; 39. 0.0040; 40. 0.9052.
BIBLIOGRAFÍA

1. Ash, Robert. Real Analysis and Probability, 1972, Academic Press,


Inc. United States Of América.
2. Baquero, Godofredo. Métodos de Pesquisa Pedagógica. 1978
Ediçóes Loyola. Brasil
3. Córdova, Manuel. Estadística Inferencial. 1999, Moshera S.R.L.
Perú.
4. Ferris J. Ritchey. Estadística para las Ciencias Sociales. 2002
McGraw-Hill / Interamericana Editores, S.A de C.V. Colombia
5. Kenneth / Hopkins / Glass. Estadística Básica para las ciencias
sociales y del Comportamiento. 1997 Prentice – Hall
Hispanoamericano, S.A. México
6. Leonard J. Kazmier. Estadística Aplicada a la Administración y a la
Economía. 1998, McGraw-Hill / Interamericana Editores, S.A de
C.V. Colombia
7. Llopis, J La estadística: una orquesta hecha instrumento., 1996, Arie,
S.A. España
8. Martínez, Ciro. Estadística, 1992, ECOE Ediciones. Colombia
9. Mason / Lind / Marchal: Estadística para Administración y
Economía. 2003 Alfaomega Grupo Editor, S.A. de C.V Colombia
10. Mitacc, Máximo. Tópicos de Inferencia Estadística. Editorial San
Marcos. Lima
11. Montiel / Rius / Barón) Elementos Básicos de estadística Económica
y Empresaria., 1997, Prentice Hall. España.
12. Morettín, P.A, Bussab, W.O Estadística Básica. 2000, Fundación
Getúlio Vargas, Sao Paulo. Brasil
13. Perez, Luis. Estadística Básica. Editorial San Marcos. Perú
Introducción al Cálculo de Probabilidades 345

14. Ruiz, Alberto. Introducción y métodos de probabilidad, 1973,


Editorial Trillas S. A. México.
15. Tucker, Howard. Introducción a la teoría matemática de las
probabilidades y a la estadística, 1966, Editorial Vicenns-Vives.
España.
HUGO CORNEJO VILLENA
Licenciado en Matemática con mención en
Estadística de la Universidad Nacional de
San Antonio Abad del Cusco, Magister en
Marketing de la Universidad ESAN, Master
en Marketing Science en ESIC (España),
candidato a Doctor en Psicología en la
Universidad Peruana Cayetano Heredia.
Ha sido profesor de Estadística en la
Universidad Agraria La Molina, Universidad
ESAN, Universidad de Piura, Universidad
Peruana Unión, Universidad San Ignacio de
Loyola, entre otras. Ponente en diferentes
eventos de Estadística a nivel nacional e
internacional. Ocupó cargos ejecutivos en
diferentes empresas de investigación de
mercados en Perú y el extranjero.

HUGO CORNEJO ROSELL


Licenciado en Ciencias Físico Matemáticas
de la Universidad Nacional de San Antonio
Abad del Cusco, con estudios de postgrado
en Matemática en la Universidad de Sao
Paulo (Brasil), Magister en Matemática
de la Pontificia Universidad Católica del
Perú, Doctor en Gestión y Ciencias de la
Educación de la Universidad San Pedro de
Chimbote. Ha sido profesor de Matemática
y Estadística en la Universidad Nacional
de San Antonio Abad del Cusco y la
Pontificia Universidad Católica del Perú.
Ponente en diversos eventos académicos
de Matemática y Estadística. Es autor de
diversos libros en su especialidad.
La importancia esencial de la aplicación de los métodos
de cálculo de la probabilidad reside en su capacidad para
estimar o predecir eventos. Cuanto mayor sea la cantidad
de datos disponibles para calcular la probabilidad de un
acontecimiento, más preciso será el resultado calculado.

El libro está divido en ocho capítulos; en el primer capítulo


se aborda el concepto de espacio de probabilidades; en
el segundo, se presentan los principios de enumeración
y los tipos de análisis combinatorio; en el tercero, se
presentan los conceptos probabilidad condicional y
eventos independientes; en el cuarto, se informa sobre
variables aleatorias, distribuciones discretas, funciones
de probabilidad, distribuciones de variables discretas;
en el quinto, se informa sobre tipos especiales de
distribuciones discretas; en el sexto, se abordan sobre
distribuciones continuas de una y varias variables; en el
séptimo, se estudian los principales tipos de distribuciones
continuas y en el último capítulo se muestran conceptos de
esperanza matemática y límites, así mismo se presentan
las diferentes tablas estadísticas y las respuestas a los
ejercicios propuestos.

También podría gustarte