Está en la página 1de 108

SERIE DE PUBLICACION: IIE-L-01-2016

Introduccion a la Teora de
las Probabilidades

Luis Francisco Laurente Blanco


Richard Rene Poma Canazaca

PUNO - PERU
2016
Introduccion a la Teora de las Probabilidades

Autores:
Luis Francisco Laurente Blanco
Richard Rene Poma Canazaca

Editado por:
Luis Francisco Laurente Blanco
e-mail: flaurenteblanco@gmail.com

Hecho el Deposito Legal en la Biblioteca Nacional del Peru N 2016-


07061
ISBN: 978-612-00-2277-1

Impreso:
MayVar Impresores
e-mail: mayvarimpresores@gmail.com

Primera edicion: Junio de 2016

Tiraje: 200 ejemplares


Presentacion

Este libro esta concebido para la iniciacion a la teora de las probabili-


dades para estudiantes de ciencias economicas. Contiene ejemplos, problemas,
soluciones de interes para los estudiantes y expone con claridad la utilidad de
esta teora.
La exposicion y explicacion es pedagogica y organizada ya que utiliza
un desarrollo matematico comprensible para destacar conceptos y definicio-
nes claves para la estadstica. A la conclusion de cada captulo se presenta
una serie de ejercicios propuestas que permitiran al lector poner a prueba su
comprension del tema desarrollado.
En el primer captulo se realiza una exposicion de las operaciones de con-
juntos las mismas que son de repaso para el estudiante y muy necesarias para
continuar con la lectura. Los captulos 2 y 3 presentan el analisis combinatorio
y los axiomas de probabilidad.
Los captulos 4, 5 y 6 son los captulos clave del texto, debido que en
ellos se realiza una presentacion axiomatica de las variables aleatorias y su
desarrollo y ademas se presenta a los teoremas lmite donde se explica la ley
de grandes numeros y las funciones caractersticas de un modo comprensible.
En sntesis, esta obra se constituye en una fuente de consulta actualizada
en teora de las probabilidades y es util para el apoyo a la docencia en el curso
de Econometra como fundamento base en sus definiciones para un desarrollo
mas robusto de la misma.

Dr. Carlos Percy Ramrez Cayro


DECANO
FIE-UNA Puno
Prefacio
Este libro tiene como origen apuntes de clase de un Curso de Teora de
las Probabilidades de la Universidad de Sao Paulo y una adaptacion del libro
de probabilidades del profesor Ronald Meester. Se trata de un texto de teora
de las probabilidades para alumnos de pre-grado de Matematica, Economa,
Estadstica y afines. Este libro fue elaborado en lenguaje LATEX.
La estructura global del curso es la siguiente: en el primer captulo se pre-
senta las definiciones de teora de conjuntos de un modo introductorio y que
sirve para comprender el resto del texto. En el segundo captulo se presenta
la teora de permutaciones y combinaciones, la misma que nos preparara para
una definicion de probabilidades en un espacio muestral. Luego, el captulo tres
presenta la definicion de probabilidades en un espacio muestral utilizando el
algebra de eventos. Luego, los captulos cuatro y cinco presentan la definicion
de variables aleatorias en tiempo discreto y contnuo, en estos captulos que
son sumamente importantes para la comprension de la Econometra Teorica,
se presentan un desarrollo de esperanza matematica, varianza, funciones de
variables aleatorias y demas. Finalmente, el captulo seis trata sobre aproxi-
maciones mediante las teoras de grandes numeros para variables aleatorias y
contnuas.
Este libro se recomienda para un estudio mas analtico y matematico para
el curso de Econometra entendiendose a la teora de las probabilidades como
una base para el desarrollo de esta hermosa rama de la economa.
Finalmente, este libro debe su existencia a varias personas a quienes nos
gustara transmitir los mas profundos agradecimientos.
A los profesores del ICMC de la Universidad de Sao Paulo quienes brinda-
ron los conocimientos y base solida en esta area, al profesor Joao Leite y Rafael
Izbicki, al profesor Roberto Imbuzeiro y Carlos Moreira del glorioso Instituto
de Matematica Pura y Aplicada (IMPA) del Brasil, al profesor y amigo Jaime
Orrillo de la Universidad Catolica de Braslia quien brindo los conocimientos
avanzados en la Economa Matematica y un buen amigo en la calurosa ciudad
de Ro de Janeiro; asimismo, agradecimientos a la Escuela de Matematica de
America Latina y el Caribe por los conocimientos y preparacion brindada.
Finalmente, agradecemos a la Facultad de Ingeniera Economica de la
UNA - Puno en la que tenemos el honor de dictar clases, al Dr. Roberto Arpi
del Instituto de Investigaciones Economicas y al Dr. Carlos Ramrez, decano
de la facultad, por su apoyo y revision final de este libro.
Puno, 16 de mayo de 2016.
Luis F. Laurente Blanco
Richard R. Poma Canazaca
Indice general

1. Operaciones Basicas de Conjuntos 7


1.1. Definiciones Basicas . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Operacion de Conjuntos . . . . . . . . . . . . . . . . . . . . . 10
1.2.1. Complemento . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2. Union e Interseccion . . . . . . . . . . . . . . . . . . . 10
1.2.3. Producto Cartesiano . . . . . . . . . . . . . . . . . . . 12
1.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2. Analisis Combinatorio 14
2.1. Principio Fundamental de Conteo . . . . . . . . . . . . . . . . 14
2.2. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3. Permutaciones Circulares . . . . . . . . . . . . . . . . . . . . . 16
2.4. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5. Permutaciones con Repeticion (i.e. Objetos Indistinguibles) . . 19
2.6. Teorema Multinomial . . . . . . . . . . . . . . . . . . . . . . . 21
2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3. Axiomas de Probabilidad 24
3.1. Espacio Muestral y Eventos . . . . . . . . . . . . . . . . . . . 24
3.2. Algebra de Eventos . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3. Axiomas de Probabilidad . . . . . . . . . . . . . . . . . . . . . 25
3.4. Probabilidad Condicional . . . . . . . . . . . . . . . . . . . . . 28
3.4.1. Regla de Bayes . . . . . . . . . . . . . . . . . . . . . . 29
3.5. Independencia de Eventos . . . . . . . . . . . . . . . . . . . . 31
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

4. Variables y Vectores Aleatorios Discretos 34


4.1. Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2. Independencia de Variables Aleatorias . . . . . . . . . . . . . 40
4.3. Esperanza y Varianza . . . . . . . . . . . . . . . . . . . . . . . 42
4.4. Vectores Aleatorios . . . . . . . . . . . . . . . . . . . . . . . . 49
4.5. Distribucion y Esperanza Condicional . . . . . . . . . . . . . . 53

5
INDICE GENERAL 6

4.6. Funcion Generadora . . . . . . . . . . . . . . . . . . . . . . . 56


4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

5. Variables y Vectores Aleatorios Continuos 59


5.1. Variables Aleatorias Continuas . . . . . . . . . . . . . . . . . . 60
5.2. Esperanza Matematica . . . . . . . . . . . . . . . . . . . . . . 67
5.3. Vectores Aleatorios e Independencia . . . . . . . . . . . . . . . 70
5.4. Funciones de Variables Aleatorias y Vectores . . . . . . . . . . 73
5.5. Suma de Variables Aleatorias . . . . . . . . . . . . . . . . . . 76
5.5.1. Caso Discreto . . . . . . . . . . . . . . . . . . . . . . . 76
5.5.2. Caso Contnuo . . . . . . . . . . . . . . . . . . . . . . 78
5.6. Distribucion y Esperanza Condicional . . . . . . . . . . . . . . 81
5.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

6. Teoremas Lmite 88
6.1. Funciones Caractersticas . . . . . . . . . . . . . . . . . . . . . 88
6.1.1. La transformada de Laplace . . . . . . . . . . . . . . . 95
6.2. Ley de los Grandes Numeros . . . . . . . . . . . . . . . . . . . 100
6.2.1. Ley de los Grandes Numeros para Variables Aleatorias
Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.2.2. Ley de los Grandes Numeros para Variables Aleatorias
Contnuas . . . . . . . . . . . . . . . . . . . . . . . . . 105
Captulo 1

Operaciones Basicas de Conjuntos

La aproximacion axiomatica a la probabilidad es desarrollada usando los


fundamentos de la teora de conjuntos. Si se esta familiarizado con esta nota-
cion, diagramas de Venn y operaciones basicas en conjuntos, (union, intersec-
cion y complemento), entonces tiene un buen inicio para continuar en teora
de conjuntos.
En este libro, asumiremos que el lector esta familiarizado con el siguiente
sistema de numeros:
El conjunto de todos los numeros naturales

N = {1, 2, 3, . . .}.

El conjunto de todos los numeros enteros

Z = {. . . , 3, 2, 1, 0, 1, 2, 3, . . .}.

El conjunto de todos los numeros racionales


a
Q = { ; a, b Z con b 6= 0}.
b
El conjunto R de todos los numeros reales.

1.1. Definiciones Basicas


Definimos un conjunto A como una coleccion de objetos bien definidos
(llamados elementos o miembros de A) tal que para algun objeto dado x
alguno (pero no ambos) de los siguientes ocurre:
x pertenece a A y escribimos x A.
x no pertenece a A y escribimos x
/ A.

7
CAPITULO 1. OPERACIONES BASICAS DE CONJUNTOS 8

Existe dos formas diferentes de representar un conjunto. El primero es


hacer una lista sin repeticiones de los elementos del conjunto. Por ejemplo, si
A es el conjunto solucion de la ecuacion x2 4 = 0 entonces A = {2, 2}. La
otra forma de representar un conjunto es describir una propiedad que caracte-
riza los elementos del conjunto. Esto es conocido como la representacion por
comprension de un conjunto. Por ejemplo, el conjunto A del ejemplo puede
ser escrito como A = {x; x es un entero que satisface x2 4 = 0}.
Definimos el conjunto vaco, denotado por , al conjunto con ningun ele-
mento. Un conjunto el cual no es vaco se denomina conjunto no vaco.
Ejemplo 1.1.1. Liste los elementos de los conjuntos siguientes:
(a) {x; x es un numero real tal que x2 = 1}.
(b) {x; x es un numero entero tal que x2 3 = 0}.
Solucion.
(a) {1, 1}
(b) Debido que las unicas soluciones a la ecuacion son 3 y 3 y ambos son
no enteros, el conjunto solucion es el conjunto vaco.
Ejemplo 1.1.2. Use una propiedad para dar una descripcion a cada uno de
los siguientes conjuntos.
(a) {a, e, i, o, u}.
(b) {1, 3, 5, 7, 9}.
Solucion.
(a) {x; x es una vocal}.
(b) {n N es impar y menor que 10}.
En operaciones aritmeticas que involucran conjuntos podemos considerar
la igualdad de dos conjuntos. Dos conjuntos A y B se dicen que son iguales
s y solamente s ellos tienen los mismos elementos. Escribimos A = B. Para
conjuntos diferentes escribimos A 6= B. En este caso, los dos conjuntos no
contienen los mismos elementos.
Ejemplo 1.1.3. Determine si cada pareja de conjuntos son iguales.
(a) {1, 3, 5} y {5, 3, 1}.
(b) {{1}} y {1, {1}}.
Solucion.
(a) Dado que el orden de los elementos en un conjunto es irrelevante, {1, 3, 5} =
{5, 3, 1}.
(b) Debido que uno de los conjuntos tiene solo un elemento y el otro tiene dos,
{{1}} = 6 {1, {1}}.
En teora de conjuntos el numero de elementos en un conjunto tiene un
nombre especial, es llamado cardinalidad del conjunto. Escribimos n(A) para
CAPITULO 1. OPERACIONES BASICAS DE CONJUNTOS 9

denotar la cardinalidad del conjunto A. Si A tiene una cardinalidad finita


decimos que A es un conjunto finito, en otro caso, es llamado conjunto infinito.
Para conjuntos infinitos, escribimos n(A) = . Por ejemplo, n(N) = .
Pueden dos conjuntos infinitos tener la misma cardinalidad? La respuesta
es s. Si A y B son dos conjuntos (finito e infinito) y all existe una biyeccion de
A en B entonces los dos conjuntos se dicen que tienen la misma cardinalidad,
i.e. n(A) = n(B).
Ejemplo 1.1.4. Cual es la cardinalidad de cada uno de los conjuntos siguien-
tes?
(a) .
(b) {}.
(c) {a, {a}, {a, {a}}}.
Solucion.
(a) n() = 0.
(b) Este es un conjunto que consiste de un solo elemento . De este modo,
n({}) = 1.
(c) n({a, {a}, {a, {a}}}) = 3.
Una nocion correspondiente para conjuntos es el concepto de un subcon-
junto. Sea A y B dos subconjuntos, decimos que A es un subconjunto de B,
denotado por A B, s y solamente s cada elemento de A es tambien un
elemento de B. Si all existe un elemento de A el cual no es un elemento de B
escribimos A * B.
Para algun conjunto A se tiene A A, la que indica que cada conjun-
to tiene al menos dos subconjuntos y que el conjunto vaco es un subconjunto
de cualquier conjunto.
Ejemplo 1.1.5. Suponga que A = {2, 4, 6}, B = {2, 6} y C = {4, 6}. Deter-
mine cual de ellos son subconjuntos de ellos mismos.
Solucion. B A y C A.
Sea A y B dos subconjuntos. Se dice que A es un subconjunto propio
de B, denotado por A B si A B y A 6= B. Para demostrar que A es
un subconjunto propio de B se debe mostrar que cada elemento de A es un
elemento de B y existe un elemento de B que no esta en A.
Ejemplo 1.1.6. Determine cual de los siguientes enunciados es verdadero o
falso.
(a) x {x}
(b) {x} {x}
(c) {x} {x}
(d) {x} {{x}}
CAPITULO 1. OPERACIONES BASICAS DE CONJUNTOS 10

(e) {x}
(f) {x}
Solucion. (a) Verdadero (b) Verdadero (c) Falso debido que {x} es un
conjunto que consiste de un solo elemento x y as {x} no es un miembro de
este conjunto (d) Verdadero (e) Verdadero (f) Falso debido que {x} no tiene
como uno de sus elementos.
Luego, la coleccion de todos los subconjuntos de un conjunto A es de im-
portancia. Denotamos este conjunto por P(A) y llamamos el conjunto potencia
de A.
Ejemplo 1.1.7. Encuentre el conjunto potencia de A = {a, b, c}.
Solucion.
P(A) = {, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, {a, b, c}}.

1.2. Operacion de Conjuntos


En esta seccion introduciremos varias operaciones sobre conjuntos y es-
tudiaremos las propiedades de esas operaciones.

1.2.1. Complemento
Si es un conjunto dado y tiene subconjuntos bajo consideracion, lla-
mamos a el conjunto universal. Sea un conjunto universal y A, B dos
subconjuntos de . El complemento absoluto de A es el conjunto
Ac = {x ; x
/ A}.
Ejemplo 1.2.1. Encuentre el complemento de A = {1, 2, 3} si = {1, 2, 3, 4, 5, 6}.
Solucion. De la definicion, Ac = {4, 5, 6}.
El complemento relativo de A con respecto a B es el conjunto
B A = {x ; x B y x
/ A }.
Ejemplo 1.2.2. Sea A = {1, 2, 3} y B = {{1, 2}, 3}. Encuentre A B.
Solucion. Los elementos de A que no estan en B son 1 y 2.Luego, AB =
{1, 2}.

1.2.2. Union e Interseccion


Dado dos conjuntos A y B . La union de A y B es el conjunto
A B = {x; x A o x B}.
CAPITULO 1. OPERACIONES BASICAS DE CONJUNTOS 11

La definicion puede ser extendida a mas de dos conjuntos. Mas precisamente,


si A1 , A2 , . . ., son conjuntos, entonces

[
An = {x; x Ai para algun i N}.
n=1

La interseccion de A y B es el conjunto

A B = {x; x A y x B}.

Si A B = decimos que A y B son conjuntos disjuntos.


Ejemplo 1.2.3. Sea A y B dos conjuntos no vacos. Escriba A como la union
de dos conjuntos disjuntos.
Solucion. Usando un diagrama de Venn es facil de observar que A B
y A B c son conjuntos disjuntos tal que A = (A B) (A B c ).
Dado los conjuntos A1 , A2 , . . ., definimos

\
An = {x; x Ai para todo i N}.
n=1

Ejemplo
T 1.2.4. Para cada entero positivo n definimos An = {n}. Encuentre
n=1 An .
Solucion. Claramente,
T
n=1 An = .

Note que los diagramas de Venn de A B y A B muestran que A B =


B A y A B = B A. Luego, y satisfacen la ley conmuttativa. Los
siguientes resultados establecen las leyes distributivas de conjuntos.
Teorema 1.2.1. Si A, B y C son subconjuntos de , entonces
1. A (B C) = (A B) (A C)
2. A (B C) = (A B) (A C).
Demostracion. Ejercicio.
El siguiente teorema presenta la relacion entre (A B)c , (A B)c , Ac y
B c.
Teorema 1.2.2. (Leyes de Morgan). Sea A y B subconjuntos de , entonces
1. (A B)c = Ac B c
2. (A B)c = Ac B c .
Demostracion. Ejercicio.
CAPITULO 1. OPERACIONES BASICAS DE CONJUNTOS 12

Las Leyes de Morgan son validas para algun numero contable de conjun-
tos. De este modo !c
[ \
An = Acn
n=1 n=1
y !c

\
[
An = Acn .
n=1 n=1

Ejemplo
T 1.2.5. Encuentre conjuntos A1 , A2 , . . ., que son disjuntos en parejas
y n=1 An = .
Solucion. Para cada entero positivo n, sea An = {n}.
Teorema 1.2.3. (Principio de Inclusion-Exclusion). Suponga que A y B son
conjuntos finitos. Entonces
1. n(A B) = n(A) + n(B) n(A B)
2. Si A B = , entonces n(A B) = n(A) + n(B)
3. Si A B, entonces n(A) n(B).
Demostracion. Ver referencia.

1.2.3. Producto Cartesiano


La notacion (a, b) es conocido como par ordenado de elementos y esta de-
finido por (a, b) = {{a}, {a, b}}.
El producto cartesiano de dos conjuntos A y B es el conjunto

A B = {(a, b); a A, b B}.

Esta idea puede ser extendida para producto de algun numero de conjuntos.
Dado n conjuntos A1 , A2 , . . . , An el producto cartesiano de esos conjuntos es
el conjunto

A1 A2 An = {(a1 , a2 , . . . , an ); a1 A1 , a2 A2 , . . . , an An }.

Ejemplo 1.2.6. Considere el experimento de lanzar una moneda n veces.


Represente el espacio muestral como producto cartesiano.
Solucion. Sea el espacio muestral, entonces = 1 2 n
donde i , 1 i n, es el conjunto que consiste de dos resultados C (cara) y
S (sello).
El siguiente teorema es una herramienta para encontrar la cardinalidad
del producto cartesiano de dos conjuntos finitos.
CAPITULO 1. OPERACIONES BASICAS DE CONJUNTOS 13

Teorema 1.2.4. Dado dos conjuntos finitos A y B. Entonces

n(A B) = n(A) n(B).

Demostracion. Suponga que A = {a1 , a2 , . . . , an } y B = {b1 , b2 , . . . , bm }. En-


tonces,
A B = {(a1 , b1 ), (a1 , b2 ), . . . , (a1 , bm )
(a2 , b1 ), (a2 , b2 ), . . . , (a2 , bm )
..
.
(an , b1 ), (an , b2 ), . . . , (an , bm )}.
De este modo, n(A B) = n m = n(A) n(B).

1.3. Ejercicios
Ejercicio 1.3.1. Sea A y B dos conjuntos. Use el Diagrama de Venn para
mostrar que B = (A B) (Ac B) y A B = A (Ac B).
Ejercicio 1.3.2. Muestre que si A B entonces B = A (Ac B). De este
modo, B puede ser escrito como la union de dos subconjuntos disjuntos.
Ejercicio 1.3.3. En un universo U de 100, sea A y B subconjuntos de U tal
que n(A B) = 70 y n(A B c ) = 90. Determine n(A).
Ejercicio 1.3.4. Muestre que si A, B y C son subconjuntos de un universo
U , entonces

n(ABC) = n(A)+n(B)+n(C)n(AB)n(AC)n(BC)+n(ABC).

Ejercicio 1.3.5. Pruebe. Si A, B y C son subconjuntos de U , entonces


(a) A (B C) = (A B) (A C).
(b) A (B C) = (A B) (A C).
Captulo 2

Analisis Combinatorio

En combinatoria, distinguimos entre conjuntos ordenados y conjuntos no


ordenados. En un conjunto ordenado, el orden juega un rol, mientras que en
un conjunto no ordenado el orden no es importante. De este modo, la lista
de todos los subconjuntos ordenados de tamano dos de {1,2,3} consiste de
(1,2),(2,1),(1,3),(3,1),(2,3) y (3,2) y la lista de subconjuntos no ordenados de
tamano dos consiste de {1,2},{1,3} y {2,3}, donde el conjunto {2,1} es igual
al conjunto {1,2}.
Luego, la teora basica de esta seccion esta contenida en resultados, pos-
teriormente los teoremas, sus demostraciones y ejemplos.

2.1. Principio Fundamental de Conteo


El Principio Fundamental del Conteo sera muy esencial para el desarrollo
de nuestro trabajo, este indica que si un experimento cualquiera tiene m posi-
bles resultados y si otro experimento puede resultar de cualquiera de n posibles
resultados, entonces all son m n posibles resultados de ambos experimentos.
Consideremos el siguiente ejemplo.
Ejemplo 2.1.1. Imagine una lotera que selecciona dos numeros, los numeros
son 1,2 o 3. Luego, los numeros despues de la lotera son (11, 12, 13, 21, 22,
23, 31, 32, 33).
Teorema 2.1.1. (Principio Fundamental de Conteo). Si una eleccion consiste
en k pasos, de la cual el primero puede realizarse en n1 formas, para cada uno
de ellos, el segundo puede realizarse de n2 formas, . . ., y para cada uno de
los k th puede realizarse en nk formas, entonces la eleccion puede realizarse en
n1 n2 nk formas.
Demostracion. Ver referencia.
Ejemplo 2.1.2. Cuantos numeros en el rango 1000 9999 tienen ningun
dgito repetido?

14
CAPITULO 2. ANALISIS COMBINATORIO 15

Solucion. Se elige el primer dgito, luego el segundo, el tercero y finalmen-


te el cuarto dgito. As por el principio fundamental de conteo 9987 = 4, 536
dgitos no se repiten en dicho rango.
Ejemplo 2.1.3. Cuantas diferentes licencias pueden ser formadas con 3 letras
seguido por 3 dgitos?
Solucion. Se procede similar al ejercicio anterior, considerando 26 letras
del alfabeto y 10 dgitos, luego por el Principio Fundamental de Conteo 26
26 26 10 10 10 = 17, 576, 000 licencias diferentes pueden ser formadas.

2.2. Permutaciones
Considere el siguiente ejemplo: De cuantas maneras pueden 8 caballos
finalizar una carrera (asumiendo no existe empates)? Se puede observar este
problema como una decision de 8 pasos. El primer paso es la posibilidad de
un caballo finalice primero la carrera, el segundo paso es la posibilidad de un
caballo finalice segundo, . . . , el 8vo paso es la posibilidad de un caballo finalice
8vo en la carrera. Luego, por el Principio Fundamental de Conteo, all son
8 7 6 5 4 3 2 1 = 40, 320
maneras que finalizan 8 caballos una determinada carrera.
Este ejemplo exibe un ejemplo de arreglo ordenado, la que indica que el
arreglo de los objetos es importante. Tal arreglo ordenado es llamado permu-
tacion.
El producto 8 7 6 5 4 3 2 1 puede ser escrito en una notacion mas
corta llamada factorial, la cual se escribe 8 7 6 5 4 3 2 1 = 8! En general,
se define n factorial por
n! = n(n 1)(n 2) 3 2 1; n 1
donde n es el numero a calcular. Por convencion definimos
0! = 1.
Ahora consideraremos la permutacion de un conjunto de objetos. Suponga
que tenemos n elementos Cuantos arreglos ordenados de k elementos podemos
formar de esos n elementos? El numero de permutaciones es denotado por
P (n, k). El n indica el numero de diferentes elementos y k refiere al numero
de ellos que aparecen en cada arreglo. La expresion para P (n, k) esta dado en
el siguiente teorema.
Teorema 2.2.1. Para algun entero no negativo n y 0 k n se tiene
n!
P (n, k) =
(n k)!
CAPITULO 2. ANALISIS COMBINATORIO 16

Demostracion. Podemos entender la permutacion como una decision con k


pasos. El primero puede ser realizado en n diferentes formas, el segundo en n1
diferentes formas, . . ., el k th en nk +1 diferentes formas. As, por el Principio
Fundamental de Conteo, all son n(n 1) (n k + 1) k permutaciones de
n objetos. Luego, P (n, k) = n(n 1) (n k + 1) = n(n1)(nk+1)(nk)!
(nk)! =
n!
(nk)! .

Ejemplo 2.2.1. Cuantos codigos se pueden formar con 3 letras seguidas por
4 numeros (sin repeticiones)?
Solucion. La decision consiste de dos pasos, el primero es seleccionar
las letras y eso puede ser hecho de P (26, 3) maneras. El segundo paso es
seleccionar los numeros y puede hacerse de P (10, 4) maneras. Luego, por el
Principio Fundamental de Conteo all son P (26, 3) P (10, 4) = 78, 624, 000
codigos diferentes.

2.3. Permutaciones Circulares


Son arreglos ordenados de objetos en un crculo. Considere ordenar n
diferentes objetos en un crculo bajo el supuesto que se respeta un orden,
entonces cada permutacion circular corresponde a n permutaciones lineales
(i.e. objetos ordenados en una fila) que dependen de donde empiezan. Luego,
all son n! permutaciones lineales y n!
n = (n 1)! permutaciones circulares.

Ejemplo 2.3.1. De cuantas maneras puedes ordenar 6 personas en una mesa


circular?
Solucion. All son (6 1)! = 5! = 120 formas de ordenar 6 personas
sobre una mesa circular.

2.4. Combinaciones
En una permutacion el orden del conjunto de objetos o personas es tomada
dentro de la cuenta. No obstante, existe diversos problemas en la cual se desea
conocer el numero de formas en la cual k objetos pueden ser seleccionados
de n objetos distintos en orden arbitrario. Por ejemplo, cuando seleccionamos
2 personas para formar un grupo de un total de 10 personas, el orden de la
seleccion es irrelevante; explicado de otro modo, elegir a la persona 1 y persona
2 para formar un grupo es el mismo que elegir a la persona 2 y persona 1.
En efecto, la combinacion es definida como una seleccion posible de un
cierto numero de objetos tomados de un grupo sin importar el orden. Mas pre-
cisamente, el numero de k elementos (subconjunto) de un conjunto total de n
elementos es llamado el numero de combinaciones de n objetos tomando k a la
CAPITULO 2. ANALISIS COMBINATORIO 17

 
n
vez, esto es denotado por = C(n, k). La expresion para la combinacion
k
se expresa en el siguiente teorema.
 
n
Teorema 2.4.1. Si , para r n, denota el numero de formas en la
k
cual k objetos pueden ser seleccionados de un conjunto de n distintos objetos,
entonces  
n n!
= C(n, k) = .
k (n k)!k!
Demostracion. Ver referencia.
   
n n
Luego, se define = 0 si k < 0 o k > 0. De este modo,
k k
representa el numero de diferentes grupos de tamano k que sera seleccionado
de un conjunto de n objetos cuando el orden de seleccion no es relevante.
Ejemplo 2.4.1. De un grupo de 5 mujeres y 7 hombres, Cuantos diferentes
grupos se puede ordenar tal que esta conformado por 2 mujeres y 3 hombres?
Si 2 hombres son elegidos y rechazan formar el grupo?
Solucion. All son P (5, 2)C(7, 3) = 350 posibles grupos de 2 mujeres
y 3 hombres. Ahora, si suponemos que 2 hombres son elegidos y rechazan
formar parte del grupo, los grupos que no incluyen los 2 hombres son C(7, 3)
C(2, 2)C(5, 1) = 30. Porque all son C(5, 2) = 10 maneras de elegir 2 mujeres,
luego sigue que son 30 10 = 300 posibles grupos.
El siguiente teorema discute alguna de las propiedades de combinaciones.
Teorema 2.4.2. Suponga que n y k son numeros con 0 k n. Entonces,
   
n n
1. = =1
0 n
   
n n
2. = =n
1 n1
   
n n
3. (Propiedad Simetrica). =
k nk
     
n+1 n n
4. (Identidad de Pascal). = + .
k k1 k
Demostracion. Ver referencia.
CAPITULO 2. ANALISIS COMBINATORIO 18

Ejemplo 2.4.2. Un club de ajedrez tiene 6 miembros De cuantas formas,


(a) pueden los 6 miembros ordenarse en una fila para una foto del recuerdo?
(b) pueden elegir un presidente y un secretario?
(c) pueden seleccionar 3 miembros para un torneo regional sin importancia del
orden?
Solucion. (a) P (6, 6) = 6! = 720 diferentes formas, (b) P (6, 2) = 30
formas, (c) C(6, 3) = 20 diferentes formas.
Como una aplicacion de la combinacion se tiene el siguiente teorema la
cual proporciona una expansion de (x + y)n , donde n es un entero no negativo.
Teorema 2.4.3. Sea x e y variables, y sea n algun entero no negativo. En-
tonces n  
n
X n
(x + y) = xk y nk
k
k=0
 
n
donde se llama coeficiente binomial.
k
Demostracion. (Prueba por induccion). Cuando n = 1 la expresion se reduce
a    
1 0 1 1
x+y = xy + x1 y 0 = y + x.
0 1
Asuma la ecuacion para n 1. Ahora,
(x + y)n = (x + y)(x + y)n1
n1  
X n1
= (x + y) xk y n1k
k
k=0
n1   n1  
X n1 k+1 n1k
X n1
= x y + xk y nk .
k k
k=0 k=0
Sea i = k + 1 en la primera suma e i = k en la segunda suma, se tiene

n   n1  
X n1 X n 1
(x + y)n = xi y ni + xi y ni
i1 i
i=1 i=0
n1    
X n 1 n 1
= xn + + xi y ni + y n
i1 i
i=0
ni  
X n
= xn + xi y ni + y n
i
i=1
n  
X n
= xi y ni .
i
i=0
CAPITULO 2. ANALISIS COMBINATORIO 19

Luego, por induccion el teorema esta probado.


Ejemplo 2.4.3. Expanda (x + y)6 usando el teorema binomial.
Solucion. Por el Teorema Binomial y el Triangulo de Pascal se tiene

(x + y)6 = x6 + 6x5 y + 15x4 y 2 + 20x3 y 3 + 15x2 y 4 + 6xy 5 + y 6 .

Ejemplo 2.4.4. Cuantos subconjuntos existen en un conjunto con n elemen-


tos?
Solucion. Dado que son C(n, k) subconjuntos de k elementos con 0
k n, el numero total de subconjuntos de un conjunto de n elementos es
n
X
C(n, k) = (1 + 1)n = 2n .
k=0

2.5. Permutaciones con Repeticion (i.e. Objetos Indis-


tinguibles)
En esta seccion veremos como calcular problemas de permutaciones donde
cada elemento puede ser usado una vez a lo mas. En la siguiente discusion
veremos que es lo que ocurre cuando los elementos son usados repetidamente.
Como un ejemplo, considere lo siguiente: Cuantos arreglos diferentes pueden
ser formados usando las letras en ECONOMETRICO? Note que las letras
de ECONOMETRICO no son todos distinguibles dado que contienen letras
repetidas tales como E y O. De este modo, intercambiar la primera y la septima
letra da un resultado indistinguible a no realizar dicho cambio. El numero de
diferentes arreglos de las letras en ECONOMETRICO pueden ser encontrados
aplicando el siguiente teorema.
Teorema 2.5.1. Dado n objetos donde n1 son objetos indistinguibles de tipo
1, n2 objetos indistinguibles de tipo 2, . . ., nk objetos indistinguibles de tipo k
donde n1 +n2 + +nk = n. Entonces el numero de permutaciones distinguibles
de n objetos esta dado por
n!
.
n1 !n2 ! nk !
Demostracion. Ver referencia.
Ejemplo 2.5.1. De cuantas maneras se puede ordenar 2 bolas rojas, 3 bolas
verdes y 5 bolas azules en una fila?
Solucion. All son (2+3+5)!
2!3!5! = 2, 520 diferentes maneras.
CAPITULO 2. ANALISIS COMBINATORIO 20

Consideremos el siguiente ejemplo: De cuantas formas puede ser dis-


tribuido n distintos objetos dentro de k diferentes cajas tal que se encuen-
tren n1 objetos en la caja 1, n2 en la caja 2, . . . , nk en la caja k? donde
n1 + n2 + + nk = n. La respuesta a esta pregunta se proporciona en el
teorema siguiente.
Teorema 2.5.2. El numero de formas de distribuir n distintos objetos dentro
de k cajas distinguibles donde ni objetos se ubica dentro de la caja i, 1 i k
es
n!
.
n1 !n2 ! nk !
Demostracion. Ver referencia.
Ejemplo 2.5.2. De cuantas maneras pueden ser asignados 10 policas en 3
diferentes tareas: transito, donde se necesita de 5 policas; rondas, 2 policas y
oficina, 3 policas?
10!
Solucion. All son 5!2!3! = 2, 520 diferentes maneras.
Consideremos el siguiente problema: De cuantas maneras se puede or-
denar 4 bolas identicas dentro de 2 cajas? Imagine que los 4 identicos items
son estrellas { }. Luego, si dibujamos una barra vertical entre las 4 estre-
llas, esto puede representar una unica asignacion de las bolas y las cajas, por
ejemplo
Caja 1 Caja 2
| 0 4
| 1 3
| 2 2
| 3 1
| 4 0
Dado que existe una correspondencia entre estrella/barra y asignaciones
de bolas y cajas, podemos contar las estrellas/barra y adquirir una respuesta
al problema planteado. As la pregunta de encontrar el numero de formas de
poner 4 identicas bolas dentro de 2 cajas es la misma que el numero de formas
de ordenar
  4 identicas
  estrellas y 1 barra vertical, la misma que se representa
5 5
por = = 5, donde se obtiene reemplazando n = 4 y k = 2 en el
4 1
siguiente teorema.
Teorema 2.5.3. El numero de formas de distribuir n objetos identicos (i.e.
indistinguible) dentro de k cajas es
   
n+k1 n+k1
=
k1 n
CAPITULO 2. ANALISIS COMBINATORIO 21

Demostracion. Ver referencia.


Ejemplo 2.5.3. Cuantas soluciones enteras existe en x1 + x2 + x3 = 11?
Solucion. La manera mas natural de pensar en la solucion es de ordenar
11 objetos dentro de 3 cajas donde estas son indistinguibles. Sea xi el numero
de objetos en la caja i donde i = 1, 2, 3. Entonces, el numero de soluciones a
la ecuacion dada es  
11 + 3 1
= 78.
11
Ejemplo 2.5.4. Cuantas soluciones enteras existen para la ecuacion

n1 + n2 + n3 + n4 = 21

donde n1 2, n2 3, n3 4 y n4 5?
Solucion. Reescribiendo la ecuacion como

(n1 2) + (n2 3) + (n3 4) + (n4 5) = 7

o
m1 + m2 + m3 + m4 = 7
donde los mi son no negativos. Luego, el numero de soluciones es C(7 + 4
1, 7) = 120.

2.6. Teorema Multinomial


Finalizamos esta seccion extendiendo el teorema binomial al teorema mul-
tinomial cuando la expresion original tiene mas que dos variables.
Teorema 2.6.1. Para algunas variables x1 , x2 , . . . , xr y algun entero no ne-
gatvo n se tiene
X n!
n
(x1 + x2 + + xr ) = xn1 1 xn2 2 xnr r .
n1 ,n2 ,...,nr n1 !n2 ! nr !
n1 +n2 ++nr =n

Demostracion. Ver referencia.


Ejemplo 2.6.1. Cuantas palabras de 6 letras pueden ser formadas con 3 As,
2 Bs y 1 C?
Solucion. All son
 
6 6!
= = 60.
3, 2, 1 3!2!1!
CAPITULO 2. ANALISIS COMBINATORIO 22

Ejemplo 2.6.2. Cual es el coeficiente de x3 y 6 z 12 en la expansion de (x +


2y 2 + 4z 3 )10 ?
Solucion. Si expandimos usando el teorema trinomial, obtenemos
 
X 10
(x + 2y 2 + 4z 3 )10 = xn1 (2y 2 )n2 (4z 3 )n3 ,
n1 ,n2 ,n3
n1 , n2 , n3
n1 +n2 +n3 =10

donde la suma es tomada sobre la terna de numeros n1 , n2 , n3 tal que ni 0


y n1 + n2 + n3 = 10. Si deseamos encontrar el termino que contiene x3 y 6 z 12 ,
seleccionamos n1 = 3, n2 = 3 y n3 = 4, as
 
10 10! 3 4 3 6 12
x3 (2y 2 )3 (4z 3 )4 = 24xy z .
3, 3, 4 3!3!4!
10! 3 4
El coeficiente de este termino es 3!3!4! 2 4 .

2.7. Ejercicios
Ejercicio 2.7.1. Una agencia de viaje ofrece paquetes en oferta a 12 ciudades
por aire, tren y bus De cuantas maneras se puede seleccionar un viaje?
9!
Ejercicio 2.7.2. Encuentre m y n tal que P (m, n) = 6! .
Ejercicio 2.7.3. De cuantas maneras se puede formar un codigo de 4 letras
usando las 27 letras del alfabeto
(a) si es permitido las repeticiones?
(b) si no es permitido las repeticiones?
Ejercicio 2.7.4. Un determinado club esta conformado por cinco miembros
De cuantas maneras pueden ser seleccionado un grupo conformado por un
presidente, secretario y tesorero?
Ejercicio 2.7.5. Cuatro profesores y cuatro estudiantes estan sentados en
una mesa circular. Encuentre el numero de formas que pueden sentarse de tal
modo que los profesores y alumnos esten alternados.
Ejercicio 2.7.6. Cuantas arreglos de la palabra MATEMATICAS es posible
encontrar?
Ejercicio 2.7.7. Suponga que un club formado por 20 miembros planea for-
mar 3 distintos comites con 6, 5 y 4 miembros, respectivamente De cuantas
maneras es posible realizarlo?
Ejercicio 2.7.8. Cuantas soluciones tiene la ecuacion x1 + x2 + x3 = 5 tal
que x1 , x2 , x3 son enteros no negativos?
CAPITULO 2. ANALISIS COMBINATORIO 23

Ejercicio 2.7.9. (a) Cuantos terminos distintos tiene la expansion (x + y +


z)6 ?
(b) Cual es el coeficiente de xy 2 z 3 ?
(c) Cual es la suma de los coeficientes de todos los terminos?
Captulo 3

Axiomas de Probabilidad

3.1. Espacio Muestral y Eventos


Esta seccion introduce los conceptos que seran usados en la construccion
de la teora matematica de la probabilidad. Lo primero que se necesita conocer
es el conjunto , llamado el espacio muestral, la que representa la coleccion de
posibles resultados de un experimento aleatorio. Por ejemplo, si una moneda
es lanzada una vez el espacio muestral se representa por = {C, S}, donde C
corresponde a la cara de la moneda y S a sello. Si la moneda es lanzada dos
veces, el espacio muestral es = {CC, CS, SC, SS}; en este caso un resul-
tado del experimento corresponde a dos lanzamientos de la moneda. De este
modo en general, cada resultado de algun experimento produce un resultado
correspondiente a exactamente uno de los puntos de , este es simplemente
un conjunto de puntos.
Se introducira el concepto de evento. Un evento se definde como un sub-
conjutno del espacio muestral, lo que es una coleccion de puntos del espacio
muestral. Los evento seran denotados por las letras en mayuscula del alfabeto,
tales como A, B, C, . . . Un evento pujede ser caracterizado por describir las
condiciones bajo la cual el evento ocurre. Por ejemplo, en el experimento de
lanzar varias veces una moneda, podemos escribir:
A = {el numero de caras es menor o igual que 1}.
Esta expresion indica que el evento A es el conjunto que consiste de aquellos
resultados que satisfacen la condicion que el numero de caras es menor o igual
a 1, en tal caso, el evento A consiste de los puntos CS, SC y CC y se escribe
A = {CS, SC, CC}.
Luego, cada punto que pertenece a un evento A se dice favorable a A,
con esto, el espacio muestral se dice que es un evento certero ya que ocurre
en algun resultado del experimento. Por otro lado, el evento que consiste en
ninguno de los puntos del espacio muestral se denomina el conjunto vaco ,
es llamado el evento imposible.

24
CAPITULO 3. AXIOMAS DE PROBABILIDAD 25

3.2. Algebra de Eventos


Antes de designar las probabilidades a cada evento, introducimos algunas
operaciones por la cual nuevos eventos son formados de algunos ya dados.
De este modo, definimos la union de A y B (denotado por A B) como
el conjunto que consiste de los puntos que pertenecen a A o B o ambos.
Definimos la interseccion de A y B, escribiendo A B, como el conjunto de
puntos que pertenecen a ambos A y B. Finalmente, definimos el complemento
de A, escribiendo Ac como el conjunto de puntos que no pertenecen a A.
Ejemplo 3.2.1. Considere el experimento de lanzar un dado. Luego, sea
N el conjunto de resultados que toma el espacio muestral con seis puntos
que corresponden a N = 1, 2, 3, 4, 5, 6. Sean los eventos A = {N es par} y
B = {N 3}. Entonces, A B = {N es par o N 3} = {2, 3, 4, 5, 6},
A B = {N es par y N 3} = {4, 5, 6}, Ac = {N no es par} = {1, 3, 5}
y B c = {N no es 3} = {1, 2}.
Se define la union de n eventos A1 , A2 , . . . , An (A1 A2 An ) como
el conjunto que consiste de los puntos que pertenecen al menos a alguno de
los eventos A1 , A2 , . . . , An . Similarmente, definimos la union de una infinita
secuencia de eventos A1 , A2 , . . . como el conjunto de los puntos que pertenecen
al menos uno de los eventos A1 , A2 , . . .
Definimos la interseccion de n eventos A1 , A2 , . . . , An (A1 A2 An )
como el conjunto que consiste de los puntos que pertenecen a todos los even-
tos A1 , A2 , . . . , An . Similarmente, definimos la interseccion de una secuencia
infinita de eventos A1 , A2 , . . . como el conjunto de los puntos que pertenecen
a todos los eventos A1 , A2 , . . .
Dos eventos en un espacio muestral se dicen mutuamente excluyentes o
disjuntos si A y B no tienen puntos en comun, o que es imposible que ambos A
y B ocurran durante el mismo resultado de algun experimento. En smbolos,
A y B son mutuamente excluyentes si A B = . En general, los eventos
A1 , A2 , . . . , An se dicen mutuamente excluyentes si ninguno de cada dos eventos
tienen puntos en comun. Simbolicamente, esta condicion puede ser escrito
como Ai Aj = para i 6= j.
Similarmente, infinitos eventos A1 , A2 , . . . se dicen mutuamente excluyen-
tes si Ai Aj = para i 6= j. Luego, el algebra de eventos es similar al algebra
de numeros reales de conjuntos vistos en el captulo primero del texto.

3.3. Axiomas de Probabilidad


Una manera para definir la probabilidad de un evento es en terminos de
su frecuencia relativa. De este modo una definicion usual es: supongamos que
CAPITULO 3. AXIOMAS DE PROBABILIDAD 26

un experimento, en un espacio muestral , es repetido bajo exactamente las


mismas condiciones. Para cada evento A del espacio muestral , definimos
n(A) al numero de veces en los primeros n repeticiones del experimento donde
el evento A ocurre. Entonces P (A), la probabilidad del evento A, es definido
como
n(A)
P (A) = lm ,
n n
de este modo, P (A) esta definido como la proporcion de veces que el evento
A ocurre.
En particular asumiremos que para cada evento A del espacio muestral
, existe un valor P (A) referido a la probabilidad de A. Luego, asumiremos
que todas esas probabilidades satisfacen un cierto conjunto de axiomas.
Consideremos un experimento en un espacio muestral , para cada evento
A del espacio muestral , asumiremos que un numero P (A) esta definido y
satisface los siguientes tres axiomas:
Axioma 1
0 P (A) 1
Axioma 2
P () = 1
Axioma 3
Para alguna secuencia de eventos mutuamente excluyentes A1 , A2 , . . . (las
cuales son eventos donde Ai Aj = cuando i 6= j),

!
[ X
P Ai = P (Ai ).
i=1 i=1

Referimos a P (A) como la probabilidad del evento A.


Ejemplo 3.3.1. Un dado es lanzado y suponiendo que los 6 lados son igual-
mente probables, entonces P ({1}) = P ({2}) = P ({3}) = P ({4}) = P ({5}) =
P ({6}) = 61 . Luego, del Axioma 3, sigue que la probabilidad de obtener un
numero par es igual a
1
P ({2, 4, 6}) = P ({2}) + P ({4} + P ({6}) = .
2
Luego, presentamos los siguientes resultados relacionados a probabilida-
des.
Teorema 3.3.1. Para eventos A y B se tiene
1. P (Ac ) = 1 P (A)
2. Si A B, entonces P (A) P (B)
CAPITULO 3. AXIOMAS DE PROBABILIDAD 27

3. P (A B) = P (A) + P (B) P (A B)
Demostracion. Ver referencia.
Ejemplo 3.3.2. Luis leera dos libros durante sus vacaciones de fin de ano.
Con probabilidad 0.5, el gusta de la lectura del primer libro; con probabilidad
0.4, el gusta del segundo libro y con probabilidad de 0.3 el gusta de ambos
libros. Cual es la probabilidad que Luis no guste de ninguno de los libros?
Solucion. Sea Ai el evento que Luis gusta del libro i para i = 1, 2. Luego,
la probabilidad que Luis guste al menos uno de los libros es:

P (A1 A2 ) = P (A1 ) + P (A2 ) P (A1 A2 ) = 0.5 + 0.4 0.3 = 0.6.

Luego, el evento que Luis no gusta de ninguno de los libros es el complemen-


to del evento que el gusta de al menos uno de ellos, entonces obtenemos el
resultado

P (Ac1 Ac2 ) = P ((A1 A2 )c ) = 1 P (A1 A2 ) = 0.4.

Es posible tambien calcular la probabilidad que alguno de los tres eventos


A1 , A2 y A3 ocurra, reescribiendo

P (A1 A2 A3 ) = P ((A1 A2 ) A3 ),

luego por el Teorema 3.2.1 se tiene

P (A1 A2 A3 ) = P ((A1 A2 )A3 ) = P (A1 A2 )+P (A3 )P ((A1 A2 )A3 ).

Ahora, si seguimos de la ley distributiva que los eventos (A1 A2 ) A3 =


(A1 A3 ) (A2 A3 ) son equivalentes, del resultado anterior se obtiene

P (A1 A2 A3 ) = P (A1 ) + P (A2 ) + P (A3 ) P (A1 A2 ) P (A1 A3 )


P (A2 A3 ) + P (A1 A2 A3 ).

Luego, el siguiente Lema, conocido como la identidad inclusion-exclusion


puede ser probada por induccion matematica.
Lema 3.3.1. Para eventos A1 , A2 , . . . , An se cumple
n
! n
[ X X X
P Ai = P (Ai ) P (Ai Aj ) + P (Ai Aj Ak )
i=1 i=1 i<j i<j<k
+ (1)n+1 P (A1 A2 An ).

Demostracion. Ver referencia.


CAPITULO 3. AXIOMAS DE PROBABILIDAD 28

3.4. Probabilidad Condicional


En esta seccion conoceremos la probabilidad de ocurrencia del evento A
condicionado al conocimiento de la ocurrencia de algun otro evento B, osea
la ocurrencia de un evento B causa la probabilidad de ocurrencia de algun
otro evento A. Para ilustrar esta idea, suponga que lanzamos dos dados; uno
rojo y uno verde. Entonces, la probabilidad de obtener dos unos es 1/36, no
obstante, si posterior a lanzar los dados tienes conocimiento que el dado verde
muestra uno (pero no conoces nada respecto del dado rojo), entonces all es
un 1/6 de que ambos seran uno, en otras palabras, la probabilidad de obtener
dos unos cambia si se tiene informacion parcial y se refiere a esta probabilidad
como probabilidad condicional.
Si la ocurrencia del evento A depende de la ocurrencia de B entonces la
probabilidad condicional sera denotado por P (A|B) y se lee como la probabi-
lidad de A dado B. Luego, se expresa esta idea en la siguiente definicion.
Definicion 3.4.1. Suponga que A y B son eventos en un espacio muestral
y P (B) > 0. La probabilidad condicional de A dado B se escribe como P (A|B)
y esta definido como
P (A B)
P (A|B) = .
P (B)
Ejemplo 3.4.1. Sea el A el evento que denota los estudiantes son mujeres y B
denota el estudiante es peruano. En una clase de 100 estudiantes suponga que
60 son peruanos y suponga que 10 de los peruanos son mujeres. Se selecciona
un estudiante peruano y se desea saber la probabilidad que este sea mujer.
Solucion. Dado que 10 de 100 estudiantes son mujeres y peruanos, en-
10
tonces P (A B) = 100 = 0.1. Tambien 60 de los 100 estudiantes son peruanos,
as P (B) = 100 = 0.6. Luego, P (A|B) = 0.1
60 1
0.6 = 6 .

De la definicion de probabilidad condicional


P (A B)
P (A|B) =
P (B)
es posible escribir

P (A B) = P (A|B)P (B) = P (B|A)P (A).

Esta expresion puede ser generalizada para un numero finito de eventos.


Teorema 3.4.1. Considere n eventos A1 , A2 , . . . , An . Entonces

P (A1 A2 An ) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) P (An |A1 A2 An1 )


CAPITULO 3. AXIOMAS DE PROBABILIDAD 29

Demostracion. Ver referencia.


Ejemplo 3.4.2. Suponga que 5 cartas son seleccionadas de una baraja de
52 cartas. Calcule la probabilidad de que todas las cartas sean de la misma
familia osea un flush.
Solucion. Se desea encontrar

P (un flush) = P (5 espadas) + P (5 corazones) + P (5 diamantes) + P (5 clubs).

Luego la probabilidad de seleccionar 5 espadas es

P (5 espadas) = P (1ra carta es espada)P (2da carta es espada|1ra carta es espada)


P (5ta carta es espada|1ra , 2da , 3ra , 4ta carta es espada)
13 12 11 10 9
= .
52 51 50 49 48
Luego, debido que el calculo anterior es similar para cualquiera de las familias,
se tiene
13 12 11 10 9
P (un flush) = 4 .
52 51 50 49 48

3.4.1. Regla de Bayes


Es frecuente encontrar el caso de conocer la probabilidad de ciertos even-
tos condicionados a otros, pero si deseamos conocer este hecho al reves, en
otras palabras, dado P (A|B) deseamos encontrar P (B|A).
La Regla de Bayes es una simple expresion matematica usada para cal-
cular P (B|A) dado P (A|B). Derivaremos esta formula como sigue. Sea A y B
dos eventos. Entonces

A = A (B B c ) = (A B) (A B c ).

Dado que los eventos A B y A B c son mutuamente excluyentes, podemos


escribir

P (A) = P (A B) + P (A B c ) = P (A|B)P (B) + P (A|B c )P (B c ).

Finalmente, bajo la nocion de este resultado podemos definir la Regla de


Bayes pero antes enunciando la siguiente definicion de particion y la generali-
zacion del resultado anterior.
Definicion 3.4.2. A la coleccion contable de eventos B1 , B2 , . . . se denomina
particion de si B1 , B2 , . . . son disjuntos en parejas y satisface
[
Bi = .
i
CAPITULO 3. AXIOMAS DE PROBABILIDAD 30

Teorema 3.4.2. Sea B1 , B2 , . . . una particion de tal que P (Bi ) > 0 para
todo i, y sea A algun evento. Entonces
X
P (A) = P (A|Bi )P (Bi ).
i

Demostracion. Escribiendo A como una union disjunta,

A = (A B1 ) (A B2 ) . . .

Luego, por los axiomas de medida de probabilidad se tiene


X X
P (A) = P (A Bi ) = P (A|Bi )P (Bi ).
i i

Este resultado es conocido como Regla de Probabilidad Total.


Teorema 3.4.3. (Regla de Bayes). Sea B1 , B2 , . . . , Bn una particion de tal
que P (Bi ) > 0 para todo i, y sea A algun evento con P (A) > 0. Entonces para
todo i,
P (A|Bi )P (Bi )
P (Bi |A) = Pn .
j=1 P (A|Bj )P (Bj )

Demostracion. Ver referencia.


Ejemplo 3.4.3. Una fabrica realiza su produccion con tres maquinas. Las
maquinas I, II y III producen 50 %, 30 % y 20 % de la produccion, pero 4 %,
2 % y 4 % de su produccion son defectuosas, respectivamente.
(a) Cual es la probabilidad de un producto seleccionado aleatoriamente sea
defectuoso?
(b) Si un producto seleccionado aleatoriamente fuese defectuoso Cual es la
probabilidad que este producto haya sido producido por la maquina I?
Solucion. (a) Sea I, II y III los eventos que describe a los productos
seleccionados son producidos por la maquina I, II y III respectivamente. Sea
D el evento que la seleccion de un producto sea defectuosa. Entonces, P (I) =
0.5, P (II) = 0.3, P (III) = 0.2, P (D|I) = 0.04, P (D|II) = 0.02, P (D|III) =
0.04. Luego, por la Regla de Probabilidad Total se tiene

P (D) = P (D|I)P (I) + P (D|II)P (II) + P (D|III)P (III) = 0,034.

(b) Por la Regla de Bayes se tiene


P (D|I)P (I)
P (I|D) = = 0.59.
P (D)
CAPITULO 3. AXIOMAS DE PROBABILIDAD 31

3.5. Independencia de Eventos


Intuitivamente, decimos que si la ocurrencia de un cierto evento B no
influye en la probabilidad de ocurrencia de un evento A, entonces decimos que
los dos eventos son independientes. Por ejemplo, en el experimento de lanzar
dos veces una moneda, el primer lanzamiento no tiene efectos sobre el segundo
lanzamiento.
En terminos de probabilidad condicional, note que si P (B) > 0, dos
eventos A y B son independientes si y solo si

P (A|B) = P (A).

Introduciremos los siguientes resultados para independencia.


Definicion 3.5.1. Dos eventos A y B se dicen (mutuamente) independientes
cuando
P (A B) = P (A)P (B).
Mas generalmente, los eventos A1 , A2 , . . . , An son independientes si

\ Y
P Aj = P (Aj ),
jJ jJ

para todo el conjunto de ndices J {1, 2, . . . , n}.


2
Ejemplo 3.5.1. Sea A y B dos eventos independientes tal que P (B|AB) = 3
y P (A|B) = 21 . Determine P (B).
Solucion. Primero note que
1 P (A B) P (A)P (B)
= P (A|B) = = = P (A).
2 P (B) P (B)
Luego,
P (B) P (B) P (B)
P (B|AB) = = = .
P (A B) P (A) + P (B) P (A B) P (A) + P (B) P (A)P (B)
Finalmente, resolviendo la ecuacion para P (B) se tiene que P (B) = 12 .
El siguiente ejemplo muestra porque T en ladefinicion de independencia
Q
para mas de dos eventos se requiere P jJ Aj = jJ P (Aj ) para todo el
conjunto de ndices J y no solo para tal conjunto de tamano dos.
Ejemplo 3.5.2. Considere el espacio muestral

= {123, 132, 111, 213, 231, 222, 312, 321, 333},


CAPITULO 3. AXIOMAS DE PROBABILIDAD 32

y definimos una probabilidad asignando una probabilidad de 1/9 para cada


resultado. Definimos el evento Ak como el evento donde el k-esimo dgito es 1,
para k = 1, 2 o 3. Es facil ver que P (Ak ) = 1/3 y P (A1 A2 ) = P (A3 A2 ) =
P (A1 A3 ) = 1/9. De este modo, A1 y A2 son independientes y lo mismo
es verdad para las otras partes. No obstante, P (A1 A2 A3 ) = 1/9 y no es
igual a P (A1 )P (A2 )P (A3 ). Esto significa que la coleccion de eventos A1 , A2 , A3
no son independientes. Luego, dado que cada par Ai , Aj son independientes,
llamamos a la familia de eventos independientes en parejas.
Este ejemplo muestra que una familia puede ser independientes en pareja
sin ser independientes.
En particular, para tres eventos se tiene el siguiente resultado.
Teorema 3.5.1. Tres eventos A1 , A2 y A3 se dicen independientes si
1. P (A1 A2 ) = P (A1 )P (A2 )
2. P (A1 A3 ) = P (A1 )P (A3 )
3. P (A2 A3 ) = P (A2 )P (A3 )
4. P (A1 A2 A3 ) = P (A1 )P (A2 )P (A3 )
Ejemplo 3.5.3. Sea = {1 , 2 , 3 , 4 } con probabilidades P ({1 }) = P ({2 }) =
P ({3 }) = P ({4 }) = 1/4. Sean los eventos A1 = {1 , 2 }, A2 = {1 , 3 } y
A3 = {1 , 4 }. Luego,

P (A1 A2 ) = P ({1 }) = 1/4 = P (A1 )P (A2 )


P (A1 A3 ) = P ({1 }) = 1/4 = P (A1 )P (A3 )
P (A2 A3 ) = P ({1 }) = 1/4 = P (A2 )P (A3 )
P (A1 A2 A3 ) = P ({1 }) = 1/4 6= P (A1 )P (A2 )P (A3 ).

Por lo tanto, los eventos A1 , A2 y A3 no son independientes.


El siguiente teorema muestra algunos resultados de independencia, las
cuales son demostrables utilizando las Leyes de Morgan.
Teorema 3.5.2. Si A y B son independientes, entonces
1. Ac y B son independientes
2. A y B c son independientes
3. Ac y B c son independientes
Demostracion. Ejercicio.
CAPITULO 3. AXIOMAS DE PROBABILIDAD 33

3.6. Ejercicios
Ejercicio 3.6.1. Considere el experimento aleatorio de lanzar un dado.
(a) Encuentre el espacio muestral de este experimento.
(b) Encuentre el evento de lanzar el dado un numero impar.
Ejercicio 3.6.2. Una moneda es lanzada repetidamente Cual es la probabi-
lidad que el segunda cara aparezca en el quinto lanzamiento?
Ejercicio 3.6.3. Si las probabilidades son 0.20, 0.15 y 0.03 que un estudiante
obtenga una nota aprobatoria en los cursos de estadstica, ingles y ambas
Cual es la probabilidad que el estudiante obtenga una nota aprobatoria en al
menos uno de esos cursos?
Ejercicio 3.6.4. Muestre que para algunos eventos A y B, P (AB) P (A)+
P (B) 1.
Ejercicio 3.6.5. Si los eventos A y B pertenecen al mismo espacio muestral
y si P (A) = 0.8 y P (B) = 0.9 Puede los eventos A y B ser mutuamente
excluyentes?
Ejercicio 3.6.6. Si P (A B) = 0.7 y P (A B c ) = 0.9. Determine P (A).
Ejercicio 3.6.7. Una encuesta indica que 60 % de la poblacion prefiere un
automovil, 30 % prefieren una casa y 20 % prefieren una utomovil y una casa.
Calcule la probabilidad que una persona elegida aleatoriamente prefiera un
automovil o una casa mas no ambos.
Captulo 4

Variables y Vectores Aleatorios


Discretos

4.1. Variables Aleatorias


Suponga que lanzamos una moneda n veces, siempre que salga cara ga-
namos S/. 1 y perdemos -S/. 1 cuando salga sello. El espacio muestral co-
rrespondiente sera {1, +1}n el conjunto de secuencias de 1, +1 de longitud
n (o n lanzamientos). As para n = 2 (2 lanzamientos) el espacio muestral
sera {1, 1, 1, 1} lo cual indica que en 2 lanzamientos podemos perder -
S/. 2 (si sale sello) o ganar S/. 2 (si sale cara). De este modo escribimos
= {1 , 1 , . . . , n }, donde wi = 1 si el i-esimo lanzamiento resulta cara y
wi = 0 si el i-esimo lanzamiento resulta sello, de este modo, despues de n
lanzamientos nuestro beneficio estara representado por:
n
X
S() = i
i=1

De este modo, el beneficio es una funcion S : R. Dicho de otro modo,


al resultado de lanzar una moneda n veces corresponde un numero real S()
que, en nuestro ejemplo, significa el beneficio que resulta si la moneda sale
cara o sello (S/. 1 o -S/. 1).

{1, +1}n 7 S()

donde S() representa la variable aleatoria.


Definicion 4.1.1. Una variable aleatoria X es una funcion del espacio mues-
tral sobre R. Reescribiendo

X:R

Frecuentemente las variables aleatorias se denotan con las ultimas letras


del alfabeto, X, Y y Z. Se esta interesado en la probabilidad que una variable

34
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 35

aleatoria tome ciertos valores:


P ({ : X() = x})
para todo x. Escribiremos {X = x} para { : X() = x} y P (X = x) para
denotar la P ({ : X() = x}).
Definicion 4.1.2. La funcion de probabilidad de una variable aleatoria X es
la funcion pX : R [0, 1] dado por
pX (x) = P (X = x)
Ejemplo 4.1.1. Se lanza un dado equilibrado, la probabilidad de obtener
cualquier elemento del espacio muestral = {1, 2, 3, 4, 5, 6} es 1/6. De este
modo, siendo x (x = 1, 2, 3, 4, 5, 6), la probabilidad de obtener un x = 6
es P (X = 6) = 1/6 y por ende la funcion de probabilidad (que representa la
probabilidad que X tome un cierto valor x) sera pX (6) = 1/6.
Definicion 4.1.3. La funcion de distribucion de una variable aleatoria X es
la funcion FX : R [0, 1] dado por:
FX (x) = P (X x)
Ejemplo 4.1.2. Considere una variable aleatoria X con P (X = 1) = 1/2,
P (X = 2) = 1/4 y P (X = 3) = 1/4. La funcion de distribucion de X
esta dado por:

0 si x<1
1/2 si 1 x < 2

FX (x) =

3/4 si 2 x < 3
1 si x3

Ejemplo 4.1.3. (Distribucion Binomial ). Una variable aleatoria X se dice


que tiene una distribucion binomial con parametro n N y p [0, 1] si:
 
n
P (X = k) = pk (1 p)nk
k
para k = 0, 1, 2, . . . , n.
Sea X representa el numero de caras en n lanzamientos de una moneda,
donde cada lanzamiento tiene una probabilidad p.
Suponga que lanzamos una moneda tres veces consecutivas (n = 3), la proba-
bilidad de obtener: ninguna cara, dos caras y tres caras (k = 0, 1, 2, 3) es:
 
3
P (X = 0) = p0 (1 p)30
0
3!
= (0.5)0 (1 0.5)3
(3 0)!0!
= 0.125
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 36

 
3
P (X = 1) = (0.5)1 (1 0.5)2
1
3!
= (0.5)(0.5)2
(3 1)!1!
= 0.375

3
P (X = 2) = (0.5)2 (1 0.5)
2
= 0.375

3
P (X = 3) = (0.5)3 (1 0.5)0
3
= 0.125

Ejemplo 4.1.4. (Distribucion de Poisson). Una variable aleatoria X se dice


que tiene un distribucion de Poisson con parametro > 0 si
k

P (X = k) = e
k!
para k = 0, 1, 2, . . . donde indica el numero promedio de sucesos por unidad
de tiempo o espacio.
Suponga que el numero de alarmas falsas en una cierta ciudad es en
promedio 2.1 veces por da. Asumiendo que una distribucion de Poisson es
adecuada Cual es la probabilidad que 4 falsas alarmas ocurran en un cierto
da?
Solucion. La probabilidad de que 4 falsas alarmas ocurran en un cierto
da esta dado por
4
2.1 2.1
P (X = 4) = e 0.0992.
4!
Ejemplo 4.1.5. (Distribucion Geometrica). Una variable aleatoria X se dice
que tiene un distribucion geometrica con parametro p (0, 1] si

P (X = k) = p(1 p)k1 ,

para k = 1, 2, . . . La distribucion Geometrica modela el numero de sucesos de


ensayos de Bernoulli la cual se realiza hasta obtener el primer suceso de un
cierto evento. Por ejemplo, el numero de lanzamientos de una moneda hasta
obtener la primera cara sigue una distribucion geometrica.
Imagine lanzar un par de dados, la probabilidad de obtener un 11 es 1/18.
Si se repite los lanzamientos Cual es la probabilidad que el primer 11 ocurra
en el octavo lanzamiento?
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 37

Solucion. Sea X el numero de lanzamientos hasta que ocurra el primer


1
11. Entonces, X es una variable aleatoria geometrica con parametro p = 18 .
Luego,   7
1 1
P (X = 8) = 1 = 0.0372.
18 18
Ejemplo 4.1.6. (Distribucion Hipergeometrica). Una variable aleatoria X se
dice que tiene un distribucion hipergeometrica con parametros N, m y n si
  
m N m
x nx
P (X = x) =  
N
n
para x = 0, 1, 2, . . .
Considere el siguiente ejemplo, sea N el numero de representantes de un
determinado estado que asisten a una convencion poltica nacional y sea m
el numero de los que apoyan al candidato A, mientras que el resto N m
apoyan al candidato B. Suponga que una organizacion informativa selecciona
aleatoriamente n representantes y les pregunta sus razones para apoyar a los
candidatos. Si X es una variable aleatoria que sustituye el numero de repre-
sentantes en la muestra que apoyan al candidato A Cual es la funcion de
probabilidad de X?
Esta situacion parece ser binomial porque entre N representantes de un
estado existen dos grupos distintos con probabilidad m/N y (N m)/N . Sin
embargo, considerese con mas detalle el proceso de seleccion para la muestra de
n representantes. Es razonable suponer que se selecciona un representante, se le
pregunta sus razones y no vuelve a ser seleccionado (muestreo sin reemplazo y
una condicion fundamental en la distribucion hipergeometrica). Es resultado
es que no existe independencia entre la seleccion de un representante y el
siguiente. Por ejemplo, supongase que el primer representante seleccionado
apoya al candidato A. Entonces quedan N 1 representantes de los cuales
m 1 apoya a A. Por lo tanto, la probabilidad condicional de que el siguiente
candidato apoye tambien a A es (m 1)/(N 1) y no m/N y la probabilidad
condicional de que el siguiente representante apoye a B es (N m)/(N 1) y
no (N m)/N .
Para determinar la probabilidad de seleccionar x representantes que apo-
yen a A y n x que apoyen a B, se procede de la siguiente forma: el numero
de maneras distintas en que  puedeseleccionarse una muestra de n represen-
N
tantes de un total de N es , y cada muestra tiene una probabilidad
n
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 38

 
N
de seleccion igual a 1/ . De manera similar, la seleccion de x personas
n
 
m
que apoyen a A es un evento que puede ocurrir de maneras distintas
x
 de n xrepresentantes que apoyen a B es un evento que puede
y la seleccion
N m
suceder de maneras. El numero total de maneras en que ambos
nx
  
m N m
eventos pueden ocurrir es . De esta forma la probabilidad
x nx
de seleccionar x representantes que apoyen al candidato A es
  
m N m
x nx
P (X = x) =   .
N
n
Ejemplo 4.1.7. (Distribucion Binomial Negativa). Una variable aleatoria X
se dice que tiene un distribucion binomial negativa con parametros m R y
p (0, 1] si  
x1
P (X = x) = pm (1 p)xm ,
m1
para x = m, m + 1, . . .
Sea un escenario binomial es que se considera una secuencia de ensayos
independientes, la probabilidad de exito en cada ensayo es constante e igual a
p. En lugar de fijar el numero de ensayos en x y observar el numero de exitos,
supongase que se continuan los ensayos hasta que han ocurrido exactamente
x exitos. En este caso, la variable aleatoria es el numero de ensayos necesa-
rios para observar m exitos. Esta situacion lleva a lo que se conoce como la
distribucion binomial negativa.
La determinacion de la funcion de probabilidad sigue el mismo tipo de
razonamiento empleado para obtener las funciones de probabilidad de las dis-
tribuciones binomial e hipergeometrica. Se desea determinar la probabilidad
de que en el x-esimo ensayo ocurra el m-esimo exito. Si se continuan los ensa-
yos independientes hasta que ocurra el m-esimo exito, entonces el resultado del
ultimo ensayo fue exito. Antes del ultimo ensayo haban ocurrido m 1 exitos
en x 1 ensayos. El numero de maneras
 distintas
 en las que pueden observarse
x1
m 1 exitos en x 1 ensayos es . Por lo tanto la probabilidad de
m1
tener m exitos en x ensayos con el ultimo siendo exito es
 
x1
P (X = x) = pm (1 p)xm ; x = m, m + 1, m + 2, . . .
m1
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 39

S
Lema 4.1.1. 1. Sea A1 A2 A3 . . ., y sea A = i=1 Ai . Entonces
P (A) = lm P (Ai ).
i
T
2. Sea B1 B2 B3 . . ., y sea B = i=1 Bi . Entonces
P (B) = lm P (Bi ).
i

Demostracion. Ver referencia


Teorema 4.1.1. Una funcion de distribucion F de una variable aleatoria X
tiene las siguientes propiedades:
1. lmx F (x) = 1;
2. lmx F (x) = 0;
3. F es no decreciente;
4. F es contnua por la derecha;
5. P (X > x) = 1 F (x);
6. P (x < X y) = F (y) F (x);
7. P (X = x) = F (x) lmyx F (y).
Demostracion. Ver referencia
Finalizaremos esta seccion con un resultado del efecto que tiene una fun-
cion de probabilidad de una variable aleatoria sobre su funcion de distribucion
y viceversa.
Teorema 4.1.2. Dos variables aleatorias tienen la misma funcion de proba-
bilidad si y solamente si, ellos tienen la misma funcion de distribucion.
Demostracion. Sea X, Y variables aleatorias en el mismo espacio muestral tal
que pX (x) = pY (y), para todo x, entonces:
X X
FX (x) = P (X x) = pX (x) = pY (y) = P (Y y) = FY (y)
x y

del mismo modo se calcula la recproca.


Definicion 4.1.4. Si dos variables aleatorias X e Y tienen la misma funcion
de probabilidad o, equivalentemente, tienen la misma funcion de distribucion,
entonces decimos que X e Y tienen la misma distribucion. En este sentido,
preguntarse por la distribucion de una variable aleatoria es preguntarse por
su funcion de probabilidad o su funcion de distribucion.
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 40

4.2. Independencia de Variables Aleatorias


Para el desarrollo de diversos experimentos es necesario que las variables
sean independientes, este hecho es muy importante en la teora de las pro-
babilidades como tambien en la econometra al momento de elegir variables
exogenas que expliquen algun modelo. De este modo, dos variables aleatorias
se dicen independientes, si, conociendo el resultado de la primera variable, esta
no afecta la distribucion de la otra.
Definicion 4.2.1. Las variables aleatorias X1 ,X2 ,. . .,Xn son llamadas inde-
pendientes si los eventos {X1 = x1 },. . .,{Xn = xn } son independientes para
alguna eleccion de x1 ,x2 ,. . .,xn .
El concepto es mejor ilustrado con algunos ejemplos.
Ejemplo 4.2.1. Suponga que lanzamos una moneda un numero aleatorio N
de veces, donde
n

P (N = n) = e ; n = 0, 1, 2, . . . ,
n!
la misma que es N tiene distribucion de Poisson. Los lanzamientos son inde-
pendientes y la probabilidad que ocurra cara es igual a p. As si conocemos
N = n, el numero de caras es simplemente el numero de caras en n lanzamien-
tos con probabilidad p. Escribimos X para el numero total de caras, Y para
el numero de sellos, as X + Y = N . Luego, podemos concluir formalizando
como  
n
P (X = x|N = n) = px (1 p)nx .
x
Son X e Y independientes? Es sorprendente que lo sean, demostraremos este
hecho calculando,
P (X = x, Y = y) = P (X = x, Y = y|N = x + y)P (N = x + y)
x+y
 
x+y
= px (1 p)y e
x (x + y)!
(p)x ((1 p))y
= e .
x!y!
Por otro lado, se tiene
X
P (X = x) = P (X = x|N = n)P (N = n)
nx
X n  n
x nx
= p (1 p) e
x n!
nx
(p)x p
= e ,
x!
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 41

y un calculo similar da para


((1 p))y (1p)
P (Y = y) = e .
y!
As, P (X = x, Y = y) = P (X = x)P (Y = y) y concluimos que X e Y son
independientes.
Teorema 4.2.1. Sea X e Y variables aleatorias independientes. Entonces,
para todo A, B R,

P (X A, Y B) = P (X A)P (Y B)

Demostracion.
XX
P (X A, Y B) = P (X = a, Y = b)
aA bB
XX
= P (X = a)P (Y = b)
aA bB
X X
= P (X = a) P (Y = b)
aA bB
= P (X A)P (Y B)

Ejemplo 4.2.2. Muestre que X e Y son independientes si y solamente si, para


todo x,y se cumple

P (X x, Y y) = P (X x)P (Y y).

Solucion. Desarrollando se tiene

P (X x, Y y) = P (X x)P (Y y)
X X
= P (X = x) P (Y = y)
xX yY

luego,
XX
P (X x, Y y) = P (X = x, Y = y)
xX yY

As, igualando se concluye que X e Y son independientes.


Cuando las variables aleatorias X1 , . . . , Xn son independientes y consi-
deramos funciones de ellas, resultan tambien ser independientes. Por ejem-
plo, sea X1 y X2 variables aleatorias independientes, entonces f (X1 ) = X12 y
f (X2 ) = X2 7 son tambien independientes.
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 42

Teorema 4.2.2. Sea X1 ,X2 ,. . .,Xn variables aleatorias independientes y para


i = 1, . . . , n, sea gi una funcion gi : R R. Entonces las variables aleatorias
g1 (X1 ), g2 (X2 ), . . . , gn (Xn ) son tambien independientes.
Demostracion.
X X
P (g1 (X1 ) = a1 , g2 (X2 ) = a2 ) = P (X1 = x1 , X2 = x2 )
g2 (x2 )=a2 g1 (x1 )=a1
X X
= P (X1 = x1 )P (X2 = x2 )
g2 (x2 )=a2 g1 (x1 )=a1
X X
= P (X2 = x2 ) P (X1 = x1 )
g2 (x2 )=a2 g1 (x1 )=a1
= P (g1 (X1 ) = a1 )P (g2 (X2 ) = a2 ).

Ejemplo 4.2.3. Sea X1 , X2 y X3 variables aleatorias independientes y sea


g : R2 R y h : R R. Muestre que g(X1 , X2 ) y h(X3 ) son variables
aleatorias independientes.
Solucion. Resolviendo
X X
P (g(X1 , X2 ), h(X3 )) = P (X1 = x1 , X2 = x2 , X3 = x3 )
g(x1 ,x2 ) h(x3 )
X X
= P (X1 = x1 )P (X2 = x2 )P (X3 = x3 )
g(x1 ,x2 ) h(x3 )
X X
= P (X1 = x1 )P (X2 = x2 ) P (X3 = x3 )
g(x1 ,x2 ) h(x3 )
= P (g(X1 = x1 , X2 = x2 ))P (h(X3 ))
= P (g(X1 , X2 ))P (h(X3 )),
lo que muestra que g(X1 , X2 ) y h(X3 ) son variables aleatorias independientes.

4.3. Esperanza y Varianza


El concepto de esperanza refiere al valor medio que toma una variable
aleatoria. La esperanza de una variable aleatoria sera definida como una suma,
posiblemente con varios terminos infinitos.
Sea a1 , a2 , . . . numeros reales. Solo pretendemos definir
P
n=1 an cuando
esta suma no cambia cuando variamos el orden P de los an s. Un resultado
P clasico
+
del calculo nos dice que es el caso cuando S = n:an >0 an y S = n:an <0 an
son infinitos (no ambos) con signos opuestos. Si S + yPS son no ambos infinitos
con signos opuestos, entonces decimos que la suma n=1 an esta bien definida.
Finalmente, para el caso la suma se dice no definida.
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 43

Definicion 4.3.1. La esperanza de una variable aleatoria X esta dado por:


X
E(X) = xP (X = x)
x

siempre que la suma este bien definida.


Se debe entender que la esperanza (o esperanza matematica) es el valor
medio que toma una cierta variable aleatoria.
Ejemplo 4.3.1. Sea X una variable aleatoria con P (X = 0) = 1/2 y P (X =
1) = 1/2, entonces E(X) = 0 P (X = 0) + 1 P (X = 1) = 1/2. Observe que
el valor de la esperanza de la variable X no necesita ser algun valor que toma
X.
Ejemplo 4.3.2. Suponga que X toma valores -1, 1 y 2 con igual probabilidad
y considere la variable aleatoria Y = X 2 , se desea hallar E(Y ).
Solucion. Sea X = {1, 1, 2} con P (X = xi ) = 1/3 donde i = 1, 2, 3,
debido que x tiene la misma probabilidad. Luego, Y = {1, 4} con probabilidad
P (Y = 1) = 2/3 (1/3 + 1/3, debido que dos valores de X cumplen con Y = 1)
y P (Y = 4) = 1/3 (note que P (Y = 1) + P (Y = 4) = 1). As se tiene
E(Y ) = 1 (2/3) + 4 (1/3) = 2.
Ejemplo 4.3.3. (Distribucion de Poisson). Recordemos que una variable alea-
toria X tiene una distribucion de Poisson con parametro > 0 si
k
P (X = k) = e
k!
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 44

donde k = 0, 1, . . . Para calcular la esperanza escribimos:


X
E(X) = kP (X = k)
k=0

X k
= ke
k!
k=0
k

X
= ke
k!
k=1


X k
= e k
k!
k=1


X k1
= e k
k(k 1)!
k=1


X k1
= e
(k 1)!
k=1

= e e
= .
Lema 4.3.1. Sea X una variable aleatoria y g : R R. Entonces la esperanza
de g(X) esta dado por
X
E(g(X)) = g(x)P (X = x)
x
siempre que la funcion este bien definida.
Demostracion. Dado que la suma esta bien definida, estamos libres de cambiar
el orden de la suma, ahora se puede escribir
X
E(g(X)) = g(X)P (g(X) = y)
y
X X
= g(X) P (X = x)
y x:g(X)=y
X X
= g(X)P (X = x)
y x:g(X)=y
X
= g(X)P (X = x).
x

2
Ejemplo 4.3.4. Sea X = {1, 1, 2}P y Y2 = X , calculamos la esperanza de la
variable aleatoria Y como E(Y ) = x x P (X = x) = 1 ( 3 )+(1)2 ( 31 )+4( 13 ) =
2 1

2.
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 45

Ejemplo 4.3.5. Muestre que si X toma valores enteros no negativos se cumple



X
E(X) = P (X > n).
n=0

Solucion. Como los valores que toma X son no negativos, entonces


X
E(X) = xP (X = x)
x0
= x0 P (X = x0 ) + x1 P (X = x1 ) + x2 P (X = x2 ) + . . .

donde xi 0, i = 0, 1, 2, . . . y
P
i=0 P (X = xi ) = 1. Luego,

P (X > 0) = P (X = 1) + P (X = 2) + P (X = 3) + . . .
P (X > 1) = P (X = 2) + P (X = 3) + P (X = 4) + . . .
..
.

de este modo

X
P (X > n) = P (X > 0) + P (X > 1) + P (X > 2) + . . .
n=0
= P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4) + . . .
+ P (X = 2) + P (X = 3) + P (X = 4) + P (X = 5) + . . .
+ P (X = 3) + P (X = 4) + P (X = 5) + P (X = 6) + . . .
= 1 P (X = 1) + 2 P (X = 2) + 3 P (X = 3) + 4 P (X = 4) . . .
X
X X
= xP (X = x) = xP (X = x) = xP (X = x)
x=1 x=0 x0
= E(X),

lo que termina el ejemplo.


Una definicion adicional de esperanza es:
X X
E(X) = xj P (X = xj ) (xj )P (X = xj ).
j:xj 0 j:xj <0


Si S + =
P P
j:xj 0 x j P (X = xj ) y S = j:xj <0 (xj )P (X = xj ) son sumas
de una variable aleatoria finita o infinita numero de partes no negativos, en
cualquiera de los casos, dichas sumas estan bien definidas y puede ocurrir lo
siguiente:

1. Si 0 S + < + (S + finito) y 0 S < + (S finito), entonces


E(X) = S + S es finito (X es sumable).
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 46

2. Si S + = + (S + infinito) y 0 S < + (S finito), entonces E(X) =


+ S = + es infinito (X es no sumable).
3. Si 0 S + < + (S + finito) y S = + (S infinito), entonces E(X) =
S + (+) = es infinito (X es no sumable).
4. Si S + = S = +, entonces E(X) = + (+) = + es
indeterminado.

Teorema 4.3.1. Sea X e Y dos variables aleatorias definidas en el mismo


espacio muestral. Si E(X) y E(Y ) no son ambos infinitos con signos opuestos,
entonces
E(X + Y ) = E(X) + E(Y )
Demostracion. Ejercicio
Consideremos dos puntos importantes en la esperanza de la suma:
1. Las condiciones del teorema anterior no son necesarias para la existencia
de E(X + Y ). De este modo, cuando la variable aleatoria X satisface
E(X) = y Y = X, entonces E(X) + E(Y ) no esta definida, pero
E(X + Y ) = 0.
2. Una de las principales concepciones de la teora de la probabilidad es la
idea que el teorema anterior sera verdad unicamente cuando X y Y son
independientes.
Teorema 4.3.2. Para alguna variable aleatoria que exista E(X) y para algun
a y b, se tiene
E(aX + b) = aE(X) + b.
Demostracion. Ejercicio.
As como es importante la suma, es necesario considerar el producto de
variables aleatorias; en efecto, para el producto la independencia juega un rol
crucial.
Teorema 4.3.3. Si las variables aleatorias X e Y son independientes y E(X)
y E(Y ) son finitas, entonces E(XY ) esta bien definida y satisface

E(XY ) = E(X)E(Y ).

Demostracion. Ejercicio
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 47

No es verdad que E(XY ) = E(X)E(Y ) implica que X y Y son indepen-


dientes.
La esperanza de una variable aleatoria X puede ser interpretada como
el valor promedio de X. Luego, claramente la esperanza no dice mucho con
respecto a la dispersion de X.
Ejemplo 4.3.6. Considere una variable aleatoria X con P (X = 100) = 1/2
y P (X = 100) = 1/2 y una variable aleatoria Y con P (Y = 1) = 1/2
y P (Y = 1) = 1/2. Claramente E(X) y E(Y ) son iguales a cero, pero
es tambien claro que los resultados de X seran siempre muy alejados de su
esperanza, mientras que de Y son mas cercanos.
La varianza de una variable aleatoria se entiende como la medida de
la dispersion de la distribucion de probabilidad de una variable aleatoria .
Un camino para observar esta desviacion promedio es hallar la esperanza de
|X E(X)|, pero resulta mas conveniente calcular la esperanza de (X E(X))2
debido que las unidades de X se mantienen.
Definicion 4.3.2. Sea X una variable aleatoria con esperanza finita . La
varianza var(X) de X esta definida como
X
var(X) = E((X )2 ) = (x )2 P (X = x).
x

La desviacion estandar (X) de X esta definida como la raz cuadrada


de la varianza, p
(X) = var(X).
Lema 4.3.2. var(X) = E(X 2 ) (E(X))2
Demostracion. Escribimos E(X) = , luego:
var(X) = E(X 2 2X + 2 )
= E(X 2 ) 2E(X) + 2
= E(X 2 ) 22 + 2
= E(X 2 ) 2 .

Ejemplo 4.3.7. Si X toma los valores 1 y 0 con probabilidades p y 1 p


respectivamente, entonces E(X) = p, E(X 2 ) = p y luego var(X) = p p2 ,
usando el lema anterior.
Teorema 4.3.4. Sea X e Y variables aleatorias y a, b R.
1. var(aX + b) = a2 var(X).
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 48

2. var(X +Y ) = var(X)+var(Y )+2(E(XY )E(X)E(Y )). En particular,


si X e Y son independientes, entonces

var(X + Y ) = var(X) + var(Y ).

Demostracion. 1. Sea E(X) = , entonces

var(aX + b) = E((aX + b)2 ) (E(aX + b))2


= E(a2 X 2 + 2abX + b2 ) (a + b)2
= a2 E(X 2 ) + 2ab + b2 a2 2 2ab b2
= a2 E(X 2 ) a2 2
= a2 var(X).

2.

var(X + Y ) = E((X + Y E(X + Y ))2 )


= E((X E(X)))2 + (Y E(Y ))2 + 2(XY E(X)E(Y ))
= var(X) + var(Y ) + 2(E(XY ) E(X)E(Y )).

Definicion 4.3.3. La cantidad E(XY ) E(X)E(Y ) es llamada covarianza


de X e Y y se denota por cov(X, Y ).
Ejemplo 4.3.8. Usualmente la covarianza de X e Y se define como cov(X, Y ) =
E((X E(X))(Y E(Y ))). Muestre que este monto es igual al de la definicion
anterior. Ejercicio.
La esperanza y varianza de una variable aleatoria son usados frecuente-
mente. Asimismo, existe un numero de utiles desigualdades las cuales estan
expresadas en ellas.
Teorema 4.3.5. Sea X una variable aleatoria que toma solo valores no nega-
tivos. Entonces para algun a > 0 se tiene
1
P (X a) E(X).
a
Demostracion. Ejercicio.
Aplicando este resultado para |X|k seguimos con el siguiente corolario.
Corolario 4.3.1. (Desigualdad de Markov).
1
P (|X| a) k
E(|X|k ).
a
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 49

Demostracion. Ejercicio.
La desigualdad de Marcov para k = 2 y aplicando a |X E(X)| se tiene
Corolario 4.3.2. (Desigualdad de Chebyshev).
1
P (|X E(X)| a) V ar(X).
a2
Finalmente, mencionamos la famosa desigualdad de Cauchy-Schwarz.
Teorema 4.3.6. (Desigualdad de Cauchy-Schwarz). Para alguna variable alea-
toria X e Y para la cual E(XY ) es definida, entonces
p
E(XY ) E(X 2 )E(Y 2 )

Demostracion. Ejercicio.

4.4. Vectores Aleatorios


En la realidad donde vivimos existen muchas situaciones que envuelven la
presencia de coleccion de variables aleatorias y precisamente estamos intere-
sados en su comportamiento conjunto. Por ejemplo:
(i) Una estacion meteorologica puede registrar la velocidad del viento, presion
atmosferica y direccion del viento.
(ii) Un deportista necesita controlar su peso, presion arterial, nivel de coleste-
rol y mas para mantenerse competitivo.
Esta seccion esta referida a la estructura de probabilidad de dos o mas
variables aleatorias definidas en el mismo espacio muestral. Comenzaremos
por la definicion de un vector aleatorio.
Definicion 4.4.1. Un vector aleatorio X1 , . . . , Xd es una funcion de un espacio
muestral sobre Rd .
Definicion 4.4.2. La funcion de probabilidad conjunta de un vector aleatorio
X = (X1 , X2 , . . . , Xd ) es definido como

pX (x1 , x2 , . . . , xd ) = P (X1 = x1 , X2 = x2 , . . . , Xd = xd ).

La distribucion de alguna de los Xi s individual se denomina distribucion


marginal.
Definicion 4.4.3. La funcion de distribucion conjunta de X = (X1 , X2 , . . . , Xd )
es la funcion FX : Rd [0, 1] dado por

FX (x1 , x2 , . . . , xd ) = P (X1 x1 , X2 x2 , . . . , Xd xd ).
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 50

El siguiente resultado muestra que si conocemos la distribucion conjunta,


entonces tambien conocemos las distribuciones marginales. Esto refuerza la
idea que la distribucion conjunta dice mas que la coleccion de distribuciones
marginales.
Teorema 4.4.1. Sea (X1 , X2 , . . . , Xd ) tiene una funcion de probabilidad dada
por p(x1 , x2 , . . . , xd ). Entonces, la funcion de probabilidad (marginal) de X1
puede ser escrito como
X
pX1 (x1 ) = p(x1 , x2 , . . . , xd ),
x2 ,x3 ,...,xd

y similarmente para las otras marginales. En otras palabras, encontramos la


funcion de probabilidad de X1 sumando todas las otras variables.
Demostracion. Ver referencia.
Ejemplo 4.4.1. Sea (X, Y ) que tiene una funcion de probabilidad conjunta p
dada por p(0, 0) = 0.4, p(0, 1) = 0.2 =, p(1, 0) = 0.1 y p(1, 1) = 0.3. Entonces
P (X = 0) = p(0, 0) + p(0, 1) = 0.6
y
P (X = 1) = p(1, 0) + p(1, 1) = 0.4.
Podemos leer toda la informacion del vector (X, Y ) de la siguiente tabla. La
ultima columna contiene la funcion de probabilidad marginal de X, la misma
que se obtiene sumando todas las probabilidades de la respectiva fila. La ulti-
ma fila contiene la funcion de probabilidad marginal de Y , la que se obtiene
sumando las probabilidades de la respectiva columna.
0 1 X
0 0.4 0.2 0.6
1 0.1 0.3 0.4
Y 0.5 0.5 1
La distribucion conjunta no necesitan necesariamente de la independencia
de las variables. Luego, la definicion de independencia implica que X e Y son
independientes si y solamente si
p(X,Y ) (x, y) = pX (x)pY (y),
para todo x e y. El siguiente resultado muestra la independencia.
Teorema 4.4.2. Las variables aleatorias X e Y son independientes si y sola-
mente si pX,Y puede ser factorizado como una funcion de x y una funcion de
y, lo que es lo mismo, puede ser escrito como pX,Y (x, y) = g(x)h(y) para todo
(x, y).
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 51

Demostracion. Si X e Y son independientes, entonces claramente podemos


tomar g y h como las funciones marginales de X e Y . Para probar la vuelta,
escribimos p para la funcion de probabilidad de (X, Y ). Suponga que
p(x, y) = g(x)h(y)
para todo x e y. Para algun x, sumamos sobre la segunda coordenada y usando
el Teorema 4.4.1 se tiene
X X
pX (x) = p(x, y1 ) = g(x) h(y1 ).
y1 y1
P P P
Dado que x1 pX (x1 ) = 1, esto lleva a x1 g(x1 ) h1 h(y1 ) = 1. Similarmente,
encontramos para algun y tal que
X
pY (y) = h(y) g(x1 ).
x1

As, para x e y se tiene


X X
pX (x)pY (y) = g(x)h(y) h(y1 ) g(x1 )
y1 x1
= g(x)h(y)
= p(x, y),
lo que demuestra el teorema.
Note que como resultado de la prueba, si p(x, y) = g(x)h(y), entonces
g(x) difiere de pX (x) por solo una constante y similarmente para h(y) y pY (y).
De este modo, g(x) no es necesariamente pX (x), la diferencia es solo una forma
de normalizacion y similarmente para h(y) y pY (y).
Ejemplo 4.4.2. Sea (X, Y ) con una funcion de probabilidad conjunta
k l (+)
p(k, l) = e ,
k!l!
para k, l = 0, 1, 2, . . . , y donde , > 0. Luego, es obvio que p(k, l) se factoriza
como el producto de una funcion de k y una funcion de l, ademas X e Y son
independientes. Para calcular la distribucion marginal de X, tomamos
X
P (X = k) = p(k, l)
l=0

k X
(+) l
= e
k! l!
l=0
k
= e(+) e
k!
k

= e ,
k!
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 52

la cual reconocemos como la funcion de probabilidad de una distribucion de


Poisson con parametro . Similarmente, Y tiene una distribucion de Poisson
con parametro .
Podemos tambien usar la funcion de probabilidad conjunta para determi-
nar la distribucion de suma de dos variables aleatorias.
Teorema 4.4.3. Sea (X, Y ) un vector aleatorio sobre el mismo espacio mues-
tral con funcion de probabilidad conjunta p y sea Z = X + Y . Entonces, la
funcion de probabilidad pZ de Z esta dado por
X X
pZ (z) = p(x, z x) = p(z y, y).
x y

En particular, cuando X e Y son independientes se tiene


X X
pZ (z) = pX (x)pY (z x) = pX (z y)pY (y).
x y

Demostracion. Ejercicio.
Ejemplo 4.4.3. Suponga que X e Y son independientes con funcion de pro-
babilidad conjunta
k l (+)
p(k, l) = e ,
k!l!
como se demostro en el ejemplo anterior, X e Y tienen una distribucion de
Poisson con parametros y respectivamente.
Luego, para calcular la distribucion de la suma X +Y , se utiliza el teorema
anterior y se tiene
z
X k zk (+)
P (X + Y = z) = e
k!(z k)!
k=0
z 
e(+) X z

= k zk
z! k
k=0
( + )z
= e(+) .
z!
Esto significa que X +Y tiene una distribucion de Poisson, donde su parametro
es la suma de los parametros originales.
Finalizamos esta seccion con el siguiente lema para vectores.
Lema 4.4.1. Sea (X1 , X2 , . . . , Xd ) un vector aleatorio y g : Rd R. Entonces
X
E[g(X1 , . . . , Xd )] = g(x1 , . . . , xd )P (X1 = x1 , . . . , Xd = xd ),
x1 ,...,xd

siempre que la suma este bien definido.


Demostracion. Ver referencia.
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 53

4.5. Distribucion y Esperanza Condicional


Una de los mas importantes conceptos en teora de las probabilidades
es el condicionamiento. Asimismo, es necesario conocer una cierta variable
aleatoria cuando alguna informacion de otra variable aleatoria esta disponible.
La siguiente definicion engloba esta idea donde X e Y son variables aleatorias
en el mismo espacio muestral.
Definicion 4.5.1. La funcion de probabilidad condicional de Y dado X = x
esta dado como
pY |X (y|x) = P (Y = y|X = x),
donde P (X = x) > 0. La funcion de distribucion condicional de una variable
aleatoria Y dado X = x esta definido como

FY |X (y|x) = P (Y y|X = x),

donde P (X = x) > 0.
De la definicion se sigue que
p(X,Y ) (x, y)
pY |X (y|x) = .
pX (x)
Cuando se toma X = x, la funcion de probabilidad condicional para Y
es pY |X (y|x), la cual sera P
tratada como una funcion de y. La correspondiente
esperanza esta dada por y ypY |X (y|x). Note que esta esperanza condicional
es una funcion de x. Denotamos a esta funcion de x por E(Y |X = x).
Definicion 4.5.2. La esperanza condicional de Y dado X esta denotado por
E(Y |X = x) y definido como
X
E(Y |X = x) = ypY |X (y|x).
y

Ejercicio 4.5.1. Considere el vector (X, Y ) del Ejemplo 4.4.1. Luego,


p(0, 0) 0.4 2
py|X (0, 0) = P (Y = 0|X = 0) = = = .
P (X = 0) 0.6 3
1
Similarmente, pY |X (1|0) = 3 y la esperanza
2 1 1
E(Y |X = 0) = 0 +1 = .
3 3 3
Ejercicio 4.5.2. Considere, el Ejemplo 4.4.2, dos variables aleatorias X e Y
con distribucion de Poisson con parametros y respectivamente. Se esta in-
teresado en la distribucion condicional de X dado X + Y . Similarmente, es
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 54

calcular P (X = k|X +Y = m+k). Manteniendo en mente que X +Y tiene una


distribucion de Poisson con parametro + segun el Ejemplo 4.4.3. Luego,
P (X = k, Y = m)
P (X = k|X + Y = m + k) =
P (X + Y = m + k)
k m
k! e m! e
= (+)m+k (+)
(m+k)! e
k m
(m + k)!
=
k!m! ( + )m+k
  k  rk
m+k
= 1 ,
k + +
de este modo, la distribucion condicional de X dado X + Y = r es una distri-
bucion binomial con parametros r y /( + ). Luego,
r
E(X|X + Y = r) = .
+
La esperanza condicional son en extremo utiles para calcular esperanzas
no condicionadas. Esto se muestra en el teorema siguiente.
Teorema 4.5.1. Para variables aleatorias X e Y definidas en el mismo espa-
cio muestral, se tiene
X
E(Y ) = E(Y |X = x)P (X = x).
x

Demostracion.
X
E(Y ) = yP (Y = y)
y
X X
= y P (X = x, Y = y)
y x
X X
= y pY |X (y|x)pX (x)
y x
X X
= pX (x) ypY |X (y|x)
x y
X
= P (X = x)E(Y |X = x).
x

Ejemplo 4.5.1. Un pollo produce N huevos, donde N es una variable aleatoria


con una distribucion de Poisson con parametro . Cada uno de los huevos se
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 55

produce con una probabilidad p, independiente de los otros huevos. Sea K el


numero de pollos. Se desea encontrar E(K|N = n) y E(K). Para ello, note
consideramos
n
pN (n) = e
n!
y  
n
pK|N (k|n) = pk (1 p)nk .
k
P
Esto da que E(K|N = n) = k kpK|N (k|n) = pn, luego
X
E(K) = E(K|N = n)P (N = n)
n
X X
= pnP (N = n) = p nP (N = n)
n n
= pE(N ) = p.

Note que calculamos E(K) sin calcular la funcion de probabilidad de K. Es


posible tambien calcular su funcion de probabilidad

X
P (K = k) = P (K = k|N = n)P (N = n)
n=k

n n
X  

= e pk (1 p)nk
n! k
n=k

k X
(p) nk
= e (1 p)nk
k! (n k)!
n=k
k k
(p) (1p) p (p)
= e e =e ,
k! k!
la cual indica que K tiene una distribucion de Poisson con parametro p.
Luego, asumiendo n k y escribiendo
P (N = n, K = k)
P (N = n|K = k) =
P (K = k)
P (K = k|N = n)P (N = n)
=
P (K = k)
 
n n
e n! pk (1 p)nk
k
= k
ep (p)
k!
nk
((1 p))
= e(1p) .
(n k)!
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 56

Esto tambien reconocemos como la funcion de probabilidad de una variable


aleatoria de Poisson, luego observamos

X
E(N |K = k) = nP (N = n|K = k)
n=k

X ((1 p))nk (1p)
= (k + n k) e
(n k)!
n=k
= k + (1 p),
donde usamos el hecho que una variable aleatoria con distribucion de Poisson
con parametro (1 p) tiene esperanza (1 p).

4.6. Funcion Generadora


En esta seccion trabajaremos con un caso especial de variables aleatorias
que toman valores en N. Introduciremos un nuevo concepto, la funcion gene-
radora de una variable aleatoria. Al menos son dos razones para el estudio de
esta funcion.
En primera, las funciones generadoras son herramientas muy utiles para
realizar calculos pequenos que seran difciles y tediosos sin ellos. Esos calculos
se realizan con suma de variables aleatorias, esperanzas y varianzas.
En segundo lugar, son muy buenas herramientas para el concepto de fun-
ciones caractersticas las mismas son similares en naturaleza pero no restrin-
gidas a valores enteros de las variables aleatorias. En esta seccion, X, Y, . . .
son variables aleatorias que toman valores en N.
Definicion 4.6.1. La funcion generadora de X esta definida como

X
X
GX (t) = E(t ) = tn pX (n),
n=0

para todo t R donde su suma es convergente.


Ejemplo 4.6.1. (Distribucion Geometrica). Si X tiene una distribucion geometri-
ca con parametro p, entonces

X
GX (t) = tk p(1 p)k1
n=0

p X
= (t(1 p))k
1 p n=0
p t(1 p) tp
= = .
1 p (1 t(1 p)) 1 t + tp
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 57

Ejemplo 4.6.2. Muestre que la funcion generadora de una variable aleatoria


X con distribucion de Poisson con parametro , esta dado por GX (t) = e(t1) .
Ejercicio.
Luego, para nuestro estudio es preciso saber calcular la esperanza y va-
rianza. Dado que en esta seccion nuestras variables son no negativas, no ten-
dremos problemas con la existencia de la esperanza. Asimismo, recordando que
la k-esima derivada en el punto 1, G(k) (1), esta representada por lmt1 G(k) (t).
Teorema 4.6.1. Sea X que tiene una funcion generadora G, entonces
1. E(X) = G0 (1),
2. var(X) = G00 (1) + G0 (1) G0 (1)2 .
Demostracion. Ver referencia.
Ejemplo 4.6.3. Sea X con una distribucion de Poisson con parametro .
Entonces, GX (t) = e(t1) . Luego, G0X (1) = y GX 00 (1) = 2 . De ah que
E(X) = y var(X) = 2 + 2 = .
La funcion generadora puede tambien ser muy util en el estudio de suma
de variables aleatorias.
Teorema 4.6.2. Si X e Y son independientes, entonces
GX+Y (t) = GX (t)GY (t).
Demostracion. Dado que X e Y son independientes, entonces tX y tY son
independientes por el Teorema 4.2.2. Luego,
GX+Y (t) = E(tX+Y ) = E(tX tY )
= E(tX )E(tY ) = GX (t)GY (t).

4.7. Ejercicios
Ejercicio 4.7.1. Muestre que las probabilidades de la distribucion binomial
negativa suma 1.
Ejercicio 4.7.2. Suponga que X tiene una funcion de distribucion F Cual es
la funcion de distribucion de la variable aleatoria Y definida por Y = aX + b?
Ejercicio 4.7.3. Muestre que X e Y son independientes s y solamente s para
todo x, y,
P (X x, Y y) = P (X x)P (Y y).
CAPITULO 4. VARIABLES Y VECTORES ALEATORIOS DISCRETOS 58

Ejercicio 4.7.4. Sea X1 , X2 y X3 variables aleatorias independientes y sea


g : R2 R y h : R R. Muestre que g(X1 , X2 ) y h(X3 ) son variables
aleatorias independientes. Generalice este resultado.
Ejercicio 4.7.5. Encuentre dos variables aleatorias X e Y tal que

E(XY ) 6= E(X)E(Y ).

Ejercicio 4.7.6. Muestre que la covarianza de X e Y definida anteriormente


es equivalente la expresion E((X E(X))(Y E(Y ))).
Ejercicio 4.7.7. Muestre que cov(X, X) = var(X).
Ejercicio 4.7.8. Muestre que la igualdad se cumple en la desigualdad de
Cauchy-Schwarz s y solamente s P (aX = Y ) = 1 para algun a o X = 0 con
probabilidad 1.
Ejercicio 4.7.9. Usa la formula de la suma para varianzas para mostrar que
var(X) = np(1p), donde X es una variable aleatoria binomial con parametros
n N y p [0, 1].
Ejercicio 4.7.10. Muestre que la funcion generadora de una variable aleatoria
X con una distribucion de Poisson con parametro , esta dado por

GX (t) = e(t1) .

Ejercicio 4.7.11. Encuentre la esperanza y varianza de una istribucion geometri-


ca usando funcion generadora.
Ejercicio 4.7.12. Use la funcion generadora para probar que la suma de dos
variables aleatorias independientes con distribucion de Poisson, tiene tambien
una distribucion de Poisson.
Captulo 5

Variables y Vectores Aleatorios


Continuos

Las variables aleatorias son cantidades aleatorias que son medibles en una
escala contnua. Entonces, se puede tomar valores sobre algun intervalo, con
respecto a las variables discretas que puede tomar unicamente secuencia de
valores, usualmente enteros. Tpicamente las variables aleatorias, por ejemplo,
el tiempo o distancia son contnuas y no discretas.
En el captulo anterior consideramos variables aleatorias discretas, que
es, variables aleatorias que toman valores posibles finitos o infinitos contables.
No obstante, tambien existen variables aleatorias donde el conjunto de todos
los posibles valores son no contables, por ejemplo, el tiempo o distancia son
contnuas y no discretas.
Sea X una variable aleatoria, entonces decimos que X es una variable
aleatoria contnua o absolutamente contnua si existe una funcion no negativa
f , definido para todo real x (, ), que tiene la propiedad que para algun
conjunto B de numeros reales,
Z
P (X B) = f (x)dx.
B
La funcion f es llamada la funcion de densidad de probabilidad de la variable
X.
En palabras, la ecuacion anterior indica que la probabilidad que X esta en
B puede ser obtenido integrando la funcion de densidad sobre el conjunto B.
Dado que X asume diversos valores, f satisface
Z
1 = P (X (, )) = f (x)dx.

Todas las probabilidades relacionadas a X pueden ser expresadas en terminos
de f . Consideremos B = [a, b], obtenemos
Z b
P (X B) = P (a X b) = f (x)dx.
a

59
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 60

Si consideramos a = b, se tiene
Z a
P (X = a) = P (a X a) = f (x)dx = 0.
a
En palabras, la ecuacion anterior indica que la probabilidad que una varia-
ble aleatoria contnua asume en algun punto fijo es cero. Luego, para alguna
variable aleatoria contnua,
Z a
P (X a) = P (X < a) = f (x)dx.

5.1. Variables Aleatorias Continuas


El motivo por introducir el concepto de variables aleatorias contnuas es
el mismo que en el caso discreto. Daremos la definicion formal de una variable
aleatoria contnua e ilustraremos su definicion con un numero de ejemplos,
donde trabajaremos en un espacio = Rd , para algun entero d.
Definicion 5.1.1. Una funcion no negativa f : R R se denomina funcion
de densidad de probabilidad si
Z b
f (x)dx
a
existe para todo a b y Z
f (x)dx = 1.

Frecuentemente, a esta definicion se le llama densidad.
Definicion 5.1.2. Para algun A y una densidad f donde
Z
f (x)dx
A
esta definido, se define la probabilidad de A como
Z
P (A) = f (x)dx.
A
Definicion 5.1.3. Considere un experimento con espacio de probabilidad
y funcion de densidad de probabilidad f .
1. Una variable aleatoria X es una funcion de en R tal que los conjuntos
de la forma
{ : a X() b}, { : a X() < b}
{ : a < X() b}, { : a < X() < b}
son eventos para todo a b esto indica que la integral de f
sobre alguno de esos conjuntos existe.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 61

2. Una variable X se denomina una variable aleatoria contnua con densidad


g si g es una funcion de densidad y
Z b
P (a X b) = P ( : a X() b) = g(x)dx,
a

para todo a b .
3. Una variable aleatoria X se denomina una variable aleatoria discreta si
all es un conjunto contable C de R con P (X C) = 1.
Para entender mejor la definicion anterior, se tiene los siguientes comen-
tarios:

La definicion en (1) expresa la idea que la variable aleatoria X toma


valores en un determinado intervalo.
Para una variable aleatoria contnua X, la probabilidad que X se encuen-
tre entre a y b es especificada a traves de una integral. Esto implica que
la probabilidad que X toma un valor en un cierto intervalo no cambia
cuando se incluye o excluye puntos del intervalo. Esto tambien implica
que para variables aleatorias contnuas X, P (X = a) = 0 para todo a.
Note que una variable aleatoria contnua X no tiene una densidad unica.
Por ejemplo, si tenemos la densidad para X, entonces podemos cambiar
su densidad en un solo punto obteniendo otra densidad de X.
Quiza haya duda de porque las variables aleatorias contnuas dado una
densidad g existe. Es facil ver que si empezamos con un experimento
R con densidad g y definimos X como

X() = ,

entonces X es una variable aleatoria contnua con densidad g. Esta cons-


truccion es frecuente pero en construcciones de variables aleatorias mas
interesantes no siempre es de esta manera.

Definicion 5.1.4. La funcion

FX (x) = P (X x)

se denomina la funcion de distribucion de la variable aleatoria X.


El lema siguiente muestra la funcion de distribucion para una variable
aleatoria contnua.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 62

Lema 5.1.1. Suponga que X es una variable aleatoria donde su funcion de


distribucion puede ser escrito de la forma
Z x
FX (x) = f (y)dy,

para alguna densidad f . Entonces, X es una variable aleatoria contnua con


densidad f .
Demostracion. Primero probaremos que P (X = a) = 0 para todo a. Para
observar esto, note de los Axiomas de Pobabilidad y Teorema 3.3.1 que
P (X a) = P (X < a) + P (X = a)
y ademas,
P (X = a) = P (X a) P (X < a).
De  
[ 1
{X < a} = X a ,
n=1
n
esto sigue del Lema 4.1.1 que
P (X < a) = lm P (X a 1/n)
n
= lm FX (a 1/n)
n
= FX (a) = P (X a),
donde la ultima ecuacion resulta considerando la continuidad de la variable
aleatoria. Prosiguiendo con P (X = a) = 0.
Sea a b. Se puede escribir
{ : X( b)} = { : X( a)} { : a < X() b},
una union disjunta, luego se tiene
P (X b) = P (X a) + P (a < X b).
Eso conduce a
P (a < X b) = P (X b) P (X a)
Z b Z a
= f (x)dx f (x)dx

Z b
= f (x)dx,
a

como era necesario. Dado que P (X = a = 0) para todo a, podemos intercam-


biar los signos < y , lo que concluye la prueba del lema.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 63

Preguntarse por su distribucion de una variable aleatoria es tambien pre-


guntarse por su funcion de distribucion o su densidad.
Sea X una variable aleatoria contnua con funcion de distribucion FX y
suponga que FX es diferenciable en (a, b). Luego, por el teorema fundamental
de calculo Z b
d
FX (b) FX (a) = FX (t)dt.
a dt
Donde
P (a X b) = FX (b) FX (a),
esto muestra que f (t) = dtd FX (t) es una densidad de X en (a, b). Nuestras fun-
ciones de distribucion siempre seran diferenciables con algunos puntos finitos.
De este modo, podemos asumir que la densidad fX y la funcion de distribucion
FX son relacionados mediante
d
fX (x) = FX (x),
dx
para todo x, con algunos puntos finitos. Se presentan un numero de ejemplos.
Ejemplo 5.1.1. (Distribucion Uniforme). La variable aleatoria X se dice que
tiene una distribucion uniforme en [a, b] si su densidad esta dado por
1
f (x) = ,
ba
para a x b y f (x) = 0 en otro caso. Una variable aleatoria con una
distribucion uniforme en [a, b] puede ser interpretado como el resultado de
una conjunto de puntos aleatorios de [a, b].
La funcion de distribucion de X esta dado por

0 si x < a,
xa
FX (x) = si a x b,
ba
1 si x > b.
Para ver como calculamos las probabilidades, como ejemplo, tomemos
a = 0 y b = 2 con X con distribucion uniforme en (0, 2). Calculamos P (X > 12 )
como
  Z 2
1
P X> = f (x)dx
2 1
Z22
1 3
= dx = .
1 2 4
2
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 64

Ejemplo 5.1.2. (Distribucion Normal ). La variable aleatoria X tiene una


distribucion normal estandar si su densidad esta dado por
1 1 2
f (x) = e 2 x ,
2
para todo x R. La integral no puede ser integrada directamente, R pero exis-
te un metodo muy bueno en el calculo que permite calcular f (x)dx. El
metodo consiste de calcular el producto de dos integrales y usar coordenadas
polares:
Z Z Z Z
1 1 2 2
f (y)dy f (x)dx = e 2 (x +y ) dxdy
y= x= 2 y= x=
Z 2 Z
1 1 2
= re 2 r drd = 1.
2 =0 r=0
La variable aleatoria X se dice que tiene una distribucion normal con
parametros R y 2 > 0 si
1 12 (x)
2

f (x) = e 2
,
2 2
para todo x R. Note que para = 0 y 2 = 1, esto reduce la densidad a
una variable aleatoria normal estandar.
Ejemplo 5.1.3. (Distribucion Exponencial ). La variable aleatoria X tiene una
distribucion exponencial con parametro > 0 si su densidad esta dado por
 x
e si x 0,
f (x) =
0 si x < 0.
Note que Z
ex dx = ex |
0 = 1.
0
Las variables aleatorias exponenciales son usados frecuentemente para
modelar tiempos de llegada, tiempo de espera y tiempo de fracaso de equipos.
El esperanza de X puede ser calculado usando integracion por partes con
= x y dv = ex dx, luego
Z
E(X) = xex dx
0 Z
= [xex ]
0 + ex dx
0 
x 1 x
= [xe ]0 + e
0
1
= .

CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 65

Asimismo, usando integracion por partes, obtenemos


Z Z
E(X 2 ) = x2 ex dx = x2 d(ex )
0 Z 0
= [x2 ex ]
0 +2 xex dx
0
2
= ,
2
luego
1
var(X) = E(X 2 ) (E(X))2 = .
2
La propiedad mas importante de la distribucion exponencial es conocido
como propiedad de perdida de memoria,

P (X > s + t|X > s) = P (X > t),

donde s, t 0. Esto indica que la probabilidad de esperar un tiempo adicional


t (y un tiempo total s + t), dado que se espera un tiempo s, es el mismo que la
probabilidad de esperar un tiempo t. De este modo, la distribucion exponencial
fuerza que es mayor que s. Para observar porque ocurre la propiedad de perdida
de memoria, note que para todo t 0, se tiene
Z
P (X > t) = ex dx = ex |t =e
t
.
t

Luego,
P (X > s + t, X > s)
P (X > s + t|X > s) =
P (X > s)
P (X > s + t)
=
P (X > s)
e(s+t)
=
es
= et = P (X > t).

Ejemplo 5.1.4. Sea X el tiempo (en horas) necesario para reparar un sistema
de computadoras. Asumimos que X tiene una distribucion exponencial con
parametro = 1/4. Encuentre
(a) la funcion de distribucion acumulada de X.
(b) P (X > 4).
(c) P (X > 10|X > 8).
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 66

Solucion. (a) Es facil ver que la funcion de distribucion acumulada es


x
1 e 4 si x 0,

F (x) =
0 si otro caso.
4
(b) P (X > 4) = 1 P (X 4) = 1 F (4) = 1 (1 e 4 ) = e1 0.368. (c)
Por la propiedad de perdida de memoria, se tiene

P (X > 10|X > 8) = P (X > 8 + 2|X > 8) = P (X > 2)


= 1 P (X 2) = 1 F (2)
1 1
= 1 (1 e 2 ) = e 2 0.6065.

Ejemplo 5.1.5. (Distribucion Gamma). La distribucion Gamma esta definida


por Z
() = ey y 1 dy, > 0.
0
Por ejemplo, Z
(1) = ey dy = ey |
0 = 1.
0
Para > 1 podemos usar integracion por partes con = y 1 y dv = ey dy
para obtener
Z
() = ey y 1 |
0 + ey ( 1)y 2 dy
Z 0

= ( 1) ey y 2 dy
0
= ( 1)( 1).

Si n es un entero positivo mayor que 1, entonces aplicando la relacion anterior


repetidamente, obtenemos

(n) = (n 1)(n 1)
= (n 1)(n 2)(n 2)
.
= ..
= (n 1)(n 2) 3 2 (1) = (n 1)!

Luego, una variable aleatoria X tiene una distribucion Gamma con parametros
> 0 y > 0 si su densidad esta dado por
( x 1
e (x)
() si x 0,
f (x) =
0 si x < 0.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 67

Para observar que f (t) es una funcion de densidad de probabilidad, se tiene


Z
() = ex x1 dx
Z0 x 1
e x
1 = dx
()
Z0 y
e (y)1
1 = dy
0 ()
donde usamos la sustitucion x = y.
Considere el siguiente ejemplo: en una cierta ciudad, el consumo diario
de energa electrica esta en millones de kilowatt por hora y puede ser tratada
como una variable aleatoria con una distribucion Gamma con = 3 y = 0.5.
(a) Cual es la variable aleatoria?
(b) Si la planta de energa de esa ciudad tiene una capacidad diaria de 12
millones de kWh, Cual es la probabilidad que su oferta de energa
sera inadecuada en un cierto da? Plantee la adecuada integral pero no la
evalue.
Solucion. (a) La variable aleatoria es el consumo diario de energa en
kilowatt por hora. R 2 x R 2 x
1 1
(b) La probabilidad es 23 (3) 12 x e 2 dx =
16 12 x e
2 dx.

Ejemplo 5.1.6. (Distribucion Beta). La variable aleatoria X tiene una dis-


tribucion Beta con parametros a > 0 y b > 0 si su densidad esta dado por
 1 a1
x (1 x)b1 si 0 < x < 1,
f (x) = B(a,b)
0 si otro caso.
donde Z 1
B(a, b) = xa1 (1 x)b1 dx
0
es la funcion Beta.
Como ejemplo, verificaremos que la funcion de densidad Beta con parame-
tros (2, 4) de a es igual 1. Usando integracion por partes, se tiene
Z Z 1  1
1 1
f (x)dx = 20 x(1 x)3 dx = 20 x(1 x)4 (1 x)5 = 1.
0 4 20 0

5.2. Esperanza Matematica


EL concepto discutido en los primeros captulos se refera a los resultados
y definiciones con la teora discreta, en este captulo reemplazaremos la funcion
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 68

de probabilidad por densidad y la suma por integral. Para la esperanza de


una variable aleatoria seR hace la siguiente definicion, como usualmente se usa

decimos que la integral g(x)dx esta bien definida si sus partes positivas y
negativas no son ambos infinitos y con signos opuestos.
Definicion 5.2.1. La esperanza E(X) de una variable aleatoria X con den-
sidad f esta definida por
Z +
E(X) = xf (x)dx,

donde la integral esta bien definida.
Es posible que no se esta convencido de la definicion de esperanza. As ex-
plicaremos porque esta definicion es razonable. Por simplicidad, asumiremos
que la variable aleatoria contnua X es limitada y no negativa: 0 X < K
para algun entero K. El argumento sigue una aproximacion de X como sigue.
Sea, para algun entero n, Xn esta definido como
k k k+1
Xn = n si n X< n ,
lo que implica que Xn es una variable discreta. La esperanza de Xn puede ser
calculada como sigue
nK1
X k  
k
E(Xn ) = P Xn =
n n
k=0
nK1
X k k 
k+1
= P X<
n n n
k=0
nK1
X k Z (k+1)/n
= fX (x)dx
n k/n
k=0
Z K
= sn (x)fX (x)dx,
0
donde
k k k+1
sn (x) = n si n x< n .
Notamos que

Z Z

E(Xn ) xfX (x)dx = {sn (x) x}fX (x)dx


Z

|sn (x) x|fX (x)dx

1
Z
fX (x)dx
n
1
= ,
n
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 69

R
as que E(X
R n ) xfX (x)dx. Dado que Xn X cuando n R y
E(Xn ) xfX (x)dx, de este modo es razonable definir E(X) = xfX (x)dx.
La esperanza de una variable aleatoria puede tomar los valores .
Ejemplo 5.2.1. (Distribucion Exponencial ). Para una variable aleatoria X
con una distribucion exponencial con parametro se calcula la esperanza
como sigue Z
1
E(X) = xex dx = .
0
La esperanza de variables aleatorias comparten las propiedades de la dis-
creta.
Teorema 5.2.1. Cuando E(X) existe, se tiene E(aX + b) = aE(X) + b, para
todo a, b R.
Demostracion. Dado que definimos la esperanza va su densidad, necesitamos
calcular la densidad de Y = aX + b. Para esto, supondremos inicialmente que
a > 0 y escribimos,
 
yb
P (Y y) = P X
a
Z (yb)/a
= fX (x)dx

Z y  
1 ub
= fX du,
a a
tomando la sustitucion u = ax
 + b. De este modo, la densidad de Y evaluada
1 ub
en u esta dado por a fX a . Esto implica que la esperanza de Y es igual a
Z  
u ub
E(aX + b) = fX du
a a
Z
 
b
= + x fX (x)adx
a
Z Z
= bfX (x)dx + a xfX (x)dx

= b + aE(X),

tomando la sustitucion u b = xa.


Ejemplo 5.2.2. (Distribucion Uniforme). Recordando que una variable alea-
toria X tiene una distribucion uniforme en [a, b] si su densidad esta dado por
1
f (x) = ,
ba
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 70

para a x b, y f (x) = 0 en otro caso. Su esperanza esta dado por


Z b
x a+b
E(X) = dx = .
a ba 2
Ejemplo 5.2.3. (Distribucion Normal ). Recordando que la variable aleatoria
X tiene una distribucion normal estandar si su densidad esta dado por
1 1 2
f (x) = e 2 x ,
2
para todo x R. Es facil ver, usando la simetra de f alrededor de 0, que la
esperanza de X es igual a 0. La variable aleatoria X se dice que tiene una
distribucion normal con parametros R y 2 > 0 si
1 2
12 (x)
f (x) = e 2 ,
2 2
para todo x R. Luego, podemosencontrar la esperanza de X haciendo el
siguiente calculo, escribiendo = 2 . Sea
X
Y = .

Asumiendo que Y tiene una distribucion normal estandar, podemos escribir

P (Y y) = P (X y + )
Z y+
1 1 x 2
= e 2 ( ) dx
2Z
y
1 1 2
= e 2 v dv,
2
donde el ultimo paso sigue de la sustitucion v = (x )/. Esto muestra
que Y tiene una distribucion normal estandar, as que E(Y ) = 0. Dado que
X = Y + , del teorema anterior sigue E(X) = .

5.3. Vectores Aleatorios e Independencia


Como en la teora de variables aleatorias discretas, es necesario estudiar
la interaccion entre un numero de variables aleatorias, necesitamos ver los
vectores aleatorios.
Definicion 5.3.1. Considere un experimento con un espacio muestral y
densidad f .
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 71

1. La funcion X = (X1 , . . . , Xd ) de sobre Rd es llamado vector aleatorio


si
{ : ai Xi () bi , i = 1, . . . , d}
es un evento, para todo ai bi . Esto indica que la integral
de f sobre este conjunto existe.
2. Un vector aleatorio X = (X1 , . . . , Xd ) es llamado un vector aleatorio
contnuo con densidad (conjunta) g si
Z b1 Z bd
P (a1 X1 b1 , . . . , ad Xd bd ) = g(x1 , . . . , xd )dxd dx1 ,
a1 ad

para todo ai bi , i = 1, . . . , d.
Como en el caso de variables aleatorias contnuas, se tiene que (X1 , . . . , Xd )
es un vector aleatorio contnuo, su probabilidad es de la forma

P ((X1 , . . . , Xd ) A)
R
esta bien definida e igual a A f (x)dx; esto sigue de la propiedad elemental de
la Integral de Riemman.
Definicion 5.3.2. Definimos la funcion de distribucion (conjunta) de X =
(X1 , . . . , Xd ) como

FX (x1 , . . . , xd ) = P (X1 x1 , . . . , Xd xd ).

Nos referimos a la distribucion del vector como la distribucion conjunta


y la distribucion de su componente individual como la distribucion marginal.
Como en el caso discreto, conociendo la distribucion conjunta significa tambien
conocer la distribucion marginal de cada uno de los Xi s:
Teorema 5.3.1. Sea X = (X1 , . . . , Xd ) tiene funcion de distribucion conjunta
FX y densidad conjunta fX . Entonces, Xi es una variable aleatoria contnua
con densidad
Z Z Z
fXi (xi ) =
x1 = xi 1= xi +1=
Z
f (x1 , . . . , xd )dxd dxi+1 dxi1 dx1 .
xd =

En palabras, encontrar la densidad marginal de Xi es integrar todas las otras


variables de la densidad conjunta.
Demostracion. Ejercicio.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 72

Ejemplo 5.3.1. Sea (X, Y ) con densidad conjunta


1 x
f (x, y) = ey y ,
y
para x, y > 0 y f (x, y) = 0 en otro caso. La densidad marginal de Y puede
hallarse como
Z
fY (y) = f (x, y)dx

Z
1 y xy
= e dx = ey ,
0 y
para todo y > 0. Concluimos que Y tiene una distribucion exponencial con
parametro 1.
Ejemplo 5.3.2. Sea (X, Y ) con densidad conjunta
1
f (x, y) = , 0 < y x 1,
x
y f (x, y) = 0 en otro caso. Encontramos la densidad marginal de X integrando
y: Z x
fX (x) = f (x, y)dy = 1,
y=0

donde 0 < x 1. De este modo, X tiene una distribucion uniforme (0, 1]. La
densidad de Y es igual a
Z 1
fY (y) = f (x, y)dx = log y,
x=y

para 0 < y 1. Luego, no tenemos un nombre particular para esta distribu-


cion.
Recordemos que dos variables aleatorias discretas X e Y se dicen inde-
pendientes si
P (X = x, Y = y) = P (X = x)P (Y = y).
Esta definicion es tambien util para variables aleatorias contnuas. Para ob-
servar esto, recuerde que para alguna variable aleatoria contnua X se tiene

P (X = x) = 0,

para todo x. en el contexto contnuo exiten varios caminos para definir inde-
pendencia, haremos alguna eleccion arbitraria de alguna de ellas.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 73

Definicion 5.3.3. Las variables aleatorias X e Y , definidas en el mismo es-


pacio muestral, se dicen independientes si para todo x e y,
P (X x, Y y) = P (X x)P (Y y).
Lema 5.3.1. Las variables aleatorias contnuas X e Y son independientes
si y solamente si ellos tienen una densidad conjunta f (x, y) la cual puede
ser escrita como un producto f (x, y) = g(x)h(y) de una funcion de x y una
funcion de y (se dice que f factoriza).
Demostracion. Ejercicio.
Ejemplo 5.3.3. Suponga que X e Y tienen densidad conjunta f (x, y) = exy ,
para x, y > 0 y f (x, y) = 0 en otro caso. Entonces, f (x, y) factoriza como
f (x, y) = ex ey ,
concluimos que X e Y son independientes.

5.4. Funciones de Variables Aleatorias y Vectores


Dado una variable aleatoria X o un vector aleatorio (X, Y ) y una apro-
piada funcion g Cuando es g(X) o g(X, Y ) una variable aleatoria o vector
(contnuo o discreto)?Es X + Y una variable aleatoria cuando X e Y lo son?
Primeramente daremos una mirada al caso unidimensional. Sea X con
densidad f . Si deseamos calcular la funcion de distribucion de g(X) escribimos
P (g(X) y) = P (X g 1 (, y]).
Para esto hacemos en nuestro contexto, {X g 1 (, y]} es un conjunto
que recibe una probabilidad. Mas generalmente, deseamos que conjuntos de la
forma {X g 1 (a, b)} tenga una probabilidad bien definida para todo a b.
Esto es tpicamente el caso e ilustraremos esto con algunos ejemplos.
Ejemplo 5.4.1. Sea X una variable aleatoria contnua con funcion de dis-
d
tribucion diferenciable FX y densidad fX = dx FX (x). Sea g(x) = 2x + 3.
Entonces
P (a g(X) b) = P (a 2x + 3 b)
 
a3 b3
= P X
2 2
Z (b3)/2
= fX (x)dx
(a3)/3
b  
y3
Z
1
= fX dy,
a 2 2
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 74

la cual significa que g(X) es una variable contnua con fg(X) (y) = 12 fX ((y
3)/2).
Ejemplo 5.4.2. Sea X que tiene una distribucion normal estandar y sea
g(x) = x2 . Entonces, escribiendo (x) para la funcion de distribucion de X,
se tiene para 0 x y,

P (x g(X) y) = P ( x X y) + P ( y X x)

= ( y) ( x) + ( x) ( y)

= 2( y) 2( x),

desde (x) = 1 (x). Donde P (g(X) y) = P (0 g(X) y), diferen-


ciando se tiene
d 1 1
fg(X) (y) = 2 ( y) = e 2 y .
dy 2y
As g(X) es una variable aleatoria contnua con densidad
1 1
fg(X) (y) = e 2 y ,
2y
para todo y > 0 y fg(X) (y) = 0 para todo y 0.
En muchos casos de interes, esto es posible haciendo un calculo similar.
Esto es tambien posible escribiendo un resultado general como se indica pos-
teriormente, la misma que reduce el monto de trabajo en muchos casos.
Teorema 5.4.1. Sea X con densidad f y sea g : R R uno a uno y dife-
renciable con inversa diferenciable. Entonces g(X) es una variable aleatoria
contnua con densidad

1
d 1
fg(X) (y) = f (g (y)) g (y) ,
dy
para todo y en el rango de g y fg(X) (y) = 0 para otro caso.
Demostracion. Ver referencia.
Teorema 5.4.2. Sea (X1 , X2 ) con una densidad conjunta f y sea g : R2
R2 es uno a uno y escribimos g(x1 , x2 ) = (g1 (x1 , x2 ), g2 (x1 , x2 )) = (y1 , y2 ).
Dado que g es uno a uno, esto puede ser invertido como x1 = x1 (y1 , y2 ) y
x2 = x2 (y1 , y2 ). Sea J el Jacobiano de esta transformacion inversa (donde
asumimos diferenciabilidad). Luego,
x1 x2 x1 x2
J(y1 , y2 ) = .
y1 y2 y2 y1
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 75

Entonces, (Y1 , Y2 ) = g(X1 , X2 ) es un vector aleatorio contnuo con densidad


conjunta
f(Y1 ,Y2 ) (y1 , y2 ) = f (x1 (y1 , y2 ), x2 (y1 , y2 ))|J(y1 , y2 )|,
si (y1 , y2 ) esta en el rango de g y f(Y1 ,Y2 ) (y1 , y2 ) = 0 en otro caso.
Demostracion. Ver referencia.
Ejemplo 5.4.3. Suponga que X1 y X2 son variables aleatorias independien-
tes con distribucion exponencial con el mismo parametro . Calculamos la
densidad conjunta de (Y1 , Y2 ) donde
X1
Y 1 = X1 + X2 e Y2 = .
X2
Para encontrar esta densidad conjunta, sea g la funcion definida por g(x1 , x2 ) =
(x1 + x2 , x1 /x2 ) = (y1 , y2 ). La funcion inversa esta entonces dada por
y 1 y2 y1
x1 = e x2 = ,
1 + y2 1 + y2
y un simple calculo muestra que el Jacobiano es igual a
y1
J(y1 , y2 ) = .
(1 + y2 )2
Sustituyendo este ultimo en el teorema dado se tiene
 
y1 y 2 y1 |y1 |
f(Y1 ,Y2 ) (y1 , y2 ) = f(X1 ,X2 ) ,
1 + y2 1 + y2 (1 + y2 )2
y1
= 2 ey1 ,
(1 + y2 )2
para y1 , y2 0.
All son muchas mas piezas de la teora asociada con funciones de varia-
bles aleatorias. En el contexto discreto, cuando X e Y son variables aleatorias
independientes, los son tambien las funciones g(X) y h(Y ), para algunas fun-
ciones g y h. Cuando las variables aleatorias son contnuas tambien es el mismo
caso. Luego, para probar este resultado necesitamos una condicion llamada re-
gularidad.
Definicion 5.4.1. Una funcion g se dice regular si all existen numeros <
a1 < a0 < a1 < , con ai y ai cuando i , de este modo
g es contnuo y monotono en cada intervalo (ai , ai+a ).
Ejemplo 5.4.4. La funcion dada por x sin x es regular; todas las funciones
polinomicas son regulares. Un ejemplo de una funcion que no es regular es
x 1Q (x).
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 76

Teorema 5.4.3. Sea X1 , . . . , Xn variables aleatorias contnuas e independien-


tes y sea g1 , . . . , gn funciones regulares. Entonces, g1 (X1 ), . . . , gn (Xn ) son va-
riables aleatorias independientes.
Demostracion. Asuma por simplicidad que n = 2. Siguiendo de la regularidad
que para todo x R, escribimos
[
A1 := {y : g1 (y) x} = A1,i (x)
i

y [
A2 := {y : g2 (y) x} = A2,i (x),
i
como uniones de intervalos disjuntos. Ademas, podemos escribir
XX
P (g1 (X1 ) x, g2 (X2 ) y) = P (X1 A1,i (x), X2 A2,j (y))
i j
XX
= P (X1 A1,i (x))P (X2 A2,j (y))
i j
X X
= P (X1 A1,i (x)) P (X2 A2,j (y))
i j
= P (g1 (X1 ) x)P (g2 (X2 ) y),

lo que prueba el teorema.


Ejemplo 5.4.5. Suponga que X e Y son variables aleatorias independientes.
Entonces tambien sin x y cos y son independientes, donde x sin x y x
cos x son funciones regulares.

5.5. Suma de Variables Aleatorias


En esta seccion desarrollaremos la importancia de determinar la distribu-
cion de una suma de variables independientes en terminos de las distribuciones
individuales.

5.5.1. Caso Discreto


En esta seccion consideraremos solo sumas de variables aleatorias discre-
tas, guardando el caso de variables aleatorias contnuas para la siguiente sub-
seccion. Consideraremos aqu unicamente variables aleatorias discretas donde
sus valores son enteros no negativos. Entonces, sus funciones de probabilidad
son tambien definidas en esos enteros.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 77

Suponga que X e Y son dos variables aleatorias discretas independientes


con funcion de probabilidad pX (x) y pY (y) respectivamente. Deseamos deter-
minar la funcion de probabilidad de la variable aleatoria X + Y . Para hacerlo,
notemos primeramente que para algun entero n no negativo se tiene
n
[
{X + Y = n} = Ak
k=0

donde Ak = {X = k} {Y = n k}. Note que Ai Aj = para todo i 6= j.


Dado que los Ai s son disjuntos en pareja y X e Y son independientes, se tiene
n
X
P (X + Y = n) = P (X = k)P (Y = n k).
k=0

De este modo,
pX+Y (n) = pX (n) pY (n)
donde pX+Y (n) = pX (n) pY (n) se denomina convolution de pX y pY .
Ejemplo 5.5.1. Un dado es lanzado dos veces. Sea X e Y los resultados y sea
Z = X + Y la suma de esos resultados. Encuentre la funcion de probabilidad
de Z.
Solucion. Note que X e Y tienen la misma funcion de probabilidad
x, y 1 2 3 4 5 6
px 1/6 1/6 1/6 1/6 1/6 1/6
py 1/6 1/6 1/6 1/6 1/6 1/6
Luego, la funcion de probabilidad de Z es la convolution de pX y pY . De este
modo,
1
P (Z = 2) = pX (1)pY (1) =
36
2
P (Z = 3) = pX (1)pY (2) + pX (2)pY (1) =
36
3
P (Z = 4) = pX (1)pY (3) + pX (2)pY (2) + pX (3)pY (1) = .
36
Continuando de este modo encontramos P (Z = 5) = 4/36, P (Z = 6) =
5/36, P (Z = 7) = 6/36, P (Z = 8) = 5/36, P (Z = 9) = 4/36, P (Z = 10) =
3/36, P (Z = 11) = 2/36 y P (Z = 12) = 1/36.
Ejemplo 5.5.2. Sea X e Y dos variables aleatorias independientes de Poisson
con respectivos parametros 1 y 2 . Calcule la funcion de probabilidad de
X +Y.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 78

Solucion. Para cada entero positivo se tiene


n
[
{X + Y = n} = Ak
k=0

donde Ak = {X = k, Y = n k} para 0 k n. Ademas, Ai Aj = para


i 6= j. De este modo,

pX+Y (n) = P (X + Y = n)
Xn
= P (X = k, Y = n k)
k=0
n
X
= P (X = k)P (Y = n k)
k=0
n
X k1 2 nk
= e1 e 2
k! (n k)!
k=0
n
(1 +2 )
X k1 nk
2
= e
k!(n k)!
k=0
(1 +2 ) Xn
e n!
= k1 nk
2
n! k!(n k)!
k=0
(1 +2 )
e
= (1 + 2 )n .
n!
Luego, X + Y es una variable aleatoria de Poisson con parametro 1 + 2 .

5.5.2. Caso Contnuo


En esta seccion consideraremos la version contnua de suma de variables
aleatorias. Para entender este concepto veamos los siguientes ejemplos.
Ejemplo 5.5.3. Sea X e Y dos variables aleatorias con densidad de probabi-
lidad conjunta
 3x2y
6e si x > 0, y > 0,
fXY (x, y) =
0 si otro caso.
Encuentre la densidad de probabilidad de Z = X + Y .
Solucion. Integrando la densidad de probabilidad conjunta, se tiene
Z a Z ay
FZ (a) = P (Z a) = 6e3x2y dxdy = 1 + 2e3a 3e2a
0 0
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 79

y diferenciando con respecto a a se tiene,

fZ (a) = 6(e2a e3a )

para a > 0 y 0 en otro caso.


El proceso encima puede ser generalizado con el uso de convolutions la
cual definiremos. Sea X e Y dos variables aleatorias contnuas con funcion de
densidad conjunta fX (x) y fY (y) respectivamente. Asuma que ambos fX (x)
y fY (y) son definidos para todos los numeros reales. Entonces la convolution
fX fY de fX (x) y fY (y) es la funcion dada por
Z
(fX fY )(a) = fX (a y)fY (y)dy

Z
= fY (a x)fX (x)dx.

Esta definicion es analoga a la definicion, dado por el caso discreto, de la con-


volution de dos funciones de probabilidad. De este modo, no sera sorpresa que
si X e Y son independientes, entonces la funcion de densidad de probabilidad
de su suma es la convolution de sus densidades.
Teorema 5.5.1. Sea X e Y son dos variables aleatorias independientes con
funciones de densidad fX (x) y fY (y) definido para todo x e y.Entonces la suma
X +Y es una variable aleatoria con funcion de densidad fX+Y (a), donde fX+Y
es la convolution de fX y fY .
Demostracion. La funcion de distribucion acumulada es obtenida como

FX+Y (a) = P (X + Y a)
Z Z
= fX (x)fY (y)dxdy
x+ya
Z Z ay
= fX (x)fY (y)dxdy

Z Z ay
= fX (x)dxfY (y)dy

Z
= FX (a y)fY (y)dy.

CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 80

Diferenciando la ecuacion anterior con respecto a a se tiene


Z
d
fX+Y (a) = FX (a y)fY (y)dy
da
Z
d
= FX (a y)fY (y)dy
da
Z
= fX (a y)fY (y)dy

= (fX fY )(a).

Ejemplo 5.5.4. Sea X e Y son dos variables aleatorias independientes distri-


buidas uniformemente en [0, 1]. Calcule la distribucion de X + Y .
Solucion. Dado que

1 si 0 a 1,
fX (a) = fY (a) =
0 si otro caso,
por el teorema anterior
Z 1
fX+Y (a) = fX (a y)dy.
0

Luego, la integral es 0 si es menor que 0 a y 1 (i.e. menor que a 1


y a) y entonces es 1. As, si 0 a 1, entonces
Z a
fX+Y (a) = dy = a.
0

Si 1 < a < 2, entonces


Z 1
fX+Y (a) = dy = 2 a.
a1

De este modo,
a si 0 a 1,
fX+Y (a) = 2 a si 1 < a < 2,
0 si otro caso.

Ejemplo 5.5.5. Sea X e Y dos variables aleatorias independientes con distri-


bucion exponencial y con parametro comun . Calcule fX+Y (a).
Solucion. Se tiene
 a
e si 0 a,
fX (a) = fY (a) =
0 si otro caso.
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 81

Si a 0, entonces
Z Z a
fX+Y (a) = 2
fX (a y)fY (y)dy = ea dy = a2 ea .
0

Si a < 0 entonces fX+Y (a) = 0. De este modo,


 2 a
a e si 0 a,
fX+Y (a) =
0 si otro caso.
Ejemplo 5.5.6. Sea X e Y dos variables aleatorias independientes cada una
con distribucion normal estandar. Calcule fX+Y (a).
Solucion. Se tiene
1 x2
fX (a) = fY (a) = e 2 .
2
Por el teorema anterior se tiene
Z
1 (ay)2 y2
fX+Y (a) = e 2 e 2 dy
2
1 a2 (y a )2
Z
= e 4 e 2 dy
2
Z
1 a
 
2 1 2 a
= e 4 ew dw , w=y .
2 2
La expresion de llaves es igual a 1 dado que la funcion de densidad normal con
= 0 y = 12 . De este modo,

1 a2
fX+Y (a) = e 4 .
4

5.6. Distribucion y Esperanza Condicional


Suponga que X e Y tiene una densidad conjunta. Como en el caso discreto,
no podemos hablar de la distribucion condicional de Y dado X como en el caso
contnuo, recordemos que P (X = x) = 0 para todo x. Luego, no podemos
definir
P (Y y|X = x)
como en el caso discreto. Esto significa que la teora desarrollada en el Captulo
4 no es util aqu. Pero claramente se tiene una nocion (de carias que existen) de
distribucion condicional para el caso contnuo para aproximar a este problema.
Podemos empezar definiendo P (Y y|X = x) como el lmite de P (Y
y|x X x + ) para 0. Bajo ciertas condiciones, esta aproximacion
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 82

conlleva al siguiente calculo, asumiendo X e Y tiene densidad conjunta f (x, y):


P (Y y|x X x + )
lm P (Y y|x X x + ) = lm
0 0 P (x X x + )
R y R x+
f (u, v)dudv
= lm R x+x
0 fX (u)du
R yx
f (x, v)dv
lm
0 fX (x)
Z y
f (x, v)
= dv.
fX (x)

Luego, de esta aproximacion se concluye la definicion


Z y
f (x, v)
P (Y y|X = x) = dv,
fX (x)

y as que la distribucion condicional de Y dado X = x (como una funcion de


y) tiene densidad f (x, )/fX (x).
Ahora explicaremos una aproximacion diferente la cual es mas general y la
cual es motivada por algunos aspectos de la teora discreta la cual discutimos
inicialmente.
En el caso discreto se tiene
X
P (Y y) = P (Y y|X = x)P (X = x)
x
X
= FY |X (y|x)pX (x).
x

Esto sugiere que en el caso contnuo, se puede definir la funcion de distribu-


cion condicional de Y dado X = x, denotado por FY |X (y|x), implcitamente
mediante Z
FY |X (y|x)fX (x)dx = P (Y y).

Esto sugiere no necesariamente una aproximacion, no obstante, la relacion
anterior no asegura la unicidad de la distribucion condicional. Para ello es
necesario mas relaciones para garantizar la unicidad.
Sea X e Y variables aleatorias discretas. Se tiene el siguiente resultado.
Teorema 5.6.1. Para variables aleatorias discretas X e Y , la funcion de
distribucion condicional FY |X (|x) satisface
X
FY |X (y|x)P (X = x) = P (Y y, X A),
xA
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 83

para algun y y A. Asimismo, para un y fijo, all existe otra funcion (x) la
cual, para todo A, satisface
X
(x)P (X = x) = P (Y y, X A),
xA

entonces P (FY |X (y|x) = (X)) = 1.


Demostracion. Ver referencia.
Esto significa que en el caso discreto, se define FY |X (y|x) como una funcion
(x) la cual satisface
X
(x)P (X = x) = P (Y y, X A),
xA

para todo A.
Ahora definimos la distribucion condicional.
Definicion 5.6.1. Sea X con densidad fX e Y una variable aleatoria. Una
distribucion condicional de Y dado X es una familia de funciones FY |X (|x)
con las propiedades
1. para cada x, FY |X (|x) es la funcion de distribucion de una variable alea-
toria,
2. para cada y, FY |X (y|) es regular, como una funcion de x,
3. FY |X (y|x) satisface, para todo a < b,
Z b
FY |X (y|x)fX (x)dx = P (Y y, a < X < b).
a

Realmente, fue mucho trabajo formalizar la definicion de distribucion con-


dicional, ahora veremos un numero de ejemplos en la practica.
Ejemplo 5.6.1. Suponga que (X, Y ) tiene una funcion de densidad f y sea x
tal que fX (x) > 0. En este caso, la funcion de distribucion condicional de Y
dado X = x es Z y
f (x, v)
FY |X (y|x) = dv;
v= fX (x)
luego,
Z bZ y Z bZ y
f (x, v)
dvfX (x)dx = f (x, v)dvdx
a fX (x) a
= P (Y y, a < X < b),
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 84

como se requera. De este modo, segun el teorema anterior, la densidad condi-


cional de Y dado X = x puede ser definido por
f (x, y)
fY |X (y|x) = ,
fX (x)
si fX (x) > 0. Si fX (x) = 0 simplificamos para fY |X (y|x) = 0. La esperanza
condicional E(Y |X = x) esta definido por
Z
E(Y |X = x) = yfY |X (y|x)dy.

Esta formula es parecida a la formula discreta.
Teorema 5.6.2. Sea X e Y con densidad conjunta f . Entonces, podemos
calcular la esperanza de Y como
Z
E(Y ) = E(Y |X = x)fX dx.

Demostracion.
Z Z
E(Y ) = yf (x, y)dydx
Zx=
Zy=

= yfY |X (y|x)fX (x)dydx
Zx=

y=

= E(Y |X = x)fX (x)dx.


x=

Ejemplo 5.6.2. Suponga que la densidad conjunta de X e Y esta dado por


x
e y ey
f(X,Y ) (x, y) =
y
con x, y > 0. Calcule E(X|Y = y).
Solucion. La densidad conjunta se calcula como
f(X,Y ) (x, y)
fX|Y (x|y) =
fY (y)
f(X,Y ) (x, y)
= R
f(X,Y ) (x, y)dx
x
(1/y)e y ey
= R xy y
0 (1/y)e e dx
x
(1/y)e y
= R xy
0 (1/y)e dx
1 x
= e y .
y
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 85

Luego,
Z  Z 
x xy xy xy
E(X|Y = y) = e dx = xe |0 e dx
0 y 0
h i
xy xy
= xe + ye = y.
0

Ejemplo 5.6.3. Sea Y una variable aleatoria con densidad fY dado por
 1
y si y > 1,
fY (y) =
0 si otro caso.
donde > 1. Dado por Y = y, sea X una variable aleatoria variable aleatoria
con distribucion Uniforme en (0, y).
(a) Encuentre la distribucion marginal de X.
(b) Calcule E(Y |X = x) para cada x > 0.
Solucion. La funcion de densidad conjunta esta dado por
 1
+1 si 0 < x < y, y > 1
fX,Y (x) = y
0 si otro caso.
(a) Observe que X solo toma valores positivos, de este modo fX (x) = 0, x 0.
Para 0 < x < 1, luego se tiene
Z Z
1
fX (x) = fX,Y (x, y)dy = fX,Y (x, y)dy = .
1
Para x 1 se tiene

1
Z Z
fX (x) = fX,Y (x, y)dy = fX,Y (x, y)dy = .
x x
(b) Para 0 < x < 1 se tiene
fX,Y (x, y)
fY |X (y|x) = = +1 , y > 1.
fX (x) y
De este modo,
Z Z
y dy
E(Y |X = x) = dy = = .
1 y +1 1 y 1
Si x 1, entonces
fX,Y (x, y) x
fY |X (y|x) = = +1 , y > x.
fX (x) y
Luego,

x
Z
x
E(Y |X = x) = y +1 dy = .
x y 1
CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 86

Note que si X e Y son independientes, entonces pX|Y (x|y) = p(x) as que


E(X|Y = y) = E(X). Luego, para alguna funcion g(x), el valor esperado
condicional de g dado Y = y en el caso contnuo es:
Z
E(g(X)|Y = y) = g(x)fX|Y (x|y)dx

siempre que la integral exista. Para el caso discreto, se tiene una suma en vez
de la integral, la esperanza condicional de g dado Y = y es
X
E(g(X)|Y = y) = g(x)pX|Y (x|y).
x

La prueba de este resultado es identico al caso no condicional.


Note que X (y) = E(X|Y = y) denota la funcion de la variable aleatoria
Y evaluado en Y = y es E(X|Y = y). Claramente, X (x) es una variable
aleatoria y se denota por E(X|Y = y).

5.7. Ejercicios
Ejercicio 5.7.1. Sea X una variable aleatoria contnua con E(X) = 3/5 y
densidad f (x) = a + bx2 , para 0 < x < 1 y f (x) = 0 en otro caso. Calcule a y
b.
Ejercicio 5.7.2. Si X es una variable aleatoria exponencial con parametro
y c > 0. Muestre que cX tiene distribucion exponencial con parametro /c.
Ejercicio 5.7.3. Muestre que var(X) = E(X 2 ) (E(X))2 . Esta formula es
muy util para calculos.
Ejercicio 5.7.4. Usando el ejercicio anterior muestre que var(aX + b) =
a2 var(X).
Ejercicio 5.7.5. Encuentre la varianza de una variable aleatoria exponencial.
Ejercicio 5.7.6. Sea X e Y variables aleatorias con densidad conjunta f (x, y) =
exy , para x, y > 0 Son las variables X e Y independientes? Encuentre las
distribuciones marginales de X e Y y calcule su covarianza.
Ejercicio 5.7.7. Muestre que cuando X e Y son variables aleatorias indepen-
dientes y con densidad conjunta, entonces

var(X + Y ) = var(X) + var(Y ).


CAPITULO 5. VARIABLES Y VECTORES ALEATORIOS CONTINUOS 87

Ejercicio 5.7.8. Sea (X, Y ) con densidad conjunta

f (x, y) = 2 ey ,

para 0 x y, y f (x, y) = 0 en otro caso. Encuentre la densidad condicional


y esperanza condicional de Y dado X.
Ejercicio 5.7.9. Suponga que (X, Y ) tienen una densidad conjunta y que X
e Y son independientes. Muestre que fX|Y (x|y) = fX (x).
Captulo 6

Teoremas Lmite

6.1. Funciones Caractersticas


Las funciones caractersticas son una de las principales herramientas en
el estudio de convergencia debil. En esta seccion introduciremos las funciones
caractersticas y la derivacion de algunas de sus propiedades. Para el desarrollo,
primeramente necesitamos de la funcion exponencial

z
X zk
e =
k!
k=0

para todo z C. Esta funcion tambien esta definida por el lmite


 z n
lm 1 + = ez .
n n
Asimismo, anotamos la identidad importante
eit = cos t + i sen t.
Para una funcion continua f : (a, b) C, definimos
Z b Z b Z b
f (t)dt = Ref (t)dt + i Imf (t)dt,
a a a
donde Ref y Imf son la parte real e imaginaria, respectivamente. En parti-
cular se tiene que
Z b Z b Z b
it
e dt = cos tdt + i sen tdt
a a a
Luego, definimos para alguna variable aleatoria X,
E(eitX ) := E(cos tX) + iE(sen tX)
donde E(cos tX) y E(sen tX) son finitos.
Esta expresion es llamada la funcion caracterstica de X. La funcion ca-
racterstica esta fuertemente relacionada con la funcion generadora.

88
CAPITULO 6. TEOREMAS LIMITE 89

Definicion 6.1.1. Sea X una variable aleatoria. La funcion caracterstica de


X, denotada por X (t) : R C esta definida como
X (t) = E(cos tX) + iE(sen tX)
la cual denotaremos por E(eitX ).
As, si X es una variable aleatoria continua,
Z
X (t) = E(eitX ) = eitx fX (x)dx

si X es discreta, entonces
X
itX
X (t) = E(e )= eitx P (X = x)
x
R
La expresion E(eitX ) = eitx fX (x)dx es denominada la transformada de
Fourier de fX .
Para trabajar con funciones caractersticas, es necesario conocer las inte-
grales complejas. Algunas propiedades basicas de esas integrales estan dadas
en el siguiente teorema, donde f y g son variables complejas de valor real.
Ejemplo 6.1.1. Sea X una variable aleatoria con distribucion de Poisson con
parametro
e x
P (X = x) =
x!
calcule la funcion caracterstica de X.
Solucion.

X
itX
X (t) = E(e ) = eitx P (X = x)
x=0
x
X
itx e
X eitx x
= e =e
x=0
x! x=0
x!


X (eit )x it
1)
= e = e(e .
x=0
x!
Ejemplo 6.1.2. Sea X una variable aleatoria discreta con P (X = 1) = p y
P (X = 0) = 1 p. Calcule su funcion caracterstica.
Solucion.
X (t) = E(eitX )
X
= eitx P (X = x)
x
= e P (X = 0) + eit(1) P (X = 1)
it(0)

= (1 p) + eit p
CAPITULO 6. TEOREMAS LIMITE 90

Ejemplo 6.1.3. Sea X una variable aleatoria continua con distribucion nor-
mal estandar, calcule su funcion caracterstica.
Solucion.
Z x2 /2
itX itx e
X (t) = E(e ) = e dx
Z 2 Z
1 2 1 2
= eitx ex /2 dx = eitxx /2 dx
2 Z 2 Z

1 (2itxx2 )/2 1 1 2
= e dx = e 2 (x 2itx) dx
2 Z 2
Z
1 1 2 2 2 2 2 1 1 2 t2
= e 2 (x 2itx+i t i t ) dx = e 2 (xit) 2 dx
2 Z 2

1 t 2 1 2
= e 2 e 2 (xit) dx
2Z

t2 1 1 2
= e 2 e 2 y dy, y = x it
2
t2
= e 2

Ejemplo 6.1.4. Sea X una variable aleatoria continua con distribucion de


Laplace, calcule su funcion caracterstica.
Solucion. La funcion de densidad de Laplace esta definida como:
 1 x
1 |x| e si x 0
fX (x) = e = 21 x
2 2e si x < 0
luego,
Z +  
itx itx 1 |x|
X (t) = E(e ) = e e dx
2
1 0 itx x 1 + itx x
Z Z
= e e dx + e e dx
2 2 0
1 0 x(it+1) 1 + x(it1)
Z Z
= e dx + e dx
2 2 0
Z 0 0 Z d d
1 1
= lm ex(it+1) dx + lm ex(it1) dx
2 b b b 2 d+ 0 0
1 h i 0 1 h id
= lm eb(it+1) + lm ed(it1)
2 b
 b
2 d+ 0
1 1 1
=
2 it + 1 it 1
Rb Rb Rb
Teorema 6.1.1. 1. a (f + g)(t)dt = a f (t)dt + a g(t)dt
CAPITULO 6. TEOREMAS LIMITE 91

Rb Rb
2. a (f )(t)dt = a f (t)dt, para todo C
R R
b b
3. a f (t)dt a |f (t)|dt

Demostracion. Ver referencia.


Como ya se menciono anteriormente, la esperanza matematica de X =
X1 + iX2 se define como E(X) = E(X1 ) + iE(X2 ) donde E(X1 ) y E(X2 ) son
finitos.
Algo muy necesario que usaremos son las variables aleatorias de valor
complejo. Si tomamos n = 2 y sean las variables de valor complejo X =
X1 + iX2 e Y = Y1 + iY2 . Si asumimos que Xi e Yj son independientes (i, j =
1, 2) y sus esperanzas son finitas, entonces E(XY ) = E(X)E(Y ), donde este
resultado es conocido cuando X e Y son variables aleatorias independientes
de valor real. Luego,
E(XY ) = E((X1 + iX2 )(Y1 + iY2 ))
= E(X1 Y1 X2 Y2 + i(X2 Y1 + X2 Y2 ))
= E(X1 )E(Y1 ) E(X1 )E(Y2 ) E(X2 )E(Y2 ) + iE(X2 )E(Y1 )
= E(X)E(Y )
la prueba para n variables aleatorias es mas trabajosa, pero la idea es exacta-
mente la misma.
De este modo, es posible mostrar la funcion caracterstica de la suma de
variables aleatorias independientes con el uso de la integracion n-dimensional.
Teorema 6.1.2. 1. Si X y Y son independientes, entonces
X+Y (t) = X (t)Y (t)

2. Si a, b R, y Y = aX + b, entonces
Y (t) = eitb X (at)
Demostracion. 1. Por independencia de X y Y se tiene que E(XY ) =
E(X)E(Y ), luego
X+Y (t) = E(eit(X+Y ) ) = E(eitX eitY )
= E((cos tX + i sen tX)(cos tY + i sen tY ))
= E(cos tX cos tY sen tX sen tY )
+ iE(sen tX cos tY + cos tX sen tY )
= (E(cos tX) + iE(sen tX))(E(cos tY ) + iE(sen tY ))
= X (t)Y (t)
CAPITULO 6. TEOREMAS LIMITE 92

2. Podemos escribir

Y (t) = E(eit(aX+b) = E(eitb ei(at)X )


= eitb E(ei(at)X ) = eitb X (at)

Corolario 6.1.1. Sea X1 , X2 , . . . , Xn variables aleatorias independientes, y


sea Sn = X1 + X2 + . . . + Xn . Entonces
n
Y
Sn (t) = Xk (t).
k=1

Ejemplo 6.1.5. Muestre que si X1 , . . . , Xn son variables aleatorias indepen-


dientes cada una con distribucion de Poisson con parametro j para j =
1, 2, . . . , n. Entonces X = X1 + . . . + Xn tiene tambien distribucion de Poisson.
Solucion. Si Xi tiene distribucion de Poisson con parametro i , entonces

X (t) = X1 +...+Xn (t) = X1 (t)X2 (t) . . . Xn (t)


it it it
= e1 (e 1) e2 (e 1) . . . en (e 1)
it
= e(1 +2 +...+n )(e 1)
it
= e (e 1) .

En efecto, el resultado pertenece a la funcion caracterstica de una variable


Poisson para X con parametro = 1 + . . . + n . Note que si Xi tiene
distribucion de Poisson con parametro i , entonces E(Xi ) = V ar(Xi ) = i ,
luego E(X) = E(X1 + . . . + Xn ) = E(X1 ) + . . . + E(Xn ) = 1 + . . . + n = .
Corolario 6.1.2. Si X1 , X2 , . . . , Xn son variables aleatorias independientes y
equidistribuidas, entonces

Sn (t) = (X (t))n .

Como mencionamos inicialmente, la funcion caracterstica es de valor


complejo. De este modo,

|X (t)| = |E(eitX )| E(|eitX |) = E(| cos tX + i sen tX|)


p
= E( cos2 tX + sen2 tX) = E(1) = 1;

por lo tanto, |X (t)| 1. As, la funcion caracterstica existe para todo t y


para toda variable.
Teorema 6.1.3. Sea X una variable aleatoria. Entonces
1. |X (t)| X (0) = 1;
CAPITULO 6. TEOREMAS LIMITE 93

2. X (t) = X (t);
3. X (t) es uniformemente continua.
Demostracion. 1. De |X (t)| = |E(eitX )| 1 y X (0) = E(ei(0)X ) = E(e0 ) =
1 se concluye la demostracion.
2. Se tiene que

X (t) = E(eitX ) = E(cos tX + i sen tX)


= E(cos tX i sen tX)
= E(cos(t)X + i sen(t)X)
= E(eitX )
= X (t).

3. Ver referencias.

d
Teorema 6.1.4. Sea X y Y variables aleatorias. Si X = Y , entonces X =
Y.
Este es el teorema de unicidad para funciones caractersticas.
Teorema 6.1.5. Sea X una variable aleatoria. Entonces
d
X (t) es real X = X
(i.e., si y solo si la distribucion de X es simetrica).
Demostracion. Del Teorema 1.2(2) (con a = 1 y b = 0) y Teorema 1.3(2)

X (t) = X (t) = X (t).

Primeramente, supongamos que X es de valor real, con lo cual X (t) = X (t).


d
Seguidamente, X (t) = X (t) entonces X = X por Teorema 1.4.
d
Supongamos ahora que X = X. Entonces, X (t) = X (t) lo cual se
cumple X (t) = X (t), de este modo demostramos que X es de valor real.
Teorema 6.1.6. (Teorema de Convolution). Sea X1 y X2 variables aleatorias
independientes con densidad fX y fY respectivamente. Entonces Z tiene una
densidad fX+Y dada por:
Z Z
fX+Y (a) = fX (a y)fY (y)dy = fY (a x)fX (x)dx

CAPITULO 6. TEOREMAS LIMITE 94

Demostracion. La funcion de distribucion acumulada de Z = X + Y es como


sigue:
FX+Y = P (X + Y a)
ZZ
= fX (x)fY (y)dxdy
x+ya
Z Z ay
= fX (x)fY (y)dxdy

Z Z ay 
= fX (x)dx fY (y)dy

Z
= FX (a y)fY (y)dy

diferenciando,
Z
d
fX+Y (a) = FX (a y)fY (y)dy
da
Z
d
= FX (a y)fY (y)dy
da
Z
= fX (a y)fY (y)dy

similarmente para la variable Y :


FX+Y = P (X + Y a)
ZZ
= fX (x)fY (y)dxdy
x+ya
Z Z ax
= fY (y)fX (x)dxdy
Z
Z ax 
= fY (y)dy fX (x)dx

Z
= FY (a x)fX (x)dx

diferenciando,
Z
d
fX+Y (a) = FY (a x)fX (x)dx
da
Z
d
= FY (a x)fX (x)dx
da
Z
= fY (a x)fX (x)dx

concluyendo la demostracion.
CAPITULO 6. TEOREMAS LIMITE 95

Aplicaciones sucesivas del teorema de convolution muestra que si X1 , . . . , Xn


son independientes, cada una absolutamente continua, entonces X1 + + Xn
es absolutamente continua.

6.1.1. La transformada de Laplace


Sea f una funcion, su transformada de Laplace es denotada por F , simi-
larmente por la notacion L(f ) .
El dominio de la funcion f se denota por t y al dominio de la transformada
de Laplace F por s. Luego, la transformada de Laplace F = F (s) de una
funcion f = f (t) es definido por:
Z
L(f )(s) = F (s) = ets f (t)dt
0
la integral es evaluada con respecto a t.
Ejemplo 6.1.6. Encuentre la transformada de Laplace de la funcion constante
f (t) = 1, 0 t < . Desarrollando,
Z
F (s) = ets f (t)dt
Z0
= ets (1)dt
0
Z b
= lm ets dt
b+ 0
 ts b
e
= lm
b+ s 0
 bs
e0

e
= lm
b+ s s
luego, 
x 0 si x +
e
+ si x
en efecto,
ebs

0 si s > 0
lm =
b+ s + si s < 0
por tanto,
1
F (s) = , s > 0
s
en este ejemplo, el dominio de la transformada es el conjunto de todos los
enteros positivos.
El siguiente cuadro muestra la transformada de algunas funciones que
seran de gran utilidad en nuestro documento.
CAPITULO 6. TEOREMAS LIMITE 96

Cuadro 6.1: Transformadas de Laplace

f (t) F (s)
1
f (t) = 1, t 0 F (s) = s
,s > 0
1
f (t) = eat , t 0 F (s) = sa
,s > a
n!
f (t) = xn eat , x = 0, 1, . . . F (s) = (sa)n+1
,s > a
n!
f (t) = tn , t 0 F (s) = sn+1
,s 0
k
f (t) = sen(kt), t 0 F (s) = s2 +k2
s
f (t) = cos(kt), t 0 F (s) = s2 +k2
k
f (t) = senh(kt), t 0 F (s) = s2 +k2
, s > |k|
k
f (t) = cosh(kt), t 0 F (s) = s2 k2
, s > |k|

La transformada de Laplace es lineal

Si a es una constante y f y g son funciones, entonces


L(af ) = aL(f )
L(f + g) = L(f ) + L(g)
como ejemplo de la propiedad (4) del cuadro siguiente,
 
5 5 s! 360
L(3t ) = 3L(t ) = 3 6 = 6 , s > 0
s s
otro ejemplo para la propiedad (2) del cuadro,
1 s
L(e5t + cos(3t)) = L(e5t ) + L(cos 3t) = + 2 , s>5
s5 s +9

La transformada inversa

Sea f una funcion y f (t) = F la transformacion de Laplace. Entonces,


por definicion f es la transformada inversa de F , y se denota por L1 (F ) = f
Ejemplo 6.1.7. Considere L1 7s+15
 2 2
s +2 . La forma del denominador s + k
2

indica que la transformada de Laplace es de la forma seno y coseno, de este


modo
     
7s + 15 7s 15
L1 2
= L1 2 + L1 2
s +2 s +2 s +2
   
1 s 1 1
= 7L + 15L
s2 + 2 s2 + 2
!
15 2
= 7 cos( 2t) + L1
2 s2 + 2
15
= 7 cos( 2t) + sen( 2t).
2
CAPITULO 6. TEOREMAS LIMITE 97

Fracciones continuas

Considere la expresion racional


3s + 5 3s + 5
=
s2 3s 10 (s 5)(s + 2)
el denominador es factorizado y el grado del numerador es menor que uno del
denominador; de hecho, es exactamente menor en uno del grado del denomi-
nador. Poniendo la expresion matematica en fracciones continuas se tiene la
descomposicion con A y B constantes:
3s + 5 A B
= +
(s 5)(s + 2) s 5 s + 2
Para determinar A y B,
3s + 5 A B
(s 5)(s + 2) = (s 5)(s + 2) + (s 5)(s + 2)
(s 5)(s + 2) s5 s+2
luego,
3s + 5 = A(s + 2) + B(s 5)
= (A + B)s + 2A 5B
en efecto,
3 = A+B
5 = 2A 5B
por lo tanto, A = 20 1
7 y B = 7.
A modo de ejemplo, para determinar la transformacion inversa
   
3s + 5 A B
L1 = L1 +
(s 5)(s + 2) s5 s+2
   
1 1 1 1
= AL + BL
s5 s+2
20 5t 1 2t
= e + e .
7 7
Convolutions

Sean f y g funciones, la convolution de f con g es definido por


Z t
f g(t) = f ( )g(t )d
0
Como ejemplo, la convolution de sen (3t) con e5t resulta ser
Z t
5t
sen (3t)e = sen(3 )e5(t ) d .
0
CAPITULO 6. TEOREMAS LIMITE 98

Ejemplo 6.1.8. Sea f (t) = t2 y g(t) = 2t + 3 para encontrar f g,


Z t
f g(t) = f (t)g(t )d
0
Z t
= 2 (2(t ))d
0
Z t Z t
= (2t + 3) 2 d 3 d
0 0
4
5t
= + t3 .
12

Transformada de Laplace de convolution

La transformada de Laplace del producto de dos funciones es diferente al


producto de dos transformadas:

L(f g) 6= L(f )L(g)

La convolution si se cumple:

L(f g) = L(f )L(g)

Ejemplo 6.1.9. Calculando la integral,


Z t 
2(t ) 3
L e d = L(t3 e2t )
0
= L(t3 )L(e2t )
3!
= 4 , s>2
s (s 2)
Ejemplo 6.1.10. Sea X1 y X2 variables aleatorias independientes, X1 tie-
ne distribucion uniforme entre -1 y +1, y la variable X2 tiene distribucion
exponencial ex . Encuentre la densidad de X = X1 + X2 .
Solucion. Sea la densidad de X1 ,
 1
si 1 < x < 1
fX1 (x) = 2
0 otro caso
la densidad de X2 ,
ex si x > 0

fX2 (x) =
0 si x 0
CAPITULO 6. TEOREMAS LIMITE 99

La funcion caracterstica de X1 es calculada,


Z 1 Z 1  
itx itx itx 1
X1 (t) = E(e ) = e fX (x)dx = e dx
1 1 2
1
1 1 itx
Z 
1 1 itx
= e dx = e
2 1 2 it 1
1
= (eit eit )
2it
La funcion caracterstica de X2 es calculada,
Z
itY
X2 (t) = E(e ) = eity fY (y)dy
Z 0 Z
ity y
= e e dy = ey(it1) dy
0 0
Z b b
= lm ey(it1) dy
b+ 0 0
y(it1) b
 
e
= lm
b+ it 1 0
1
=
1 it
luego, del teorema 1.2 primera parte se tiene:

X1 +X2 (t) = X1 (t)X2 (t)


 
1 it 1
= (e eit )
2it 1 it
1
= (eit eit )
2it(1 it)
asumiendo que s = it, reemplazando en la ecuacion,
es es
X1 +X2 (s) =
2s(s + 1)
luego, de la tabla de transformada de Laplace, u(x) tiene transformada 1/s y
ex u(x) tiene transformada 1/(s + 1)u(x). Posteriormente, (1/2)(1 ex )u(x)
tiene transformada 1/(2s(s+1)) y (1/2)(1e(x+1) )u(x+1) tiene transformada
es /(2s(s + 1)) y (1/2)(1 e(x1) )u(x 1) tiene transformada es /(2s(s + 1)).
De este modo, sea la funcion h(x) la cual utiliza la transformada de Laplace
CAPITULO 6. TEOREMAS LIMITE 100

y la propiedades de Laplace,
es es
h(x) = X1 +X2 (s) =
2s(s + 1)
e s
es
=
2s(s + 1) 2s(s + 1)
1 1
= (1 e(x+1) )u(x + 1) (1 e(x1) )u(x 1)
2 2
Por lo tanto, h(x) representa la densidad de la variable aleatoria X =
X 1 + X2 .

6.2. Ley de los Grandes Numeros


6.2.1. Ley de los Grandes Numeros para Variables Aleatorias Dis-
cretas
Para la discusion de la ley de los grandes numeros, empezaremos por la
desigualdad llamada desigualdad de Chebyshev.
Teorema 6.2.1. (Desigualdad de Chebyshev) Sea X una variable alea-
toria discreta con valor esperado = E(X), sea  > 0 algun numero real
positivo. Entonces
V ar(X)
P (|X | )
2
Demostracion. Sea m(x) la funcion de distribucion de X. entonces la proba-
bilidad que X difiera de en al menos  esta dado por:
X
P (|X | ) = m(x)
|x|

)2 m(x) y este es tan grande como


P
conocemos que V ar(X) = x (x
X
(x )2 m(x)
|x|

luego,
X X
2 m(x) = 2 m(x)
|x| |x|

= 2 P (|X | )
de este modo,
V ar(X)
P (|X | )
2
CAPITULO 6. TEOREMAS LIMITE 101

Teorema 6.2.2. (Ley debil de los grandes numeros) Sea X1 , X2 , . . . , Xn


un proceso independiente con valor esperado finito = E(Xj ) y varianza finita
2 = V ar(Xj ). Sea Sn = X1 + X2 + . . . + Xn . Entonces para cada  > 0
 
Sn
P  0
n
cuando n . Equivalentemente,
 
Sn
P <  1
n
cuando n
Demostracion. Debido que X1 , X2 , . . . , Xn son independientes y tienen la mis-
ma distribucion, obtenemos:

V ar(Sn ) = V ar(X1 + X2 + . . . + Xn )
Xn
= V ar(Xj ) = n 2
j=1

y
2
 
Sn
V ar =
n n
asimismo,  
Sn
E =
n
Por la desigualdad de Chebyshev, para algun  > 0,
2
 
Sn
P  2

n n
cuando n para  fijo,
 
Sn
P  0
n
equivalentemente, cuando n para  fijo,
 
Sn
P <  1
n

Ejemplo 6.2.1. Sea X1 , X2 , . . . , Xn un proceso de Bernoulli con probabilidad


de suceso p = 0,3 y con probabilidad de fracaso q = 0,7. Sea Xj = 1 si el jth
CAPITULO 6. TEOREMAS LIMITE 102

resultado es suceso y 0 otro caso. Entonces, E(Xj ) = p = 0,3 y V ar(Xj ) =


pq = (0,3)(0,7) = 0,21.
Si An = Snn = X1 +X2n+...+Xn es la media de los Xi , entonces E(An ) = 0,3 y
V ar(An ) = 0,21
n
La desigualdad de Chebyshev muestra que si por ejemplo  = 0,1
0,21 21
P (|An 0,3| 0,1) =
n(0,1)2 n
as, si n = 100
P (|An 0,3| 0,1) 0,21
si n = 1000
P (|An 0,3| 0,1) 0,021
Ejemplo 6.2.2. Cuando jugamos ruleta en un casino, la probabilidad de per-
der es siempre mayor a la probabiliad de ganar. Suponga por simplicidad que
Ud. gana un sol con probabilidad 49/100 y pierde el mismo sol con probabilidad
51/100. Es posible modelar este experimento introduciendo variables aleatorias
independientes X1 , X2 , . . . con P (Xi = 1) = 49/100 y P (Xi = 1) = 51/100.
Un calculo simple muestra que E(Xi ) = 1/50. Su capital posterior a n juegos
en la ruleta sera Sn = X1 + X2 + . . . + Xn . La ley de los grandes numeros se
interpretara como  
Sn 1
P +  0
n 50
cuando n . De este modo, la media que quedar con la ganancia de Sn /n
sera -1/50, y la ganancia esperada de Sn sera n/50., as se estara muy pro-
bable a perder en dicho juego. Asimismo, la probabilidad que posterior a n
juegos Ud. resulte ganador, puede ser estimado como
   
Sn Sn 1 1
P (Sn > 0) = P > 0 P + .
n n 50 50
Teorema 6.2.3. (Ley fuerte de los grandes numeros). Sea X1 , X2 , . . . una
secuencia de variables aleatorias con distribucion identica, cada una con media
finita = E(Xi ). Entonces, con probabilidad 1,
X1 + X2 + . . . + X n

n
cuando n . Equivalentemente,
 
X1 + . . . + Xn
P lm = =1
n n
Demostracion. Ver referencia.
CAPITULO 6. TEOREMAS LIMITE 103

Ejemplo 6.2.3. Una moneda es lanzada 100 veces. El numero esperado de


caras es 50 y la desviacion estandar de caras es (100. 12 . 12 )1/2 = 5. Que indica
la desigualdad de Chebyshev acerca de la probabilidad que el numero de caras
se desviara del numero esperado 50 por 3 o mas de su desviacion estandar?
Solucion. Sea Xj = 1 si la moneda resulta cara y 0 en otro caso, luego
Sn = X1 + X2 + . . . + X100 el numero de sucesos en 100 lanzamientos de la
moneda.
Sn S100
n = 100 representa la media de los resultados individuales de los sucesos.
Luego, E( S100
100
) = E(X1 +X100
2 +...+X100 )
= 0,5 y V ar( S100
100
) = V ar(X1 +X 2 +...+X100 )
1002 =
0,25. En efecto,
 
S100 0,25
P 0,5 3 2 = 0.027.
100 3
Ejemplo 6.2.4. Sea Sn el numero de sucesos en n ensayos de Bernoulli con
probabilidad p para suceso en cada intento. Muestre, usando la desigualdad
de Chebyshev, que para algun  > 0
 
Sn p(1 p)
P p 
n n2
Solucion. Sea Sn = X1 +X2 +. . .+Xn el numero de sucesos en n ensayos;
luego, Snn es el promedio de los resultados individuales.
Posteriormente,
 
Sn E(Sn ) E(X1 + X2 + . . . + Xn ) p + p + . . . + p
E = = = =p
n n n n
y
 
Sn V ar(Sn ) V ar(X1 + X2 + . . . + Xn ) npq pq
var = = = =
n n2 n2 n2 n
usando la desigualdad de Chebyshev,
 
Sn pq p(1 p)
P p  2 = .
n n n2
Ejemplo 6.2.5. Sea X una variable aleatoria con E(X) = 0 y V ar(X) = 1
Que valor entero k asegura que P (|x| k) 0.01?
Solucion. De la desigualdad de Chebyshev,
var(X)
P (|X E(X)| k)
k2
reemplazando,
1
P (|X| k) = 0,01
k2
luego k = 10.
CAPITULO 6. TEOREMAS LIMITE 104

Ejemplo 6.2.6. Sea X alguna variable aleatoria que toma los valores de
0, 1, 2, . . . , n y E(X) = V ar(X) = 1. Muestre que para algun entero posi-
tivo k se cumple
1
P (X k + 1) 2
k
Solucion. De la desigualdad de Chebyshev:
V ar(X)
P (|X E(X)| k)
k2
1
P (|X 1| k) 2
k
1
P (X k + 1) 2 .
k
Ejemplo 6.2.7. Asuma que X1 , X2 , . . . , Xn son variables aleatorias indepen-
dientes con posible distribucion diferente y sea Sn su suma. Sea mk = E(Xk ),
k2 = V ar(Xk ) y Mn = m1 + m2 + . . . + mn . Asuma que k2 < R para todo k.
Pruebe que, para algun  > 0,
 
Sn Mn
P < 1
n n
cuando n .
Solucion. Similarmente,
 
Sn Mn
P  0
n n
cuando n .
De la desigualdad de Chebyshev,
 
Sn Mn
P  V ar(Sn /n)
n n 2
Asimismo,
 
Sn 1
E = E(Sn )
n n
1
= E(X1 + . . . + Xn )
n
m1 + . . . + mn
=
n
Mn
=
n
CAPITULO 6. TEOREMAS LIMITE 105

y la varianza,
 
Sn 1
V ar = V ar(Sn )
n n2
1
= 2 V ar(X1 + . . . + Xn )
n
12 + . . . + n2
=
n2
0
Mn
=
n2
utilizando la desigualdad de Chebyshev y para algun  > 0,
 
Sn Mn
P  V ar(Sn /n)
n n 2
Mn0
 
Sn Mn
P
 2 2
n n n
para  fijo  
Sn Mn
P  0
n n
cuando n .
Similarmente,  
Sn Mn
P < 1
n n
cuando n .

6.2.2. Ley de los Grandes Numeros para Variables Aleatorias Contnuas


Similarmente para el caso discreto, comenzamos el analisis con la desigual-
dad de Chebyshev.
Teorema 6.2.4. (Desigualdad de Chebyshev). Sea X una variable aleatoria
continua con funcion de densidad f (x). Suponga que X tiene valor esperado
finito = E(X) y varianza finita 2 = V ar(X).
Entonces para algun numero positivo  > 0 se tiene que
2
P (|X | ) 2

Demostracion. Similar caso discreto
Teorema 6.2.5. (Ley de los grandes numeros). Sea X1 , X2 , . . . , Xn un proceso
independiente con funcion de densidad continua f , valor esperado finito y
CAPITULO 6. TEOREMAS LIMITE 106

varianza finita 2 . Sea Sn = X1 + X2 + . . . + Xn la suma de los Xi . Entonces


para algun numero real  > 0 se cumple
 
Sn
lm P  = 0
n n
o equivalentemente,  
Sn
lm P <  = 1
n n
Demostracion. Ejercicio.
Como en el caso discreto, la ley de los grandes numeros dice que el valor
medio de n experimentos independientes tienden a su valor esperado cuando
n .
Ejemplo 6.2.8. Suponga que seleccionamos n numeros aleatorios del intervalo
[0, 1] con distribucion uniforme. Entonces, si Xi describe el i th eleccion, luego
Z 1
1
= E(X) = xdx =
0 2
Z 1
1
2 = V ar(X) = x2 dx 2 =
0 12
de este modo,
 
Sn 1
E =
n 2
 
Sn 1
V ar =
n 12n
y para algun  > 0,  
Sn 1 1
P 
n 2 12n2
Si seleccionamos  = 0,1 decimos que | Snn 12 | es menor que 0.1 es mejor que
1100
12n . Para n = 100 es cercano a 0.92 y para n = 10, 000 es mejor que 0.999.

Ejemplo 6.2.9. Sea X una variable aleatoria continua con = 10 y 2 =


100/3. Usando la desigualdad de Chebyshev, encuentre un lmite superior para
los siguientes:
(a) P (|X 10| 2)
(b) P (|X 10| 5)
(c) P (|X 10| 9)
(d) P (|X 10| 20)
CAPITULO 6. TEOREMAS LIMITE 107

Solucion.
(a) P (|X 10| 2) V ar(X)
4 = 8.33
V ar(X)
(b) P (|X 10| 5) 25 = 1.33
(c) P (|X 10| 9) V ar(X)
243 = 0.41
V ar(X)
(d) P (|X 10| 20) 1200 = 0.08
Ejemplo 6.2.10. Sea X una variable aleatoria continua con distribucion uni-
forme sobre el intervalo [0, 20].
(a) Encuentre la media y varianza de X.
(b) Calcule P (|X 10| 2), P (|X 10| 5), P (|X 10| 9), y P (|X 10|
20). Interprete.
Solucion. (a) Sea f (x) la funcion de densidad de la variable X, luego la
media de X sera:
Z 20
E(X) = xf (x)dx
Z0 20
1
= x dx
0 20 0
= 10

Posteriormente, la varianza de X es V ar(X) = E(X 2 ) E(X)2 . Calculando,


Z 20
2
E(X ) = x2 f (x)dx
Z0 20
1
= x2 dx
0 20 0
= 133,33

luego, V ar(X) = 33,33


(b) Calculando se tiene
(i) P (|X 10| 2) V ar(X)
4 = 8,33
V ar(X)
(ii) P (|X 10| 5) 25 = 1,33
(iii) P (|X 10| 9) V ar(X)
81 = 0,41
V ar(X)
(iv) P (|X 10| 20) 400 = 0,08
Del primer ejercicio indica que la desviacion de los valores de X respecto
de su media es muy alta, osea todos los valores de X deben ser mayores a
2. En el caso del tercer ejercicio, este indica que la probabilidad de que los
valores de X respecto de su media, es menor de 0.41, osea cerca del 50 % de
los valores de X respecto de su media son mayores de 9.
Bibliografa

[1] Ash, Robert (2008): Basic Probability Theory. Department of Mathema-


tics. University of Illinois. Dover Piblication. INC. Mineola, New York.
[2] De Oliveira Morgado, Augusto; Pitombeira de Carvalho, Joao Bosco; Pinto
Carvalho, Paulo Cezar; Fernandez, Pedro (1991): Analise Combinatorio e
Probabilidade. Ro de Janeiro. Brasil.
[3] Finan, Marcel (2013): A Probability Course for the Actuaries A Prepara-
tion for Exam P/1. Russellville, AR.
[4] Jacod, Jean; Protte, Phillip (2003): Probability Essentials. Universitext.
Springer.
[5] Barry, James (2004): Probabilidade: Um curso de Nivel Intermedio. IMPA,
Ro de Janeiro. Brasil.
[6] Meester, Ronald (2008): A Natural Introduction to Probability Theory.
Birkhauser. The Netherlands.
[7] Nascimento Magalhaes, Marcos (2006): Probabilidade e Variaveis
Aleatorias. EdUSP. Sao Paulo. Brasil.
[8] Ross, Sheldon (2010): A First Course in Probability. Prentice Hall. New
Jersey.

108