Está en la página 1de 267

Notas de Probabilidades y

Estadstica
Captulos 1 al 12

Vctor J. Yohai
vyohai@dm.uba.ar

Basadas en apuntes de clase tomados por Alberto Dboli, durante el ao 2003


Versin corregida durante 2004 y 2005, con la colaboracin de Mara Eugenia Szretter

5 de Marzo de 2008
2
ndice general

1. Espacios de Probabilidad. 7
1.1. Experimentos aleatorios. Algunas consideraciones heursticas. 7
1.2. Axiomas de probabilidad. . . . . . . . . . . . . . . . . . . . . 8
1.2.1. lgebras. . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2. Espacios de Probabilidad. . . . . . . . . . . . . . . . . 10
1.3. lgebra generada por una familia de conjuntos. . . . . . . 18
1.4. Espacios de probabilidad finitos o numerables. . . . . . . . . . 21
1.5. Probabilidad condicional. . . . . . . . . . . . . . . . . . . . . 23
1.6. Independencia de eventos. . . . . . . . . . . . . . . . . . . . . 25

2. Variable Aleatoria. 31
2.1. Concepto de variable aleatoria. . . . . . . . . . . . . . . . . . 31
2.2. Espacio de probabilidad asociado a una variable aleatoria. . . 32
2.3. Funcin de distribucin de una variable aleatoria. . . . . . . . 35

3. Variables aleatorias discretas y continuas. 41


3.1. Variables aleatorias discretas. . . . . . . . . . . . . . . . . . . 41
3.2. Ejemplos de distribuciones discretas. . . . . . . . . . . . . . . 43
3.2.1. Distribucin Binomial. . . . . . . . . . . . . . . . . . . 43
3.2.2. Distribucin Binomial Negativa (o Distribucin de Pas-
cal). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2.3. Distribucin Geomtrica. . . . . . . . . . . . . . . . . 46
3.2.4. Distribucin Hipergeomtrica. . . . . . . . . . . . . . . 47
3.2.5. Distribucin de Poisson. . . . . . . . . . . . . . . . . . 48
3.2.6. Grfico de la funcin de distribucin asociada a una
variable aleatoria discreta. . . . . . . . . . . . . . . . . 49
3.3. Variables aleatorias absolutamente continuas. . . . . . . . . . 49
3.4. Ejemplos de distribuciones continuas. . . . . . . . . . . . . . . 53
3.4.1. Distribucin uniforme en un intervalo. . . . . . . . . . 53
3.4.2. Generacin de distribuciones a partir de la distribu-
cin uniforme en [0,1] . . . . . . . . . . . . . . . . . . 55
3.4.3. Distribucin Normal N , 2 . . . . . . . . . . . . . . 59
3.4.4. Distribucin Exponencial. . . . . . . . . . . . . . . . . 62

3
3.5. Variables aleatorias mixtas. . . . . . . . . . . . . . . . . . . . 65

4. Vectores aleatorios. 69
4.1. Definicin de vector aleatorio. . . . . . . . . . . . . . . . . . . 69
4.2. Espacio de probabilidad inducido. . . . . . . . . . . . . . . . . 70
4.3. Funcin de distribucin conjunta de un vector aleatorio. . . . 71
4.4. Algunas propiedades de vectores aleatorios. . . . . . . . . . . 78
4.5. Independencia de variables aleatorias. . . . . . . . . . . . . . 80
4.5.1. Algunas consideraciones heursticas. . . . . . . . . . . 80
4.5.2. Conservacin de la independencia por transformaciones. 86
4.5.3. Independencia de vectores aleatorios. . . . . . . . . . . 86

5. Vectores aleatorios discretos y continuos. 89


5.1. Vectores aleatorios discretos. . . . . . . . . . . . . . . . . . . 89
5.1.1. Funcin de densidad de probabilidad conjunta. . . . . 91
5.1.2. Caracterizacin de la funcin de densidad marginal
asociada a un subconjunto de variables. . . . . . . . . 92
5.2. Ejemplos de vectores aleatorios con distribucin discreta. . . 94
5.2.1. Distribucin Multinomial. . . . . . . . . . . . . . . . . 94
5.2.2. Distribucin Hipergeomtrica Multivariada. . . . . . . 96
5.3. Vectores Aleatorios de tipo absolutamente continuo. . . . . . 98

6. Transformaciones de variables y vectores aleatorios. 105


6.1. Transformaciones montonas de variables aleatorias. . . . . . 105
6.1.1. Distribucin Normal . . . . . . . . . . . . . . . . . . . 107
6.2. Transformaciones inyectivas de vectores aleatorios. . . . . . . 109
6.3. Algunas aplicaciones a la distribucin normal. . . . . . . . . . 112
6.4. Transformaciones no inyectivas . . . . . . . . . . . . . . . . . 114
6.4.1. Distribucin Chi-cuadrado con un grado de libertad. 115
6.5. Algunas distribuciones complementarias. . . . . . . . . . . . . 116
6.5.1. Distribucin Gamma. . . . . . . . . . . . . . . . . . . 116
6.5.2. Distribucin beta. . . . . . . . . . . . . . . . . . . . . 121
6.5.3. Distribucin Chi-cuadrado. . . . . . . . . . . . . . . . 123
6.5.4. Distribucin t de Student . . . . . . . . . . . . . . . . 123

7. Esperanza Matemtica. 125


7.1. Integral de Riemann-Stieltjes. . . . . . . . . . . . . . . . . . . 125
7.1.1. Definicin de la integral. . . . . . . . . . . . . . . . . . 125
7.2. Definicin de Esperanza Matemtica. . . . . . . . . . . . . . . 128
7.2.1. Algunas consideraciones heursticas. . . . . . . . . . . 128
7.2.2. Esperanza de una variable aleatoria discreta. . . . . . 129
7.2.3. Definicin general de esperanza matemtica. . . . . . 129
7.2.4. Esperanza matemtica para una variable absolutamente
continua. . . . . . . . . . . . . . . . . . . . . . . . . . 133

4
7.2.5. Algunas propiedades de la esperanza matemtica . . . 134
7.3. Esperanza del producto de variables aleatorias independientes. 149
7.4. Una frmula general para la esperanza de una variable trans-
formada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.5. Esperanza de distribuciones simtricas . . . . . . . . . . . . . 154
7.6. Mediana de una variable aleatoria. . . . . . . . . . . . . . . . 158
7.7. Varianza de una variable aleatoria. . . . . . . . . . . . . . . . 161
7.7.1. Esperanzas y varianzas de distribuciones normales . . 163
7.8. Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
7.9. Distribucin Normal Bivariada. . . . . . . . . . . . . . . . . . 167

8. Teora de la Prediccin. 173


8.1. Error cuadrtico medio y predictores ptimos. . . . . . . . . . 173
8.2. Predictores constantes. . . . . . . . . . . . . . . . . . . . . . . 175
8.3. Predictores lineales. . . . . . . . . . . . . . . . . . . . . . . . 176

9. Esperanza y distribucin condicional. 179


9.1. Caso discreto. . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
9.2. Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
9.3. Caso continuo . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
9.4. Varianza condicional . . . . . . . . . . . . . . . . . . . . . . . 192

10.Convergencia de Variables Aleatorias. 195


10.1. Convergencia de funciones. . . . . . . . . . . . . . . . . . . . 195
10.2. Convergencia casi segura y en probabilidad. . . . . . . . . . . 196
10.3. Preservacin de la convergencia por funciones continuas. . . . 199
10.4. Ley dbil de los grandes nmeros. . . . . . . . . . . . . . . . . 204
10.5. Ley fuerte de los grandes nmeros. . . . . . . . . . . . . . . . 207
10.6. Teorema de la Convergencia Dominada . . . . . . . . . . . . . 213

11.Convergencia en Distribucin. 217


11.1. Definicin de convergencia en distribucin. . . . . . . . . . . . 217
11.2. Funciones caractersticas. . . . . . . . . . . . . . . . . . . . . 220
11.2.1. Variables aleatorias complejas. . . . . . . . . . . . . . 220
11.2.2. Definicin de funcin caracterstica y propiedades. . . 221
11.3. Momentos y funcin caracterstica. . . . . . . . . . . . . . . . 226
11.3.1. Derivacin dentro del signo esperanza. . . . . . . . . . 226
11.3.2. Derivadas de la funcin caracterstica y momentos. . . 227
11.4. Funcin caracterstica de una distribucin normal. . . . . . . 229
11.5. Teorema Central del Lmite. . . . . . . . . . . . . . . . . . . . 233
11.5.1. Caso de variables independientes idnticamente dis-
tribuidas . . . . . . . . . . . . . . . . . . . . . . . . . 233
11.5.2. Teorema Central del Lmite para variables no idnti-
camente distribuidas. . . . . . . . . . . . . . . . . . . . 236

5
11.5.3. Una Aplicacin a la Binomial. . . . . . . . . . . . . . . 240
11.6. Teorema de Slutsky. . . . . . . . . . . . . . . . . . . . . . . . 242
11.7. Aplicacin a intervalos de confianza. . . . . . . . . . . . . . . 253
11.8. Un teorema til de Convergencia en Distribucin . . . . . . . 255

12.Procesos de Poisson. 257


12.1. Procesos de punto. . . . . . . . . . . . . . . . . . . . . . . . . 257
12.2. Axiomtica de los Procesos de Poisson . . . . . . . . . . . . . 257
12.3. Distribucin de un proceso de Poisson. . . . . . . . . . . . . . 259
12.4. Tiempos de espera . . . . . . . . . . . . . . . . . . . . . . . . 264
12.5. Procesos de Poisson en el plano. . . . . . . . . . . . . . . . . 265

6
Captulo 1

Espacios de Probabilidad.

1.1. Experimentos aleatorios. Algunas considera-


ciones heursticas.
Se llamar experimento aleatorio a un experimento tal que (i) no se puede
preveer el resultado de un solo experimento, (ii) si se repite el experimento
varias veces, la frecuencia con la cual el resultado est en un conjunto A
converge a un nmero.

Ejemplo 1.1 El experimento consiste en arrojar una moneda. En este caso


el conjunto de todos los posibles resultados ser

= {0, 1},

0 corresponde a ceca y 1 a cara. Si se repite experimento muchas veces, la


frecuencia con que sale por ejemplo cara, tiende a 0.5

Ejemplo 1.2 El experimento consiste en lanzar un dado. En este caso el


conjunto de todos los posibles resultados ser

= {1, 2, 3, 4, 5, 6}.

Si se tira el dado muchas veces, por ejemplo la fecuencia con que el resultado
est en el conjunto A ser #A/6, donde #A representa el cardinal de
A.

Ejemplo 1.3 El experimento consiste en lanzar una jabalina y registrar la


marca obtenida. En este caso el conjunto de todos los posibles resultados ser
el conjunto de reales positivos y la frecuencia con que el resultado est, por
ejemplo en un intervalo [a, b], depender del atleta.

7
Ejemplo 1.4 Se elige al azar un alumno de primer grado de un colegio y
se anota su peso en kilos, x y la altura en metros y En este caso

= {(x, y) R2 : x > 0, y > 0}.

Como puede apreciarse los resultados pueden conformar un conjunto


finito o infinito de cualquier cardinalidad.
Supongamos ahora que se hacen n repeticiones del experimento aleatorio.
Si A , sea Cn (A) el nmero de veces que el resultado est en A, luego la
frecuencia relativa del conjunto A se define por
Cn (A)
fn (A) = .
n
En el caso de un experimento aleatorio, cuando n crece, esta frecuencia se
aproxima a un nmero que se llamar probabilidad de A y que denotaremos
por P (A).
Claramente
0 fn (A) 1,
de manera que
P (A) = lm fn (A) ,
n
y entonces
0 P (A) 1.

Como veremos, en algunos casos, no se puede definir la probabilidad para


todo subconjunto de resultados.
Para precisar este concepto y estudiar sus propiedades formularemos la
teora axiomtica de probabilidades.

1.2. Axiomas de probabilidad.


En primer lugar definiremos algunas propiedades que tendr la familia
de todos los conjuntos para los cuales est definida su probabilidad. Esto
nos lleva al concepto de -lgebra.

1.2.1. lgebras.
Sea un conjunto. Definiremos el conjunto partes de , por P() =
{A : A }. Dado un conjunto A, denotaremos por Ac el complemento de
A.

Definicin 1.1 Sea una familia A de subconjuntos de , es decir A


P().Se dice que A es una -lgebra sobre si satisface las siguientes
propiedades.

8
A1. A.
A2. Dado A A se tiene Ac A.

A3. Sea A1 , . . . , An , . . . una sucesin de elementos de A. Entonces



[
A= Ai A.
i=1

Propiedades de lgebras

Propiedad 1.1 A.

Demostracin. Resulta de A1 y A2. 2

Propiedad 1.2 Si A1 , ..., An son elementos de A entonces


n
[
Ai A.
i=1

Demostracin.
Para ver esto supongamos que Ai A ; i = 1, 2, ..., n. Probaremos que
n
[
A= Ai A.
i=1

Definamos una sucesin numerable (Bi )i1 agregando el conjunto de la


siguiente manera

Bj = Aj , 1 j n,
Bk = si k > n.
S

Entonces por ser A una -lgebra se tendr que Bi A y por lo tanto
i=1
n
[
[
A= Ai = Bi A. 2
i=1 i=1

Propiedad 1.3 Si A es una -lgebra, y A1 , ..., An , ... es una sucesin de


T

elementos de A entonces A = Ai A.
i=1

S

Demostracin. Esto resulta de que A = ( Aci )c . 2
i=1

9
Propiedad 1.4 Si A es una -lgebra, y A1 , ..., An son elementos de A
T
n
entonces A = Ai A.
i=1

Demostracin. Se demuestra igual que la Propiedad 1.2. 2

Propiedad 1.5 Si A es una -lgebra, y A1 y A2 son elementos de A,


entonces A1 A2 A.

Demostracin. En efecto A1 A2 = A1 Ac2 A. 2

Propiedad 1.6 La lgebra sobre ms chica posible es

A0 = {, },

y la ms grande es
A1 = P () .
Luego si A es una -lgebra sobre , se tendr

A0 A A1 . 2

Observacin. En el contexto de la teora de la medida, un elemento de la


lgebra A se llama un conjunto medible.
Como veremos en la prxima subseccin, la probabilidad estar definida
para los elementos de una lgebra.

1.2.2. Espacios de Probabilidad.


Definicin 1.2 Un espacio de probabilidad es una terna (, A, P ) donde
es un conjunto, A es una -lgebra sobre , y P : A [0; 1] es una
funcin que satisface:

1. P () = 1.

2. ( -aditividad). Si (An )n1 es una sucesin de elementos de A disjuntos


dos a dos (Ai Aj = , si i 6= j), entonces

[
X
P( Ai ) = P (Ai ).
i=1 i=1

Observaciones.

10
1. El conjunto se denomina espacio muestral y se interpreta como el
conjunto de resultados posibles del experimento, los elementos de A
se denominan eventos, y corresponden a los subconjuntos de para
los cuales la probabilidad est definida. Finalmente P se denomina
funcin de probabilidad, y dado A A, P (A) se interpreta como la
probabilidad de que el resultado del experimento est en A.

2. En el contexto de la teora de la medida, la terna (, A, P ) corresponde


a un espacio de medida donde la medida P asigna el valor uno al
espacio total.

3. Si queremos formalizar la idea intuitiva de la probabilidad como lmite


de la frecuencia relativa es importante observar que la frecuencia
tiene la propiedad de -aditividad. En principio veamos que debera
ser aditiva
Sean A1 , A2 , ..., Ak eventos disjuntos tomados de a dos, esto es, Ai
Aj = si i 6= j entonces
k ! S
[ Cn k
A Pk k
X
i
i=1 i=1 Cn (Ai )
fn Ai = = = fn (Ai ) .
n n
i=1 i=1

La -aditividad ahora se deduce pasando al lmite.

Ejemplos de espacios de probabilidad.

Ejemplo 1.5 Sea un conjunto, A = P(). Dado x0 , definimos:


A
1 si x0 A
P (A) =
0 si x0
/ A.
P se denota x0 y se dice que la probabilidad est concentrada en x0 o bien
que el nico punto de probabilidad positiva es x0 .

Ejemplo 1.6 Sea = {x1 , x2 , ..., xn , ...} cualquier conjunto numerable,


A = P(X), y sea ai 0, i = 1, 2, ..., una sucesin tal que

X
ai = 1.
i=1

Definimos para todo A


X
P (A) = ai
{i: xi A}

En este caso P define una probabilidad y est completamente determinada


por las probabilidades ai asignadas a cada elemento xi .

11
Propiedades de la funcin de probabilidad.

Propiedad 1.7 P () = 0.

Demostracin. Es inmediata, pues si tomamos Ai = , para todo i N


entonces por la -aditividad
!
[ X X
0 P () = P Ai = P (Ai ) = P () 1,
i=1 i=1 i=1

y esto slo se cumple en el caso de que P () = 0. 2

S
n Pn
Propiedad 1.8 Sean A1 , ...., An eventos disjuntos. Luego P ( Ai ) = i=1 P (Ai ) .
i=1

Demostracin. Tomemos la sucesin Bj = Aj si j = 1, ..., n y Bj = si


j > n. Aplicando la propiedad de aditividad se obtiene el resultado. 2

Propiedad 1.9 Si A A entonces

P (Ac ) = 1 P (A) .

Demostracin. Esto sale teniendo en cuenta que A y Ac son disjuntos y

1 = P () = P (A Ac ) = P (A) + P (Ac ) . 2

Propiedad 1.10 Consideremos dos eventos A1 y A2 . Entonces

P (A1 A2 ) = P (A1 ) P (A1 A2 ) .

Demostracin. Como

A1 = (A1 A2 ) (A1 A2 )

se obtiene
P (A1 ) = P (A1 A2 ) + P (A1 A2 ),
y de ah sigue el resultado. 2

Proposicin 1.1 Si A1 , A2 son eventos y A2 A1 entonces

P (A1 A2 ) = P (A1 ) P (A2 ).

y adems

12
P (A2 ) P (A1 ).
Demostracin. Por la Propiedad 1.1 y el hecho de que A1 A2 = A2 tenemos

P (A1 A2 ) = P (A1 ) P (A1 A2 )


= P (A1 ) P (A2 )

Adems de aqu resulta

P (A1 ) = P (A2 ) + P (A1 A2 )


P (A2 ). 2

Propiedad 1.11 Si A1 , A2 son eventos entonces

P (A1 A2 ) = P (A1 ) + P (A2 ) P (A1 A2 ) .

Demostracin. Escribimos A1 A2 como la siguiente unin disjunta

A1 A2 = (A1 A2 ) (A1 A2 ) (A2 A1 ) .

Entonces usando la Propiedad 1.10 resulta

P (A1 A2 ) = P (A1 A2 ) + P (A1 A2 ) + P (A2 A1 ) =


= P (A1 ) P (A1 A2 ) + P (A1 A2 )
+ P (A2 ) P (A1 A2 )
= P (A1 ) + P (A2 ) P (A1 A2 ) . 2

Propiedad 1.12 Sean Ai A, i = 1, 2, ..., k. Entonces


k
! k
[ X
P Ai P (Ai ) .
i=1 i=1

Demostracin. De la Propiedad 1.11 se obtiene

P (A1 A2 ) = P (A1 ) + P (A2 ) P (A1 A2 ) ,

y el resultado vale para k = 2. El resto de la demostracin se hace por


induccin y se deja como ejercicio.

13
S
Propiedad 1.13 (-subaditividad) Sea (An )n1 A y A = n1 An . Entonces


X
P (A) P (An ).
n=1

Demostracin. Definamos

B0 = ,
B1 = A1 ,
B2 = A2 A1 ,
B3 = A3 (A1 A1 ),
..
.
n1
[
Bn = An Ai .
i=1

Luego es inmediato que los Bi son disjuntos dos a dos y



[
A= Bn .
n=1

Por la aditividad y el hecho de que Bn An , resulta P (Bn ) P (An )


y entonces
X
X
P (A) = P (Bn ) P (An ) . 2
n=1 n=1

Propiedad 1.14 Sea (An )n1 una sucesin de eventos tales que An An+1
para todo n y
[
A= Ai .
i=1

Luego
P (A) = lm P (An ).
n+

Demostracin. Como la sucesin es creciente entonces podemos transformar


la unin en una unin disjunta definiendo: B0 = A0 = , B1 = A1
A0 , B2 = A2 A1 , ...., Bk = Ak Ak=1 , ... Luego

[
A= Bk ,
k=1

14
y por lo tanto usando la aditividad y la Propiedad 1.1 se tiene

X n
X n
X
P (A) = P (Bk ) = lm P (Bk ) = lm P (Ak Ak1 )
n n
k=1 k=1 k=1
n n
!
X X
= lm P (Ak ) P (Ak1 ) = lm P (An ) . 2
n n
k=1 k=1

Propiedad 1.15 Sea (An )n1 una sucesin de eventos tal que An An+1
para todo n y

\
A= Ai .
i=1
Entonces
P (A) = lm P (An ).
n+

Demostracin. Sea Bn = Acn . Luego (Bn )n1 es una sucesin creciente de


S

eventos y Ac = Bi . Luego por la propiedad anterior tenemos
i=1

1 P (A) = P (Ac )
= lm P (Bn )
n+
= lm (1 P (An ))
n+
= 1 lm P (An ),
n+

de donde se obtiene el resultado deseado. 2

Definicin 1.3 Se llama lmite superior de una sucesin de conjuntos (An )n1
al conjunto
\ [
A= An ,
k=1 n=k
y lmite inferior de la sucesin al conjunto
\
[
A= An .
k=1 n=k

Adems
c !c

[ \ \
\
(A) =
c
An = An =
k1 n=k k1 n=k

\ [
= Acn = Ac .
k1 n=k

15
Es decir el complemento del lmite inferior de la sucesin (An )n1 es el lmite
superior de la sucesin (Acn )n1 .

Propiedad 1.16 (Caracterizacin de los lmites superiores e infe-


riores)

(i) Sea
A = { : est en infinitos conjuntos An }.
Luego A = A .

(ii) Sea

A = { : est en todos los An salvo en un nmero finito}.

Luego A = A .

(iii) A A

Demostracin.

(i) Supongamos que A entonces para todo k N se tiene que


S

/ A entonces se
An de manera que A. Recprocamente si
n=k
encuentraen a lo sumo un nmero finito de conjuntos An . Supongamos
que An0 sea el ltimo en el que est, es decir si n > n0 entonces
/ An
para todo n > n0 de manera que

[

/ An
n=n0 +1

y entonces
/ A.

(ii) Consideremos la sucesin de los complementos, es decir (Acn )n1 . Por


la observacin hecha anteriormente y el punto (i) se tiene que

A = (Ac )c
= { : pertence a infinitos Acn }c
= { : no pertenece a infinitos Acn }
= { : pertenece a lo sumo a un nmero finito de conjuntos Acn }
= { : pertenece a todos a todos los An salvo un nmero finito}
= A .

(iii) Se obtiene del hecho de que claramente A A . 2

16
En lo que sigue lmn an y lmn an denotarn respectivamente el
lmite superior e inferior de la sucesin an .

Propiedad 1.17 Dada una sucesin de eventos (An )n1 , se tiene



(i) P A lmn P (An ) .

(ii) P (A) lmn P (An ) .

(iii) Se dice que existe el lmite de la sucesin (An )n1 de conjuntos sii
A = A . En tal caso se tiene

P A = P (A) = lm P (An ) .
n

Demostracin.

(i) Como lo hicimos anteriormente consideremos


[
\
A= Ai
k=1 ik

y escribamos [
Bk = Ai .
ik

Entonces la sucesin (Bn )n1 es decreciente y


\
A= Bk .
k1

Luego, como para todo i k se tiene Ai Bk , podemos escribir

P (Bk ) sup{P (Ai )}


ik

y entonces
inf {P (Bk )} inf sup{P (Ai )}
k1 k1 ik

Luego, como P (Bk ) es decreciente, se tiene



P A = lm P (Bk ) = inf {P (Bk )}
k k1

inf sup{P (Ai )} = lmi P (Ai ) .


k1 ik

(ii) Se deja como ejercicio.

17
(iii) De (i) y (ii) tenemos que

P (A) lmn P (An ) lmn P (An ) P A .

Luego si A = A, resulta P (A) = P A y entonces

P (A) = lmn P (An ) = lmn P (An ) = P A .

Luego P (A) = P A = lmn P (An ) . 2

1.3. lgebra generada por una familia de con-


juntos.
En general no se puede tomar como lgebra A a P() para definir el
espacio de probabilidad. Esto siempre es posible si es a lo sumo numerable.
El siguiente teorema muestra que dada una familia = de subconjuntos de ,
existe una menor lgebra que contiene a =.

Teorema 1.1 Dado un conjunto y una familia = de subconjuntos de


, existe una lgebra A sobre tal que (i) = A y (ii) Si A es otra
lgebra sobre tal que = A, entonces A A. Se dice entonces que A
es la lgebra sobre generada por =.

Demostracin. Denotaremos a la familia de todas las lgebras sobre que


contienen a = por R . Entonces

R = {A : A es una lgebra sobre y A =}.

Claramente R es no vaca, ya que P() R. Definamos ahora


\
A = A.
AR

Primero mostraremos que A es una lgebra sobre .


Veamos que A .En efecto, A, para toda A R, luego A .
Sea ahora A A , mostraremos que Ac A . En efecto, como A A,
para toda A R, se tiene Ac A, para toda A R. Luego Ac A .
Sea una sucesin numerable de eventos A1 , A2 , ...., An , ... que estn en
A . Mostraremos que
i=1 Ai A . Dado A R, se tiene Ai A para todo
i, y luego i=1 Ai A tambin. Luego

i=1 Ai A, para todo A R y
entonces
[ \
Ai A = A .
i=1 AR

Esto prueba que A


es una -lgebra. Por otro lado si A es una lgebra
y A =, entonces A R, y esto implica que A A. 2

18
lgebra de Borel sobre los reales. Si tenemos un espacio de prob-
abilidad cuyo espacio muestral es el conjunto de nmeros reales R, parece
natural que la lgebra contenga los conjuntos de la forma (, x].Esto
permitir calcular la probabilidad de que el resultado del experimento aleato-
rio correspondiente sea menor o igual que x. Esto motiva la siguiente defini-
cin.

Definicin 1.4 La lgebra de Borel sobre R, que denotaremos por B, es


la lgebra sobre R generada por los conjuntos de la forma Ax = (, x],
para todo x R. Un conjunto B B se denomina boreliano.

Propiedades de los borelianos.

Propiedad 1.18 Todo intervalo (a, b] es un boreliano.

Demostracin. Como

(a, b] = (, b] (, a],

por la Propiedad 1.5 (a, b] es un boreliano 2

Propiedad 1.19 Dado x R, {x} B.

Demostracin. Para esto se observa que para todo n N


1
In = (x , x] B.
n
Puesto que
1
x x
n
resulta que

\
{x} = In B,
n=1
y el resultado se obtiene por las propiedades 1.18 y 1.12. 2

De las propiedades 1.18 y 1.19, se deducen inmediatamente las propiedades


1.20-1.22

Propiedad 1.20 (a, b) = (a, b] {b} B.

19
Propiedad 1.21 [a, b] = {a} (a, b] B.

Propiedad 1.22 [a, b) = {a} (a, b) B.

Propiedad 1.23 Todo abierto es un boreliano

Demostracin. Sea G R un abierto. Para todo x G existe un intervalo


(ax , bx ) tal que x (ax , bx ) G con ax y bx racionales. Por lo tanto G puede
escribirse como la unin numerable de borelianos
[
G= (ax , bx ),
xG

y por lo tanto G B. 2

Propiedad 1.24 Todo cerrado es un boreliano

Demostracin. Sea F un cerrado. Entonces F c = G es un abierto y por


Propiedad 1.23 se tiene que F c B. Ahora por ser lgebra se obtiene
que
F = (F c )c B. 2

lgebra de Borel en Rn .

Definicin 1.5 La lgebra de Borel sobre Rn es la lgebra sobre Rn


generada por los conjuntos de la forma

A(x1 ,x2 ,...,xn ) = (, x1 ] (, x2 ] ... (, xn ],

donde (x1 , ..., xn ) es una n-upla de nmeros reales. Ser denotada por Bn .

Observacin. De manera anloga al caso de la lgebra de Borel sobre R,


se pueden mostrar las propiedades 1.25-1.26 cuyas demostraciones se dejan
como ejercicio.

Propiedad 1.25 Cualquier rectngulo en Rn de la forma

(a1 , b1 ] (a2 , b2 ] (an , bn ]

(a1 , b1 ) (a2 , b2 ) (an , bn )


[a1 , b1 ) [a2 , b2 ) [an , bn )
es un boreliano.

Propiedad 1.26 Todo abierto y todo cerrado en Rn es un boreliano.

20
1.4. Espacios de probabilidad finitos o numerables.

Definicin 1.6 Sea (, A, P ) un espacio de probabilidad con a lo sumo


numerable. En este caso podemos tomar como A el conjunto de partes de
(P()). Definimos la funcin de densidad p, asociada a la probabilidad P
por
p : [0, 1]
de la siguiente manera
p () = P ({}) .

Propiedades de la funcin de densidad

Propiedad 1.27 La funcin de densidad determina la funcin de probabil-


idad. Para todo A se tiene
X
P (A) = p () .
wA

Demostracin. Si A entonces A se puede escribir como la siguiente unin


disjunta [
A= {},
A

donde cada conjunto {} A. Luego


X X
P (A) = P ({}) = p () . 2
A A

Propiedad 1.28 Si es finito o numerable se cumple que


X
p () = 1.

Demostracin. En efecto por la Propiedad 1.27


X
1 = P () = p () . 2
w

Definicin 1.7 Decimos que un espacio finito = {1 , .., n } es equiprob-


able sii
p (i ) = p (j ) , i, j.

21
Observacin. Un espacio de probabilidad infinito numerable no puede ser
equiprobable. En efecto, supongamos que = {1 , 2 , ..., n , ...}, y p() = c.
Luego por la Propiedad 1.27 se tendra

X
X
1= p(i ) = c,
i=1 i=1
P
lo que es un absurdo puesto que i=1 c = 0 segn c > 0 c = 0.

Propiedad 1.29 Si es un espacio de probabilidad equiprobable entonces,


la probabilidad de cualquier evento A se calcula por

#A
P (A) = ,
#

donde #A denota el cardinal de A.

Demostracin. Para ver esto supongamos que para todo se tenga


p () = c, entonces
X X X
1= p() = c=c 1 = c #,

y luego,
1
c= .
#
Adems
X X X #A
P (A) = p() = c=c 1 = c (#A) = .
#
wA wA wA

Ejemplo 1.7 Hallar la probabilidad de que dado un conjunto de n personas,


dos personas cumplan aos el mismo da. Se supondr que todos los aos
tienen 365 das y que las probabilidades de nacimiento en cualquier fecha
son iguales.

Supongamos que a cada persona se le asigna un nmero entre 1 y n y


sea xi el da del cumpleaos de la persona i. Luego 1 xi 365, y podemos
considerar el siguiente espacio muestral

= {(x1 , x2 , ..., xn ) : xi N : 1 xi 365} .


donde N es el conjunto de nmeros naturales.

22
En vez de calcular la probabilidad de que dos personas cumplan el mismo
da, calculemos la del complemento, es decir la probabilidad de que todas
cumplan aos en das distintos

Ac = {(x1 , x2 , ..., xn ) : 1 xi 365, xi 6= xj i 6= j} .

Se tiene
# = 365n

Adems
c 365
#A = n!.
n
La importancia de la combinatoria se ve en este punto; es necesario
contar con principios de enumeracin. En este caso, primero seleccionamos
los n dias distintos entre los 365 das posibles y luego por cada muestra se
obtienen n! formas distintas de distribuirlos entre n personas.
Las probabilidades que se obtienen usando est formula pueden con-
tradecir la intuicin. Por ejemplo, si n = 20, P (A) 0,41, si n = 30,
P (A) 0,76 y si n = 40, P (A) 0,89.

1.5. Probabilidad condicional.


Sea (, A, P ) un espacio de probabilidad, y consideremos dos eventos
A, B A, y supongamos que P (B) 6= 0.
Queremos estudiar como cambia la probabilidad de ocurrencia de A
cuando se conoce que otro evento B ha ocurrido. En este caso habr que re-
definir el espacio muestral considerando solamente los elementos de B como
posibles resultados.
Por ejemplo, consideremos el experimento de tirar un dado y pregunt-
mosnos acerca de la probabilidad de que salga un seis, sabiendo que el dado
escogido es un nmero par. En este caso la probabilidad no es 1/6, puesto
que tenemos la certeza de que el resultado est en el conjunto {2, 4, 6} Como
cada uno de estos tres resultados tienen idntica probabilidad, como se ver,
la probabilidad de obtener el 6 sabiendo que el resultado es par ser 1/3.
Vamos a tratar de determinar cual debe ser la probabilidad de un evento
A condicional a que se conoce que B ha ocurrido, utilizando interpretacin
heurstica de la probabilidad como limite de la frecuencia con la cual un even-
to ocurre. Para esto supongamos que se han hecho n repeticiones independientes
del experimento y denotemos con

nB : el nmero de veces en el que ocurre el resultado B,

nAB : el nmero de veces en el que ocurre el resultado A B.

23
Heursticamente la probabilidad condicional de A dado B,ser el lmite
de la frecuencia con la cual A ocurre en los experimentos donde B ocurre,
es decir el lmite de
nAB
.
nB
Luego, la probabilidad de que ocurra A condicional B ser
nAB
nAB n lmn nABn P (A B)
lm = lm nB = nB = .
n nB n lmn n P (B)
n

Esto justifica la siguiente definicin.

Definicin 1.8 Sea (, A, P ) un espacio de probabilidad A, B A tal que


P (B) > 0. Se define la probabilidad condicional de A dado B por
P (A B)
P (A|B) = .
P (B)

El siguiente teorema muestra que para cada B fijo, P (.|B) es una funcin
de probabilidad.

Teorema 1.2 Fijado el evento B , tal que P (B) > 0, definamos Pe :


A [0, 1] por
Pe (A) = P (A|B)
para todo A A . Luego Pe es una probabilidad.

Demostracin.

(i)
P ( B) P (B)
Pe () = P (|B) = = =1
P (B) P (B)

(ii) Sea (An )n1 , una sucesin de eventos disjuntos dos a dos, es decir si
i 6= j, entonces Ai Aj = . Luego
! !
[
! ! P An B
[ [
Pe An = P An |B = n=1
=
n=1 n=1
P (B)
!
[
P An B P
n=1 P (An B)
= = n=1 =
P (B) P (B)

X
P (An B) X X
= = P (An |B) = Pe (An ) . 2
n=1
P (B) n=1 n=1

24
1.6. Independencia de eventos.
Definicin 1.9 Sea (, A, P ) un espacio de probabilidad y consideremos
A, B A. Se dice que A y B son independientes si

P (A B) = P (A) P (B).

Propiedad 1.30 (i) Si P (B) > 0, entonces A y B son independientes si


y slo si P (A|B) = P (A).

(ii) Si P (B) = 0, dado cualquier A A se tiene que A y B son indepen-


dientes.

Demostracin. La demostracin es inmediata. 2


La propiedad de independencia se generaliza para un nmero finito de
eventos.

Definicin 1.10 Se dice que los eventos A1 , ..., Ak son independientes sii
para cualquier sucesin de subndices (i1 , ...ih ), h k, con ir 6= is si r 6= s
se tiene que
h
\ h
Y
P Aij = P Aij .
j=1 j=1

Observaciones.

1. Para que tres eventos A1 , A2 y A3 sean independientes se deben cumplir


las siguientes igualdades

P (A1 A2 ) = P (A1 ) P (A2 )


P (A1 A3 ) = P (A1 ) P (A3 )
P (A2 A3 ) = P (A2 ) P (A3 )
P (A1 A2 A3 ) = P (A1 ) P (A2 ) P (A3 ) .

2. No alcanza la independencia tomados de a dos. Como ejemplo tomemos


= {1 , 2 , 3 , 4 } espacio de probabilidad equiprobable, es decir
P ({i }) = 14 . Entonces los conjuntos

A1 = {1 , 2 }
A2 = {1 , 3 }
A3 = {2 , 3 }

25
son independientes tomados de a dos pero no en forma conjunta. Ms
precisamente, se cumple que
1
j : P (Aj ) =
2
Ai Aj = {k } para algn k

y luego
1 1 1
P (Ai Aj ) = = = P (Ai ) P (Aj ) .
4 2 2
Pero
A1 A2 A3 = ,
y por lo tanto
1
0 = P (A1 A2 A3 ) 6= P (A1 ) P (A2 ) P (A3 ) = .
8

Teorema 1.3 A1 , ..., Ak son eventos independientes si y slo si para cualquier


sucesin (i1 , ...ih ), h k, con ir 6= is si r 6= s y tal que

h
\
P Aij > 0,
j=2

se tiene que
\
h
P Ai1 Aij = P (Ai1 ) . (1.1)
j=2

Demostracin. Supongamos primero que A1 , ..., Ak son independientes y demostraremos


que (1.1). Sean Ai1 , Ai2 , ..., Aih tales que ir 6= is si r 6= s y
Tse cumple
h
P j=2 Aij > 0. Entonces

T
\ h Qh
h P j=1 Aij P Aij
P Ai1 Aij = T = Qj=1
h = P (Ai1 ) .
h
j=2 P j=2 Aij j=2 P Aij

Supongamos ahora que A1 , ..., Ak son eventos que satisfacen la propiedad


del enunciado. Queremos probar que entonces son independientes, es decir
que
\h Yh

P Aij = P Aij . (1.2)
j=1 j=1

26
Lo probaremos por induccin sobre h. Comenzaremos con h = 2. Dados Ai1
y Ai2 con i1 6= i2 , puede suceder que (a) P (Ai2 ) = 0 o que (b) P (Ai2 ) > 0.
En el caso (a) se tiene que como Ai1 Ai2 Ai2 , resulta P (Ai1 Ai2 ) = 0
y luego
P (Ai1 Ai2 ) = P (Ai1 )P (Ai2 ) (1.3)
En el caso (b) como vale (1.1) se tiene
P (Ai1 Ai2 )
P (Ai1 |Ai2 ) = = P (Ai1 )
P (Ai2 )
y luego tambin vale

P (Ai1 Ai2 ) = 0 = P (Ai1 )P (Ai2 ).

Esto muestra que (1.2) vale para h = 2.


Supongamos ahora que (1.2) vale para h y probemos que tambin vale
para h+1. Elegimos Ai1 , Ai2 , ..., Aih , Aih+1 eventos. Consideramos dos casos
T
h+1
(a) Supongamos que P j=2 Aij = 0. En tal caso por la suposicin que
(1.2) vale para h conjuntos se tiene que

h+1
\ h+1
Y
0=P
Aij = P Aij .
j=2 j=2

Luego
h+1
Y
P Aij = 0, (1.4)
j=1
Th+1 Th+1
y como j=1 Aij j=2 Aij se tendr que

h+1
\
P Aij = 0. (1.5)
j=1

De (1.4) y (1.5) obtenemos que



h+1
\ h+1
Y
P
Aij = P Aij .
j=1 j=1

T
h+1
(b) Supongamos ahora que P j=2 Aij > 0. Entonces como estamos
suponiendo que (1.1) vale se tiene

h+1
\
P Ai1 Aij = P (Ai1 ) ,
j=2

27
y luego T
h+1
P j=1 Aij
T = P (Ai1 ) .
h+1
P j=2 Aij

Equivalentemente

h+1
\ h+1
\
P Aij = P (Ai1 ) P Aij ,
j=1 j=2

y como por la hipteisis inductiva (1.2) vale para h, se deduce



h+1
\ h+1
Y h+1
Y
P Aij = P (Ai1 ) P Aij = P Aij . 2
j=1 j=2 j=1

Definicin 1.11 Sea I un conjunto finito o numerable, una sucesin {Ai }iI
se dice una particin de sii

1. [
Ai =
iI

2. Si i 6= j entonces
Ai Aj =

Teorema 1.4 (Teorema de la Probabilidad Total) Sea (, A, P ) un es-


pacio de probabilidad, {An }nI A una particin de con P (Ai ) > 0, para
todo i I y B A tal que P (B) > 0. Entonces
X
P (B) = P (Ai )P (B|Ai )
iI

Demostracin. Como B se puede escribir como la siguiente unin disjunta


[
B= (B Ai ) ,
iI

entonces como P (B|Ai ) = P (BAi )/P (Ai ), se tiene P (BAi ) = P (Ai )P (B|Ai )
y por lo tanto X
P (B) = P (Ai )P (B|Ai ) . 2
iI

28
Teorema 1.5 (Bayes) Sea (, A, P ) un espacio de probabilidad y {Ai }1ik
A una particin de con P (Ai ) > 0, 1 i k. Sea B A con P (B) > 0.
Supongamos conocidas a priori las probabilidades P (B|Ai ) y P (Ai ) para
todo i. Entonces
P (Ai ) P (B|Ai )
P (Ai |B) = Pk .
j=1 P (Aj ) P (B|Aj )

Demostracin. Usando el teorema de la probabilidad total teniendo en cuenta


que {Aj }1jk es una particin y aplicando la definicin de probabilidad
condicional y el Teorema 1.4 se obtiene

P (Ai B)
P (Ai |B) =
P (B)
P (Ai ) P (B|Ai )
= Pk .2
j=1 P (Aj ) P (B|Aj )

Ejemplo de aplicacin del Teorema de Bayes.


Consideremos un test que detecta pacientes enfermos de un tipo espec-
fico de enfermedad. La deteccin corresponde a que el test de positivo. El
resultado de un test negativo se interpreta como no deteccin de enfermedad.
Sea
A1 : el evento el paciente seleccionado no tiene la enferemedad
A2 : el evento el paciente seleccionado tiene la enfermedad
Entonces {A1 , A2 } constituye una particin del espacio de probabilidad
Consideremos adems
T+ : el evento el test da positivo
T : el evento el test da negativo
Supongamos conocidas las probabilidades de ser sano o enfermo antes
de hacer el test (probabilidades apriori).

P (A1 ) = 0,99; P (A2 ) = 0,01.

Ademas supongamos que

P (T+ |A1 ) = 0,01; P (T+ |A2 ) = 0,99.

Observemos que para un test perfecto se pedira

P (T+ |A1 ) = 0; P (T+ |A2 ) = 1.

Es decir, estamos suponiendo que el test no es perfecto.


Calculemos la probabilidad de que dado que el test detecta enfermedad
el paciente sea efectivamente enfermo (esta probabilidad se denomina prob-
abilidad a posteriori). De acuerdo al Teorema de Bayes se tiene

29
P (A2 ) P (T+ |A2 )
P (A2 |T+ ) = = 0,5.
P (A1 ) P (T+ |A1 ) + P (A2 ) P (T+ |A2 )
y
P (A1 |T+ ) = 1 P (A2 |T+ ) = 0,5
La conclusin es que si el test da positivo, no hay una evidencia fuerte
de que el paciente est enfermo o sano ya que ambas probabilidades condi-
cionales son iguales a 0.50. Luego un test como el descripto no es til para
detectar la enfermedad.
Si logramos tener

P (T+ |A1 ) = 0,001; P (T+ |A2 ) = 0,999

la situacin cambia; en tal caso resulta P (A2 |T+ ) = 0,91, que es ms acept-
able que la anterior.

30
Captulo 2

Variable Aleatoria.

2.1. Concepto de variable aleatoria.


En muchos casos interesa conocer solamente alguna caracterstica numri-
ca del resultado del experimento aleatorio. Demos dos ejemplos:

1. El experimento consiste en tirar dos dados y los posibles resultados


son = { (x, y) : x I6 , y I6 } donde Ik = {1, 2, ..., k} y para cada
resultado (x, y) interesa solo la suma de los dados x + y.

2. El experimento consiste en un tiro al blanco y el conjunto de los


resultados es = { (x, y) : x R, y R}, x e y son la abcisa y
ordenada del punto donde peg el tir tomando origen (0, 0) el punto
correspondiente al blanco. En este ejemplo solo interesa la distancia
al blanco, es decir (x2 + y 2 )1/2

Definicin 2.1 Sea (, A, P ) un espacio de probabilidad. Una variable aleato-


ria es una funcin X : R tal que para todo x R

X 1 ((, x]) A. (2.1)

Observaciones.

1. La condicion (2.1) permite calcular

P ({ : X() x}) = P (X 1 ((, x])).

2. El concepto de variable aleatoria es esencialmente el mismo que el


de funcin medible en teora de la medida. Si (, A, ) es un espacio
de medida f : A R se dice medible sii para todo x vale que
f 1 ((, x])) A.

31
3. Si A es el conjunto de partes de , como es usual cuando es finito
o numerable, la condicin (2.1) se cumple trivialmente.

Teorema 2.1 Sea X una variable aleatoria sobre un espacio de probabili-


dad (, A, P ). Entonces vale que X 1 (B) A para todo B B. (B es el
conjunto de borelianos en R).

Demostracin. Como por definicin X 1 ((, x]) A, basta con verificar


que
= {A R : X 1 (A) A}
es una lgebra. Si esto es cierto se tendr que B , puesto que la
lgebra de Borel es la ms chica que contiene a las semirectas. Veamos
que esto es cierto.

(a) R pues
X 1 (R) = A.

(b) Si A , entonces Ac . Como X 1 (A) A, se tendr que


c
X 1 (Ac ) = X 1 (A) A.

(c) Sea {An }nN . Luego X 1 (An ) A para todo n y como A es un


lgebra se tendr que
[
X 1 (An ) A.
nN

Luego !
[ [
X 1 An = X 1 (An ) A.
nN nN

(a), (b) y (c) prueban que es una -lgebra. 2

2.2. Espacio de probabilidad asociado a una vari-


able aleatoria.
Sea un espacio de probabilidad (, A, P ) y sea X : R una variable
aleatoria. Asociada a esta variable podemos definir un nuevo espacio de
probabilidad (R, B, P X ) donde para todo B B se define

PX (B) = P X 1 (B) .

Obsrvese que P X 1 (B) est definido ya que X 1 (B) est en A.
Vamos a mostrar que PX es efectivamente una probabilidad. La funcin PX
se denomina probabilidad inducida por X o distribucin de X.

32
Si a uno le interesa slo el resultado de la variable aleatoria, esto permite
trabajar en un espacio de probabilidad donde el espacio muestral es R y la
lgebra es B, la lgebra de Borel.

Teorema 2.2 PX es efectivamente una funcin de probabilidad.

Demostracin.

(a)
PX (R) = P X 1 (R) = P () = 1.

(b) Si {Bi }iN B es una sucesin disjunta dos a dos, entonces {X 1 (Bi )}iN
tambin lo es. Luego
! !! !
[ [ [
1 1
PX Bi = P X Bi =P X (Bi ) =
iN iN iN
X X
1
= P X (Bi ) = PX ((Bi )) . 2
iN iN

Definiremos el concepto de funcin medible

Definicin 2.2 Una funcin g : R R, se dice medible Borel sii para todo
xR
g 1 ((, x]) B.

Observaciones.

1. Trabajaremos en este curso con funciones medibles Borel, de man-


era que a veces nos referiremos a ellas simplemente con el nombre de
medibles.

2. Si B B resultar g 1 (B) B. Este resultado se demuestra como el


anlogo para variables aleatorias.

3. Considerando un espacio de probabilidad con = R y A = B es


inmediato que g es medible Borel es equivalente a que g es una variable
aleatoria.

Ejercicio. Demostrar los siguientes resultados:

Propiedad 2.1 Si g : R R es continua entonces g es medible.

33
Propiedad 2.2 Si g : R R es montona entonces g es medible.

Propiedad 2.3 Si B es boreliano, su funcin caracterstica IB es medible.

Propiedad 2.4 Sea {fn }n1 es una sucesin de funciones medibles. En-
tonces

(i) Las siguientes funciones son medibles

f (x) = inf {fn (x)},


nN
f (x) = sup{fn (x)}.
nN

1. Tambin son medibles

f (x) = lmn fn (x) ,


f (x) = lmn fn (x) .

En particular si existe el lmite puntual

f (x) = lm fn (x)
n

es medible.

El siguiente teorema muestra que la composicin de una variable aleato-


ria con una funcin medible es una variable aleatoria.

Teorema 2.3 Si g : R R es medible y X : R es una variable aleato-


ria, entonces g (X) : R es tambin una variable aleatoria.

Demostracin. Basta con observar que dado B B



[g (X)]1 (B) = X 1 g 1 (B)

Como C = g 1 (B) B, resulta que tambin X 1 g 1 (B) B. 2

Como consecuencia de este teorema si g es continua y X es una variable


aleatoria resulta que g(X) tambien una variable aleatoria. Por ejemplo si X
es una variable aleatoria, entonces seno(X) , coseno(X) , aX , con a constante
son variables aleatorias.

Teorema 2.4 Si X, Y son variables aleatorias entonces

(i) X + Y , X Y son variables aleatorias.


(ii) Si P (Y 6= 0) = 1 entonces X/Y es una variable aleatoria.

Demostracin. Las demostraciones de (i) y (ii) se vern ms adelante.

34
2.3. Funcin de distribucin de una variable aleato-
ria.
Definicin 2.3 Sea X una variable aleatoria. Se define la funcin de dis-
tribucin asociada a X como la funcin FX : R [0, 1] dada por

FX (x) = PX ((, x]) = P X 1 ((, x]) .

Observacin. Como veremos, la importancia de FX es que caracteriza la


distribucin de X. Es decir FX determina el valor de PX (B) para todo
BB

Propiedades de la funcin de distribucin.


Las cuatro propiedades que probaremos en el Teorema 2.5 van a carac-
terizar a las funciones de distribucin.

Teorema 2.5 Sea X una variable aleatoria sobre (, A, P ) y sea FX su


funcin de distribucin. Entonces se tiene

1. FX es montona no decreciente, es decir x1 < x2 implica FX (x1 )


FX (x2 ) .

2. lmx FX (x) = 1.

3. lmx FX (x) = 0.

4. FX es continua a derecha en todo punto de R.

Demostracin.

1. Si x < x0 entonces
(, x] (, x0 ],
y por lo tanto

FX (x) = P ((, x]) P (, x0 ] = FX x0 .

2. En primer lugar veamos que

lm FX (n) = 1.
n

Consideremos la sucesin montona creciente de conjuntos

An = (, n], n N.

Entonces [
An = R.
nN

35
Luego de acuerdo con la propiedad para sucesiones crecientes de even-
tos
!
[
lm FX (n) = lm PX (An ) = PX An = PX (R) = 1.
n n
nN

Ahora veamos que efectivamente lmn FX (x) = 1, esto es para todo


> 0 existe x0 > 0 tal que si x > x0 entonces se cumple |FX (x) 1| <
. O equivalentemente

1 < FX (x) < 1 + .

Por 0 FX (x) 1, se cumple que para cualquier > 0, FX (x) <


+ 1. Por lo tanto slo tenemos que mostrar que existe x0 > 0 tal que
si x > x0 entonces se cumple

1 < FX (x) .

Sabemos que dado > 0 existe un n0 N tal que si n > n0 entonces

1 < FX (n) .

Tomando x0 = n0 y teniendo en cuenta la monotona de FX , se tendr


que si x > x0 entonces

1 < FX (n0 ) FX (x) .

3. Se demuestra de manera similar a (2). En primer lugar se prueba que

lm FX (n) = 0.
n

Luego se considera la sucesin montona decreciente que converge a

An = (, n],

y se obtiene
lm PX (An ) = 0.
n

Luego se procede como en (2).

4. Queremos ver que FX es continua a derecha en cualquier punto x0 R.


Es decir, dado > 0 existe > 0 tal que si

0 < x x0 <

entonces
FX (x0 ) FX (x) FX (x0 ) + .

36
La primer inecuacin es vlida siempre ya que como x0 < x entonces
FX (x0 ) FX (x0 ) FX (x). Basta entonces probar que FX (x)
FX (x0 ) + . Consideremos la sucesin decreciente de conjuntos

1
An = , x0 +
n

que satisface \
An = (, x0 ].
nN

Entonces
!
1 \
lm FX x0 + = lm PX (An ) = PX An
n n n
nN
= PX ((, x0 ]) = FX (x0 )

Luego existe n0 N tal que si n > n0 entonces



1
FX x0 + FX (x0 ) +
n

Si tomamos < 1/n0 , entonces para todo x tal que 0 < x x0 < se
tendr

1
FX (x) FX (x0 + ) FX x0 + FX (x0 ) + .2
n0

Dada una funcin g : R R, denotemos por lmxx0 g(x) el lmite de


g(x) cuando x tiende a x0 por la izquierda. Entonces tenemos la siguiente
propiedad de la funcin de distribucin.

Propiedad 2.5 Para todo x0 R se tiene que

lm FX (x) = FX (x0 ) PX ({x0 }) .


xx0

Demostracin. Sea a = FX (x0 ) PX ({x0 }) . Tenemos que mostrar que dado


> 0 existe > 0 tal que si x0 < x < x0 , entonces

a FX (x) a + . (2.2)

Tenemos que

a = PX ((, x0 ]) PX ({x0 }) = PX ((, x0 )).

37
Como x0 < x < x0 implica que (, x] (, x0 ), se tendr que

FX (x) = PX ((, x]) PX ((, x0 )) = a.

Luego, para probar (2.2) bastar probar que x0 < x < x0 implica

a FX (x). (2.3)

Como la sucesin de intervalos An = (, x0 1/n] es creciente y


[
An = (, x0 ),
nN

se tendr

lm FX (x0 1/n) = lm PX (An ) = PX ((, x0 ))


n n
= a.

Luego existe n0 tal que FX (x0 1/n0 ) a . Sea = 1/n0 y tomemos


x0 < x < x0 . Por la monotona de FX se tendr

a FX (x0 1/n0 ) = FX (x0 ) FX (x),

y por lo tanto (2.3) se cumple. Esto prueba la Propiedad 2.5. 2

Propiedad 2.6 FX es continua a izquierda en x0 si y slo si PX ({x0 }) = 0.

Demostracin. El resultado es inmediato a partir de la Propiedad 2.5. 2


Demostracin.

Teorema 2.6 Sea FX la funcin de distribucin de una v.a X. Entonces el


conjunto de puntos de discontinuidad de FX es a lo sumo numerable.

Demostracin. De acuerdo a la Propiedad 2.6, el conjunto de puntos de dis-


continuidad est dado por

A = {x : PX ({x}) > 0}.

Para todo k N sea



1
Ak = x : PX ({x}) > .
k

Entonces es fcil mostrar que



[
Ak = A.
k=1

38
Luego para demostrar el teorema bastar probar que para k N se tiene
que #Ak < . En efecto, supongamos que para algn k0 existen infinitos
puntos {xn }n1 tal que para todo n N se cumpla
1
PX ({xn }) > .
k0
Entonces si [
B= {xi }
iN
se tendr

X
X 1
PX (B) = PX ({xi }) > = ,
k0
i=1 i=1
lo que es un absurdo. 2

Veremos ahora que toda funcin con las cuatro propiedades del Teorema
2.5 es una funcin de distribucin para cierta variable aleatoria X (no nica).
Para eso se requiere el siguiente teorema que daremos sin demostracin.

Teorema 2.7 (de Extensin) Sea F : R [0, 1] una funcin con las
cuatro propiedades del Teorema 2.5 . Luego existe una nica probabilidad P
sobre (R, B) tal que para todo x R se tiene
P ((, x]) = F (x) .
Este Teorema no se demostrar en este curso ya que requiere teora de
la medida. La la probabilidad P se denomina extensin de la funcin F.
Veremos ahora algunas consecuencias del Teorema de Extensin.
Corolario 2.1 Si X y X son variables aleatorias tales que FX = FX .
Entonces para todo B B se tendr
PX (B) = PX (B) .
Demostracin. Es consecuencia de la unicidad del teorema de extensin. 2

Corolario 2.2 Si F satisface las cuatro propiedades del Teorema 2.5 , en-
tonces existe una variable aleatoria X (no necesariamente nica) tal que
F = FX .
Demostracin. De acuerdo al teorema de extensin se puede definir un espacio
de probabilidad (R, B, P ) de forma tal que para todo x R
F (x) = P ((, x]) .
Ahora consideramos la funcin identidad X : R R definida como X (x) =
x para todo x R. Entonces se cumple que
FX (x) = PX ((, x]) = P (X 1 ((, x])) = P ((, x]) = F (x) . 2

39
40
Captulo 3

Variables aleatorias
discretas y continuas.

Existen varios tipos de variables aleatorias. En este curso slo estudiare-


mos con detalle las discretas y las (absolutamente) continuas.

3.1. Variables aleatorias discretas.


Definicin 3.1 Se dice que una v.a. X es discreta sii existe A R finito
o numerable tal que PX (A) = 1.

Observacin. Ese conjunto A no tiene porque ser nico. Si se le agrega


un conjunto finito o numerable de probabilidad cero, seguir teniendo esta
propiedad. A continuacin vamos a encontrar el conjunto ms chico que
tiene esta propiedad.

Definicin 3.2 Sea X una variable aleatoria discreta. Se define el rango


de X como el conjunto de los puntos de discontinuidad de la funcin de
distribucin, es decir por

RX = {x R : PX ({x}) > 0}.

Teorema 3.1 Sea X una variable aleatoria discreta. Luego (i) PX (RX ) =
1,(ii) Si PX (A) = 1, entonces RX A.

Demostracin.

(i) Sea A un conjunto a lo sumo numerable tal que PX (A) = 1. Luego A


se puede escribir como la siguiente unin disjunta

A = (A RX ) (A RX ) .

41
Entonces

1 = PX (A)
= PX ((A RX ) (A RX ))
= PX (A RX ) + PX (A RX ) . (3.1)

Luego basta probar que

PX (A RX ) = 0. (3.2)

El conjunto A RX es finito o infinito numerable. Adems para todo


x A RX se tiene que PX ({x}) = 0. Luego, como
[
A RX = {x},
xARX

resulta que
X
PX (A RX ) = PX ({x}) = 0.
xPX (ARX )

Luego hemos demostrado (3.2). Luego por (3.1) se tiene PX (A RX ) =


1, y luego tambin P (RX ) = 1.

(ii) Sea un conjunto A numerable tal que PX (A) = 1. Supongamos que


exista x0 RX tal que x0 e = A {x0 } y
/ A entonces consideramos A
se obtiene que
e = PX (A) + PX ({x0 }) > PX (A) = 1,
PX (A)

lo cual es un absurdo. 2

La importancia de RX reside en el hecho de que para calcular la proba-


bilidad de un evento B solo interesan los puntos de B que estn en RX . En
este sentido se dice que la probabilidad se concentra en RX .

Teorema 3.2 Para todo B B se tiene

PX (B) = PX (RX B) .
Demostracin. Podemos escribir a B como la siguiente unin disjunta

B = (RX B) (B RX ) , (3.3)

y tomando probabilidad en ambos miembros se obtiene

PX (B) = PX (RX B) + PX (B RX ) .

42
Pero
B RX (RX )c ,
de manera que
PX (B RX ) PX ((RX )c ) = 0.
Luego PX (B RX ) = 0 y el teorema resulta de (3.3). 2

Definicin 3.3 Sea X una variable aleatoria discreta. Se define la funcin


de densidad de probabilidad asociada a la variable X como la funcin

pX : R [0, 1]

tal que
pX (x) = PX ({x}) .
Tambin pX se suele llamar funcin de probabilidad puntual de X o funcin
de frecuencia de X.

Observacin. La funcin de densidad satisface pX (x) > 0 sii x RX y


determina totalmente la probabilidad PX .
Para ver esto probaremos el siguiente teorema.

Teorema 3.3 Si B B entonces


X
PX (B) = pX (x) .
xBRX

Demostracin. B RX se puede escribir como la siguiente unin disjunta


[
B RX = {x}.
xBRX

Como B RX es finito o numerable se tiene


X
PX (B) = PX (RX B) = pX (x) 2.
xBRX

3.2. Ejemplos de distribuciones discretas.


3.2.1. Distribucin Binomial.
Supongamos que se repite n veces un experimento que puede dar lugar a
dos resultados: xito o fracaso. Supongamos que todos los experimentos son
independientes y tienen la misma probabilidad de xito . Sea X la variable
aleatoria definida como el nmero total de xitos. La distribucin de esta
variable se denomina binomial con n repeticiones y probabilidad de xito .
La denotaremos con Bi (, n) .

43
Para formalizar este experimento aleatorio tomaremos como espacio mues-
tral
= {(1 , 2 , ..., n ) : i {0, 1}} ,
donde i = 1 indicar que el i-simo experimento result xito y i = 0 que
fue fracaso. Como es finito podemos tomar como lgebra A el conjunto
de partes de .
La variable X se puede definir por
n
X
X ((1 , 2 , ..., n )) = i .
i=1
El rango de esta variable es RX = {0, 1, ..., n}. Obtendremos seguida-
mente su funcin de densidad. Sea 0 x n, el evento {X = x} est dado
por
n
X
Ax = {(1 , 2 , ..., n ) : i = x}.
i=1
En primer lugar determinaremos la cantidad de elementos del conjunto
Ax . Claramente un elemento de Ax queda determinado por los x lugares
entre los n posibles donde aparecen los unos. De manera que

n
# (Ax ) = .
x
Obsrvese que el espacio muestral no es equiprobable, por lo que la prob-
abilidad no se determina con el esquema casos favorables / casos igualmente
posibles.
Sea el resultado de un experimento cualquiera. Si = 0 entonces
P () = 1 y si = 1 entonces P () = . Esto puede escribirse de
manera ms compacta de la siguiente manera
P () = (1 )1 .
En primer lugar calculemos la probabilidad de un elemento arbitrario
del espacio muestral. Teniendo en cuenta la independencia de los resultados
de los distintos experimentos y que la ocurrencia de (1 , 2 , ..., n ) involucra
una interseccin de eventos se tiene que
n !
\
P ((1 , 2 , ..., n )) = P {en el experimento i el resultado es i }
i=1
n
Y
= P (i )
i=1
Yn
= i (1 )1i =
i=1
P
n P
n
i n i
= i=1 (1 ) i=1 .

44
P
Ahora si = (1 , 2 , ..., n ) Ax entonces ni=1 i = x y queda que la
probabilidad de ocurrencia de cualquier elemento de Ax es

pX () = pX ((1 , 2 , ..., n )) = x (1 )nx

En definitiva como Ax se puede escribir como la siguiente unin disjunta


[
Ax = {}
Ax

entonces

pX () = P ({ : X() = x})
= P (A)
X
= P ({}) =
Ax
= #(Ax ) x (1 )nx

n x
= (1 )nx .
x

3.2.2. Distribucin Binomial Negativa (o Distribucin de Pas-


cal).
Consideremos, como en el caso de la distribucin binomial, un exper-
imento aleatorio cuyo resultado es xito con probabilidad y fracaso con
probabilidad 1. Supongamos que se hacen repeticiones independientes del
experimento hasta que ocurran k xitos. Los parmetros de esta distribu-
cin son : probabilidad de xito y k : el nmero de xitos buscado.
Llamaremos X a la variable aleatoria definida como el nmero de experi-
mentos que hay que realizar para obtener los k xitos. La distribucin de
esta variable se denomina binomial negativa o de Pascal y se la denotar
con BN(, k). El rango de X es

RX = {m N : m k}

el cual es infinito numerable.


Consideremos la sucesin variables aleatorias independientes Zi , i N
definidas por

1 si el i-simo experimento es xito
Zi =
0 si el i-simo experimento es fracaso,

y definimos las variables


i
X
Yi = Zj ,
j=1

45
Claramente Yi cuenta la cantidad de xitos que se alcanzaron en los primeros
i experimentos. Luego su distribucin es Bi(, i).
El evento {X = x}, o sea el evento definido como la cantidad de expe-
rimentos necesarios para alcanzar k xitos es x, puede escribirse como una
interseccin de dos eventos

{X = x} = {Yx1 = k 1} {Zk = 1} .

Los dos eventos del lado derecho de la ltima ecuacin son independien-
tes. Luego, usando el hecho que Yx1 tiene distribucin Bi(, x 1) resulta
para x k.

pX (x) = P (X = x)
= P (Yx1 = k 1) P (Zk = 1)

x 1 k1
= (1 )xk
k1

x1 k
= (1 )xk . (3.4)
k1

3.2.3. Distribucin Geomtrica.


Se llama distribucin geomtica a la BN(, k), con k = 1. Luego es la
distribucin de la variable aleatoria X definida como el nmero de expe-
rimentos necesarios para alcanzar el primer xito. A esta distribucin la
denotarenos como G().
El rango de los valores posibles para la v.a. X es

RX = {1, 2, ..., n, ...}.

Reemplazando k = 1 en (3.4) se obtiene



x1
pX (x) = (1 )x1 = (1 )x1 .
0

Podemos verificar que



X
X
X
pX (x) = (1 )x1 = (1 )x1
x=1 x=1 x=1
X
1
= (1 )j = = 1.
1 (1 )
j=0

46
3.2.4. Distribucin Hipergeomtrica.
Consideremos una urna que contiene N bolillas de las cuales D son
negras y N D blancas. Se extraen secuencialmente (una a una) n bolillas
y se define la variable X como el nmero total de bolilas negras extradas.
Si cada bolilla obtenida es repuesta en la urna antes de obtener la siguiente,
el resultado de cada extraccin es independiente de las anteriores, ya que
esos resultados no modifican la composicin de la urna. Luego en este caso
X tendr distribucin Bi(, n) con = D/N, ya que este nmero es la
probabilidad de sacar cada vez una bolilla negra.
Si despus de cada extraccin la bolilla obtenida no se repone, no hay
independencia en los resultados de las extracciones y la distribucin de X
se denomina hipergeomtrica. La denotaremos por H(N, D, n).
Estudiemos el rango de esta distribucin. Por un lado podemos obser-
var que X no puede ser un nmero negativo, ni tampoco mayor que n, la
cantidad total de bolillas extraidas. Por lo tanto:

0 X n. (3.5)

Por otro lado, claramente a lo sumo se pueden extraer D negras, y luego

X D. (3.6)

Adems el nmero de total de bolillas blancas extraidas debe ser menor que
N D. Por lo tanto tambin tenemos

n X N D. (3.7)

En definitiva de (3.5), (3.6) y (3.7) obtenemos

RX = {x N : m
ax (0, n N + D) x mn (n, D)}.

Podemos pensar que las D bolillas negras estn numeradas de 1 a D, y


las blancas de D + 1 a N. Luego si denotamos

IN ={x N : 1 x N },

el resultado de extraer n bolillas ser un subconjunto de IN con cardinal n.


Luego, podemos tomar como espacio muestral

= {A IN : #A = n}.

Como todos estos subconjuntos tienen la misma probabilidad de ser ex-


trados, estaremos en un caso de resultados equiprobables. El cardinal de
es
N
.
n

47
El evento {X = x} corresponder a aquellos subconjuntos A que con-
tienen x bolillas negras y nx blancas. Para obtener el cardinal de {X = x}
procedamos de la siguiente manera. Primero consideremos el nmero de sub-
conjuntos de x bolas negras elegidas entre las D posibles. Este nmero es

D
.
x
Para cada uno de estos subconjuntos de x bolas negras hay

N D
nx
formas de elegir las restantes n x blancas. Luego

D N D
#{X = x} = ,
x nx
y por lo tanto DND
#Ax x
pX (x) = = Nnx
.
# n
Ejercicio.
Sea n N fijo y consideremos una sucesin de distribuciones hiperge-
omtricas H (N, DN , n), N N tales que
DN
lm = .
N N

Entonces si pH
N es la densidad de probabilidad de una distribucin H (N, DN , n)
B
y p la de una Bi(, n), se tiene

lm pH B
N (x) = p (x) .
N

Es decir para N suficientemente grande la distribucin H (N, DN , n) se


puede aproximar por la distribucin Bi(, n) . Heursticamente, este resulta-
do puede interpretarse como que debido a que n es pequeo con respecto a
N, la reposicin o no de las bolillas extradas no cambia substancialmente
la composicin de la urna.

3.2.5. Distribucin de Poisson.


La distribucin de Poisson se presenta cuando se considera el nmero
de veces que ocuurre cierto evento en un intervalo determinado de tiempo.
Por ejemplo

(a) El nmero de clientes que entran en un determinado banco durante


un da.

48
(b) El nmero de accidentes automovilsticos que ocurren en la ciudad de
Buenos Aires por mes.

(c) El nmero total de llamadas telefnicas que llegan a una central tefni-
ca entre las 15 hs. y 16 hs. de los das hbiles.

Para que las distribuciones de estas variables sean de Poisson, se requiere


un conjunto de supuestos que trataremos con mayor detalle ms adelante
(ver el captulo 12).
Por ahora slo indicamos su funcin de densidad. Para cada > 0, se
define la distribucin de Poisson con parmetro que simbolizaremos por
P() por la siguiente densidad de probabilidad

x
pX (x) = e para x N0 ,
x!
donde N0 es el conjunto de enteros no negativos.
Es claro que

X
X
X x
x
pX (x) = e = e = e e = e0 = 1.
x! x!
x=0 x=0 x=0

3.2.6. Grfico de la funcin de distribucin asociada a una


variable aleatoria discreta.
Supongamos que el rango de X sea finito RX = {x1 , ..., xn } y x1 < <
xn . En tal caso la funcin de distribucin FX es una funcin no decreciente
escalonada, en los puntos de probabilidad positiva, xj , 0 j n.
Sea
Xi
ci = pX (xj ) ; 1 i n.
j=1

Luego se tendr

0 si x (, x1 )
FX (x) c si x [xi , xi+1 ), 1 i n 1
i
1 si x [xn , ).
Ejercicio. Graficar la FX para una Bi(1/4,10).

3.3. Variables aleatorias absolutamente continuas.


Definicin 3.4 Se dice que una variable aleatoria X es continua sii FX es
continua para todo x R.

49
Observacin. Esto es equivalente a pedir que la probabilidad en todo
punto es cero.

Definicin 3.5 Se dice que FX es absolutamente continua sii existe una


funcin fX : R R0 tal que fX es integrable Riemann sobre R y para todo
x R se tiene Z x
FX (x) = fX (t) dt.

La funcin fX se denomina funcin de densidad de la probabilidad asociada


a X.

Propiedades de las Distribuciones Continuas.

Propiedad 3.1 (a) Si fX es una funcin de densidad de probabilidad


para una variable aleatoria X entonces
Z +
fX (t) dt = 1.

(b) Recprocamente si f 0 es integrable Riemann sobre R y cumple que


Z +
f (t) dt = 1,

entonces definiendo Z x
F (x) = f (t) dt.

se obtiene una funcin que resulta ser la funcin de distribucin de


alguna variable aleatoria X.

Demostracin.

(a) Resulta de
Z + Z x
fX (t) dt = lm fX (t) dt
x

= lm FX (x) = 1.
x

(b) Usando propiedades de las integrales de Riemann se puede mostrar


que FX satisface las cuatro propiedades del Teorema 2.5 . Luego este
resultado se obtiene del Corolario 2.2 del Teorema 2.7. 2

50
Propiedad 3.2 Supongamos que FX es absolutamente continua. Entonces
Z b
PX ((a, b]) = fX (t) dt.
a

Demostracin.

PX ((a, b]) = PX ((, b]) PX ((, a])


= FX (b) FX (a)
Z b Z a
= fX (t) dt fX (t) dt

Z b
= fX (t) dt. 2
a

Propiedad 3.3 Si FX es absolutamente continua entonces es continua.

Demostracin. Primero supondremos que fX es acotada en un entorno del


punto x. Luego existe > 0 y M positivo tal que f (x) M para todo
x [x , x] . Luego para todo tenemos

PX ({x}) P ((x , x])


Z x
= fX (t) dt
x
M.

Como esto vale para todo , resulta PX ({x}) = 0. Luego FX es continua


en x.
Supongamos ahora que fX no es acotada en ningn entorno del punto
x. Luego Z x
FX (x) = fX (t) dt

se define por
Z x Z y
fX (t) dt = lm fX (t) dt
yx
= lm FX (y),
yx

y luego FX es continua en x.2

El nombre densidad nos recuerda la cantidad de masa por unidad de


longitud, rea o volumen segn el caso. En este caso se puede decir que
fX (x) indica la probabilidad por unidad de longitud en las cercanas del
punto x. Ms precisamente podemos enunciar el siguiente teorema.

51
Teorema 3.4 Sea fX una funcin de densidad continua en x0 , entonces
Z x0 +h
PX ([x0 h, x0 + h]) 1
lm = lm fX (t) dt = fX (x0 ) .
h0 2h h0 2h x0 h

Demostracin. Sea

Mh = m
ax{fX (x) : x [x0 h; x0 + h]}

y
mh = mn{fX (x) : x [x0 h; x0 + h]}.
Por continuidad
fX (x0 ) = lm Mh = lm mh . (3.8)
h0 h0

Por otro lado valen las desigualdades


Z x0 +h
2hmh fX (t) dt 2hMh ,
x0 h

y dividiendo por 2h en todos los miembros queda:


Z x0 +h
1
mh fX (t) dt Mh .
2h x0 h

Luego, teniendo en cuenta (3.8) y pasando al lmite cuando h 0 se obtiene

PX ([x0 h; x0 + h])
fX (x0 ) lm fX (x0 ) ,
h0 2h
de donde se deduce el Teorema. 2

Teorema 3.5 Sea fX una funcin de densidad continua en x0 y FX la


distribucin asociada. Entonces FX es derivable en x0 y
0
FX (x0 ) = fX (x0 ) .

Demostracin. Se deduce de la anterior. 2

Comentario vinculadoRa la teora de la medida.


En este prrafo el signo corresponde a la integral de Lebesgue. Ms
generalmente se definen distribuciones absolutamente continuas utilizando
funciones Borel medibles. Sea f : R R0 una funcin Borel medible tal
que Z
f (t) dt = 1. (3.9)

52
Entonces se puede definir una funcin de distribucin absolutamente con-
tinua por Z x
F (x) = f (t) dt, (3.10)

Se puede demostrar que la funcin F definida por (3.10) cumple las cuatro
propiedades del Teorema 2.5 y es continua y derivable en casi todo punto
con derivada f (x). Adems si P es la correspondiente probabilidad sobre R
asociada a F y garantizada por el Teorema de Extensin, dado cualquier
boreliano B se tendr
Z Z
P (B) = f (t) dt = IB (t)f (t) dt,
B

donde IB (t) es la funcin indicadora del conjunto B.

3.4. Ejemplos de distribuciones continuas.


3.4.1. Distribucin uniforme en un intervalo.
Consideremos dos nmeros reales a < b. Luego la distribucin uniforme,
denotada por U(a, b), tiene como densidad

k si x [a, b]
fX (x) =
0 si x / [a, b] .

1
con k = > 0. Claramente
ba
Z Z b
k
fX (x)dx = kdx = = 1.
a ba

Ejercicio. Mostrar que la funcin distribucin de U(a, b) es



0x a
si x (, a)
FX (x) si x [a; b)

ba
1 si x (b, ).

Ejercicio. Mostrar que no existe ninguna distribucin uniforme sobre


toda la recta.

En particular consideremos la distribucin uniforme U (0, 1) que tiene


como densidad
1 si x [a; b]
fX (x) =
0 si x
/ [a; b] .

53
La funcin de distribucin es en este caso

0 si x (, 0]
FX (x) = x si x (0, 1] (3.11)

1 si x (1, ).

Observaciones.

1. Es claro que (3.11) es cierta puesto que si x (0, 1)


Z x
FX (x) = fX (t) dt

Z0 Z x
= fX (t) dt + fX (t) dt
0
Z x
=0+ 1dt
0
= x.

2. Sea I = (c, d) (0, 1) Cul es la probabilidad de que X (c, d)?

PX ([c < X < d]) = FX (d) FX (c) = d c.

Es decir, la probabilidad que esta distribucin asigna a cada intervalo


contenido en [0, 1] es su longitud.

3. Pueden generarse distribuciones uniformes de muchas maneras difer-


entes. Por ejemplo podemos elegir dos nmeros A1 , A2 de ocho dgitos,
y definir A3 por los ltimos ocho dgitos de A1 A2 . En general si ya
hemos definido A1, A2 , ..., Ak como enteros de ocho dgitos, podemos
definir recursimamente Ak+1 como los ltimos ocho dgitos de Ak1 Ak .
Este proceso lo podemos continuar hasta obtener An para un n dado.
Luego generamos n nmeros con distribucin U(0, 1) por

Ui = Ai 108 , 1 i n.

Estos nmeros no sern aleatorios. Sin embargo se comportarn como si


fuesen variables aleatorias independientes con ditribucin U(0, 1). En par-
ticular, dados a y b tales que 0 < a < b < 1, se tendr que si n es grande

#{i : 1 i n, a < Ui < b}


n
ser aproximadamente ba. Es decir la frecuencia con la cual los Ui estn en
un intervalo (a, b) es aproximadamente la probabilidad que la distribucin
U(0, 1) asigna a ese intervalo.

54
3.4.2. Generacin de distribuciones a partir de la distribu-
cin uniforme en [0,1]
Vamos a mostrar cmo a partir de una variable aleatoria con distribucin
U (0, 1) se puede generar cualquier otra variable con cualquier funcin de
distribucin.
Para esto en primer lugar necesitamos algunas definiciones. Sabemos que
una funcin de distribucin no tiene por qu ser continua y mucho menos
biyectiva, de manera que en general su inversa no existe. Pero podemos
definir una funcin que tendr propiedades anlogas.
Sea F : R [0, 1] una funcin que cumple con las cuatro propiedades
del Teorema 2.5 que caracterizan una funcin de distribucin y consideremos
y (0, 1) .
Definimos
Ay = {x R : F (x) y}.
Observaciones.

1. Puede ocurrir que exista una preimagen va F del punto y : F 1 (y) 6=


. Si F es continua por Bolzano podemos asegurar que asume todos
los valores intermedios entre el 0 y el 1 y en consecuencia en algn
punto x asumir el valor y.

2. Puede ocurrir tambin que no exista la preimagen. Por ejemplo si F


no es continua para algunos valores de y ocurrir que F 1 (y) = .

3. Puede ocurrir que existan infinitas preimgenes. Basta con tomar una
funcin con las propiedades de funcin de distribucin que sea con-
stante en un intervalo. Para y igual a ese valor hay infinitas preim-
genes.

Ejercicio. Dar un ejemplo de cada una de las situaciones y dibujar el


grfico correspondiente.

Teorema 3.6 Existe el nfimo del conjunto Ay .

Demostracin. Basta probar que Ay 6= y est acotado inferiormente.


Comencemos probando que Ay 6= .Sabemos que F satisface la propiedad
(2) del Teorema 2.5 y por lo tanto

lm F (n) = 1.
n

Como 0 < y < 1 existe n0 N tal que

F (n0 ) y,

55
de manera que n0 Ay . Ahora probaremos que Ay esta acotado inferior-
mente. Por la propiedad (3) del Teorema 2.5 se tiene que,

lm F (n) = 0.
n

Como y > 0 entonces existe n0 N tal que

F (n0 ) < y. (3.12)

Ahora bien si x Ay no puede ser que n0 > x puesto que por monotona
(Propiedad (1) del Teorema 2.5) se cumplira

F (n0 ) F (x) y,

en contradiccin con (3.12). En definitiva se tiene que si x Ay , entonces


n0 x, y por lo tanto Ay esta acotado inferiormente. 2

En virtud de la existencia y unicidad del nfimo podemos definir la si-


guiente funcin

Definicin 3.6 Dada


F : R [0, 1]
que satisface las propiedades de una funcin de distribucin (Propiedades
(1)-(4) del Teorema 2.5) se define F 1 : (0, 1) R por

F 1 (y) = inf Ay .

Propiedades de la funcin F1 .

Propiedad 3.4 (a) Dada una funcin de distribucin F, se tiene



F F 1 (y) y.

(b) El nfimo del conjunto Ay resulta ser el mnimo de Ay , es decir

F 1 (y) = mn Ay .

Demostracin. Bastar probar (a), ya que en ese caso F 1 (y) pertenece al


conjunto Ay . Por definicin de nfimo existe una sucesin (xn )nN Ay
decreciente que converge a F 1 (y), es decir tal que

lm xn = F 1 (y) .
n

Por la propiedad de continuidad a derecha de F



lm F (xn ) = F F 1 (y) . (3.13)
n

56
Ahora, como para todo n N se tiene que xn Ay sabemos que

F (xn ) y,
y luego por (3.13) resulta

F F 1 (y) y, (3.14)

por lo tanto (a) queda demotrado. Esto implica F 1 (y) Ay . Luego hemos
mostrado (a) y por lo tanto tambin hemos demostrado (b). 2

Propiedad 3.5 Si F es continua entonces



F F 1 (y) = y.

Demostracin. Sabemos que F F 1 (y) y. Ahora supongamos que no se
cumple la igualdad, esto es que

F F 1 (y) > y.

Veremos que esto contradice el caracter de nfimo 1


1
del elemento F (y) .
Tomemos un punto intermedio entre F F (y) e y que llamaremos y .
Entonces
y < y < F F 1 (y) .
Por ser F continua, por el teorema de Bolzano se deduce que existe x
(0, 1) tal que
F (x ) = y .
Luego reemplazando en la inecuacin anterior se obtiene la desigualdad

y < F (x ) < F F 1 (y) .
Por un lado esto dice que x Ay y por otro teniendo en cuenta la monotona
de F resulta
x < F 1 (y) .
Esto contradice que F 1 (y) sea el mnimo, absurdo. 2

Propiedad 3.6 Dada una funcin de distribucin F, se cumple que


F 1 (F (x)) x.

Demostracin. Es claro que para todo x se tiene que x AF (x) puesto que
F (x) F (x) . Sabemos que F 1 (F (x)) es el mnimo de AF (x) y luego

a AF (x) implica F 1 (F (x)) a.


En particular si tomamos a = x AF (x) se obtiene el resultado buscado. 2

57
Teorema 3.7 (Caracterizacin de Ay como semirecta) Sea F una fun-
cin de distribucin y tomemos y (0, 1) fijo. Los conjuntos
Ay = {x : F (x) y},
By = {x : x F 1 (y)} = [F 1 (y) , +)
coinciden.

Demostracin. Sabemos por la Propiedad 3.4 (b) que


F 1 (y) = mn Ay .
Por otro lado es fcil ver que si x Ay y x > x, entonces tambin x Ay .
Luego Ay = [F 1 (y), ). 2

Ejercicio. Probar que F 1 es montona no decreciente y por lo tanto


medible.
Veremos ahora que dada cualquier funcin de distribucin F, a partir de
cualquier variable aleatoria con distribucin U(0, 1), se puede generar otra
variable aleatoria con funcin de distribucin F.

Teorema 3.8 Sea U una variable aleatoria con distribucin U(0, 1). Luego
si F es una funcin de distribucin (propiedades (1)-(4) del Teorema 2.5)
se tiene que X = F 1 (U ) tiene funcin de distribucin F

Demostracin. Usando el Teorema 3.7 y el hecho de que FU (u) = u, 0 u


1, se tiene

FX (x) = PX ((, x]) = P {F 1 (U ) x} = P ({U F (x)})
= FU (F (x)) = F (x) . 2
Ejercicio. Sea X una variable con rango RX = N0 (enteros no nega-
1
tivos) y sea pj = pX (j) , j N0 . Verificar que FX es de la forma

1 0 si 0 < y p0
FX (y) = Pi1 Pi
i si j=0 pj < y j=0 pj , i 1.

Comprobar que el resultado anterior vale en este caso.


El siguiente teorema de demostracin inmediata es muy importante.

Teorema 3.9 Sean X y X dos variables aleatorias tales que FX = FX .


Consideremos una funcin g medible y consideremos las variables aleatorias
obtenidas componiendo
Z = g (X) ; Z = g (X ) .
Entonces
PZ = PZ .

58
Demostracin. Sea B B y probemos que

PZ (B) = PZ (B) .

Sabemos que

PZ (B) = P Z 1 (B)

= P X 1 g 1 (B)

= PX g 1 (B) .
1
Por el Corolario
1 2.1 del Teorema de Extensin se tiene que PX g (B) =
PX g (B) y luego

PZ (B) = PX g 1 (B)

= P X 1 g 1 (B)

= P Z 1 (B)
= PZ (B) . 2

El siguiente resultado vale para funciones de distribucin continuas.

Teorema 3.10 Si X es una variable aleatoria con distribucin FX con-


tinua y consideramos la variable aleatoria Y = FX (X) entonces Y tiene
distribucin U(0, 1).

Demostracin. Consideremos una variable aleatoria U con distribucin U(0, 1)


1
y sea X = FX (U ) . Sabemos que X tiene distribucin FX . Luego por el
Teorema 3.9 las variables

Y = FX (X) , Y = FX (X )

tienen la misma distribucin. Pero



Y = FX (X ) = FX FX1 (U ) ,

y siendo FX continua por Propiedad 3.5 se tiene FX FX1 (U ) = U. Luego
Y tiene distribucin U(0, 1) y por lo tanto, de acuerdo al Teorema 3.9
tambin esa es la distribucin de Y. 2

3.4.3. Distribucin Normal N(, 2 ).


La distribucin normal es tal vez la ms importante y sin lugar a dudas
la que se usa con mayor frecuencia. A veces este uso se hace de manera inade-
cuada sin verificar los supuestos que la identifican. Veremos ms adelante la
importancia de esta distribucin. Adelantamos sin embargo, informalmente

59
que si {Yn }nN es una sucesin de variables a independientes tales que ningu-
na de ellas prevalezca sobre las otras, entonces la variable aleatoria
n
X
Sn = Yj
j=1

es aproximadamente normal para n suficientemente grande. Esta distribu-


cin tiene mucha aplicacin en la teora de errores, donde se supone que el e-
rror total de medicin es la suma de errores que obedecen a diferentes causas.
La distribucin normal depende de dos parmetros R y 2 R>0 .
En este captulo solo veremos la distribucin normal correspondiente a
= 0 y 2 = 1. En este caso la funcin de densidad es
2
x
fX (x) = K exp ,
2

donde K es una constante y exp(x) es la funcin exponencial ex . Calculare-


mos la constante K de forma tal que
Z + 2
x
1= K exp dx,
2

y por lo tanto
1
K=R .
+ 2
exp x
2 dx

Sea Z
+
x2
I= exp dx.
2
Para el clculo de esta integral podemos usar o bien residuos (teora
de anlisis complejo) o bien calcular I 2 como integral doble a traves de un
cambio de variable a cordenadas polares. Optamos por la segunda forma
Z + 2 Z + 2
x y
I2 = exp dx exp dy
2 2
Z + Z + 2 2
x y
= exp exp dxdy
2 2
Z + Z + !
x2 + y 2
= exp dxdy.
2

Ahora hacemos el cambio de variable

x (, ) = x = cos ()
y (, ) = y = sin ()

60
Claramente se tiene
x2 + y 2 = 2

La transformacin del cambio de variable T (, ) = (x (, ) , y (, )) =


( cos () , sin ()) 0, 0 < 2 tiene matriz diferencial

x x cos () sin ()
DT (, ) = = .
y y sin () cos ()

Entonces su jacobiano

cos () sin ()
J (, ) = det (DT (, )) = det
sin () cos ()
= cos2 () + sin2 () = .

En definitiva |J (, ) | = y aplicando la frmula de cambio de variables


en integrales mltiples resulta
Z + Z + !
x 2 + y2
I2 = exp dxdy =
2
Z + Z 2 2

= exp dd =
0 0 2
Z + 2 Z + 2

= 2 exp d = 2 exp d.
0 2 0 2

Haciendo el cambio de variable

2
u= ,
2
du = d

se obtiene
Z +
2
I = 2 exp (u) du
0

= 2 exp (u) |+
0
= 2,

y por lo tanto
I= 2
Luego

1 x2
fX (x) = exp .
2 2

61
3.4.4. Distribucin Exponencial.
Esta distribucin depende de un parmetro que puede tomar cualquier
valor real positivo. Su funcin de densidad es
x
e si x 0
f (x) =
0 si x < 0.

Haciendo la transformacin y = x, dy = dx se obtiene


Z Z Z
f (x)dx = ex dx = ey dy
0 0
y
= [e ] |
0 = 0 + 1 = 1.

Se deja como ejercicio verificar que la correspondiente funcin de distribucin


es
1 ex si x 0
F (x) = (3.15)
0 si x < 0.
La distribucin exponencial con parmetro ser denotada por E().
Esta distribucin aparece generalmente cuando se trata de estudiar la
durabilidad de un mecanismo bajo el supuesto de que el sistema no se des-
gasta a lo largo del tiempo. Como ejemplo suele citarse a veces la duracin
de una lmpara elctrica. Sin embargo en este caso existe un cierto desgaste
propio de la lmpara y su distribucin no es exactamente exponencial. Esta
distribucin es ms adecuada para modelar la duracin de los mecanismos
electrnicos, ya que estos no tienen prcticamente desgaste.
Para precisar el concepto de desgaste decimos que la distribucin de X
no tiene desgaste cuando dado a > 0 y b > 0 se tiene

P (X a + b|X a) = P (X b) .

Esto significa que la probabilidad de que llegue a durar hasta el tiempo


a + b, dado que ha llegado hasta el tiempo a, es igual a la probabilidad de
que haya durado hasta el tiempo b. Es decir el proceso no tiene memoria
del tiempo que estuvo funcionando (no recuerda qu tan viejo es) y por
tanto, mientras funciona lo hace como si fuese nuevo.
Decimos por el contrario que hay desgaste si

P (X a + b|X a)

es una funcin decreciente de a.


Vamos a mostrar que la propiedad de falta de desgaste caracteriza a la
distribucin exponencial. Esto significa que las nicas distribuciones conti-
nuas y no negativas que tienen la propiedad de falta de desgaste son las
exponenciales.

62
Como {X a + b} {X a} = {X a + b} resulta que
P ({X a + b} {X a}) P ({X a + b})
P (X a + b|X a) = = .
P (X a) P (X a)
Por lo tanto la propiedad de falta de desgaste se puede escribir como
P (X a + b)
= P (X b) ,
P (X a)
o equivalentemente

P (X a + b) = P (X b) P (X a) . (3.16)

Si X tiene distribucin continua de P (X a) = FX (a) resulta

1 FX (a) = P (X > a) = P (X a) .

Entonces definimos

GX (a) = 1 FX (a) ,

y como la propiededad de falta de memoria es equivalente (3.16), esta se


puede escribir tambin como

GX (a + b) = GX (a) GX (b) (3.17)

para todo a 0, b 0.
En el caso en que X tiene distibucin exponencial por (3.15) se tiene

GX (x) = ex

para todo x 0. El siguiente teorema muestra que la propiedad de falta de


memoria caracteriza a las distribuiones exponenciales.

Teorema 3.11 Sea X una variable aleatoria continua con valores no neg-
ativos. Luego la propiedad de falta de memoria dada por (3.17) se cumple
si y slo si GX (x) = ex es decir si X tiene distribucin exponencial.

Demostracin. Supongamos primero que GX (x) = ex . Probaremos que


(3.17) se cumple. En efecto

GX (a + b) = e(a+b) = e(a)+(b) = ea eb = GX (a) GX (b) .

Supongamos ahora que (3.17) se cumple. Probaremos que GX (x) = ex


para algn > 0. En primer lugar veamos que para todo n, dados a1
0, ..., an 0 entonces
n ! n
X Y
GX ai = GX (ai ) .
i=1 i=1

63
Probaremos esta proposicin por induccin. Claramente vale para n = 2 por
hiptesis.
Supongamos que vale para n y probemos que vale para n + 1.
n+1 ! n !
X X
GX ai = GX ai + an+1
i=1
i=1
n
!
X
= GX ai Gx (an+1 )
i=1
n !
Y
= GX (ai ) GX (an+1 )
i=1
n+1
Y
= GX (ai ) .
i=1

Ahora probaremos que para todo a 0 vale que

GX (a) = [GX (1)]a .

La estrategia es primero probarlo para cuando a es un entero no negativo,


luego cuando es un racional no negativo y por ltimo cuando es un nmero
real no negativo. Sea n N entonces

GX (n) = GX 1| + 1 +
{z... + 1}

n sumandos
= [GX (1)]n .
m
Ahora sea a = Q el conjunto de los nmeros racionales. Entonces
n
m
GX (m) = GX n
n
m m
= GX
n + ... + n

| {z }
n sumandos
m n
= GX .
n
Entonces
m 1
GX = [GX (m)] n
n
1
= [(GX (1))m ] n
m
= [GX (1)] n .

64
Por ltimo consideremos a R0 . Elijamos una sucesin (rn )nN Q tal
que rn a. Siendo GX continua resulta

GX (a) = lm GX (rn )
n
= lm (GX (1))rn
n
= (GX (1))lmn rn
= [GX (1)]a . (3.18)

Veamos que 0 < GX (1) < 1. Supongamos que GX (1) = 0. Luego por (3.18)
GX (a) = 0 para todo a 0. En particular GX (0) = 0 y luego FX (0) =
1. Esto implica que P (X = 0) = 1 y luego X es discreta. Supongamos
ahora que GX (1) = 1. Luego por (3.18) tenemos que para todo a 0 se
tiene GX (a) = 1. Luego para todo a 0 resulta FX (a) = 0 y entonces
lmx FX (x) = 0, lo cual es un absurdo, ya que este lmite es 1. Luego
podemos definir
= log (GX (1)) ,
de manera que
GX (1) = e
Luego, usando (3.18), podemos escribir

GX (a) = [GX (1)]a = ea ,

y el teorema queda probado. 2

3.5. Variables aleatorias mixtas.


Adems de las variables discretas y absolutamente continuas existen
otros tipos de variables. Un estudio exhaustivo de los tipos de variables
aleatorias requiere algunos conocimientos de la teora de la medida. Aqu
introduciremos las variables mixtas cuya funcin distribucin es una com-
binacin convexa de funciones de una distribucin discreta y otra absoluta-
mente continua.

Definicin 3.7 Decimos que F es una funcin de distribucin mixta si


es una combinacin convexa de una distribucin absolutamente continua y
otra discreta. Ms precisamente, si existen , 0 < < 1 , F1 funcin de
distribucin absolutamente continua, F2 funcin de distribucin discreta tal
que
F = (1 ) F1 + F2 . (3.19)

Teorema 3.12 Si F est dada por (3.19) se tiene que

65
(a) F es una funcin de distribucin.

(b) F no corresponde a la funcin de distribucin de una variable absolu-


tamente continua ni a una discreta.

Demostracin.

(a) Por el Corolario 2.2 de la pgina 39 basta probar que F satisface las
Propiedades 1-4 del Teorema 2.5. Probemos primero que F es mon-
tona no decreciente. Sean x < x0 . Luego como F1 y F2 son montonas
no decrecientes se tendr F1 (x) F1 (x0 ) y como 1 > 0 resulta

(1 )F1 (x) (1 ) F1 (x0 ). (3.20)

Del mismo se tiene que

F2 (x) F2 (x0 ). (3.21)

Sumando miembro a miembro (3.20) y (3.21) resulta qie F (x) F (x0 ).


Multiplicando por una constante se conserva la propiedad de que una
funcin es continua a derecha y sumando funciones continuas a derecha
se obtiene otra funcin continua a derecha. Esto prueba que F es
continua a derecha.
Por otro lado, tenemos que

lm F (x) = lm ((1 ) F1 + F2 ) (x)


x+ x+
= (1 ) lm F1 (x) + lm F2 (x)
x+ x+
= (1 ) + = 1.

Finalmente, tambin vale que:

lm F (x) = lm ((1 ) F1 + F2 ) (x)


x x
= (1 ) lm F1 (x) + lm F2 (x)
x x+
= 0.

Por lo tanto (a) queda probado.

(b) Veamos ahora que F no corresponde a la funcin de de distribucin


de una variable absolutamente continua o discreta. Sean Pi , las prob-
abilidades inducidas por las distribuciones Fi , i = 1, 2 . Luego si P es
la probabilidad asociada a F, usando el Teorema de Extensin de la
39 se puede probar que

P (B) = (1 )P1 (B) + P2 (B) B B1 .

66
Esta comprobacin se deja como ejercicio. Sea R2 el rango de una
variable con distribucin F2 . Por lo tanto R2 es numerable y P2 (R2 ) =
1. Luego

P (R2 ) = (1 ) P1 (R1 ) + P2 (R2 ) P2 (R2 ) = > 0

Por lo que se deduce que F no corresponde a una distribucin absolu-


tamente continua, ya que stas asignan probabilidad 0 a todo conjunto
numerable.
Para ver que no es discreta veamos que sobre un conjunto numerable
arbitrario su probabilidad es menor que 1. Sea A un conjunto nu-
merable, luego, teniendo en cuenta que F1 es absolutamente continua
resulta que que P1 (A) = 0. Luego

P (A) = (1 ) P1 (A) + P2 (A)


= P (A2 ) < 1.

Como esto ocurre para todo A arbitrario, F no puede ser discreta. 2


Ejemplo 3.1 Sea U U [0, 1] y consideremos V = mn U, 12 . Entonces
1
u si u < 2
FV (u) =
1
1 si u 2

Claramente P (V = 1/2) = P (1/2 U 1) = 1/2 de manera que V no es


absolutamente continua. Tampoco es discreta. Es fcil ver que
1 1
F = F1 + F2
2 2
donde F1 es la distribucin de una U[0, 1/2) y F2 la distribucin de una
variable discreta que asigna probabilidad 1 a x = 12 .

Veremos cmo se puede generar una variable con la distribucin mixta


(3.19).

Teorema 3.13 Consideremos variables aleatorias independientes X1 con


distribucin F1 , X2 con distribucin F2 y U que toma valores 0 y 1 con
probabilidades 1 y respectivamente. Definimos la variable

X1 si U = 0
X=
X2 si U = 1

67
Luego FX (1 )F1 + F2 .
Demostracin. Teniendo en cuenta la independencia de las variables resulta
que

FX (x) = PX ((, x])


= P ({X x})
[
= P ({X1 x} {U = 0}) ({X2 x} {U = 1})
= P ({X1 x} {U = 0}) + P ({X2 x} {U = 0})
= P (X1 x)P (U = 0) + P (X2 x)P (U = 1)
= (1 )P (X1 x) + P (X2 x)
= (1 )F1 (x) + F2 (x) . 2

68
Captulo 4

Vectores aleatorios.

4.1. Definicin de vector aleatorio.


En muchos casos interesa estudiar simultaneamente ms de una car-
acterstica del resultado de un experimento aleatorio. Supongamos que el
experimento consiste en elegir al azar alumnos de un determinado grado, y
que estamos interesados en estudiar el perfil biolgico de esos alumnos.
Podramos considerar que el perfil se compone de la talla, el peso, presin
sangunea, frecuencia cardaca y capacidad respiratoria. Por lo tanto intere-
saran cinco variables aleatorias que deberan estudiarse simultneamente.
Esto motiva la siguiente definicin de un vector aleatorio.

Definicin 4.1 Sea (, A, P ) un espacio de probabilidad. Se dice que


X = (X1 , X2 , . . . , Xk ) es un vector aleatorio de dimensin k si para cada
j = 1, 2, . . . , k se tiene que Xj : R es una variable aleatoria.
Obsrvese que si X = (X1 , . . . , Xk ) es un vector aleatorio de dimen-
sin k, entonces tambin puede ser interpretado como una funcin X :
Rk . En efecto dado , el correspondiente valor de la funcin
es X() = (X1 (), . . . , Xk ()) Rk .

Teorema 4.1 Para todo x = (x1 , x2 , . . . , xk ) Rk se tendr


X1 ((, x1 ] (, x2 ] (, xk ]) A.
Demostracin. Sea B = (, x1 ] (, x2 ] (, xk ]. Entonces
X1 (B) = { : X () B}
k
\
= { : Xi () (, xi ]} =
i=1
\k
= Xi1 ((, xi ]) .
i=1

69
Luego como por definicin de variable aleatoria para todo i se tiene que Xi1 ((, xi ])
A y A es una lgebra se concluye que X1 (B) A. 2
Recordemos que Bk denota la lgebra generada por los conjuntos de
Rk de la forma

Ax1 ,x2 ,...,xk = (, x1 ] (, x2 ] (, xk ]

En R2 es fcil verificar grficamente que los conjuntos de la forma

(a1 , b1 ] (a2 , b2 ] B2

ya que se pueden escribir de la siguiente forma

(a1 , b1 ] (a2 , b2 ] = Ab1 ,b2 Aa1 ,b2 (Ab1 ,a2 Aa1 ,a2 ) (4.1)

y que diferencias de conjuntos de una lgebra son conjuntos de la lgebra.


Va a ser til observar que

Aa1 ,b2 Ab1 ,b2 (4.2)

Aa1 ,a2 Ab1 ,a2 (4.3)


y
(Ab1 ,a2 Aa1 ,a2 ) Ab1 ,b2 Aa1 ,b2 . (4.4)
Ejercicio. Probar el siguiente teorema.

Teorema 4.2 Sea X un vector aleatorio de dimensin k. Entonces si B


Bk se tiene que X1 (B) A.

4.2. Espacio de probabilidad inducido.


Definicin 4.2 Dado el espacio de probabilidad (, A, P ) y un vector aleato-
riok X k= (X1 , . . . , Xk ) se puedek definir un nuevo espacio de probabilidad
R , B , PX donde dado B B se define

PX (B) = P X1 (B) .

Ejercicio. Probar el siguiente teorema.

Teorema 4.3 PX es una funcin de probabilidad sobre (Rk , Bk ).

La demostracin es similar a la correspondiente a PX donde X es una


variable aleatoria. La probabilidad PX se denomina probabilidad inducida
por el vector X o distribucin de X.

70
4.3. Funcin de distribucin conjunta de un vector
aleatorio.
Definicin 4.3 Dado un vector aleatorio X = (X1 , . . . , Xk ), se define la
funcin de distribucin conjunta del vector X como la funcin FX : Rk
[0; 1] dada por

FX (x1 , x2 , . . . , xk ) = PX ((, x1 ] (, x2 ] (, xk ]) =
k !
\
=P { : Xi () xi } .
i=1

Propiedades de FX .

Propiedad 4.1 FX es montona no decreciente en cada componente.

Demostracin. Si xi < x0i entonces

Ax1 ,...,xi ,...,xn Ax1 ,...,x0i ,...,xn ,

de manera que

FX ((x1 , . . . , xi , . . . , xn )) FX x1 , . . . , x0i , . . . , xn .2

Propiedad 4.2 Se tiene que

lm FX (x1 , x2 , . . . , xk ) = 1.
x1 ,...,xk

Demostracin. Sean sucesiones crecientes

{x1i }iN , {x2i }iN , . . . , {xki }iN .

Queremos probar que

lm FX (x1i , x2i , . . . , xki ) = 1.


i+

Ahora bien la sucesin de conjuntos

Ci = (, x1i ] (, x2i ] (, xki ] (4.5)

es montona no decreciente. Por otro lado


[
Ci = Rk ,
iN

71
y en consecuencia

lm FX (x1i , x2i , . . . , xki ) = lm PX ((, x1i ] (, x2i ] (, xki ]) =


i+ i
!
[
= PX Ci = PX Rk = 1. 2
iN

Propiedad 4.3 Para todo i, 1 i k, se tiene que

lm FX (x1 , x2 , . . . , xi , . . . , xk ) = 0.
xi

Demostracin. Sin prdida de generalidad lo mostraremos para i = 1. Para


este caso consideremos una sucesin montona no creciente tal que {yj }jN
.
Entonces si definimos {Cj }jN por

Cj = (, yj ] (, x2 ] (, xk ] (4.6)

se tiene que Cj+1 Cj para todo j N, y adems


\
Cj = .
jN

Por lo tanto

lm FX (yj , x2 , .., xk ) = lm PX ((, yj ] (, x2 ] (, xk ]) =


j j

\
= PX Cj
jN

= PX ()
= 0. 2

Propiedad 4.4 FX es continua a derecha.

Demostracin. Sea (x1 , x2 , . . . , xk ) Rk y consideremos sucesiones mon-


tonas decrecientes tales que

{x1i }iN x1 ; {x2i }iN x2 ; . . . ; {xki }iN xk

Consideremos los conjuntos

Ci = (, x1i ] (, x2i ] (, xki ].

72
Entonces
Ci+1 Ci
y \
Ci = Ax1 ,...,xk .
iN

Luego

lm FX (x1i , x2i , . . . , xki ) = lm P (Ci )


i i
= P (Ax1 ,...,xk )
= FX (x1 , x2 , . . . , xk ) . 2

Las Propiedades 4.1, 4.2, 4.3 y 4.4 no caracterizan a una funcin de


distribucin de un vector aleatorio como ocurra para el caso de la funcin
de distribucin de una variable aleatoria.
Para fijar ideas de por qu sucede esto, pensemos en R2 . Sea entonces
un vector aleatorio en R2 X = (X1 , X2 ) y FX su funcin de distribucin
conjunta. Sea Ax1 x2 = (, x1 ] (, x2 ] y C = (a1 , b1 ] (a2 , b2 ].
El rectngulo C puede ser escrito de la siguiente manera

C = (Ab1 b2 Aa1 b2 ) (Ab1 a2 Aa1 a2 ) .

Teniendo en cuenta las inclusiones

Aa1 a2 Ab1 a2 , (4.7)

Aa1 b2 Ab1 b2 (4.8)


y
(Ab1 a2 Aa1 a2 ) (Ab1 b2 Aa1 b2 ) , (4.9)
resulta que

PX (C)
= PX (Ab1 b2 Aa1 b2 ) PX (Ab1 a2 Aa1 a2 )
= PX (Ab1 b2 ) PX (Aa1 b2 ) PX (Ab1 a2 ) + PX (Aa1 a2 ) .

Como PX (Ax1 x2 ) = FX (x1 , x2 ),resulta

PX (C) = FX (b1 , b2 ) FX (a1 , b2 ) FX (b1 , a2 ) + FX (a1 , a2 ) .

Observaciones.

1. Para verificar las inclusiones (4.7), (4.8) y (4.9), se sugiere hacer un


dibujo.

73
2. Esto muestra que la probabilidad de el rectngulo C se determina por
el valor de FX sobre los vrtices: es la suma de los valores sobre los
vrtices de la diagonal principal menos la suma de los valores sobre los
vrtices de la otra diagonal.

3. Luego dada una funcin de distribucin FX para todo a1 < b1 y a2 < b2


se debera cumplir

FX (b1 , b2 ) FX (a1 , b2 ) FX (b1 , a2 ) + FX (a1 , a2 ) 0. (4.10)

4. Veamos que esta propiedad no se deduce de las propiedades P1, P2,


P3 y P4. Para ello damos un ejemplo de una funcin que satisface P1,
P2, P3 y P4 pero no (4.10). Sea F : R2 [0, 1] definida por

1 si x1 + x2 1, x1 0, x2 0
F (x1 , x2 ) =
0 si en otra parte.

Es fcil verificar que esta funcin es (i) montona no decreciente en


cada variable, (ii)

lm F (x1 , x2 ) = 1,
x1 , x2

(iii)
lm F (x1 , x2 ) = 0 para cualquier i = 1, 2,
xi

y (iv) es continua a derecha. Pero si consideramos el rectngulo C =


(0, 1] (0, 1] entonces si F es una funcin de distribucin deberamos
tener

P (C) = F (1, 1) + F (0, 0) (F (0, 1) + F (1, 0)) = 1 2 = 1.

Esto muestra que F no puede ser la funcin de distribucin de ningn


vector aleatorio en R2 .

Para estudiar las propiedades faltantes vamos a necesitar la siguiente


definicin.

Definicin 4.4 Sea F una funcin de k variables. Si ai < bi se define el


operador diferencia en la variable i por

4i (a, b) F = F (x1 , x2 , . . . , xi1 , b, xi+1 , . . . , xk )F (x1 , x2 , . . . , xi1 , a, xi+1 , . . . , xk ) .

74
Estos operadores se pueden aplicar en forma sucesiva. Por ejemplo

4j (aj , bj ) 4i (ai , bi ) F
= 4j (aj , bj ) (F (x1 , . . . , xi1 , bi , xi+1 , . . . , xk )
F (x1 , . . . , xi1 , ai , xi+1 , . . . , xk ))
= 4j (aj , bj ) F (x1 , x2 , . . . , xi1 , bi , xj+1 , . . . , xk )
4j (aj , bj ) F (x1 , x2 , . . . , xi1 , ai , xi+1 , . . . , xk )
= (F (x1 , . . . , xi1 , bi , xi+1 , . . . , xj1 , bj , xj+1 , . . . , xk )
F (x1 , . . . , xi1 , bi , xi+1 , . . . , xj1 , aj , xj+1 , . . . , xk ))
(F (x1 , . . . , xi1 , ai , xi+1 , . . . , xj1 , bj , xj+1 , . . . , xk )
F (x1 , . . . , xi1 , ai , xi+1 , . . . , xj1 , aj , xj+1 , . . . , xk )).

Es fcil ver que estos operadores conmutan, es decir


4j (aj , bj ) 4i (ai , bi ) F = 4i (ai , bi ) 4j (aj , bj ) F

Ms generalmente, si a1 < b1 , a2 < b2 , . . . , ak < bk podemos considerar


la diferencia sucesiva
41 (a1 , b1 ) 4k1 (ak1 , bk1 ) 4k (ak , bk ) .

Observacin. Podemos expresar la propiedad (4.10) en trminos del oper-


ador diferencia como
PX ((a1 , b1 ] (a2 , b2 ]) = (FX (b1 , b2 ) FX (a1 , b2 )) (FX (b1 , a2 ) FX (a1 , a2 ))
= 41 (b1 , a1 ) FX (x1 , b2 ) 41 (b1 , a1 ) FX (x1 , a2 )
= 42 (b2 , a2 ) 41 (b1 , a1 ) FX (x1 , x2 ) 0

En general se puede probar el siguiente Teorema

Teorema 4.4 Sea FX la funcin de distribucin conjunta del vector aleato-


rio X = (X1 , . . . , Xk ) y sean a1 < b1 , a2 < b2 , . . . , ak < bk . Entonces se
tiene que

PX ((a1 , b1 ] (a2 , b2 ] (ak , bk ])


= 41 (b1 , a1 ) . . . 4k1 (bk1 , ak1 ) 4k (bk , ak ) FX (x1, x2 , . . . , xk ) 0.

Demostracin. Para probar el teorema, consideremos para cada h, 0 h


k los conjuntos de la forma
Ch = (a1 , b1 ] (a2 , b2 ] (ah , bh ] (, xh+1 ] (, xk ].

Se prueba por induccin que para todo h k

PX (Ch ) = 41 (b1 , a1 ) . . . 4h1 (bh1 , ah1 ) 4h (bh , ah ) F (x1 , x2 , . . . , xh , xh+1 , . . . , xk ) .


(4.11)

75
Probaremos primero (4.11) para h = 1. Sea

C1 = (a1 , b1 ] (, x2 ] (, xk ].

Luego

C1 = (, b1 ](, x2 ] (, xk ](, a1 ](, x2 ] (, xk ],

y como el segundo conjunto est incluido en el primero, se tiene

PX (C1 ) = PX ((, b1 ] (, x2 ] (, xk ] (, a1 ] (, x2 ] (, xk ])
= FX (b1 , x2 , . . . , xk ) FX (a1 , x2 , . . . , xk )
= 41 (b1 , a1 ) F (x1 , x2 , . . . , xk ) .

Supongamos ahora que (4.11) vale para h = i < k. Probaremos que tambin
vale para h = i + 1. Sea

Ci+1 = (a1 , b1 ] (a2 , b2 ] (ai+1 , bi+1 ] (, xi+2 ] (, xk ].


(2) (1)
Claramente Ci+1 = Ci Ci , donde
(1)
Ci = (a1 , b1 ](a2 , b2 ] (ai , bi ](, ai+1 ](, xi+2 ] (, xk ]
(2)
y Ci = (a1 , b1 ](a2 , b2 ] (ai , bi ](, bi+1 ](, xi+2 ] (, xk ].
(1) (2)
Como adems se tiene Ci Ci , se tendr
(2) (1)
PX (Ci+1 ) = PX (Ci ) PX (Ci ).

Como (4.11) vale para h = i tendremos

PX (Ci+1 ) = 41 (b1 , a1 ) . . . 4i (bi , ai ) F (x1 , x2 , . . . , xi , bi+1 , xi+2 , . . . , xk )


41 (b1 , a1 ) . . . 4i (bi , ai ) F (x1 , x2 , . . . , xi , ai+1 , xi+2 , . . . , xk ) .

Luego (4.11) vale para h = i + 1. Esto muestra que (4.11) vale para todo
h k. Haciendo h = k se obtiene el Teorema. 2

Luego podemos enunciar una propiedad adicional que satisface una fun-
cin de distribucin conjunta

Propiedad 4.5 Si FX es la funcin de distribucin conjunta del vector


aleatorio X = (X1 , . . . , Xk ) para todo a1 < b1 , , ak < bk se debe cumplir
que

41 (b1 , a1 ) . . . 4k1 (bk1 , ak1 ) 4k (bk , ak ) FX (x1, x2 , . . . , xk ) 0.

El siguiente Teorema generaliza para vectores aleatorios el Teorema de


Extensin para variables aleatorias.

76
Teorema 4.5 Sea F : Rk [0, 1] una funcin que satisface las propiedades
4.1, 4.2, 4.3, 4.4 y 4.5. Luego existe una nica funcin de probabilidad P :
Bk [0, 1] , tal que para todo (x1 , x2 , . . . , xk ) Rk se cumple

P ((, x1 ] (, x2 ] (, xk ]) = F (x1 , x2 , . . . , xk ) .

Demostracin. No se dar la demostracin en este curso. Utiliza argumentos


de la Teora de la Medida. 2

Corolario 4.1 Sean X = (X1 , X2 , . . . , Xk ) y X = (X1 , X2 , . . . , Xk ) dos


vectores aleatorios. Supongamos que para todo x1 , x2 , . . . xk se tiene que

FX (x1 , . . . , xk ) = FX (x1 , . . . , xk ).

Luego tambin se cumple que para todo B Bk

PX (B) = PX (B).

Demostracin. Basta con observar que para todo (x1 , . . . , xk ) Rk

FX (x1 , x2 , . . . , xk ) = FX (x1 , x2 , . . . , xk )
= PX ((, x1 ] (, x2 ] . . . (, xk ]) .

Por lo tanto como PX y PX son extensiones de FX deben coincidir por


unicidad de la extensin. 2

Corolario 4.2 Si F satisface propiedades 4.1, 4.2, 4.3, 4.4 y 4.5. entonces
existe un vector aleatorio X = (X1 , . . . , Xk ) tal que

FX = F.

Demostracin. Sea Rk , B k , PF el espacio de probabilidad tal que PF es la
extensin de F . Luego para todo (x1 , . . . , xk ) Rk

F (x1 , x2 , . . . , xk ) = PF ((, x1 ] (, x2 ] (, xk ]) .

Definimos el vector aleatorio X = (X1 , . . . , Xi , . . . , Xk ) de forma tal que Xi


sea la proyeccin sobre la coordenada i-sima. Es decir Xi : Rk R est
definida por
Xi (x1 , x2 , . . . , xk ) = xi

Observemos que para todo i, 1 i k se tiene que

Xi1 ((, xi ]) = R R (, xi ] R R,

77
y que

FX (x1 , x2 , . . . , xk )
= PX ((, x1 ] (, x2 ] (, xk ])
= PF (X1 ((, x1 ] (, x2 ] (, xk ]))
k !
\
1
= PF Xi ((, xi ])
i=1
= PF ((, x1 ] (, x2 ] (, xk ])
= F (x1 , x2 , . . . , xk ) . 2

4.4. Algunas propiedades de vectores aleatorios.


Sea un vector X = (X1 , . . . , Xk ) con funcin de distribucin FX . El sigu-
iente teorema muestra como se obtiene la funcin de distribucin del vector
formado con un subconjunto de componentes X e = (Xi , Xi , . . . , Xi ) para
1 2 h
cualquier subconjunto de ndices 1 i1 < i2 < < ih k.

Teorema 4.6 Sea X = (X1 , . . . , Xk ) un vector aleatorio de dimensin k.


Sea A = {i1 , . . . , ih } {1, 2, . . . , k} y B = {i : 1 i k, i
/ A} =
e = (Xi , Xi , . . . , Xi ), se tiene
{j1 , . . . jr ]. Entonces, si X 1 2 h

e (xi1 , . . . xih ) =
FX lm FX (x1 , x2 , . . . , xk ).
xj1 ,...,xjr

Demostracin. Para facilitar la notacin supongamos que A = {1, 2, . . . , h}


y luego B = {h + 1, . . . , k}. Sean {yh+1,j }jN , . . . , {yk,,j }jN , sucesiones
crecientes tendiendo a . Luego bastar probar que

lm FX (x1 , . . . xh , yh+1,j , . . . , yk,j ]) = FXe (x1 , . . . , xh ). (4.12)


j

Consideremos la sucesin de eventos

Cj = (, x1 ] (, xh ] (, yh+1,j ] (, yk,j ]

es creciente y


[
Cj = (, x1 ] (, xh ] R R.
j=1

78
Luego

FXe (x1 , . . . , xh ) = PX
e ((, x1 ] (, xh ])
h !
\
=P { : Xi () xi }
i=1
h
! k
!!
\ \
=P { : Xi () xi } { : Xi () R}
i=1 i=h+1
= PX ((, x1 ] (, xh ] R R)
= lm PX (Cj )
j

= lm PX ((, x1 ] (, xh ] (, yh+1,j ] (, yk,j ])


j

= lm FX (x1 , . . . xh , yh+1,j , . . . , yk,j ]).


j

y luego (4.12) vale. 2

Definicin 4.5 Diremos que g : Rk R es medible Borel si para todo x R


se tiene que g 1 ((, x]) Bk .

Observacin. Una funcin medible Borel puede interpretarse como una


variable aleatoria en el espacio (Rk , Bk ). Como en este curso solo consider-
amos funciones medibles Borel, se las llamar simplemente funcones medi-
bles
En particular se tendr

Teorema 4.7 Si g : Rk R es continua entonces g es medible.

Demostracin. Siendo (, x] cerrado se tiene que g 1 ((, x]) Bk y por


lo tanto es medible. 2

Ejercicio. Probar el siguiente teorema.

Teorema 4.8 Sea X = (X1 , X2 , . . . , Xk ) un vector aleatorio sobre un es-


pacio de probabilidad (, A, P ) y g : Rk R una funcin medible. Entonces
Y = g (X) : R es una variable aleatoria.

Ahora podemos probar lo siguiente.

Teorema 4.9 Si X e Y son varibles aleatorias, entonces

(i) Z = X + Y es una variable aleatoria.

79
(ii) Z = XY es una variable aleatoria.

(iii) Si P (Y = 0) = 0 entonces Z = X/Y es una variable aleatoria.

Demostracin. Se trata de escribir a Z como imagen de X e Y usando una


funcin g medible.

(i) Definimos g : R2 R, g (x, y) = x + y. Como g es continua es medible.


Luego si tomamos W = (X, Y ) se tiene que Z = g (W) = X + Y es
una variable aleatoria.

(ii) y (iii) La demostracin de (ii) y (iii) se deja como ejercicio. 2

Definicin 4.6 Sea g : Rk Rh , es decir g = (g1 , g2 , . . . , gh ) tal que para


cada j = 1, 2, . . . , h, gj : Rk R.

Diremos que g es medible sii gj es medible para cada j = 1, 2, . . . , h.

Teorema 4.10 Sea X = (X1 , X2 , . . . , Xk ) un vector aleatorio y g : Rk Rj


una funcin medible. Entonces Z = g (X) es un vector aleatorio de dimen-
sin j.

Demostracin. Se deja como ejercicio.2

4.5. Independencia de variables aleatorias.


4.5.1. Algunas consideraciones heursticas.
Hemos visto con anterioridad lo que significaba la independencia de even-
tos. Brevemente recordemos que una familia de eventos es independiente si
la ocurrencia de algunos de ellos no incide sobre la probabilidad de ocurren-
cia del otro. Ms precisamente, un conjunto de eventos A1 , A2 , . . . , Ak son
independientes si para toda eleccin 1 i1 < i2 < < ih k
h
Y
P (Ai1 Ai2 Aih ) = P Aij .
j=1

Ahora queremos definir la independencia de un conjunto de variables


aleatorias. Queremos dar respuesta a la pregunta en qu medida la infor-
macin referida a una variable aleatoria X incide en el conocimiento de los
valores de la variable aleatoria Y . Por ejemplo la inflacin y la emisin
monetaria son independientes ? El peso de un individuo y su presin san-
gunea son independientes? Para definir el concepto de independencia de
variables aleatorias utilizaremos la nocin de independencia de eventos.

80
Definicin 4.7 Sean X1 , X2 , , Xk variables aleatorias, definidas sobre
un mismo espacio de probabilidad (, A, P ) . Diremos que dichas variables
son independientes sii cualquiera sean los conjuntos B1 , B2 , , Bk B (Borelianos
en R), los eventos Xj1 (Bj ) , j = 1, 2, .., k son independientes.

Los dos siguientes teoremas dan caracterizaciones de la propiedad de


independencia de un conjunto de variables aleatorias.

Teorema 4.11 Las variables aleatorias X1 , , Xk son independientes si y


slo si para toda eleccin de conjuntos borelianos B1 , B2 , , Bk vale que

\k Yk
P Xj1 (Bj ) = P Xj1 (Bj ) . (4.13)
j=1 j=1

Demostracin. Primero mostraremos que (4.13) es una condicin necesaria.


En efecto, si X1 , , Xk son independientes, (4.13) debe cumplirse por
definicin de independencia de eventos. Ahora probaremos la suficiencia de
(4.13). Debemos probar que (4.13) implica para cualquier subconjunto de
ndices i1 < i2 < < ih , h k que

\h
h
Y
P Xi1
j
Bij = P X 1
ij Bij .
j=1 j=1

Consideremos los conjuntos Ci , 1 i k, definidos de la siguiente manera



Bi si i coincide con algn ij
Ci =
R en caso contrario.

Entonces dado que Xi1 (R) = y P () = 1, se tiene que


k !
h
\ \

P X 1 Bij = P
ij X 1 (Ci )
i
j=1 i=1
k
Y
= P Xi1 (Ci )
j=1
h
Y
= P Xi1
j
Bij . 2
j=1

Ahora escribiremos la misma proposicin de otra manera

81
Teorema 4.12 Las variables aleatorias X1 , . . . , Xk son independientes si y
slo si para toda coleccin de borelianos B1 , B2 , . . . , Bk vale que
k
Y
PX (B1 B2 Bk ) = PXj (Bj ) ,
j=1

donde X = (X1 , X2 , . . . , Xk ) .

Demostracin. Como PXj (Bj ) = P (Xj1 (Bj )) por el Teorema 4.11 bastar
mostrar que

h
\
PX (B1 B2 Bk ) = P Xj1 (Bj ) .
j=1

Para eso observamos que

PX (B1 B2 Bk ) = P (X1 (B1 B2 Bk ))


= PX ({ : X () B1 B2 Bk })
= PX ({ : (X1 () , X2 () , . . . , Xk ()) B1 B2 Bk })

\k
= P { : Xj () Bj }
j=1

h
\
=P Xj1 (Bj ) . 2
j=1

El siguiente teorema, da una condicin necesaria y suficiente para la


independencia de un conjunto de variables que es ms simple de verificar.

Teorema 4.13 Una condicin necesaria y suficiente para que las variables
aleatorias X1 , X2 , . . . , Xk sean independientes es que para todo
(x1 , x2 , . . . , xk ) Rk se cumpla que

FX (x1 , x2 , . . . , xk ) = FX1 (x1 ) FX2 (x2 ) . . . FXk (xk ) , (4.14)

donde X = (X1 , X2 , . . . , Xk ) .

Demostracin.
Para ver que (4.14) es una condicin necesaria para la independencia de
X1 , . . . , Xk , basta aplicar el Teorema 4.12 a los conjuntos

B1 = (, x1 ], B2 = (, x2 ], . . . , Bk = (, xk ].

82
Probaremos ahora la suficiencia. Consideremos los conjuntos del tipo

B1 B2 Br (, xr+1 ] (, xr+2 ] (, xk ],

donde B1 B2 Br son borelianos en R. Probaremos por induccin


sobre r que vale la siguiente propiedad que llamamos Ar :

PX (B1 B2 Br (, xr+1 ] (, xr+2 ] (, xk ])


= PX1 (B1 ) PXr (Br ) PXr+1 ((, xr+1 ]) PXk ((, xk ]) . (4.15)

Para r = 0, la condicin (4.15) vale por hiptesis, puesto que se reduce a un


producto de semirectas. Supongamos que vale para r y probemos que vale
para r + 1. En primer lugar probemos que si (4.15) vale para r, tambin vale
reemplazando (, xr+1 ] por R, esto es

PX (B1 B2 Br R (, xr+2 ] (, xk ])
= PX1 (B1 ) PXr (Br ) PXr+1 (R) PXk ((, xk ]) =
= PX1 (B1 ) PXr (Br ) PXr+2 ((, xr+2 ]) PXk ((, xk ]) . (4.16)

Para mostrar esto podemos considerar una sucesin creciente de semirectas


Cn = (, n]. Luego

[
R = Cn
n=1

y la sucesin {B1 B2 Br Cn (, xr+2 ] (, xk ]}, n =


1, 2, . . . es montona no decreciente en Rk y vale
[
B1 B2 Br Cn (, xr+2 ] (, xk ]
nN
= B1 B2 Br R (, xr+2 ] (, xk ]

Luego usando que vale Ar tenemos que

PX (B1 B2 Br R (, xr+2 ] (, xk ])
= lm PX (B1 B2 Br Cn (, xr+2 ] (, xk ])
n
= lm PX (B1 )PX (B2 ) PX (Br )PX (Cn )PX ((, xr+2 ]) PX ((, xk ])
n
= PX (B1 )PX (B2 ) PX (Br )PX (R)PX ((, xr+2 ]) PX ((, xk ]),

que es lo que queramos probar.


Ahora probaremos Ar+1 . Es decir debemos probar que dados borelianos
B1 , . . . ., Br+1 y reales xr+2 , . . . , xk se tiene

PX (B1 B2 Br Br+1 (, xr+2 ] (, xk ])


= PX1 (B1 ) PXr (Br ) PXr+1 (Br+1 ) PXk ((, xk ]) . (4.17)

83
Consideremos el conjunto

A = B1 B2 Br R (, xr+2 ] (, xk ],

y distinguimos dos casos: (a) PX (A) = 0, (b) PX (A) > 0.


Consideremos primero el caso (a). Por (4.16)

0 = PX (A) = PX (B1 B2 Br R (, xr+2 ] (, xk ])


= PX1 (B1 ) PXr (Br ) PXr+1 (R) PXk ((, xk ])

se tiene que
PX (Bi ) = 0 para algn 1 i r

o bien
PXi ((, xi ]) = 0 para algn r + 2 i k.

En cualquiera de los dos casos el miembro derecho de (4.17) es 0.


Supongamos que PX (Bi ) = 0 podemos suponer que i = 1, para fijar
ideas. Entonces teniendo en cuenta que

B1 B2 Br Br+1 (, xr+2 ] (, xk ] B1 R R,

obtenemos que

PX (B1 B2 Br Br+1 (, xr+2 ] (, xk ])


PX (B1 R R) = PX1 (B1 ) = 0,

y luego el miembro izquierdo de (4.17) tambin es 0 y la igualdad se cumple.


Ahora si PXi ((, xi ]) = 0, podemos suponer que i = k y proceder de
manera anloga. Luego (4.17) vale para el caso (a).
Consideremos el caso (b), es decir que PX (A) > 0. Definimos un nuevo
espacio de probabilidades (R, B, P ) de la siguiente manera: Para todo B B
definimos

PX (B1 B2 Br B (, xr+2 ] (, xk ])
P (B) = .
PX (A)

Obsrvese que los borelianos B1 , B2 , . . . Br y los reales xr+2 , . . . , xk per-


manecen fijos cuando se cambia B. Veamos en primer lugar que efectiva-
mente P : B [0, 1] es una probabilidad.
(i) Claramente
PX (A)
P (R) = =1.
PX (A)

84
(ii) Supongamos que (Cn )n1 B es una sucesin de borelianos disjuntos
dos a dos. Entonces
!
[
P Cn
nN
!
[
PX B1 B2 Br Cn (, xr+2 ] (, xk ]
nN
=
PX (A)
!
[
PX (B1 B2 Br Cn (, xr+2 ] (, xk ])
nN
=
PX (A)
P
PX (B1 B2 Br Cn (, xr+2 ] (, xk ])
= n=1
PX (A)

X PX (B1 B2 Br Cn (, xr+2 ] (, xk ])
=
PX (A)
n=1
X
= P (Cn ) .
n=1

Esto prueba que P es una probabilidad.


Observemos que en la deduccin anterior se us, adems de que P es
una probabilidad, una propiedad de la teora de conjuntos, fcil de probar:
[
B1 B2 Br Cn (, xr+2 ], (, xk ]
nN
[
= (B1 B2 Br Cn (, xr+2 ], (, xk ]) .
nN

Ahora calcularemos el valor de P sobre una semirecta. Dado que Ar es


vlida (hiptesis inductiva), si x R se tiene

P ((, x])
PX (B1 B2 Br (, x] (, xr+2 ], (, xk ])
=
PX (A)
PX1 (B1 ) PXr (Br ) PXr+1 ((, x]) PXk ((, xk ])
=
PX1 (B1 ) PXr (Br ) PXr+1 (R) PXk ((, xk ])
= PXr+1 ((, x]) .

Entonces por la unicidad de la extensin como PXr+1 y P coinciden en las


semirectas (, x] se tendr por el Teorema de Extensin que para todo
B B,
P (B) = PXr+1 (B) .

85
En particular
P (Br+1 ) = PXr+1 (Br+1 ) ,
y luego

PX (B1 B2 Br Br+1 (, xr+2 ] (, xk ])


PXr+1 (Br+1 ) = .
PX1 (B1 ) PXr (Br ) PXr+1 (R) PXk ((, xk ]) .

Despejando de la ecuacin anterior y usando que PXr+1 (R) = 1 obtenemos

PX (B1 B2 Br Br+1 (, xr+2 ] (, xk ])


= PXr+1 (Br+1 ) PX1 (B1 ) PXr (Br ) PXr+2 (Br+2 ) PXk ((, xk ])
= PX1 (B1 ) PXr (Br ) PXr+1 (Br+1 ) PXk ((, xk ]) ,

y luego tambin vale Ar+1 . 2

4.5.2. Conservacin de la independencia por transformaciones.


El siguiente teorema prueba que la independencia se conserva por trans-
formaciones.

Teorema 4.14 Sea (, A, P ) un espacio de probabilidad sean X1 , X2 , . . . , Xh


variables aleatorias independendientes. Si gj : R R, j = 1, 2, . . . , h son
funciones medibles entonces Y1 = g1 (X1 ) , Y2 = g2 (X2 ) , . . . , Yh = gh (Xh ) tambin
son variables aleatorias independientes.

Demostracin. Aplicamos la definicin de independencia. Dados B1 , B2 , . . . , Bh


borelianos arbitrarios queremos probar que los conjuntos

Y11 (B1 ) , Y21 (B2 ) . . . , Yh1 (Bh )

son eventos independientes. Ahora bien para cada j = 1, 2, . . . , h se tiene



Yj1 (Bj ) = Xj1 gj1 (Bj ) = Xj1 (Cj ) ,

donde Cj = gj1 (Bj ) . Como los Cj , j = 1, 2, . . . , h son borelianos, la inde-


pendencia de las variables Xj implica que los eventos Xj1 (Cj ) son indepen-
dientes. Luego las variables Y1 , . . . Yh son independientes. 2

4.5.3. Independencia de vectores aleatorios.


Definicin 4.8 Definicin. Sea (, A, P ) un espacio de probabilidad. Sean
X1 , X2 , . . . , Xh vectores aleatorios de dimensiones k1 , k2 , . . . , kh respectiva-
mente, esto es
Xi : Rki , i = 1, 2, . . . , h

86
son vectores aleatorios. Diremos que el sistema de vectores es independiente
si dados B1 Bk1 , B2 Bk2 , . . . , Bh Bkh , borelianos arbitrarios en sus
respectivos espacios, los conjuntos X1 j (Bj ) , j = 1, 2, . . . , h son eventos
independientes.

Las siguientes dos proposicines dan condiciones necesarias y suficientes


para que un conjunto de vectores aleatorios sean independientes. Las dos
condiciones son anlogas a las obtenidas para variables aleatorias.

Propiedad 4.6 Una condicin necesaria y suficiente para que el conjunto


de vectores X1 , X2 , . . . , Xh , donde Xi es de dimensin ki sean independi-
entes es que para todo B1 Bk1 , B2 Bk2 , . . . , Bh Bkh se cumpla

e (B1 B2 Bh ) = PX1 (B1 ) PX2 (B2 ) . . . PXh (Bh ) ,


PX

e = (X1 , X2 , . . . , Xh ) .
donde X

Demostracin. Anloga a la demostracin de la proposicin correspondiente


para variables aleatorias. 2

Propiedad 4.7 Una condicin necesaria y suficiente para que un conjunto


de vectores X1 , X2 , . . . , Xh sean independientes es que para todo (x1, x2 , . . . , xh )
Rk1 Rk2 Rkh se tenga

FX
e (x1, x2 , . . . , xh ) = FX1 (x1 ) FX2 (x2 ) . . . FXh (xh ) ,

e = (X1 , X2 , . . . , Xh ) .
donde X

Demostracin. Anloga a la demostracin de la proposicin correspondiente


para variables aleatorias.2

Propiedad 4.8 Sean X1 , X2 , . . . , Xh un sistema de vectores aleatorios de


dimensiones k1 , k2 , .., kh respectivamente. Sean g1 , g2 , . . . , gh funciones med-
ibles, gi : Rki Rji , i = 1, 2, . . . , h. Entonces los vectores aleatorios
Y1 = g1 (X1 ) , Y2 = g2 (X2 ) , . . . , Yh = gh (Xh ) son independientes.

Demostracin. Anloga a la demostracin de la proposicin correspondiente


para variables aleatorias. 2

87
88
Captulo 5

Vectores aleatorios discretos


y continuos.

Tal como ocurre con las variables aleatorias, existen distintos tipos de
vectores aleatorios.

5.1. Vectores aleatorios discretos.


Definicin 5.1 Sea X = (X1 , X2 , . . . , Xh ) un vector aleatorio. Si dice que
X es discreto o bien que tiene distribucin discreta sii para cada i =
1, 2, . . . , h, Xi es un variable aleatoria discreta.

Esto implica, de acuerdo a lo estudiado, que para cada i = 1, 2, . . . , h


existe un conjunto finito o infinito numerable RXi tal que PXi (RXi ) = 1.
La Propiedad 5.2 que enunciaremos en breve muestra que el conjunto

RX = RX1 RXh
es finito o infinito numerable y que PX (R ) = 1.
Necesitamos previamente demostrar la siguiente propiedad

Propiedad 5.1 Sean A1 , . . . , Ah una sucesin finita de eventos tal que para
todo i, 1 i h, tal que P (Ai ) = 1. Entonces
h !
\
P Ai = 1.
i=1

Demostracin. Basta probar que la probabilidad del complemento es cero.


Eso se sigue inmediatamente dado que la probabilidad es subaditiva y P (Aci ) =
0. En efecto, se tiene
h !c ! h ! h
\ [ X
0P Ai =P Aci P (Aci ) = 0.
i=1 i=1 i=1

89
Luego !! !c !
h
\ h
\
P Ai =1P Ai = 1. 2
i=1 i=1

Observacin. La Propiedad 5.1 tambin vale para una sucesin numerable


de eventos y su demostracin es anloga.
Propiedad 5.2 Sea X = (X1 , X2 , . . . , Xh ) un vector aleatorio. Entonces el
conjunto

RX = RX1 RXh
es finito o infinito numerable y
PX (R ) = 1.
Demostracin. RX es a lo sumo numerable, porque un producto cartesiano

finito de conjuntos a lo sumo numerables es a lo sumo numerable. Adems


h
\
{: X () RX1 RXh } = { : Xi () RXi }.
i=1

Luego por la Propiedad 5.1



PX (RX ) = PX (RX1 RXh ) = P ({: X () RX1 RXh })
h !
\
=P { : Xi () RXi } = 1,
i=1

ya que P ({ : Xi () RXi }) = PXi (RXi ) = 1. 2


De manera anloga a como lo hicimos para una sola variable se puede
buscar el mnimo conjunto que tiene probabilidad 1. Este conjunto puede
.
ser distinto de RX

Ejemplo 5.1 Consideremos un vector aleatorio X = (X1 , X2 ) que asume


los valores {(0, 0) , (1, 1)} con la misma probabilidad 0,5. De esto se deduce
que las variables aleatorias X1 , X2 a su vez asumen los valores 0 y 1 con
probabilidad 0,5 para ambos. Ahora bien

RX = RX1 RX2 = {(0, 0) , (1, 1) , (0, 1) , (1, 0)}.
puede ser reducido a R = {(0, 0) , (1, 1)}.
Se ve que el conjunto RX X

Ms generalmente si X es un vector discreto de dimensin k, podemos


considerar el conjunto de los tomos de la probabbilidad,
RX = {x :PX ({x}) > 0} RX1 RXh .
El siguiente Teorema, cuya demostracin es anloga al Teorema 3.1 mues-
tra que RX es el minimo conjunto de probabilidad 1.

90
Teorema 5.1 Se tiene que PX (RX ) = 1. Adems si B Bk es tal que
PX (B) = 1, entonces RX B.

5.1.1. Funcin de densidad de probabilidad conjunta.


Una vez obtenido el conjunto RX donde se concentra la probabilidad de
un vector aleatorio discreto, vamos a mostrar que de igual manera que en
el caso de una variable aleatoria, podemos determinar una funcin definida
ahora sobre Rk que determina totalmente a PX .

Definicin 5.2 Sea X = (X1 , X2 , . . . , Xk ) un vector aleatorio discreto. Se


define la funcin densidad de probabilidad conjunta pX : Rk [0, 1] , aso-
ciada al vector X por
pX (x) = PX ({x}) .

Observacin. De acuerdo a la definicin de RX se tendr



>0 si x RX
pX (x) =
0 si x
/ RX .

Como consecuencia de las anteriores observaciones y de manera anloga


a como lo hemos hecho para una sola variable se tiene el siguiente teorema.

Teorema 5.2 Para todo B Bk se tiene


X
PX (B) = pX (x)
xBRX
X
= pX (x) .

xBRX

=R
Muchas veces es conveniente considerar el conjunto RX X1 RX2
RXk en vez de RX .

Teorema 5.3 Sea B = B1 B2 Bk , donde B1 , . . . , Bk son borelianos


en R. Entonces

(a)
X X X
PX (B) = ... pX (x1 , x2 , . . . , xk ) .
xk Bk RXk xk1 Bk1 RXk1 x1 B1 RX1

(b) X X X
... pX (x) = 1.
xk RXk xk1 RXk1 x1 RX1

91
Demostracin.
X
PX (B) = pX (x)
xBRX
X
= pX (x)

xBRX
X
= pX (x)
xB(RX1 RX2 RXk )
X
= pX (x)
xB1 RX1 B2 RX2 Bk RXk
X X X
= ... pX (x1 , x2 , . . . , xk ) .
xk Bk RXk xk1 Bk1 RXk1 x1 B1 RX1

Luego (a) vale. En particular si tomamos Bi = R, luego B = Rk y



1 = PX Rk
X
= pX (x)
xRX1 RX2 RXk
X X X
= ... pX (x) ,
xk RXk xk1 RXk1 x1 RX1

y luego (b) vale. 2

5.1.2. Caracterizacin de la funcin de densidad marginal


asociada a un subconjunto de variables.
Se trata de determinar a partir de la funcin de densidad conjunta, la
marginal asociada a un subconjunto arbitrario de variables. Para fijar ideas,
consideremos un vector aleatorio X = (X1 , X2 , . . . , Xh , Xh+1 , . . . , Xk ) y un
subvector X = (X1 , X2 , . . . , Xh ) .

Propiedad 5.3 La funcin de densidad marginal asociada al vector X


viene dada por la frmula
X X X
pX (x) = ... pX (x1 , . . . , xh , xh+1 , . . . , xk ) .
xh+1 RXh+1 xh+2 RXh+2 xk RXk

Demostracin. Aplicando la definicin de pX

pX ((x1 , x2 , . . . , xh )) = PX ({(x1 , x2 , . . . , xh )})


= PX ({{x1 } {x2 } {xh } R R) .

92
Entonces de acuerdo al resultado anterior

pX ((x1 , x2 , . . . , xh )) = PX ({x1 } {x2 } {xh } R R)


X X
= ... pX (x1 , . . . , xh , xh+1 , . . . , xk )
xk RRXk xh+1 RRXk+1
X X
= ... pX (x1 , . . . , xh , xh+1 , . . . , xk ). 2
xk RXk xk+1 RXk+1

Ahora vamos a dar una condicin necesaria y suficiente de independencia


para el caso de variables aleatorias con distribucin discreta, en trminos de
la funcin de densidad conjunta y sus marginales.
Para esto recordemos que una condicin necesaria y suficiente para que
el sistema de variables aleatorias X1 , X2 , . . . , Xh sea independiente es que
dados borelianos arbitrarios B1 , B2 , . . . , Bh

PX (B1 B2 Bh ) = PX1 (B1 ) PX2 (B2 ) . . . PXh (Bh ) . (5.1)

Teorema 5.4 Sea X = (X1 , X2 , . . . , Xh ) un vector aleatorio con distribu-


cin discreta. Una condicin necesaria y suficiente para que el conjunto de
variables aleatorias X1 , X2 , . . . , Xh con distribucin discreta sea independi-
ente es que para todo x = (x1 , . . . , xh ) Rh

pX (x) = pX1 (x1 ) pX2 (x2 ) . . . pXh (xh ) . (5.2)

Demostracin.
Es fcil ver que (5.2) es necesaria. Tomando en particular los borelianos
Bj = {xj }, j = 1, 2, . . . , h y aplicando (5.1) se obtiene

pX (x) = PX ({(x1 , x2 , . . . , xh )}) = PX ({x1 } {x2 } {xh })


= PX1 ({x1 }) PX2 ({x2 }) . . . PXh ({xh })
= pX1 (x1 ) pX2 (x2 ) . . . pXh (xh ) .

Ahora veamos la suficiencia. Tenemos que probar que si ocurre (5.2) en-
tonces las variables X1 , . . . , Xh son independientes. Como (5.1) implica la
suficiencia, bastar probar que (5.2) implica (5.1).
Como la demostracin para k = 2 es similar a la demostracin general
pero la notacin es ms simple, lo probaremos en este caso. Consideremos un

93
vector de dos componentes X = (X1 , X2 ) y sean B1 , B2 borelianos, entonces
X X
PX (B1 B2 ) = pX (x1 , x2 )
x1 B1 RX1 x2 B2 RX2
X X
= pX1 (x1 ) pX1 (x2 )
x1 B1 RX1 x2 B2 RX2

X X
= pX1 (x1 ) pX1 (x2 ) . 2
x1 B1 RX1 x2 B2 RX2

Observacin. En la ltima igualdad hemos usado la frmula


! !
X XX X X
ab = ab = a b
(a,b)AB aA bB aA bB

5.2. Ejemplos de vectores aleatorios con distribu-


cin discreta.
5.2.1. Distribucin Multinomial.
Supongamos que un experimento que tiene k posibles resultados se repite
n veces en forma independiente. Sean Ai , i = 1, 2, . . . , k, los posibles resul-
tados del experimento y pi la probabilidad que el resultado sea Ai . Luego
k
X
pi = 1.
i=1

Existen una gran cantidad de ejemplos de este tipo de experimentos.


Por ejemplo si se tira un dado hay seis posibles resultados con la misma
probabilidad . Luego pi = 1/6, i = 1, . . . , 6. Otro experimento puede ser
se registra el voto de n ciudadanos elegidos al azar en una eleccin donde
hay k candidatos. En este caso en principio los valores de los pi pueden ser
arbitrarios.
Denotamos con Xi a la variable aleatoria cantidad de veces que ocurre
el resultado Ai a lo largo de los n experimentos i = 1, 2, . . . , k y formemos
el vector aleatorio X = (X1 , X2 , . . . , Xk ) . Se dice que el vector aleatorio
X = (X1 , . . . , Xk ) tiene distribucin multinomial con k resultados distin-
tos con probabilidades p1 , . . . , pk y n repeticiones y ser simbolizada por
Mk (p1 , . . . , pk , n).
Como espacio muestral consideremos
= {(i1 , i2 , . . . , in ) : ij N, 1 ij k},
donde ij indica el resultado que ocurri en la jsima repeticin del exper-
imento.

94
Por ejemplo si n = 4 y k = 3 la 4-upla (1, 3, 2, 3) indica que el resultado
A1 ocurri la primera vez y nunca ms, el resultado A3 la segunda y cuarta
vez y el resultado A2 la tercera.
Con este espacio muestral, las variables aleatorias Xj : N estn
definidas por
Xi ((i1 , i2 , . . . , in )) = #{j : ij = i}.

y se tiene que
k
X
Xi ((i1 , i2 , . . . , in )) = n.
i=1

El espacio no es equiprobable. Vamos a encontar ahora la probabilidad


de cada elemento (i1 , . . . , in ) de .Consideremos los eventos

Bj = {en el experimento j el resultado fue ij }, j = 1, . . . , n

Vamos ahora encontrar la probabilidad P definida sobre .Luego el resul-


tado (i1 , i2 , . . . , in ) es equivalente a la interseccin de Bj , 1 j n. Como
suponemos independencia de los experimentos y el evento Bj tiene proba-
bilidad pj ,resulta

P ({(i1 , i2 , . . . , in )}) = pi1 pi2 . . . pin


X ((i1 ,i2 ,...,in )) X2 ((i1 ,i2 ,...,in )) X ((i1 ,i2 ,...,in ))
= p1 1 p2 pk k .
(5.3)

El rango de X es
( n
)
X
RX = (x1 , . . . , xk ) : 0 xi n, xi = n
i=1

Fijado x = (x1 , . . . xk ) RX , calcularemos la probabilidad del evento

A = X1 (x)
= {(i1 , i2 , . . . , in ) : X ((i1 , i2 , . . . , in )) = (x1 , x2 , . . . , xk )}.

El evento A ocurre cuando para cada i, 0 xi k, el resultado Ai ocure xi


veces en las n repeticiones del experimento. En particular si (i1 , i2 , . . . , in )
A, de acuerdo a (5.3) se tendr

P ({(i1 , i2 , . . . , in )}) = px1 1 px2 2 pxk k .

Luego todo los elementos de A tienen la misma probabilidad y por lo


tanto la probabilidad de A estar dada por la probabilidad de un elemento

95
por su cardinal . Un argumento simple de combinatoria muestra que

n n x1 n x1 x2 xk
#A =
x1 x2 x3 xk
n! (n x1 )! (n x1 x2 )!
= .,1
(x1 )! (n x1 )! (x2 )! (n x1 x2 )! (x3 )! (n x1 x2 x3 )!
n!
= .
(x1 )! (x2 )! (x3 )! . . . (xk )!

Esto resulta del hecho de que para elegir un elemento de A hay que elegir
los x1 lugares donde ocurri A1 entre los n, hay que elegir los x2 lugares en
los que ocurrin A2 entre los n x1 restantes, etc.
Luego tendremos
n!
pX (x1 , x2 , . . . , xk ) = PX (A) = .px1 1 p2x2 . . . pxkk .
(x1 )! (x2 )! (x3 )! . . . (xk )!

5.2.2. Distribucin Hipergeomtrica Multivariada.


Consideremos N objetos que pueden clasificarse en k clases distintas
A1 , A2 , . . . , Ak .
Supongamos conocida la cantidad de objetos de cada clase, digamos D1
de
Pkla clase A1 , D2 de la clase A2 , . . . , Dk de la clase Ak , y por lo tanto
i=1 Di = N. Supongamos que se realizan extracciones de n objetos y
sea Xi la cantidad de objetos de la clase i que se obtuvieron en las n
extracciones. Consideremos el vector aleatorio X = (X1 , X2 , . . . , Xk ) .
Existen dos posibilidades

(a) Las extracciones se hacen con reposicin. En este caso, el experimento


tiene distribucin multinomial con parmetros p1 , p2 , . . . , pk y n, donde
pi = Di /N.

(b) Las extracciones se hacen sin reposicin. En este caso la distribu-


cin se denomina hipergeomtrica multivariada y ser denotada por
HGMk (D1 , . . . , Dk , n).

El rango del vector X estar dado por

RX = {(x1 , x2 , . . . , xk ) : 0 xi Di , x1 + x2 + + xk = n}.

Como cada n-upla tiene una probabilidad distinta, no ser conveniente


tomar como espacio muestral el conjunto de estas kuplas. Para construir
un espacio de probabilidad equiprobable procedemos de la siguiente manera.
Comenzamos enumerando todos los objetos de la siguiente manera. Los de
clase 1 por
M1 = {1, 2, . . . , D1 }.

96
Los de la clase 2 por

M2 = {D1 + 1, D1 + 2, . . . , D1 + D2 }.

Los de la clase 3 por

M3 = {D1 + D2 + 1, D1 + D2 + 2, . . . , D1 + D2 + D3 }.

y finalmente los de la clase k por


(k1 k1 k
)
X X X
Mk = Di + 1, Di + 2, . . . , Di .
i=1 i=1 i=1

Definamos entonce el espacio muestral por

= {A : A {1, . . . , N }, #A = n},

Si el conjunto A se interpreta como el conjunto de los nmeros de las bolillas


obtenidas, resultar que todos los elementos de son equiprobables. Por
ejemplo si N = 20 y n = 3 la probabilidad de extraer los elementos {1, 2, 17}
o {2, 6, 8} es la misma.
El nmero de elementos de es la cantidad de subconjuntos de n ele-
mentos que se pueden formar con los N dados. Luego

N
# () =
n

Dado A , se define Xi (A) = # (A Mi ) , 1 i k, y X(A) =


(X1 (A), . . . , Xk (A)). Consideremos ahora el evento

C = {A : X (A) = (x1 , x2 , . . . , xk )}.

El evento C representa todas las extracciones en las que resulta que hay
exactamente x1 elementos de la clase A1 , x2 de la clase A2 , ..., xk de la clase
A. Un argumento combinatorio simple muestra que el cardinal de C es

D1 D2 Dk
# (C) = ,
x1 x2 xk

de manera que
D1 D2 Dk
x1 x2 xk
pX (x1 , x2 , . . . , xk ) = P (C) = N .
n

97
5.3. Vectores Aleatorios de tipo absolutamente con-
tinuo.
Definicin 5.3 Sea (, A, P ) un espacio de probabilidad y X = (X1 , X2 , . . . , Xk )
un vector aleatorio. Se dice que el vector es absolutamente continuo si exis-
te una funcin integrable sobre Rk , fX : Rk R0 llamada funcin de
densidad de la probabilidad PX tal que
Z xk Z xk1 Z x1
FX (x1 , x2 , . . . , xk ) = fX (t1 , t2 , . . . , tk ) dt1 dt2 . . . dtk
Z Z

= fX (t) dt,
(,x1 ](,x2 ](,xk ]

donde t = (t1 , t2 , . . . , tk ) y dt = dt1 dt2 . . . dtk .

Tomando lmite cuando x1 , . . . , xk , se tendr


Z + Z + Z +
fX (t) dt = PX (Rk ) = 1.

El siguiente teorema da la probabilidad que un vector aleatorio tome valores


en un rectngulo k-dimensional.

Teorema 5.5 Supongamos que X = (X1 , . . . , Xk ) sea un vector aleatorio


absolutamente continuo con densidad fX . Sean a1 < b1 , a2 < b2 , a3 <
b3 , . . . , ak < bk . Luego se tiene

PX ((a1 , b1 ] (a2 , b2 ] (ak , bk ])


Z bk Z bk1 Z b1
= fX (t1 , t2 , . . . , tk ) dt1 dt2 . . . dtk .
ak ak1 a1
Z Z
= fX (t) dt,
(a1 ,b1 ](a2 ,b2 ](ak ,bk ]

Demostracin. Tenemos que mostrar que

4k (ak , bk ) 41 (a1 , b1 ) FX (x1 , x2 , . . . , xk )


Z bk Z bk1 Z b1
= fX (t1 , t2 , . . . , tk ) dt1 dt2 . . . dtk .
ak ak1 a1

Para esto bastar probar que para todo 1 h k se tiene

4h (ah , bh ) 41 (a1 , b1 ) FX (x1 , x2 , . . . , xh, xh+1 , . . . xk )


Z xk Z xh+1 Z bh Z b1
= fX (t1 , t2 , . . . , th, th+1 , . . . tk ) dt1 dt2 . . . dth ,
ah a1

98
y esto se prueba por induccin en h. 2
Observacin. Usando la integral de Lebesgue, se puede probar, mediante
teora de la medida e integracin que para todo boreliano B Bk
Z Z
PX (B) = fX (t) dt. (5.4)
B

Si se usa la integral de Riemman, la integral del segundo miembro de (5.4)


puede no existir. Unicamente existe si el borde de B tiene medida de Riem-
man 0. En cambio la correspondiente integral de Lebesgue siempre existe.
Desde el punto de vista prctico en este curso solo se va a trabajar con
conjuntos B para los cuales la integral de Riemman existe.
La funcin de densidad de probabilidad tiene una interpretacin anloga
a la que hemos visto para el caso univariado. La siguiente propiedad dice
que en un punto de continuidad, el lmite de la probabilidad de un entorno
de un punto sobre su volumen, cuando el entorno se aproxima al punto es
el valor de la densidad en el punto. Ms precisamente

Teorema 5.6 Sea fX la funcin densidad asociada al vector aleatorio


X = (X1 , X2 , . . . , Xk ) continua en el punto x0 = (x10 , x20 , . . . , xk0 ) . En-
tonces
PX ([x10 h, x10 + h] [xk0 h, xk0 + h])
lm = fX (x0 ) .
h0 (2h)k

Demostracin. Es anloga al caso univariado y se deja como ejercicio. 2


Observacin. Los entornos cbicos se pueden reemplazar por otro tipo de
entornos, por ejemplo entornos esfricos. En el denominador habr que poner
el volumen correspondiente.
Bajo el supuesto de que la densidad sea continua, se puede escribir la
densidad como la derivada parcial cruzada de orden k de la funcin de
distribucin.

Teorema 5.7 Supongamos que fX sea continua en x0 . Entonces



k FX (x1 , x2 , . . . , xk )
fX (x0 ) = .
xk xk1 x1 x=x0

Demostracin. Por Fubini se tiene


Z xk Z xk1 Z x1
FX (x1 , x2 , . . . , xk ) = fX (t1 , t2 , . . . , tk ) dt1 dt2 . . . dtk

Z x1 Z xk Z xk1 Z x1
= fX (t1 , t2 , . . . , tk ) dt2 . . . dtk dt1

99
y aplicando el teorema fundamental del clculo resulta
Z xk Z xk1 Z x2
FX (x1 , x2 , . . . , xk )
= fX (x1 , t2 , . . . , tk ) dt2 . . . dtk .
x1
Z x2 Z xk Z xk1 Z x3
= fX (x1 , t2 , . . . , tk ) dt3 . . . dtk dt2

y aplicando nuevamente el teorema fundamental del clculo obtenemos


Z xk Z xk1 Z x2
FX (x1 , x2 , . . . , xk )
= fX (x1 , x2 , t3 , . . . , tk ) dt3 . . . dtk .
x2 x1

Repitiendo lo mismo k veces se demuestra el teorema. 2

Definicin 5.4 Dado un boreliano B Bk se define su volumen de la sigu-


iente manera
Z Z Z Z
V ol (B) = dx1 dx2 . . . dxk = dx.
B B

Observacin. Un caso tpico de conjuntos con volumen 0 resulta ser un


punto en R, una recta en R2 , un plano en R3 y en general un hiperplano en
Rk . Las uniones a lo sumo numerables de conjuntos de volumen cero tienen
volumen cero. En general cualquier subconjunto de Rk de dimensin j con
j < k tendr volumen 0. Por ejemplo las curvas en R2 o las superficies en
R3 .
Veremos que si el vector aleatorio es absolutamente continuo la funcin
de probabilidad asociada asigna probabilidad 0 a conjuntos cuyo volumen
es 0.

Teorema 5.8 Sea X un vector aleatorio de dimensin k. Si B Bk tal que


Vol(B) = 0 entonces PX (B) = 0.

Demostracin. Sea
Cn = {x Rk : fX (x) > n}.
Es claro que si x Cn+1 entonces fX (x) > n+1 > n de manera que x Cn ,
es decir la sucesin de conjuntos {Cn }n1 es decreciente
T y adems, puesto
que la funcin fX es finita en todo punto, se tiene n=1 Cn = . Luego
tambin se tendr
lm PX (Cn ) = 0.
n

Podemos descomponer a B = (B Cn ) (B Cnc ) . Como esta unin es


disjunta, se tiene

PX (B) = PX (B Cn ) + PX (B Cnc ) .

100
Ahora calculamos PX (B Cnc ). Para ello observemos que para todo n N
Z Z
P (B Cnc ) = fX (x) dx
c
BCn
Z Z
n dx
BCnc

c
= nVol (B Cn )
nVol (B)
= 0.

Entonces para todo n N resulta

PX (B) = PX (B Cn ) PX (Cn ) ,

de manera que pasando al lmite se concluye que PX (B) = 0. 2


Observacin. Existe una diferencia importante entre los vectores discretos
y los absolutamente continuos. Recordemos que un vector es discreto si y
slo si sus componentes son variables discretas. Esto no ocurre en el caso de
los vectores aleatorios absolutamente continuos. Para demostrarlo daremos
un contraejemplo.
Consideremos una variable aleatoria X1 , con distribucin absolutamente
continua y sea X2 = X1 de manera que el vector X = (X1 , X2 ) tiene como
componentes variables aleatorias con distribuciones absolutamente conti-
nuas. Ahora veamos que el vector X no puede tener distribucin absoluta-
mente continua.
Para ello observemos que

B = {(x1 , x2 ) R2 : x1 = x2 }

es una recta en R2 de manera que tiene volumen cero. Pero sin embargo

PX (B) = P ({ : X1 () = X2 ()) = P () = 1.

Teorema 5.9 Sea X = (X1 , X2 , . . . , Xh , Xh+1 , . . . , Xk ) un vector aleatorio


de dimensin k. Consideremos un subconjunto de coordenadas y formemos
el vector aleatorio asociado X = (X1 , X2 , . . . , Xh ). Entonces X tambin es
absolutamente continuo y

fX (x1 , x2 , . . . , xh ) (5.5)
Z + Z + Z +
= fX (x1 , x2 , . . . xh , th+1 , . . . , tk ) dth+1 dth+2 . . . dtk .

101
Demostracin. Tenemos que

FX (x1 , x2 , . . . , xh )
= PX ((, x1 ] (, x2 ] (, xh ])

= PX (, x1 ] (, x2 ] (, xh ] R
| R
{z R}

kh factores
Z Z
= fX (t1 , t2 , . . . , tk ) dt1 dt2 . . . dtk
(,x1 ](,x2 ]...(,xh ]RR...R
Z + Z + Z + Z xh Z x1
= fX (t1 , t2 , . . . , tk ) dt1 . . . dth dth+1 dth+2 . . . dtk

Por lo tanto, usando Fubini, se tendr

FX (x1 , x2 , . . . , xh )
Z + Z + Z + Z xh Z x1
= fX (t1 , t2 , . . . , tk ) dt1 . . . dth dth+1 dth+2 . . . dtk

Z xh Z x1 Z + Z + Z +
= fX (t1 , t2 , . . . , tk ) dth+1 dth+2 . . . dtk dt1 . . . dth

Luego tenemos que


Z xh Z x1
FX (x1 , x2 , . . . , xh ) = fX (t1 , t2 , . . . , th ) dt1 . . . dth ,

donde fX est dada por (5.5). Esto prueba el Teorema. 2


Observacin. Por comodidad hemos escogido las primeras h componentes
pero lo mismo puede hacerse para una coleccin arbitraria de ellas. En el
caso de una distribucin bivariada X = (X1 , X2 ) , X = X1
Z +
fX1 (x1 ) = fX (x1 , x2 ) dx2 .

El siguiente Teorema da una condicin necesaria y suficiente para que


un conjunto de variables absolutamente continuas sean independientes.

Teorema 5.10 Sean X1 , . . . , Xk variables aleatorias absolutamente contin-


uas con densidades fX1 , . . . , fXk . Luego estas variables son independientes
si y slo si el vector X = (X1 , . . . Xk ) tiene como densidad conjunta a la
funcin
k
Y
f (x1 , . . . , xk ) = fXi (xi ).
i=1

102
Demostracin. Como sabemos, por el Teorema 4.13, que X1 , . . . , Xk son in-
dependientes si y slo si
k
Y
FX (x) = FXi (xi ), (5.6)
i=1

por el Teorema 4.5 (Teorema de Extensin para vectores aleatorios) bastar


probar que la funcin de distribucin F correspondiente a f est dada por
(5.6). Vamos a mostrar que esto es cierto. En efecto, tenemos
Z xk Z x1 k
Y
F (x1 , . . . , xk ) = .. fXi (xi )dx1 . . . dxk
i=1
k Z
Y xi
= fXi (xi )dxi
i=1
Yk
= FXi (xi ),
i=1

y luego el Teorema queda probado. 2

El siguiente Teorema que se deja como ejercicio prueba una propiedad


similar para vectores.

Teorema 5.11 Sean X1 , . . . , Xk vectores aleatorios absolutamente contin-


uos con densidades fX1 , . . . , fXk . Luego estos vectores son independientes si
y slo si el vector X = (X1 , . . . Xk ) tiene como densidad a la funcin
k
Y
f (x1 , . . . , xk ) = fXi (xi ).
i=1

103
104
Captulo 6

Transformaciones de
variables y vectores
aleatorios.

En esta seccin estudiaremos cmo se obtienen las distribuciones de vari-


ables o vectores aleatorios obtenidos a partir de otros a travs de cierto tipo
de transformaciones.

6.1. Transformaciones montonas de variables aleato-


rias.
Sea (, A, P ) un espacio de probabilidad y X una variable aleatoria.
Consideremos una funcin g : R R continua y estrictamente mon-
tona, es decir, estrictamente creciente o bien estrictamente decreciente. Sabe-
mos que Y = g (X) es otra variable aleatoria. Queremos estudiar la relacin
que existe entre FX y FY .
Caso de g estrictamente creciente.
La imagen de g (R) es un intervalo abierto (a, b) de longitud finita o bien
infinita, es decir tambin puede ser y b = .El siguiente teorema da la
relacin entre FX y FY .

Teorema 6.1 Sea g : R R una funcin estrictamente creciente y sea


(a, b) = g(R). Entonces si X es una variable aleatoria con funcin de dis-
tribucin FX , la funcin de distribucin de Y = g(X) ser

0 si y a
FY (y) = FX g 1 (y) si y (a, b) (6.1)

1 si y b.

105
Demostracin. Sea a < y < b. Como g es estrictamente creciente se tendr

FY (y) = P (Y y) = P (g (X) y) = P X g 1 (y) = FX g 1 (y) .

Si y a se tendr que { : g(X()) y} = y luego

FY (y) = P ({ : g(X()) y}) = 0.

Del mismo modo, si y b se tendr { : g(X()) y} = , y luego

FY (y) = P ({ : g(X()) y}) = 1. 2

Caso de g estrictamente decreciente.


Nuevamente la imagen de g es un abierto (a, b) de longitud finita o
infinita. En este caso tenemos el siguiente teorema.

Teorema 6.2 Sea g : R R una funcin estrictamente decreciente (a, b) =


g(R). Entonces se tiene

(a) Si X es una variable aleatoria con funcin de distribucin FX , la fun-


cin de distribucin de Y = g(X) ser

0 si y a
FY (y) = 1 P X < g 1 (y) si y (a, b) (6.2)

1 si y b.

(b) Si adems FX es continua se tendr



0 si y a
FY (y) = 1 FX g 1 (y) si y (a, b) (6.3)

1 si y b.

Demostracin.

(a) Como g es estrictamente decreciente se tiene para a < y < b que

FY (y) = P (Y y) = P (g (X) y)

= P X g 1 (y) = 1 P X < g 1 (y) .

Los casos y a y y b se demuestran como en el Teorema 6.1.

(b) En este caso se tiene



P X < g 1 (y) = P X g 1 (y) = 1 FX g 1 (x) . 2

106
Ahora caracterizaremos la funcin de densidad asociada a Y . Suponga-
mos que X tiene distribucin absolutamente continua con densidad fX y
adems que g es derivable.

Teorema 6.3 Sea g : R R una funcin estrictamente creciente o decre-


ciente y derivable con g 0 (y) 6= 0. Sea (a, b) = g(R), entonces si X es una
variable aleatoria absolutamente continua con funcin de densidad fX , la
funcin de densidad de Y = g(X) ser


0 si y a
f g 1 (y)

X
fY (y) = si y (a, b) (6.4)

|g 0 (g 1 (y)) |

0 si y b.

Demostracin. En el caso de que g es estrictamente creciente, (6.4) se obtiene


derivando (6.1) y observando que g 0 > 0. En el caso que g sea estrictamente
decreciente, derivando (6.3) y observando que g 0 < 0. 2
Un caso especial de inters ocurre cuando g es una transformacin afn,
es decir cuando g (x) = cx + d con c 6= 0. En este caso Y = g (X) = cX + d y
yd
g 0 (x) = c. Como a = y b = +, teniendo en cuenta que g 1 (y) =
c
obtenemos
1 yd
fX (y) = fX . (6.5)
|c| c

6.1.1. Distribucin Normal


Hemos visto la distribucin de una variable normal standarizada X
N (0, 1) cuya funcin densidad es
1
fX (x) = exp x2 .
2
Ahora vamos a definir para todo R y para todo R>0 la distribu-
cin normal con media y varianza 2 que indicaremos con N(, 2 ). Esta
distribucin es la que corresponde a Y = X + , donde X es N (0, 1) .
De acuerdo a (6.5) tendremos

1 y
fY (y) = fX

!
1 1 1 y 2
= exp
2 2
!
1 (y )2
= exp .
2 2 2

107
0.8
0.6
0.4
0.2
0.0

-4 -2 0 2 4

Figura 6.1: Densidad de la normal estndar (en lneal llena), de la N(0, 4) (en lnea

de puntos) y de la N 0, 14 (en lnea de puntos y rayas).

El significado de los parmetros y se estudiar en la seccin 7.7.1.


Adelantemos que representa un desplazamiento horizontal de la densidad
e indica el centro de simetra de la misma. La densidad alcanza su mximo
en y a medida que nos alejamos de , la densidad va decreciendo. El
parmetro , indica la dispersin de la variable respecto del centro. Un factor
grande achata la curva hacia el eje de abcisas, y en este caso la dispersin
es grande . Cuando es chico, la probablidad esta ms concentrada cerca
de .
En la Figura 6.1 se muestran densidades normales con diferentes valores
de ilustrando el significado de este parmetro.

Ejercicio. Se deja como ejercicio mostrar que si Y tiene distribucin


N(, 2 ), entonces Z = (Y )/ tiene distribucin N(0, 1). Esta transfor-
macin se llama estandarizacin de la variable Y y permite calcular las prob-
abilidades de cualquier distribucion N(, 2 ) usando la distribucin N(0, 1).
Por ejemplo, sea Y con distribucin N(3, 4) y supongamos que queremos
encontrar P (3 < Y < 5). Luego Z = (Y 3)/2 es N(0, 1) y tendremos

33 Y 3 53
P (3 < Y < 5) = P < <
2 2 2
= P (0 < Z < 1)
= (1) (0)

donde es la funcin de distribucin de una N(0, 1). Usando una tabla de

108
la N(0, 1) encontramos que (0) = 0,50 y (1) = 0,8413 Luego

P (3 < Y < 5) = 0,8413 0,50 = 0,3413.

6.2. Transformaciones inyectivas de vectores aleato-


rios.
Recordemos algunos resultados de clculo integral en varias variables.
Sea U Rk un abierto y g : U Rk una funcin inyectiva de manera que
g : U V = g (U ) resulta biyectiva. Podemos representar g = (g1 , . . . , gk ),
donde gi : U R. Luego existe g 1 : V U. Supongamos que g es
diferenciable en cada punto x U. El jacobiano de g se define por

g1 (x) g1 (x) g1 (x)
x1
x2 xk
g2 (x) g2 (x) g2 (x)

Jg (x) = det
x. 1 x2 xk 6= 0.
.. .. .. ..
. . .
gk (x) gk (x) gk (x)

x1 x2 xk
1
Entonces si y V y Jg g (y) 6= 0, resulta que g 1 es diferenciable en
y y se tiene
1
Jg1 (y) = 1
.
Jg (g (y))
El siguiente teorema permite realizar un cambio de variables para inte-
grales mltiples.

Teorema 6.4 Sea A U Rk un conjunto tal que el borde tiene medida


de Riemann 0, f : U R una funcin continua, g : Rk Rk una funcin
inyectiva y diferenciable tal que Jg (x) 6= 0 para todo x A . Entonces
Z Z Z Z

f (x) dx = f g 1 (y) |Jg1 (y) |dy.
A g(A)

donde dx = dx1 dx2 . . . dxk y dy = dy1 dy2 . . . dyk .

Sea ahora X = (X1 , X2 , . . . , Xk ) un vector aleatorio con distribucin


absolutamente continua y sea fX su densidad. El siguiente teorema permitir
encontrar la distribucin del vector Y = g (X) .

Teorema 6.5 Sea X = (X1 , X2 , . . . , Xk ) un vector aleatorio absolutamente


continuo con densidad fX tal que PX (U ) = 1, donde U es un abierto en Rk .
Sea g : U Rk una funcin inyectiva diferenciable tal que para todo x U

109
se tiene Jg (x) 6= 0. Luego el vector Y = g (X) tambin es absolutamente
continuo y su densidad est dada por

fY (y) = fX g 1 (y) |Jg1 (y) |IV (y) ,

donde V = g(U ), e IV es la funcin indicadora del conjunto V.

Demostracin. Para esto bastar demostrar que para todo B Bk


Z Z

PY (B) = fX g 1 (y) Jg1 (y) IV (y) dy. (6.6)
B

Por definicin de funcin de densidad de X se tiene que

PY (B) = P (Y B V )
= P (g (X) B V )

= P X g 1 (B V )
Z Z
= fX (x) dx.
g 1 (BV )

Usando la frmula de cambio de variables en integrales mltiples resulta


Z Z
PY (B) = fX (x) dx
g 1 (BV )
Z Z

= fX g 1 (y) Jg1 (y) dy.
g(g 1 (BV ))

Sea g : U W y H W . Es fcil ver que una condicin necesaria y


suficiente para que g g 1 (H) = H es que H g (U ). Como B V V =
g(U ) resulta g(g 1 (B V )) = B V y por lo tanto
Z Z

PY (B) = fX g 1 (y) Jg1 (y) dy
g(g 1 (BV ))
Z Z

= fX g 1 (y) Jg1 (y) dy
Z BV Z

= fX g 1 (y) Jg1 (y) IV (y)dy.
B

Esto muestra que vale (6.6). 2

El resultado anterior vale cuando g es diferenciable y biunvoca de un


abierto de Rk en Rk . Veamos ahora que ocurre cuando g es una funcin

110
diferenciable de un abierto de Rk en Rj con j 6= k. Si j > k nada podemos
hacer puesto que en tal caso el conjunto g(U ) es un conjunto de dimensin
k y por lo tanto tiene volumen 0. Luego como PY (g(U )) = 1, Y no puede
ser un vector absolutamente continuo.
Consideremos ahora j < k y sea U un abierto en Rk . Supongamos que
g = (g1 , . . . , gj ) : Rk Rj , donde cada gi : U R, 1 i j, es una funcin
diferenciable. Trataremos de derivar la densidad fY de Y = g(X). Esto es
posible si se pueden encontrar funciones diferenciables gi : Rk R, i =
j + 1, . . . , h tales que si llamamos ge = (g1 , . . . , gj , gj+1 , . . . ., gk ) la funcin
ge : Rk Rk resulte inyectiva y Jge (y) 6=0 para todo y U. En, efecto en este
caso por el teorema anterior podremos encontrar la densidad de Y e = ge(X)
que denominaremos fY e . Luego la densidad de Y ser
Z Z
fY (y1 , . . . yj ) = ... fY
e (y1 , . . . , yj , yj+1 . . . , yk )dyj+1 . . . dyk .

Veamos un ejemplo del uso de este procedimiento. Sea X = (X1 , X2 ) y


consideremos Y = X1 +X2 . Si definimos g : R2 R por g (x1 , x2 ) = x1 +x2 ,
vemos que Y = g (X) . En este caso 1 = j < k = 2. Ahora consideremos
ge : R2 R2 , definida por ge (x1 , x2 ) = (x1 + x2 , x2 ) e Y = (Y1 , Y2 ) con Y1 =
g (X) e Y2 = X2 . Luego estamos en las condiciones del teorema puesto que
ge : R2 R2 es biyectiva, diferenciable y su Jacobiano es

1 1
Jeg (x1 , x2 ) = det = 1.
0 1

Luego tenemos ge1 (y1 , y2 ) = (y1 y2 , y2 ).


En este caso U = V = R2 , y entonces acuerdo al Teorema 6.5, se tendr

fY (y) = fX ge1 (y) |Jeg1 (y) |
= fX (y1 y2 , y2 )

y Z
fY (y) = fX (y y2 , y2 ) dy2 .

En el caso que X1 y X2 son independientes con densidades fX1 y fX2 ,
se tendr
fX (x1 , x2 ) = fX1 (x1 )fX2 (x2 ),
y entonces fY est dado por
Z
fY (y) = fX1 (y y2 )fX2 (y2 ) dy2 . (6.7)

La funcin fy dada por (6.7) se denomina convolucin de fX1 (x1 ) y


fX2 (x2 ).

111
6.3. Algunas aplicaciones a la distribucin normal.
Sea X = (X1 , X2 , . . . , Xk ) un vector aleatorio tal que sus componentes
son variables aleatorias independientes con idntica distribucin N(0, 1). Sea
A Rkk una matriz ortogonal, es decir tal que A1 = A0 donde A0 denota
la traspuesta de la matriz A. Definimos la funcin g : Rk Rk dada por
g (x) = xA y consideramos el vector aleatorio Y = XA. El siguiente teorema
muestra que la distribucin de Y es la misma que la del vector X.

Teorema 6.6 La distribucin de vector Y es la misma que la del vector X.

Demostracin. La funcin de densidad del vector X es


Yk
1 1 2
fX (x) = q exp xi
2
(2)k i=1
k !
1 X
=q exp x2i
k
(2) i=1

1 1
=q exp ||x||2 .
2
(2)k

Sea g : Rk Rk definida por g (x) = xA, luego g 1 (y) = yA1 = yA0 .


Calculando el Jacobiano de g vemos que Jg (x) = det A = 1, de manera
que por el Teorema 6.5 y el hecho de que por ser A0 ortogonal ||g 1 (y) || =
||yA0 || = ||y||, la densidad de Y est dada por

fY (y) = fX g 1 (y) |Jg1 (y) |IRk (y)

= fX g 1 (y)

1 1 2
= exp ||g (y)||
2

1 1
=q exp ||y||2 .
2
(2)k

Esto prueba el teorema. 2

El siguiente teorema prueba que combinaciones lineales de variables


aleatorias normales independientes son normales.

Teorema 6.7 (i) Sean X1 , X2 , . . . , Xk variables aleatorias independien-


tes con distribucin N(0, 1). Sean b1 , . . . , bk nmeros reales, tales que
P k 2 0 k
i=1 bi = 1, es decir el vector b = (b1 , . . . , bk ) R tiene norma
unitaria. Luego la variable Z = b1 X1 + +bk Xk tambin distribucin
N(0, 1).

112
(ii) Sean Y1 , Y2 , . . . , Yk variables aleatorias independientes tales que Yi tiene
distribucin N(i , i2 ), luego dados nmeros reales 1 . . . , k y , la
P
distribucin de Z = ki=1 i Yi + es
k k
!
X X
N i i + , 2i i2 .
i=1 i=1

Demostracin.

(i) Sea a1 = (b1 , b2 , . . . , bk )0 , donde 0 indica traspuesto . Entonces ||a1 || =


1. Podemos extender {a1 } a una base ortonormal de Rk . Es decir exis-
ten vectores columnas a2 , a3 , . . . , ak ortogonales y de norma 1 tales que
{a1 , a2 , . . . , ak } es una base de Rk . Luego la matriz B cuyas columnas
son los vectores aj , j = 1, 2, . . . , k es una matriz ortogonal. Definamos
el vector aleatorio Y = XB, y sea Yi la componente isima de Y.
Por lo visto anteriormente las variables aleatorias Yi , (i = 1, 2, . . . , k)
tambinPk son independientes con distribucin N (0, 1) . En particular
Y1 = i=1 bi Xi = Z tiene distribucin N (0, 1) . Luego (i) queda proba-
do.
(ii) Podemos escribir
k
X X k X k
Yi i
Z= i i + + i i = i i Xi + ,
i
i=1 i=1 i=1

donde Xi = (Yi i )/i y


X
=+ i i . (6.8)

Sabemos que para i = 1, 2, . . . , k las variables Xi son independientes


con distribucin N (0, 1) . Luego podemos escribir a Z de la siguiente
manera
X k
i i
Z=A Xi + ,
A
i=1
donde A est dada por
k ! 12
X
A= 2i i2 . (6.9)
i=1
i i
Sea bi = , luego
A
k
i i 2
k
X X k
1 X
b2i = = (i i )2 = 1.
A A2
i=1 i=1 i=1

113
P
Definamos W = ki=1 bi Xi . Luego de acuerdo a la parte (i) de este
teorema se tendr que
Xk
W = bi Xi
i=1

tiene distribucin N (0, 1). Por lo tanto como

k
X i i
Z=A Xi + = AW +
A
i=1

en virtud de la definicin
de distribucin normal se tendra que Z tiene
distribucin N , A2 . Luego el teorema se deduce de (6.8) y (6.9). 2

6.4. Transformaciones no inyectivas


Vamos a tratar el caso donde g no es inyectiva. En ese caso tenemos el
siguiente teorema.

Teorema 6.8 Sea X = (X1 , X2 , . . . , Xk ) un vector aleatorio absolutamente


continuoScon densidad fX . Sean k
h
SU
h
1 , U2 , . . . , Uh abiertos disjuntos en R tales
k
que PX ( i=1 Ui ) = 1 . Sea g : i=1 Ui R una funcin tal que es inyectiva
y diferenciable en Ui con Jg (x) 6= 0 para todo x Ui . Luego el vector
Y = g (X) tambin es absolutamente continuo y su densidad est dada por

h
X
fY (y) = fX gi1 (y) |Jg1 (y) |IVi (y) ,
i
i=1

donde Vi = g (Ui ) , gi = g|Ui , gi1 : Vi Ui es la inversa de gi .

Demostracin. Bastar probar probar que para todo B Bk se tiene


Z Z X
h

PY (B) = fX gi1 (y) |Jg1 (y) |IVi (y) dy. (6.10)
i
B i=1

Usando que los Ui son disjuntos, que


k
!
[
P Ui =1
i=1

y que

{Y B} {X Ui } = {Y B Vi } {X Ui } = {X gi1 (B Vi )}

114
obtenenemos
PY (B) = P (Y B)
h !
[
=P {Y B} {X Ui }
i=1
h
X
= P ({Y B} {X Ui })
i=1
Xh

= P X gi1 (B Vi )
i=1
Xh

= PX gi1 (B Vi )
i=1
h Z
X Z
= fX (x) dx
i=1 1
gi (BVi )

Como las funciones gi son biunvocas en cada Ui , usando la frmula de


cambio de variables en integrales mltiples se tiene
Xh Z Z
PY (B) = fX (x) dx
i=1 gi1 (BVi )

Xh Z Z

= fX gi1 (y) |Jg1 (y) | dy
i
i=1 BVi
h Z
X Z

= fX gi1 (y) | Jg1 (y) |IVi (y) dy
i
i=1 B
Z Z X
h

= fX gi1 (y) | Jg1 (y) | IVi (y) dy,
i
B i=1

y por lo tanto se cumple (6.10). 2

6.4.1. Distribucin Chi-cuadrado con un grado de libertad.


Sea X N (0, 1) y consideremos g : R R g (x) = x2 . Definimos
Y = g (X) = X 2 . Sean U1 = {x : x < 0} y U2 = {x : x > 0}. Luego

g11 (y) = y y g21 (y) = y.
En este caso V1 = V2 = R>0 y
1 1
Jg1 (y) = y 2 ,
1 2
1 1
Jg1 (y) = y 2 .
2 2

115
Luego teniendo en cuenta que
2
1 x
fX (x) = exp ,
2 2

y que V1 = V2 = R>0 , por el teorema anterior se tiene


1 y 1 1 1 y 1 1
fY (y) = exp y 2 IV1 (y) + exp y 2 IV2 (y)
2 2 2 2 2 2
1 y 1
= exp y 2 I{y: y>0} (y) .
2 2

A la distribucin de la variable Y la denominaremos distribucin Chi-cuadrado


con un grado de libertad, y lo notaremos por 21 .

6.5. Algunas distribuciones complementarias.


6.5.1. Distribucin Gamma.
En primer lugar introducimos la funcin Gamma (que denotaremos con
), que resulta ser una extensin a los reales positivos de la funcin factorial
definida sobre los nmeros naturales. La funcin : R>0 R0 se define
por Z +
() = exp (x) x1 dx.
0
Para probar la existencia de este integral la descomponemos como
Z 1 Z +
1
() = exp (x) x dx + exp (x) x1 dx
0 1
= I1 + I2 .

Es fcil ver que I1 es finita, teniendo en cuenta que exp (x) 1 sobre
(0, 1)
Z 1 Z 1
1 1 x 1 1
I1 = exp (x) x dx x dx = = .
0 0 0
Estudiaremos ahora la convergencia de I2 . Observemos que el desarrollo de
Taylor de exp(x/2) est dado por
x
X 1 x k
exp = .
2 k! 2
k=0

Luego como todos los trminos son positivos, tenemos


x 1 x k
exp
2 k! 2
116
para todo k N.
Entonces x
xk Ck exp ,
2
donde Ck = k!2k . Tomamos ahora k0 > 1, luego se obtiene
Z +
I2 = exp (x) x1 dx
1
Z +
exp (x) xk0 dx
1
Z + x
exp (x) Ck0 exp dx
1 2
Z +
x
Ck0 exp dx < .
1 2

Propiedad 6.1 Si > 0 entonces ( + 1) = ().

Demostracin. Para probarlo integraremos por partes tomando u = x ; dv =


exp (x) dx. Luego se tiene v = exp (x) y du = x1 , de donde resulta
Z +
( + 1) = exp (x) x dx
0
Z +
= udv
0
Z +
= xa exp (x) |0 ( exp (x)) x1 dx
0
Z +
= x exp (x) |0 + exp (x) x1 dx.
0

Como lmx x exp(x) = 0, resulta que ( + 1) = () . 2

Propiedad 6.2 es una extensin del factorial. Ms precisamente para


todo n N se tiene (n) = (n 1)!

Demostracin. La prueba se hace por induccin. Si n = 1 entonces (1) =


1 = 0!. Supongamos ahora que la propiedad que vale para n y veamos que
entonces vale para n + 1. Usando la Propiedad 6.1 y la hiptesis inductiva
tenemos
(n + 1) = n(n) = n((n 1)!) = n!,
con lo cual la propiedad queda demostrada. 2

117
Definicin 6.1 Dado > 0, se define la distribucin Gamma con parme-
tros y 1 (ser denotada por (, 1)) como la distribucin absolutamente
continua cuya funcin densidad es
1
f (x) = exp (x) x1 I[0,) (x) .
()

De acuerdo con la definicin de la funcin Gamma es claro que f es una


densidad ya que Z +
f (x) dx = 1.

Definicin 6.2 Dado > 0 y > 0 definiremos la distribucin Gam-


ma con parmetros y (que denotaremos por (, )), a la distribucin
de Y = X/ donde X tiene distribucin (, 1) . Como g (x) = x/, De
acuerdo a (6.5) y teniendo en cuenta que > 0 tendremos

fY (y) = fX (y) =

= exp (y) (y)1 I[0,) (y) =
()

= exp (y) y 1 I[0,) (y).
()

Obsrvese que como (1) = 0! = 1, la distribucin (1, ) tiene como


densidad
f (y) = exp (y) I[0,) (y)
que es la distribucin exponencial con parmetro . En la Figura 6.2 mues-
tran varias densidades gamma
Recordemos que si X N (0, 1) entonces Y = X 2 tiene, de acuerdo a
lo probado en la subseccin anterior, una distribucin chi-cuadrado con un
grado de libertad. Ms precisamente probamos que
1 1
y
fY (y) = y 2 exp I[0,) (y). (6.11)
2 2

Ahora bien si consideramos Z (1/2, 1/2) entonces su densidad es

11 z 1
2
fZ (z) = 2 1 exp y 2 I[0,) (z)
2 2
1 z 1
= 1 exp y 2 I[0,) (z). (6.12)
2 2 2

Las densidades (6.11) y (6.12) difieren slo en una constante, luego deben
ser iguales Esto se muestra integrando las densidades sobre R, ya que ambas

118
0.8
0.6
0.4
0.2
0.0

0 2 4 6 8


Figura 6.2: Densidad de la 2, 12 (en lneal de puntos y rayas), de la (5, 1)(en
lnea llena) y de la (3, 3) (en lnea de puntos).

integrales deben ser iguales a 1. Por lo tanto la 1 distribucin


2 con un
1
grado de libertad coincide con la distribucin 2 , 2 . Adems igualando
las constantes de ambas densidades se tiene la identidad
1 1
= 1,
2 2 2

o equivalentemente 12 = .
Necesitaremos el siguiente teorema

Teorema 6.9 Sea W = (W1 , W2 ) un vector aleatorio y supongamos que

fW (w) = g1 (w1 ) g2 (w2 ) ,

donde g1 es una funcin de densidad. Entonces

(i) fW2 = g2 , y por lo tanto g2 es una funcin de densidad.

(ii) fW1 = g1 .

(iii) Las variables W1 y W2 son independientes.

Demostracin. Como Z +
g1 (w1 ) dw1 = 1,

119
se tiene que
Z +
fW2 (w2 ) = g1 (w1 ) g2 (w2 ) dw1 =

Z +
= g2 (w2 ) g1 (w1 ) dw1 = g2 (w2 ) .

Esto prueba (i). Para ver (ii) se usa el mismo argumento. Como (i) y (ii)
implican que
fW (w1 , w2 ) = fW1 (w1 )fW2 (w2 ),
resulta que por el Teorema 5.10 W1 y W2 son independientes. 2

Teorema 6.10 Sean Y1 , Y2 variables aleatorias independientes con distribu-


ciones (1 , ) y (2 , ) respectivamente. Definamos W1 = Y1 + Y2 , W2 =
Y1 /(Y1 + Y2 ). Entonces se tiene

(i) La distribucin de W1 es W (1 + 2 , ) .

(ii) W2 tiene densidad

(1 + 2 ) 1 1
w (1 w2 )2 1 I[0,1] (w2 ).
(1 ) (2 ) 2

(iii) W1 y W2 son independientes.

Demostracin. La demostracin se basa en el Teorema 6.5. Sea el abierto


U R2 definido por U = {(y1 , y2 ) : y1 > 0, y2 > 0}. Luego PY (U ) = 1 con
Y = (Y1 , Y2 ) . Consideremos la transformacin g : U R2 definida por

y1
g (y1 , y2 ) = y1 + y2 , .
y2 + y1

Es fcil ver que V = g(U ) = (0, ) (0, 1) y

g 1 (w1 , w2 ) = (w1 w2 , w1 w1 w2 )
= (w1 w2 , w1 (1 w2 )) .

Luego

w2 1 w2
Jg1 (w1 , w2 ) = det
w1 w1
= w1 w2 w1 (1 w2 )
= w1 ,

y por lo tanto |Jg1 (w1 , w2 ) | = w1 .

120
Consideramos ahora la densidad del vector Y = (Y1 , Y2 ) . Como se supu-
so independencia entre Y1 e Y2 , esta densidad es el producto de las densidades
marginales y luego

1 +2
fY (y1 , y2 ) = exp ( (y1 + y2 )) y11 1 y22 1 I(0,) (y1 )I(0,) (y2 ).
(1 ) (2 )

Luego de acuerdo al Teorema 6.5 y por el hecho de que

IV (w1 , w2 ) = I(0,)(0,1) (w1 , w2 ) = I(0,) (w1 )I(0,1) (w2 )

se tiene

fW (w1 , w2 )
1 +2
= exp (w1 ) (w1 w2 )1 1 (w1 (1 w2 ))2 1 w1 IV (w1 , w2 )
(1 ) (2 )

1 +2 1 +2 1
= w exp (w1 ) I(0,) (w1 )
(1 + 2 ) 1

(1 + 2 ) 1 1 2 1
w (1 w2 ) I(0,1) (w2 )
(1 ) (2 ) 2
= g1 (w1 )g2 (w2 )

donde
1 +2
g1 (w1 ) = w1 +2 1 exp (w1 ) I(0,) (w1 )
(1 + 2 ) 1
y
(1 + 2 ) 1 1
g2 (w2 ) = w (1 w2 )2 1 I(0,1) (w2 ).
(1 ) (2 ) 2
El primer factor g1 corresponde a una densidad (1 + 2 , ) . Por el Teo-
rema 6.9 resulta que W1 tiene distribucin (1 + 2 , ) y W2 tiene como
funcin de densidad a
(1 + 2 ) 1 1
g2 (w2 ) = w (1 w2 )2 1 I(0,1) (w2 ).
(1 ) (2 ) 2

Este teorema tambin implica que W1 y W2 son independientes. 2

6.5.2. Distribucin beta.


Definicin 6.3 Se define la distribucin beta con parmetros 1 y 2 , que
denotaremos por (1 , 2 ) , como la distribucin absolutamente continua
cuya funcin de densidad es:

(1 + 2 ) 1 1
f (w) = w (1 w)2 1 I(0,1) (w).
(1 ) (2 )

121
3
2
1
0

0.0 0.2 0.4 0.6 0.8 1.0

Figura 6.3: Densidad de la (10, 3) (en lneal de puntos y rayas), de la (2, 2)(en
lnea llena) y de la (3, 6) (en lnea de puntos).

Observacin. Esta funcin es una densidad por el Teorema 6.10. Por lo


tanto podemos deducir que
Z 1
(1 + 2 ) 1 1
w (1 w)2 1 dw = 1,
0 (1 ) (2 )

y entonces se tiene
Z 1
(1 ) (2 )
w1 1 (1 w)2 1 dw = .
0 (1 + 2 )

En la Figura 6.3 se muestran varias densidades Beta, para distintos val-


ores de los parmetros 1 y 2 .

Teorema 6.11 Sean Y1 , Y2 , . . . , Yn variables P


aleatorias independientes tales
quePYi tiene distribucin (i , ) . Entonces ni=1 Yi tiene distribucin
( ni=1 i , ) .

Demostracin. Se deduce de de la proposicin anterior usando induccin. 2

A continuacin definimos las distribuciones chi-cuadrado con n grados


de libertad y la t de Student. Ambas distribuciones son de gran importancia
en Estadstica. Volveremos ms adelante sobre ellas.

122
0.4
0.3
0.2
0.1
0.0

-3 -2 -1 0 1 2 3

Figura 6.4: Densidad de la t1 (en lneal llena), de la t5 (en lnea de puntos) y de la


t25 (en lnea de puntos y rayas).

6.5.3. Distribucin Chi-cuadrado.


Supongamos que se tienen n variables independientes Xi , i = 1, 2, . . . , n
con distribucin N (0, 1) . Sabemos que cada Yi = Xi2 tiene distribucin 2
con 1 grado de libertad, la cual que coincide con la distribucin (1/2, 1/2) .
Se define la distribucin chi-cuadrado con n grados de libertad, que
simbolizaremos por 2n , como la distribucin de la variable aleatoria Y =
P n 2
i=1 Xi .
De acuerdo al Teorema 6.11, como cada Xi2 tiene distribucin 21 y estas
variables son independientes, se obtiene que Y tiene distribucin (n/2, 1/2) .
Por lo tanto la distribucin 2n coincide con la distribucin (n/2, 1/2) .

6.5.4. Distribucin t de Student


Supongamos que U tiene distribucin N (0, 1) y V distribucin 2n con
U y V independientes. Luego se define la distribucin de t de Student con
n grados de libertad, que simbolizaremos con tn , como la distribucin de

U
T =p .
V /n

En la Figura 6.4 se muestran varias densidades de Student para diferentes


grados de libertad

123
Se deja como ejercicio de la prctica mostrar que la densidad de T es
n+1
n+1 2 t2 2
fT (t) = n 1+ .
2 n n

El grfico de esta densidad es simtrico respecto al origen (funcin par)


y con forma de campana. Se puede probar que cuando n tiende a , fT
converge a la densidad de la normal.

124
Captulo 7

Esperanza Matemtica.

7.1. Integral de Riemann-Stieltjes.


7.1.1. Definicin de la integral.
Sea f : [a, b] R y consideremos una particin del intervalo [a, b] que
llamaremos = {x0 , x1 , . . . , xn } tal que a = x0 < x1 < < xn = b.
Sea = {i }1in una coleccin de puntos tal que i (xi1 , xi ] para
i = 1, 2, . . . , n, que se denominar seleccin en .
Definimos la suma de Riemann
n
X
Sab (, ,f ) = f (i ) (xi xi1 ) .
i=1

Se llama norma de la particin

|||| = m
ax {xi xi1 }.
1in

Definicin 7.1 Se dice que f es integrable Riemann sobre [a, b] con valor
Rb Rb
I = a f = a f (x) dx sii para todo > 0 existe > 0 tal que si |||| <
entonces
|Sab (, ,f ) I| < .

Anlogamente se define la integral de Riemann-Stieltjes. Dadas g, F fun-


ciones definidas sobre [a, b] se define la suma de Riemann-Stieltjes asociada
a la particin = {xi }0in y la seleccin = {i }1in de por
n
X
Sab (, ,g, F ) = f (i ) (F (xi ) F (xi1 )) .
i=1

125
Definicin 7.2 Se dice que existe la integral de Riemann-Stieltjes sobre [a, b]
Rb Rb
con valor I = a gdF = a g (x) dF (x) sii para todo > 0 existe > 0 tal
que si es una particin de [a, b] con |||| < y es cualquier seleccin en
entonces
|Sab (, ,g, F ) I| < .

Observaciones.

1. Si F (x) = x, entonces la integral de Riemann-Stieltjes es la integral


de Riemann.

2. Una condicin suficiente, aunque no necesaria, para que exista la inte-


gral de Riemann-Stieltjes, es que g sea continua en [a, b] y F montona
en [a, b]. Si tomamos como F una funcin de distribucin el ltimo req-
uisito se cumplir.

3. Otra condicin suficiente (tampoco necesaria) para que exista la inte-


gral de Riemann-Stieltjes es que (i) g sea continua en (a, b], (ii) existe
lmxa g (x), (iii) F sea montona en [a, b] y (iv) F es continua en a.
En tal caso, vale que
Z b Z b
gdF = lm gdF.
a ca c

A continuacin damos algunas propiedades de la integral de Riemann


Stieltjes.

Propiedad 7.1 (Linealidad de la Integral de R-S respecto de g) Si


Rb Rb Rb
a g1 dF y a g2 dF existen y 1 , 2 R entonces a (1 g1 + 2 g2 ) dF existe
y adems
Z b Z b Z b
(1 g1 + 2 g2 ) dF = 1 g1 dF + 2 g2 dF.
a a a

Propiedad 7.2 (Linealidad de la Integral R-S respecto de F ) Si


Rb Rb Rb
a gdF1 y a gdF2 existen y 1 , 2 R entonces a gd (1 F1 + 2 F2 ) existe
y adems
Z b Z b Z b
gd (1 F1 + 2 F2 ) = 1 gdF1 + 2 gdF2 .
a a a

126
Propiedad 7.3 (Aditividad respecto del dominio de integracin) Sean
Rb Rc Rc
a < b < c y supongamos que a gdF, b gdF y a gdF existen. Entonces
Z c Z b Z c
gdF = gdF + gdF.
a a b

Propiedad 7.4 Si F es no decreciente y g1 g2 sobre [a, b] entonces


Z b Z b
g1 dF g2 dF.
a a

En particular teniendo en cuenta que |g| g |g| se obtiene la sigu-


iente

Propiedad 7.5 Si las dos integrales existen, entonces


Z b Z b

gdF |g| dF

a a

Estamos interesados en extender el dominio de integracin a toda la recta


o a semirectas. Esto lleva a la siguiente definicin.

Rb
Definicin 7.3 Supongamos que a gdF existe para todo a, b R. Decimos
R +
que la integral impropia gdF existe y es igual al nmero real I sii
Z b
lm gdF = I. (7.1)
a; b+ a

R + Rb
De manera anloga se define a gdF y gdF. Tendremos el siguiente
teorema.

Teorema 7.1 Sea g 0 y F no decreciente. Entonces pueden ocurrir dos


cosas

(i)
Z b
M = sup gdF <
a,bR a

En este caso el lmite (7.1) existe y es finito.

127
(ii)
Z b
M = sup gdF =
a,bR a

En
R +este caso el lmite (7.1) existe y es . Luego podemos definir
gdF = .

Sea ahora g de signo arbitrario y F no decreciente. El siguiente teorema


es vlido.

R +
Teorema 7.2 Una condicin necesaria y suficiente para que gdF ex-
ista es que
Z b
f = sup
M |g| dF < .
a,bR a

7.2. Definicin de Esperanza Matemtica.


7.2.1. Algunas consideraciones heursticas.
Sea X una variable aleatoria discreta. Para fijar ideas supongamos que
toma un nmero finito de valores, x1 , x2 , ..., xk , con probabilidades pX (x1 ), pX (x2 ),
. . . , pX (xk ).
Supongamos que se repite un experimento asociado a la variable aleatoria
X, n veces en forma independiente y que el resultado xi se obtiene ni veces,
1 i k. Entonces el promedio de todos los valores es
n1 x1 + n2 x2 + + nk xk
xn =
n
n1 n2 nk
= x1 + x2 + + xk .
n n n
nj
Luego pasando al lmite y dado que la frecuencia observada n se aprox-
ima a pX (xj ) obtenemos
n n2 nk
1
lm xn = lm x1 +
x2 + ... + xk
n+ n+ n n n
n1 n2 nk
= x1 lm + x2 lm + ... + xk lm
n+ n n+ n n+ n
Xk
= xj pX (xj ) .
j=1

Esto motiva la definicin de la esperanza matemtica de una variable disc-


reta.

128
7.2.2. Esperanza de una variable aleatoria discreta.
Definicin 7.4 Sea X una variable aleatoria con rango RX y distribucin
de probabilidad pX . Supongamos que
X
|x|pX (x) < .
xRX

En tal caso definimos la esperanza matemtica de la variable X de la siguiente


manera X
E (X) = xpX (x) .
xRX

Observaciones.

1. Se sabe que la convergencia absoluta de la serie garantiza la conver-


gencia de la serie.
P
2. Supongamos xRX |x|pX (x) = . Denotemos con
+
RX = {x RX : x > 0}

RX = {x RX : x < 0}.

Entonces pueden ocurrir tres casos distintos.


P P
a) +
xRX xpX (x) = + y
xRX xpX (x) = .
P P
b) +
xRX xpX (x) = + y
xRX xpX (x) > .
P P
c) +
xRX xpX (x) < + y
xRX xpX (x) = .

En el caso (a) no se puede definir la esperanza de X. En el caso (b)


se puede definir E(X) = + en el (c) E(X) P = . Es decir para
que la esperanza est definida se requiere que xR+ xpX (x) o bien
P X
xpX (x) sea finita.
xRX

7.2.3. Definicin general de esperanza matemtica.


Ahora queremos definir la esperanza matemtica, de manera ms gen-
eral. Supongamos primero que X es una variable aleatoria concentrada en
[a, b]. Es decir, supongamos que

P (a < X < b) = 1.

La idea que se utiliza para la definicin de la esperanza de esta variable es


la siguiente. Se define una sucesin de variables aleatorias discretas Xn que
la aproximan y luego como E(Xn ) est definida para cada Xn la esperanza
de X se define por un paso al lmite.

129
Consideremos para cada n, una particin del intervalo [a, b] formada
por n intervalos de longitud (b a)/n. Para esto consideramos la particin
ba
n = {xn0 , xn1 , ..., xnn } tal que a = xn0 < xn1 < ... < xnn = b y xni xni1 = .
n
n
Elegimos para cada i, 1 i n, i (xi1 , xi ] y definimos la variable
aleatoria
Xn () = in si X() (xni1 , xni ].
Esta variable toma nicamente un nmero finito de valores: in , 1 i
n. Adems
pXn (in ) = FX (xni ) FX xni1 .
Luego la esperanza de la variable Xn viene dada por
n
X
E (Xn ) = in pXn (in )
i=1
n
X
= in FX (xni ) FX xni1 = Sab ( n , n , id, F ) ,
i=1

con id (x) = x y se obtiene


Z b
lm E (Xn ) = lm Sab ( n , n , id, FX ) = xdFX .
n+ n+ a

Por lo tanto definimos la esperanza matemtica de X por


Z b
E (X) = xdFX .
a

Siendo la funcin id (x) = x continua y F montona no decreciente, re-


Rb
sulta que a xdF existe siempre y por lo tanto tambin E (X) existe siempre.
Supongamos ahora que X es una variableRaleatoria no acotada. El proble-
+
ma que ahora surge es que podra no existir xdF. Sin embargo sabemos
R +
que M = |x| dF siempre est bien definida, eventualmente con el valor
+.
Si M < + definimos la esperanza de la variable X similarmente al
caso anterior por Z
E (X) = xdF.

Si M = + hay tres casos y el anlisis es anlogo al que realizamos
anteriormente para variables discretas. Los tres casos son:
R R0
(a) 0 xdF = + y xdF = .
R R0
(b) 0 xdF = + y xdF > .

130
R R0
(c) 0 xdF < + y xdF = .

En el caso (a) la esperanza matemtica de X no est definida. En el caso


(b) se define E(X) = + y en el (c) E(X) = . Nuevamente la esperanza
puede estar no definidaR y para su
R 0definicin se requiere que al menos una de
de las dos integrales 0 xdF xdF converja.
Con esta definicon general de esperanza matemtica, para el caso de una
variable discreta se tienen dos definiciones diferentes. Probaremos ahora que
la definicin general de esperanza es una extensin de la primera definicin
dada para el caso discreto, es decir que para variables aleatorias discretas
ambas definiciones coinciden.

Teorema 7.3 Sea FX la funcin de distribucin de una variable discreta y


g : R R continua. Luego
Z b X
g(x)dFX (x) = g(x)pX (x) . (7.2)
a xRX [a,b]

Observacin. Este resultado vale siempre, pero para facilitar la demostracin


vamos a probarlo para el caso en que RX [a, b] es finito para todo a y
b. Esto se cumple cuando las variables toman valores enteros como sucede,
por ejemplo, con las distribuciones Poisson, binomial, etc.

Demostracin. Por la hiptesis supuesta RX [a, b] es un conjunto finito,


digamos
RX [a, b] = {z1 , z2 , ..., zk }.
Llamemos a
= mn {zi zi1 }. (7.3)
2ik

Consideremos una particin n = {xni }0in del intervalo [a, b], en n inter-
valos iguales. Luego tenemos a = xn0 < xn1 < < xnn = b y xni xni1 =
(b a)/n . Teniendo en cuenta que || n || = (b a)/n es claro que

lm || n || = 0.
n+

Sea n0 tal que (b a)/n0 < . Tomemos n > n0 , luego k n k < , luego por
(7.3) en cada intervalo de n hay a lo sumo un elemento de RX [a, b] .Va
a ser fundamental para esta demostracin la eleccin de la seleccin n =
{in }1in de n . Procedemos de la siguiente manera.

(i) Si
(RX [a, b]) (xni1 , xni ] 6=
se elige como in el nico punto de esta interseccin.

131
(ii) Si
(RX [a, b]) (xni1 , xni ] =
in es cualquier punto de (xi1 , xi ].

Sea
A = {i : (RX [a, b]) (xni1 , xni ] 6= }
y por lo tanto

Ac = {i : (RX [a, b]) xni1 , xni = }

Entonces podemos realizar la siguiente descomposicin de Sab ( n , n , g, F )


n
X
Sab ( n , n , g, F ) = g(in ) FX (xni ) FX xni1
i=1
X
= g(in ) FX (xni ) FX xni1
iA
X
+ g(in ) FX (xni ) FX xni1 .
iAc

Observemos que FX (xni ) FX xni1 = 0 si i Ac ya que el intervalo
(xi1 , xi ] no contiene elementos de RX . Luego
X
g(in ) FX (xni ) FX xni1 = 0,
iAc

y se obtiene
X
Sab ( n , n , g, FX ) = g(in ) FX (xni ) FX xni1 . (7.4)
iA

Adems, como para i A, el valor in es el nico punto de RX en el intervalo


(xni1 , xni ], resulta

pX (in ) = PX ((xni1 , xni ]) = FX (xni ) FX xni1 .

Luego de (7.4) obtenemos


X
Sab ( n , n , g, FX ) = g(in ) pX (in ).
iA

Pero (in )iA coincide con {zj }1jk = RX [a, b], y entonces para todo
n n0
k
X X
Sab ( n , n , g, FX ) = g(zj )pX (zj ) = g(x)pX (x) . (7.5)
j=1 xRX [a,b]

132
Como el miembro derecho de (7.5) no depende de n, obtenemos
Z b X
xdF = lm Sab ( n , n , g, FX ) = xpX (x) .
a n
xRX [a,b]

Esto prueba (7.2) y por lo tanto el teorema queda demostrado. 2

Teorema 7.4 Supongamos que X es una variable aleatoria discreta y que


E (X) existe y es finita. Entonces
X Z +
xpX (x) = xdFX
xRX

Demostracin. Teniendo en cuenta que


X X
xpX (x) = lm xpX (x) ,
a; b+
xRX xRX [a,b]

y que
Z + Z b
xdFX = lm xdFX ,
a; b+ a

bastar probar que para todo a < b


X Z b
xpX (x) = xdFX .
xRX [a,b] a

Pero esto resulta del teorema 7.3 poniendo g(x) = x. 2

7.2.4. Esperanza matemtica para una variable absolutamente


continua.
El siguiente Teorema prueba que en el caso de que X sea una variable
aleatoria absolutamente continua la E(X) se puede calcular a travs de una
integral de Riemann.

R
Teorema 7.5 Supongamos que |x|fX (x) dx < . Luego
Z
E (X) = xfX (x) dx.

Demostracin. El teorema vale en general. Sin embargo, para facilitar la


demostracin, lo probaremos slo para el caso en que fX es continua.

133
Bastar ver que para todo intervalo [a, b] , a < b vale que
Z b Z b
xfX (x) dx = xdFX , (7.6)
a a

ya que en tal caso el resultado se obtiene pasando al lmite.


Consideremos para cada n una particin de puntos equidistantes del
intervalo [a, b]
n = {xn0 , xn1 , ..., xnn }
ba
tales que a = xn0 < xn1 < ... < xnn = b satisfaciendo xni xni1 =.
n
0
Sabemos que FX (x) = fX (x) . Por el Teorema del Valor Medio, para
todo i, 1 i n, existe in (xni , xni1 ] tal que

FX (xni ) FX xni1 = fX (in ) xni xni1 . (7.7)

Elegiremos la seleccin = (in )1in para formar las sumas de Riemann-


Stieltjes. Luego
n
X
Sab ( n , n , id, FX ) = Sab ( n , n , x, FX ) = in FX (xni ) FX xni1 ,
i=1
(7.8)
y se tendr que
Z b
lm S b ( n , n , x, FX ) = xdFX . (7.9)
n a a

Usando (7.7) y (7.8) obtenemos que Sab ( n , n , x, FX ) es tambin una suma


de Riemann correspondiente a la funcin xfX (x) . En efecto
n
X
Sab ( n , n , x, FX ) = in fX (in ) xni xni1
i=1
= Sab ( n , n , xfX (x), x) .

Luego
Z b
lm Sab ( n , n , x, FX ) = xfX (x) dx. (7.10)
n a

De (7.9) y (7.10) se obtiene (7.6). 2

7.2.5. Algunas propiedades de la esperanza matemtica


Propiedad 7.6 Sea X una variable aleatoria tal que PX ({a}) = 1. En-
tonces
E (X) = a.

134
Demostracin. Esto es inmediato teniendo en cuenta X es una variable disc-
reta con RX = {a} y pX (a) = 1. Luego
X
E (X) = xpX (x) = a.2
xRX

Propiedad 7.7 Sea (, A, P ) un espacio de probabilidad y A A. Entonces


E(IA ) = P (A).

Demostracin. Como
1 si A
IA () =
0 si
/ A.
En este caso RX = {0, 1}, pX (1) = P (A) , y pX (0) = 1 P (A) . Entonces

E (IA ) = 0 (1 P (A)) + 1P (A) = P (A) .2

El siguiente teorema permite la integracin por partes de una integral


de Riemann-Stieltjes.

Teorema 7.6 (Integracin por partes) Sean g y F funciones definidas


Rb
sobre [a, b] tales que a gdF existe. Supongamos que g sea continua en a y
Rb
que F es acotada en [a, b] . Entonces a F dg existe y
Z b Z b
gdF = g (x) F (x) |ba F dg.
a a

Demostracin. Tenemos que mostrar que


Z b Z b
b
F dg = g (x) F (x) |a gdF. (7.11)
a a

Para eso habr que probar que dado > 0 existe > 0 tal que para toda
= {xi }0in particin de (a, b] con |||| y toda = {i }0in seleccin
de puntos en , se tendr que
Z b
b
Sa (, , F, g) g (x) F (x) |a +
b
gdF < . (7.12)

a
Rb
Como a gdF existe, dado 2 podemos encontrar un 1 tal que si |||| 1
para toda seleccin en tendremos que
Z b
b
Sa (g, f, , ) gdF . (7.13)
2
a

135
Como F es acotada en [a, b] existe un nmero real M > 0 tal que

|F (x)| M

para todo x [a, b] . Por la continuidad de g en a, sabemos que existe 2 > 0


tal que si |x a| 2 entonces


|g(x) g(a)| < .
4M

Pongamos = mn( 21 , 2 ). Sea = {xi }0in una particin de (a, b], tal
que |||| y sea = {i }0in una seleccin en la particin.
Vamos a mostrar que (7.12) vale. Sabemos que xn1 < n b. Supon-
dremos que n < b. El caso n = b se demuestra anlogamente. Tenemos
que

a = x0 < 1 x1 < < i1 xi1 < i xi < < xn1 < n < xn = b.

Podemos construir una nueva particin = {xi }0in+1 con

x0 = a,
xi = i , 1 i n,

xn+1 = b,

y definimos la seleccin = (i )1in+1 en por

1 = 1 ,
i = xi1 , 2 i n + 1.

Como

|xi xi1 | = |i i1 | |i xi1 | + |xi1 i1 |


|xi1 xi | + |xi1 xi+1 |
< + = 2 1 , para 2 i n
|x1 x0 | = |1 a| = |1 x0 | |x1 x0 | < 1
|xn+1 xn | = |b n | = |xn n | |xn xn1 | < 1

tenemos que || || 1 y entonces por (7.13) resulta


Z b
b
Sa ( , , g, F ) gdF < . (7.14)
2
a

136
Por otro lado tenemos
n+1
X
b
Sa ( , , g, F )= g(i ) F (xi ) F (xi1 )
i=1
n
X
= g(1 )F (x1 ) + g(i )F (xi ) + g(n+1

)F (xn+1 )
i=2
n+1
X
g(1 )F (x0 ) g(i )F (xi1 )
i=2
Xn
= g(1 )F (1 ) + g(xi1 )F (i ) + g(b)F (b)
i=2
g(1 )F (a)
n
X
= g(1 )F (1 ) g(1 )F (a) + g(xi1 )F (i )
i=2
n
X
+ g(b)F (b) g(xi )F (i )
i=1
n
X
= g(1 ) [F (1 ) F (a)] [g(xi1 ) g(xi )] F (i )
i=1
+ g(b)F (b) g (x0 ) F (1 )
Xn
= F (i ) [g(xi1 ) g(xi )] + g(b)F (b) g(a)F (a)
i=1
+ g(1 ) [F (1 ) F (a)] + g(a)F (a) g (a) F (1 )
= Sab (, ,F, g)+ g(x)F (x)|ba
+ g(1 ) [F (1 ) F (a)] + g(a) [F (a) F (1 )]
= Sab (, ,F, g)+ g(x)F (x)|ba + [g(1 ) g(a)] [F (1 ) F (a)]
= Sab (F, g, , )+ g(x)F (x)|ba + r, (7.15)
donde r = [g(1 ) g(a)] [F (1 ) F (a)] . Luego, como k k < y |x0 x1 | =
|a 1 | < 2 se tendr
|g(a) g(1 )| /4M.
Adems |F (x)| M, y entonces obtenemos
|r| = |F (1 ) F (a)||g(1 ) g(a)|

2M = .
4M 2
Luego de (7.15) resulta.

b b
Sa ( , , g, F ) g(x)F (x)|a + Sab (, ,F, g) . (7.16)
2
137
De (7.14) y (7.16) resulta (7.12) y el teorema queda demostrado.2

Propiedad 7.8 Dada una funcin F montona se tiene


Z b
dF = F (b) F (a) .
a

Demostracin. Aplicando integracin por partes con g = 1 y dado que dg = 0,


obtenemos
Z b Z b
b
dF = 1F (x) |a F dg = FX (x) |ba = F (b) F (a) .2
a a

R +
Teorema 7.7 Supongamos que |x|dFX < . Entonces vale

(i) lmx+ x (1 FX (x)) = 0.

(ii) lmx xFX (x) = 0.

Demostracin.
R
(i) A partir del hecho de que |x|dFX es finita se deduce que las
colas tienden a cero, es decir
Z +
lm xdFX = 0, (7.17)
b+ b

y Z a
lm xdFX = 0. (7.18)
a

Usando la Propiedad 7.8 obtenemos


Z + Z d
dFX = lm dFX = lm FX (d) FX (b) = 1 FX (b),
b d b d

y entonces si b 0
Z + Z +
xdFX b dFX = b (1 FX (b)) 0 .
b b

Luego Z +
0 = lm xdFX lm b (1 FX (b)) 0.
b b b

Luego se deduce (i).

(ii) Se prueba de manera anloga y se deja como ejercicio. 2

138
Ahora estamos en condiciones de dar una expresin de la esperanza como
sumas de integrales de Riemann.
R
Teorema 7.8 Supongamos que |x|dFX < . Entonces
Z + Z 0
E (X) = (1 FX (x)) dx FX (x) dx. (7.19)
0

Demostracin. Sabemos que


Z + Z 0
E (X) = xdFX + xdFX .
0

Estudiaremos cada integral por separado. Integrando por partes tenemos


que
Z b Z b
xdFX = xFX (x)|b0 FX (x) dx
0 0
Z b
= bFX (b) FX (x) dx
0
Z b
= bFX (b) + b b FX (x) dx
0
Z b
= b (1 FX (b)) + b FX (x) dx
0
Z b Z b
= b (1 FX (b)) + dx FX (x) dx
0 0
Z b
= b (1 FX (b)) + (1 FX (x)) dx.
0

Luego pasando al lmite y teniendo en cuenta el Teorema 7.7 se obtiene


Z + Z +
xdFX = (1 FX (x)) dx.
0 0

Anlogamente se prueba
Z 0 Z 0
xdFX = FX (x) dx.

De estas dos ltimas igualdades se obtiene el teorema. 2

Propiedad 7.9 Sean X e Y dos variables aleatorias tal que P (X Y ) =


1, y tal que sus esperanzas E (X) , E (Y ) existen. Entonces

(i) FX (t) FY (t), t, y

139
(ii) E (X) E (Y ) .

Demostracin.

(i) Consideremos el evento U = { : X () Y ()}. Claramente P (U ) =


1 y P (U c ) = 0. Podemos escribir

{Y t} = ({Y t} U ) ({Y t} U c ) . (7.20)

y luego como P ({Y t} U c ) P (U c ) = 0, resulta

P ({Y t}) = P ({Y t} U ) + P ({Y t} U c ) (7.21)


= P ({Y t} U ) . (7.22)

Si {Y t} U entonces X () Y () t de manera que

{Y t} U {X t}.

Tomando probabilidades y teniendo en cuenta (7.21) se obtiene que

P ({Y t}) = P ({Y t} U ) P ({X t}) ,

o bien
FY (t) FX (t) (7.23)
y por lo tanto (i) se cumple.

(ii) Tambin se tiene


1 FX (t) 1 FY (t) , (7.24)
y usando el Teorema 7.8 resulta
Z + Z 0
E (X) = (1 FX (t)) dt FX (t) dt,
0
Z + Z 0
E (Y ) = (1 FY (r)) dt FY (t) dt.
0

Luego la Propiedad 7.9 se deduce de (7.23) y (7.24). 2

Supongamos que P (X = 0) = 1. Por la Propiedad 7.6 es claro que


E (X) = 0.
Ahora bien, del hecho de que E (X) = 0 no se deduce que P (X = 0) = 1.
Qu condicin podemos agregar para que se cumpla? La propiedad 7.10
responde a esta pregunta.

Propiedad 7.10 E (X) = 0 y P (X 0) = 1 implica que P (X = 0) = 1.

140
Demostracin. Supongamos que esta propiedad no fuera cierta, luego ten-
dramos una variable aleatoria X tal que E (X) = 0, P (X 0) = 1 y
P (X = 0) < 1. Luego teniendo en cuenta que P (X 0) = 1 obtenemos
que P (X > 0) = P (X 0) P (X = 0) = 1 P (X> 0) = a > 0.
Ahora consideremos los eventos An = X > n1 . La sucesin {An } es
montona creciente ya que An An+1 y adems
[
{X > 0} = An ,
nN

de manera que
lm P (An ) = P ({X > 0}) = a > 0.
n

Por lo tanto existe un nmero natural n0 tal que P (An0 ) > a/2 y entonces
Z +
E (X) = xdFX

Z +
= xdFX
0
Z 1 Z +
n0
= xdFX + xdFX
1
0 n0
Z +
xdFX
1
n0
Z +
1
dFX
n0 1
n0

1 1
= 1 FX
n0 n0

1 1 1 a
= P X> = > 0.
n0 n0 n0 2

lo cual es un absurdo ya que contradice la hiptesis. 2


R + R +
Observacin. La igualdad xdFX = 0 xdFX se justifica teniendo
en cuenta que P (X 0) = 1.
Sea X una variable aleatoria discreta, RX su rango y pX su densidad. Sabemos
que X
E (X) = xpX (x) .
xRX

El siguiente teorema permite hallar la esperanza de una variable aleatoria


Y que es funcin medible de otra variable aleatoria X sin necesidad de de
hallar antes la funcin de probabilidad puntual de la variable Y.

141
Teorema 7.9 Consideremos X un vector aleatorio discreto de dimensin k
y sea g : Rk R una funcin medible . Definamos Y = g (X). Entonces
X
E (Y ) = g (x) pX (x) .
xRX

Demostracin. Sea y g (RX ) = RY y definamos


Ay = {x RX : g (x) = y} = g 1 ({y}) .
familia de subconjuntos {Ay }yRY es una particin de
Es fcil ver que la S
RX , es decir RX = yRY Ay y si y 6= y 0 entonces Ay Ay0 = .
Teniendo en cuenta que
X
pY (y) = PX (Ay ) = pX (x) ,
xAy

y que para todo x Ay se tiene g(x) = y, obtenemos


X
E (Y ) = ypY (y)
yRY
X X
= y pX (x)
yRY xAy
X X
= ypX (x)
yRY xAy
X X
= g (x) pX (x)
yRY xAy
X
= g (x) pX (x) ,
xRX

y por lo tanto queda demostrado el Teorema. 2

Ahora pasamos al caso absolutamente continuo. Sea X una variable


aleatoria absolutamente continua y fX su funcin de densidad. Sabemos
que Z +
E (X) = xfX (x) dx.

El siguiente teorema es el anlogo al teorema anterior cuando X es un vector
absolutamente continuo.

Teorema 7.10 Sea X un vector aleatorio absolutamente continuo de di-


mensin k, con densidad fX . Sea g : Rk R una funcin medible que toma
un conjunto a lo sumo numerable de valores y definamos Y = g (X) . Luego
Z + Z +
E (Y ) = ... g (x) fX (x) dx1 ...dxk . (7.25)

142
Demostracin. Como en el teorema anterior consideramos la particin

Ay = {x RX : g (x) = y} = g 1 ({y}) .
S
En este caso Rk = yRY Ay y si y =6 y 0 entonces Ay Ay0 = . Adems
1
pY (y) = PX (g ({y}) = PX (Ay ) . Entonces usando que para x Ay se
tiene g(x) = y, que adems
X
IAy (x) = 1
yRY

y que Z Z
PX (Ay ) = fX (x) dx1 . . . dxk (7.26)
Ay

obtenemos
X
E (Y ) = ypY (y)
yRY
X
= yPX (Ay )
yRY
X Z Z
= y fX (x) dx1 . . . dxk
yRY Ay
X Z Z
= yfX (x) dx1 . . . dxk
yRY Ay
X Z Z
= g (x) fX (x) dx1 . . . dxk
yRY Ay
X Z Z
= g (x) fX (x) IAy (x)dx1 . . . dxk
yRY Rk

Z Z X
= g (x) fX (x) IAy (x) dx1 . . . dxk =
Rk yRY
Z Z
= g (x) fX (x) dx1 . . . dxk . 2
Rk

Observacin. En la demostracin usamos (7.26). Como se comenta en la


observacin que sigue al Teorema 5.5, para demostrar esta propiedad para
todo boreliano se requiere teora de la medida y se debe usar la integral de
Lebesgue.

Propiedad 7.11 Sea X una variable aleatoria con esperanza finita. En-
tonces E (X + c) = E (X) + c.

143
Demostracin. Sea Y = X + c. Supongamos primero que c > 0. Sabemos que
FY (x) = FX (x c) . Utilizando el Teorema 7.8 tenemos

Z Z0
E(Y ) = (1 FY (y))dy FY (y)dy
0
Z Z0
= (1 FX (y c))dy FX (y c)dy.
0

Haciendo el cambio de variable x = y c dentro de las integrales, resulta

Z Zc
E(Y ) = (1 FX (x))dx FX (x)dx
c
Z0 Z Z0 Z0
= (1 FX (x))dx + (1 FX (x))dx FX (x)dx + FX (x)dx
c 0 c
Z0 Z0
= E(X) + (1 FX (x))dx + FX (x)dx
c c
Z0 Z0 Z0
= E(X) + dx FX (x)dx + FX (x)dx
c c c
Z0
= E(X) + dx
c
= E(X) + x|0c
= E(X) + c.

El caso de c < 0 se demuestra de la misma manera. 2


Recordemos el concepto de convergencia uniforme.

Definicin 7.5 Sea (fn )n1 una sucesin de funciones definidas sobre A un
conjunto cualquiera. Se dice que la sucesin de funciones (fn )n1 converge
uniformemente a la funcin f sobre A sii para cada > 0 existe n0 N tal
que si n n0 entonces para todo x A

|fn (x) f (x) | < .

Observacin. La diferencia con la convergencia puntual es que el n0 en este


caso sirve para todo x, es decir slo depende de .

144
La convergencia uniforme implica la puntual pero no al revs. En parti-
cular nos interesa la convergencia uniforme de variables aleatorias. Hacemos
notar que el lmite puntual de funciones medibles, y en consecuencia el lmite
uniforme, tambin resulta ser una funcin medible.

Teorema 7.11 Sea (Xn )n1 una sucesin de variables aleatorias definidas
en (, A, P ) que convergen uniformemente a una variable aleatoria X sobre
. Supongamos que E (X) existe. Entonces

lm E (Xn ) = E (X) .
n+

Observacin. La existencia de E (X) implica la existencia de E (Xn )


para todo n a partir de un valor n0 . Se deja como ejercicio.
Demostracin. Sea ( A, P ) el espacio de probabilidades donde estn definidas
las variables aleatorias Xn , n 1 y X. Teniendo en cuenta la convergencia
uniforme dado > 0 existe n0 N tal que si n n0 entonces

sup |Xn () X()| < .


Esto significa que si n n0 entonces

|Xn () X()| < , ,

o bien
X() < Xn () < X() + , .
Por las propiedades 7.9 y 7.11 se obtiene que si n n0 entonces

E (X) E (Xn ) E (X) + .

Por lo tanto lm E(Xn ) = E(X). 2

El siguiente teorema muestra que cualquier funcin medible puede aprox-


imarse por otra que toma un conjunto a lo sumo numerable de valores.

Teorema 7.12 (i) Sea g : Rk R una funcin tal que g(Rk ) es un con-
junto finito o numerable. Luego una condicion necesaria y suficiente
para que g sea medible es que para todo y g(Rk ) = Rg , se tenga que
g 1 (y) pertenezca a Bk .

(ii) Dada una funcin g : Rk R medible, existe una sucesion gn : Rk


R de funciones medibles tales que Rgn es numerable, y |gn () g()|
n1 para todo . Luego gn converge a g uniformemente.

145
(iii) Sea X un vector aleatorio de dimensin k y sea Y = g(X) donde
g : Rk R es una funcin medible. Entonces si gn : Rk R es
una sucesin de funciones medibles que converge uniformemente a g,
resulta que Yn = gn (X) converge uniformemente a Y.
(iv) Dada una variable aleatoria X existe una sucesin de variables aleato-
rias discretas Xn , n 1 que converge uniformemente a X.

Demostracin.
(i) Sea y Rg . Como {y} B, y Rg , para que g sea medible es
necesario que g 1 (y) Bk .Supongamos ahora que esta condicin se
cumpla. Entonces
g 1 ((, x]) = g 1 ((, x] Rg )
[
= g 1 (y).
y(,x]Rg

como (, x]Rg es numerable y g 1 (y) Bk , resulta g 1 ((, x])


Bk y por lo tanto g es medible.
(ii) Dado n, todo y R pertence a un intervalo de la forma (i/n, (i+1)/n)
para algn i entero Luego definimos gn por
(i + 1)
gn (x) = si g(x) (i/n, (i + 1)/n].
n
Luego |gn (x) g(x)| 1/n y Rgn es numerable. Por otro lado

1 i + 1 1 i i+1
gn =g ,
n n n
pertenece a Bk ya que g es medible. Por lo tanto por (i) gn es medible.
(iii) Se deja como ejercicio.
(iv) Por (ii) podemos encontrar una sucesin de funciones medibles gn :
R R tales que gn converja uniformemente a la funcin identidad
g(x) = x y tal que adems tomen un conjunto a lo sumo numerable
de valores. Luego las variables Xn = gn (X) son discretas y por (iii)
Xn = gn (X) converge uniformemente a g(X) = X. 2
El siguiente teorema generaliza el Teorema 7.10 para una funcin g med-
ible cualquiera. La estrategia de la demostracin es la siguiente y ser usada
a menudo: se aproxima uniformemente a la funcin g por una sucesin de
funciones gn que toman un nmero a lo sumo numerable de valores y que
satisfacen la propiedad pedida. Luego usando que el Teorema 7.12 vale para
las funciones gn y pasando al lmite se demuestra que la propiedad vale para
g.

146
Teorema 7.13 Sea X = (X1 , X2 , . . . , Xk ) un vector aleatorio absolutamente
continuo con funcin de densidad fX y g : Rk R una funcin medible ar-
bitraria. Si definimos la variable aleatoria Y = g (X) entonces
Z + Z +
E (Y ) = g (x) fX (x) dx.

Demostracin. Por el Teorema 7.12 (ii) existe una sucesin de funciones med-
ibles gn tal que Rgn es a lo sumo numerable y que converge uniformemente a
g. Definimos las variables aleatorias Yn = gn (X) . Por el Teorema 7.12 (iii),
(Yn )n converge uniformemente a Y.
Como ya hemos demostrado en el Teorema 7.10 que esta propiedad vale
para funciones que toman un conjunto a lo sumo numerable de valores, se
tendr Z Z + +
E (Yn ) = gn (x) fX (x) dx.

Adems por el Teorema 7.11 se tiene que lmn E(Yn ) = E(Y ). Luego
bastar probar que
Z + Z + Z + Z +
lm gn (x) fX (x) dx = g (x) fX (x) dx.
n+
(7.27)
Para probar esto observemos que
Z + Z + Z + Z +

g (x) f (x) dx g (x) f (x) dx
n X X

Z + Z +

= (gn (x) g (x)) fX (x) dx

Z + Z +
|(gn (x) g (x))| fX (x) dx

Z Z +
1 + 1
fX (x) dx = ,
n n
| {z }
=1

y por lo tanto se cumple (7.27). 2

Ahora vamos a probar la linealidad de la esperanza.

Teorema 7.14 Sean X1 y X2 dos variables aleatorias con esperanza finita.


Entonces para todo escalar y vale que

E (X1 + X2 ) = E (X1 ) + E (X2 ) .

147
Demostracin.
Primero probaremos el Teorema cuando X1 y X2 son discretas. Sean X1
y X2 variables aleatorias discretas con esperanza finita y sea Z = X1 +X2 .
Definamos g : R2 R por

g (x1 , x2 ) = x1 + x2 .

Entonces si X = (X1 , X2 ) se tiene que Z = g (X) . Definamos gi : R2


R, i = 1, 2 por gi (x1 , x2 ) = xi . Luego g(x) =g1 (x)+g2 (x). Usando el
Teorema 7.9 podemos escribir
X
E (Z) = g (x) pX (x)
(x1 ,x2 )RX
X
= [g1 (x) + g2 (x)] pX (x)
(x1 ,x2 )RX
X X
= g1 (x)pX (x) + g2 (x)pX (x)
(x1 ,x2 )RX (x1 ,x2 )RX

= E(g1 (X)) + E(g2 (X))


= E(X1 ) + E(X2 ).

Ahora bien, si X1 y X2 son variables aleatorias arbitrarias, entonces por


Teorema 7.12 (iii) podemos definir dos sucesiones de variables aleatorias
discretas (X1n )n1 e (X2n )n1 tales que convergen uniformemente a X1 y
X2 respectivamente.Es fcil ver que tambin se tendr que X1n + X2n
converge uniformemente a X1 + X2. .
Hemos demostrado que para el caso de variables aleatorias discretas se
cumple la linealidad de la esperanza. Luego tenemos

E (X1n + X2n ) = E (X1n ) + E (X2n ) . (7.28)

Aplicando el Teorema 7.11 se obtiene

lm E (X1n + X2n ) = E (X1 + X2 ) , (7.29)


n
y
lm E (Xjn ) = E(Xj ), j = 1, 2. (7.30)
n
Luego por (7.28), (7.29) y (7.30) se obtiene

E(X1 + X2 ) = lm E (X1n + X2n )


n
= lm (E (X1n ) + E (X2n ))
n
= lm E (X1n ) + lm E (X2n )
n n
= E (X1 ) + E (X2 ) ,

y esto prueba el teorema. 2

148
7.3. Esperanza del producto de variables aleato-
rias independientes.
Otro problema interesante es estudiar la esperanza de un producto de va-
riables aleatorias. Si las variables aleatorias X e Y tienen esperanzas finitas
y definimos la variable aleatoria Z = XY entonces nos podemos preguntar:
cundo vale que E (Z) = E (XY ) = E (X) E (Y )? Veremos en el siguiente
Teorema que una condicin suficiente es la independencia de las variables X
e Y.

Teorema 7.15 Sean X e Y variables aleatorias independientes con esper-


anza finita. Si Z = XY entonces

E (Z) = E (XY ) = E (X) E (Y ) .

Demostracin. En principio lo probaremos para el caso discreto. Luego aprox-


imaremos a X e Y por variables discretas uniformemente y probaremos el
teorema para el caso general pasando al lmite.
Sean X e Y variables aleatorias discretas independientes con esperanza
finita y definamos g : R2 R

g (x, y) = xy.

Entonces como Z = g (X, Y ) , por el Teorema 7.9 resulta


X
E (Z) = g (x, y) p(X,Y ) (x, y)
(x,y)R(X,Y )
X
= xyp(X,Y ) (x, y)
(x,y)RX RY
X
= (xpX (x)) (ypY (y))
(x,y)RX RY

X X
= xpX (x) ypY (y)
xRX yRY

= E (X) E (Y ) .

Observemos que R(X,Y ) RX RY pero para (x, y) RX RY R(X,Y )


se tiene p(X,Y ) (x, y) = 0, lo que justifica la segunda igualdad. La tercera se
justifica por el hecho de que dado que X e Y son independientes se tiene
p(X,Y ) (x, y) = pX (x)pY (y).
Por el Teorema 7.12 (ii) existe una sucesin de funciones medibles gn :
R R que toman un conjunto a lo sumo numerable de valores y que
converge uniformemente a la funcin identidad g(x) = x. Consideremos

149
las sucesiones de variables aleatorias discretas gn (X) = Xn e Yn = gn (Y ) .
Dado que X e Y son independientes, se tiene que Xn e Yn tambin lo son.
Luego, como ya hemos probado que el teorema vale para el caso discreto,
se tiene
E (Xn Yn ) = E (Xn ) E (Yn ) .
Ahora como por el Teorema 7.12 (iii) Xn converge uniformemente a X e Yn
converge uniformemente a Y se tendr

lm E (Xn Yn ) = lm E (Xn ) lm E (Yn ) = E (X) E (Y ) .


n n n

Luego basta probar que lmn E (Xn Yn ) = E (XY ). Para ver esto ob-
servemos que

|E (Xn Yn ) E (XY ) | = |E (Xn Yn XY ) |


E |Xn Yn XY |
= E |Xn Yn Xn Y + Xn Y XY |
= E |Xn (Yn Y ) + Y (Xn X)|
E (|Xn (Yn Y )| + |Y (Xn X)|)
E (|Xn | |Yn Y |) + E (|Y | |Xn X|) . (7.31)

Por la convergencia uniforme de Xn a X y de Yn a Y tenemos

lm m
ax |Xn () X()| = 0 (7.32)
n

y
lm m
ax |Yn () Y ()| = 0. (7.33)
n

Adems como |Xn | |X| uniformemente, resulta por el Teorema 7.11

lm E(|Xn |) = E(|X|). (7.34)


n

De (7.31), (7.32), (7.33) y (7.34) se obtiene que

lm |E (Xn Yn ) E (XY ) | = 0,
n

y esto prueba el teorema. 2

Damos a continuacin un ejemplo que muestra que la recproca es fal-


sa, es decir es falso que E (XY ) = E (X) E (Y ) implique que X e Y son
independientes.

Ejemplo 7.1 Consideremos un vector (X, Y ) discreto tal que

R(X,Y ) = {(1, 0), (1, 0), (0, 1) , (0, 1)}

150
y tal que p(x, y) = 1/4 para cada (x, y) R(X,Y ) .
Como para todo (x, y) R(X,Y ) , se tiene xy = 0, resulta P (XY 0) = 1.
Luego E (XY ) = 0. Tambin se ve que RX = {1, 0, 1} y pX (1) = 1/4,
pX (0) = 1/2 y pX (1) = 1/4, por lo tanto resulta

E (X) = 1(1/4) + 0(1/2) + 1(1/4) = 0.

De manera que se cumple que

E (XY ) = E (X) E (Y ) = 0.

Pero X e Y no son independientes pues pX (1) = 14 = pY (1) y dado que


/ R(X,Y ) se tiene p(X,Y ) (1, 1) = 0.
(1, 1)
Sin embargo si X, Y fueran independientes debiera cumplirse
11 1
p(X,Y ) (1, 1) = pX (1)pY (1) = = .
44 16
lo cual es una contradiccin. Por lo tanto X e Y no son independientes.

7.4. Una frmula general para la esperanza de una


variable transformada
Teorema 7.16 Sea X una variable aleatoria con esperanza finita y g : R
R tal que g(X) tiene esperanza finita. Supongamos adems que existen un
nmero finito de puntos = d0 < d1 < < dk = , tales que en Di =
(di , di+1 ] la funcin g es continua y estrictamente creciente o estrictamente
decreciente o constante y que lmxdi g (x) existe . Supongamos adems que
en di , 1 i k 1 la funcin g es continua o FX es continua. Luego se
tiene
Z
E(g(X)) = gdFX .

Demostracin. Podemos escribir


k
X
g(X) = g(X)IDi (X).
i=1

Vamos a ver que para probar el teorema bastar mostrar que


dZi+1

E(g(X)IDi (X)) = gdFX . (7.35)


di

151
Es importante observar que de acuerdo a las observaciones 2 y 3 de la pgina
126 la integral de Riemann-Stieltjes en el lado derecho de (7.35) existe. En
efecto, si (7.35) se cumple se tendr por el Teorema 7.14 y el hecho de que
en los puntos di , 1 i k 1 la funcin FX o g es continua, que
k
X
E (g(X)) = E(g(X)IDi (X))
i=1
di+1
k Z
X
= gdFX
i=1 d
i
Z
= gdFX .

Veamos que (7.35) para el caso que g es constante en Di En este caso sea
c el valor de la funcin en Di . Luego g(X)IDi (X) toma valores c con pro-
babilidad FX (di+1 ) FX (di ) y 0 con probabilidad 1 (FX (di+1 ) FX (di )).
Luego
E(g(X)IDi (X)) = c(FX (di+1 ) FX (di ))
dZi+1

= gdFX ,
di

y por lo tanto (7.35) se cumple.


Veamos ahora que (7.35) vale en los intervalos Di donde g es estricta-
mente creciente. Sean ai = lmxdi g(x) y bi = lmxdi+1 g(x) donde lmxa
indica lmite cuando x tiende a a por la derecha y lmxa indica el lmite
cuando x tiende a a por la izquierda. Sea Yi = g(X)IDi (X). De acuerdo al
Teorema 6.1

0 si y ai
1
FYi (y) = F (g (y)) si ai < y < bi (7.36)
X i
1 si y bi ,
donde gi es la restriccin de g a Di . Luego
Z b
i
E(Yi ) = ydFYi .
ai

Como lmaai gi1 (a) = di y lmbb gi1 (b) = di+1 , para probar (7.35) bas-
tar demostrar que para todo ai < a < b < bi se tiene

Z gi1
Z (b)
b
ydFY = g(x)dFX . (7.37)
a
gi1 (a)

152
En efecto si (7.37), vale entonces resulta
Z b
i
E(Yi ) = ydFYi
ai
Z b
= lm ydFYi
aai ,bbi a
gi1
Z (b)
= lm g(x)dFX
aai ,bbi
gi1 (a)
dZi+1

= g(x)dFX .
di

y por lo tanto (7.35) vale.


Para mostrar (7.37) consideremos una sucesin de particiones n del
intervalo [a, b] en n intervalos de igual longitud. Entonces tenemos Yn =
{y0n , y1n , ..., ynn } con a = y0n < y1n < < ynn = b e yj+1 yj = 1/n,
1 j n. Tomemos una seleccin arbitraria de puntos en esta particin
yjn < jn yj+1 n , la llamamos n = ( n )
j 1 jn . Luego por 7.36 tenemos que

n
X
Sab (Yn , n , y, FY ) = jn (FY (yj+1
n
) FY (yjn ))
j=1
Xn
= jn (FX (gi1 (yj+1
n
)) FX (gi1 (yjn ))). (7.38)
j=1

Entonces como la funcin id (y) = y es continua en [a, b] y FY es montona,


Rb
existe la integral de Riemann-Stieltjes a ydFY y se tiene que
Z b
lm S b ( n , n , y, FY ) = ydFY . (7.39)
n a Y a

Llamemos ahora

xnj = gi1 (yjn ), 0 j n, jn = gi1 (jn ), 1 j n.

Luego por la monotona de gi1 obtenemos gi1 (a) = xn0 < xn1 < ... < xnn =
gi1 (b) y xnj < jn xnj+1 . Por lo tanto X n = {xn , xn , ..., xn } es una particin
0 1 n
de [gi1 (a), gi1 (b)] y n = (jn )1jn una seleccin en esta particin. Adems
n
||X ax (xnj+1 xnj )
|| = m
1jn

ax (gi1 (yj+1
= m n
) gi1 (yjn ))
1jn

153
tiende a 0 con n por la continuidad uniforme de gi1 en [gi1 (a), gi1 (b)] y el
hecho de que
n
lm max (yj+1 yjn ) = 0.
n 1jn

Luego, como g es continua en [gi1 (a), gi1 (b)] y FX es montona, existe la


R gi1 (b)
integral de Riemann-Stieltjes g1 (a)
g(x)dFX y resulta que
i

Z gi1 (b)
gi1 (b) n
lm Sg1 (X , n , g, FX ) = g(x)dFX . (7.40)
n i (a) gi1 (a)

Finalmente observemos de (7.38) que


n
X
Sab (Yn , n , y, FY ) = jn (FX (gi1 (yj+1
n
)) FX (gi1 (yjn )))
j=1
Xn
= g(gi1 (jn ))(FX (xj+1 ) FX (xj ))
j=1
n
X
= g(jn )(FX (xj+1 ) FX (xj ))
j=1
g 1 (b)
i
= Sg1 ( n , n , g, FX ).
(a) X
(7.41)
i

Luego de (7.39) (7.40) y (7.41) obtenemos (7.37), y por lo tanto (7.35) queda
demostrada para el caso que g es estrictamente creciente en Di .
Para el caso que g es estrictamente decreciente, tenemos que g es es-
trictamente creciente. Por lo tanto (7.35) vale para g y entonces
dZi+1

E(g(X)IDi (X)) = gdFX .


di

Pero esto es equivalente a


dZi+1

E(g(X)IDi (X)) = gdFX ,


di

y luego (7.35) tambin vale. Esto prueba el teorema. 2

7.5. Esperanza de distribuciones simtricas


El concepto de esperanza matemtica est ligado con el valor central
de la distribucin. Ciertas variables llamadas simtricas tienen un centro

154
natural. Por ejemplo aquellas que tienen densidad simtrica respecto a un
punto.

Definicin 7.6 Dada una variable aleatoria X cualquiera, se dice que tiene
distribucin simtrica respecto de si

PX ([ x, )) = PX ((, + x]). (7.42)

para todo x > 0.

Teorema 7.17 X tiene distribucin simtrica respecto de 0 si y slo si


FX = FX

Demostracin. X tiene distribucin simtrica respecto de 0 si y slo si

PX ([x, 0)) = PX ((0, x]), x > 0. (7.43)

Se tiene
PX ((0, x]) = FX (x) FX (0) (7.44)
y

PX ([x, 0)) = P (x X < 0)


= P (x X > 0)
= P (0 < X x)
= FX (x) FX (0). (7.45)

Luego, de (7.43), (7.44) y (7.45) resulta que X tiene distribucin simtrica


respecto de 0 si y slo si

FX (x) FX (0) = FX (x) FX (0), x > 0. (7.46)

Tomando lmite cuando x tiende a infinito resulta

1 FX (0) = 1 FX (0)

y luego
FX (0) = FX (0). (7.47)
De (7.46) y (7.47) resulta que si X tiene distribucin simtrica respecto de
0 entonces
FX (x) = FX (x), x. (7.48)
Veamos la recproca. Supongamos que

FX (x) = FX (x), x.

155
Luego, para todo x R se tiene

P (X x) = FX (x) = FX (x) = P (X x) = P (X x) .

En particular
P (X 0) = P (X 0) .

Luego, si x > 0

P (0 < X x) = P (X x) P (X 0)
= P (X x) P (X 0)
= P (x X < 0) .

Es decir, (7.48) implica que

PX ([x, 0)) = PX ((0, x]), x > 0,

de lo que se deduce que X es simtrica. 2

Teorema 7.18 X tiene distribucin simtrica respecto de si y slo si


Y = X tiene distribucin simtrica respecto de 0.

Demostracin. Sea x > 0. Se tiene

PX ([ x, )) = P ( x X < )
= P (x X 0)
= P (x Y 0)
= PY ([x, 0)),

PX ((, + x]) = P ( < X + x)


= P (0 < X x)
= P (0 < Y x)
= PY ((0, x]).

Luego PX ([x, )) = PX ((, +x] es equivalente a PY ([x, 0)) = PY ((0, x])


y por lo tanto el teorema es cierto. 2

Teorema 7.19 Si X tiene esperanza finita y tiene distribucin simtrica


respecto de , entonces E(X) = .

156
Demostracin. Primero probaremos el teorema cuando = 0. En este caso
por el Teorema 7.14
E(X) = E(X). (7.49)
Ademas como FX = FX , y la esperanza depende solamente de la funcin
de distribucin se tendr

E(X) = E(X). (7.50)

De (7.49) y (7.50) resulta E(X) = E(X) = 0.


Supongamos ahora que X tenga distribucin simtrica respecto de .
Entonces X tiene distribucin simtrica respecto de 0. Luego usando la
Propiedad 7.11 resulta

0 = E(X ) = E(X) ,

y el teorema queda demostrado. 2

Teorema 7.20 (i) Si X es absolutamente continua, entonces X tiene


distribucin simetrica respecto de si y slo si

fX ( x) = fX ( + x) . (7.51)

(ii) Si X es discreta, entonces X tiene distribucin simetrica respecto de


si y slo si
pX ( x) = pX ( + x) .

Demostracin.

(i) Si llamamos Y = X , como fY (x) = fX (x+), (7.51) es equivalente


a
fY (x) = fY (x) .
Por otro lado por las frmulas de cambio de variable

fY (x) = fY (x).

Luego (7.51) es equivalente a fY = fY y esto es equivalente a FY =


FY. . Aplicando el Teorema 7.17 esto es equivalente a que Y sea simtri-
ca respecto de 0 y por Teorema 7.18 a que X sea simtrica respecto
de .

(ii) Es similar a (i). Se deja como ejercicio. 2

157
7.6. Mediana de una variable aleatoria.
Dijimos que la esperanza describe un valor central de una variable aleato-
ria. En particular, si la variable aleatoria X es simtrica y tiene esperanza
finita, entonces esta coincide con su centro de simetra. Una desventaja de
la esperanza es que es muy inestable, es decir es muy sensible a las pequeas
perturbaciones, pequeos cambios en la distribucin de la variable se ven
reflejados en importantes cambios en los valores de la esperanza.
Otra desventaja de la esperanza es que puede ocurrir que no exista.
Incluso esto puede darse en el caso de una distribucin simtrica. Un ejemplo
de distribucin simtrica que no tiene esperanza es la distribucin de Cauchy.
Su densidad est dada por
1 1
f (x) = .
1 + x2
Es fcil ver que efectivamente es una densidad. Tenemos que
Z Z
1 1 2 1
=
1 + x2 0 1 + x2
2
= arctg(x)| 0

2
= ( 0)
2
=1

El grfico de esta densidad es parecido al de la densidad normal aunque


las colas tienden a 0 ms lentamente. Es una funcin par y por lo tanto
simtrica respecto del eje y. Esta distribucin no tiene esperanza puesto que
un clculo sencillo prueba que
Z + Z 0
1 1 1 1
x 2
dx = x dx = +.
0 1+x 1 + x2

En efecto haciendo la tranformacin y = 1 + x2 en la primer integral se tiene


dy = 2xdx y entonces
Z Z +
1 + 1 1 1
x 2
dx = dy
0 1+x 2 1 y
1
= log(y)|
1 = .
2
Por lo tanto la simetra no garantiza la existencia de la esperanza. En
este sentido no es una buena medida de centralidad, puesto que cualquier
medida de centralidad debiera coincidir con el centro de simetra de fX en
el caso de existir ste.

158
Otra medida de centralidad es la mediana. Si existe un valor que deja la
misma probabilidad a su derecha que a la izquierda, ese valor es la mediana.
Esto se podr lograr siempre en el caso de una variable aleatoria continua.
Si X es simtrica entonces la mediana coincide con el centro de simetra.
Una definicin general de mediana es la siguiente.

Definicin 7.7 Se dice que m es una mediana de la variable aleatoria X


si se cumple que

(i) P (X m) 12 , y
(ii) P (X m) 12 .

Veremos que siempre existe, y que si no es nica, el conjunto de las


medianas es conexo, es decir es un intervalo en R. Para mostrar esto nece-
sitaremos recurrir a la funcin

FX1 (y) = inf Ay ,

donde Ay = {x : FX (x) y}. Hemos visto que el nfimo es en verdad un


1
mnimo, de manera que FX FX (y) y es decir
1

P X FX (y) y. (7.52)

Probaremos ahora una propiedad adicional.

Teorema 7.21
1
P X FX (y) 1 y. (7.53)

Demostracin. Sea x < FX1 (y) , entonces, dado que FX1 (y) es el mnimo de
1
Ay se tiene que FX (x) < y. Luego si ponemos x = FX1 (y) < FX1 (y)
n
obtenemos
1 1
FX FX (y) < y,
n
es decir
1 1
P X FX (y) < y.
n
La sucesin de eventos
1 1
An = {X FX (y) }
n
es montona no decreciente y adems

[
1
An = {X < FX (y)}.
n=1

159
Luego pasando al lmite se tiene

1 1
lm P X FX (y) y,
n n

y adems

1 1 1

lm P X FX (y) = P {X < FX (y)} .
n n

Por lo tanto
1
P {X < FX (y)} y,
o equivalentemente

P {X FX1 (y)} 1 y. 2

Teorema 7.22 Sea X una variable aleatoria y FX su distribucin. Entonces


1
(i) FX1 2 es una mediana.

(ii) Si m es mediana de X entonces



1 1
FX m.
2

(iii) Si m1 y m2 son medianas de X entonces para todo m (m1 , m2 ), m


es mediana de X.

Demostracin.

(i) Se deduce de (7.52) y (7.53) tomando y = 12 .


1
(ii) Si m es otra mediana,
entonces como P (X
1m)
2 , resulta que
1 1 1
m A 1 . Como FX 2 = inf A 1 resulta F 2 m.
2 2

(iii) Se deja como ejercicio. 2

Tambin se propone como ejercicio dar ejemplos de distribuciones en las


que el intervalo de las medianas sea cerrado a derecha y ejemplos en los que
sea abierto a derecha.
En el caso de que se trate de un intervalo podemos definir la mediana
central como el punto medio del intervalo. Es decir si el conjunto de medianas
a+b
es el intervalo [a, b) o el [a, b], la mediana central es mc (X) = .
2
160
7.7. Varianza de una variable aleatoria.
La esperanza y la mediana de una variable aleatoria son caractersticas
de su distribucin que describen un valor central. Sin embargo, variables
aleatorias con distribuciones muy distintas pueden tener la misma esperanza.
Por ejemplo pueden diferir en cuan dispersos alrededor de la esperanza estn
los valores que toma la variable. Variables con la misma esperanza pueden
estar ms o menos dispersas. Esto nos lleva a definir otras caractersticas de
una variable aleatoria, que midan la dispersin alrededor de un valor central.
Tampoco existe una nica manera de medir dicha dispersin. Consid-
eremos una variable aleatoria X. Podramos considerar la distancia entre los
valores que toma X y su esperanza, es decir |X E (X)| y como esto re-
sulta ser una variable aleatoria, calcular su esperanza E (|X E (X)|) . Sin
embargo, dado que la funcin valor absoluto no es derivable en el origen,
ser conveniente reemplazarla por la funcin cuadrtica.

Definicin 7.8 Definimos la varianza de la variable aleatoria X por



Var (X) = E (X E (X))2 .

Se la suele notar por X2 . La desviacin tpica o desvo estndar de una

variable aleatoria X es definida como la raz cuadrada de la varianza


p
ds (X) = Var (X) = X .

Observacin. Es Inmediato observar que Var (X) 0 pues se trata de


la esperanza de una variable aleatoria no negativa. Tambin es claro que
siempre existe si admitimos como medida el valor +.

La varianza tiene las siguientes propiedades.

Propiedad 7.12 Si X tiene varianza finita, entonces



Var (X) = E X 2 E 2 (X) .

Luego para el caso discreto resulta


2
X X
Var (X) = x2 pX (x) xpX (x) ,
xRX xRX

y para el continuo
Z Z 2
2
Var (X) = x fX (x)dx xfX (x)dx .

161
Demostracin. Teniendo en cuenta las propiedades de la esperanza, se obtiene
que:

Var (X) = E (X E (X))2

= E X 2 2E (X) X + E 2 (X)

= E X 2 2E (X) E (X) + E E 2 (X)

= E X 2 2E 2 (X) + E 2 (X)

= E X 2 E 2 (X) .2

Propiedad 7.13 Var (X) = 0 es equivalente a P (X = E (X)) = 1.



Demostracin. Supongamos que Var (X) = E (X E (X))2 = 0. Como
(X E (X))2 es no negativa, resulta por la Propiedad 7.10 que

P (X E (X))2 = 0 = 1.

Esto equivale a que


P (X E (X) = 0) = 1,
o
P (X = E (X)) = 1.
Se deja como ejercicio probar que si

P (X = E (X)) = 1,

entonces Var (X) = 0. Para eso obsrvese que la variable aleatoria (X


E (X))2 es cero con probabilidad uno. 2

Propiedad 7.14 Sea X una variable aleatoria e Y = X + , con ,


escalares. Entonces Var (Y ) = 2 Var (X) .

Demostracin. Como E(Y ) = E(X) + resulta



Var (Y ) = E (Y E (Y ))2
= E([X + (E(X) + )]2 )

= E [ (X E(X))]2

= 2 E [X E(X)]2
= 2 Var (X) .2

Se mostrar que en el caso de suma de variables aleatorias independi-


entes, la varianza es aditiva.

162
Propiedad 7.15 Sean X e Y variables aleatorias independientes. Luego si
Z = X + Y resulta Var (Z) = Var (X) + Var (Y ) .

Demostracin. Tenemos

Var (Z) = E [Z E (Z)]2

= E [X + Y E (X) E (Y )]2

= E [(X E (X)) + (Y E (Y ))]2

= E [X E (X)]2 + 2E ([X E (X)] [Y E (Y )]) + E [Y E (Y )]2
= Var (X) + 2E ([X E (X)] [Y E (Y )]) + Var (Y ) .
Luego, bastar probar que
E ([X E (X)] [Y E (Y )]) = 0.
Usando la independencia de X e Y y teniendo en cuenta que
E (X E (X)) = 0 = E (Y E (Y )) ,
resulta
E ([X E (X)] [Y E (Y )]) = E (X E (X)) E (Y E (Y ))
= 0. 2 (7.54)

7.7.1. Esperanzas y varianzas de distribuciones normales

Calcularemos
2
ahora E(Y ) y Var(Y ) para una variable Y con distribucin
N , .

Teorema 7.23 Si Y N , 2 entonces E(Y ) = y Var(Y ) = 2 .

Demostracin. Tomemos primero una variable X con distribucin N(0, 1).


Mostraremos que E(X) = 0 y Var(X) = 1. La densidad de X es
1 2
f (x) = 1/2
ex /2 .
(2)
Como X es simtrica respecto de 0, para mostrar que E(X) = 0, bastara
mostrar que E(|X|) < . Tenemos que
Z
E(|X|) = |x|f (x)dx

Z
=2 xf (x)dx
0
Z
2 2
= 1/2
xex /2 dx. (7.55)
(2) 0

163
Definamos u = x2 /2 y entonces du = xdx. Luego
Z
2 2
E(|X|) = 1/2
xex /2 dx
(2)
Z0
2
= eu du
(2)1/2 0
2 u
= e |0 (7.56)
(2)1/2
2
= < .
(2)1/2
Vamos ahora a calcular la integral indefinida
Z
2
x2 ex /2 dx.

2
Haciendo u = x y dv = xex /2 dx para integrar por partes, se tiene du = dx
2
y por (7.56) v = ex /2 . Luego
Z Z
2 x2 /2
x e dx = udv
Z
= uv vdu
Z
x2 /2 2
= xe + ex /2 dx.

Luego Z Z

2 /2 2 /2 2 /2
x2 ex dx = [xex ] + ex dx,


2 /2
y como [xex ] = 0, resulta

Z Z
2 /2 2 /2
x2 ex dx = ex dx.

Entonces se tiene
Z
Var(X) = x2 f (x)dx

Z
1 2
= x2 ex /2 dx
(2)1/2
Z
1 2
= 1/2
ex /2 dx
(2)
Z
= f (x)dx

= 1.

164

2 es la distribucin de
De acuerdo a su definicin, la distribucin
N ,
Y = X + , con X N , 2 . Luego E (Y ) = E (X) + = y
Var (Y ) = 2 Var (X) = 2 . 2
Observacin. De acuerdo a este resultado, los parmetros de una distribu-
cin normal coinciden con la esperanza y la varianza.

7.8. Covarianza
La ecuacin (7.54) motiva la definicin del concepto de covarianza.

Definicin 7.9 Sean X e Y variables aleatorias. Se define la covarianza de


X e Y como

Cov (X, Y ) = E ([X EX] [Y E (Y )]) .

La siguientes Propiedades 7.16 y 7.17 son inmediatas

Propiedad 7.16 Var (X + Y ) = Var (X) + Var (Y ) + 2Cov(X, Y ).

Propiedad 7.17 Si X , Y son independientes, Cov(X, Y ) = 0

La recproca es falsa: la covariaza igual a cero no garantiza la indepen-


dencia de las variables. Se puede dar el mismo contraejemplo que se us
luego del Teorema 7.15 para mostrar que E(XY ) = E(X)E(Y ) no implica
que X e Y sean independientes.
Diremos que dos variables aleatorias X e Y estn positivamente correla-
cionadas si Cov (X, Y ) > 0 y negativamente correlacionadas si Cov (X, Y ) <
0.
Si Cov (X, Y ) = E ([X EX] [Y E (Y )]) > 0, X EX y Y E (Y )
tienden a tener el mismo signo, es decir tienden a situarse del mismo lado
de sus respectivas esperanzas. Lo contrario ocurre si Cov (X, Y ) < 0.

Propiedad 7.18 Si X e Y son variables aleatorias y ponemos X 0 = X +


e Y 0 = Y + entonces

Cov X 0 , Y 0 = Cov (X, Y ) .

Demostracin. Para probarlo obsrvese que



X 0 E X 0 = X + (E (X) + ) = (X E (X)) ,

Y 0 E Y 0 = Y + (E (Y ) + ) = (Y E (Y )) .

165
Luego
0
E X E X0 Y 0 E Y 0 = E ( [X E (X)] [Y E(Y )])
= E ([X E (X)] [Y E(Y )])

de donde se obtiene el resultado enunciado. 2


Ahora enunciaremos la desigualdad de Cauchy-Schwarz para variables
aleatorias.

Teorema 7.24 (Desigualdad de Cauchy-Schwarz) Sean X e Y vari-


ables aleatorias. Entonces si las varianzas de ambas variables son finitas se
tiene
E 2 (XY ) E X 2 E Y 2 , (7.57)
y la igualdad ocurre si y slo si existe tal que P (Y = X) = 1. Adems

Cov2 (X, Y ) Var(X)Var(Y ), (7.58)

y la igualdad ocurre si y slo si existen escalares , tal que

P (Y = X + ) = 1. (7.59)

Demostracin.
Sea Z = Y X. Entonces

Q(a) = E Z 2 = 2 E X 2 + E Y 2 2E (XY ) 0.

es un polinomio de segundo grado en , no negativo y como tiene a lo sumo


una raz su discriminante es no positivo.

= 4E 2 (XY ) 4E X 2 E Y 2 = 4(E 2 (XY ) E X 2 E Y 2 ) 0.

Luego
E 2 (XY ) E 2 (X) E 2 (Y ) 0,
de donde obtiene el resultado.
La igualdad se cumple si y slo si = 0. Esto ocurre si y slo si existe
un nico tal que Q() = 0. Esto es equivalente a que E((Y X)2 ) = 0,
y esto a que P (Y = X) = 1.
La desigualdad (7.58) se obtiene aplicando (7.57) a X = X E(X) e
Y = Y E(Y ). Luego resulta que la correspondiente igualdad se cumple
si y slo si existe tal que

P (Y E(Y ) = (X E(X)) = 1.

Poniendo = E(Y ) + E(X), esto es equivalente a (7.59). 2

166
Definicin 7.10 Dadas las variables aleatorias X e Y se define el cuadrado
del coeficiente de correlacin entre ellas, y se denota por 2 (X, Y ) a

Cov2 (X, Y )
2 (X, Y ) = .
Var (X) Var (Y )

Tambin definimos el coeficiente de correlacin entre X e Y por

Cov (X, Y )
(X, Y ) = 1 1 .
[Var (X)] 2 [Var (Y )] 2

De la desigualdad de Cauchy-Schwarz se deduce la siguiente propiedad.

Propiedad 7.19 Se tiene que

0 (X, Y )2 1

y por lo tanto
1 (X, Y ) 1.
Ademas (X, Y )2 = 1 es equivalente a que para algn y se tenga P (Y =
X + ) = 1, es decir a que haya una relacin lineal perfecta entre las
variables X e Y.

7.9. Distribucin Normal Bivariada.


En esta seccin vamos a definir la distribucin normal con medias, vari-
anzas y covarianzas arbitrarias.
Queremos definir la distribucin conjunta de un vector aleatorio Y =
(Y1 , Y2 ) a partir de fijar la distribucin marginal de cada una de sus co-
ordenadas y establecer un valor para la covarianza entre sus coordenadas.
Es decir que queremos que la
distribucin
conjunta del vector Y sea tal
2 2
que Y1 N 1 , 1 , Y2 N 2 , 2 , y tal que Cov (Y1 , Y2 ) = 12 , con las
constantes 1 , 2 , 1 , 2 y 12 prefijadas arbitrariamente. Para que esto sea
posible se tendrn que cumplir ciertas restricciones sobre estas constantes.
Los valores 1 , 2 no tienen deben cumplir ningn requisito en particular,
pero 12 > 0, 22 > 0 y 12 debe cumplir la desigualdad de Cauchy-Schwarz
que se puede escribir como
2
12 12 22 .
Ahora bien si queremos una distribucin bivariada absolutamente con-
2 = 2 2 , ya que en este caso (Y , Y ) estara
tinua, no podr cumplirse 12 1 2 1 2
sobre una recta que es un conjunto de superficie 0. Luego se deber cumplir
2
12 < 12 22 .

167
Sea la matriz definida por

12 12
= . (7.60)
12 22

Luego det () = 12 22 12
2 > 0.

Definamos la matriz de covarianza del vector Y por



Var(Y1 ) Cov(Y1 , Y2 )
Y = .
Cov(Y2 , Y1 ) Var(Y2 )

Luego queremos que


Y = .

Como det() = 12 22 12
2 > 0 y 2 > 0, resulta simtrica y definida
1
positiva. Luego tiene al menos una raz cuadrada. Es decir existe una
matriz (no nica)
a11 a12
A= (7.61)
a21 a22
tal que
= AAt , (7.62)
donde At designa su traspuesta.

Estamos ahora en condiciones de construir el vector aleatorio buscado.


Lo haremos en el siguiente teorema.

Teorema 7.25 Sea R22 una matriz definida positiva dada por (7.60),
= (1 , 2 ) R2 . Sea A R22 dada por (7.61) que cumple (7.62).
Sea X = (X1 , X2 ) un vector aleatorio tal que X1 y X2 variables aleato-
rias independientes con distribucin N (0, 1) . Se define el vector aleatorio
Y = (Y1 , Y2 ) por
Y = XAt + .
Entonces resulta que

(i) Y1 tiene distribucin N 1 , 12 e Y2 tiene distribucin N 2 , 22 .

(ii) Cov(Y1 , Y2 ) = 12 .

(iii) La densidad del vector Y est dada por



1 1 1 t
fY (y) = 1 exp (y ) (y ) .
2 det () 2 2

168
(iv) La forma cuadrtica Q(y) = (y ) 1 (y )t es igual a
" #
1 (y1 1 )2 (y2 2 )2
+ 2 (y1 1 ) (y2 2 ) .
(1 2 ) 12 22

Demostracin.

(i) y (ii) Observemos que el vector Y satisface

Y1 = a11 X1 + a12 X2 + 1 , (7.63)


Y2 = a21 X1 + a22 X2 + 2 . (7.64)

Como E(X1 ) = E(X2 ) = 0, resulta

E (Y1 ) = 1 , E (Y2 ) = 2 .

Ademas como Cov (X1 , X2 ) = 0, Var (X1 ) = Var (X2 ) = 1, resulta

Var (Y1 ) = a211 Var (X1 ) + a212 Var (X2 ) (7.65)


= a211 + a212 .

De modo anlogo,
Var (Y2 ) = a221 + a222 , (7.66)
y como E(X1 X2 ) = 0, resulta

Cov (Y1 , Y2 ) = E([a11 X1 + a12 X2 ] [a21 X1 + a22 X2 ])


= a11 a21 E(X12 ) + a12 a22 E(X22 ) + (a12 a21 + a11 a22 )E(X1 X2 )
= a11 a21 + a12 a22 . (7.67)

Luego

a211 + a212 a11 a21 + a12 a22
Y =
a11 a21 + a12 a22 a221 + a222
= AAt
=
2
1 12
= . (7.68)
12 22

De acuerdo al Teorema 6.7, como Y1 e Y2 son combinaciones lineales


de normales independientes sern normales. Por (7.63), (7.65) y (7.68)
2
resulta que la distribucin de Y1 es N 1 , 1 . Por (7.64), (7.66) y

(7.68) resulta que la distribucin de Y2 es N 2 , 22 . Adems, de
(7.67) y (7.68) resulta que Cov(Y1 , Y2 ) = 12 . Esto prueba (i) y (ii).

169
(iii) Vamos a calcular la distribucin conjunta del vector Y. Comencemos
escribiendo la distribucin conjunta del vector X. Como X1 y X2 son
independientes, la distribucin conjunta de X es el producto de las
marginales,
2 2
1 x1 x2
fX (x) = exp exp
2 2 2
!
1 x21 + x22
= exp
2 2

1 1 t
= exp xx ,
2 2

donde xxt = ||x||2 .


1
Teniendo en cuenta que X = (Y ) At se obtiene que el Jaco-
biano de esta transformacin es J = 1/ det At . Adems, como =
1
AAt se obtiene que (det (A))2 = det () o sea det (A) = det () 2 y por
1 1 1
lo tanto J = 1/ det () 2 . Entonces, a partir de la igualdad At A =
1 usando la frmula para transformaciones de vectores aleatorios
dada en el teorema 6.4, resulta

1 1 t 1 1 t
fY (y) = 1 exp (y ) A A (y )
2 det () 2 2

1 1 1 t
= 1 exp (y ) (y ) .
2 det () 2 2

(iv) Para hallar la forma cuadrtica, calculemos primero el determinante


de

2
det () = 12 22 12
2
= 12 22 1 2122 = 12 22 1 2 .
1 2

Luego la inversa de viene dada por



1 1 22 12
= 2 2 .
1 2 (1 2 ) 12 12

Entonces la forma cuadrtica se puede escribir como



t 1 22 12
1
(y ) (y ) = (y ) 2 2 (y )t
1 2 (1 2 ) 12 12
1 h
= 2 2 (y1 1 )2 22 + (y2 2 )2 12
1 2 (1 2 )
2 (y1 1 ) (y2 2 ) 12 ] .

170
Luego se tiene

(y ) 1 (y )t
!
1 (y1 1 )2 (y2 2 )2 12
= + 2 2 2 (y1 1 ) (y2 2 )
1 2 12 22 1 2
!
1 (y1 1 )2 (y2 2 )2
= + 2 (y1 1 ) (y2 2 ) .2
1 2 12 22 1 2

Observacin. El teorema anterior se demostr para el caso de dos variables.


Sin embargo la densidad normal multivariada de cualquier dimensin que
se define para vectores aleatorios Y Rk tiene una expresin similar a la
escrita en el punto (iii).
Observacin. El mximo valor de fY se logra cuando se hace mnimo el
exponente de la exponencial, esto es en y = . Por otro lado las curvas de
nivel fY (y) = c (con c constante) son elipses cuyas direcciones principales
vienen dadas por los autovectores de 1 . Si la Cov (Y1 , Y2 ) = 0 entonces, la
matriz es diagonal y las direcciones son paralelas a los ejes coordenados,
dando lugar a circunferencias como curvas de nivel en este caso.

Definicin 7.11 Se dice que el vector Y tiene distribucin normal bivaria-


da con media y matriz de covarianza definida positiva, que se denotar
por N2 (,) si su funcin densidad es

1 1 1 t
fY (y) = 1 exp (y ) (y ) .
2 det () 2 2

171
172
Captulo 8

Teora de la Prediccin.

8.1. Error cuadrtico medio y predictores pti-


mos.
En esta seccin veremos como utilizar ciertas variables conocidas para
predecir otras variables que no se pueden observar en un determinado mo-
mento. Por ejemplo se quiere predecir la cantidad de lluvia que maana
caer en determinada regin, utilizaremos otras variables que se puedan
medir hoy. Quisiramos encontrar el predictor que se aproxime ms a la
variable a predecir, entre todos los predictores pertenecientes a un conjunto
dado.
Sea P un conjunto de predictores para la variable aleatoria Y, que forman
un espacio vectorial. Cada elemento de P es una variables aleatoria observ-
able. Supongamos que se quiere predecir a Y a travs de Yb P. Cmo se
puede medir la bondad de un predictor Yb cualquiera? Se pueden considerar
las siguientes alternativas:
Definicin 8.1 El error cuadrtico medio del predictor Yb para predecir a
Y est dado por
2
b
ECM Y , Y = E Y Y b

y el error absoluto medio




EAM Yb , Y = E Y Yb .

Si usamos como criterio de bondad de un predictor el error cuadrtico


medio, diremos que Yb0 P es es un predictor ptimo de Y en P , si dado
otro Yb P se tiene

ECM Yb0 , Y ECM Yb , Y .

A continuacin damos un criterio suficiente para obtener un predictor


ptimo usando el criterio del error cuadrtico medio.

173
Teorema 8.1 Una condicin suficiente para que Yb0 P sea un predictor
ptimo usando el criterio del error cuadrtico medio es que

E Y Yb0 Yb = 0 (8.1)

para todo Yb P. Adems, si Yb0 satisface (8.1), esesencialmente


el nico

b
predictor ptimo. Es decir si Y P satisface ECM Y0 , Y = ECM Yb , Y
b

entonces P Yb = Yb0 = 1.

La condicin
Observacin. (8.1) se puede interpretar como que el error de
b
prediccin Y Y0 es ortogonal a todo elemento de P cuando el producto
escalar est definido por hY, Xi = E(Y X) en el espacio de Hilbert de las
variables aleatorias.
Demostracin. Sea Yb P. Entonces
2 h i2
b
ECM Y , Y = E Y Y b =E b b
Y Y0 + Y0 Y b
2 2
=E Y Yb0 +E Yb0 Yb

+ 2E Yb0 Yb Y Yb0 .

Usando la condicin de ortogonalidad, como Yb0 Yb P se tiene



E Yb0 Yb Y Yb0 = 0,

y luego
2 2
b
ECM Y , Y = E Y Y0b +E b b
Y0 Y
2
E Y Yb0

= ECM Yb0 , Y ,

y por lo tanto Yb0 es ptimo. 2


Adems si Yb fuera tambin ptimo se tendra E Yb0 Yb = 0 y
2
siendo Yb0 Yb 0 resultara P Yb = Yb0 = 1, en virtud de la Propiedad
7.10. 2.
El siguiente Teorema simplica la verificacin de la condicin (8.1).

174
Teorema 8.2 Sea P un espacio vectorial de predictores de la variable aleato-
ria Y de dimensin finita y sea {Yb1 , ..., Ybk } una base de P. La condicin
necesaria y suficiente para que se cumpla (8.1) es que

E Y Yb0 Ybi = 0, 1 i k. (8.2)

Demostracin. Claramente es una condicin necesaria. Veamos que es sufi-


ciente Sea Yb cualquier elemento de P, entonces existen escalares 1, ..., k
P
tal que Yb = ki=1 i Ybi . Luego si para i = 1, 2, ..., k se cumple que

E Y Yb0 Ybi = 0,
resulta tambin que
!
X
k
E Y Yb0 Yb = E Y Yb0 i Ybi
i=1
k
X
= i E Y Yb0 Ybi = 0. 2
i=1

8.2. Predictores constantes.


Se pueden considerar distintos conjuntos de predictores. Comenzaremos
con los predictores constantes.
Sea (, A, P ) un espacio de probabilidad, Y una variable aleatoria a
predecir y consideremos
P1 = {Yb : Yb es una variable aleatoria constante}.
El siguiente Teorema determina el predictor ptimo perteneciente a P1 .
Teorema 8.3 El predictor Yb0 = E(Y ) es el de menor error cuadrtico
medio en P1 . Adems ECM(Yb0 , Y ) = Var(Y ).
Demostracin. Una base de P1 es {Yb1 } donde Yb1 = 1. Como

E Y Yb0 1 = E (Y E(Y )) = E(Y ) E (Y ) = 0,

resulta Yb0 = E(Y ) el predictor de menor error cuadrtico medio.


Adems
ECM(Yb0 , Y ) = E((Y Yb0 )2 )
= E((Y E(Y ))2 )
= Var(Y ). 2

Designamos el predictor ptimo para Y en P1 por Yb0,C . En la prctica


nicamente se usa un predictor constante si no se observan otras variables
vinculadas a Y.

175
8.3. Predictores lineales.
Sea ahora (, A, P ) un espacio de probabilidad, Y una variable aleatoria
a predecir y X otra variable aleatoria observada. Consideremos el siguiente
conjunto de predictores

P2 = {Yb : Yb = X + , , R}.

P2 es el conjunto de variables aleatorias que se obtiene por una transfor-


macin lineal de la variable X . Claramente P1 P2 , y por lo tanto el error
cuadrtico medio del predictor ptimo en P2 ser menor o igual que el del
predictor ptimo en P1 . Por esta razn, si denotamos por Yb0,L el predictor
ptimo en P2 ,resulta claro que

ECM Y, Yb0,L ECM Y, Yb0,C .

El siguiente Teorema caracteriza el predictor ptimo en P2 .

Teorema 8.4 (i) El predictor de menor error cuadrtico medio en P2


est dado por Yb0,L = X + con

= E (Y ) E (X) (8.3)

y
Cov (X, Y )
= . (8.4)
Var (X)

(ii) El error cuadrrico medio de Yb0,L est dado por


Cov2 (X, Y )
ECM Yb0,L .Y = Var (Y ) . (8.5)
Var (X)

Demostracin. Una base de P2 es {Yb1 , Yb2 } donde Yb1 = X e Yb2 = 1. Luego el


predictor ptimo Yb0,L debe satisfacer

E ((Y X ) X) = 0 (8.6)

y
E ((Y X ) 1) = 0. (8.7)
De la condicin (8.6) se obtiene

E (Y ) E(X) = 0,

de donde resulta (8.3).


Ahora multiplicando (8.7) por E (X) resulta

E ((Y X ) E (X)) = 0,

176
y restndola de (8.6) obtenemos

E ((Y X ) (X E (X))) = 0.

Reemplazando por (8.3) obtenemos

E ((Y X E (Y ) + E (X)) (X E (X))) = 0,

y por lo tanto

E ((Y E (Y )) (X E (X)) (X E (X)) = 0.

Entonces distribuyendo la esperanza se obtiene

Cov (X, Y ) = E [(Y E (Y )) (X E (X))]


h i
= E (X E (X)2
= Var (X) ,

y por lo tanto resulta (8.4).


Ahora calcularemos el error cuadrtico medio de Yb0,L . Usando (8.3)
obtenemos

ECM Yb0,L , Y = E [Y X ]2

= E [Y X E (Y ) + E (X)]2 =

2
= E [(Y E (Y )) (X E (X))] =

= E [Y E (Y )]2 + 2 E [X E (X)]2
2E ([Y E (Y )] [X E (X)]) .

Luego, usando (8.4) se obtiene



ECM Yb0,L , Y = Var (Y ) + 2 Var (X) 2Cov (X, Y )
Cov2 (X, Y ) Cov2 (X, Y )
= Var (Y ) + 2
Var (X) Var (X)
2
Cov (X, Y )
= Var (Y ) . 2
Var (X)

Para evaluar cunto mejora el error cuadrtico medio cuando se usa Yb0,L

177
en vez de Yb0,C , calculemos su decrecimiento relativo

ECM Yb0,C , Y ECM Yb0,L , Y

ECM Yb0,C , Y
2 (X,Y )

Var (Y ) Var (Y ) Cov
Var(X)
=
ECM Yb0,C , Y
Cov2 (X,Y )
Var(X) Cov2 (X, Y )
= = = 2 (X, Y ) .
Var (Y ) Var (X) Var (Y )

Esto permite interpretar el coeficiente 2 (X, Y ) como el decrecimiento


relativo del error cuadrtico medio cuando se usa un predictor lineal basado
en X en vez de un predictor constante. Por lo tanto 2 (X, Y ) mide la utilidad
de la variable X para predecir a Y por una funcin lineal. Observemos que
a partir de esta igualdad puede obtenerse nuevamente
la desigualdad
de
b
Cauchy-Schwarz. En efecto, como 0 ECM Y0,C , Y ECM Y0,L , Y b

ECM Y, Yb0,C , se obtiene 0 2 (X, Y ) 1.
Veremos ahora el significado de los casos extremos 2
(X, Y) = 1 y
(X, Y ) = 0. (X, Y ) = 1 es equivalente a ECM Y, Yb0,L = 0 y esto
2 2
2
es equivalente E Y Yb0,L = 0, que a su vez es equivalente a

P Y = Yb0,L = P (Y = X + ) = 1,

en virtud de la Propiedad 7.10.


Es decir 2 (X, Y ) = 1 es equivalente a que hay una relacin lineal per-
fecta entre X e Y con probabilidad 1.
Existen dos posibilidades para 2 (X, Y ) = 1 : o bien (X, Y ) = 1 o
(X, Y ) = 1. El signo de (X, Y ) coincide con el de Cov(X, Y ) que es el
mismo que el de la pendiente del predictor linear ptimo. Luego (X, Y ) = 1
indica que la relacin entre la X y la Y es creciente y (X, Y ) = 1 que la
relacin es decreciente.
Veremos ahora como se interpreta 2 (X, Y ) = 0. En este caso

ECM Yb0,L , Y = ECM Yb0,C , Y

y Cov(X, Y ) = 0. Por lo tanto = 0, y se puede concluir que la variable X


no tiene utilidad para predecir a Y cuando se utilizan predictores lineales.
Se deja como ejercicio probar que la recta Y = X + pasa por el punto
(E (X) , E (Y )) , es decir que cuando la variable X toma el valor E(X) el
valor predicho para la variable Y es E(Y ).

178
Captulo 9

Esperanza y distribucin
condicional.

9.1. Caso discreto.


Sean dos variables aleatorias discretas X, Y definidas sobre un mismo
espacio de probabilidad (, A, P ). Sea RX = {x : pX (x) > 0} y RY = {y :
pY (y) > 0}. Luego, para cada x RX definimos la funcin de probabilidad
de Y condicional a X = x como
pXY (x, y)
pY |X (y|x) = .
pX (x)

A veces se utiliza la notacin pY |X=x (y) para la funcin de probabilidad


condicional.
Para cada x RX fijo esta funcin es una funcin de densidad de pro-
babilidad ya que

X X pXY (x, y) 1 X pX (x)


pY |X (y|x) = = pXY (x, y) = = 1,
pX (x) pX (x) pX (x)
yRy yRy yRy

y representa la distribucin de Y una vez conocido que el valor de X = x.


Si se tienen dos vectores discretos X = (X1 , ..., Xk ) , Y = (Y1 , ..., Yh )
podemos definir una nocin anloga. Sea RX = {x Rk : pX (x) > 0},
luego para todo x RX definimos

pXY (x, y)
pY|X (y|x) = , (9.1)
pX (x)

y tambin se tendr X
pY|X (y|x) = 1.
yRY

179
Esto permite calcular probabilidades que involucran a Y cuando sabemos
que el evento {X = x} ha ocurrido. En efecto, si B Bh (borelianos de Rh )
definimos
X
P (Y B | X = x) = pY|X (y|x).
yRY B

Sea ahora Y una variable aleatoria y X un vector aleatorio de dimensin


k, ambos discretos. La esperanza condicional de la variable Y condicional
a X = x se define como la esperanza de Y utilizando como distribucin de
esta variable la distribucin determinada por (9.1). Es decir, la esperanza
condicional se define por

X
E(Y |X = x) = ypY |X (y|x). (9.2)
yRY

Este valor representa la esperanza de la variable Y cuando se sabe que


el vector X ha tomado el valor x.
Llamemos g(x) = E(Y |X = x), luego g : RX R. Vamos a definir
ahora una variable aleatoria que llamaremos esperanza de Y condicional a
X, y que notaremos por E(Y |X). Esta variable se define por

E(Y |X) = g(X).

Vamos ahora a mostrar el siguiente teorema, que relaciona las esperanzas


de ambas variables aleatorias.

Teorema 9.1 Si Y tiene esperanza finita, entonces se tiene que

E(E(Y |X)) = E(Y ).

Demostracin. Tenemos que

X
E(E(Y |X)) = E(g(X)) = g(x)pX (x).
xRX

180
Utilizando que g(x) viene dado por (9.2), se tiene

X X
E(E(Y |X)) = ypY |X (y|x) pX (x)
xRX yRY

X X pXY (x, y)
= y pX (x)
pX (x)
xRX yRY

X X
= ypXY (x, y)
xRX yRY

X X
= y pXY (x, y)
yRY xRX
X
= ypY (y)
yRY

= E(Y ).

El cambio en el orden de la suma se encuentra justificado pues la suma


converge. Luego el teorema queda demostrado. 2

Ejemplo 9.1 Supongamos que se hace una primera serie de n tiradas de


una moneda y sea X el nmero de caras obtenido. En base al resultado de
la primera serie de tiradas, se inicia una segunda serie de X tiradas. Sea Y
el nmero de caras obtenidas en esta segunda serie. Calcular la E(Y ).
Si X = x, la distribucin de Y condicional a X = x es binomial
Bi(0,50, x). Luego g(x) = E(Y |X = x) = 0,50x. Luego E(Y |X) = g(X) =
0,50X, y por lo tanto E(Y ) = E(E(Y |X)) = 0,50E(X). Como X es Bi(0,50, n),
entonces E(X) = 0,5n. Por lo tanto E(Y ) = 0,25n.

Teorema 9.2 (i) Si X e Y son dos vectores aleatorios independientes,


entonces se tiene

a) pY|X (y|x) = pY (y)


b) Si Y es una variable aleatoria y E(Y ) existe y es finita entonces
E(Y |X = x) = E(Y ).

(ii) Sean X e Y dos vectores aleatorios tales pY|X (y|x) = p(y) para todo
x RX . Entonces pY (y) = p(y), y X e Y son independientes.

Demostracin.

(i) a) se deduce del hecho de que pY|X (y|x) = pY (y) implica que
pXY (x, y) = pX (x)pY (y).

181
b) es inmediata.
(ii) Para probar (ii) observemos que pY|X (y|x) = p(y) implica que

pXY (x, y) = pX (x)p(y), (9.3)

y por lo tanto
X X
pY (y) = pX (x)p(y) = p(y) pX (x) = p(y).
xRX xRX

Luego reemplazando en (9.3) se obtiene

pXY (x, y) = pX (x)pY (y), (9.4)

y esto implica que X e Y son independientes. 2

Teorema 9.3 Si P (Y = c) = 1, entonces, cualquiera sea el vector X, se


tiene

(i) pY |X (c|x) = 1.
(ii) E(Y |X = x) = c.

Demostracin. Tenemos que

{X = x} = ({X = x} {Y = c}) ({X = x} {Y 6= c}).

Como P ({X = x} {Y 6= c}) = 0, se tiene

pX (x) = P (X = x) = P (X = x, Y = c)
= pXY (x, c).

Por lo tanto
pXY (x, c)
pY |X (c|x) = = 1.
pX (x)
Como en este caso RY = {c}, se tiene
X
E (Y |X = x) = ypY |X (y|x)
yRY

= cpY |X (c|x)
= c1
= c,

y el teorema queda demostrado. 2

Sean ahora dos vectores aleatorios discretos, X = (X1 , ..., Xk ), Y =


(Y1 , ..., Yj ), y sea Z = h(X, Y), donde h : Rk+j R es una funcin medible.
El siguiente Teorema muestra cmo se calcula E(Z|X = x).

182
Teorema 9.4 Sean X, Y dos vectores aleatorios discretos de dimensiones
k y j, y sea h : Rk+j R una funcin medible. Definamos la variable
aleatoria discreta Z = h(X, Y), y supongamos que tiene esperanza finita.
Entonces para todo x RX se tiene
X
E(Z|X = x) = h(x, y)pY|X (y|x).
yRY

Demostracin. Comenzaremos calculando la funcin de probabilidad conjun-


ta de (X, Z). Sea RZ x = {z : z = h(x, y) para y R }, y para todo z Rx
Y Z
x
definamos Az = {y : h(x, y) = z}. Es fcil ver que:
si z 6= z 0 entonces Axz Axz0 = , y que
[
Axz = RY . (9.5)
x
zRZ

Es inmediato que
P
P (X = x, Y Axz ) = yAxz pXY (x, y) x
si x RX , z RZ
pXZ (x, z) =
0 en otro caso,

y luego, para x RX se tiene


( P
pXY (x,y) x
pXZ (x, z) yAx pX (x) si z RZ
pZ|X (z|x) = = z
pX (x) 0 en otro caso.

Por lo tanto se tiene


P x
yAx pY|X (y|x) si z RZ
pZ|X (z|x) = z (9.6)
0 en otro caso.

Luego utilizando (9.6) se tiene


X
E(Z|X = x) = z pZ|X (z|x)
x
zRZ
X X
= z pY|X (y|x)
zRx
Z yAx
z
X X
= zpY|X (y|x),
zRx x
Z yAz

y como para y Axz , se tiene h(x, y) = z, utilizando (9.5) obtenemos


X X
E(Z|X = x) = h(x, y)pY|X (y|x)
zRx x
Z yAz
X
= h(x, y)pY|X (y|x),
yRY

183
probando por lo tanto el teorema. 2

El Teorema 9.4 se puede interpretar como que E(Z|X = x) se calcula


como la esperanza de h(Y, x) (variable aleatoria que depende nicamente del
vector aleatorio Y, ya que x es tratada como si fuera constante) utilizando
pY|X (y|x) como funcin de probabilidad puntual de Y
Veamos qu propiedades de la esperanza condicional se deducen del Teo-
rema 9.4.

Propiedad 9.1 Sean X un vector aleatorio discreto de dimensin k e Y


un vector aleatorio discreto de dimensin j, y sean r : Rk R y s : Rj R
funciones medibles tales que las variables aleatorias r(X)s(Y), r(X) y s(Y)
tienen esperanza finita. Entonces se tiene

E(r(X)s(Y)|X = x) = r(x)E(s(Y)|X = x).

Demostracin. Utilizando el Teorema 9.4 con h(x, y) = r(x)s(y) que tiene


esperanza finita, se tiene
X
E(r(X)s(Y) | X = x) = r(x)s(y)pY|X (y|x)
yRY
X
= r(x) s(y)pY|X (y|x)
yRY
= r(x)E(s(Y)|X = x),

y luego la propiedad queda demostrada. 2

Propiedad 9.2 Sea X un vector aleatorio discreto de dimensin k, y sea


r : Rk R una funcin medible tal que la variable r(X) tiene esperanza
finita. Luego
E(r(X)|X = x) = r(x).

Demostracin. La demostracin resulta de la Propiedad 9.1 tomando s(y) =


1, ya que entonces E(r(X)|X = x) = r(x)E(1|X = x). Luego por el Teorema
9.4 resulta la Propiedad 9.2. 2

Propiedad 9.3 (Linealidad de la esperanza condicional) Sean Y1 e Y2


variables aleatorias discretas con esperanza finita, y sea X un vector aleato-
rio discreto, entonces

E(c1 Y + c2 Y2 |X = x) = c1 E(Y1 |X = x) + c2 E(Y2 |X = x).

184
Demostracin.
Sea Y = (Y1 , Y2 ) y definamos h(x, y) = c1 y1 + c2 y2 , h1 (x, y) = y1 y
h2 (x, y) = y2 . Entonces se tiene h(x, y) = c1 h1 (x, y) + c2 h2 (x, y). Luego
tenemos

E(c1 Y1 + c2 Y2 |X = x) = E(h(X, Y)|X = x)


X
= h(x, y)pY|X (y|x)
yRY
X
= (c1 h1 (x, y) + c2 h2 (x, y))pY|X (y|x)
yRY
X X
= c1 h1 (x, y)pY|X (y|x) + c2 h2 (x, y)pY|X (y|x)
yRY yRY

= c1 E(h1 (X, Y)|X = x) + c2 E(h2 (X, Y)|X = x)


= c1 E(Y1 |X = x) + c2 E(Y2 |X = x),

y la Propiedad 9.3 queda demostrada. 2

Propiedad 9.4 (i) Si P (Y 0) = 1, E(Y |X = x) 0.



(ii) E Y 2 |X = x E 2 (Y |X = x).

(iii) Si E(Y 2 ) < , entonces E(E 2 (Y |X)) < .

Demostracin.

(i) Es inmediato de la definicin.

(ii) Para demostrar (ii), observemos que por (i)

0 E([Y E(Y |X = x)]2 |X = x)



= E( Y 2 2Y E(Y |X = x) + E 2 (Y |X = x) |X = x)
= E(Y 2 |X = x)2E(Y |X = x)E(Y |X = x)+E 2 (Y |X = x)
= E(Y 2 |X = x)E 2 (Y |X = x),

En la penltima igualdad utilizamos la Propiedad 9.1 y la Propiedad


9.3. Luego (ii) queda demostrado.

(iii) Ahora demostraremos (iii). Observemos que por (ii)

E(Y 2 |X) E 2 (Y |X)

y luego, en virtud del Teorema 9.1 tenemos

> E(Y 2 ) = E(E(Y 2 |X)) E(E 2 (Y |X)),

demostrando (iii).

185
Propiedad 9.5 Sea Y una variable aleatoria discreta con esperanza finita y
X un vector aleatorio discreto de dimensin k. Luego si g(x) = E(Y |X = x),
entonces para toda t : Rk R medible tal que Y t(X) tiene esperanza finita
resulta
E [(Y g(X))t(X)] = 0.

Demostracin. Sea Z = h(X, Y ) = (Y g(X))t(X). Luego bastar demostrar


que
E(Z) = 0.
Utilizando el Teorema 9.1 bastar demostrar que

E(Z|X) = 0. (9.7)

De acuerdo a la Propiedad 9.1, tenemos que

E(Z|X = x) = t(x)E((Y g(X))|X = x),

y por lo tanto
E(Z|X) = t(X)E((Y g(X))|X).
Luego para mostrar (9.7) bastar demostrar que

E(Y g(X)|X) = 0.

Pero esto es cierto ya que por Propiedades 9.3 y luego la Propiedad 9.2 se
tiene

E(Y g(X)|X) = E(Y |X) E(g(X)|X)


= E(Y |X) g(X)
= g(X) g(X)
= 0,

y por lo tanto queda demostrada esta propiedad. 2

Propiedad 9.6 Sea Y una variable aleatoria discreta con varianza finita y
X un vector aleatorio discreto de dimensin k. Luego Yb = g(X) = E(Y |X)
es el nico predictor con menor error cuadrtico medio en la clase de pre-
dictores n o
P = Yb = t(X) : t medible, Var(t(X)) < .

Demostracin. Se deja como ejercicio ver que P es un espacio vectorial. Va-


mos a mostrar primero que g(X) P o sea que

Var g 2 (X) < . (9.8)

Pero esto resulta de Propiedad 9.4 (iii). Luego el resultado se obtiene del
Teorema 8.1 y de la Propiedad 9.5. 2

186
9.2. Caso general
Vamos ahora dar una definicin de E(Y |X) para el caso de una variable
Y cualesquiera , y un vector X cualquiera de dimensin k. Ambos, Y y X
no tienen porque ser discretos ni absolutamente continuos

Definicin 9.1 La variable aleatoria esperanza de Y condicional X se de-


fine por E(Y |X) = g(X), donde g : Rk R es una funcin medible tal
que
E((Y g(X))t(X)) = 0 (9.9)
para toda t : Rk R medible tal que Y t(X) tiene esperanza finita . Definire-
mos E(Y |X = x) = g(x).

La Propiedad 9.5 demostrada anteriormente muestra que en el caso de


Y y X discretos esta definicin coincide con la dada anteriormente, y por lo
tanto en este caso siempre existe.
El siguiente teorema muestra que siempre existe una nica variable
aleatoria g(X) = E(Y |X) satisfaciendo (9.9).

Teorema 9.5 Sea Y una variable aleatoria con esperanza finita y sea X un
vector aleatorio cualquiera de dimensin k. Luego

(i) Siempre existe una funcin medible g : Rk R satisfaciendo (9.9).

(ii) Si g1 y g2 son dos funciones medibles satisfaciendo (9.9), entonces

P (g1 (X) = g2 (X)) = 1.

Demostracin.

(i) No lo demostraremos en general en este curso. Ms adelante haremos


una demostracin para el caso absolutamente continuo.

(ii) Sean g1 y g2 son dos funciones medibles satisfaciendo (9.9), entonces

E((Y g1 (X))t(X)) = 0 (9.10)

y
E((Y g2 (X))t(X)) = 0 (9.11)
para toda t(X) tal que Y t(X) tenga esperanza finita. Luego restando
(9.11) de (9.10) se obtiene

E ((g2 (X) g1 (X)) t(X)) = 0,

187
y tomando t(X) = signo (g2 (X) g1 (X)) resulta que

E (|t(X)Y |) = E (|t(X)| |Y |) = E (|Y |) <

y por lo tanto t(X)Y tiene esperanza finita, y

0 = E ((g2 (X) g1 (X)) t(X))


= E(signo (g2 (X) g1 (X)) (g2 (X) g1 (X)))
= E (|g2 (X) g1 (X)|) .

Esto implica que

P (|g2 (X) g1 (X)| = 0) = P (g2 (X) = g1 (X))


= 1. 2

Vamos ahora a demostrar que todas las propiedades de esperanza condi-


cional que valan para el caso discreto tambin valen para la definicin gen-
eral.

Teorema 9.6 Si Y tiene esperanza finita, entonces E(E(Y |X)) = E(Y ).

Demostracin. Apliquemos (9.9) con t(X) = 1. Luego se tiene

0 = E(Y g(X))
= E(Y ) E(g(X))
= E(Y ) E(E(Y |X)),

y por lo tanto se cumple el Teorema 9.6. 2

Teorema 9.7 Sean Y una variable aleatoria con esperanza finita y X un


vector aleatorio independientes. Entonces se tiene E(Y |X) = E(Y ).

Demostracin. Veamos que poniendo g(X) = E(Y ) se cumple (9.9). En efecto


dado que (Y E(Y )) y t(X) son independientes se tiene

E((Y E(Y ))t(X)) = E(Y E(Y ))E(t(X)).

Luego como E(Y E(Y )) = E(Y ) E(Y ) = 0, el Teorema 9.7 queda


demostrado. 2

Teorema 9.8 Si P (Y = c) = 1, entonces , cualquiera sea el vector X, se


tiene E(Y |X) = c.

188
Demostracin. Poniendo g(X) = c, resulta inmediatamente (9.9). 2

Vamos ahora a probar las propiedades 9.1-9.4 para la definicin general


de E(Y |X).

Propiedad 9.7 Sean X un vector aleatorio de dimensin k e Y un vector


aleatorio de dimensin j, y sea r : Rk R y s : Rj R. Entonces se tiene

E(r(X)s(Y)|X) = r(X)E(s(Y)|X).
Demostracin. Vamos a probar que si ponemos g(X) = r(X)E(s(Y)|X),
entonces (9.9) se cumple. En efecto

E((r(X)s(Y) g(X))t(X)) = E((r(X)s(Y) r(X)E(s(Y)|X))t(X))


= E((s(Y) E(s(Y)|X))m(X)),

con m(X) = r(X)t(X). Luego por la definicin de E(s(Y)|X) obtenemos


E((s(Y)E(s(Y)|X))m(X)) = 0. Por lo tanto la propiedad queda demostrada. 2

Propiedad 9.8 Sea X un vector aleatorio de dimensin k y sea r : Rk


R, una funcin medible. Luego E(r(X)|X) = r(X).

Demostracin. Se obtiene de la Propiedad 9.7 tomando s(Y) = 1. 2

Propiedad 9.9 Si Y1 e Y2 son variables aleatorias con esperanza finita, y


X es un vector aleatorio, entonces

E(c1 Y1+ c2 Y2 |X) = c1 E(Y1 |X) + c2 E(Y2 |X).

Demostracin. Vamos a ver que se cumple (9.9) poniendo

g(X) = c1 E(Y1 |X) + c2 E(Y2 |X).

En efecto si Z = c1 Y1 + c2 Y2 usando la linealidad de la esperanza y la


definicin de esperanza condicional se tiene

E((Z g(X))t(X)) = E((c1 (Y1 E(Y1 |X)) + c2 (Y2 E(Y2 |X))t(X))


= c1 E((Y1 E(Y1 |X))t(X)) + c2 E(Y2 E(Y2 |X))t(X))
= c1 0 + c2 0
= 0,

y la propiedad queda demostrada. 2

La generalizacin de la Propiedad 9.5 usando la definicin general de


E(Y |X) es obvia a partir de la definicin.

189
Propiedad 9.10 Sea Y una variable aleatoria con varianza finita y X un
vector aleatorio de dimensin k. Luego Yb = g(X) = E(Y |X) es el nico
predictor
n con menor error cuadrtico medio
o en la clase de predictores P =
Yb = t(X) : t medible, Var(t(X)) < .

Demostracin. Es totalmente similar a la Propiedad 9.6. 2

De acuerdo a esta propiedad E(Y |X) es el predictor de Y ptimo basado


en cualquier funcin medible (lineal o no lineal) de X. Por esta razon lo
denotaremos con YbO,NL .

9.3. Caso continuo


Supongamos ahora que tenemos dos vectores X = (X1 , ...Xk ) e Y =
(Y1 , ..., Yj ) de dimensiones k y j respectivamente con distribucin conjunta
absolutamente continua y densidad fX,Y , y sea h : Rk+j R una funcin
medible. Definamos la densidad de Y condicional X = x por

fXY (x, y)
fY|X (y|x) = .
fX (x)
Es fcil ver que para cada x fijo con fX (x) > 0, la funcin fY|X (y|x) es
una densidad para el vector Y. Es decir se tendr
Z Z
... fY|X (y|x)dy1 ...dyj = 1.

El siguiente teorema es una versin para el caso continuo del Teorema


9.4.

Teorema 9.9 Sea Z = h(X, Y) una variable con esperanza finita, luego se
tiene que

E(Z|X = x) = g(x)
Z Z
= ... h(x, y)fY|X (y|x)dy1 ...dyj .

Demostracin. Para facilitar la notacin en la demostracin, supondremos


que tanto X como Y son variables aleatorias en vez de vectores. Pero excepto
por la notacin ms complicada, la demostracin para vectores es similar,
ya que solamente se deben reemplazar las integrales simples por integrales
mltiples.
De acuerdo a (9.9) ser suficiente probar que

E((h(X, Y ) g(X))t(X)) = 0,

190
o equivalentemente

E((h(X, Y )t(X)) = E(g(X)t(X)). (9.12)

Por un lado tenemos que


Z Z
E((h(X, Y )t(X)) = h(x, y)t(x)fXY (x, y)dxdy. (9.13)

Adems se tiene que


Z
E(g(X)t(X)) = g(x)t(x)fX (x)dx

Z Z
= h(x, y)fY |X (y|x)dy t(x)fX (x)dx
Z
Z
= h(x, y)t(x)fXY (x, y)dxdy. (9.14)

Las ecuaciones (9.13) y (9.14) prueban (9.12). 2

Definicin 9.2 Sean dos vectores aleatorios X e Y de dimensiones k y


j respectivamente. Luego dado B j (conjunto Boreliano de dimensin
j), la probabilidad de que Y B, condicional X = x que se denotar con
PY|X (B|X = x) est dado por

PY|X (B|X = x) = E(IB (Y)|X = x),

donde IB es la funcin indicadora del conjunto B. La probabilidad de que


Y B, condicional X que se denotar por PY|X (B|X) est dado por

PY|X (B|X) = E(IB (Y)|X).

La justificacin de esta definicin est dada por el hecho que

PY (B) = E(IB (Y)).

En efecto IB (Y) toma valor 1 con probabilidad PY (B) y 0 con proba-


bilidad 1 PY (B). Luego E(IB (Y)) = 1PY (B) + 0(1 PY (B)) = PY (B).
En el caso discreto, de acuerdo al Teorema 9.4, se tendr

PY|X (B|X = x) = E(IB (Y)|X = x)


X
= IB (y)pY|X (y|x)
yRY
X
= pY|X (y|x).
yRY B

191
En el caso absolutamente continuo, de acuerdo al Teorema 9.9 se tiene

PY|X (B|X = x) = E(IB (Y)|X = x)


Z Z
= ... IB (y)fY|X (y|x)dy

Z
= fY|X (y|x)dy.
B

Obsevamos que fY|X (y|x) actua como una verdadera densidad, en el


sentido de que para calcular la probabilidad condicional de un evento B hay
que integrar esta funcin sobre ese conjunto.
De acuerdo al Teorema 9.7 se tendr

E(PY|X (B|X)) = PY (B).

Para el caso discreto y continuo podemos definir la funcin de distribu-


cin de Y condicional X = x, la cual se denotar por FY|X (y|x) y estarn
definidas respectivamente por
j
Y
FY|X (y|x) = PY|X ( (, yi ]|X = x)
i=1
X
= pY|X (z|x).
zRY {z1 y1 }...{zj yj }

j
Y
FY|X (y|x) = PY|X ( (, yi ]|X = x)
i=1
Z yj Z y1
= ... fY|X (z|x)dy.

Es fcil ver que para cada x fijo FY|X (y|x) es una verdadera funcin de
distribucin del vector Y, en el sentido que cumple con las propiedades que
caracterizan a una funcin de distribucin.

9.4. Varianza condicional


Definicin 9.3 Sea X = (X1 , ..., Xk ) un vector aleatorio e Y una variable
aleatoria con varianza finita . Entonces la varianza de Y condicional X = x
se define como

Var(Y |X = x) = E((Y E(Y |X = x))2 |X = x),

y esta varianza puede considerarse como la varianza de variable X una vez


que se conoce que X = x. Denotemos por q(x) = Var(Y |X = x), luego

192
q : Rk R. Llamaremos varianza condicional de Y condicional X a la
variable aleatoria

Var(Y |X) = q(X) = E((Y E(Y |X))2 |X). (9.15)

Desarrollando el cuadrado en (9.15) y utilizando la Propiedad 9.10 se


obtiene

Var(Y |X) = E([Y 2 + E 2 (Y |X)2Y E(Y |X)]|X)


= E(Y 2 |X)+E 2 (Y |X) 2E(Y |X)E(Y |X)
= E(Y 2 |X)E 2 (Y |X).

El siguiente Teorema vincula la varianza condicional con el error cuadrti-


co medio del predictor ptimo no lineal YbO,NL = E(Y |X).

Teorema 9.10 Supongamos que Y es una variable aleatoria con varianza


finita, X un vector aleatorio, y sea YbO,NL = E(Y |X), el mejor predictor no
lineal de Y basado en X. Luego se tiene

(i) ECM(YbO,N L , Y ) = E(Var(Y |X)).


(ii) E(Var(Y |X)) Var(Y ).
(iii) E(Var(Y |X)) = Var(Y ) si y slo si P (E(Y |X) = E(Y )) = 1.

Demostracin. Aplicando el Teorema 9.7 y utilizando la dfinicin (9.15) se


tiene

ECM(YbO,NL , Y ) = E((Y E(Y |X))2 )


= E(E((Y E(Y |X))2 |X))
= E(Var(Y |X)),

y por lo tanto queda demostrado parte (i) del Teorema.


Como YbO,NL es el predictor con menor error cuadrtico medio en la clase
de predictores P = {Yb : Yb = t(X), Var(t(X)) < }, y como el predictor
optimo constante YbO,C = E(Y ) P, se tiene

E(Var(Y |X)) = ECM(YbO,N L , Y )


ECM(YbO,C , Y )
= E((Y E(Y ))2 )
= Var(Y )

y por un Teorema anterior la igualdad vale si y solo si P (YbO,NL = YbO,C ) =


1. 2

193
194
Captulo 10

Convergencia de Variables
Aleatorias.

10.1. Convergencia de funciones.


Comenzaremos recordando algunos tipos de convergencia en espacios de
funciones.

Definicin 10.1 Sea {fn }nN una sucesin de funciones definidas sobre
un conjunto y que toman valores reales. Se dice que fn converge pun-
tualmente a otra funcin f : R si para todo y para todo
> 0, existe n0 N dependiendo de y de tal que si n n0 entonces
|fn () f () | < .

En general n0 depende de y , es decir n0 = n0 (, ). Cuando la


eleccin de n0 puede hacerse con independencia de , se tiene la siguiente
nocin de convergencia.

Definicin 10.2 Sea {fn }nN una sucesin de funciones definidas sobre un
conjunto y que toma valores reales. Se dice que fn converge uniforme-
mente en a otra funcin f si para todo > 0, existe n0 N tal que si
n n0 entonces |fn () f () | < para todo A.

Observacin. Es inmediato ver que si {fn }nN converge uniformemente


en entonces {fn }nN converge puntualmente. La recproca es falsa. Por
ejemplo, si definimos fn () = n para [0, 1] entonces la sucesin
converge puntualmente a la funcin

0 si 0 < 1
f () =
1 si = 1

para todo [0, 1] pero no converge uniformemente en [0, 1].

195
Veremos ahora algunos tipos de convergencia para variables aleatorias
que hacen uso de la estructura del espacio de probabilidades.
Existen varios tipos de convergencia, pero en este curso consideraremos
slo dos: la convergencia casi segura y la convergencia en probabilidad.

10.2. Convergencia casi segura y en probabilidad.


Consideremos un espacio de probabilidades (, A, P ). Sea {Xn }nN una
sucesin de variables aleatorias definidas sobre este espacio y X otra variable
aleatoria tambin definida sobre el mismo espacio.

Definicin 10.3 Diremos que una sucesin de variables aleatorias {Xn }nN
converge casi seguramente a otra variable aleatoria X (Xn X c.s.) sii

P ({ : Xn () X ()}) = 1. (10.1)

Observacin. En teora de la medida, este tipo de convergencia se denomina


convergencia en casi todo punto y se la nota Xn X p.p. o bien Xn
X c.t.p.

Definicin 10.4 Diremos que una sucesin de variables aleatorias{Xn }nN


converge en probabilidad a otra variable aleatoria X sii para todo > 0 se
tiene
lm P ({ : |Xn () X()| }) = 0. (10.2)
n+

Notacin. Si la sucesin de variables aleatorias {Xn }nN converge en prob-


P
abilidad a la variable aleatoria X escribiremos Xn X.

Observaciones.

1. Equivalentemente, (10.2) puede reescribirse como

lm P ({ : |Xn () X()| < }) = 1.


n+

2. La convergencia en probabilidad significa que fijado > 0 hay un


subconjunto de de probabilidad tan cercana a uno como se quiera
en el que la distancia entre Xn y X se puede hacer menor que con
tal de tomar n suficientemente grande.

3. En teora de la medida la convergencia en probabilidad se denomina


convergencia en medida.

Teorema 10.1 Sea {Xn }nN una sucesin de variables aleatorias definidas
sobre un espacio de probabilidad (, A, P ) y X otra variable aleatoria defini-
da sobre el mismo espacio. Son equivalentes:

196
P
(i) Xn X.

(ii) Para todo > 0 y todo > 0 existe n0 N tal que si n n0 entonces

P (|Xn X| ) .

(iii) Para todo > 0, existe n0 N tal que si n n0 entonces

P (|Xn X| ) .

Demostracin. (ii) es equivalente a (i) como consecuencia directa de la defini-


cin de convergencia en probabilidad. La equivalencia entre (ii) y (iii) se
deja como ejercicio. 2

El siguiente teorema establece que la convergencia casi segura (10.1)


implica la convergencia en probabilidad (10.2).

Teorema 10.2 Sea {Xn }nN una sucesin de variables aleatorias definidas
sobre un espacio de probabilidad (, A, P ) y X otra variable aleatoria defini-
da sobre el mismo espacio. Entonces

(i) La sucesin Xn converge casi seguramente a X sii



[
lm P ( {|Xn X| }) = 0. (10.3)
m
n=m

(ii) Si Xn converge casi seguramente a X entonces Xn converge en prob-


abilidad a la variable aleatoria X.

Demostracin.

(i) Llamemos A al conjunto de los puntos de donde Xn () X().


Luego
A = { : Xn () X ()}.
Decir que A es equivalente a decir que para todo > 0 existe
m N tal que para todo n m se tiene |Xn () X () | < , m
depender de . Entonces, si para cada > 0 definimos

Bn, = { : |Xn () X () | < }.

el conjunto A resulta

\ \
[
A= Bn, .
>0 m=1 nm

197
Sabemos que la convergencia casi segura se define por P (A) = 1 o
equivalentemente por P (Ac ) = 0. Pero para poder usar propiedades
de probabilidad en el clculo de P (A) nos conviene tener escrito al
conjunto A como una numerable cantidad de uniones e intersecciones
de eventos. Por ello,.como basta elegir tan chico como se quiera, nos
podemos limitar a tomar = 1/k . Luego tambin tenemos


\ \
[
A= Bn, 1 .
k
k=1 m=1 nm

Observemos que

[ [
\
Ac = c
Bn, 1 .
k
k=1 m=1 nm

Luego, como Ac es una unin numerable, P (Ac ) = 0 si y slo si para


todo k N se tiene

[
\
P B c 1 = 0. nk
m=1 nm

En la notacin del Captulo 1 (Definicin


1.3, pgina 15), esto es el
c
lmite inferior de los conjuntos Bn 1 c
. Como Bn, es cereciente
k nN
con , esto es equivalente a que para todo > 0

[
\
P c
Bn, = 0. (10.4)
m=1 nm

Definamos [
c
Cm, = Bn, .
nm

Claramente, para todo > 0 la sucesin {Cm, }m1 es creciente (no


necesariamente estrictamente creciente), de manera que
!
[
\ \
P c
Bn, =P Cm, = lm P (Cm, ) .
m
m=1 nm m=1

Luego se tendr que (10.4) es equivalente a


lm P (Cm, ) = 0,
m

es decir,
[
lm P c
Bn, = 0.
m
nm

198
Pero como
c
Bn, = {|Xn X| },
(i) queda demostrado.
(ii) Supongamos que Xn X c.s. Luego se cumple (10.3) y como

[
{|Xm X| } {|Xn X| },
n=m

por la monotona de la probabilidad resulta


lm P ({|Xm X| }) = 0.
m

P
Por lo tanto Xn 0. 2

Observacin. Notemos que en esta demostracin hemos probado que


A = { : Xn () X ()}

\ [ \
= Bn, 1
k
k=1 m=1 nm
\
= lm inf Bn, 1
n k
k=1

o, equivalentemente
Ac = { : Xn () 9 X ()}

[ \ [
= Bc 1 n, k
k=1 m=1 nm
[
= lm sup Bn, 1 .
n k
k=1

Veremos que la recproca de la parte (ii) de este teorema es falsa. Incluso


puede ocurrir que exista convergencia en probabilidad, pero que el conjunto
de los puntos donde haya convergencia puntual sea vaco.

10.3. Preservacin de la convergencia por funciones


continuas.
Los siguientes dos teoremas muestran que las funciones continuas preser-
van los dos tipos de convergencia que hemos definido: convergencia en prob-
abilidad y convergencia casi segura.

199
Teorema 10.3 Sea g : R2 R continua y supongamos que las sucesiones
de variables aleatorias (Xn )n1 , (Yn )n1 convergen casi seguramente a las
variables aleatorias X e Y. Entonces (g (Xn , Yn ))n1 converge casi segura-
mente a la variable aleatoria g (X, Y ) .

Observacin.
La propiedad vale en general para g : Rk R continua. Si
(j)
Xn X (j) c.s. para j = 1, 2, ..., k entonces
n1

g Xn(1) , Xn(2) , ..., Xn(k) g X (1) , X (2) , ..., X (k) c.s.

Demostracin. Sean A = { : Xn () X ()} y B = { : Yn () Y ()}.


Como P (A) = P (B) = 1, tambin se tendr P (A B) = 1. En efecto

0 P ((A B)c ) = P (Ac B c ) P (Ac ) + P (B c ) = 0.

Ahora si A B entonces Xn () X() e Yn () Y (). Luego, por


la continuidad de g se tiene

g (Xn () , Yn ()) g (X () , Y ()) .

Por lo tanto

A B { : g (Xn () , Yn ()) g (X () , Y ())},

y en consecuencia como

1 = P (A B) P ({ : g (Xn () , Yn ()) g (X () , Y ())}) 1,

el Teorema queda demostrado.2

Teorema 10.4 (i) Si Yn Y c.s. y Xn X c.s. entonces Xn + Yn


X + Y c.s.
(ii) Si Yn Y c.s. y Xn X c.s. entonces Xn Yn XY c.s.
Xn X
(iii) Si Yn Y c.s. con P (Y = 0) = 0 y Xn X c.s. entonces
Yn Y
c.s.

Demostracin.
(i) y (ii) resultan de que las funciones g(x, y) = x + y y g(x, y) = xy son
continuas y (iii) del hecho que g(x, y) = x/y es continua si y 6= 0. 2

Para demostrar una propiedad similar para la convergencia en proba-


bilidad necesitamos algunos resultados previos. Comenzamos probando que
toda variable aleatoria es acotada en probabilidad. Esto significa que X
est dentro de un compacto, con probabilidad tan cercana a uno como se
quiera.

200
Teorema 10.5 Sea X una variable aleatoria. Dado > 0 existe K tal que

P (|X| K) < .

Demostracin.
Consideremos la sucesin de conjuntos

An = {|X| n}.

Esta sucesin es montona decreciente, es decir, An+1 An y adems


T
n=1 An = . Entonces
lm P (An ) = 0.
n

Luego, dado > 0 existe n0 N tal que P (An0 ) < , es decir

P (An0 ) = P ({|X| n0 }) < .

Luego el Teorema es cierto tomando K = n0 .2

Probaremos ahora un resultado ms fuerte: sucesiones de variables que


convergen en probabilidad estn acotadas en probabilidad uniformemente.

Teorema 10.6 Sea (Xn )n1 una sucesin de variables aleatorias que con-
verge en probabilidad a la variable aleatoria X. Entonces dado > 0 existe
K tal que P (|X| K) < y tal que para todo n

P (|Xn | K) < .

Demostracin.
En primer lugar podemos hallar, de acuerdo al Teorema 10.5, K0 de
forma tal que

P (|X| K0 ) < .
2
Teniendo en cuenta que

|Xn | |Xn X| + |X| (10.5)

se prueba fcilmente que

{|Xn | K0 + 1} {|Xn X| 1} {|X| K0 }. (10.6)

En efecto, supongamos que


/ {|Xn X| 1} {|X| K0 }.

Luego |Xn () X () | < 1 y |X () | < K0 y por lo tanto por (10.5) resulta


|Xn ()| < K0 + 1.

201
P
Debido a que Xn X en probabilidad podemos encontrar n0 tal que si
n n0

P (|Xn X| 1) < .
2
Tomando probabilidades en ambos miembros de (10.6) obtenemos

P ({|Xn | K0 + 1}) P ({|Xn X| 1}) + P ({|X| K0 })



< + =
2 2
para todo n n0 . Adems por el Teorema 10.5, para cada i tal que 1 i
n0 podemos encontrar Ki tal que P (|Xi | Ki ) . Luego tomando

K = max m ax {Ki }, K0 + 1 ,
1in0

se obtiene la tesis. 2

Ahora estamos en condiciones de probar la propiedad de que las funciones


continuas conservan la convergencia en probabilidad.

Teorema 10.7 Sea g : R2 R continua y supongamos que las sucesiones


(Xn )n1 e (Yn )n1 convergen en probabilidad a las variables aleatorias X e
Y, respectivamente. Entonces (g (Xn , Yn ))n1 converge en probabilidad a la
variable aleatoria g (X, Y ) .

Observacin. Vale la misma observacin hecha para el caso de la conver-


gencia casi segura en cuanto a que este teorema es vlido para funciones
continuas definidas en Rk y vectores aleatorios k dimensionales.
Demostracin.
Queremos probar que dado > 0 existe n0 N tal que si n n0

P (|g (Xn , Yn ) g(X, Y )| ) < . (10.7)

pues por el Teorema 10.1 esto garantiza la convergencia en probabilidad.


De acuerdo al Teorema 10.5 podemos hallar un K tal que simultnea-
mente

P (|Xn | K) < n
6

P (|X| K) <
6

P (|Yn | K) < n
6

P (|Y | K) < .
6

202
Esto puede lograrse considerando primero un K1 que cumpla con las dos
primeras desigualdades, despus un K2 que cumpla con las siguientes dos y
tomando K = m ax{K1 , K2 }.
Sea
C = [K, K] [K, K] .
Como g es continua y C es compacto entonces g resulta uniformemente
continua en C. Luego existe > 0 tal que si |x x0 | < , |y y 0 | <
ax {|x|, |x0 |, |y|, |y 0 |} K entonces
y m

|g (x, y) g x0 , y 0 | < . (10.8)

Por la convergencia en probabilidad existe n0 N tal que si n n0


entonces

P (|Xn X| ) < (10.9)
6

P (|Yn Y | ) < . (10.10)
6
Esto se logra considerando un valor n1 para la sucesin (Xn )n1 , un valor
n2 para la sucesin (Yn )n1 y luego tomando n0 = m ax{n1 , n2 }.
Ahora definimos los conjuntos

A1n = {|Xn X| }
A2n = {|Yn Y | }
A3n = {|Xn | K}
A4n = {|Yn | K}
A5n = {|X| K}
A6n = {|Y | K}.

Si bien A5n , A6n no dependen de n, usamos la notacin por conveniencia.


Vamos a mostrar que si llamamos
6
[
Bn = Ain ,
i=1

entonces
{|g (Xn , Yn ) g(X, Y )| } Bn .
Para esto debemos mostrar que para todo n n0 en Bnc se tiene

|g (Xn , Yn ) g(X, Y )| < . (10.11)

En efecto, como
6
[ 6
\
Bnc = ( Ain )c = Acin ,
i=1 i=1

203
resulta que cuando Bnc es cierto Xn , X, Yn , Y estn en el compacto C y
adems |Xn X| e |Yn Y | . Luego por (10.8) resulta (10.11). Luego
para todo n n0
6
X
P ({|g (Xn , Yn ) g (Xn , Yn ) | }) P (Bn ) P (Ain ) < 6 = ,
6
i=1

y el Teorema queda demostrado.2

Anlogamente a lo observado para la convergencia casi segura se tienen


los siguientes corolarios.

P P P
Teorema 10.8 (i) Si Yn Y y Xn X entonces Xn + Yn X + Y.
P P P
(ii) Si Yn Y y Xn X c.s entonces Xn Yn XY .
P P Xn P X
(iii) Si Yn Y con P (Y = 0) = 0 y Xn X entonces .
Yn Y

Demostracin.
Similar a la demostracin del Teorema 10.4. 2

10.4. Ley dbil de los grandes nmeros.

Teorema 10.9 (Desigualdad de Markov) Sea X una variable aleato-


ria y g una funcin par, no negativa y no decreciente en el mdulo, esto
es si |x| > |y| entonces g (x) g (y) . Supongamos adems que g (X) tiene
esperanza finita, es decir que E (g (X)) < . Entonces si > 0 es tal que
g () > 0, vale que
E (g (X))
P (|X| ) .
g ()

Demostracin.
Consideremos el conjunto A = { : |X()| } . Entoces {A, Ac } es
una particin del espacio muestral . Luego IA (x) + IAc (x) = 1, y como
todas las variables son no negativas y g(x) es nodecreciente en |x|, tenemos

g (X) = g (X) IA (X) + g (X) IAc (X)


g (X) IA (X)
g()IA (X) .

Luego tomando esperanza obtenemos

E (g (X)) g () E (IA ) = g () P ({|X| }) .

204
De esta desigualdad se obtiene inmediatamente el resultado buscado. 2

En particular tomando g (x) = x2 se obtiene la siguiente versin de la


Desigualdad de Tchebichev

E X2
P ({|X| }) .
2
Por otro lado si consideramos la variable aleatoria X E (X) obtenemos
la versin (clsica) de la desigualdad de Tchebichev

E [X E (X)]2 Var (X)
P ({|X E (X)| }) 2
= .
2
Tomando complementos esta desigualdad puede escribirse como
Var (X)
P ({|X E (X)| < }) 1 .
2
Luego si la Var (X) es pequea (o sea hay poca dispersin), la probabilidad
de que la variable X tome valores en el intervalo (E (X) , E (X) + ) ser
grande.
Ahora estamos en condiciones de estudiar la ley de los grandes nmeros
en sus dos versiones: dbil y fuerte. La importancia de estas leyes, es que
permite dar fundamento matemtico a la argumentacin heurstica que in-
terpreta la esperanza de una variable aleatoria como el valor al cual tiende el
promedio de varias realizaciones de la variable correspondientes a la repeti-
cin de experimentos independientes. Tambin permite fundamentar la no-
cin heurstica de la probabilidad de un evento como el valor lmite de las
frecuencias relativas con que ocurre el evento cuando se repiten muchos ex-
perimentos independientes. La ley dbil expresa estos resultados en trminos
de convergencia en probabilidad y la ley fuerte en trminos de convergencia
casi segura.

Teorema 10.10 (Ley dbil de los grandes nmeros) Sea (Xn )n1 una
sucesin de variables aleatorias no correlacionadas, es decir Cov (Xi , Xj ) =
0 si i 6= j, tal que E (Xi ) = i y Var (Xi ) = i2 para
cada i = 1, 2, ....
Consideramos la sucesin de variables aleatorias X n n1 donde X n es el
promedio de las primeras n variables. Luego
n
1X
Xn = Xi ,
n
i=1

y sea n = E(X n ) dada por


n
1X
n = i .
n
i=1

205
Entonces si !
n
1 X 2
lm i = 0, (10.12)
n n2
i=1
se tiene
P
X n n 0.

Demostracin.
Se tiene que
n
1 X 2
Var(X n ) = 2 i ,
n
i=1
y por Tchebichev
n
Var(X n ) 1 X 2
P (X n n ) = i .
2 2 n2
i=1

Tomando lmite resulta que


n
1 1 X 2
lm P (X n n ) 2 lm 2 i = 0
n n n
i=1

y luego el Teorema queda demostrado. 2

Observaciones.

1. Si (Xn )n1 es una sucesin de variables aleatorias independientes, en-


tonces las variables Xn son no correlacionadas y el Teorema puede
aplicarse.
2. Una condicin suficiente para que se cumpla (10.12) es que {i2 } sea
una sucesin acotada. En efecto, si i2 K para todo i, se obtiene
n
1 X 2 Kn K
i 2 = 0.
n2 n n
i=1

En particular, esta condicin se cumple si todas las variables tienen


igual varianza.

3. Si todas las variables tienen igual media, digamos i = , se tiene que


P
n = , y entonces X n 0 o, lo que es equivalente,
P
X n .

4. En particular si (Xn )n1 es una sucesin de variables no correla-


cionadas igualmente distribuidas con E(Xn ) = y Var(Xn ) = 2 ,
P
se tendr X n .

206
5. Veremos ahora como esta ley debil permite fundamentar el concepto
de probabilidad de un evento. Sea (, A, P ) un espacio de probabilidad
y A un evento. Supongamos que realizamos n experimentos indepen-
dientes y definimos

1 si en el experimento i, A
Xi () =
0 si en el experimento i, / A.

Definamos
n
1X
Xn = Xi .
n
i=1

Se tiene
E (Xi ) = 1.P (A) + 0P (Ac ) = P (A) ,
y como Xi2 = Xi

Var (Xi ) = E(Xi2 ) E(Xi )2


= E(Xi ) E(Xi )2
= P (A) P (A)2
= P (A) (1 P (A)) .

Luego, como adems las variables Xi son independientes, de acuerdo


a la ley dbil de los grandes nmeros se tendr
P
X n E (Xi ) = P (A) . (10.13)

Obsrvese que X n es la frecuencia relativa de ocurrencia del evento


A en n repeticiones independientes del experimento. Entonces (10.13)
puede interpretarse como que la frecuencia relativa de ocurrencia del
evento A tiende (en probabilidad) a su probabilidad.

10.5. Ley fuerte de los grandes nmeros.


Para probar la ley fuerte de los grandes nmeros necesitaremos algunos
teoremas previos.

Teorema 10.11 (Desigualdad de Kolmogorov) Sean X1 , ..., Xn variables


independientes con E (Xi ) = 0. Supongamos
Pi que i2 = Var (Xi ) < y con-
sideremos las sumas parciales Si = j=1 Xj . Entonces
n
1 X 2
P ax |Si | 2
m i . (10.14)
1in
i=1

207
Observacin. Vamos a mostrar que la desigualdad de Kolmogorov es un
refinamiento de la desigualdad de Tchebichev. Para ver esto, apliquemos la
desigualdad de Tchebichev a la variable aleatoria Sn . Obtenemos
n
1 1 X 2
P (|Sn | ) Var (Sn ) = i . (10.15)
2 2
i=1

Observemos que |Sn | max1in |Si | de manera que



{|Sn | } m ax |Si | ,
1in

y por lo tanto
P ({|Sn | }) P m
ax |Si | .
1in

Luego resulta que (10.14) implica (10.15).


Demostracin. Sea
A = max |Si | ,
1in

y consideremos para cada i los conjuntos

Ai = {|S1 | < , |S2 | < , . . . , |Si1 | < , |Si | }.

Estos eventos son disjuntos dos a dos y forman una particin de A. Luego
n
[
A= Ai ,
i=1

y por lo tanto se deduce que


n
X
IA = IAi .
i=1

Luego como Sn2 IAc 0 se deduce que


n
X
Sn2 = Sn2 IA + Sn2 IAc Sn2 IA = Sn2 IAi .
i=1

Tomando esperanza en ambos miembros resulta


n
X

E Sn2 E Sn2 IAi . (10.16)
i=1

Para cada trmino Sn2 IAi resulta

Sn2 IAi = (Si + Ti )2 IAi = Si2 IAi + Ti2 IAi + 2Si Ti IAi , (10.17)

208
donde
n
X
Ti = Xj .
j=i+1
Ahora probaremos que E (Si Ti IAi ) = 0. Por un lado observamos que Si
depende slo de X1 , ...Xi y lo mismo ocurre con IAi . Como Ti depende
slo de Xi+1 , . . . , Xn , resulta que Si IAi es independiente de Ti . Luego como
E (Ti ) = 0 se obtiene
E (Si Ti IAi ) = E ([Si IAi ] Ti ) = E (Si IAi ) E (Ti ) = 0. (10.18)
Tomando esperanza en (10.17) y teniendo en cuenta (10.18) y el hecho de
que en Ai se tiene |Si |

E Sn2 IAi = E(Si2 IAi ) + E(Ti2 IAi )
E(Si2 IAi )
E(IAi )
= P (Ai ).
Luego por (10.16) resulta
n
2 X
E Sn E Sn2 IAi
i=1
n
X
2
P (Ai )
i=1
= 2 P (A) ,
o sea

E Sn2
P (A)
2
n
1 X 2
= 2 i . 2

i=1
Para probar la ley fuerte de los grandes nmeros necesitamos tambin el
siguiente teorema.
Teorema 10.12 Sea (Xn )n1 una sucesin de variables aleatorias. Una
condicin suficiente para que
Xn X c.s.
es que para todo > 0 exista una sucesin creciente de enteros positivos
r1 < r2 < < rn que puede depender de tal que

ri+1 1
X [
P c
Bn < , (10.19)
i=1 n=ri

donde Bn = {|Xn X| < }.

209
Demostracin. Recordemos el resultado ya probado en el Teorema 10.2 que
establece que
Xn X c.s.
si y slo si !

[
c
lm P Bn = 0. (10.20)
m
n=m

Supongamos que se cumple (10.19). Veremos que entonces se cumple (10.20).


Sea > 0, entonces (10.19) implica que existe i0 tal que

ri+1 1
X [
P c
Bn < .
i=i0 n=ri

Pero entonces

ri+1 1 ri+1 1
[ [ [ X [
P c
Bn = P c
Bn P c
Bn < .
n=ri0 i=i0 n=ri i=i0 n=ri

Esto implica que (10.20) se cumple. 2

Teorema 10.13 (Ley fuerte de los grandes nmeros) Sea (Xn )n1 una
sucesin de variables aleatorias independientes tal que E (Xi ) = i y Var(X
i) =
i2 para cada i N. Consideremos la sucesin de variables aleatorias X n n1
definida por
n
1X
Xn = Xi
n
i=1
y sus respectivas medias
n
1X
n = E(X n ) = i .
n
i=1

Entonces si

X 2 i
< , (10.21)
i2
i=1
se tiene
X n n 0 c.s.

Demostracin. Basta probar el teorema suponiendo que para todo i, i = 0.


Para ver esto, supongamos que el teorema fuera vlido cuando para todo
i, i = 0 y deduzcamos de esto el caso general, esto es, cuando para cada
i la E (Xi ) = i arbitraria. Para ello, consideremos nuevas variables Yi =
Xi i . Entonces E (Yi ) = 0 y Var (Yi ) = Var(Xi ) = i2 . Las variables Yi

210
son independientes y luego se cumple Y n 0 c.s. Pero como Y n = X n n ,
resulta tambin X n n 0 c.s. Luego para demostrar el teorema podemos
suponer que i = 0 para todo i.
Usaremos el Teorema 10.12, tomando ri = 2i1 . Luego si llamamos
i
2[1
i = P c
Bn ,
n=2i1

bastar demostrar que



X
i < .
i=1
Pn
Si llamamos Sn = i=1 Xi
tenemos que X n = Sn /n. Luego
i
2[1
i = P c
Bn
n=2i1
i 1

2[

=P |X n |
n=2i1
i 1

2[
=P {|Sn | n}
n=2i1
i 1

2[
P {|Sn | 2i1 }
n=2i1
i 1

2[
P {|Sn | 2i1 } . (10.22)
n=1

Usando la Desigualdad de Kolmogorov (Teorema 10.11) resulta



i 1
2[
P {|Sn | 2 } = P
i1
max |Sn | 2i1
1n2i 1
n=1
i 1
2X
1
Var (Xj )
4i1 2
j=1
i 1
2X
1
j2 . (10.23)
4i1 2
j=1

Entonces de (10.22) y (10.23) obtenemos para cada i


i 1
2X
1
i j2 ,
4i1 2
j=1

211
y cambiando el orden de sumacin resulta
i 1
2X
X X 1
i j2
4i1 2
i=1 i=1 j=1

1 X 2 X 1
= 2 j . (10.24)
4i1
j=1 i: 2i 1j

La desigualdad 2i 1 j es equivalente a
ln (j + 1)
i = i0 (j) ,
ln (2)
y entonces podemos escribir
X 1 X 1
=4
4i1 4i
i: 2i 1j ii0 (j)
!
1
= 4a0
1 14
16
= a0 , (10.25)
3
donde a0 es el primer trmino de la serie geomtrica.
X 1
. (10.26)
4i
ii0 (j)

Por otro lado 2i 1 j implica que 4i j 2 , es decir para todos los trminos
de la serie geomtrica (10.26) obtenemos
1 1
2,
4i j
y en particular se tendr
1
a0 . (10.27)
j2
Entonces por (10.25 y (10.27) se tiene
X 1 16 16 1 16 1
= a0 = ,
4i1 3 3 j2 3 j2
2i 1j

y de acuerdo a (10.24) se tiene



X
16 X j2
i <.
32 j2
i=1 j=1

212
Esto prueba la Ley Fuerte de los Grandes Nmeros. 2
Observacin. La condicin (10.21) se cumple si todas las varianzas estn
acotadas. En efecto, si existe una constante K tal que para todo i, i2 K
entonces como se tiene

X 1
< ,
i2
i=1

resulta

X
X
2 i 1
K < .
i2 i2
i=1 i=1

Para el caso en que para todo i, i = , i2 = 2 se cumple efectivamente


que
X 1
2 < ,
i2
y por lo tanto
X n 0 c.s.,
o equivalentemente
X n c.s.
Todas las consideraciones posteriores a la ley dbil que discuten como s-
ta fundamenta las nociones heursticas de esperanza de un variable aleatoria
y de probabilidad de un evento siguen valiendo, reemplazando la convergen-
cia en probabilidad por convergencia casi segura.

10.6. Teorema de la Convergencia Dominada


Ahora daremos una demostracin del Teorema de la Convergencia Dom-
inada (Lebesgue). Antes necesitamos el siguiente caso particular.

Teorema 10.14 Sean (Xn )n1 una sucesin de variables aletorias no neg-
ativas y Z una variable aleatoria no negativa con E (Z) < que domina
P
todos los trminos de la sucesin, es decir 0 Xn Z. Entonces si Xn 0
se tiene
E (Xn ) 0.

Demostracin. Recordemos que si Z 0 la condicin de E (Z) < es


R Rk
equivalente a 0 zdFZ < y esto es equivalente a lmk k zdFZ = 0.
Vamos a demostrar que dado > 0 existe n0 tal que si n n0 entonces
E (Xn ) < .
Dado K > 0 (arbitrario) particionamos al espacio de la siguiente manera
n o n o
= Xn < Xn K {Xn > K}.
3 3
213
Entonces

0 Xn = Xn I{Xn /3} + Xn I{/3<Xn K} + Xn I{Xn >K}



+ KI{Xn >/3} + ZI{Z>K} . (10.28)
3
Tomando esperanza en ambos miembros se tiene

E (Xn ) + KP Xn > + E ZI{Z>K} . (10.29)
3 3
Sea YK = ZI{Z>K} , luego

0 si y < 0
FYK (y) = F (K) si 0 y K
Z
FZ (y) si y > K,

y entonces

E(ZI{Z>K} ) = E(YK )
Z +
= zdFZ .
K

Dado que E (Z) < existe K0 tal que



E ZI{Z>K0 } < . (10.30)
3
P
Una vez elegido K0 , usando que Xn 0, podemos encontrar n0 tal que
para todo n n0 se tiene

P Xn > < . (10.31)
3 3K0
Luego de (10.29), (10.30) y (10.31) resulta que para todo n n0

0 E (Xn ) + K0 + = ,
3 3K0 3
y el Teorema queda demostrado. 2

Ahora probaremos el Teorema de la Convergencia Dominada en el caso


general.

Teorema 10.15 (Teorema de la Convergencia Dominada) Sea (Xn )n1


una sucesin de variables aleatorias tal que existe un variable Z 0 con
P
E (Z) < y |Xn | Z para todo n. Entonces si Xn X se tendr

E (Xn ) E (X) .

214
Demostracin. Debemos probar que

lm |E (Xn ) E (X)| = 0.
n

Ahora bien, por una propiedad de la esperanza

|E (Xn ) E (X)| = |E (Xn X)| E (|Xn X|) ,

de manera que bastar con probar que

lm E (|Xn X|) = 0. (10.32)


n

Sea
Yn = |Xn X| 0,
P P
luego como Xn X resulta Yn 0.
Como

{|X| > Z + 1} {|Xn | > Z} {|Xn X| > 1},

y dado P (|Xn | > Z) = 0 se tendr para todo > 0,

P (|X| > Z + 1) P (|Xn X| > 1)


P
y por lo tanto como Xn X

P (|X| > Z + 1) lm P (|Xn X| > 1) = 0.


n

Esto muestra que para todo > 0 se tiene P (|X| Z + 1) = 0.


Luego con probabilidad 1 se tiene Yn |Xn |+|X| 2Z +1, y estamos en
la situacin del Teorema 10.14. Por lo tanto podemos concluir que E (Yn )
0. Luego (10.32) se cumple y el teorema queda demostrado. 2

215
216
Captulo 11

Convergencia en
Distribucin.

11.1. Definicin de convergencia en distribucin.


Tanto la convergencia casi segura como la convergencia en probabilidad
se basan en el concepto de proximidad entre variables aleatorias. Vere-
mos ahora un tipo de convergencia que se basa en la proximidad entre las
respectivas funciones de distribucin.

Definicin 11.1 Sea (Fn )n1 una sucesin de funciones de distribucin


definidas sobre R y F otra funcin de distribucin. Diremos que la suce-
sin Fn converge dbilmente a F si para todo punto x de continuidad de F,
las Fn convergen puntualmente a F . Es decir, si para todo x tal que F es
continua en x se tiene que

lm Fn (x) = F (x) .
n

Notacin. Si {Fn }n1 converge dbilmente en distribucin a F escribiremos


D
Fn F.

Observacin. Recordemos que una funcin de distribucin definida sobre


R se caracteriza por las propiedades P1, P2, P3 y P4 del teorema 2.5 y que
el conjunto de puntos donde es discontinua es a lo sumo numerable.

Definicin 11.2 Sea (Xn )n1 una sucesin de variables aleatorias y F una
funcin de distribucin. Diremos que la sucesin Xn converge en distribucin a
F sii (FXn )n1 converge dbilmente a F.

Notacin. Si (Xn )n1 converge en distribucin a F escribiremos


D
Xn F.

217
Observacin. Por extensin tambin diremos que (Xn )n1 converge en
D
distribucin a X sii FXn FX .

Al decir que (Xn )n1 converge en distribucin a X hay un abuso de


lenguaje puesto que las variables Xn no se aproximan a X, sino que son las
funciones de distribucin de las Xn las que se aproximan a la funcin de
distribucin de X.
Consideremos el caso donde X e Y son dos variables independientes
D
con distribucin N (0, 1) . Definamos para todo n, Xn = X entonces Xn
Y y sin embargo como las variables X e Y son independientes, X no se
aproxima a Y .

Veamos ahora la relacin que existe entre la convergencia en probabilidad


y la convergencia en distribucin.

Teorema 11.1 Sea (Xn )n1 una sucesin de variables aleatorias y X otra
variable aleatoria. Entonces
P
Xn X
implica que
D
Xn X.

Demostracin. Sea FX la funcin de distribucin de X y x un punto de


continuidad.de FX . Probemos primero que

{Xn x} {X x + } {|Xn X| }. (11.1)

Para esto basta demostrar que si no est en ninguno de los dos conjunto
que forman la unin en el miembro derecho, entonces no est en {Xn x}.
Sea tal que X() > x + y |Xn () X()| < . Luego

Xn () = X() + (Xn () X())


X() |Xn () X()|
>x+
= x,

probando (11.1). Tomado probabilidades en ambos miembros se obtiene

FXn (x) FX (x + ) + P (|Xn X| ) .

Tomando lmite superior en ambos miembros y teniendo en cuenta que

lm P (|Xn X| ) = 0 (11.2)
n

se obtiene
lm FXn (x) FX (x + ) ,
n

218
y haciendo que 0, en virtud de que las funciones de distribucin son
continuas a derecha se tiene que

lm FXn (x) FX (x) . (11.3)


n

Ahora hacemos un razonamiento similar a izquierda de x. Consideramos la


inclusin
{X x } {Xn x} {|Xn X| }.
Tomado probabilidades en ambos miembros se obtiene

FX (x ) FXn (x) + P (|Xn X| ).

Tomando lmite inferior en ambos miembros y usando (11.2) se obtiene

F (x ) lmn FXn (x) ,

y haciendo que 0, en virtud de la continuidad de FX en x

F (x) lmn FXn (x) . (11.4)

De (11.3) y (11.4) resulta

lm FXn (x) FX (x) lmn FXn (x) ,


n

y como
lmn FXn (x) lm FXn (x) ,
n

debe ser
lm FXn (x) = lmn FXn (x) = FX (x) .
n

Luego existe el lmite de (FXn ) en el punto x y adems

lm FXn (x) = F (x) . 2


n

Observacin. La recproca no vale en general. Pero s es cierta en el caso en


que P (X = C) = 1, donde C es una constante. Luego tenemos el siguiente
teorema cuya demostracin queda como ejercicio.

D
Teorema 11.2 Supongamos que Xn X y P (X = C) = 1. Entonces
P
Xn X.

219
11.2. Funciones caractersticas.
Una herramienta muy importante para la demostracin del Teorema
Central del Lmite es la funcin caracterstica asociada a una distribucin.
Para definirla necesitaremos presentar el concepto de variable aleatoria com-
pleja.

11.2.1. Variables aleatorias complejas.


Definicin 11.3 Sea (, A, P ) un espacio de probabilidad. Se dice que X
es una variable aleatoria compleja si X : C (C indica el conjunto de
nmeros complejos) es de la forma X = X1 + iX2 con X1 y X2 variables
aleatorias reales.
Definicin 11.4 Sea la variable aleatoria compleja X = X1 + iX2 , donde
X1 y X2 tienen esperanza finita. Definimos la esperanza de X como E (X) =
E (X1 ) + iE (X2 ) .
Observacin. E (X) C. La parte real e imaginaria de la esperanza son
respectivamente Re (E (X)) = E (X1 ) e Im E (X) = E (X2 ) .
Definicin 11.5 Diremos que dos variables aleatorias complejas X = X1 +
iX2 e Y = Y1 + iY2 son independientes si el vector aleatorio X = (X1 , X2 )
es independiente del vector aleatorio Y = (Y1 , Y2 ) .

Algunas propiedades

Veamos ahora algunas propiedades que cumplen las variables complejas,


en analoga con las que ya probamos para variables aleatorias reales.

Propiedad 11.1 Sean X = X1 +iX2 e Y = Y1 +iY2 dos variables aleatorias


complejas independientes. Entonces
E (XY ) = E (X) E (Y ) .
Demostracin. La demostracin se basa en el clculo directo usando la defini-
cin y la propiedad anloga para variables aleatorias reales independientes
E (XY ) = E [(X1 + iX2 ) (Y1 + iY2 )]
= E [(X1 Y1 X2 Y2 ) + i (X2 Y1 + Y2 X1 )]
= E (X1 Y1 X2 Y2 ) + iE (X2 Y1 + Y2 X1 ) =
= E (X1 Y1 ) E (X2 Y2 ) + iE (X2 Y1 ) + iE (Y2 X1 ) =
= E (X1 ) E (Y1 ) E (X2 ) E (Y2 ) + iE (X2 ) E (Y1 ) + iE (Y2 ) E (X1 )
= (E (X1 ) + iE(X2 ))(E (Y1 ) + iE(Y2 ))
= E (X) E (Y ) . 2

220
Propiedad 11.2 Sea una variable compleja X = X1 + iX2 . Entonces
|E (X)| E (|X|) .

Demostracin. Podemos suponer que E (X) 6= 0 pues en tal caso la desigual-


dad se cumple. Como E (X) = E (X1 ) + iE (X2 ) C podemos escribir
E (X) = rei
para cierto r > 0, 0 < 2. Consideremos la variable aleatoria compleja
Y = ei X y verifiquemos que su esperanza es real

E (Y ) = E ei X
= ei E (X)
= r > 0.
Hemos probado con anterioridad que la propiedad se cumple para esperanzas
de variables aleatorias reales. Luego
|E (Y )| E (|Y |) .
A partir de esto se deduce la tesis, pues
|E (X)| = r = E (Y ) = |E (Y )| E (|Y |) = E (|X|) . 2

11.2.2. Definicin de funcin caracterstica y propiedades.


Definicin 11.6 Sea X una variable aleatoria y FX su funcin de distribu-
cin. Definimos a la funcin carcterstica de X por la funcin X : R C
asociada a FX de la siguiente manera
X (t) = E (exp (itX))
= E (cos (tX)) + iE (sen (tX)) .

Observacin. Como las variables cos (tX) , sen (tX) son acotadas, las es-
peranzas de estas variables existen y son finitas.

El motivo de la introduccin de la funcin caracterstica es poder estudiar


ms facilmente la distribucin de la suma de variables aleatorias independi-
entes. Mientras que la funcin de distribucin de esta suma (que se obtiene
por convoluciones) puede ser muy complicada, su funcin caracterstica es
muy simple, como se desprende de la Propiedad 11.3 que damos a contin-
uacin. Por otro lado, como veremos ms adelante, hay una correspondencia
biunvoca entre funciones de distribucin y funciones caractersticas. Luego,
conociendo la funcin caracterstica de una variable aleatoria, tambin cono-
cemos su funcin de distribucin.

221
Propiedad 11.3 Sean X e Y dos variables aleatorias independientes. En-
tonces para todo t R
X+Y (t) = X (t) Y (t) .

Demostracin. Observando que exp (itX) , exp (itY ) son variables aleatorias
independientes se tiene
X+Y (t) = E (exp (it (X + Y )))
= E (exp (itX) exp (itY ))
= E (exp (itX)) E (exp (itY ))
= X (t) Y (t) . 2

Propiedad 11.4 Sea X una variable aleatoria. Entonces para todo t R


|X (t)| 1.

Demostracin.
|X | = |E (exp (itX))| E (|exp (itX)|) = E (1) = 1. 2

Propiedad 11.5 X (0) = E (1) = 1.

Demostracin. X (0) = E (1) = 1. 2

Ahora enunciamos dos teoremas muy importantes. Las demostraciones


de estos teoremas se pueden encontrar en el libro de Barry R. James, Prob-
abilidade: um curso em nivel intermedirio.

Teorema 11.3 Sean X e Y dos variables aleatorias. Entonces si


X = Y ,
tambin se tiene
FX = FY .

Teorema 11.4 (Teorema de Continuidad de Paul Levy) Sea (Xn )n1


una sucesin de variables aleatorias, (FXn )n1 la correspondiente sucesin
de funciones de distribucin y (Xn )n1 la correspondiente sucesin de fun-
ciones caractersticas asociadas. Entonces
D
Xn X
si y slo si para todo t R
Xn (t) X (t) .

222
Teorema 11.5 Sea X una variable aleatoria. Entonces X es continua en
todo punto.

Demostracin. Sea t R y consideremos una sucesin (hn )n1 R tal que


hn 0. Queremos probar que

lm X (t + hn ) = X (t) .
n

Teniendo en cuenta que

X (t + hn ) = E (cos ((t + hn ) X)) + iE (sen ((t + hn ) X)) ,

bastar con probar que si n + entonces

E (cos ((t + hn ) X)) E (cos (tX)) ,

y
E (sen ((t + hn ) X)) E (sen (tX)) .
Probaremos que E (cos ((t + hn ) X)) E (cos (tX)) cuando n +, la
otra propiedad es anloga.
Consideremos la sucesin de variables aleatorias

Yn = cos ((t + hn ) X) .

Se comprueba fcilmente que Yn est dominada por la variable aleatoria


Z = 1, es decir para todo n

|Yn | = |cos ((t + hn ) X)| 1.

Adems si Y = cos (tX), por la continuidad de la funcin coseno, se tiene


convergencia puntual de Yn a Y , es decir para todo

Yn () Y ().

Luego, por el Teorema de Convergencia Dominada se obtiene

E (Yn ) E (Y ) . 2

Observacin. Se puede probar algo ms fuerte: X es uniformemente con-


tinua (ver el libro de Barry R. James).

Veamos como opera una funcin caracterstica sobre una transformacin


afn de la variable aleatoria.

223
Propiedad 11.6 Sea X una variable aleatoria e Y = aX + b, con a, b R.
Entonces para todo t R

aX+b (t) = exp (ibt) X (at) .

Demostracin.
Para todo t R se tiene

Y (t) = aX+b (t)


= E (exp (it (aX + b)))
= E (exp (it (aX)) exp (itb))
= exp (ibt) E (exp (i (ta) X))
= exp (ibt) X (at) . 2

Ahora queremos caracterizar a las funciones caractersticas a valores


reales. Para esto recordemos el concepto de variable aleatoria simtrica re-
specto del origen. La definicin ms general de simetra respecto de arbi-
trario est dada en la pgina 155.
Decimos que una variable aleatoria X es simtrica respecto del origen si
y slo si para todo x 0 se tiene que

P (X x) = P (X x) . (11.5)

El siguiente teorema permite dar una definicin equivalente.

Teorema 11.6 X es real sii X es simtrica respecto del origen. En este


caso X es par.

Demostracin. Supongamos primero que X sea simtrica respecto del origen.


Como para todo t R

X (t) = E (cos (tX)) + iE (sen (tX)) ,

para mostrar que X es real bastar ver que E (sen (tX)) = 0.


Teniendo en cuenta que si X es simtrica se tiene que FX = FX , de
manera que E (g (X)) = E (g (X)) para cualquier g medible, entonces si
para cada t R se toma g (x) = sen (tx) se obtiene

E (sen (tX)) = E (sen (tX)) = E (sen (tX)) ,

y por lo tanto E (sen (tX)) = 0.

224
Adems,

X (t) = E(cos(X(t)))
= E(cos(Xt))
= X (t).

Luego X es par.
Supongamos ahora que X es real, esto es E (sen (tX)) = 0. Entonces
teniendo en cuenta que la funcin coseno es par y la funcin seno impar
tendremos para todo t R

X (t) = E (cos (tX)) + iE (sen (tX))


= E (cos(tX) ,

X (t) = E (cos (t(X))) + iE (sen (t(X)))


= E (cos(tX)) iE(sen(tX))
= E (cos(tX))

Luego X (t) = X (t) y entonces por el Teorema 11.3, se obtiene que


FX = FX y por el Teorema 7.17 que X es simtrica respecto del origen. 2

Definicin 11.7 (Momentos de orden k) Sea X una variable aleatoria.


Definimos el momento de orden k > 0 de X como el nmero

k = E Xk ,

cuando este valor existe y el momento absoluto de orden k > 0 de X como


el nmero
k = E |X|k .

Observacin. Si k es par entonces k = k . Adems siempre se tiene que


k < sii k < , es decir la integrabilidad absoluta de |X|k equivale a la
de X k . En particular E(X) = 1 y Var(X) = 2 21 .

Teorema 11.7 Si k < entonces para todo i < k se tiene i < .

Demostracin. Sea i < k. Se tiene

|X|i = I{|X|1} |X|i + I{|X|>1} |X|i .

225
Como
I{|X|i 1} |X|i I{|X|1}
y
I{|X|>1} |X|i I{|X|>1} |X|k |X|k
obtenemos
|X|i I{|X|1} + |X|k .
Tomando esperanza en ambos miembros resulta

i P ({|X| 1}) + k < ,

y esto demuestra el teorema. 2

11.3. Momentos y funcin caracterstica.


11.3.1. Derivacin dentro del signo esperanza.
Para hacer un desarrollo de Taylor de la funcin caracterstica, nece-
sitaremos hallar sus derivadas. Como la funcin caracterstica est definida
como una esperanza, ser conveniente encontrar condiciones bajo las cuales
se pueda intercambiar el orden en el que se deriva y se toma esperanza.

Sea g(x, t) una funcin de dos variables a valores reales, medible respecto
de la primera variable y derivable respecto de la segunda variable. Sea g2
definida por
g (x, t)
g2 (x, t) = .
t
Sea X una variable aleatoria, entonces para cada t, Yt = g (X, t) es
tambin una variable aleatoria. Supongamos que E (|Yt |) < y consider-
emos la funcin h (t) = E (Yt ) = E (g (X, t)) . El siguiente teorema nos da
condiciones suficientes para que h0 (t) = E (g2 (X, t)) .

Teorema 11.8 Supongamos que en t = t0 se cumplen las siguientes condi-


ciones:

(i) existe > 0 y Z variable aleatoria con E (Z) < , tal que

sup {|g2 (X, t) |} Z,


|tt0 |

(ii) para todo x la funcin g2 (x, t) es continua respecto a la segunda vari-


able en t = t0 .

Luego h0 (t0 ) = E (g2 (X, t0 )) .

226
Demostracin.
Sea (rn )n1 una sucesin de nmeros reales no creciente que converge a
0 y tal que |rn | . Bastar demostrar que

h (t0 + rn ) h (t0 )
lm = E (g2 (X, t0 )) .
n+ rn
Utilizando el teorema del valor medio existe rn = rn (X) tal que |rn (X)|
rn y tal que
g (X, t0 + rn ) g (X, t0 )
= g2 (X, t0 + rn (X)) .
rn
Luego

h (t0 + rn ) h (t0 ) g (X, t0 + rn ) g (X, t0 )
lm = lm E
n rn n rn
= lm E (g2 (X, t0 + rn (X))) .
n

Por lo tanto bastar con mostrar que

lm E (g2 (X, t0 + rn (X))) = E (g2 (X, t0 )) . (11.6)


n

Ahora bien rn (X) 0 y por la continuidad de g2 en t = t0 ,


(g2 (X, t0 + rn (X)))n1 converge puntualmente a la funcin g2 (X, t0 ) . Adems
se cumple que
sup |g2 (X, t0 + rn (X))| Z,
nN

con E (Z) < . Luego aplicando el teorema de la convergencia dominada


se obtiene (11.6). 2

11.3.2. Derivadas de la funcin caracterstica y momentos.


Dada una variable aleatoria X, sabemos que X (t) = E (exp (itX)) .
Procedamos de manera ingenua, sin preocuparnos por la justificacin, y
derivemos sucesivamente dentro del signo esperanza
(1)
X (t) = E (iX exp (itX)) = iE (X exp (itX))
(2)
X (t) = E i2 X 2 exp (itX) = i2 E X 2 exp (itX)
..
.
(n)
X (t) = E (in X n exp (itX)) = in E (X n exp (itX)) .

El siguiente teorema permite justificar estas expresiones.

227
Teorema 11.9 Supongamos que n < . Luego se cumple que
(n)
X (t) = in E (X n exp (itX)) . (11.7)

Demostracin. Demostraremos el teorema por induccin en n. Para n = 0


es cierto ya que X (t) = E exp (itX) por definicin. Supongamos que el
teorema es cierto para n. Vamos a demostrar que es cierto para n + 1.
Supongamos que n+1 < , por el Teorema 11.7 resulta n < y luego la
frmula (11.7) es cierta para n. Entonces, tenemos que
(n)
X (t) = in E (X n exp (itX))
= in (E(X n cos(tX)) + iE(X n sen(tX)). (11.8)

Sea g(x, t) = xn cos(tx). Luego g2 (x, t) = xn+1 sen(tx) es continua y |g2 (X, t)|
|X|n+1 . Como E(|X n+1 |) < , por el Teorema 11.8 se tendr que si
h(t) = E(X n cos(tx)), entonces

h0 (t) = E (g2 (X, t))


= E(X n+1 sen(tX)). (11.9)

Similarmente si h (t) = E(X n sen(tx)), luego

h0 (t) = E(X n+1 cos(tX)). (11.10)

Luego por (11.9), (11.10), derivando (11.8) se tendr


(n+1)
X (t) = in (h0 (t) + h0 (t)) (11.11)

= in E(X n+1 sen(tX)) + iE(X n+1 cos(tX)) . (11.12)

Multiplicando por i y dividiendo por i se obtiene


(n+1)
X (t) = in+1 (1/i)E(X n+1 sen(tX)) + E(X n+1 cos(tX)) ,

y usando que 1/i = i


(n+1)
X (t) = in+1 iE(X n+1 sen(tX)) + E(X n+1 cos(tX))
= in+1 E(X n+1 exp(itX))

y por lo tanto el teorema queda demostrado. 2.

Corolario 11.1 Supongamos n < . Entonces resulta que


(n)
X (0) = in E (X n ) .

228
Observemos entonces que de acuerdo al Teorema 11.9 si n < resulta
(n)
X (0) = in E(X n )
= in n .

En particular
0X (0) = i1 (11.13)
y
00X (0) = 2 . (11.14)
Ahora estamos en condiciones de probar que la funcin caracterstica de
la distribucin X N (0, 1) es su densidad, salvo una constante.

11.4. Funcin caracterstica de una distribucin


normal.
Para la prueba del Teorema Central de Lmite, necesitamos calcular
la
funcin caracterstica de una distribucin normal. Dado que si X N , 2
se puede escribir como X = Y + , donde Y N (0, 1) de acuerdo a la
Propiedad 11.6, slo se necesitar calcular X para el caso = 0 y 2 = 1.

Teorema 11.10 Sea X N (0, 1) . La funcin caracterstica de X es



1 2
(t) = exp t .
2

Demostracin. Como X es simtrica respecto del origen, es real y par.


Consideremos dos variables aleatorias independientes X1 N (0, 1) , X2
Y = u1 X1 + u2 X2 con u1 0, u2 0 . Entonces
N (0, 1) y definamos
2
Y N 0, u1 + u2 .2

Podemos expresar a Y como un mltiplo de una variable N(0, 1). En


efecto
q
Y
Y = u21 + u22 p 2
u1 + u22
q
= u21 + u22 Z,

donde
Y
Z=p 2
u1 + u22
tiene distribucin N (0, 1).

229
Demostracin. Calcularemos Y de dos manera distintas. Por un lado, usando
la Propiedad 11.6

Y (t) = u2 +u2 Z (t) (11.15)


1q 2
2 2
= u1 + u2 t . (11.16)

Por otro lado siendo Y suma de variables aleatorias independientes, usando


la Propiedad ?? y recordando que u1 0 y u2 0, se tiene que

Y (t) = u1 X1 +u2 X2 (t)


= u1 X1 (t) u2 X2 (t) (11.17)

= (u1 t) (u2 t)
q q

= u21 t u22 t . (11.18)

De (11.15) y (11.18) se obtiene


q q q
u21 + u22 t = u21 t u22 t , (11.19)

y haciento t = 1
q q q

2 2
u1 + u2 = u21 u22 . (11.20)

Definamos g como la composicin de con la raz cuadrada, es decir



g (u) = u .

Luego por (11.20) se tiene



g u21 + u22 = g u21 g u22 .

Luego, si ponemos v1 = u21 y v2 = u22 entonces para todo v1 , v2 0 obtenemos

g (v1 + v2 ) = g (v1 ) g (v2 ) . (11.21)

Entonces para todo v 0 se tiene


v v v 2
g (v) = g + = g 0.
2 2 2
Observacin. La Ecuacin (11.21) recuerda la caracterizacin de la dis-
tribucin exponencial como una distrubucin con falta de memoria. Luego
para caracterizar a g procederemos de igual manera.

230
Por induccin se puede probar que dados v1 0, v2 0, . . . , vn 0
entonces n !
X Yn

g vi = g (vi ) . (11.22)
i=1 i=1

Luego usando (11.22) se obiene que para todo n natural


g (n) = g 1| + 1 +{z+... + 1}
n veces
n
= [g (1)] . (11.23)

Usando (11.22) y (11.23) se obtiene que para todo m y n naturales

[g (1)]n = g (n)
n
= g m
m
n n n
= g + + ... +
|m m {z m}
m veces
h n im
= g ,
m
y entonces
n n

g = [g (1)] m .
m
Luego para todo r Q positivo se tiene

g (r) = [g (1)]r .

Por la continuidad de g y la densidad de Q en R,se concluye que para todo


x R0
g (x) = [g (1)]x .
Ahora veamos que
0 < g (1) < 1. (11.24)
Como g (1) es real con 0 g (1) 1 para demostrar (11.24) se deber
mostrar que g (1) 6= 0 y que g (1) 6= 1.
Supongamos que g (1) = 0. Entonces para todo t R0

t = g (t) = [g (1)]t = 0.

Esto es absurdo, pues si t = 0 se tendra (0) = 0 y segn la Propiedad


11.5 resulta que (0) = 1.

231
Supongamos que g (1) = 1 entonces

(1) = 1 = g (1) = 1.

Ahora como es real, (1) = E (cos (X)) . Entonces g (1) = 1 se puede


escribir como
E (1) = E (cos (X))
luego
E (1 cos (X)) = 0
Pero siendo la variable aleatoria 1 cos (X) no negativa se concluye que

P (cos (X) = 1) = 1.

Esto no puede ser cierto puesto que {x R : cos (x) = 1} es un conjunto


de puntos numerable, de manera que su probabilidad es cero puesto que la
ditribucin normal es absolutamente continua.
Finalmente si ponemos c = log (g (1)) entonces, c > 0 y g (1) =
exp (c) . Luego

g (t) = [g (1)]t
= exp (ct) , t 0.

Adems
(t) = g t2 = exp ct2 , t 0.
Como la funcin (t) es par se tendr

(t) = exp ct2 , t.

Derivando dos veces



( )(1) (t) = 2ct exp ct2 ,


( )(2) (t) = 2c exp ct2 + 4c2 t2 exp ct2

= 2c exp ct2 2ct2 1 ,

y evaluando en 0, de acuerdo a (11.14) se tendr

2c = ( )(2) (0)
= 2

= Var (X) + E X 2
= 1.
1
Por lo tanto obtenemos que c = 2 y el Teorema queda demostrado. 2

232
11.5. Teorema Central del Lmite.
El siguiente lema da el desarrollo de Taylor de la funcin caracterstica
de una variable aleatoria X con E(X) = 0 y Var(X) = 1.

Lema 11.1 Sea X una variable aleatoria con E(X) = 0 y Var(X) = 1.


Entonces
t2
X (t) = 1 + o2 t2 ,
2
2
donde o2 t es una funcin tal que

o2 t2
lm = 0. (11.25)
t0 t2
Demostracin. Sabemos que (0) = 1 y por (11.13) y (11.14) se tiene 0X (0) =
0 y 00X (0) = 1. Luego usando un desarrollo de Taylor de grado 2 en t = 0
para X se tiene
00 t2
X (t) = X (0) + 0X (0)t + X (0) + o2 (t2 )
2
t2
=1 + o2 t2 .
2

donde o2 t2 satisface (11.25). Esto demuestra el lema. 2

11.5.1. Caso de variables independientes idnticamente dis-


tribuidas
Teorema 11.11 (Teorema Central del Lmite) Sea (Xn )n1 una suce-
sin de variables aleatorias independientes idnticamente distribuidas (i.i.d.)
con varianza finita. Llamemos = E (Xi ) y 2 = Var (Xi ) > 0 . Sean las
sumas parciales
Xn
Sn = Xi
i=1
y
Sn E (Sn )
Zn = p . (11.26)
Var (Sn )
Entonces
D
Zn N (0, 1) . (11.27)

Observacin. La expresin (11.26) puede reformularse escribiendo



Xn E Xn
Zn = q ,
Var X n

233
donde
n
1X
Xn = Xi
n
i=1
es la variable aleatoria promedio aritmtico.

Demostracin. En primer lugar veamos que basta con probar el teorema


suponiendo que = 0 y 2 = 1. Teniendo en cuenta la independencia de las
Xi y la definicin de Sn se tiene que
E (Sn ) = n,
Var (Sn ) = n 2 .
Luego (11.26) se puede escribir como
Pn
Xi n
Zn = i=1
n
n
X
1 Xi
=
n
Pn i=1
X
= i=1 i,
n
donde
Xi
Xi =

Claramente las variables Xi son i.i.d. con E(Xi ) = 0 y Var(Xi ) = 1. Luego
si probamos que el teorema vale para = 0 y 2 = 1 resulta vlido para
y 2 arbitrarios.
Supondremos entonces que = 0 y 2 = 1. De acuerdo al teorema de
continuidad de Levy y al Teorema 11.10, bastar probar que para todo t R
2
t
lm Zn (t) = exp . (11.28)
n+ 2
Sabemos que como = 0 y 2 = 1, por el lema anterior para todo i N se
tiene
t2
Xi (t) = X (t) = 1 + o2 t2 ,
2
2
donde o2 t es una funcin tal que

o2 t2
lm = 0. (11.29)
t0 t2
Como las variables Xi son independientes, podemos aplicar la Propiedad
11.3 de las funciones caractersticas y se tiene que para todo n
n
Y t2 2 n
Sn (t) = Xi (t) = 1 + o2 t .
2
i=1

234

Finalmente teniendo en cuenta que = 0 y 2 = 1, resulta Zn = Sn / n.
Luego por la Propiedad 11.6 de las funciones caractersticas se obtiene

t
Zn (t) = Sn
n
2 2 n
t t
= 1 + o2 .
2n n

De acuerdo a (11.28), bastar ver que la sucesin de funciones Zn satisface


2 n 2
t2 t t
lm 1 + o2 = exp . (11.30)
n 2n n 2

Para ello escribamos la sucesin de caractersticas del siguiente modo


2 n
1 t2 t
Zn (t) = 1 o2 n ,
n 2 n

y luego si llamamos
t2 t2
an = o2 n ,
2 n
entonces resulta an n
Zn (t) = 1 .
n
Se conoce del clculo elemental que si a n L entonces
an n
1 n exp (L) .
n
Por lo tanto, para mostrar (11.30) bastar mostrar que en nuestro caso
L = t2 /2. Equivalentemente bastar con mostrar que
2
t
lm o2 n 0.
n n

Pero esto resulta de escribir



t2
o2
t2 n
o2 n= t2
n t2
n
y de observar que como t2 /n 0 cuando n , de acuerdo a (11.29) se
tiene 2
t
o
n
lm 2 = 0.
n+ t
n
235
Esto prueba el teorema. 2

Observacin. Teniendo en cuenta que


1
E X n = n =
n
y
2 2
Var X n = n = ,
n n
podemos escribir las variables Zn de la siguiente manera

Xn E Xn
Zn = q
Var X n
(X n )
= n .

Luego, de acuerdo a (11.27) tenemos

1 (X n ) D
n2 N (0, 1) . (11.31)

De acuerdo a la Ley Fuerte de los Grandes Nmeros X n 0 c.s., y por
lo tanto tambin
Wn = (X n )/ 0 c.s.
Adems, recordemos que convergencia casi segura implica convergencia en
1
distribucin. Al multiplicar Wn por el factor n 2 , de acuerdo a (11.31) deja
de tender a 0 y tampoco tiende infinito. Por eso se dice que la velocidad
1
de convergencia de X n a es n 2 . Se deja como ejercicio probar que si
1
multiplicamos a Wn por n 2 + la sucesin converge a en probabilidad.
Es decir que dado cualquier K > 0, tendremos
1
lm P (n 2 + |Wn | > K) = 1
n

1
Tambin se deja como ejercicio probar que si multiplicamos a Wn por n 2
1
con > 0 la sucesin n 2 + Wn converge en probabilidad a 0. El exponente 12
es el la potencia exacta de n por la que hay que multiplicar a Wn para que
la sucesin nk Wn no converja ni a 0 ni a .

11.5.2. Teorema Central del Lmite para variables no idn-


ticamente distribuidas.
El Teorema Central del Lmite sigue valiendo bajo condiciones menos
restrictivas. Se puede suprimir la hiptesis de que las distribuciones sean
idnticas y an debilitar la hiptesis de la independencia.

236
El Teorema de Lindeberg o Teorema Central del Lmite Fuerte da una
condicin suficiente para que una sucesin de variables aleatorias indepen-
dientes no necesariamente idnticamente distribuidas converja en distribu-
cin a la normal estandarizada. Enunciamos este importante teorema sin
demostracin.

Teorema 11.12 (Teorema Central de Lindeberg) Sea (Xn )n1 una suce-
sin de variables aleatorias independientes con E (Xi ) = i y Var (Xi ) = i2
para todo i N, donde 2 2
Pn i < y existe al menos un i0 tal que i0 > 0. Sea
como antes Sn = i=1 Xi y llamemos
n
X
s2n = i2 = Var (Sn ) .
i=1

Definamos las variable aleatorias centradas

Yi = Xi i .

Una condicin suficiente para que


Sn E (Sn ) D
Zn = p N (0, 1)
Var (Sn )

es que para todo > 0


Pn R 2 dF
i=1 {|y|sn } y Yi
lm = 0. (11.32)
n+ s2n

Demostracin. Ver el libro citado de Barry R. James.

Observacin. La condicin (11.32) se llama condicin de Lindeberg. Note-


mos que como E (Yi ) = 0 y Var (Yi ) = Var (Xi ) = i2 , se tiene
n
X
s2n = i2 (11.33)
i=1
Xn
= Var(Yi )
i=1
Xn Z +
= y 2 dFYi
i=1
n Z
X n Z
X
2
= y dFYi + y2 dFYi . (11.34)
i=1 {|y|<sn } i=1 {|y|sn }

Luego, la condicin (11.32) es equivalente a que para todo > 0

237
Pn R 2
i=1 {|y|<sn } y dFYi
lm Pn R = 1, (11.35)
2
i=1 y dFYi
n

lo cual se puede interpretar como que la condicin de Lindeberg implica


que la contribucin de Yi a la varianza de Sn P proviene esencialmente de los
valores donde |Yi |2 2 s2n . Si llamamos Sn = ni=1 Yi como s2n = Var(Sn ) =
Var(Sn ) resulta que la contribucin de Yi2 a la Var(Sn ) corresponde bsica-
mente a los puntos donde Yi2 < s2n , es decir donde Yi2 es pequea respecto
a E(Sn2 ). Esto est diciendo que con alta probabilidad Yi2 es pequeo con
respecto a Sn2 . En particular de (11.32) se deduce que para todo 2 > 0,
existe n0 () tal que para todo n n0
Z
y 2 dFYi < s2n 2
{|y|sn }

para todo 1 i n. Por otro lado para todo 1 i n,


Z
y 2 dFYi s2n 2 .
{|y|<sn }

Luego para todo 1 i n y n n0 se tiene


Z Z
2 2
i = y dFYi + y 2 dFYi < 2s2n 2 ,
{|y|sn } {|y|<sn }

y por lo tanto, para todo n n0 resulta

max1in i2
Pn 2 < 22 .

i=1 i

Luego
max1in i2
lm Pn 2 = 0.
i=1 i
n

Es decir que la varianza de cada variable, sobre la suma de las varianzas


tiende a 0.
Del teorema central del lmite de Lindeberg se deduce la siguiente versin
del Teorema Central del Lmite.

Teorema 11.13 (Teorema Central del Lmite de Liapunov) Sea (Xn )n1
una sucesin de variables aleatorias independientes con E (Xi ) = i y var-
ianza Var (Xi ) = i2 < tal que para algn i0 , i20 > 0. Llamemos Yi =
Xi i a las variable aleatoria centradas. Una condicin suficiente para que

Sn E (Sn ) D
Zn = p N (0, 1)
Var (Sn )

238
es que exista > 0 tal que
Pn
2+
i=1 E |Yi |
lm = 0. (11.36)
n+ s2+
n

Demostracin. Tenemos que


Z Z
2 |y|2+
y dFYi = dFYi
{|y|sn } {|y|sn } |y|
Z
1
|y|2+ dFYi
sn {|y|sn }
E(|Yi 2+
| )

sn
y luego
n Z
1 X 2+
X n
y 2 dFYi E |Yi | .
{|y|sn } sn
i=1 i=1

Dividiendo por s2n


se tiene
Pn R 2 dF n
i=1 {|y|sn } y Yi 1 X
E(|Yi |2+ ),
s2n s2+
n i=1

y por lo tanto por la condicin (11.36)


Pn R 2 dF
i=1 {|y|sn } y Yi
lm = 0. (11.37)
n s2n
que es la condicin de Lindeberg. 2

Esta condicin es til cuando las variables tienen momentos finitos de


orden mayor que dos. La condicin (11.36) se denomina la Condicin de
Liapunov.

Ejemplo. Consideremos ahora una sucesin de variables aleatorias (Yn )n1 ,


donde Yn tiene distribucin Bi (n, p) . Podemos pensar a Yn como el nmero
de xitos en n experimentos independientes realizados bajo las mismas condi-
ciones, donde la probabilidad de xito es p. Luego podemos escribir
n
X
Yn = Xi ,
i=1

donde

1 si el i-simo experimento resulta xito
Xi =
0 si el i-simo experimento resulta fracaso.

239
Claramente las variables Xi son independientes e idnticamente distribuidas.
Sabemos que P (Xi = 1) = p y P (Xi = 0) = 1 p, E (Xi ) = p y Var (Yi ) =
p (1 p) . Luego, estamos en condiciones de aplicar el Teorema Central del
Lmite para variables i.i.d. Entonces
Yn E (Yn ) Yn np D
p =p N (0, 1) .
Var (Yn ) np (1 p)
Se puede probar que para n = 20 la distribucin normal es una buena aprox-
imacin de la binomial, de manera que a fines prcticos se pueden usar tablas
normales para calcular probabilidades binomiales, si n es suficientemente
grande.

11.5.3. Una Aplicacin a la Binomial.


Se realiza una encuesta para determinar el porcentaje p de votantes que
va a votar a un partido C determinado. Se toma una muestra al azar de
n votantes y se los encuesta acerca de su intencin de voto. Designemos
mediante Xi a la variable que toma el valor 1, si la intencin declarada del
encuestado i es votar al partido C y Xi = 0 en caso contrario. Claramente
P (Xi = 1) = p.
La variable
Xn
Sn = Xi
i=1
da la cantidad de encuestados que dicen votar al partido C. La variable Yn
tiene distribucin Bi(n, p).
Como desconocemos el parmetro p, podemos estimarlo a partir del
promedio Pn
Xi
pbn = X n = i=1 .
n
Como E(Xi ) = p, por la ley de los grandes nmeros tendremos X n p
c.s. Lo que queremos saber es cuan grande tiene que ser n para lograr una
precisin determinada en nuestra estimacin de p con cierta probabilidad.
Ms precisamente fijemos una cota e para el error de estimacin En = X n p
(por ejemplo e = 0,05) y supongamos que queremos conocer aproximada-
mente la probabilidad de que |En | e, es decir P (|En | e).
Sabemos que
Sn np
Zn = p
np (1 p)
Pn
Xi np
= pi=1
np (1 p)
Xn p D
= np N (0, 1) .
p (1 p)

240
Llamemos
ne
an = p , (11.38)
p (1 p)
y a la funcin de distribucin de una variable N(0, 1). Luego, como la
distribucin de Zn se comporta aproximadamente como la de una N(0, 1)
para n grande, tenemos

P (|En | e) = P (|X n p| e)
!
|X n p| ne
=P np p
p (1 p) p (1 p)
= P (|Zn | an )

= (an ) (an )
= (an ) (1 (an ))
= 2(an ) 1,

donde el signo
= indica aproximadamente. Supongamos ahora que quere-
mos saber qu tamao de muestra se requiere para que P (|En | e) sea
aproximadamente 1 , donde es un nmero pequeo, por ejemplo 0,05.
Entonces se requerir un valor n tal que

2(an ) 1 = 1 ,

o equivalentemente
an = 1 1 .
2
Reemplazando an de acuerdo a (11.38) tendremos

ne 1
p = 1 ,
p (1 p) 2

o equivalentemente
2
p(1 p) 1 1 2
n= .
e2
Como p es desconocido podemos acotar la expresin de la derecha utilizando
el valor de p ms desfavorable. Hallemos dicho valor. Como n depende en
forma creciente de g(p) = p(1 p) deberamos elegir el mximo de est
funcin para 0 p 1. Observemos que g 0 (p) = 1 2p, de modo que el
nico punto crtico es p = 1/2 , y como g 00 (p) = 2 < 0 corresponde a un
mximo relativo. Como en los extremos g(0) = g(1) = 0 y g(1/2) = 1/4,
resulta que el mximo absoluto de g se alcanza en p = 1/2 y vale 1/4. Luego
bast tomar n igual a
1 2
1 2
n= .
4e2
241
Por ejemplo si e = 0,05 y = 0,05, buscando en la tabla normal se
tendr que 1 (1 /2) = 1 (0,975) = 1,96, y luego
1 2
1 2
n= = 384,16.
4e2
Luego, como n tiene que ser entero, bastar tomar n = 385.
El valor n calculado nos asegura la probabilidad deseada, pero dado
que se reemplaz p(1 p) por una cota superior, este valor de n hallado
puede ser ms grande que el estrictamente necesario. En la Seccin siguiente
veremos un teorema que nos permitir reemplazar a p(1p) por la estimacin
X n (1 X n ).

11.6. Teorema de Slutsky.


El siguiente teorema tiene numerosas aplicaciones en Estadstica.

Teorema 11.14 (Teorema de Slutsky) Sean (Xn )n1 e (Yn )n1 dos suce-
D P
siones de variables aleatorias tales que Xn X e Yn c, donde X es una
variable aleatoria y c una constante. Entonces se tiene

D
(i) Xn + Yn X + c,
D
(ii) Xn Yn cX,

(iii) Si c 6= 0 entonces,
Xn D X
.
Yn c

Para probar el el Teorema 11.14 necesitaremos probar previamente los


Teoremas 11.15-11.20.

Teorema 11.15 Sea (Xn )n1 una sucesin de variables aleatorias tales que
D
Xn X donde X es otra variable aleatoria. Entonces para toda constante
D
a R, se tiene aXn aX.

Demostracin. La demostracin la haremos distinguiendo tres casos: (i) a =


0, (ii) a > 0 y (iii) a < 0.

(i) Si a = 0, entonces es claro que aX = aXn = 0 y por lo tanto el


teorema se cumple.

242
(ii) Sea a > 0. Queremos probar que para todo punto x de continuidad de
FaX vale que
lm FaXn (x) = FaX (x) .
n+

Calculamos la funcin de distribucin de aXn

FaXn (x) = P (aXn x)


x
= P Xn
x a
= FXn ,
a
y de manera anloga, la funcin de distribucin de aX
x
FaX (x) = FX .
a
x
Entonces x es un punto de continuidad de FaX si y slo silo es
a
D
de FX . Ahora bien, como Xn X vale que para todo x punto de
continuidad de FX

lm FXn (x) = FX (x) .


n

x
En particular eso vale para . Esto demuestra el caso (ii) a > 0.
a
(iii) Sea a < 0. Este caso resulta ms complicado de probar. Probaremos
en primer lugar que vale para a = 1 y despus pasaremos al caso
D D
general. Queremos probar que si Xn X entonces Xn X.
En primer lugar es fcil ver que en general si X es una variable aleatoria
P (X < a) = FX (a ) , donde FX (a ) es el lmite de FX (x), cuando x
tiende a a por la izquierda. Para eso basta con observar que

[ 1
{X < a} = {X a }.
n=1
n

La sucesin de conjuntos Cn = {X a n1 } es montona creciente y


por lo tanto

1
P (X < a) = lm P X a
n n

1
= lm FX a
n+ n

= FX a .

243
Calcularemos ahora FX y FXn Por un lado

FX (x) = P (X x)
= P (X x)
= 1 P (X < x)

= 1 FX (x) .

Por otro lado y de manera anloga



FXn (x) = 1 FXn (x) .

Entonces tenemos que probar que si x es un punto de continuidad de


FX entonces

lm 1 FXn (x) = 1 FX (x) ,
n

o equivalentemente tenemos que probar que si x es un punto de con-


tinuidad de FX entonces

lm FXn (x) = FX (x) . (11.39)
n

ComoFX est definida como



FX (x) = 1 FX (x) ,

resulta que x es un punto de de continuidad de FX si y slo si x lo


FX . Por
es de lo tanto en los puntos donde FX es continua vale que
FX (x) = FX (x) . Por lo tanto (11.39) es equivalente a que

lm FXn (x) = FX (x) , (11.40)
n

en los puntos x para los cuales x es un punto de continuidad de FX .


Como x puede ser cualquiera, esto es equivalente a que

lm FXn x = FX (x) , (11.41)
n

para todo punto x que sea de continuidad de FX .


Por la monotona de FXn se tiene que FXn (x ) FXn (x) . Entonces
tomando lmite superior en ambos miembros y recordando que la
hiptesis de convergencia en distribucin implica que lmn FXn (x) =
FX (x) se obtiene

lmFXn x lmFXn (x)
= lm FXn (x)
n
= FX (x) . (11.42)

244
Observemos que como FX es continua en x entonces dado > 0 existe
> 0 tal que FX (x) < FX (x ) . Como el conjunto de puntos
de discontinuidad de FX es a lo sumo numerable, podemos elegir x
de forma tal que FX sea continua en x . Por la monotona de FXn
resulta
FXn x FXn (x ) .
Tomando lmite inferior y recordando que x es un punto de con-
tinudad de FX se obtiene

lmFXn x lmFXn (x )
= lm FXn (x )
n
= FX (x )
> FX (x) .

Ahora haciendo que 0 se tiene



lmFXn x FX (x) . (11.43)

Por lo tanto de (11.42) y (11.43) resulta



lmFXn x FX (x) lmFXn x .

Pero como siempre ocurre que lmFXn (x ) lmFXn (x ) , resulta


que
lmFXn x = FX (x) = lmFXn x ,
y entonces necesariamente existe lm FXn (x ) y adems

lm FXn x = FX (x) .

Esto demuestra (11.41).


Ahora probaremos el Teorema para cualquier a < 0. Para eso escribi-
mos
aXn = (a) (Xn ) .
D D
Entonces por un lado como Xn X se tiene que Xn X
. Por otro lado si a < 0 entonces a > 0 y por el caso (i) aXn =
D
(a) (Xn ) (a) (X) = aX. 2

Definicin 11.8 Sea (Xn )n1 una sucesin de variables aleatorias. Dec-
imos que la sucesin est acotada uniformemtne en probabilidad si dado
> 0 existe K > 0 tal que

P (|Xn | K) 1 .

245
Observacin. Recordemos que hemos probado, en el Teorema 10.6 en la
P
pgina 201 que si Xn X entonces dado > 0 existe K > 0 tal que para
todo n N
P (|Xn | K) 1
y
P (|X| K) 1 .
Esto significa que si una sucesin (Xn )n1 converge en probabilidad est
acotada uniformemente en probabilidad.

Para la convergencia en distribucin se tiene un resultado anlogo.

Teorema 11.16 Sea (Xn )n1 una sucesin de variables aleatorias y X otra
D
variable aleatoria tal que Xn X. Entonces dado > 0 existe K0 > 0 tal
que para todo n N
P (|Xn | K0 ) 1
y
P (|X| K0 ) 1 .

Demostracin. Por el Teorema 10.5 sabemos que dado > 0 existe K > 0
tal que

P (|X| K) 1 .
2
Observemos que si para cierto K > 0 vale la desigualdad, entonces tambin
vale para cualquier K1 > K. En efecto, como

{|X| K} {|X| K1 },

tomando probabilidades se tiene

1 P (|X| K) P (|X| K1 ) .

Luego, como el conjunto de puntos de discontinuidad de FX es a lo sumo


numerable, podemos elegir K de forma tal que FX sea continua en K y en
K. Entonces

P (|X| K) = P (K X K)
= P (K < X K)
= FX (K) FX (K) (11.44)

1 . (11.45)
2
Teniendo en cuenta la convergencia en distribucin de Xn a X, resulta

lm FXn (K) = FX (K) ,


n

246
y
lm FXn (K) = FX (K) .
n

Por definicin de lmite existe n1 N tal que si n n1 entonces



FXn (K) > FX (K) (11.46)
4
y tambin n2 N tal que si n n2 entonces

FXn (K) < FX (K) + (11.47)
4
Luego tenemos

P (|Xn | K) = P (K Xn K)
P (K < Xn K)
= FXn (K) FXn (K) . (11.48)

Sea n0 = m
ax{n1 , n2 }. Luego de (11.44), (11.46), (11.47) y (11.48) resulta
que si n n0 se tiene

P (|Xn | K) FXn (K) FXn (K)



> FX (K) FX (K) +
4 4

FX (K) FX (K)
2

1 = 1 .
2 2
Luego hemos conseguido la acotacin requerida para X y Xn con n n0 .
Finalmente para cada 1 j n0 1, podemos encontrar un nmero Kj > 0
tal que P (|Xj | Kj ) 1 . Entonces si ponemos

K0 = m
ax{K, K1 , K2 , ..., Kn0 1 }

se cumple
P (|Xn | K0 ) 1 , n
y
P (|X| K0 ) 1 . 2

Teorema 11.17 Sea (Xn )n1 una sucesin de variables aleatorias uniforme-
P
mente acotada en probabilidad y supongamos que Yn 0, entonces
P
Xn Yn 0.

247
Demostracin. Utilizado las dos hiptesis dado > 0 existe K > 0 tal que

P (|Xn | K) 1
2
y n0 N tal que para todo n n0 se tiene

P |Yn | < .
2K 2
Ahora observemos que

{|Xn Yn | > } {|Xn | > K} {|Yn | },
K
ya que si |Xn | K y |Yn | < /K entonces |Xn Yn | .
Tomando probabilidades tenemos que para todo n n0 resulta

P ({|Xn Yn | > }) P ({|Xn | > K}) + P {|Yn | }
K

< + = .
2 2
Esto prueba el teorema. 2

Teorema 11.18 Sean (Xn )n1 e (Yn )n1 dos sucesiones de variables aleato-
D P
rias y X otra variable aleatoria tal que Xn X e Yn 0. Entonces
D
Xn + Yn X.

Demostracin.
Queremos probar que si x es un punto de continuidad de FX entonces

lm FXn +Yn (x) = FX (x) .


n+

Sea > 0. Dado que el nmero de puntos de discontinuidad de FX es a lo


sumo numerable, siempre podemos elegir 0 < 1 < tal que x+1 sea punto
de continuidad de FX . Luego tenemos

{Xn + Yn x} {Xn x + 1 } {|Yn | > 1 }

pues si Xn > x + 1 y |Yn | 1 entonces Xn + Yn > x.


Tomando probabilidades en ambos miembros obtenemos

FXn +Yn (x) FXn (x + 1 ) + P (|Yn | > 1 ) . (11.49)

Como
lm FXn (x + 1 ) = FX (x + 1 ),
n

248
y
lm P (|Yn | > 1 ) = 0,
n

tomando lmite superior en (11.49) se obtiene

lmFXn +Yn (x) lm [FXn (x + 1 ) + P (|Yn | > 1 )]


= lm FXn (x + 1 ) + lm P (|Yn | > 1 )
n n
= FX (x + 1 )
FX (x + ).

Haciendo 0 resulta

lmFXn +Yn (x) FX (x) . (11.50)

Tomemos ahora 0 < 1 < y tal que x 1 sea un punto de continuidad de


FX . Observemos que tambin vale

{Xn x 1 } {Xn + Yn x} {|Yn | > 1 },

ya que Xn + Yn > x y |Yn | equivale a Xn + Yn > x y Yn de


manera que sumando obtenemos Xn > x .
Tomando probabilidades resulta

FXn (x 1 ) FXn +Yn (x) + P (|Yn | > 1 ),

y pasando al lmite inferior, como x 1 es un punto de continuidad de FX


se obtiene
FX (x 1 ) lmFXn +Yn (x).
Adems, como
FX (x ) FX (x 1 ),
resulta
FX (x ) lmFXn +Yn (x) .
Luego tomando lmite cuando 0, y dado que FX es continua en x,
tenemos
FX (x) lmFXn +Yn (x) . (11.51)
De (11.50) y (11.51) se obtiene

lmFXn +Yn (x) FX (x) lmFXn +Yn (x) ,

y esto implica que


lm FXn +Yn (x) = FX (x) . 2
n

249
Teorema 11.19 Sea (Xn )n1 una sucesin de variables aleatorias y X otra
D
variable aleatoria tal que Xn X. Si a es constante, entonces
D
Xn + a X + a.

Demostracin. Tenemos

FXn +a (x) = P (Xn + a x)


= P (Xn x a)
= FXn (x a) ,

FX+a (x) = P (X + a x)
= P (X x a)
= FX (x a) .

Por lo tanto si x es un punto de continuidad de FX+a entonces x a es


un punto de continuidad de FX de manera que aplicando la hiptesis y lo
anterior resulta

lm FXn +a (x) = lm FXn (x a)


n+ n+
= FX (x a)
= FX+a (x) . 2

Teorema 11.20 Sea (Xn )n1 una sucesin de variables aleatorias tal que
P
Xn c, donde c es una constante. Luego si g es una funcin medible
continua en c, se tiene
P
Yn = g(Xn ) g(c).

Demostracin. Dado > 0 existe > 0 tal que |x c| implica |g(x)


g(c)| . Luego

{|g(x) g(c)| > } {|x c| > }.

En particular
{|g(Xn ) g(c)| > } {|Xn c| > }.
y tomando probabilidades y lmites obtenemos

lm P (|g(Xn ) g(c)| > ) lm P (|Xn c| > ) = 0.


n n

250
Luego
lm P (|g(Xn ) g(c)| > ) = 0,
n
y el teorema queda probado. 2

Ahora estamos en condiciones de probar el Teorema de Slutzky, enunci-


ado en la pgina 242.

Demostracin.

(i) Podemos escribir

Xn + Yn = (Xn + c) + (Yn c) .

Sabemos por el Teorema 11.19 que


D
Xn + c X + c,

e
P
Yn c 0.
y aplicando el Teorema 11.18
D
Xn + Yn X + c.

(ii) Escribimos el producto de la siguiente manera

Xn Yn = cXn + (Yn c) Xn .

Sean
Zn = (Yn c) Xn ,
y
Un = cXn .
P
Por un lado sabemos que (Yn c) 0 y que la sucesin (Xn )n1
est uniformemente acotada en probabilidad, entonces aplicando el
Teorema 11.17 se tiene que
P
Zn 0,

y aplicando el Teorema 11.15


D
Un cX.

Finalmente, aplicando el Teorema 11.18


D
Xn Yn = Un + Zn cX.

251
(iii) Como c 6= 0 y la funcin g(y) = 1/y es continua en y = c, resulta por
el Teorema 11.20 que
1 P 1
.
Yn c
Luego como
Xn 1
= Xn .
Yn Yn
(iii) resulta aplicando (ii). 2

Para ver cmo se usa el Teorema de Slutsky en casos particulares, re-


tomemos la aplicacin del Teorema Central del Lmite a la binomial, pre-
sentada en la seccin 11.5.3.
Sea


1 si el isimo encuestado declara votar al partido C
Xi =
0 si el isimo encuestado declara no votar al partido C

y sea P (Xi = 1) = p, siendo p el parmetro de inters que es desconocido.


Luego habamos demostrado que

Yn np Xn p D
Zn = p = np N (0, 1) ,
np (1 p) p (1 p)
donde
n
X Yn
Yn = , Xn =
n
i=1

Por la Ley Dbil de los Grandes Nmeros sabemos que

P
X n p.

Como la funcin g (p) = p (1 p) es continua, por el Teorema 10.7 resulta


que
P
X n (1 X n ) p (1 p) .
Luego resulta que
Xn p D
nq N (0, 1) .
X n (1 X n )

Ahora daremos una aplicacin de estos conceptos resolviendo el siguiente


problema de Estadstica.

252
11.7. Aplicacin a intervalos de confianza.

Problema: Sea X una variable aleatoria cuya funcin de distribucin F


desconocemos. Por ejemplo, puede tratarse del peso de una lata de arvejas
que es una variable aleatoria que vara de lata en lata. La distribucin de
X no tiene por qu ser normal. Sean = E (X) y 2 = Var (X) parmet-
ros que dependen de F y que supondremos desconocidos. En estadstica se
los denomina parmetros poblacionales. Se toma una muestra aleatoria de
tamao n y se obtienen las variables aleatorias X1 , X2 , ..., Xn . Estas vari-
ables sern independientes e identicamente distribuidas con distribucin F.
El problema consiste en estimar el parmetro desconocido a partir de las
variables observadas y precisar la magnitud del error que se puede estar
cometiendo.
Como por la ley fuerte de los grandes nmeros se tiene que X n c.s.,
podemos tomar como estimacin del parmetro el promedio aritmtico de
la muestra, es decir, X n
bn = X n .

Para n grande este valor estar prximo a la media verdadera , y el
error cometido en esta aproximacin ser

En = X n .

As, el error resulta una variable aleatoria. Un problema natural es tratar


de encontrar, para un valor de n determinado, una cota para el mdulo del
error, con una alta probabilidad.
Teniendo en cuenta que la varianza se define 2 = E X 2 [E (X)]2
podemos estimar la varianza de la siguiente manera
Pn P
2 i=1 Xi
2 ( ni=1 Xi )2
bn = .
n n
Usando la ley de los grandes nmeros se tendr que
Pn 2
i=1 Xi
E(X 2 ) c.s.,
n
y Pn
i=1 Xi
Xn = E(X) c.s.
n
Luego como el cuadrado es una funcin continua se tendr

bn2 E(X 2 ) E 2 (X) = 2


c.s.,

y por lo tanto,
bn
c.s.

253
y
P
bn .

Por el Teorema Central del Lmite
Xn D
n N (0, 1) . (11.52)

P
bn , se tendr
Como sabemos que
P
1. (11.53)
bn

Luego teniendo en cuenta (11.52) y (11.53), y aplicando el teorema de
Slutzky resulta
Xn Xn D
Zn = n = n N (0, 1) .
bn
bn
bn en (11.52), la convergencia
Es decir, si se reemplaza a por su estimador
en distribucin no cambia.
Ahora consideremos un valor , 0 < < 1 que en estadstica recibe
el nombre de nivel de significacin, generalmente se toma = 0, 01 o bien
= 0, 05. Buscamos en la tabla de la distribucin normal un valor z/2 tal
que P (Z > /2) = /2 donde Z es una variable N(0, 1). Luego por simetra
tambin se tendr P Z < z/2 = 2 .
D D
Ahora bien si Zn Z con Z N (0, 1) entonces tambin Zn Z.
Como Z tambin es N (0, 1) tenemos que para n grande

P z/2 Zn z/2 1 ,

donde indica aproximadamente es decir



Xn
P z/2 n z/2 1 ,
bn

y despejando

bn
z/2 bn
z/2
P Xn Xn + 1 . (11.54)
n n
Luego fijando se puede garantizar que la probabilidad de que se
encuentre en el intervalo de extremos aleatorios

bn
z/2 bn
z/2
Xn ; Xn + .
n n
es aproximadamente 1 . Este intervalo se llama intervalo de confianza
para . Obsrvese que hay dos parmetros que pueden variar, el nivel de

254
significacin y el tamao de la muestra n. Cuando decrece z/2 aumen-
ta y consecuentemente aumenta la longitud intervalo de confianza. Como
contrapartida tambin aumenta la probabilidad que contenga a . En cam-
bio cuando n crece y se mantiene el constante, la longitud del intervalo
decrece, tendiendo a 0 cuando n tiende a infinito.
Obsrvese que otra manera de escribir (11.54) es la siguiente

bn
z/2
P |En | 1 .
n

Es decir, tenemos acotado el error |En | por z/2 bn / n con probabilidad
aproximada 1 .

11.8. Un teorema til de Convergencia en Dis-


tribucin
En primer lugar recordemos que si (Xn )n1 es una sucesin de variables
aleatorias i.i.d entonces
Xn D
n N (0, 1) ,

o equivalentemente por el Teorema 11.15
D
n X n N 0, 2 .


Sea g una funcin continua en . Parece natural preguntarse si n(g(X n )
g()) converge en distribucin y en caso de que as sea a qu distribucin
converge. El siguiente teorema responde esta pregunta.

Teorema 11.21 Sea (Yn )n1 una sucesin de variables aleatorias y (an )n1
una sucesin de nmeros reales tal que an . Supongamos que la sucesin
D
de variables aleatorias an (Yn ) X. Sea g : R R una funcin con
derivada continua en un entorno de .

(i) Entonces
D
Wn = an (g (Yn ) g ()) g 0 () X.

(ii) Si X N 0, 2 entonces g 0 () X N 0, [g 0 (u)]2 2 . Este resulta-
do vale an cuando g 0 () = 0 si la distribucin N (0, 0) se interpreta
como la distribucin de la variable constantemente igual a cero.

255
Demostracin.

(i) Por el Teorema 11.16, la sucesin an (Yn ) est uniformemente aco-


tada en probabilidad. Si consideramos la sucesin (an )n1 de nmeros
reales como una sucesin de variables aleatorias constantes, es claro
que
1 P
0.
an
Luego de acuerdo al Teorema 11.17 resulta
1 P
(Yn ) = (an (Yn )) 0,
an
o equivalentemente
P
Yn .
Como g es continua y derivable en un entorno de podemos aplicar
el Teorema del Valor Medio y encontrar un punto intermedio n entre
Yn y tal que
Wn = an g 0 (n ) (Yn ) .
P
Adems como Yn resulta que la sucesin de variables aleatorias
P
(n )n1 tambin satisface n . Por la continuidad de g 0 y el Teore-
ma 11.20 se tiene
P
g 0 (n ) g 0 () .
Aplicando la parte (ii) del Teorema de Slutzky se obtiene

Wn = g 0 (n ) Zn g 0 () X.


(ii) Se deduce de (i) pues si X N 0, 2 , entonces g 0 () X N 0, [g 0 ()]2 2 . 2

256
Captulo 12

Procesos de Poisson.

12.1. Procesos de punto.


Supongamos que se observan sucesos que ocurren a lo largo del tiempo
en forma aleatoria. Por ejemplo, los sucesos pueden ser la llegada de clientes
a un negocio, las llamadas telfonicas que llegan a una central, la emisin
de partculas que realiza un cierto material radioactivo, etc.
Ms formalmente, para cada valor t 0, denominemos X (t) la cantidad
de sucesos que ocurrieron desde un instante inicial 0 hasta t. Luego, supon-
dremos que para cada t, X (t) es una variable aleatoria que toma valores
enteros no negativos. Adems tendremos naturalmente que X(0) = 0, y que
si t1 < t2 , entonces X(t1 ) X(t2 ). Todas las variables aleatorias X(t), t 0
estarn definidas sobre un mismo espacio de probabilidad (, A, P ), pero
como la construccin de este espacio es sumamente complicada no daremos
detalles sobre el mismo. Digamos solamente que un posible espacio muestral
puede estar dado por

= { : R0 N0 : es no decreciente y continua a derecha}.

Luego X puede pensarse entonces dependiendo de t R0 y


, X(t) | = X (t, ) = (t)
Los procesos X (t) que miden la candidad de sucesos que ocurren hasta
el tiempo t, se denominan procesos de punto.

12.2. Axiomtica de los Procesos de Poisson


Los procesos de Poisson, son procesos de punto particulares que satis-
facen los siguientes cuatro axiomas.

A1. Homogeneidad.

257
Supongamos que 0 t1 < t2 , 0 t3 < t4 y adems t4 t3 = t2 t1 .
Entonces las variables aleatorias

X (t2 ) X (t1 ) y X (t4 ) X (t3 )

tienen la misma distribucin. Observando que X (t2 ) X (t1 ) es el


nmero de sucesos que ocurrieron entre t1 y t2 , este axioma significa
que la distribucin del nmero de sucesos ocurridos en un perodo de
tiempo, depende slo de la longitud de ese perodo.

A2. Independencia.
Consideremos dos periodos de tiempo esencialmente disjuntos (a lo
sumo pueden tener en comn un punto) [t1 , t2 ] , [t3 , t4 ], t1 < t2 t3 <
t4 . Entonces las variables aleatorias

X (t2 ) X (t1 ) y X (t4 ) X (t3 )

son independientes. Esto significa que el nmero de sucesos que ocurre


en un perodo de tiempo de tiempo [t1 , t2 ] es independiente del nmero
de sucesos que ocurre en el perodo [t3 , t4 ], donde t3 t2 . Luego el
hecho de tener informacin sobre el nmero de sucesos del perodo
[t1 , t2 ] no aporta datos que ayuden a predecir el nmero de sucesos
del perodo [t3 , t4 ]. Los perodos considerados no tienen por qu ser de
igual longitud.
Los axiomas A3 y A4 son de carcter ms tcnico que los anteriores.

A3. Sea
g1 (t) = P (X (t) = 1) ,
entonces
g10 (0) = > 0,
es decir
P (X (t) = 1)
lm = > 0.
t0 t
Esto es equivalente a que

P (X (t) = 1) = t + o1 (t) , (12.1)

donde
o1 (t)
lm = 0. (12.2)
t0 t

A4.
P (X (t) > 1)
lm = 0,
t0 t

258
o equivalentemente existe o2 (t) tal que

P (X (t) > 1) = o2 (t) , (12.3)

donde o2 satisface
o2 (t)
lm = 0. (12.4)
t0 t
Para modelar un proceso real como un proceso de Poisson se requiere
de la verificacin de este conjunto de axiomas. Existen muchos procesos
concretos que no responden a este modelo.

12.3. Distribucin de un proceso de Poisson.


El siguiente teorema caracteriza la distribucin de los procesos de Pois-
son.

Teorema 12.1 Si X (t) es un proceso de punto que satisface A1, A2, A3 y


A4 entonces X (t) tiene distribucin de Poisson con parmetro t, es decir
X (t) P (t) .

Demostracin. Para cada n dividimos el intervalo [0, t] en n subintervalos de


igual longitud que denominaremos Iin , 1 i n. Ms precisamente consid-
eramos la particin regular del interval [0, t] con n + 1 puntos

n t 2t (n 1) t
= 0, , , ..., ,t .
n n n
Esta particin determina n subintervalos

n (i 1) t it
Ii = , , 1 i n.
n n
El nmero de sucesos que ocurre en Iin es

n it (i 1) t
Vi = X X .
n n
Por A1, las variables Vin , 1 i n, tienen la misma distribucin que
X(t/n) = V1n y por el axioma A2 son independientes.
Para cada i definimos el vector aleatorio

Zni = (Zi1
n n
, Zi2 n
, Zi3 )

donde
n 1 si Vin = 0
Zi1 =
0 si Vin 6= 0,

259

n 1 si Vin = 1
Zi2 =
0 si Vin 6= 1,

n 1 si Vin > 1
Zi3 =
0 si Vin 1.
n = 1 indica que en el intervalo I n no ocurri ningn suceso,
El evento Zi1 i
n n = 1 que ocurri ms de uno. Es claro
Zi2 = 1 que ocurri slo uno, y Zi3
que siempre ocurre una y slo una de esas tres posibilidades y por lo tanto
n n n
Zi1 + Zi1 + Zi1 = 1.

Por otro lado, la distribucin del vector Zni es multinomial, digamos con
parmetros de probabilidad p1n , p2n , p3n y para una nica repeticin. Luego

Zni M (p1n , p2n , p3n , 1) ,

donde

t
p1n =P X =0 ,
n

t
p2n =P X =1 ,
n

t
p3n =P X >1 .
n
Usando (12.2) y (12.3) resulta

t t
p2n = + o1 , (12.5)
n n
y
t
p3n = o2 . (12.6)
n
Finalmente

p1n = 1 p2n p3n (12.7)



t t t
= 1 o1 o2
n n n

t t
= 1 o3 , (12.8)
n n
donde
o3 (t ) = o1 (t ) + o2 ( t) .
Claramente, de (12.2) y (12.3) resulta
o3 (t)
lm = 0. (12.9)
t0 t

260
Como las variables Vin , 1 i n son independientes, y como el vector Zni
depende solo de Vin , los vectores Zni , 1 i n tambin son independientes.
Ahora definimos las variables
n
X
Y1n = n
Zi1 ,
i=1
n
X
Y2n = n
Zi2 ,
i=1
n
X
Y3n = n
Zi3 .
i=1

Claramente Y1n es el nmero de intervalos en los que no ocurre ningn suceso,


Y2 es el nmero de intervalos en los que ocurre exactamente uno e Y3n es
n

la cantidad de intervalos en los que ocurre ms de un suceso. Luego, la


distribucin del vector Yn = (Y1n , Y2n , Y3n ) es multinomial con parmetros
de probabilidad p1n , p2n , p3n y n repeticiones. Por lo tanto podemos escribir
Yn = (Y1n , Y2n , Y3n ) M (p1n , p2n , p3n , n) .
Sea An el evento en ningn intervalo ocurre ms de un suceso. Es decir
An = {Y3n = 0}.
Veremos que
lm P (An ) = 1.
n
o equivamentemente
lm P (Acn ) = 0.
n
Observemos que
n
[
Acn = n
{Zi3 = 1},
i=1
pues si en algn intervalo ocurre el suceso ms de una vez entonces existe
n = 1 y recprocamente.
algn i tal que la variable Zi3
Luego, como P (Zi3 n = 1) = p , usando (12.6) resulta
3n
n !
[
c n
P (An ) = P {Zi3 = 1}
i=1
n
X
n t
P (Zi3 = 1) = np3n = no2 .
n
i=1

Como t/n 0 cuando n , por (12.4) resulta


! !
c o2 nt o2 nt
lm P (An ) lm t t = t l
m t = 0. (12.10)
n n n
n n

261
Calculemos ahora la probabilidad de que hasta el momento t hayan ocurrido
k sucesos. Tenemos

P (X (t) = k) = P ({X (t) = k} An ) + P ({X (t) = k} Acn ) .

Pasando al lmite y teniendo en cuenta (12.10) resulta

lm P ({X (t) = k} Acn ) = 0,


n+

y entonces
P (X (t) = k) = lm P ({X (t) = k} An ) .
n+

Pero es claro que el evento {X (t) = k} An se caracteriza por

{X (t) = k} An = {Y1n = n k, Y2n = k, Y3n = 0},

y luego

P (X (t) = k) = lm P (Y1n = n k, Y2n = k, Y3n = 0) .


n+

Teniendo en cuenta que la ditribucin del vector Yn es M (p1n , p2n , p3n , n) ,


obtenemos
n!
P (X (t) = k) = lm pnk pk p0
n+ (n k)!k! 1n 2n 3n
k !
1 Y
= lm (n i + 1)
k! n+
i=1
nk k
t t t t
. 1 + o3 + o1
n n n n

Como k k
t t 1 t
+ o1 = k t + no1 ,
n n n n
tenemos
k !
1 Y (n i + 1)
P (X (t) = k) = lm
k! n+ n
i=1
nk k
t t t
. 1 + o3 t + no1 ,
n n n

o bien
1
P (X (t) = k) = lm Bn Cn Dn En , (12.11)
k! n

262
donde
k
Y ni+1
Bn =
n
i=1
n
t t
Cn = 1 + o3
n n
k
t t
Dn = 1 + o3
n n
k
t
En = t + no1 .
n

Comencemos calculando el lmite de Bn

k
Y ni+1
lm Bn = lm
n+ n+ n
i=1
k
Y
ni+1
= lm
n+ n
i=1
Yk
i1
= 1 lm
n+ n
i=1
k
= 1 = 1. (12.12)

El lmite de Cn se puede calcular de la siguiente manera


n
t t
lm Cn = lm 1 + o3
n+ n+ n n
n
1 t
= lm 1 t no3
n+ n n
an n
= lm 1 .
n+ n

donde
t
an = t no3 .
n
Como en (12.10) se puede demostrar que

t
lm no3 = 0,
n n

y entonces resulta
lm an = t.
n+

263
Por lo tanto
an n
lm Cn = lm 1
n+ n+ n

= exp lm an
n
= exp (t) . (12.13)

Por otro lado, como t/n 0 cuando n , y o1 (t/n) 0, resulta


k
t t
lm Dn = lm 1 + o3 = 1k = 1. (12.14)
n+ n+ n n

Finalmente, como lmn+ no1 (t/n) = 0, resulta


k
t
lm En = lm t + no1
n+ n+ n
= (t)k . (12.15)

Usando (12.11), (12.12), (12.13), (12.14) y (12.15) obtenemos

(t)k
P ({X (t) = k}) = exp (t) .
k!
Esto prueba que X (t) P (t) . 2

12.4. Tiempos de espera


Sea T1 la variable aleatoria definida como el tiempo necesario hasta que
ocurra el primer suceso . Calcularemos ahora su distribucin.

Teorema 12.2 T1 tiene distribucin exponencial con parmetro , es decir,


E().

Demostracin.

FT1 (t) = P (T1 t)


= P (X (t) > 0)
= 1 P (X (t) = 0)
= 1 exp (t) .

Luego T1 E () .2

Otro problema de inters es la distribucin de los tiempos sucesivos de


ocurrencia de los sucesos. Definamos T2 como el tiempo de espera hasta que

264
ocurra el segundo suceso entonces T2 T1 tiene la misma distribucin que
T1 . No daremos una demostracin formal de este hecho. Heursticamente,
este resultado puede justificarse de la siguiente manera. T2 T1 es el tiempo
de espera para el primer suceso luego del instante T1 . Como por A1 el proceso
es homogneo, este tiempo de espera debera tener la misma distribucin que
T1 . Adems como T1 est determinado por X(t) con t t1 y T2 T1 por
X(t) con t > T1 , por A2, resulta que T1 es independiente de T2 T1 .
Definamos ahora Ti como el tiempo de espera hasta que ocurran i suce-
sos. Luego, un argumento similir puede aplicarse, y tendremos el siguiente
teorema que enunciaremos sin demostracin.

Teorema 12.3 Las variables aleatorias T1 , T2 T1 , T3 T2 , ..., Ti Ti1 , ...


son i. i. d. con distribucin E().

Corolario 12.1 El tiempo de espera Ti tiene distribucin (i, ).

Demostracin. Podemos escribir a la variable Ti como una suma telescpica

Ti = T1 + (T2 T1 ) + (T3 T2 ) + ... + (Ti Ti1 ) .

Recordando que E () = (1, ) y teniendo en cuenta que Ti una suma


de variables independientes todas con distribucin (1, ) resulta que Ti
(i, ) . 2

12.5. Procesos de Poisson en el plano.


Los procesos de Poisson se pueden generalizar al plano. No vamos a de-
scribir estos procesos con detalle, pero daremos una breve presentacin. Un
ejemplo de este tipo de procesos podra ser los que representan la ubicacin
de los rboles en un bosque.
Consideramos ahora el plano en vez de la recta. Supongamos que en cier-
tos puntos del plano ocurren sucesos en forma aleatoria, como por ejemplo
la presencia de un rbol. Luego para cada boreliano B del plano tendremos
la variable aleatoria X(B) que representa la cantidad de sucesos que han
ocurrido en B (por ejemplo, la cantidad de rboles que se encuentran en
la regin B). Los axiomas de un proceso de Poisson en el plano son los
siguientes:

AP1. Homogeneidad.
Dado un boreliano, notemos con A su rea. Supongamos que B1 B2
B2 son boreleanos del plano tal que A (B1 ) = A (B2 ) entonces las
variables aleatorias
X (B1 ) y X (B2 )

265
tienen la misma distribucin. Esto dice que la distribucin del nmero
de sucesos que ocurren en una regin del plano slo depende de su
rea.

AP2. Independencia.
Consideremos dos borelianos del plano esencialmente disjuntos B1 ,
B2 B2 , es decir tal que A (B1 B2 ) = 0. Entonces las variables
aleatorias X (B1 ) y X (B2 ) son independientes. Esto significa que
cuando las regiones B1 y B2 tienen rea en comn igual a 0, entonces
la informacin de lo que ocurre en una regin B1 no aporta ninguna
informacin respecto de lo que ocurre en la regin B2 .

AP3.
P (X (B) = 1)
lm = > 0,
A(B)0 A(B)
o bien
P (X (B) = 1) = A(B) + o1 (A(B)) .

AP4.
P ({X (B) > 1})
lm = 0,
A(B)0 A(B)
o equivalentemente existe o2 (t) tal que

P ({X (B) > 1}) = o2 (A(B)) .

El siguiente teorema se demuestra de manera totalmente anloga al cor-


respondiente para procesos de Poisson en la recta.

Teorema 12.4 Si X (B) es un proceso que satisface AP1, AP2, AP3 y


AP4 entonces la distribucin de X (B) es Poisson con parmetro A (B) ,
es decir X (B) P (A (B)) .

Supongamos que se elija un punto cualquiera del plano (x0 , y0 ), y sea


D1 la distancia de este punto (x0 , y0 ) al punto ms cercano donde ocurre
un suceso (en el ejemplo, D1 sera la distancia al rbol ms prximo), D2 la
distancia de (x0 , y0 ) al punto donde ocurre el segundo suceso ms prximo,
..., Di la distancia de (x0 , y0 ) al punto donde ocurre el i-simo suceso ms
prximo. El siguiente teorema nos da la distribucin de D12 .

Teorema 12.5 La distribucin de D12 es E().

266
Demostracin. Sea d > 0 y sea C el crculo con centro en (x0 , y0 ) y radio
d1/2 . Decir que D1 d1/2 es lo mismo que decir que en C ocurri algn
suceso. Luego

{D12 d} = {D1 d1/2 }


= {X(C) > 0}
= {X(C) = 0}c .

Luego tomando probabilidades y teniendo en cuenta que A(C) = d

P (D12 d) = 1 P (X(C) = 0)
= 1 exp(A(C))
= 1 exp(d)

y por lo tanto D12 tiene distribucin E(). 2

El siguiente teorema, del cual no se dar la demostracin, es nlogo al


correspondiente teorema para Procesos de Poisson en la recta.

Teorema 12.6 Las variables aleatorias D12 , D22 D12 , D32 D22 , ..., Di2 Di1
2 , ...

son i. i. d. con distribucin E().

Como corolario tendremos

Corolario 12.2 La variable aleatoria Di2 tiene distribucin (i, ).

267

También podría gustarte